ЕС опубликовал проект правил, по которым будет существовать ИИ уровня человека

На днях власти Евросоюза представили первый проект Практического кодекса для моделей общего искусственного интеллекта (AGI), также именуемых «сильным ИИ» и «человекообразным ИИ». В опубликованном документе, который будет окончательно переработан к маю следующего года, содержатся основные принципы управления рисками, а также план по соблюдению нормативных требований и возможности для компаний избежать значительных штрафов.

Европейский «Закон об ИИ» начал действовать 1 августа, при этом предусмотрена возможность установить правила применения ИИ общего назначения в будущем. Этот проект документа представляет собой первую попытку разъяснить требования к современным моделям. Заинтересованные стороны имеют возможность предоставить свои отзывы и предложения по доработке, прежде чем нормы вступят в силу.

К моделям искусственного интеллекта общего назначения относятся системы, которые были обучены с использованием общей вычислительной мощности свыше 10²⁵ флопс. Ожидается, что под влияние данного документа подпадут компании OpenAI, Google, Meta, Anthropic и Mistral, хотя список может быть расширен.

Кодекс охватывает несколько аспектов деятельности разработчиков общего ИИ: прозрачность, соблюдение авторских прав, оценку рисков, а также меры по снижению технических и управленческих рисков. Разработчики ИИ должны предоставлять информацию о веб-сканерах, использованных для обучения моделей, что имеет важное значение для обладателей авторских прав и создателей контента. Оценка рисков включает в себя действия по предотвращению киберпреступлений, исключению дискриминационных материалов из учебных массивов и обеспечению контроля над системами ИИ.

Разработчики искусственного интеллекта ожидают создания «Рамочной структуры принципов безопасности» (Safety and Security Framework — SSF). Этот документ будет способствовать разработке политик, направленных на сдерживание угроз и их смягчение в зависимости от специфических рисков, связанных с системой. Предложенные европейские нормативные акты также затрагивают технические аспекты, такие как защита данных моделей, обеспечение отказоустойчивого контроля доступа и регулярная оценка их эффективности. В разделе, посвящённом взаимодействию с государственными органами, предусмотрена ответственность разработчиков: им необходимо постоянно проводить оценку рисков и при необходимости привлекать внешних экспертов. Нарушение «Закона об ИИ» может повлечь серьёзные штрафы - до €35 миллионов или до 7 % от глобальной годовой прибыли, в зависимости от того, что больше. Заинтересованные стороны могут направлять свои отзывы до 28 ноября; окончательная версия документа будет готова к 1 мая 2025 года.

 

Читайте новости первыми в нашем Telegram-канале!

Подписывайтесь на наш канал в Дзен!

Версия для печатиВерсия для печати

Регион: 

Рубрики: 

Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!