На днях власти Евросоюза представили первый проект Практического кодекса для моделей общего искусственного интеллекта (AGI), также именуемых «сильным ИИ» и «человекообразным ИИ». В опубликованном документе, который будет окончательно переработан к маю следующего года, содержатся основные принципы управления рисками, а также план по соблюдению нормативных требований и возможности для компаний избежать значительных штрафов.
Европейский «Закон об ИИ» начал действовать 1 августа, при этом предусмотрена возможность установить правила применения ИИ общего назначения в будущем. Этот проект документа представляет собой первую попытку разъяснить требования к современным моделям. Заинтересованные стороны имеют возможность предоставить свои отзывы и предложения по доработке, прежде чем нормы вступят в силу.
К моделям искусственного интеллекта общего назначения относятся системы, которые были обучены с использованием общей вычислительной мощности свыше 10²⁵ флопс. Ожидается, что под влияние данного документа подпадут компании OpenAI, Google, Meta, Anthropic и Mistral, хотя список может быть расширен.
Кодекс охватывает несколько аспектов деятельности разработчиков общего ИИ: прозрачность, соблюдение авторских прав, оценку рисков, а также меры по снижению технических и управленческих рисков. Разработчики ИИ должны предоставлять информацию о веб-сканерах, использованных для обучения моделей, что имеет важное значение для обладателей авторских прав и создателей контента. Оценка рисков включает в себя действия по предотвращению киберпреступлений, исключению дискриминационных материалов из учебных массивов и обеспечению контроля над системами ИИ.
Разработчики искусственного интеллекта ожидают создания «Рамочной структуры принципов безопасности» (Safety and Security Framework — SSF). Этот документ будет способствовать разработке политик, направленных на сдерживание угроз и их смягчение в зависимости от специфических рисков, связанных с системой. Предложенные европейские нормативные акты также затрагивают технические аспекты, такие как защита данных моделей, обеспечение отказоустойчивого контроля доступа и регулярная оценка их эффективности. В разделе, посвящённом взаимодействию с государственными органами, предусмотрена ответственность разработчиков: им необходимо постоянно проводить оценку рисков и при необходимости привлекать внешних экспертов. Нарушение «Закона об ИИ» может повлечь серьёзные штрафы - до €35 миллионов или до 7 % от глобальной годовой прибыли, в зависимости от того, что больше. Заинтересованные стороны могут направлять свои отзывы до 28 ноября; окончательная версия документа будет готова к 1 мая 2025 года.