11 мая 2023 года объединенные комитеты Европейского парламента (IMCO и LIBE) завершили многомесячные переговоры и приняли проект парламентской позиции по проекту Закона об искусственном интеллекте.Закон об ИИ)[1]. Позиция парламента вносит много изменений в отношении текущей версии предложения, представленной Комиссией.[2] в апреле 2021 года, а также принятого Советом ЕС[3] в декабре 2022 года. Ниже приведены наиболее важные изменения. К ним относятся введение новых определений и предложение по изменению классификации систем ИИ, что напрямую повлияет на обязательства поставщиков, пользователей (исполнителей), импортеров и дистрибьюторов систем ИИ.
Другое определение системы ИИ
В своей позиции парламент принял совершенно иной подход к определению системы ИИ, чем в предыдущих проектах. Позиция гласит, что система ИИ должна быть «машинной системой, которая предназначена для работы с различными уровнями автономии и которая может для ясных или неявных целей генерировать выходные данные, такие как прогнозы, рекомендации или решения, которые влияют на реальную или виртуальную среду». Это означает, что существует гораздо более широкое определение, чем раньше. Это также очень похоже на определение, принятое ОЭСР в 2019 году.[4] Частично действует в американском праве[5].
Изменилось также определение системы ИИ общего назначения, введенное Советом. Согласно позиции парламента, эта концепция предназначена для охвата «системы ИИ, которая может использоваться и адаптироваться к широкому спектру приложений, для которых она не была преднамеренно и специально разработана».

Поправки к запрещенным системам ИИ
В своем предложении парламент значительно расширил список систем ИИ с неприемлемыми рисками, которые должны быть запрещены к маркетингу, вводу в эксплуатацию и использованию.
Каталог запрещенных систем ИИ включает в себя:
- биометрическая категоризация, которая классифицирует людей в соответствии с чувствительными или защищенными характеристиками или свойствами или на основе запросов на эти характеристики или характеристики;
- создание или расширение баз данных распознавания лиц путем ненаправленной загрузки изображений лиц из Интернета или записей с промышленных камер;
- запрос эмоций отдельных лиц в сферах правоохранительной деятельности, пограничного контроля, на рабочих местах и в учебных заведениях;
- Анализ записей, записанных в публичном пространстве с помощью биометрических систем удаленной идентификации, работающих «постфактум», если они не подлежат предварительному разрешению суда и строго необходимы в связи с конкретным и серьезным преступлением. Следует отметить, что список правонарушений, оправдывающих такие действия, был значительно сужен по сравнению с предыдущими проектами Закона об искусственном интеллекте.
Кроме того, Парламент расширил и разъяснил рамки уже существующих систем, т.е. подсознательных систем, систем, эксплуатирующих слабые стороны конкретных групп лиц, а также систем точечной социальной оценки (см.Социальная координация). Существенно изменено также положение, касающееся использования в публичном пространстве биометрических систем дистанционной идентификации в режиме реального времени для правоохранительных органов.
Кроме того, «удалены» из списка систем ИИ с высоким риском в список запрещенных систем ИИ, основанных на профилировании, местоположении или предыдущем преступном поведении. Это положение также получило некоторые изменения в отношении его конкретной сферы применения.
Изменения в системах ИИ высокого риска
Были также внесены серьезные изменения в системы ИИ с высоким риском, и некоторые узкие места были классифицированы как таковые. По сравнению с предыдущими проектами уже недостаточно, чтобы конкретная система ИИ была системой, которая классифицируется в Приложении III к Закону об искусственном интеллекте, но для ее признания в качестве системы с высоким риском ей все равно придется представлять значительный риск ущерба здоровью, безопасности, основным правам или окружающей среде (для уточнения этих вопросов Комиссия будет обязана выдавать соответствующие рекомендации). Если, с другой стороны, поставщик ИИ, классифицированный в Приложении III, считает, что его система не представляет значительного риска, он должен будет предоставить соответствующее обоснование национальному надзорному органу.
Системы и категории, перечисленные в Приложении III, также были изменены и расширены. Сфера применения существующей классификации была расширена, уточнена и дополнена, в частности, системами ИИ, предназначенными для:
- запросы на индивидуальные особенности лиц на основе биометрических или биометрических данных (включая системы распознавания эмоций);
- использование в качестве элементов безопасности, связанных с управлением и эксплуатацией водоснабжения, газа, отопления, электроснабжения и критической цифровой инфраструктуры;
- использовать для влияния на результаты выборов или референдумов или поведение отдельных лиц во время голосования;
- использование платформами социальных сетей (которые были признаны очень крупными онлайн-платформами в значении Закона о цифровых услугах) в своих системах рекомендаций, которые рекомендуют пользователям контент, созданный другими пользователями этой платформы.
Изменились также конкретные обязательства, возложенные на системы ИИ с высоким риском, связанные с системами управления рисками, управлением данными и данными, технической документацией и регистрацией событий. Фактически срок представления национальным надзорным органам отчетности о серьезных ошибках, связанных с эксплуатацией таких систем, был сокращен с 15 дней до 3 дней. Кроме того, Парламент ввел обязательство оценивать воздействие ИИ на основные права (см.Оценка воздействия основных прав) перед размещением системы ИИ с высоким риском для использования.

Базовые моделиФундаментальные модели) и общий ИИ
Парламент принял решение включить концепцию так называемых базовых моделей в проект Закона об искусственном интеллекте (АИ).модели фундамента, Оригинальный проект, представленный Комиссией, не был принят во внимание. Они берут на себя основное бремя обязанностей, которые были связаны с системами ИИ общего назначения в предложении Совета. В позиции парламента базовой моделью является «модель ИИ, которая обучается в широком масштабе данных, предназначена для обобщения результатов и может быть адаптирована к широкому кругу разнообразных задач».
Согласно позиции парламента, поставщик базовой модели до ее размещения на рынке или ввода в эксплуатацию, независимо от того, предоставляется ли она в качестве автономной модели, встроенной в систему искусственного интеллекта или другой продукт, лицензированный. открытыйисточник Как услуга, так и другие каналы распространения должны обеспечивать, среди прочего:
- выявлять, уменьшать и смягчать разумно прогнозируемые риски для здоровья, безопасности, основных прав, окружающей среды и демократии и верховенства права, которые могут привести к такой модели;
- обработка и включение только наборов данных, подлежащих соответствующим мерам управления данными в этих моделях;
- разработка и разработка модели для достижения соответствующих уровней производительности, предсказуемости, интерпретации, согласованности, безопасности и кибербезопасности;
- проектирование и разработка модели с использованием существующих стандартов для снижения потребления энергии и ресурсов, а также для повышения энергоэффективности и общей эффективности системы;
- разработка комплексной технической документации и понятных инструкций, позволяющих поставщикам производных услуг выполнять все свои обязательства в соответствии с Законом об искусственном интеллекте.
Напротив, поставщики базовых моделей, используемых в качестве общих систем ИИ, должны также:
- выполнять обязательства по прозрачности;
- обучают (и, по возможности, разрабатывают и разрабатывают) свои модели таким образом, чтобы обеспечить адекватные гарантии против генерации контента, нарушающего законодательство ЕС;
- документировать и делать общедоступным достаточно подробное резюме использования данных обучения, защищенных авторским правом.
Другие поправки
В дополнение к предложению о внесении изменений в определение ИИ и в новые правила классификации этих систем парламент предложил поправки в других областях, например.
- штрафы за невыполнение обязательств по Закону об искусственном интеллекте, которые парламент считает необходимыми;
- дата применения Закона об искусственном интеллекте (т.е. 2 года после вступления в силу; предполагает 3 года);
- требование строить и применять все системы и базовые модели ИИ на надежной основе;надежный ИИ),
- обеспечение права требовать четкого и фактического разъяснения роли системы ИИ в процессе принятия решений.
Дальнейшая работа
Позиция, принятая объединенными комитетами IMCO и LIBE, пока не является официальной позицией парламента по Закону об ИИ. Он, вероятно, будет принят на следующей сессии парламента, которая запланирована на 12-15 июня и не должна отклоняться от совместных комитетов. Официальное принятие этой позиции парламентом, в свою очередь, откроет двери для начала трилогов, что приблизит нас к окончательному тексту будущего регулирования ЕС.
[3]https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf
[4]https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449#mainText