ЕС никак не может принять закон об искусственном интеллекте. В чем загвоздка?

Многострадальный законопроект ЕС об искусственном интеллекте все еще находится в стадии обсуждения. Европейские законодатели никак не могут договориться о том, как регулировать базовые ИИ-модели. Принятие документа откладывается до следующего года.

1 комментарий

Законопроект об искусственном интеллекте ЕС (The EU Artificial Intelligence Act) — самая масштабная на сегодня попытка создать регулирующие рамки для искусственного интеллекта. ЕС начал работу над проектом закона об ИИ еще в 2021 году. Еврокомиссия заявила о планах создать глобальный стандарт для технологии, которая становится ключевой для любой отрасли. В мае этого года Европейский парламент принял поправки и согласовал окончательный проект закона.

Правила были созданы по двум причинам: для синхронизации регулирования технологий ИИ в странах-членах ЕС и для более четкого определения того, что же такое на самом деле искусственный интеллект. Сейчас законодательная база закона охватывает широкий спектр сервисов: от программного обеспечения в электромобилях до систем «предиктивной полиции», которые используют правоохранительные органы.

Что происходит с законопроектом сейчас?

Испания, которая сейчас председательствует в ЕС, настаивает на более регулярной проверке уязвимостей и создании многоуровневой системы регулирования разработчиков ИИ. Эта система предполагает различное регулирование компаний в зависимости от количества пользователей модели. Законопроект нацелен на те компании, ИИ-продуктами которых пользуются более чем 45 миллионов пользователей.

Одна из версий законопроекта предлагает обязать разработчиков базовых моделей оценивать потенциальные риски, тестировать модели на протяжении всего процесса разработки и после выхода на рынок, изучать предвзятость обучающих данных и публиковать техническую документацию. Некоторые компании призвали ЕС учитывать цели создания ИИ-моделей: например, научным фондам или любителям будет сложно соблюдать правила, предъявляемые для коммерческих моделей крупных корпораций.

Что такое базовая модель?

Базовая модель (Fundamental Model, FM) — это крупные нейронные сети с глубоким обучением. Специалисты по работе с данными используют базовую модель в качестве отправной точки для разработки моделей машинного обучения (Machine Learning, ML). Термин FM применяется для описания моделей ML, обученных на широком спектре обобщенных и немаркированных данных. Они способны выполнять широкий спектр задач: понимание языка, генерирование контента и общение на естественном языке.

Что предлагают евродепутаты?

  • Регулировать, оценивая риски. Согласно предложениям, ИИ-инструменты будут классифицировать в зависимости от предполагаемого уровня риска: его «отсутствие» (no risk), «минимальный» (minimal), «ограниченный» (limited), «высокий» (high) и «неприемлемый» (unacceptable). Каждая категория налагает свои обязательства: при высоких рисках к компании предъявят самые строгие требования, при минимальных — незначительные.
  • Сделать оценку обязательной. Перед поступлением на рынок ЕС ИИ-системы будут проходить «оценку соответствия», которая определяет, отвечают ли они всем необходимым требованиям закона. Регуляторы определят, к какой категории рисков относится продукт. Данные, которые использовали для обучения таких систем, должны соответствовать Закону о защите данных ЕС (GDPR).
  • Ввести строгие запреты. Новые правила использования технологий распознавания лиц, биометрического наблюдения и других. В частности, депутаты предложили запретить использование системы распознавания лиц в общественных местах, применять ИИ в биометрическом наблюдении — то, что относится к «неприемлемому» уровню риска в принятой классификации.
  • Следить за чат-ботами. Они вошли в категорию «ограниченных» рисков после долгих обсуждений, являются ли их риски «высокими» — такое решение проллобировали разработчики ботов. Такие системы, как ChatGPT, должны будут раскрывать информацию о том, что контент был создан искусственным интеллектом, помогать отличать дипфейки от реальных изображений и обеспечивать защиту от незаконного контента.
  • Включить в список практически всех. Сфера применения систем «высокого» риска настолько велика, что их принято разделять на две подкатегории: материальные продукты и программное обеспечение. Первый относится к ИИ-системам, встроенным в изделия: игрушки, самолеты, автомобили, медицинские приборы, лифты и т. п. Вторая включает в себя больше программных продуктов, которые могут повлиять на правоохранительную деятельность, образование, занятость, миграцию, критическую инфраструктуру и доступ к важнейшим частным и госуслугам.

Почему правила так долго обсуждают?

Европейские чиновники провели три раунда переговоров между Европейским парламентом, Советом ЕС и Еврокомиссией. Четвертый раунд ожидается на этой неделе. Еще одна встреча назначена на декабрь, если стороны не придут к компромиссу по законопроекту. По плану ведомства надеялись завершить обсуждение и принять закон до конца года. Испания пытается ускорить процесс, так как срок ее председательства в ЕС заканчиваются до декабря.

Собеседник Reuters полагает, что окончательное соглашение вряд ли будет достигнуто на этой неделе. Эксперты опасаются, что дискуссия вокруг закона об ИИ может быть сорвана из-за выборов в Европейский парламент, которые состоятся в июне следующего года. Тогда принятие законопроекта отложат на неопределенный срок.

Принятие документа поддержали Microsoft и IBM при условии дальнейших доработок. Согласно законопроекту, компаниям предоставят двухлетний переходный период, чтобы привести свои политики и инфраструктуру в соответствие с требованиями. Против новых регулирующих правил выступила Meta.

Зачем нужны новые правила?

По словам старшего аналитика Access Now Дэниела Лейфера, «закон об искусственном интеллекте ЕС с самого начала был немного несовершенным инструментом». Первые инициативы были посвящены регулированию конкретных инструментов, которые уже применялись в таких областях, как поиск работы, образование или охрана порядка. Однако законодатели не ожидали, что определение ИИ вскоре станет гораздо сложнее.

Когда на рынке стали появляться первые модели генеративного ИИ, закон уже находился в стадии разработки. Законодателям пришлось быстро придумывать, как их можно регулировать в соответствии с документом. Тогда возникло понятие «базовая модель». В результате авторы законопроекта предложили многочисленные поправки, чтобы гарантировать, что новые сервисы будут подпадать под действие разработанных правил.

Одна из проблем, возникшая перед законодателями, — это данные, которые используют для машинного обучения и которые защищены авторским правом. Согласно законопроекту, разработчики должны будут раскрыть любую защищенную авторским правом информацию, которую используют для машинного обучения. Эксперты предсказывают, что это требование будет иметь далеко идущие последствия для всех участников рынка.

Популярные генераторы текста и изображений обучены создавать контент путем копирования и анализа шаблонов данных, созданных реальными людьми. Этой информации настолько много, что почти наверняка она включает и материалы, защищенные авторским правом. Таким образом машинное обучение находится в «серой» юридической зоне, и существуют аргументы за и против того, чтобы использовать такие данные без разрешения правообладателей.

В нынешнем виде закон ЕС об ИИ не решает юридических проблем, связанных с генеративным искусственным интеллектом. Документ может оказаться менее эффективным, чем существующие правила. Например, закон о защите данных GDPR более устойчив и понятен индустрии, так как основан на правах сторон, а не перечислении воображаемых рисков от использования технологии ИИ. Также опасения вызывает неспособность закона защитить маргинализованные группы: ИИ уже широко влияет на доступ людей к ресурсам и может усиливать неравенство в разных областях.

А как это происходит в других странах?

За разработкой закона об ИИ пристально наблюдают в других странах — документ может стать потенциальным примером при создании собственных правил, регулирующих сферу генеративного ИИ. Пионером стал Китай, который ввел свои правила уже в августе этого года.

  • Великобритания. Управление по финансовому регулированию и надзору (Financial Conduct Authority, FCA) — регулятор, которому поручено разработать новые рекомендации по использованию ИИ. Ведомство проводит консультации с Институтом Алана Тьюринга и другими юридическими и научными учреждениями, чтобы улучшить свое понимание технологии. Антимонопольный орган заявил, что начнет изучать влияние ИИ на потребителей, предприятия и экономику и необходимость введения новых мер контроля.
  • Израиль. По словам Зива Кацира, директора по национальному планированию в области ИИ Израильского управления по инновациям, Израиль «последние полтора года или около того» работает над нормативными документами в области ИИ, чтобы достичь правильного баланса между инновациями и сохранением прав человека. В октябре Израиль опубликовал 115-страничный проект политики в области ИИ и в настоящее время собирает отзывы общественности для принятия окончательного решения.
  • Япония  рассчитывает ввести к концу этого года правила, которые будут напоминать скорее либеральным американский подход к регулированию ИИ, чем жесткий, которого придерживаются в ЕС. В июне представители Службы по контролю за соблюдением конфиденциальности сообщили, что предупредили компанию OpenAI о недопустимости сбора конфиденциальных данных без разрешения пользователей и о необходимости минимизировать объем собираемых конфиденциальных данных.
  • Китай. 13 июля в стране был принят ряд временных мер по управлению индустрией генеративного ИИ. Позднее китайский регулятор киберпространства представил проект мер из 24 пунктов, которые вступили в действие в августе этого года. Вводится обязательная регистрация услуг и алгоритмов, ИИ-контент должен быть помечен заметными ярлыками. Создатели контента должны проходить проверку безопасности до выхода ИИ-продуктов на рынок. Для обучения ИИ-моделей необходимо использовать «законные данные» и раскрывать их регулирующим органам по мере необходимости. Кроме того, китайские компании должны предоставить четкий механизм рассмотрения публичных жалоб на услуги или контент.
  • США. В июле этого года Федеральная торговая комиссия США (FTC) начала масштабное расследование в отношении компании OpenAI, утверждая, что она нарушает законы о защите прав потребителей, подвергая риску личную репутацию и данные. Летом сенаторы провели несколько брифингов по искусственному интеллекту, чтобы ознакомиться с технологией и ее рисками, прежде чем принимать конкретные меры. В Конгресс был внесен законопроект о создании целевой группы по разработке политики США в области искусственного интеллекта.
«НИ ПРИ КАКИХ ОБСТОЯТЕЛЬСТВАХ НЕ ДЕЛАЙ ЭТОГО»: ChatGPT и DALL-E могут кричать друг на друга
По теме
«НИ ПРИ КАКИХ ОБСТОЯТЕЛЬСТВАХ НЕ ДЕЛАЙ ЭТОГО»: ChatGPT и DALL-E могут кричать друг на друга
Война Израиля и ХАМАС продолжается, а соцсети уже проиграли
По теме
Война Израиля и ХАМАС продолжается, а соцсети уже проиграли
Великая иллюзия: чат-боты умеют не только сопереживать, но и склонять к убийству
По теме
Великая иллюзия: чат-боты умеют не только сопереживать, но и склонять к убийству

Читать на dev.by