Белый дом взял 8 обещаний с ИИ-компаний. О чем договорились разработчики?

Администрация Байдена собрала ведущих разработчиков искусственного интеллекта, чтобы договориться о правилах игры. Компании обещали выполнять восемь обязательств, но формулировки вызывают больше вопросов, чем дают ответов.

Оставить комментарий

Белый дом назвал соглашение «добровольными обязательствами» семи технологических компаний, которые занимаются ИИ-разработками. Это Amazon, Anthropic, Inflection, Google, Meta, Microsoft и OpenAI. Администрация Байдена назвала этот документ «большим шагом» вперед: до сих пор никакого законодательства, регулирующего ИИ-отрасль, не существует. Эксперты отметили, что соглашение действительно выглядит прорывом, так как у компаний-разработчиков совершенно разные представления о путях развития искусственного интеллекта.

Компании обещали выполнить несколько правил:

1. Проводить внутреннее и внешнее тестирование безопасности ИИ-моделей перед выпуском.

Обязательство сформулировано слишком расплывчато и не содержит подробностей, как именно проводить тестирования и кто будет этим заниматься. Белый дом сообщил, что этим частично займутся «независимые эксперты», которые будут обращать внимание на био– и кибербезопасность. Вероятно, речь идет о неких стандартных тестах безопасности, которые будут применяться ко всем продуктам, попадающим на рынок. Другой вопрос: кто будет финансировать эти тесты. Сейчас этим занимаются сами разработчики, что вызывает вопрос о конфликте интересов.

2. Делиться информацией с государством, обществом и учеными об управлении рисками ИИ.

Обычно компании публикуют информацию о разработках в виде научных статей или сообщений в корпоративных блогах. Некоторые, например OpenAI и Anthropic, делят технической документацией,  в которой описывают шаги по повышению безопасности ИИ-моделей. Однако ни одни из компаний не станет публиковать коммерчески и технически чувствительную информацию, поэтому неясно, о каком наборе данных идет речь. Принцип прозрачности противоречит жесткой конкуренции, которая сейчас захватила индустрию. Информацией, опубликованной одной компанией, может воспользоваться недобросовестный конкурент.

Голливуд боится ИИ: актеры и сценаристы бастуют против нейросетей и чат-ботов
По теме
Голливуд боится ИИ: актеры и сценаристы бастуют против нейросетей и чат-ботов

3. Инвестировать в кибербезопасность и средства защиты от внутренних угроз.

В этом положении речь идет о так называемых Model weights (Веса модели) — технический термин, который описывает критически важные функции системы. Утечки весов уже происходили: например, веса оригинальной языковой модели Meta LLaMA уже появлялись на 4chan и других форумах спустя всего несколько дней после выпуска. В технологическом шпионаже заинтересованы другие страны, которые уже сегодня пытаются получить данные американских компаний.

4. Помогать обнаружению уязвимостей в своих ИИ-системах третьими лицами и сообщать и о них.

Обычно компании обнаруживают уязвимости уже после релиза моделей. Пользователи пытаются обойти ограничения модели и придумать способы взлома, которые компания не предвидела. Неясно, как этот механизм должен работать: в виде кнопки обратной связи на сайте? или в форме вознаграждения за обнаружение ошибок? Этот пункт требует дальнейших уточнений.

OpenAI отключила детектор ИИ-текстов — он работал плохо
По теме
OpenAI отключила детектор ИИ-текстов — он работал плохо

5. Разработать механизмы, которые дают пользователю понять, что контент создан ИИ.

Эта проблема может сильно изменить рынок труда, поскольку сотрудники начинают выдавать работу, созданную ИИ, за свою собственную. Но пока разработанные инструменты не позволяют со стопроцентной точностью определять ИИ-контент. Белый дом уже предлагал ставить на контенте водяные знаки или другие ярлыки, которые сигнализировали бы о происхождении контента, если речь идет об изображении или видео. Остается неясным, что делать с другими ИИ-продуктами.

6. Сообщать о возможностях и ограничениях своих ИИ-систем.

Обязательство не поясняет, о чем идет речь, — и оставляет компаниям пространство для маневра. Как часто разработчики должны сообщать о возможностях и ограничениях? Насколько подробной должна быть информация? Зачастую о новых возможностях создатели ИИ-моделей узнают уже после ее релиза. В таком случае насколько точно они должны предвидеть и описать эти положения?

Использование ИИ в работе повышает зарплату и шансы на карьерный рост — опрос
По теме
Использование ИИ в работе повышает зарплату и шансы на карьерный рост — опрос

7. Уделять внимание исследованиям социальных рисков использования ИИ-систем.

Этика искусственного интеллекта — самая спорная тема среди обсуждаемых. Ажиотаж вокруг технологии привел к тому, что влияние ИИ на общество представляют в апокалиптических красках: закат человечества и восстание машин. Но существуют более практические и насущные проблемы: предвзятость данных, дискриминация и дезинформация, конфиденциальность при работе с ИИ-системами.

8. Разрабатывать и внедрять передовые ИИ-системы для решения общественных проблем.

От искусственного интеллекта ждут невероятных результатов: победы над раком или спасения климата. Сами по себе ИИ-модели вряд ли спасут человечество, но создатели подобных систем могут помочь применить их на благо общества. Часто это происходит неожиданно: например, разработчики DeepMind обучили модель играть в настольную игру го — и результаты проекта пригодились для предсказания трехмерных структур белка, что значительно продвинуло фундаментальные исследования в биологии.


Соглашение, подписанное в Белом доме, носит скорее символический характер. Разработчики ИИ уже соблюдают многие положения, которые были прописаны в документе. Другие пока остались на бумаге и требуют детального рассмотрения в будущем. Например, за рамками остался вопрос международного регулирования искусственного интеллекта. Как будет происходить экспорт технологий? Что делать с технологическим шпионажем?

Документ показал, что в сфере необходим новый подход к регулированию. Сложность и трудоемкость процесса разработки, а также скорость инноваций значительно превышают возможности госрегулирования. Для решения проблемы государство должно делегировать часть этих функций самой индустрии: дать большую свободу действий и увеличить ответственность компаний.

X на птичке: зачем Маск отказался от бренда Twitter
По теме
X на птичке: зачем Маск отказался от бренда Twitter
Что такое Worldcoin — криптопроект главы OpenAI
По теме
Что такое Worldcoin — криптопроект главы OpenAI
Почему айтишникам стоит посмотреть «Оппенгеймера»
По теме
Почему айтишникам стоит посмотреть «Оппенгеймера»

Читать на dev.by