Белый дом взял 8 обещаний с ИИ-компаний. О чем договорились разработчики?
Администрация Байдена собрала ведущих разработчиков искусственного интеллекта, чтобы договориться о правилах игры. Компании обещали выполнять восемь обязательств, но формулировки вызывают больше вопросов, чем дают ответов.
Белый дом назвал соглашение «добровольными обязательствами» семи технологических компаний, которые занимаются ИИ-разработками. Это Amazon, Anthropic, Inflection, Google, Meta, Microsoft и OpenAI. Администрация Байдена назвала этот документ «большим шагом» вперед: до сих пор никакого законодательства, регулирующего ИИ-отрасль, не существует. Эксперты отметили, что соглашение действительно выглядит прорывом, так как у компаний-разработчиков совершенно разные представления о путях развития искусственного интеллекта.
Компании обещали выполнить несколько правил:
1. Проводить внутреннее и внешнее тестирование безопасности ИИ-моделей перед выпуском.
Обязательство сформулировано слишком расплывчато и не содержит подробностей, как именно проводить тестирования и кто будет этим заниматься. Белый дом сообщил, что этим частично займутся «независимые эксперты», которые будут обращать внимание на био– и кибербезопасность. Вероятно, речь идет о неких стандартных тестах безопасности, которые будут применяться ко всем продуктам, попадающим на рынок. Другой вопрос: кто будет финансировать эти тесты. Сейчас этим занимаются сами разработчики, что вызывает вопрос о конфликте интересов.
2. Делиться информацией с государством, обществом и учеными об управлении рисками ИИ.
Обычно компании публикуют информацию о разработках в виде научных статей или сообщений в корпоративных блогах. Некоторые, например OpenAI и Anthropic, делят технической документацией, в которой описывают шаги по повышению безопасности ИИ-моделей. Однако ни одни из компаний не станет публиковать коммерчески и технически чувствительную информацию, поэтому неясно, о каком наборе данных идет речь. Принцип прозрачности противоречит жесткой конкуренции, которая сейчас захватила индустрию. Информацией, опубликованной одной компанией, может воспользоваться недобросовестный конкурент.
3. Инвестировать в кибербезопасность и средства защиты от внутренних угроз.
В этом положении речь идет о так называемых Model weights (Веса модели) — технический термин, который описывает критически важные функции системы. Утечки весов уже происходили: например, веса оригинальной языковой модели Meta LLaMA уже появлялись на 4chan и других форумах спустя всего несколько дней после выпуска. В технологическом шпионаже заинтересованы другие страны, которые уже сегодня пытаются получить данные американских компаний.
4. Помогать обнаружению уязвимостей в своих ИИ-системах третьими лицами и сообщать и о них.
Обычно компании обнаруживают уязвимости уже после релиза моделей. Пользователи пытаются обойти ограничения модели и придумать способы взлома, которые компания не предвидела. Неясно, как этот механизм должен работать: в виде кнопки обратной связи на сайте? или в форме вознаграждения за обнаружение ошибок? Этот пункт требует дальнейших уточнений.
5. Разработать механизмы, которые дают пользователю понять, что контент создан ИИ.
Эта проблема может сильно изменить рынок труда, поскольку сотрудники начинают выдавать работу, созданную ИИ, за свою собственную. Но пока разработанные инструменты не позволяют со стопроцентной точностью определять ИИ-контент. Белый дом уже предлагал ставить на контенте водяные знаки или другие ярлыки, которые сигнализировали бы о происхождении контента, если речь идет об изображении или видео. Остается неясным, что делать с другими ИИ-продуктами.
6. Сообщать о возможностях и ограничениях своих ИИ-систем.
Обязательство не поясняет, о чем идет речь, — и оставляет компаниям пространство для маневра. Как часто разработчики должны сообщать о возможностях и ограничениях? Насколько подробной должна быть информация? Зачастую о новых возможностях создатели ИИ-моделей узнают уже после ее релиза. В таком случае насколько точно они должны предвидеть и описать эти положения?
7. Уделять внимание исследованиям социальных рисков использования ИИ-систем.
Этика искусственного интеллекта — самая спорная тема среди обсуждаемых. Ажиотаж вокруг технологии привел к тому, что влияние ИИ на общество представляют в апокалиптических красках: закат человечества и восстание машин. Но существуют более практические и насущные проблемы: предвзятость данных, дискриминация и дезинформация, конфиденциальность при работе с ИИ-системами.
8. Разрабатывать и внедрять передовые ИИ-системы для решения общественных проблем.
От искусственного интеллекта ждут невероятных результатов: победы над раком или спасения климата. Сами по себе ИИ-модели вряд ли спасут человечество, но создатели подобных систем могут помочь применить их на благо общества. Часто это происходит неожиданно: например, разработчики DeepMind обучили модель играть в настольную игру го — и результаты проекта пригодились для предсказания трехмерных структур белка, что значительно продвинуло фундаментальные исследования в биологии.
Соглашение, подписанное в Белом доме, носит скорее символический характер. Разработчики ИИ уже соблюдают многие положения, которые были прописаны в документе. Другие пока остались на бумаге и требуют детального рассмотрения в будущем. Например, за рамками остался вопрос международного регулирования искусственного интеллекта. Как будет происходить экспорт технологий? Что делать с технологическим шпионажем?
Документ показал, что в сфере необходим новый подход к регулированию. Сложность и трудоемкость процесса разработки, а также скорость инноваций значительно превышают возможности госрегулирования. Для решения проблемы государство должно делегировать часть этих функций самой индустрии: дать большую свободу действий и увеличить ответственность компаний.
10+ сертификаций Coursera, которые могут изменить вашу карьеру
Бюджетный способ прокачать навыки и повысить зарплату — это профессиональный сертификат от Google, IBM или крупного зарубежного университета. На Coursera как раз можно найти десятки полезных обучающих программ по машинному обучению, проджект-менеджменту и не только. Собрали 10+ сертификаций, которые будут выигрышно смотреться в резюме как новичка, так и опытного специалиста.
Дизайн, VR и интернет вещей: 10 доступных онлайн-курсов от Google, Amazon и других гигантов
На платформе Coursera можно найти сотни курсов от крупных корпораций, включая Google, Amazon и HubSpot. Это отличная возможность начать новую карьеру, повысить квалификацию и просто получить плюс в профессиональную карму. Мы собрали 10 программ от ИТ-компаний, которые помогут освоить машинное обучение, UX-дизайн, продакт-менеджмент, кибербезопасность и многое другое.
Пять новых профессиональных сертификаций от Meta на Cousera
Meta расширяет свое партнерство с Coursera, предлагая пять новых профессиональных сертификаций в области разработки ПО. Во время растущего спроса на квалифицированные кадры получение этих сертификатов позволит претендовать на самые востребованные позиции. По прогнозам, только в США к 2030 году сфера разработки ПО вырастет на 22%.Новые программы от Meta предлагают подготовку по следующим специальностям: фронтенд-разработчик, бэкенд-разработчик, Android-разработчик, iOS-разработчик и дата-инженер.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.