Слишком много слов: почему регулирование ИИ такое непонятное?
В октябре сразу несколько стран и международных организаций приняли документы о регулировании искусственного интеллекта. Их авторы предлагают ужесточить контроль за разработкой и безопасностью ИИ-систем. Критики указывают на отсутствие понятных и четких правил для компаний. Почему в индустрии много громких слов, но мало конкретных предложений?
30 октября президент США Джо Байден подписал указ об искусственном интеллекте. Этот документ стал первым в своем роде нормативный актом, который регулирует новую технологическую сферу. В указ вошли положения о безопасности, равенстве, гражданских правах и исследовании влияния технологии на рынок труда.
Национальный институт стандартов и технологий США (NIST) будет отвечать за разработку стандартов для «красной команды» ИИ-моделей перед их публичным релизом. Министерство энергетики и Министерство внутренней безопасности займутся потенциальной угрозой ИИ для инфраструктуры, а также рисками химической, биологической, радиологической, ядерной и кибербезопасности.
Ранее 15 крупных американских технологических компаний, в том числе Alphabet, Microsoft, OpenAI, Amazon, Anthropic, Inflection и Meta, согласились выполнять добровольные обязательства по безопасности ИИ, однако принятое соглашение содержит расплывчатые формулировки. Белый дом решил конкретизировать положения и пойти по пути государственного регулирования отрасли.
Однако президентский указ не является постоянным законом США и обычно действует только на протяжении срока правления Байдена. Американские законодатели все еще обсуждают, как регулировать ИИ, хотя некоторые политики заявили, что хотят принять законы об ИИ до конца года. Сенатор Ричард Блюменталь предложил сформулировать правила лицензирования, которые обяжут разработчиков ИИ-моделей регистрироваться в независимом надзорном агентстве.
«Большая семерка»: добровольное участие
На международном уровне идею о масштабном регулировании ИИ продвигает «Большая семерка». В неформальный клуб входят Канада, Франция, Германия, Италия, Япония, Великобритания и США, а также Европейский Союз. В мае этого года «семерка» запустила так называемый «Хиросимский процесс ИИ» — форум, посвященный перспективам развития искусственного интеллекта.
В октябре лидеры G7 подписали «Соглашение о международных руководящих принципах ИИ» и «Добровольный кодекс поведения разработчиков ИИ». В документах перечислены одиннадцать принципов, которыми должны руководствоваться разработчики при создании ИИ-систем. Кодекс касается касается передовых систем, включая базовые модели и генеративные системы. Соблюдение этих правил добровольное.
Принявшие кодекс компании должны принимать меры для выявления, оценки и уменьшения рисков при использовании ИИ; бороться с инцидентами неправомерного использования технологии после появления на рынке; размещать в открытом доступе отчеты о возможностях, ограничениях и использовании ИИ; инвестировать в меры безопасности, в том числе маркировать контент, который пользователи могут идентифицировать как созданный ИИ.
В совместном заявлении указано, что оба документа будут пересматриваться и обновляться по мере необходимости. К концу года лидеры G7 ожидают принятие Комплексной политики Хиросимского процесса ИИ. В процессе помимо «Большой семерки» участвуют Глобальное партнерство по ИИ (GPAI) и Организация экономического сотрудничества и развития (ОЭСР). «Мы также с нетерпением ждём британского саммита по безопасности искусственного интеллекта, который пройдёт 1 и 2 ноября», — сообщила «семерка».
Великобритания: попытка собрать всех
Британский саммит по безопасности ИИ, о котором говорится в заявлении лидеров G7, — форум, организованный премьер-министром страны Риши Сунаком. Мероприятие прошло в историческом Блетчли-Парке в Лондоне, где в годы Второй мировой войны располагалось главное шифровальное подразделение Великобритании. Здесь взламывались шифры и коды стран Оси и была дешифрована знаменитая «Энигма».
Форум собрал около ста политиков, ученых и представителей крупнейших ИИ-компаний для того, чтобы определить путь развития отрасли. Впервые в истории западных инициатив к мероприятию присоединился китайский вице-премьер, чтобы участвовать в дискуссиях о будущем ИИ. Одним из главных вопросов, которые обсуждались на форуме, стало создание независимого органа для обеспечения надзора за технологией.
На саммите Сунак представил «Декларацию Блетчли» — документ, который рассматривает вопросы безопасности ИИ. Его поддержали 28 стран, в том числе ведущие разработчики ИИ — США и Китай, а также Европейский Союз. В тексте декларации прописаны шаги по обнаружению и научному изучению общих рисков, связанных с ИИ. Также авторы документа предлагают стратегию для создания международной политики, направленной на снижение этих рисков.
На мероприятии выступил Йошуа Бенжио — канадский математик и кибернетик, которого называют одним из «крестных отцов» искусственного интеллекта. Ученый заявил, что поможет британскому правительству подготовить отчет «Состояние науки», которое представит общее понимание будущих возможностей и рисков технологии.
Почему так мало конкретики
Несмотря на общую поддержку идеи регулирования, которую высказывают разработчики правительствам, на британском форуме звучали и скептические заявления. Не обошлось без высказываний Илона Маска — одного из спикеров саммита. Основатель разработчика x.AI заявил, что правительствам не следует торопиться с введением законодательства в области ИИ. Вместо этого он предположил, что у компаний больше возможностей для выявления рисков, и своими выводами они могут поделиться с законодателями.
Критики указывают на несколько слабых мест у подобных инициатив:
Частным компаниям указывать труднее, чем ведомствам. Например, президент США обладает широкими полномочиями по использованию ИИ федеральным правительством, но у него намного меньше возможностей влиять на частные компании. При подписании указа Байден признался, что «нам все еще нужно, чтобы Конгресс действовал [вместе с Белым домом]». Каким образом поступят законодатели — это вопрос, так как не секрет, что в американском Конгрессе есть сильное лобби техногигантов.
Чрезмерный контроль может всех задушить. Компании испытывают сильное давление со стороны американского правительства, которое инициировало целый ворох антимонопольных разбирательств с приходом в Федеральную торговую комиссию США Лины Хан. Разработчики ИИ опасаются, что за красивыми фразами о защите пользователей и потребителей последуют жесткие требования лицензирования и отчетности, которые затормозят развитие высокотехнологичной отрасли.
Все заботятся о собственных интересах. Другое препятствие — это конкуренция самих стран на технологическом рынке. Соглашаясь с необходимостью контролировать риски технологии, ни США, ни Китай не собираются ограничивать развитие отрасли и параллельно занимаются санкционной войной, которая должна замедлить продвижение конкурента. За две недели до подписания указа Байден ограничил продажу передовых полупроводников американскими компаниями, чтобы помешать Китаю развивать собственные большие языковые модели — основу технологий ИИ.
У правительств нет столько специалистов. Наконец, у правительств пока нет достаточного количества экспертов по искусственному интеллекту, которые могли бы квалифицированно оценивать работу разработчиков ИИ и выпущенных на рынок продуктов. Все крупные специалисты задействованы в частном секторе и вряд ли перейдут на должности чиновников, потеряв в зарплате и карьерных возможностях.
Правила слишком неясные. Критики жесткого подхода к регулированию ИИ указывают, что принятые документы дают слабое представление, как этот механизм будет выглядеть. Зачастую вместо конкретных требований документы пестрят обтекаемыми формулировками и красивыми заявлениями. Показателен опыт Европейского Союза, который начал разрабатывать собственный закон об ИИ перед волной генеративных ИИ-инструментов. В результате большая часть законопроекта устарела и документ пришлось срочно переписывать.
«Каждый раз, когда я читаю подобные декларации, у меня возникает стойкое ощущение, что именно эти декларации генерировал ChatGPT. Вот он потоком начинает выдавать тезисы и принципы, но очень поверхностные и пустые, как и вот эти декларации. Ну, да, есть определенные риски, и эти риски надо выявлять, классифицировать, прорабатывать. Но самому по себе ИИ уже 70 лет с лишним, лично я не считаю эту технологию такой, которая несет в себе экзистенциальную угрозу», — заявил гендиректор компании — разработчика искусственного интеллекта «А-Я эксперт» Роман Душкин.
Следующий саммит по безопасности ИИ состоится весной будущего года в Южной Корее, затем через полгода — во Франции. Стремительное развитие сферы ИИ каждый день добавляет новые проблемы регуляторам, и есть вероятность, что за следующие полгода подходы снова поменяются. «Мы живем в самое интересное время. Я думаю, что с вероятностью 80% это [развитие ИИ] будет хорошо, а 20% — плохо. Если мы будем осознавать и проявлять осторожность в отношении плохой части, в целом это будет то будущее, которого мы хотим»», — написал Маск в соцсетях после британского саммита.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
Потому что AI это хайп и химера. С тем же успехом можно регулировать научную фантастику.
Где-то в Азии раздаются хлопки пробок шампанского...
А в Академии Управления при Перезиденте что тогда раздается?
Да потому что у политиканов как обычно понимание собственно самого предмета отстутсвует, но есть острое желание зарегулировать новую область.