OpenAI, Microsoft и Google создали группу для регулирования разработки ИИ
Компании OpenAI, Microsoft, Google и Anthropic объединили усилия по контролю за разработкой больших языковых моделей, сообщает Reuters.
Компании OpenAI, Microsoft, Google и Anthropic объединили усилия по контролю за разработкой больших языковых моделей, сообщает Reuters.
Они сформировали новую исследовательскую группу под названием Frontier Model Forum для обеспечения безопасной и ответственной разработки передовых ИИ-моделей, которые превосходят лучшие существующие модели. Возможности продвинутых моделей могут использоваться во благо, но потенциально могут нести большую угрозу для общественной безопасности. Об этом говорят как регуляторы, так и лидеры отрасли, например глава OpenAI Сэм Альтман.
Frontier Model Forum будет продвигать исследования в области безопасности ИИ, определять лучшие практики развёртывания передовых ИИ-моделей и сотрудничать с властями, учёными и компаниями. Лоббирование каких-либо идей в правительстве в круг активностей форума входить не будет. В ближайшие месяцы планируется создать на базе него экспертную комиссию, решить вопрос финансирования и сформировать исполнительный совет, который возглавит работу.
«Компании, создающие технологию ИИ, несут ответственность за обеспечение её безопасности и контроля человека над ней», — отметил президент Microsoft Брэд Смит.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.