OpenAI, Microsoft и Google создали группу для регулирования разработки ИИ

Компании OpenAI, Microsoft, Google и Anthropic объединили усилия по контролю за разработкой больших языковых моделей, сообщает Reuters.

Оставить комментарий

Они сформировали новую исследовательскую группу под названием Frontier Model Forum для обеспечения безопасной и ответственной разработки передовых ИИ-моделей, которые превосходят лучшие существующие модели. Возможности продвинутых моделей могут использоваться во благо, но потенциально могут нести большую угрозу для общественной безопасности. Об этом говорят как регуляторы, так и лидеры отрасли, например глава OpenAI Сэм Альтман.

Frontier Model Forum будет продвигать исследования в области безопасности ИИ, определять лучшие практики развёртывания передовых ИИ-моделей и сотрудничать с властями, учёными и компаниями. Лоббирование каких-либо идей в правительстве в круг активностей форума входить не будет. В ближайшие месяцы планируется создать на базе него экспертную комиссию, решить вопрос финансирования и сформировать исполнительный совет, который возглавит работу.

«Компании, создающие технологию ИИ, несут ответственность за обеспечение её безопасности и контроля человека над ней», — отметил президент Microsoft Брэд Смит.

Глава OpenAI говорит, что разработчики сами боятся ChatGPT и что она многих лишит работы
По теме
Глава OpenAI говорит, что разработчики сами боятся ChatGPT и что она многих лишит работы

Читать на dev.by