Meta пообещала остановить разработку ИИ, если риски будут слишком высоки

Компания заявила, что может приостановить разработку некоторых систем искусственного интеллекта, если сочтет их слишком рискованными.

2 комментария

Согласно новому документу Frontier AI Framework, компания классифицирует ИИ-системы как «высокорискованные» и «критически рискованные». Обе эти категории систем могут быть использованы в кибератаках, химических и биологических атаках.

Основное различие между ними заключается в том, что «критически рискованные» системы могут привести к катастрофическим последствиям. В свою очередь, «высокорискованные» системы могут облегчить проведение атаки, но не так надежно и предсказуемо, как «критически рискованные» системы.

Компания классифицирует риск системы не на основе какого-либо эмпирического теста, а на  мнении внутренних и внешних исследователей, которые подлежат проверке со стороны руководителей высшего звена.

Meta поясняет, что не считает существующую оценку «достаточно надежной, чтобы предоставить окончательные количественные показатели» для определения степени риска системы.

  • Если система считается «высокорискованной», Meta ограничит доступ к ней внутри компании и не выпустит ее до тех пор, пока не будут реализованы меры по снижению риска до умеренного уровня.
  • Если же система будет признана «критически рискованной», Meta примет меры безопасности для предотвращения ее утечки и прекратит разработку до тех пор, пока систему не удастся сделать менее опасной.
ЕС ввел полный запрет ИИ с «неприемлемым риском»
По теме
ЕС ввел полный запрет ИИ с «неприемлемым риском»
OpenAI предложит свои технологии для исследований ядерного оружия
По теме
OpenAI предложит свои технологии для исследований ядерного оружия
Китайский стартап DeepSeek хакнул ИИ-рынок в США: дешевый конкурент «порвал» ChatGPT за один день
По теме
Китайский стартап DeepSeek хакнул ИИ-рынок в США: дешевый конкурент «порвал» ChatGPT за один день

Читать на dev.by