Мы запустили Dzik Pic Store. Заходи к нам в магазин за крутым мерчом ☃️
Support us

Meta пообещала остановить разработку ИИ, если риски будут слишком высоки

Компания заявила, что может приостановить разработку некоторых систем искусственного интеллекта, если сочтет их слишком рискованными.

2 комментария
Meta пообещала остановить разработку ИИ, если риски будут слишком высоки

Компания заявила, что может приостановить разработку некоторых систем искусственного интеллекта, если сочтет их слишком рискованными.

Согласно новому документу Frontier AI Framework, компания классифицирует ИИ-системы как «высокорискованные» и «критически рискованные». Обе эти категории систем могут быть использованы в кибератаках, химических и биологических атаках.

Основное различие между ними заключается в том, что «критически рискованные» системы могут привести к катастрофическим последствиям. В свою очередь, «высокорискованные» системы могут облегчить проведение атаки, но не так надежно и предсказуемо, как «критически рискованные» системы.

Компания классифицирует риск системы не на основе какого-либо эмпирического теста, а на  мнении внутренних и внешних исследователей, которые подлежат проверке со стороны руководителей высшего звена.

Meta поясняет, что не считает существующую оценку «достаточно надежной, чтобы предоставить окончательные количественные показатели» для определения степени риска системы.

  • Если система считается «высокорискованной», Meta ограничит доступ к ней внутри компании и не выпустит ее до тех пор, пока не будут реализованы меры по снижению риска до умеренного уровня.
  • Если же система будет признана «критически рискованной», Meta примет меры безопасности для предотвращения ее утечки и прекратит разработку до тех пор, пока систему не удастся сделать менее опасной.
ЕС ввел полный запрет ИИ с «неприемлемым риском»
ЕС ввел полный запрет ИИ с «неприемлемым риском»
По теме
ЕС ввел полный запрет ИИ с «неприемлемым риском»
OpenAI предложит свои технологии для исследований ядерного оружия
OpenAI предложит свои технологии для исследований ядерного оружия
По теме
OpenAI предложит свои технологии для исследований ядерного оружия
Китайский стартап DeepSeek хакнул ИИ-рынок в США: дешевый конкурент «порвал» ChatGPT за один день
Китайский стартап DeepSeek хакнул ИИ-рынок в США: дешевый конкурент «порвал» ChatGPT за один день
По теме
Китайский стартап DeepSeek хакнул ИИ-рынок в США: дешевый конкурент «порвал» ChatGPT за один день
🎊 Dzik Pic Store открыт и готов принимать заказы!

Заходи к нам в магазин

Читайте также
Mozilla собирает «альянс бунтарей» в ИИ, чтобы противостоять OpenAI и Anthropic
Mozilla собирает «альянс бунтарей» в ИИ, чтобы противостоять OpenAI и Anthropic
Mozilla собирает «альянс бунтарей» в ИИ, чтобы противостоять OpenAI и Anthropic
«Коллеги завидовали»: инженер Google и Meta бросил бигтех ради своего ИИ-стартапа
«Коллеги завидовали»: инженер Google и Meta бросил бигтех ради своего ИИ-стартапа
«Коллеги завидовали»: инженер Google и Meta бросил бигтех ради своего ИИ-стартапа
Mistral представила Vibe 2.0 — европейского конкурента GitHub Copilot
Mistral представила Vibe 2.0 — европейского конкурента GitHub Copilot
Mistral представила Vibe 2.0 — европейского конкурента GitHub Copilot
WhatsApp запустил режим суперзащиты аккаунтов от кибератак
WhatsApp запустил режим суперзащиты аккаунтов от кибератак
WhatsApp запустил режим суперзащиты аккаунтов от кибератак

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

povelitel-krasnogo-drakona
povelitel-krasnogo-drakona Проектный мессенджер в 我想排便
0

Бояться рисков - это не маскулинно. Мета не такая. Мета идёт до конца.

0

Завтра заявят что-нибудь другое