Support us

В Google назвали самые частые способы злоупотребления ИИ

Специалисты Google DeepMind изучили, как именно злоумышленники чаще всего эксплуатируют технологию искусственного интеллекта. Самым популярным способом стало создание дипфейков политиков и знаменитостей. Гораздо реже ИИ используют в кибератаках.

Оставить комментарий
В Google назвали самые частые способы злоупотребления ИИ

Специалисты Google DeepMind изучили, как именно злоумышленники чаще всего эксплуатируют технологию искусственного интеллекта. Самым популярным способом стало создание дипфейков политиков и знаменитостей. Гораздо реже ИИ используют в кибератаках.

ИИ для создания реалистичных изображений, видео и аудио людей используется почти вдвое чаще, чем для фальсификации информации помощью текстовых инструментов, например чат-ботов, для распространения в сети. ИИ-дезинформация идёт на втором месте списка.

Источник: Ars Technica

Чаще всего — в 27% случаев — целью людей, злоупотребляющих генеративным ИИ, является воздействие на общественное мнение, например на результаты выборов. В Институте Алана Тьюринга отмечают важность вывода исследователей Google о том, что загрязнённость публичного контента ИИ-фейками может привести к «искажению коллективного понимания социополитической действительности». Риск заключается ещё и в том, что влияние дипфейков сложно уловить в настоящем моменте, а в долгосрочной перспективе оно может нести угрозу демократии.

Сотрудник перевёл мошенникам $25 млн после видеозвонка с дипфейками коллег
Сотрудник перевёл мошенникам $25 млн после видеозвонка с дипфейками коллег
По теме
Сотрудник перевёл мошенникам $25 млн после видеозвонка с дипфейками коллег
Тейлор Свифт против порнотроллей: дипфейки певицы наводнили соцсети
Тейлор Свифт против порнотроллей: дипфейки певицы наводнили соцсети
По теме
Тейлор Свифт против порнотроллей: дипфейки певицы наводнили соцсети
В Испании неизвестные распространяют в школах нюдсы девочек сгенерированные ИИ
В Испании неизвестные распространяют в школах нюдсы девочек, сгенерированные ИИ 
По теме
В Испании неизвестные распространяют в школах нюдсы девочек, сгенерированные ИИ
Место солидарности беларусского ИТ-комьюнити

Далучайся!

Читайте также
10+ сертификаций Coursera, которые могут изменить вашу карьеру
10+ сертификаций Coursera, которые могут изменить вашу карьеру
10+ сертификаций Coursera, которые могут изменить вашу карьеру
Бюджетный способ прокачать навыки и повысить зарплату — это профессиональный сертификат от Google, IBM или крупного зарубежного университета. На Coursera как раз можно найти десятки полезных обучающих программ по машинному обучению, проджект-менеджменту и не только. Собрали 10+ сертификаций, которые будут выигрышно смотреться в резюме как новичка, так и опытного специалиста.
Дизайн, VR и интернет вещей: 10 доступных онлайн-курсов от Google, Amazon и других гигантов
Дизайн, VR и интернет вещей: 10 доступных онлайн-курсов от Google, Amazon и других гигантов
Дизайн, VR и интернет вещей: 10 доступных онлайн-курсов от Google, Amazon и других гигантов
На платформе Coursera можно найти сотни курсов от крупных корпораций, включая Google, Amazon и HubSpot. Это отличная возможность начать новую карьеру, повысить квалификацию и просто получить плюс в профессиональную карму. Мы собрали 10 программ от ИТ-компаний, которые помогут освоить машинное обучение, UX-дизайн, продакт-менеджмент, кибербезопасность и многое другое.
Google урезает бюджеты, СЕО намекает на сокращения
Google урезает бюджеты, СЕО намекает на сокращения
Google урезает бюджеты, СЕО намекает на сокращения
1 комментарий
Производительность должна измеряться в IT не так, как у других. Наглядный кейс — Google
Производительность должна измеряться в IT не так, как у других. Наглядный кейс — Google
Bubble
Производительность должна измеряться в IT не так, как у других. Наглядный кейс — Google

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.