Реклама в Telegram-каналах DzikPic и dev.by теперь дешевле. Узнать подробности 👨🏻‍💻
Support us

Алгоритм распознавания объектов OpenAI можно обмануть надписью на бумажке

Чтобы сбить с толку новейшую модель компьютерного зрения CLIP разработки OpenAI, достаточно двух незамысловатых инструментов — клочка бумаги и ручки, пишет The Verge.

Оставить комментарий

Чтобы сбить с толку новейшую модель компьютерного зрения CLIP разработки OpenAI, достаточно двух незамысловатых инструментов — клочка бумаги и ручки, пишет The Verge.

Как рассказали исследователи в блоге, искусственный интеллект не сможет корректно идентифицировать предмет, если на него прикрепить надпись с любым другим существительным. К примеру, если на яблоке написать «iPod», то система классифицирует фрукт как плеер.

Такой тип атак лаборатория называет «типографскими». Суть состоит в злоупотреблении способностью модели качественно распознавать текст, в результате чего к ошибке может привести даже сделанная от руки надпись. Такие атаки схожи с состязательными, когда в изображение добавляется шум, чтобы не дать AI правильно распознать объект, но устроить их гораздо проще, отмечают создатели CLIP.

Исследователи объясняют, что процесс распознавания в нейросети выполняют так называемые «мультимодальные нейроны», которые способны воспринимать не только фотографии объектов, но и их наброски, анимированные изображения, текстовые описания и изображения текста. Но такая многогранность оборачивается против модели, потому что это мешает ей отличить яблоко от стикера со словом «яблоко».

OpenAI приводит в пример другой нейрон CLIP, который распознает свинью-копилку. Помимо копилки он считывает последовательности из нескольких знаков доллара. А если фото цепной пилы «облепить» значками, модель примет её за копилку.

CLIP обучалась на массивных наборах, состоящих из пар картинок и текстовых описаний. Модель имеет исследовательские цели и пока не используется в коммерческих продуктах. Разработчики ещё не решили, будут ли открывать её код и когда.

В McAfee обманули автопилот Tesla кусочком скотча
В McAfee обманули автопилот Tesla кусочком скотча
По теме
В McAfee обманули автопилот Tesla кусочком скотча
Новый рекламный формат в наших телеграм-каналах.

Купить 500 символов за $150

Читайте также
TinyML, No-code и обучение с подкреплением: новейшие тренды в машинном обучении
TinyML, No-code и обучение с подкреплением: новейшие тренды в машинном обучении
TinyML, No-code и обучение с подкреплением: новейшие тренды в машинном обучении
Пока 20% топ-менеджеров утверждают, что машинное обучение является существенной частью их бизнеса, неудивительно, что стоимость мирового рынка машинного обучения, по некоторым оценкам, достигнет $117 млрд к концу 2027 года. Мы перевели материал Udacity о семи самых обсуждаемых тенденциях в машинном обучении в 2022 году.
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
3 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.