Мы запустили Dzik Pic Store. Заходи к нам в магазин за крутым мерчом ☃️
Support us

Алгоритм распознавания объектов OpenAI можно обмануть надписью на бумажке

Чтобы сбить с толку новейшую модель компьютерного зрения CLIP разработки OpenAI, достаточно двух незамысловатых инструментов — клочка бумаги и ручки, пишет The Verge.

Оставить комментарий

Чтобы сбить с толку новейшую модель компьютерного зрения CLIP разработки OpenAI, достаточно двух незамысловатых инструментов — клочка бумаги и ручки, пишет The Verge.

Как рассказали исследователи в блоге, искусственный интеллект не сможет корректно идентифицировать предмет, если на него прикрепить надпись с любым другим существительным. К примеру, если на яблоке написать «iPod», то система классифицирует фрукт как плеер.

Такой тип атак лаборатория называет «типографскими». Суть состоит в злоупотреблении способностью модели качественно распознавать текст, в результате чего к ошибке может привести даже сделанная от руки надпись. Такие атаки схожи с состязательными, когда в изображение добавляется шум, чтобы не дать AI правильно распознать объект, но устроить их гораздо проще, отмечают создатели CLIP.

Исследователи объясняют, что процесс распознавания в нейросети выполняют так называемые «мультимодальные нейроны», которые способны воспринимать не только фотографии объектов, но и их наброски, анимированные изображения, текстовые описания и изображения текста. Но такая многогранность оборачивается против модели, потому что это мешает ей отличить яблоко от стикера со словом «яблоко».

OpenAI приводит в пример другой нейрон CLIP, который распознает свинью-копилку. Помимо копилки он считывает последовательности из нескольких знаков доллара. А если фото цепной пилы «облепить» значками, модель примет её за копилку.

CLIP обучалась на массивных наборах, состоящих из пар картинок и текстовых описаний. Модель имеет исследовательские цели и пока не используется в коммерческих продуктах. Разработчики ещё не решили, будут ли открывать её код и когда.

В McAfee обманули автопилот Tesla кусочком скотча
В McAfee обманули автопилот Tesla кусочком скотча
По теме
В McAfee обманули автопилот Tesla кусочком скотча
🎊 Dzik Pic Store открыт и готов принимать заказы!

Заходи к нам в магазин

Читайте также
Альтман: OpenAI планирует сильно сократить наём
Альтман: OpenAI планирует сильно сократить наём
Альтман: OpenAI планирует сильно сократить наём
1 комментарий
СhatGPT не виноват: спад в уязвимых для ИИ профессиях начался раньше
СhatGPT не виноват: спад в уязвимых для ИИ профессиях начался раньше
СhatGPT не виноват: спад в уязвимых для ИИ профессиях начался раньше
ИИ не любит ленивых: рынок софта штормит из-за опасений инвесторов
ИИ не любит ленивых: рынок софта штормит из-за опасений инвесторов
ИИ не любит ленивых: рынок софта штормит из-за опасений инвесторов
Разработчик создал язык программирования с помощью Claude Code
Разработчик создал язык программирования с помощью Claude Code
Разработчик создал язык программирования с помощью Claude Code
2 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.