CEO Anthropic: ИИ ошибается реже людей — дайте ему шанс
Генеральный директор Anthropic Дарио Амодеи заявил, что проблема галлюцинаций у моделей искусственного интеллекта не критична для развития технологии, а ошибки естественны для любого интеллекта.
На первой конференции Anthropic для разработчиком Амодеи подчеркнул, что галлюцинации ИИ не являются препятствием на пути к созданию общего искусственного интеллекта (AGI) — систем с интеллектом на уровне человеческого или выше. «Зависит от того, как это измерять, но я подозреваю, что модели ИИ ошибаются реже людей, хотя их ошибки более неожиданны», — сказал он.
Амодеи отметил, что ошибки делают не только ИИ, но телеведущие, политики и профессионалы разных сфер. По его мнению, ошибки ИИ не умаляют его интеллекта, хотя уверенность, с которой модели выдают ложные факты, может быть проблемой. Глава Anthropic — один из самых оптимистичных лидеров в индустрии, прогнозирует появление AGI уже к 2026 году, отмечая «стабильный прогресс» в этом направлении.
В отличие от Амодеи глава Google DeepMind Демис Хассабис считает галлюцинации серьезным препятствием для AGI, указывая на «дыры» в современных моделях, которые часто дают неверные ответы на очевидные вопросы. Недавний инцидент, когда юрист Anthropic был вынужден извиниться в суде за использование Claude для создания ссылок, в которых ИИ выдумал имена и титулы, иллюстрирует эту проблему.
Прямое сравнение галлюцинаций ИИ и ошибок людей затруднено, так как большинство тестов сравнивают модели ИИ между собой, а не с человеческими ошибками. Новые функции, такие как доступ к веб-поиску, помогают снизить уровень галлюцинаций, и некоторые модели, например OpenAI GPT-4.5, показывают меньшую склонность к выдуманным данным по сравнению с предыдущими поколениями. Однако существуют исследования, которые показывают, что в продвинутых моделях, таких как OpenAI o3 и o4-mini, уровень галлюцинаций растет, и причины этого остаются неясными.
Читать на dev.by