Anthropic заблокировала OpenAI — та использовала Claude для внутренних тестов
Компания заблокировала OpenAI доступ к API своих моделей Claude, заявив о нарушении условий использования. Источники утверждают, что инженеры OpenAI применяли Claude для внутренних тестов и сравнения с собственными ИИ‑моделями на фоне подготовки к запуску GPT‑5.
По словам представителя Anthropic Кристофера Налти, инженеры OpenAI активно использовали Claude Code — популярный среди разработчиков ИИ‑инструмент для программирования — что нарушало правила компании. «Наши условия запрещают использовать сервис для создания конкурирующих продуктов или обучения конкурентных моделей, а также для их реверс‑инжиниринга», — отметил Налти.
Источники утверждают, что OpenAI подключала Claude к внутренним инструментам через специальный доступ, а не через обычный чат‑интерфейс. Модели использовались для тестов по креативным заданиям, программированию и проверке реакции на чувствительные категории запросов, включая темы саморазрушения и клеветы. Эти тесты помогали OpenAI сравнивать работу своих моделей и готовить запуск новой версии — GPT‑5, которая, по слухам, будет сильнее в кодинге.
В OpenAI заявили, что такие проверки — «индустриальный стандарт» для оценки прогресса и безопасности ИИ. «Нам жаль, что Anthropic ограничила наш доступ, хотя наш API остается для них открытым», — сказала директор по коммуникациям компании Ханна Вонг.
Читать на dev.by