Беларусь + FemTech = ❤️? Stork целится в миллион установок
Support us

Юрист нашёл 129 дел с ИИ-фейками — это лишь «вершина айсберга»

Эксперт по праву Дамьен Шарлотен составил базу данных по судебным процессам, в которых стороны использовали фальшивый юридический контент, созданный искусственным интеллектом.

Оставить комментарий
Юрист нашёл 129 дел с ИИ-фейками — это лишь «вершина айсберга»

Эксперт по праву Дамьен Шарлотен составил базу данных по судебным процессам, в которых стороны использовали фальшивый юридический контент, созданный искусственным интеллектом.

По данным эксперта, юристы использовали поддельные данные, сгенерированные ИИ, например, ссылки на несуществующие дела или цитаты, по меньшей мере в 129 судебных дела в 12 странах. В базу были включены только дела с официальными дисциплинарными мерами или судебными решениями.

Шарлотен, аналитик юридических данных и преподаватель по ИИ и праву в École des Hautes Études Commerciales de Paris, отмечает, что эти 129 случаев — 10 в 2023 году, 37 в 2024 году и 73 за первые пять месяцев 2025 года — представляют лишь «вершину айсберга». Только в мае этого года в базу попали более 30 новых случаев.

Большинство инцидентов произошло в США, а также в Великобритании, Южной Африке, Израиле, Австралии и Испании. Данные показывают изменение ответственности: в 2023 году 70% ошибок приписывались самостоятельно представляющим себя в суде (pro se) участникам, но к маю этого года юристы-профессионалы были виновны в не менее чем 13 из 23 случаев, где были выявлены ошибки ИИ.

Злоупотребление ИИ привело к серьезным последствиям: суды наложили санкции, включая штрафы в размере $10 000 и более в пяти случаях, четыре из которых произошли в 2025 году. Примечательный пример связан с адвокатами ведущих американских юридических фирм K&L Gates и Ellis George, которые были оштрафованы на $31 000 за использование поддельных дел из-за недопонимания между адвокатами и отсутствия проверки контента, созданного ИИ.

Хотя конкретные инструменты ИИ не всегда указаны, ChatGPT чаще других упоминается в базе данных. Судьи научились выявлять галлюцинации ИИ и все чаще готовы наказывать за такие ошибки. Суды отмечают, что некоторые адвокаты, особенно менее подкованные в технологиях, испытывают трудности с сложными юридическими исследованиями, для которых часто используются инструменты ИИ и не замечают ошибки.

Читайте также
CEO Google говорит, что с вайб-кодингом разрабатывать софт снова стало в кайф
CEO Google говорит, что с вайб-кодингом разрабатывать софт снова стало в кайф
CEO Google говорит, что с вайб-кодингом разрабатывать софт снова стало в кайф
Google урезала доступ к Pro-версиям Gemini 3 и Nano Banana, Alibaba делит клиентов по приоритету — компании страдают от популярности
Google урезала доступ к Pro-версиям Gemini 3 и Nano Banana, Alibaba делит клиентов по приоритету — компании страдают от популярности
Google урезала доступ к Pro-версиям Gemini 3 и Nano Banana, Alibaba делит клиентов по приоритету — компании страдают от популярности
ИИ уже сейчас может заменить 12% американских работников
ИИ уже сейчас может заменить 12% американских работников
ИИ уже сейчас может заменить 12% американских работников
2 комментария
Сооснователь OpenAI: главная стратегия развития ИИ исчерпала себя — нужно возвращаться к научным истокам
Сооснователь OpenAI: главная стратегия развития ИИ исчерпала себя — нужно возвращаться к научным истокам
Сооснователь OpenAI: главная стратегия развития ИИ исчерпала себя — нужно возвращаться к научным истокам

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.