Юрист нашёл 129 дел с ИИ-фейками — это лишь «вершина айсберга»
Эксперт по праву Дамьен Шарлотен составил базу данных по судебным процессам, в которых стороны использовали фальшивый юридический контент, созданный искусственным интеллектом.
Эксперт по праву Дамьен Шарлотен составил базу данных по судебным процессам, в которых стороны использовали фальшивый юридический контент, созданный искусственным интеллектом.
Эксперт по праву Дамьен Шарлотен составил базу данных по судебным процессам, в которых стороны использовали фальшивый юридический контент, созданный искусственным интеллектом.
По данным эксперта, юристы использовали поддельные данные, сгенерированные ИИ, например, ссылки на несуществующие дела или цитаты, по меньшей мере в 129 судебных дела в 12 странах. В базу были включены только дела с официальными дисциплинарными мерами или судебными решениями.
Шарлотен, аналитик юридических данных и преподаватель по ИИ и праву в École des Hautes Études Commerciales de Paris, отмечает, что эти 129 случаев — 10 в 2023 году, 37 в 2024 году и 73 за первые пять месяцев 2025 года — представляют лишь «вершину айсберга». Только в мае этого года в базу попали более 30 новых случаев.
Большинство инцидентов произошло в США, а также в Великобритании, Южной Африке, Израиле, Австралии и Испании. Данные показывают изменение ответственности: в 2023 году 70% ошибок приписывались самостоятельно представляющим себя в суде (pro se) участникам, но к маю этого года юристы-профессионалы были виновны в не менее чем 13 из 23 случаев, где были выявлены ошибки ИИ.
Злоупотребление ИИ привело к серьезным последствиям: суды наложили санкции, включая штрафы в размере $10 000 и более в пяти случаях, четыре из которых произошли в 2025 году. Примечательный пример связан с адвокатами ведущих американских юридических фирм K&L Gates и Ellis George, которые были оштрафованы на $31 000 за использование поддельных дел из-за недопонимания между адвокатами и отсутствия проверки контента, созданного ИИ.
Хотя конкретные инструменты ИИ не всегда указаны, ChatGPT чаще других упоминается в базе данных. Судьи научились выявлять галлюцинации ИИ и все чаще готовы наказывать за такие ошибки. Суды отмечают, что некоторые адвокаты, особенно менее подкованные в технологиях, испытывают трудности с сложными юридическими исследованиями, для которых часто используются инструменты ИИ и не замечают ошибки.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.