Суды США сталкиваются с растущим числом исков, где ИИ генерирует ложные данные, тем самым ставя под сомнение надежность технологий.
Федеральный судья Кэтрин Кимбалл Мизелль (Kathryn Kimball Mizelle) вынесла резонансное решение, исключив из материалов дела ходатайство, подготовленное с использованием ИИ. Документ, поданный адвокатами журналиста и медиаконсультанта Тима Берка (Tim Burke), содержал несуществующие цитаты и ошибочные трактовки законов. Это уже не первое свидетельство рисков, вызванных слепым доверием к ИИ в юридической практике.
Читайте также
Сжечь или взломать — что лучше для биткоина?
Дело Берка связано с обвинениями в несанкционированном доступе к видеозаписям Fox News. Его защитник Марк Раш (Mark Rasch) использовал чат-боты и другие интеллектуальные инструменты для подготовки ходатайства о снятии обвинений. Неожиданно для юриста результат оказался катастрофическим. Федеральный судья обнаружила как минимум девять некорректных ссылок на прецеденты. Например, в тексте фигурировала цитата из якобы известного дела, которой в реальности не существует ни в одном из рассмотренных в США дел: «[Закон] не может по Конституции требовать от обвиняемого доказывать факты, которые его оправдывают». Мизелль назвала это «вопиющим искажением фактов» и потребовала переписать документ.
Проблема не нова. В начале 2025 года юридическая фирма Morgan & Morgan из Флориды получила штраф в $1000 после подачи записки с восемью вымышленными делами, сгенерированными ИИ. Аналогичные случаи зафиксированы в Калифорнии, где судья обязал юридическую фирму выплатить $31 тыс. за ложные данные. Эксперты отмечают, что американские юристы все чаще заменяют традиционные методы исследований алгоритмами. Они экономят время, но при этом жертвуют точностью.
Главный парадокс этой ситуации заключается в противоречии между эффективностью ИИ и его ненадежностью. Интеллектуальные технологии ускоряют обработку данных, но не гарантируют их достоверности. Юристы, как показало дело Берка, не всегда проводят должную проверку, полагаясь на «авторитетность» машинного текста. При этом отсутствуют четкие стандарты использования ИИ в правовой сфере. А также не определена степень ответственности за ошибки техники в судьбе человека. Тем не менее, судья Мизелль своим решением четко обозначила позицию закона: исследования должны проводиться людьми, а итоговые документы — проходить многоуровневую проверку.
Дело Берка назначено на сентябрь 2025 года. Его исход может стать прецедентом не только для свободы слова, но и для регулирования ИИ в юридической практике. Пока же судьи, эксперты и сами адвокаты вынуждены учиться на ошибках — как человеческих, так и машинных.





