Двоим американским юристам грозит наказание за использование популярного чат-бота с искусственным интеллектом ChatGPT при подготовке иска, сообщает The Associated Press. Искусственный интеллект "подсказал" им юридические прецеденты, которых на самом деле не было.
Адвокаты Стивен Шварц и Питер Лодука представляли интересы пассажира, получившего травмы во время авиаперелёта. Они должны были составить иск к авиакомпании, сославшись в нём на аналогичные судебные процессы, которые могли бы послужить прецедентами. Шварц решил прибегнуть к помощи ChatGPT, чтобы разыскать информацию о таких делах. Но процессы, о которых ему "рассказал" чат-бот, на самом деле оказались полностью вымышленными – это выяснилось уже на заседании, когда адвокатам пришлось объясняться с судьёй.
Стивен Шварц признался, что ChatGPT предложил ему сослаться на несколько дел об авиационных происшествиях, которые сам адвокат не смог обнаружить при поиске обычными средствами. Юрист решил довериться искусственному интеллекту, не подозревая, что некоторые из этих судебных процессов оказались полностью вымышленными. В ряде случаев ChatGPT упоминал авиакомпании, которых вообще никогда не существовало.
"Я действовал из ложной предпосылки, что этот веб-сайт получил информацию об этих делах из источников, к которым у меня не было доступа. Я не подозревал, что ChatGPT может сам фабриковать примеры судебных дел", – сказал Стивен Шварц на судебном заседании.
Юрист добавил, что "потерпел полный крах", поскольку не проверил корректность информации должным образом, и принёс извинения. По словам Шварца, из-за использования ChatGPT он "пострадал в личном и профессиональном плане", из-за чего чувствует себя униженным. Стивен Шварц заверил, что юридическая фирма, на которую он работал, после этого случая ввела дополнительные правила для адвокатов, чтобы предотвратить повторение таких инцидентов. Второй юрист, Питер Лодука, признал, что полностью доверял своему коллеге и не стал дополнительно проверять информацию, которую тот предоставил.
Судья выразил обоим адвокатам возмущение и заявил, что глубоко разочарован их работой – ведь юристы даже не попытались своевременно скорректировать иск и убрать из него ссылки на несуществующие прецеденты. О том, что в их иске содержится чистый вымысел, представители авиакомпании-ответчика уведомили Шварца и Лодуку ещё в марте. Более того, адвокаты не обратили внимания на откровенные несоответствия в созданной ChatGPT части иска, которые судья назвал "юридической чепухой". Судья зачитал отрывки из иска, наглядно демонстрирующие их бессмысленность с правовой точки зрения.
"Это первый задокументированный случай потенциального профессионального нарушения со стороны адвоката, связанный с использованием генеративного искусственного интеллекта. Он наглядно демонстрирует опасность использования многообещающих ИИ-технологий без осознания связанных с этим рисков", – прокомментировал специалист по цифровой безопасности Дэниел Шин, помощник директора по исследованиям в Центре юридических и судебных технологий при государственном юридическом университете William & Mary Law School в штате Вирджиния.
Какую ответственность понесут юристы, доверившиеся ChatGPT, в ближайшее время определит судья.
Читайте также:
- Судья в Колумбии использовал искусственный интеллект при вынесении решения по делу
- "Байден умер". В интернете нашли около 50 сайтов с фейковыми новостями, которые пишет ChatGPT
- Голливудские сценаристы выступили против использования искусственного интеллекта при написании текстов
- "Попытался убить всех". Искусственный интеллект "сошёл с ума" во время военных испытаний в США
-
1🎄Новогодние скидки: билеты на поезда по выгодным ценам распродают в Казахстане
- 5138
- 1
- 3
-
2❓День потрачен впустую: кто виноват и что делать, если доставка задерживается
- 4882
- 3
- 16
-
3⚠️ Доброе утро! Предлагаем обзор главных новостей за 21 ноября
- 2795
- 0
- 7
-
4🏃♀️Семейный забег пройдёт в Астане. Победители получат телевизоры, пылесосы и планшеты
- 2750
- 0
- 21
-
5‼️К смертной казни приговорили жительницу Таиланда за серийные убийства с помощью цианида
- 2396
- 1
- 28
-
6⚡️Солдат впал в кому после удара сержанта: начался суд по резонансному инциденту в воинской части Отара
- 2420
- 6
- 26
-
7🥶Ночные морозы до -23 прогнозируют на выходных в северной половине Казахстана
- 2536
- 0
- 7
-
8🔥Столичные пожарные потушили горящий автомобиль
- 2364
- 0
- 11
-
9⚖️ Прокуратура вернула 12,5 млн тенге предпринимателям алматинского метрополитена
- 2372
- 0
- 14
-
10🔥 Полицейские эвакуировали 20 человек из горящей многоэтажки в Кокшетау
- 2305
- 0
- 19