Москва
23 ноября ‘24
Суббота

Хитрая нейросеть: адвокат использовал ChatGPT для подготовки документов к делу, а теперь сам пойдет под суд

Нельзя полагаться на искусственный интеллект.

Очередная поучительная история о человеке и нейросети. Американский адвокат Стивен Шварц защищал своего клиента — тот подал иск против авиакомпании за то, что во время полета его сильно ударили по коленке металлической тележкой, на которой развозят еду.

Авиакомпания просила судью закрыть дело. Но адвокат истца предоставил судье 10-страничный доклад о том, как подобные дела уже решались в суде в пользу пассажира. Это могло бы стать аргументом против авиакомпании. Если бы все дела в докладе не оказались выдуманными. Ни одно из представленных Шварцем дел не нашли в судебных базах, передает NYTimes.

Как выяснилось, адвокат составил свой доклад с помощью нейросети ChatGPT. Он попросил ее найти аналогичные судебные разбирательства. Нейронка «нашла». Адвокат спросил: «Они настоящие?». Нейронка ответила: «Настоящие».

Шварц признался, что не хотел никого обманывать, а хотел лишь найти похожие дела в судебной практике. Он также отметил, что уточнял нейросети, что кейсы должны быть реальными. По словам Шварца, раньше он не пользовался нейросетями, поэтому не знал, чтобы они могут выдать полнейшую выдумку. Адвокат назвал ChatGPT «ненадежным источником» и обещал больше им не пользоваться без тотальной проверки подлинности результатов.

Однако раскаяния Шварца суду было мало: адвокату назначили слушание для обсуждения меры наказания за предоставление ложных судебных постановлений и цитат в ходе судебного процесса.

Нейросеть не может воспринимать тексты и поставленные задачи как человек. Вероятно, искусственный интеллект делает все, чтобы удовлетворить запрос человека, и ему неважно, какой ценой. Из этой истории мы понимаем, что ChatGPT может выдать за правду выдумку. Впрочем, не может ли здесь быть ошибки поиска в судебных базах?..

Ранее в Китае бизнесмена развели на деньги с помощью нейросети. Китайцу по видеосвязи позвонил его друг и попросил одолжить денег. Отправив деньги, мужчина с ужасом понял, что разговаривал не с другом, а с коварным дипфеком.

Читайте также: Исследователь ИИ уволился из Google, чтобы предупредить об опасности нейросетей

Полная версия