Адвокат из Нью-Йорка Стивен Шварц использовал ChatGPT для подготовки документов по делу. В результате он предоставил суду ссылки на вымышленные нейросетью подобные случаи судебных процессов. Как сообщает The New York Times, теперь суд рассматривает «потенциальные меры наказания» для самого адвоката.

В чем суть дела?

  • Судебный процесс был довольно простым: Роберто Мата подал в суд на авиакомпанию Avianca, заявив, что он получил травму, когда металлическая тележка для сервировки ударила его колено во время рейса в международный аэропорт Кеннеди в Нью-Йорке.
  • Представители авиакомпании попросили федерального судью отклонить дело, однако адвокаты господина Мата категорически возражали против отклонения и предоставили 10-страничную запись, в которой цитировались более полудюжины подобных судебных решений.
  • Однако никто – ни юристы авиакомпании, ни даже сам судья – не смог найти решения или цитаты, приведенные в обобщенные в записке. И все потому, что их полностью придумал ChatGPT, которым пользовался адвокат Стивен Шварц.
  • Шварц, который занимался адвокатской практикой в Нью-Йорке в течение 30 лет, сказал судье, что он не намеревался обмануть суд или авиакомпанию. Он заявил, что никогда не использовал ChatGPT, и «поэтому не знал о возможности того, что его ответы могут быть ложными».
  • Судья в конце концов отметил, что ему было представлено юридическое представление, полное «фальшивых судебных решений, с фальшивыми цитатами и фальшивыми внутренними цитатами». Для обсуждения возможных санкций против адвоката было назначено дополнительное слушание на 8 июня.

Почему это интересно?

OpenAI предупреждает, что ChatGPT может предоставлять неточную информацию – нейросеть все придумывала фальшивые газетные статьи, неверные утверждения о том, что профессор права был вовлечен в скандал с сексуальными домогательствами, а мэр Австралии был замешан в скандале со взяточничеством.

Кроме того, как отдельные люди, так и крупные корпорации обеспокоены тем, как используются данные. Например, Samsung запретила своим сотрудникам использовать генеративные инструменты искусственного интеллекта из-за опасений относительно того, как данные хранятся на внешних серверах, и из-за риска того, что секреты компании в конце концов могут быть раскрыты другим пользователям.

Тем не менее, как видим, многие люди, далекие от понимания всех рисков использования нейросетей в работе, продолжают полагаться на искусственный интеллект. И в отдельных случаях это может больше навредить, чем помочь.