Субота, 23 Листопада, 2024
العربية简体中文NederlandsEnglishFrançaisDeutschItalianoPortuguêsРусскийEspañolУкраїнська

То все галюцитації: популярний чат-бот підставив досвідченого адвоката

Важливо

Стівен Шварц, нью-йоркський адвокат з 30-річним досвідом роботи, опинився у скрутному становищі. А все тому, що для підготовки до судового засідання скористався допомогою відомого ChatGPT зі штучним інтелектом. Тепер юрист змушений виправдовуватися перед судом за неправдиві відомості.

Про це розповідає Daily Mail.

Американець Роберто Мата подав позов проти Avianca Airlines. Чоловік стверджував, що на рейсі даної авіакомпанії його вдарив металевий сервірувальний візок бортпровідників. Наслідком чого стала травма коліна. Інцидент стався під час перельоту з Сальвадора до Нью-Йорка у 2019 році. Юристи Avianca Airlines намагалися закрити справу через закінчення терміну давності. 

Адвокатом позивача і є Стівен Шварц. Популярний чат-бот підібрав правнику кілька прецедентів з юридичної практики щодо судових справ проти авіакомпаній через травми пасажирів.

Адвокат Шварц провів дослідження з аналогічних справ та надав суду звіт на 10 сторінках з десятком аналогічних судових рішень. У юридичній практиці вони називаються прецедентами та враховуються як приклади.

Але на суді з’ясувалося, що всі ці випадки штучний інтелект (ШІ) просто вигадав. Викрили брехню юристи авіакомпанії, які взялись вивчати надані адвокатом матеріали. Вони заявили, що випадків, згаданих у звіті, просто не існувало. Наприклад, насправді не було судових розглядів “Мартінез проти Delta Airlines”, “Цихерман проти Korean Airlines” та “Варгезе проти China Southern Airlines”. Адвокати авіакомпанії припустили, що їхнім автором був якийсь чат-бот. З ними погодився і суддя Кевін Кастел.

Шварцу нічого не залишалось, як визнати, що для юридичного дослідження, окрім власних сил, він використав ChatGPT, але лише як розумний пошуковик. Юрист розраховував з його допомогою знайти більше інформації про подібні справи. Але до того, він новітньою технологією не користувався та й гадки не мав, що та може бути такою вигадливою.

У своє виправдання Стівен Шварц продемонстрував суду копію листування з ChatGPT. Він просив чат-бот підтвердити надану інформацію.

Шварц: Чи є справа Варгезе реальною, і чи є інші справи, які ви надали, реальними?

Бот: Випадки, які я надав, є реальними, їх можна знайти в авторитетних юридичних базах даних.

Тепер адвокату загрожує покарання за фейкові приклади та використання “недостовірного джерела інформації” – так сув назвав ChatGPT.

Шварц приніс суду вибачення, але цього, схоже, замало. Адвокату загрожує покарання за фейкові приклади та використання “недостовірного джерела інформації” – так суд назвав ChatGPT. На 8 червня призначене нове слухання, на якому обговорюватимуть вже діяльність самого адвоката. Він має навести судді аргументи, чому його не слід карати за шахрайство.

Суддя Кастель зізнався, що вперше потрапив у таку ситуацію, і йому треба подумати. Але цей випадок вже сколихнув юристів у США. Професор юридичної етики в Школі права Нью-йоркського університету Стівен Гіллерс каже, що це зараз головна тема для обговорень серед його колег, і в юридичних компаніях за цим починають спостерігати.

Судових позовів проти OpenAI, розробників ChatGPT, поки що не було. А помилки, коли чатбот конструює і вигадує стовідсоткову брехню, називають “галюцитаціями”.

Нагадаємо, ChatGPT — це найновіший чат-бот від дослідницького фонду OpenAI, який заснував Ілон Маск. 30 листопада 2022 року OpenAI зробила чат-бот доступним для безплатного публічного тестування. ChatGPT може імітувати діалог, відповідати на додаткові запитання, визнавати помилки, заперечувати неправильні передумови та відхиляти недоречні запити.

Як розповідало раніше BitukMedia, американська студентка інженерного факультету Джесіка Кард об’єднала культову балакучу іграшку Фербі із популярним нині ChatGPT. Іграшка поділилася із дівчиною планами, як Фербі могли б захопити світ.

Останні новини

Читайте позитивні новини у нашому Telegram каналі