В конце мая американский юрист использовал ChatGPT для консультаций по судебному делу против авиакомпании Avianca. Однако чат-бот с искусственным интеллектом изобрел поддельные шрифты, и профессионал во всем признался. Теперь его наказали за неправомерное использование.

Читать далее:

помни случай

  • Адвокат Стивен А. Шварц, ответственный за дело против Avianca, использовал ChatGPT для консультаций по другим делам, похожим на его, и чат-бот ответил.
  • Затем профессионал спросил, была ли информация ложной, и попросил указать источники, в которых можно найти предыдущие процессы. Опять же, ChatGPT ответил.
  • Доверившись ИИ, он представил информацию в суде и был разоблачен, признавшись, что использовал чат-бота в качестве источника исследования.
Адвокат даже засомневался, правда ли это, и ChatGPT подтвердил это (Изображение: SDNY).

ИИ для исследований

Профессор Джулиано Мараньян с кафедры философии и общей теории права юридического факультета USP входит в состав комиссии факультета по определению критериев использования ИИ.

По его словам, важно помнить, что чат-боты — это не поисковые системы, как Google, — они просто имитируют человеческие разговоры.

Мараньян также указывает, что проблема заключается в прозрачности людей в отношении того, использовали ли они ИИ в качестве источника, поскольку к нему существует избыток доверия, даже если он часто ошибается или выдумывает информацию.

Наказание за использование ChatGPT

Американского юриста наказали не за ошибку в информации, а за отсутствие прозрачности в отношении использования инструмента, что в профессии считалось халатностью.

ЧатGPT
Это еще один случай, когда ChatGPT изобрел ложную информацию (Изображение: Diego Thomazini / Shutterstock.com)

Это в Бразилии?

По словам Мараньяна, в Бразилии наказание адвоката может относиться к преступлению идеологической лжи, когда профессионал предоставляет ложную информацию государственному органу.

В комитете, в котором он участвует, профессор упомянул, что озабоченность вызывает доверие между технологиями и людьми, например, когда профессора опасаются, что студенты используют ChatGPT для выполнения работы.

Таким образом, одной из первых мер, предпринятых USP, является проведение опроса, чтобы понять использование чат-бота в университете и на его основе определить правила.

Дело не в запрете. Но, если он используется, подчеркните, что он использовался, как он использовался, потому что это опять-таки вселяет уверенность в инструменте, который можно использовать положительно, а не злонамеренно.

Джулиано Мараньян

С информацией от Журнал USP

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *