Как и все в этой жизни, ChatGPT имеет свои плюсы и минусы, являясь настоящим «палкой о двух концах». У инструмента OpenAI было много хороших применений, но он также дает сбои в сложных ситуациях.

Последняя «пресепада» чат-бота должна была изобрести ложь о вещателе, подав на OpenAI в суд.

Читать далее:

Это первое дело о диффамации с участием OpenAI, переданное в суд. За процессом следят специалисты в области права и технологий, так как могут быть установлены судебные параметры в США относительно ответственности за информацию, полученную через ChatGPT.

Неправда, рассказанная ИИ, была приписана «галлюцинации» — термину, обозначающему моменты, когда чат-бот ведет себя непредсказуемым и необъяснимым образом.

Каков контекст новой полемики с участием ChatGPT?

  • Журналист Фред Риль попросил ChatGPT подвести итоги судебного спора с участием SAF (Фонда второй поправки), американской организации, выступающей за оружие;
  • Затем чат-бот сказал, что стержнем ситуации был коллега-телеведущий Марк Уолтерс, которого обвинили бы в растрате денег из учреждения — что-то нереальное;
  • По словам AI, Уолтерс якобы «неправомерно присваивал средства на личные расходы без разрешения или возмещения, манипулировал финансовыми записями и банковскими выписками, чтобы скрыть свою деятельность, и не предоставлял точных и своевременных финансовых отчетов»;
  • Однако в рассматриваемом судебном деле имя вещателя не упоминается и к хищениям не имеет никакого отношения;
  • Трудно понять, откуда ChatGPT взял эту идею, поскольку Уолтерс не имеет прямого отношения к фонду. Однако он ведет радиопередачу в поддержку оружия в Джорджии;
  • Неправда, сказанная роботом, как только дошла до ушей вещателя, заставила его подать в суд на OpenAI.

Мотивы ChatGPT лгать

«Галлюцинации» могут возникать, потому что генеративный ИИ обучен предсказывать следующее слово, которое должно быть вставлено в логической последовательности, чтобы воспроизвести то, как люди пишут.

Однако нельзя сказать, что они знают, о чем говорят, или что они отличают факты от вымысла. Это снижает доверие к прошлой информации (иногда Википедия оказывается более надежной!), и затрудняет для робота обоснование.

Генеральный директор OpenAI Сэм Альтман уже признал, что у ChatGPT есть проблемы с галлюцинациями. В свою очередь, адвокат Уолтерса Джон Монро заявил Гизмодо что со стороны матери чат-бота «безответственно» публиковать такие системы, как ChatGPT, «зная, что она производит информацию, которая может причинить вред».

Можно ли осуждать OpenAI?

Более чем через шесть месяцев после его выпуска для публики, ChatGPT накопил аналогичные противоречия. Наиболее резонансным было обращение Брайана Худа, австралийского политика, который пригрозил подать в суд на OpenAI после того, как ИИ обвинил его в причастности к коррупционному скандалу.

Скандал действительно случился, но Худ был одним из разоблачителей дела о подкупе иностранных дипломатов деньгами Центрального банка Австралии, но чат-бот утверждал, что политик был бы одним из виновных в попытке дачи взятки. Однако дело дальше не пошло.

Двое, упомянутые в этих делах, Худ и Уолтерс, являются общественными деятелями, которые заботятся о своей репутации. Однако судебные эксперты, с которыми консультировался Гизмодо скептически относятся к шансам радиоведущего на успех.

Для них Уолтерс должен был продемонстрировать на практике, как его репутация была запятнана ложной информацией, сгенерированной ChatGPT.

Профессор права Калифорнийского университета Юджин Волох сказал, что вещательная компания также должна доказать, что OpenAI «действовала с осознанием лжи или безрассудным игнорированием возможности лжи».

По информации от UOL

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *