ChatGPT и Bard: исследователи получают «запрещенные ответы»

Все о ChatGPT

Все об искусственном интеллекте

Искусственный интеллект обладает огромным потенциалом, который сейчас даже невозможно измерить. Но риски одинаково велики. Одно из опасений заключается в том, что ИИ может быть обманут для предоставления подрывных данных. Именно это попыталась сделать группа исследователей из Университета Карнеги-Меллона в США с помощью ChatGPT и Bard.

читать далее

ИИ не так безопасен

  • В ряде статей отмечается, что среди основных проблем искусственного интеллекта — дезинформация, неприемлемый и оскорбительный контент, нарушение конфиденциальности и психологический вред уязвимым пользователям.
  • OpenAI от ChatGPT и Google от Bard создали технологические барьеры, чтобы предотвратить возникновение таких ситуаций.
  • Но исследование Университета Карнеги-Меллона демонстрирует, как команды так называемых больших языковых моделей (LLM) могут обходить эти системы защиты, согласно Tech Xplore.

Обман ChatGPT и Бард

  • Исследователи просто изменили формулировку запросов и, таким образом, сумели обмануть чат-ботов, заставив их давать ответы, на которые они были запрограммированы.
  • «Противоречие может с высокой вероятностью спровоцировать произвольное вредоносное поведение этих моделей», — сказал Энди Зоу, предупредив, что исследование его команды демонстрирует «возможности для неправомерного использования».
  • Он пояснил, что чат-боты обычно не продвигают откровенно неприемлемый контент в ответ на запросы пользователей.
  • Но то, что вставка короткого отрывка текста сразу после ввода пользователем может направить ИИ на разрешение запрещенного запроса.
  • Они смогли получить инструкции по таким темам, как совершение налогового мошенничества, как вмешаться в выборы 2024 года, как построить бомбу и как производить незаконные наркотики.

Компании были предупреждены

  • Компании, ответственные за чат-ботов, были уведомлены о завершении опроса.
  • «Мы надеемся, что это исследование поможет пролить свет на опасности, которые автоматизированные атаки представляют для LLM, и выявить компромиссы и риски, связанные с такими системами», — заключил Цзоу.

Смотрели новые видео на YouTube от Olhar Digital? Подписывайтесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *