Генеративные языковые модели ИИ обрабатывают большие объемы поступающей к ним информации. Основываясь на том, что они получают, системы учатся и могут формулировать ответы на основе моделей разговора. На практике это означает, что при использовании ChatGPT, например, он впитывает то, что обсуждалось, и учится на этом.

Однако при подаче определенной информации (как во время диалога, так и во время обучения) технология стремится ее воспроизвести. Вот как некоторые чат-боты рассылают пользователям сексистские или предвзятые сообщения, а разработчики изо всех сил пытаются их контролировать. То же самое может произойти и в политике. Но будет ли ChatGPT правым или левым?

Читать далее:

Право или лево?

Чтобы узнать ответ, исследователи из Университета Восточной Англии провели исследование, в ходе которого попросили ChatGPT ответить на вопросник о политических убеждениях.

Результат показал, что чат-бот имеет «значительную и систематическую политическую предвзятость в отношении демократов в США, Лулы в Бразилии и Лейбористской партии в Соединенном Королевстве».

ChatGPT устраивает вечеринку?

  • Это проблема, которая беспокоит разработчиков, тем более в то время, когда приближаются президентские выборы в некоторых странах мира и на них может влиять ИИ.
  • Несмотря на то, что ChatGPT утверждает, что у него нет политических взглядов или убеждений, исследования показывают, что у чат-ботов есть предубеждения, основанные на материале, на котором они обучаются.
  • По словам Фабио Мотоки, профессора Университета Восточной Англии, когда Вашингтон постэто может «подорвать общественное доверие или, возможно, даже повлиять на результаты выборов».
  • OpenAI утверждает, что эти предубеждения ChatGPT «являются ошибками, а не функциями». Руководители Google AI, которые впоследствии столкнулись с аналогичными проблемами с Bard, написали, что «эта технология интересна, но не лишена недостатков».
ЧатGPT
ChatGPT учится на предоставленной ему информации (Изображение: Амир Саджад / Shutterstock)

Почему это беспокоит?

  • Исследователь из Университета Карнеги-Меллона Чан Парк изучил, как разные языковые модели имеют разную степень предвзятости.
  • Он обнаружил, что модель, обученная на интернет-данных после избрания Дональда Трампа президентом в 2016 году, имеет тенденцию быть более поляризованной, чем модели, обученные заранее.
  • Разработчики ИИ не понимают, откуда они берут информацию для обучения своих систем.
  • Таким образом, пользуясь доверием широкой публики к чат-ботам с искусственным интеллектом, таким как ChatGPT, эту технологию можно использовать для распространения ложных политических сообщений, например, справа или слева.
  • По словам Парка, когда ВП«поляризация в обществе также находит отражение в моделях».
  • Кроме того, поскольку чат-боты получают информацию, включая самих себя, это может создать «порочный круг».

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *