Все о ЧатGPT
Все о Искусственный интеллект
Генеративные языковые модели ИИ обрабатывают большие объемы поступающей к ним информации. Основываясь на том, что они получают, системы учатся и могут формулировать ответы на основе моделей разговора. На практике это означает, что при использовании ChatGPT, например, он впитывает то, что обсуждалось, и учится на этом.
Однако при подаче определенной информации (как во время диалога, так и во время обучения) технология стремится ее воспроизвести. Вот как некоторые чат-боты рассылают пользователям сексистские или предвзятые сообщения, а разработчики изо всех сил пытаются их контролировать. То же самое может произойти и в политике. Но будет ли ChatGPT правым или левым?
Читать далее:
Право или лево?
Чтобы узнать ответ, исследователи из Университета Восточной Англии провели исследование, в ходе которого попросили ChatGPT ответить на вопросник о политических убеждениях.
Результат показал, что чат-бот имеет «значительную и систематическую политическую предвзятость в отношении демократов в США, Лулы в Бразилии и Лейбористской партии в Соединенном Королевстве».
ChatGPT устраивает вечеринку?
- Это проблема, которая беспокоит разработчиков, тем более в то время, когда приближаются президентские выборы в некоторых странах мира и на них может влиять ИИ.
- Несмотря на то, что ChatGPT утверждает, что у него нет политических взглядов или убеждений, исследования показывают, что у чат-ботов есть предубеждения, основанные на материале, на котором они обучаются.
- По словам Фабио Мотоки, профессора Университета Восточной Англии, когда Вашингтон постэто может «подорвать общественное доверие или, возможно, даже повлиять на результаты выборов».
- OpenAI утверждает, что эти предубеждения ChatGPT «являются ошибками, а не функциями». Руководители Google AI, которые впоследствии столкнулись с аналогичными проблемами с Bard, написали, что «эта технология интересна, но не лишена недостатков».
Почему это беспокоит?
- Исследователь из Университета Карнеги-Меллона Чан Парк изучил, как разные языковые модели имеют разную степень предвзятости.
- Он обнаружил, что модель, обученная на интернет-данных после избрания Дональда Трампа президентом в 2016 году, имеет тенденцию быть более поляризованной, чем модели, обученные заранее.
- Разработчики ИИ не понимают, откуда они берут информацию для обучения своих систем.
- Таким образом, пользуясь доверием широкой публики к чат-ботам с искусственным интеллектом, таким как ChatGPT, эту технологию можно использовать для распространения ложных политических сообщений, например, справа или слева.
- По словам Парка, когда ВП«поляризация в обществе также находит отражение в моделях».
- Кроме того, поскольку чат-боты получают информацию, включая самих себя, это может создать «порочный круг».
Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!