Так называемые большие языковые модели (LLM) — это инструменты, используемые искусственным интеллектом для чтения, обобщения и перевода текстов. Эта технология стала довольно популярной после запуска чат-ботов, таких как Chat GPT от OpenAI. Теперь исследователи проанализировали, могут ли эти модели помочь идентифицировать фейковые новости.
читать далее
- Искусственный интеллект уже производит фейковые новости
- Как фраза, используемая ChatGPT, генерирует спам и фейковые новости
- Дело о фейковых новостях в ChatGPT закончилось арестом в Китае
Было использовано четыре ИИ
- Исследование, проведенное Кевином Матте Карамансионом, исследователем из Университета Висконсин-Стаут в США, оценило способность LLM определять, правдивы новости или нет.
- «Моя цель состояла в том, чтобы тщательно проверить способность этих моделей различать производственные факты, используя контролируемое моделирование и авторитетные агентства по проверке фактов в качестве эталона», — сказал Карамансьон.
- В исследовании использовались две версии ChatGPT (3.0 и 4.0), Bard от Google и Bing от Microsoft.
- Эти ИИ использовались для классификации 100 новостей, проверенных агентствами по проверке фактов, на три категории: правда, ложь или частично правда/ложь.
Каков вывод?
- Лучший результат был у ChatGPT 4.0 с эффективностью 71%.
- Среднее значение всех моделей составило 62,25%.
- «Однако все модели отставали от человеческих фактчекеров, подчеркивая незаменимую ценность человеческого познания. Эти результаты могут привести к тому, что больше внимания будет уделяться развитию возможностей ИИ в области проверки фактов, обеспечивая сбалансированную и симбиотическую интеграцию с человеческими навыками».
ИА и фейковые новости
- В нескольких исследованиях используется искусственный интеллект, чтобы понять, может ли эта технология оказать существенную помощь в борьбе с дезинформацией в Интернете.
- Если результат этих тестов будет положительным, изображение самого ИИ может улучшиться.
- Это связано с тем, что некоторые критики указывают именно на проблему фейковых новостей как на проблему, усугубляемую инструментом (подробнее см. здесь).
- Недавно Google начал тестировать технологию выявления фейковых новостей.
- Новая функция, называемая Fact Check Explorer, ищет изображения в базе данных, чтобы выяснить, использовались ли они в правильном контексте (подробнее здесь).
С информацией от Tech Xplore.
Смотрели новые видео на YouTube от Olhar Digital? Подписывайтесь на канал!
Может ли искусственный интеллект идентифицировать фейковые новости? Ответы на исследование впервые появились в Olhar Digital.