Новое исследование показало, что дипфейковые видеоролики ремейков фильмов, которые на самом деле никогда не снимались, заставляли участников ложно вспоминать фильмы. С другой стороны, простые текстовые описания поддельных фильмов имели аналогичные показатели ложных воспоминаний.

  • Видео Deepfake — это клипы, которые были изменены с использованием технологии искусственного интеллекта (ИИ) для замены голоса или лица одного человека другим.
  • Инструменты для создания дипфейков в последнее время стали дешевле и доступнее.
  • Это усилило дискуссии о возможных творческих применениях, а также о потенциальных рисках, таких как распространение дезинформации и манипулирование воспоминаниями зрителей.
  • Эти результаты представили Джиллиан Мерфи из Университетского колледжа Корка в Ирландии и Леро из Исследовательского центра программного обеспечения Научного фонда Ирландии и их коллеги.
  • Исследование было опубликовано в журнале открытого доступа PLOS ONE.

Читать далее:

Чтобы изучить потенциальные риски и преимущества, Мерфи и его коллеги пригласили 436 человек принять участие в онлайн-опросе.

Исследование включало в себя просмотр дипфейковых видео ремейков фальшивых фильмов с участием разных актеров, таких как Уилл Смит, играющий персонажа Нео, которого первоначально играл Киану Ривз, в Матрица и Брэд Питт и Анджелина Джоли в Освещенный. Другие поддельные ремейки в исследовании были Индиана Джонс е капитан марвел.

дипфейк
Уилл Смит появился в образе Нео из «Матрицы» в дипфейке, представленном участникам исследования. Изображение: Колумбия Пикчерз

Для сравнения участники также смотрели клипы из реальных ремейков, в том числе Фантастическая шоколадная фабрика, Будущий Мститель, Кэрри е Расхитительница гробниц. Кроме того, в некоторых случаях участники вместо просмотра дипфейков читают текстовые описания ремейков. Участникам не сказали, что видео были фальшивыми, пока в ходе опроса.

Согласно предыдущим исследованиям, дипфейковые видео и поддельные описания приводили к ложным воспоминаниям о поддельных римейках, при этом в среднем 49% участников считали, что каждый поддельный римейк был реальным.

Многие участники сообщили, что помнят поддельные римейки лучше, чем оригиналы. Тем не менее, частота ложных воспоминаний текстовых описаний была столь же высокой, что позволяет предположить, что технология дипфейков может быть не более мощной, чем другие инструменты искажения памяти.

дипфейк
На графике, представленном в исследовании, участники говорят, что видели фальшивый ремейк целиком (темный цвет), смотрели клипы или трейлеры фальшивого ремейка (средний цвет) или слышали о фальшивом ремейке (темный цвет). Каждый фильм (Освещенный, капитан марвел, Матрица е Индиана Джонс) имеет два графика: первый для дипфейкового видео и второй для фейкового текста о предполагаемых ремейках. Изображение: ПЛОС ОДИН

Большинство респондентов сообщили о дискомфорте в связи с использованием технологии дипфейков для ремейков фильмов, ссылаясь на такие опасения, как неуважение к художественной целостности и нарушение общего социального опыта фильмов.

Эти выводы могут помочь в будущем разработке и регулировании технологий дипфейков в кино. Авторы добавляют:

Хотя дипфейки вызывают серьезную озабоченность по многим причинам, таким как порнография без согласия и издевательства, текущее исследование показывает, что они не обладают исключительной силой в искажении наших воспоминаний о прошлом. В то время как в этом исследовании дипфейки вызывали у людей формирование ложных воспоминаний с довольно высокой частотой, мы смогли получить те же эффекты, используя обычный текст. По сути, это исследование показывает, что нам не нужны технические достижения для искажения памяти, мы можем сделать это очень легко и эффективно, используя нетехнические средства.

Выдержка из статьи.

С информацией от Tech Xplore.

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *