В исследовании Университетского колледжа Лондона люди смогли определить, что речь была сгенерирована ИИ (искусственным интеллектом) — то есть это была дипфейк — в 73% случаев, как на английском, так и на мандаринском диалекте.

Для тех, кто торопится:

  • В исследовании Университетского колледжа Лондона люди смогли определить, что речь была дипфейком, только в 73% случаев;
  • Это исследование было первым, в котором оценивалась способность человека обнаруживать искусственно сгенерированную речь на языке, отличном от английского;
  • Следующие шаги для исследователей заключаются в разработке более совершенных автоматических детекторов речи;
  • Хотя у генеративного ИИ-аудио есть свои преимущества, опасения по поводу рисков, связанных с технологией, растут.

Это исследование было первым, в котором оценивалась способность человека обнаруживать искусственно сгенерированную речь на языке, отличном от английского.

Читать далее:

Изучение

Голосовые волны Siri, искусственный интеллект Apple
(Изображение: Репродукция/Engadget)

Исследователи использовали алгоритм преобразования текста в речь, обученный на двух общедоступных наборах данных, один на английском и один на китайском, для создания 50 образцов дипфейков на каждом языке.

Эти образцы отличались от тех, которые использовались для обучения алгоритма, чтобы избежать возможности воспроизведения исходного ввода.

Искусственно сгенерированные и «настоящие» образцы были воспроизведены 529 участникам, чтобы проверить, смогут ли они отличить настоящие от подделок.

Участники смогли идентифицировать поддельную речь только в 73% случаев, и этот показатель улучшился лишь незначительно после того, как их научили распознавать аспекты дипфейка.

Следующим шагом для исследователей является разработка более совершенных автоматических детекторов речи в рамках текущих усилий по созданию возможностей обнаружения и борьбе с угрозой искусственно созданных аудио и изображений.

Хотя у генеративной аудиотехнологии ИИ есть преимущества, такие как большая доступность для людей с ограниченной речью или тех, кто может потерять голос из-за болезни, растут опасения, что эта технология может быть использована преступниками и государствами для нанесения значительного вреда отдельным лицам. и обществ.

Профессор Льюис Гриффин, ведущий автор исследования, сказал, что по мере того, как технологии генеративного искусственного интеллекта становятся все более и более сложными, а многие из этих инструментов находятся в открытом доступе, мы находимся на грани того, чтобы увидеть многочисленные преимущества, а также риски.

Исследователь сказал:

Конечно, правительствам и организациям было бы благоразумно разработать стратегии борьбы со злоупотреблением этими инструментами, но мы также должны осознавать открывающиеся перед нами позитивные возможности.

Дипфейки и люди

Сборка с головками марионеток, наложенными линиями чипов
(Изображение: Репродукция / Каперский)

Дипфейки — это синтетические медиа, призванные имитировать голос или внешний вид реального человека.

Они подпадают под категорию генеративного искусственного интеллекта, типа машинного обучения, который обучает алгоритм изучать шаблоны и характеристики набора данных (например, видео или аудио реального человека), чтобы он мог воспроизводить звук. или исходные изображения.

В то время как ранним алгоритмам дипфейка, возможно, требовались тысячи образцов голоса человека для создания исходного звука, новые предварительно обученные алгоритмы могут воссоздать голос человека, используя всего лишь трехсекундный фрагмент его речи.

Алгоритмы с открытым исходным кодом находятся в свободном доступе, и, хотя некоторые специальные знания полезны, человек может потренироваться на них за несколько дней.

Apple, например, недавно анонсировала программное обеспечение для iPhone и iPad, которое позволяет пользователям создавать копии своего голоса, используя 15-минутные записи. В этом случае функция ориентирована на доступность.

По информации Университетского колледжа Лондона (на английском языке)

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *