Новая методика, разработанная исследователями из Университета Ватерлоо в Бельгии, показывает, что системы голосовой аутентификации уязвимы для атак искусственного интеллекта. Согласно исследованию, новая методика способна преодолеть эти системы в 99% случаев.

Системы голосовой аутентификации, менее используемые в Бразилии, но распространенные в США и Европе, работают с профилями, созданными на основе голоса клиентов. Запись на момент доступа сравнивается с идентичностью, хранящейся на серверах, в поисках сходства и признаков манипуляции или синтеза, отличающих искусственный образец от настоящего.

Читать далее:

  • Можно ли сделать Pix с помощью кредитной карты? Смотри как
  • Как отменить пикс? Посмотрите, сможете ли вы вернуть свои деньги
  • Откройте для себя мифы и правду о голосовой биометрии

Техника, разработанная командой Университета Ватерлоо, фокусируется на удалении обычных маркеров из голоса, сгенерированного ИИ. С помощью программного обеспечения, способного распознавать эти маркеры и обычные признаки дипфейков, исследователи создали практически безупречный звук.

После максимум шести попыток вероятность успеха атаки составила 99%. Этот лимит часто используется банками для блокировки доступа в случае несоответствия сохраненной голосовой биометрии. Отредактированные голоса были сгенерированы синтезатором с технологиями искусственного интеллекта, которые также использовались для создания дипфейков.

Эксперты предупреждают о небезопасности аутентификации по голосу и рекомендуют использовать другие методы проверки, такие как мобильные приложения, биометрия лица или отпечаток пальца. Эти альтернативы считаются более безопасными для конфиденциальных операций, таких как финансовые операции.

Исследование Университета Ватерлоо также показывает, что разработанный метод может преодолеть даже самые последние барьеры, внедренные финансовыми учреждениями после исследований и методов, опубликованных в начале года. Возможность мошенничества, связанного с несанкционированными финансовыми транзакциями и незаконными переводами, становится реальным риском.

По информации Университета Ватерлоо.

Смотрели новые видео на YouTube от Olhar Digital? Подписывайтесь на канал!

Сообщение «Голосовая аутентификация: ИИ может обмануть безопасность банка» впервые появилось на Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *