ФБР предупреждает об использовании искусственного интеллекта при создании вредоносного ПО

Федеральное бюро расследований (ФБР) предупредило о хакерах, которые используют генеративные инструменты искусственного интеллекта для создания вредоносного кода и запуска киберпреступлений в Интернете.

Читать далее:

  • ФБР расследует использование шпионского программного обеспечения и находит, что это было ФБР
  • Nintendo Switch помогает ФБР найти похищенного подростка
  • Как ФБР справляется с программами-вымогателями?
  • Вы знаете, как различать тексты, созданные людьми, и ChatGPT? Пройди тест

Для тех, кто торопится:

  • Во время разговора с журналистами ФБР заявило, что кибератаки распространяются с помощью программ искусственного интеллекта;
  • Как сообщает Оборудование Тома, правительственное агентство США считает, что использование инструмента для фишинговых атак и разработки вредоносных программ растет угрожающими темпами;
  • По словам сотрудника следственного органа, «поскольку внедрение и демократизация моделей ИИ продолжается«тенденция к тому, чтобы эти практики еще больше увеличились;
  • Этот чиновник добавил, что сообразительные киберпреступники используют технологию искусственного интеллекта для разработки новых атак и улучшения методов их применения, таких как фишинговые веб-сайты и страницы, содержащие вредоносный код;
  • Еще одним достижением киберпреступников, продвигаемым искусственным интеллектом, является разработка полиморфного вредоносного ПО, которое не может быть обнаружено антивирусным программным обеспечением.

Агентство также выразило озабоченность по поводу безопасности в связи с распространением генеративного ИИ в дипфейках (технологии, которая искусственно создает изображения и звук). В разговоре с журналистами агентство сообщило, что клонирование голоса используется для мошенничества с помощью телефонных звонков.

Другие случаи

В прошлом месяце ФБР также выпустило предупреждение о том, что преступники используют устройства для создания изображений с искусственным интеллектом для создания обнаженных фотографий людей, которые будут использоваться в мошеннических схемах сексторции (сексуального вымогательства).

Агентство конкретно не упоминает, какие модели ИИ используют хакеры, но указывает, что киберпреступники разрабатывают собственные программы ИИ, которые продаются в даркнете.

Примером этого является FraudGPT, инструмент искусственного интеллекта, разработанный киберпреступниками, способный писать электронные письма, фишинговые и вредоносные коды. Криминальное программное обеспечение, продаваемое на торговых площадках Dark Web и каналах Telegram, уже было продано более 3000 раз. Узнайте больше в полной статье.

ФБР заявило, что уже обсудило эту тему с некоторыми компаниями, занимающимися ИИ, что привело, например, к принятию такими компаниями, как OpenAI, Google и Anthropic, системы «водяных знаков», которая облегчает идентификацию изображений, созданных технологией.

С информацией от Tom’s Hardware и PC Mag.

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Сообщение ФБР с предупреждением об использовании искусственного интеллекта при создании вредоносных программ впервые появилось в Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *