Как ИИ может сорвать расследование педофилии и сексуальной эксплуатации

Революция в области искусственного интеллекта (ИИ) имела последствия. Уже можно подделывать голоса и образы и даже создавать искусственную девушку. К сожалению, дело может пойти и дальше: в последнее время популяризация дипфейков вызвала рост реалистичного контента, показывающего сексуальную эксплуатацию, педофилию и детскую порнографию, что может навредить реальным расследованиям, затруднить поиск жертв и наказание преступников.

Читать далее:

  • Как распознать «фальшивые» фотографии, созданные искусственным интеллектом
  • Что такое дипфейки и какова их связь с искусственным интеллектом?
  • Искусственный интеллект: знайте минусы и опасности ИИ

ИА педофилия

  • Благодаря возможности создания искусственных изображений педофильские форумы распространили реалистичные изображения детей, совершающих половые акты.
  • Поскольку средства массовой информации распространяются в местах в Интернете, где практически невозможно обнаружить пользователя, например, в даркнете, очень трудно остановить детскую порнографию и привлечь преступников к ответственности.
  • Также форумы призывают других пользователей делать то же самое и указывают платформы, которые генерируют эти изображения.
  • Помимо криминального содержания, эта тенденция подрывает реальные расследования по выявлению жертв сексуальной эксплуатации и педофилии.

нарушение расследований

По словам Ребекки Портнофф, директора по науке о данных в Thorn, некоммерческой организации по защите детей, идентифицировать жертву достаточно сложно. Из-за реалистичности изображений властям еще труднее идентифицировать детей, находящихся в бедственном положении.

Объем изображений, помимо перегрузки специалистов, ставит перед теми, кто занимается расследованием, еще одну задачу: потратить время на то, чтобы отличить, какое содержание является реальным, а какое искусственно сгенерировано.

Все это помимо реальной задачи по выявлению и нахождению ребенка, а также преступника.

Полиции придется не только иметь дело с большим количеством изображений, но и научиться отличать настоящие фотографии от поддельных, что еще больше усложнит расследование (Изображение: Adobe Stock).

С ним

Образы часто создают детей, которых не существует. Но, конечно, контент по-прежнему нелегальный. Хотя ведутся разные споры об искусственных изображениях, не отображающих реальных случаев, федеральный закон США, принятый в 2023 году, запрещает любое компьютерное изображение, показывающее, как ребенок ведет себя откровенно сексуально, независимо от того, реально это или нет.

Инструменты искусственного интеллекта, которые генерируют изображения

  • Невозможно определить, в каких инструментах были созданы изображения. Однако эксперты по безопасности детей говорят, что многие преступники, по-видимому, полагались на программы с открытым исходным кодом, такие как Stable Diffusion.
  • Stability AI, которая управляет Stable Diffusion, заявила, что запрещает создание изображений сексуального насилия над детьми, сотрудничает с полицией в расследованиях «незаконного и вредоносного» контента и удаляет явный контент, чтобы уменьшить «способность злоумышленников создавать непристойный контент».
  • Тем не менее, можно обойти эти правила.
  • В прошлом году, кстати, исполнительный директор Stability AI Эмад Мостак заявил Грань что люди несут ответственность за различие между тем, что этично и законно, а что нет при использовании технологий.
  • Компании, конкурирующие со Stable Diffusion, такие как Dall-E и Midjourney, имеют закрытый исходный код, что ограничивает создаваемый контент и отслеживает пользователя.

В этом отношении ИИ все еще сталкивается с юридическими проблемами (Фото: Репродукция)

реальные дела

Национальный центр пропавших без вести и эксплуатируемых детей, некоммерческая организация, которая управляет базой данных, которую компании используют для пометки и блокировки материалов детского сексуального характера, в прошлом году получил более 32 миллионов сообщений о сексуальном эксплуататорском содержании и детской порнографии.

Кроме того, в этом месяце ФБР выпустило предупреждение, показывающее, что количество контента от детей, измененного на «изображения сексуальной тематики, которые выглядят реальными», увеличилось.

С информацией от Вашингтон пост

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Пост «Как ИИ может сорвать расследование педофилии и сексуальной эксплуатации» впервые появился на Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *