ИИ использует базу данных, которая увековечивает предрассудки и неравенство

Развитие искусственного интеллекта окружено как возможностями, так и страхами. Во-первых, ИИ увековечивает проблемы и даже усиливает социальное неравенство.

читать далее

  • Искусственный интеллект по-прежнему воспроизводит человеческие предубеждения, предупреждают эксперты
  • Как «обучается» искусственный интеллект (ИИ)?
  • Искусственный интеллект: знайте минусы и опасности ИИ

База данных ИИ воспроизводит предвзятость

  • Технологии все чаще используются в важнейших процессах принятия решений, таких как отбор кандидатов на работу, выдача кредитов, определение судебных решений и даже постановка медицинских диагнозов.
  • Однако недавно сообщалось о случаях, когда на ИИ влияла доминирующая культура, присутствующая в базах данных.
  • Это объясняется тем, что базы данных, используемые в качестве основы для разработки систем ИИ, часто отражают ранее существовавшие предрассудки и неравенство.

Идеальные тела?

  • Одним из примеров является случай, связанный с The Bulimia Project, группой по информированию о расстройствах пищевого поведения, которая тестировала устройства формирования изображений с искусственным интеллектом, включая Dall-E 2, Stable Diffusion и Midjourney., выявить, как выглядит представленное в программе представление об «идеальном» телосложении у женщин и мужчин.
  • Согласно результату, на 40 % изображений были изображены светловолосые женщины, 30 % кареглазые женщины и более 50 % имели белую кожу, при этом почти 70 % «идеальных» мужчин имели каштановые волосы и 23 % — карие глаза.
  • Как и у женщин, у подавляющего большинства мужчин была белая кожа и почти у половины были волосы на лице.
  • Многие из дизайнов по-прежнему могли похвастаться почти мультяшными чертами, такими как полные губы, точеные скулы и суперочерченные мышцы, а также безморщинистая, безпористая кожа и идеальные носы.
  • Результаты имитировали стандарт красоты, часто навязываемый обществом.

ИИ моделирует «идеальные» тела (Изображение: проект «Булимия»)

ИИ сексист?

  • Профессор Моасир Понти из Института математики и компьютерных наук Сан-Карлоса в USP указывает, что проблема заключается в разработке искусственного интеллекта людьми, которые не понимают неравенства, в дополнение к их использованию пользователями, которые не знают, как они созданы..
  • «Алгоритмы отбора кандидатов на работу обучаются на основе предыдущих резюме и, следовательно, имеют тенденцию отдавать предпочтение одним профилям и маргинализировать другие. ИИ имеет тенденцию автоматически увековечивать эти закономерности и даже усиливать неравенство», — сообщает Понти.
  • Именно это произошло в Amazon, которая использовала инструмент искусственного интеллекта, чтобы помочь HR-команде нанимать профессионалов.
  • Система проанализировала отправленные резюме, присвоив каждому рейтинг от 1 до 5 звезд по той же схеме, что и продукты, продаваемые в ее интернет-магазине.
  • Дискриминация инструмента в отношении женщин-кандидатов в процессе отбора новых сотрудников произошла из-за того, что он был создан на основе стандартов резюме, отправленных в компанию за последние десять лет.
  • Подавляющее большинство этих резюме были от мужчин, как это происходит в большинстве технологических отраслей, поэтому кандидаты-мужчины, естественно, считались более подходящими для вакансий.
  • Простое упоминание термина «женщины» в учебной программе наказывалось инструментом и снижало шансы профессионалов получить вакансию «не потому, что инструмент сексистский, а потому, что они неправильно его изучили», — подчеркивает Понти.
  • Поэтому профессор утверждает, что у программистов есть этические и моральные обязательства, поскольку они несут ответственность за формирование систем, которые могут существенно повлиять на общество.

С информацией из Jornal da USP.

Смотрели новые видео на YouTube от Olhar Digital? Подписывайтесь на канал!

Почтовый ИИ использует базу данных, которая увековечивает предрассудки и неравенство, впервые появившиеся в Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *