Развитие искусственного интеллекта окружено как возможностями, так и страхами. Во-первых, ИИ увековечивает проблемы и даже усиливает социальное неравенство.
читать далее
- Искусственный интеллект по-прежнему воспроизводит человеческие предубеждения, предупреждают эксперты
- Как «обучается» искусственный интеллект (ИИ)?
- Искусственный интеллект: знайте минусы и опасности ИИ
База данных ИИ воспроизводит предвзятость
- Технологии все чаще используются в важнейших процессах принятия решений, таких как отбор кандидатов на работу, выдача кредитов, определение судебных решений и даже постановка медицинских диагнозов.
- Однако недавно сообщалось о случаях, когда на ИИ влияла доминирующая культура, присутствующая в базах данных.
- Это объясняется тем, что базы данных, используемые в качестве основы для разработки систем ИИ, часто отражают ранее существовавшие предрассудки и неравенство.
Идеальные тела?
- Одним из примеров является случай, связанный с The Bulimia Project, группой по информированию о расстройствах пищевого поведения, которая тестировала устройства формирования изображений с искусственным интеллектом, включая Dall-E 2, Stable Diffusion и Midjourney., выявить, как выглядит представленное в программе представление об «идеальном» телосложении у женщин и мужчин.
- Согласно результату, на 40 % изображений были изображены светловолосые женщины, 30 % кареглазые женщины и более 50 % имели белую кожу, при этом почти 70 % «идеальных» мужчин имели каштановые волосы и 23 % — карие глаза.
- Как и у женщин, у подавляющего большинства мужчин была белая кожа и почти у половины были волосы на лице.
- Многие из дизайнов по-прежнему могли похвастаться почти мультяшными чертами, такими как полные губы, точеные скулы и суперочерченные мышцы, а также безморщинистая, безпористая кожа и идеальные носы.
- Результаты имитировали стандарт красоты, часто навязываемый обществом.
ИИ моделирует «идеальные» тела (Изображение: проект «Булимия»)
ИИ сексист?
- Профессор Моасир Понти из Института математики и компьютерных наук Сан-Карлоса в USP указывает, что проблема заключается в разработке искусственного интеллекта людьми, которые не понимают неравенства, в дополнение к их использованию пользователями, которые не знают, как они созданы..
- «Алгоритмы отбора кандидатов на работу обучаются на основе предыдущих резюме и, следовательно, имеют тенденцию отдавать предпочтение одним профилям и маргинализировать другие. ИИ имеет тенденцию автоматически увековечивать эти закономерности и даже усиливать неравенство», — сообщает Понти.
- Именно это произошло в Amazon, которая использовала инструмент искусственного интеллекта, чтобы помочь HR-команде нанимать профессионалов.
- Система проанализировала отправленные резюме, присвоив каждому рейтинг от 1 до 5 звезд по той же схеме, что и продукты, продаваемые в ее интернет-магазине.
- Дискриминация инструмента в отношении женщин-кандидатов в процессе отбора новых сотрудников произошла из-за того, что он был создан на основе стандартов резюме, отправленных в компанию за последние десять лет.
- Подавляющее большинство этих резюме были от мужчин, как это происходит в большинстве технологических отраслей, поэтому кандидаты-мужчины, естественно, считались более подходящими для вакансий.
- Простое упоминание термина «женщины» в учебной программе наказывалось инструментом и снижало шансы профессионалов получить вакансию «не потому, что инструмент сексистский, а потому, что они неправильно его изучили», — подчеркивает Понти.
- Поэтому профессор утверждает, что у программистов есть этические и моральные обязательства, поскольку они несут ответственность за формирование систем, которые могут существенно повлиять на общество.
С информацией из Jornal da USP.
Смотрели новые видео на YouTube от Olhar Digital? Подписывайтесь на канал!
Почтовый ИИ использует базу данных, которая увековечивает предрассудки и неравенство, впервые появившиеся в Olhar Digital.