Голосовые помощники на базе ИИ уже находятся в разработке, но они могут быть опасны

Если вы спросите Amazon Alexa или Google Assistant, какая температура будет завтра, оба голосовых помощника ответят быстро. Теперь вы можете представить, если бы эти функции были оснащены ИИ, и еще до того, как вы зададите вопрос, помощники предупреждают вас, чтобы, например, взять зонт, когда вы выходите на улицу?

Устройств, оснащенных технологиями такого уровня, еще не существует, но исследования, направленные на то, чтобы это произошло, уже ведутся, и с ними возникают необходимые этические вопросы.

Читать далее:

  • Познакомьтесь с голосовым помощником для подключенного дома, созданным с помощью ChatGPT.
  • Генеративный искусственный интеллект: что это такое, как он работает и где его использовать
  • ИИ помогает врачам диагностировать рак молочной железы

Голосовые помощники на базе искусственного интеллекта

Одной из возможностей голосовых помощников с искусственным интеллектом может быть помощь пожилым людям, испытывающим снижение когнитивных функций, путем осуществления общения, напоминая им о повседневных задачах или даже предвосхищая потребности — такие, например, как покупка домашней утвари или стирка одежды.

Поскольку эта технология уже разрабатывается, исследователи из Национального научного фонда AI Institute for Collaborative Assistance and Responsive Interaction for Networked Groups (AI-CARING), независимого агентства в поддержку науки и техники в США, решили детализировать некоторые вопросы. этики заранее, в надежде, что разработчики ИИ учтут это в своих проектах.

Дизайнеры, безусловно, имеют в виду только лучшее, но мы все можем извлечь пользу из обмена идеями из разных дисциплин и общения с людьми с разными взглядами на эти типы технологий.

Джейсон Боренштейн, профессор этики и директор программ этики для выпускников Технологического института государственной политики Джорджии. Вы когда-нибудь задумывались о том, чтобы доверить Алексе даже прием лекарств? Вскоре это может стать реальностью (Изображение: Диего Томазини / Shutterstock.com)

царапины

По мнению Боренштейна, если риски не принимаются во внимание, семья может быть уверена, что пожилой родственник находится в безопасности под опекой ИИ, хотя на самом деле это не так.

Ученые до сих пор утверждают, что, как только человек доверяет технологиям, он становится более уязвимым для них. Весь этот риск повышается у пожилых людей, группы, которая, как правило, более уязвима и может стать еще более зависимой от ИИ по мере прогрессирования снижения когнитивных функций.

Если система совершает ошибку, когда вы доверяете ей что-то безобидное — например, помощь в выборе фильма для просмотра — это не имеет большого значения. Но если вы доверили ему напомнить вам принять лекарство, а он не напомнит вам или не скажет вам принять не то лекарство, это будет большой проблемой.

Алекс Джон Лондон, ведущий автор статьи и профессор этики и вычислительных технологий K&L Gates в Университете Карнеги-Меллона. Исследователи должны знать ограничения ИИ (Изображение: Логин / Shutterstock.com)

Каким будет решение для голосовых помощников с ИИ

  • По словам исследователей, если дизайн голосового помощника ИИ действительно ценит пользователя, он будет учитывать аспекты доверия, безопасности, конфиденциальности и даже изменения когнитивных способностей человека.
  • Кроме того, они указывают, что система должна быть на благо пользователя, а не корпорации, которая просто хочет продавать продукт.
  • Однако, несмотря на акцент на конфиденциальность, ученые утверждают, что для разработки продвинутой системы на этом уровне необходимо учитывать различные источники информации, что может быть достигнуто путем обмена данными. Однако это будет означать, что пользователь подвергается риску конфиденциальности.
  • Чтобы смягчить это, они предлагают, чтобы пользователь знал и мог управлять разрешениями на совместное использование.

Прозрачность

Еще один момент, поднятый исследователями, которые включили свои предложения в статью. Этические проблемы интеллектуальных помощников по социальной поддержке пожилых людей в ближайшем будущемопубликовано в журнале IEEE Transactions о технологиях и обществесостоит в том, чтобы прояснить, что ИИ может и чего не может делать.

По их словам, чрезмерная зависимость — это проблема, и просьба к технологиям делать больше, чем они способны, может привести к неожиданным результатам.

С информацией от Техническое исследование

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Голосовые помощники после ИИ уже находятся в разработке, но они могут быть опасны, впервые появились в Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *