Апокалипсис? По словам эксперта, у ИИ есть и другие, более реальные опасности

Все о ChatGPT

Все об искусственном интеллекте

Через две недели после того, как члены Конгресса США спросили генерального директора OpenAI Сэма Альтмана о потенциале инструментов ИИ (искусственного интеллекта) для распространения дезинформации, срыва выборов и ликвидации рабочих мест, он и другие представители отрасли обнародовали гораздо более пугающую возможность: ИИ – вызвал апокалипсис.

Для тех, кто торопится:

  • В мае Конгресс США задал генеральному директору OpenAI вопрос о способности ИИ распространять дезинформацию, срывать выборы и сокращать рабочие места;
  • Вскоре после этого руководство и другие представители отрасли обнародовали гораздо более пугающую возможность: апокалипсис, вызванный искусственным интеллектом;
  • Предупреждая о способности ИИ уничтожить людей, руководители отрасли спешат инвестировать и внедрять эту технологию в продукты;
  • Некоторые эксперты индустрии искусственного интеллекта говорят, что сосредоточение внимания на отдаленных пейзажах может отвлечь внимание от более непосредственного вреда технологии;
  • Один эксперт сказал, что некоторые компании могут захотеть отвлечь внимание от предвзятости, встроенной в их данные, а также от заявлений о том, как обучаются их системы;
  • По ее словам, «эти вещи выглядят намного умнее, чем они есть», потому что «мы настолько умны, насколько можем быть».

Альтман, чья компания стоит за ChatGPT, вместе с генеральным директором DeepMind (Google) Демисом Хассабисом, техническим директором Microsoft Кевином Скоттом и десятками других исследователей ИИ и бизнес-лидеров подписали письмо, опубликованное в мае, с предложением:

Снизить риск вымирания [dos humanos] искусственного интеллекта должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война.

Читать далее:

Суровое предупреждение широко освещалось в прессе, причем некоторые предполагали, что оно свидетельствует о необходимости более серьезно относиться к этим сценариям конца света. Но это также подчеркивает важную динамику в Силиконовой долине прямо сейчас.

Топ-менеджеры некоторых крупнейших технологических компаний одновременно рассказывают общественности о том, что ИИ может привести к вымиранию человечества, и спешат инвестировать и внедрять эту технологию в продукты, доступные миллиардам людей.

ИИ и дымовая завеса

(Изображение: Rawpixel)

Динамика разыгралась в последнее время и в других местах. Генеральный директор Tesla Илон Маск, например, заявил в телеинтервью в апреле, что ИИ может привести к «уничтожению цивилизации». Но он по-прежнему активно занимается технологиями, инвестируя в свою обширную бизнес-империю, и заявил, что хочет создать конкуренцию предложениям искусственного интеллекта от Microsoft и Google.

Некоторые эксперты отрасли искусственного интеллекта говорят, что сосредоточение внимания на отдаленных сценариях может отвлечь внимание от более непосредственного ущерба, который новое поколение мощных инструментов искусственного интеллекта может нанести людям и сообществам, включая распространение дезинформации, увековечивание предубеждений и дискриминацию различными способами.

«Мотивы оказались смешанными», — сказал CNN Гэри Маркус — исследователь искусственного интеллекта и почетный профессор Нью-Йоркского университета, который давал показания перед законодателями вместе с Альтманом.

Некоторые из руководителей, вероятно, «искренне обеспокоены тем, что они спровоцировали», сказал он. Но другие могут пытаться сосредоточить внимание на «абстрактных возможностях, чтобы затмить более непосредственные возможности».

Реальность против научной фантастики

(Изображение: Воспроизведение)

Для Маркуса, самопровозглашенного критика шумихи вокруг ИИ, «самая большая непосредственная угроза ИИ — это угроза демократии от массового производства убедительной дезинформации».

Инструменты генеративного искусственного интеллекта, такие как ChatGPT и Dall-E от OpenAI, обучаются на обширных массивах онлайн-данных для создания привлекательных письменных работ и изображений в ответ на запросы пользователей. С помощью этих инструментов, например, можно быстро имитировать стиль или сходство с общественными деятелями, пытаясь создать кампании по дезинформации.

В своих показаниях перед Конгрессом Альтман также сказал, что возможность использования ИИ для манипулирования избирателями и дезинформации была одной из «областей, вызывающих у меня наибольшую озабоченность».

(Изображение: Pong Ch/Shutterstock)

Однако даже в более распространенных случаях использования есть проблемы. Те же инструменты подвергались критике за предоставление неправильных ответов на запросы пользователей, а также за ложь и потенциальное увековечение расовых и гендерных предубеждений.

Эмили Бендер, профессор Вашингтонского университета и директор его Лаборатории компьютерной лингвистики, сказала CNN, что некоторые компании могут захотеть отвлечь внимание от предвзятости, встроенной в их данные, а также от заявлений о том, как их системы обучены.

Бендер сослался на опасения интеллектуальной собственности в отношении некоторых данных, на которых обучаются эти системы, а также на обвинения компаний, которые передают на аутсорсинг некоторые из худших частей обучающих данных для низкооплачиваемых рабочих за границей.

Если общественность и регулирующие органы смогут сосредоточиться на этих воображаемых научно-фантастических сценариях, возможно, этим компаниям удастся дольше избегать кражи данных и методов эксплуатации.

Эмили Бендер, профессор Вашингтонского университета и директор его Лаборатории компьютерной лингвистики

Влияние на регуляторов

(Изображение: Патрик Семански/AP Photo)

Регуляторы могут быть реальной целевой аудиторией для сообщений о судном дне технологической отрасли. По словам Бендера, руководители, по сути, говорят: «Эта штука очень, очень опасна, и только мы знаем, как ее контролировать».

Судя по выступлению Альтмана перед Конгрессом, эта стратегия может сработать. Альтман, казалось, расположил к себе Вашингтон, повторив озабоченность законодателей по поводу ИИ — технологии, которую многие в Конгрессе все еще пытаются понять — и предложив варианты того, как с ней бороться.

Бендер сказал, что такой подход к регулированию будет «чрезвычайно проблематичным». Это может дать отрасли рычаги воздействия на регулирующие органы, которым поручено привлекать ее к ответственности, а также не учитывать мнения и вклады других людей и сообществ, на которых эта технология негативно влияет.

Бендер сказал, что пытается при каждой возможности сказать людям, что «эти вещи выглядят намного умнее, чем они есть». По ее словам, это потому, что «мы настолько умны, насколько мы есть», и то, как мы понимаем язык, включая ответы ИИ, «на самом деле представляет собой разум, стоящий за этим».

Наконец, Бендер задал технологической индустрии простой вопрос об ИИ:

Если они искренне верят, что это может привести к вымиранию человечества, то почему бы не остановиться?

Другая сторона

Представители Google и OpenAI не ответили на запрос CNN о комментариях по этому поводу.

В заявлении представитель Microsoft сказал:

Мы с оптимизмом смотрим в будущее искусственного интеллекта и думаем, что достижения в области искусственного интеллекта решат гораздо больше проблем, чем они представляют, но мы также последовательны в своем убеждении, что когда вы создаете технологии, которые могут изменить мир, вы должны убедиться, что технологии используются. ответственно.

По информации CNN

Смотрели новые видео на YouTube от Olhar Digital? Подписывайтесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *