«Крестный отец ИИ» призывает правительства остановить захват машин

Торонто — Джеффри Хинтон, один из так называемых крестных отцов искусственного интеллекта, в среду призвал правительства вмешаться и убедиться, что машины не берут под свой контроль общество.

Хинтон попал в заголовки газет в мае, когда объявил, что ушел из Google после десяти лет работы, чтобы более свободно говорить об опасностях ИИ, вскоре после того, как выпуск ChatGPT захватил воображение всего мира.

Уважаемый ученый в области искусственного интеллекта, работающий в Университете Торонто, выступал перед переполненной аудиторией на технологической конференции Collision в канадском городе.

Конференция собрала более 30 000 основателей стартапов, инвесторов и технических работников, большинство из которых хочет научиться оседлать волну ИИ, а не услышать урок о его опасностях.

«Прежде чем ИИ станет умнее нас, я думаю, что людей, разрабатывающих его, следует приложить много усилий, чтобы понять, как он может попытаться отобрать контроль», — сказал Хинтон.

«Сейчас 99 очень умных людей пытаются улучшить ИИ, и один очень умный человек пытается понять, как остановить его захват, и, возможно, вы хотите быть более сбалансированным», — сказал он.

ИИ может углубить неравенство, говорит Хинтон

Хинтон предупредил, что к рискам ИИ следует относиться серьезно, несмотря на его критиков, которые считают, что он преувеличивает риски.

«Я думаю, важно, чтобы люди понимали, что это не научная фантастика, это не просто нагнетание страха», — настаивал он. «Это реальный риск, о котором мы должны думать, и нам нужно заранее выяснить, как с ним справиться».

Хинтон также выразил обеспокоенность тем, что ИИ усугубит неравенство, поскольку огромный прирост производительности от его развертывания пойдет на пользу богатым, а не рабочим.

«Богатство не достанется людям, выполняющим работу. Это приведет к тому, что богатые станут еще богаче, а не беднее, и это очень плохо для общества», — добавил он.

Он также указал на опасность фальшивых новостей, созданных ботами в стиле ChatGPT, и выразил надежду, что контент, созданный ИИ, можно будет маркировать так же, как центральные банки маркируют водяными знаками наличные деньги.

«Очень важно попытаться, например, пометить фальшивкой все, что является фальшивкой. Можем ли мы это сделать технически, я не знаю», — сказал он.

Европейский Союз рассматривает такую ​​технику в своем Законе об ИИ, законодательстве, которое установит правила для ИИ в Европе, переговоры по которому ведутся законодателями.

«Перенаселение на Марсе»

Список опасностей ИИ, составленный Хинтоном, контрастировал с дискуссиями на конференциях, которые были посвящены не столько безопасности и угрозам, сколько использованию возможностей, появившихся после появления ChatGPT.

Венчурный капиталист Сара Гуо сказала, что мрачные разговоры об ИИ как о экзистенциальной угрозе преждевременны, и сравнила их с «разговорами о перенаселении Марса», цитируя другого гуру ИИ, Эндрю Нг.

Она также предостерегла от «регулятивного захвата», когда вмешательство правительства защитит действующих лиц, прежде чем оно сможет принести пользу таким секторам, как здравоохранение, образование или наука.

Мнения разделились относительно того, останутся ли нынешние гиганты генеративного ИИ, в основном поддерживаемые Microsoft OpenAI и Google, непревзойденными или новые игроки расширят поле со своими собственными моделями и инновациями.

«Через пять лет я все еще думаю, что если вы хотите пойти и найти лучшую, самую точную, самую продвинутую общую модель, вам, вероятно, все равно придется обратиться в одну из немногих компаний, у которых есть капитал для этого. », — сказала Ли Мари Брасуэлл из венчурной компании Kleiner Perkins.

Закари Братун-Гленнон из Gradient Ventures сказал, что предвидит будущее, в котором «в сети будут миллионы моделей, как сегодня у нас есть сеть веб-сайтов».

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *