Я предупреждал вас об ИИ-режиссере-терминаторе.

Голливудский режиссер предупредил о «гонке ядерных вооружений»? в искусственном интеллекте

Канадский кинорежиссер Джеймс Кэмерон сказал, что его научно-фантастический блокбастер 1984 года «Терминатор» должен был послужить предупреждением об опасностях ИИ и о том, что «вооружение» новой технологии может иметь катастрофические последствия.

Выступая во вторник в интервью CTV News, отмеченного наградами режиссера спросили, верит ли он, что искусственный интеллект может когда-нибудь привести к «вымиранию человечества», страх, который вызывают даже некоторые лидеры отрасли.

«Я полностью разделяю их озабоченность. Я предупреждал вас, ребята, в 1984 году, а вы не послушались», — сказал он, имея в виду свой фильм «Терминатор», в котором рассказывается о кибернетическом убийце, созданном интеллектуальным суперкомпьютером, известным как Скайнет.

Далее Кэмерон предупредил, что «военизация ИИ представляет собой самую большую опасность», добавив: «Я думаю, что мы столкнемся с эквивалентом гонки ядерных вооружений с ИИ. И если мы его не создадим, другие парни будут за обязательно построим его, и тогда он будет обостряться».

В случае развертывания искусственного интеллекта на поле боя компьютеры могут двигаться так быстро, что «люди больше не смогут вмешиваться», сказал директор, утверждая, что такая технология не оставит времени для мирных переговоров или перемирия.

«Когда вы имеете дело с потенциальным перерастанием в ядерную войну, деэскалация — это название игры. Имея эту паузу, этот тайм-аут — но сделают ли они это? ИИ — нет», — продолжил Кэмерон.

Известный кинорежиссер и раньше делал подобные предупреждения, говоря, что, хотя ИИ «может быть довольно хорош», он также может «буквально стать концом света». Он даже дошел до того, что сказал, что «ИИ мог захватить мир и уже манипулировать им, но мы просто не знаем», предполагая, что разумные компьютеры «будут иметь полный контроль над всеми средствами массовой информации и всем остальным».

Хотя эта технология еще не достигла мирового господства, некоторые ведущие эксперты также бьют тревогу по поводу искусственного интеллекта. Ранее в этом году гиганты ИИ, включая OpenAI и DeepMind от Google, присоединились к ученым, законодателям и предпринимателям, чтобы сделать заявление, призывающее снизить «риск исчезновения из-за ИИ», заявив, что это должно быть «глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии». и ядерная война».

В аналогичном открытом письме, опубликованном в марте прошлого года, содержится призыв к шестимесячной паузе в обучении мощных систем искусственного интеллекта, в котором говорится, что их «следует разрабатывать только после того, как мы будем уверены, что их эффекты будут положительными, а связанные с ними риски будут управляемыми». В заявлении, подписанном более чем 1000 экспертов и руководителей, включая Илона Маска и соучредителя Apple Стива Возняка, содержится предупреждение о том, что ИИ может представлять «серьезный риск для общества и человечества».

(RT.com)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *