ИИ создает «риск исчезновения», предупреждают руководители OpenAI и Google DeepMind

Как лучшие предложения,
хвост не застрял

Знаменитости в области искусственного интеллекта подписали заявление о «риске исчезновения», который технологии создают для мира. Предупреждение было сделано Сэмом Альтманом, генеральным директором OpenAI; Демис Хассабис, глава Google DeepMind; Джеффри Хинтон и Йошуа Бенжио, исследователи, которых считают крестными отцами современного ИИ; и больше экспертов.

DeepMind создает искусственный интеллект, который решает проблемы программирования (изображение: репродукция/DeepMind)

«Снижение риска исчезновения ИИ должно быть глобальным приоритетом, — говорится в заявлении, — наряду с другими социальными рисками, такими как пандемии и ядерная война».

Информационное сообщение было опубликовано Центром безопасности ИИ, некоммерческой организацией, миссией которой является «снижение рисков искусственного интеллекта в социальном масштабе». Об этом сообщил исполнительный директор предприятия Дэн Хендрикс. Газета « Нью-Йорк Таймс что декларация короткая — всего 22 слова на английском языке — во избежание разногласий между подписавшими ее людьми.

Нет решений для рисков ИИ (пока)

Хорошо, но что с этим делать? В декларации ничего не сказано, потому что цель состоит в том, чтобы открыть общественное обсуждение для большего числа специалистов. «Существует очень распространенное заблуждение, даже в сообществе ИИ, что скептиков очень мало», — говорит Хендрикс. СЕЙЧАС. «Но на самом деле многие люди в частном порядке выражают свою обеспокоенность по этому поводу».

Заявление сопровождается объяснением: он хочет «создать общее знание растущего числа экспертов и общественных деятелей, которые также серьезно относятся к некоторым из самых серьезных рисков передового ИИ».

Существует три основных взгляда на риски ИИ:

  • некоторые представляют себе более апокалиптические гипотетические сценарии, где ИИ становится независимым и не поддающимся контролю;
  • другие настроены более скептически, указывая на то, что ИИ с трудом справляется с такими задачами, как вождение автомобиля, несмотря на миллиардные инвестиции в этот сектор;
  • и есть те, кто помнит более непосредственные риски ИИ, которые футуристы могут в конечном итоге свести к минимуму, такие как его неправильное использование для дипфейков, автоматических фейковых новостей и потери рабочих мест.

Несмотря на быстрое развитие LLM (больших языковых моделей), которые сделали ChatGPT знаменитым, дебаты об ИИ все еще назревают. OpenAI, Microsoft и DeepMind призывают к регулированию искусственного интеллекта.

«Эксперты по ИИ, журналисты, политики и широкая общественность все чаще обсуждают широкий спектр важных и насущных рисков ИИ», — говорится в заявлении Центра безопасности ИИ. «Даже в этом случае может быть трудно выразить озабоченность по поводу некоторых более серьезных рисков передового ИИ».

По мнению президента США Джо Байдена, «ИИ может помочь решить некоторые очень сложные проблемы, такие как болезни и изменение климата, но мы также должны устранять потенциальные риски для нашего общества, нашей экономики и нашей национальной безопасности».

С информацией: The Verge и Engadget.

ChatGPTDeepMindИскусственный интеллектМодель большого языкаOpenAIДжо БайденMicrosoftThe New York Times

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *