Исследование показывает, что управлять искусственным сверхразумом невозможно

С момента запуска ChatGPT и достижений в области искусственного интеллекта этические и моральные вопросы ИИ по сравнению с его потенциалом все еще остаются нерешенными. В то время как одни эксперты утверждают, что технологии могут вывести нас на новые высоты, других беспокоит направление исследований. Новое исследование прибыло, чтобы углубить дискуссию: исследование показывает, что было бы невозможно управлять искусственным сверхразумом.

Читать далее:

  • Исследователи говорят, что управлять сверхразумным ИИ будет невозможно
  • Какие основные типы искусственного интеллекта существуют?
  • Искусственный интеллект: знайте минусы и опасности ИИ

Изучать

  • Опубликовано в научном журнале Журнал исследований искусственного интеллектаисследование, подписанное исследователями из Института Макса Планка в Германии, показывает, что искусственный сверхразум невозможно контролировать.
  • Это потому, что для этого потребуются знания, которые выходят за рамки того, что люди имеют сегодня.
  • То есть, если создатели технологии не могут предсказать, чем она может стать, невозможно контролировать ее разработки.

искусственный сверхразум

Искусственный сверхразум более продвинут, чем генеративный ИИ, который мы знаем сегодня. Он может воспроизводить человеческий интеллект, имеет еще большую память, более быструю обработку данных и даже способен принимать решения самостоятельно.

СуперИИ всегда будет на шаг впереди (Изображение: Pong Ch/Shutterstock)

Невозможно установить правила

  • Согласно исследованию, «как только компьютерная система работает на уровне выше возможностей наших программистов, мы больше не можем устанавливать границы».
  • Таким образом, нельзя, например, просить ИИ «не вредить людям», если мы не понимаем, какой сценарий он из этого создаст.
  • В примере, приведенном исследователями, если ИИ хочет уничтожить людей, а эксперты создают механизм для его блокировки, вполне возможно, что он заблокирует ответ и выполнит план.
  • Чтобы избежать этого, необходимо было бы создать симуляцию этого искусственного сверхразума, который сталкивается с другими проблемами.

В неконтролируемом искусственном сверхразуме нет ничего нового

Однако новые данные об искусственном сверхразуме не совсем новы.

В 1936 году отец вычислительной техники Алан Тьюринг уже подсчитал, что логически невозможно предсказать, каким образом программы ИИ приходят к выводам. То есть, даже если мы можем это запрограммировать, мы не можем это понять.

С искусственным сверхразумом риск увеличивается.

Чтобы помешать искусственному интеллекту взять на себя управление, эксперты выступают за ограничение технологий, которые у нас уже есть сегодня (Изображение: Репродукция)

Что делать?

С возможностями искусственного сверхразума он всегда будет на шаг впереди. Если мы попытаемся помешать этой технологии уничтожить человечество с помощью блокирующей программы, она уже будет знать, как заблокировать ее в ответ.

Таким образом, исследователи утверждают, что сегодня одним из решений было бы ограничение возможностей ИИ. Если мы сможем сдержать их, они не смогут развиться за наши пределы.

С информацией от Журнал исследований искусственного интеллекта

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Пост-исследование показывает, что было бы невозможно управлять искусственным сверхразумом, впервые появившимся в Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *