Могут ли ИИ самоуничтожиться?

Возможность самоуничтожения искусственного интеллекта (ИИ) — сложный вопрос, который обсуждается учеными и экспертами в области технологий уже несколько лет. Однозначного ответа на этот вопрос не существует, поскольку он зависит от ряда факторов. Следовательно Цифровой вид была предпринята попытка ответить на вопрос, могут ли ИИ на самом деле самоуничтожиться, согласно самой последней доступной информации.

Читать далее:

  • Google Duet теперь доступен каждому. Проверить!
  • По данным Google, более половины AI-стартапов используют облако.
  • Американцев больше всего беспокоит искусственный интеллект, показало исследование

Могут ли ИИ самоуничтожиться?

Ответ на этот вопрос — да, но это зависит от контекста, в который вставлен этот искусственный интеллект. Пример: если бы ИИ был запрограммирован на достижение невозможной цели, например, на уничтожение всего зла в мире. В этом случае кто-то может заставить ИИ пойти на крайние меры, например, уничтожить себя или другие системы для достижения своей цели.

По мнению Массачусетского технологического института (MIT), искусственный интеллект, даже несмотря на его такую ​​большую полезность, нуждается в некоторой осторожности из соображений безопасности. (Изображение: Pexels)

По мнению экспертов из MIT (Массачусетского технологического института) в статьях, опубликованных в Wired, другой гипотетический сценарий мог бы произойти, если бы кто-то запрограммировал ИИ с целью, причиняющей вред человечеству. Например, ИИ, запрограммированный на максимизацию прибыли компании. Поскольку это машина, она может принимать решения, которые наносят вред окружающей среде или здоровью человека. В этом случае люди сочли бы ИИ угрозой человечеству и устранили бы его по соображениям безопасности.

Тем не менее, согласно статье, ИИ также может случайно самоуничтожиться. Например, программисты могли бы запрограммировать ИИ на обучение и адаптацию, но если он научится самоуничтожаться, он автоматически станет угрозой для самого себя.

Какие шаги могут предпринять люди, чтобы снизить риск самоуничтожения ИИ?

Некоторые меры, которые мы можем предпринять, чтобы снизить риск самоуничтожения ИИ, включают, среди этих действий, несколько вещей, перечисленных ниже:

  • Программные ИИ с конкретными, четко определенными целями и задачами.: Это поможет гарантировать, что программисты не будут программировать ИИ с невозможными или конкретными целями или задачами.
  • Ограничьте возможности ИИ: Это поможет предотвратить действия ИИ, которые могут привести к их уничтожению или нанесению вреда другим людям.
  • Внедрите механизмы безопасности, чтобы предотвратить самоуничтожение ИИ: Это может включать в себя такие меры, как установка межсетевых экранов и систем кибербезопасности.

Источники: проводной журнал; MIT (Массачусетский технологический институт)

Вы смотрели новые видео на YouTube цифрового взгляда? Подпишитесь на канал!

Сообщение Могут ли ИИ самоуничтожиться? впервые появился на Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *