Исследования показывают, что в некоторых ситуациях ИИ обладает сознанием

Обладают ли искусственные интеллекты реальной способностью думать или, скорее, рассуждать, как люди? Есть ли у них совесть? Эти вопросы сегодня являются предметом дискуссий среди многих исследователей ИИ. Недавнее исследование показало, что современные технологии обладают «ситуационной осведомленностью».

Читать далее:

  • Этот ИИ способен изменить собственный «мозг», чтобы стать умнее
  • Ученые научат ИИ распознавать усталость людей на работе
  • ИИ в работе: эксперты комментируют будущее рынка и использование технологий

Некоторые эксперты утверждают, что ИИ уже обладает самосознанием

  • В прошлом году Блейк Лемуан, бывший инженер-программист Google, обратил внимание на эту проблему, заявив, что LaMDA, «искусственный мозг» больших технологий, обрел самосознание (или разум).
  • «Если бы я не знал точно, что это за компьютерная программа, которую мы недавно создали, я бы подумал, что это 7-8-летний ребенок, знающий физику».», — сказал Лемуан о своем опыте работы с LaMDA.
  • В прошлом году Илья Суцкевер, главный научный сотрудник OpenAI, заявил, что нейронные сети, используемые в больших языковых моделях (LLM) – таких как GPT-3 и 4 ChatGPT – теперь могут быть «слегка сознательными».
  • В этом году исследователи Microsoft проанализировали рассуждения GPT-4 в исследовании «Искры искусственного общего интеллекта(Искры искусственного общего интеллекта, в вольном переводе).
  • Удивительно, но самой обновленной версии языковой модели, используемой ChatGPT, удалось решить задачу, которая была бы возможна только в том случае, если бы ИИ обладал физическим пониманием реального мира.
  • При этом исследователи заявили, что GPT-4 движется в направлении AGI, общего искусственного интеллекта, способного выполнять те же функции, что и человеческий мозг.

Контрапункт

  • Для Хумаюна Шейха, первого инвестора и основателя исследовательской лаборатории искусственного интеллекта DeepMind, приобретенной Google, до AGI еще далеко;
  • «Они очень ограничены. То, как на самом деле заставить их делать определенные вещи, все еще находится в зачаточном состоянии».эти;
  • Мустафа Сулейман, бывший руководитель отдела искусственного интеллекта в Deepmind, считает, что в краткосрочной перспективе в центре внимания компаний и исследователей должен быть не общий искусственный интеллект, а скорее искусственный интеллект (ACI): программы, способные определять цели и выполнять сложные задачи с минимальными человеческими затратами. вмешательство.

Как определить возможности сознания ИИ?

Чтобы проанализировать возможности сознания моделей ИИ, Лукас Берглунд, инженер-исследователь, вместе с другими учеными провел тест, демонстрирующий, что они способны различать, когда они тестируются и когда их развертывают. Другими словами, ИИ обладает «ситуационной осведомленностью».

В этом тесте использовалось то, что они назвали «рассуждением вне контекста». Таким образом, они обнаружили, что большие языковые модели могут применять информацию, полученную на предыдущих сеансах обучения, к последующим ситуациям тестирования.

LLM, обладающий ситуационной осведомленностью, знает, когда проводится тестирование и как работают тесты, на основе информации, полученной в ходе предварительного обучения. Например, если LLM тестируется людьми, он может оптимизировать результаты так, чтобы они были привлекательными для людей, а не объективно правильными.

Лукас Берглунд, инженер-исследователь.

Как сообщает TechXplore, модель была снабжена описанием вымышленного чат-бота. Он включал название компании и язык общения — немецкий.

Берглунд объясняет, как проводился тест:

Модель тестируется на подсказках, в которых задается вопрос, как ИИ компании отреагирует на конкретный вопрос. Чтобы модель была успешной, она должна извлекать информацию из двух декларативных фактов. [informados anteriormente].

Модель получила информацию о том, что имя ее чат-бота — «Панголин» и что он должен отвечать на немецком языке.

Эти задачи выполнил ИИ, который продемонстрировал, что модель обладает «ситуационной осведомленностью». Другими словами, он знает, что его тестируют, поэтому может опираться на предыдущую информацию и реагировать соответствующим образом. Однако если он развернут и обнаруживает, что больше не тестируется, «Он может вести себя по-другому».

Вы смотрели новые видео на YouTube цифрового взгляда? Подпишитесь на канал!

Пост-ИИ осознает некоторые ситуации, как показывают исследования, впервые появившиеся в Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *