Искусственный интеллект (ИИ) — это нечто инопланетное, интеллектуальная система, о которой люди мало что понимают. Люди во многом предсказуемы для других, потому что они разделяют человеческий опыт. Но это не распространяется на ИИ, даже если его создали люди.

Для тех, кто спешит:

  • Для Марка Бэйли, профессора киберразведки и науки о данных в Национальном разведывательном университете (США), ИИ — это что-то чуждое, потому что его внутренняя работа в значительной степени непроницаема;
  • По мнению эксперта, это делает его принципиально необъяснимым и непредсказуемым для человека;
  • По его мнению, доверие к системе или человеку зависит от предсказуемости поведения — этот принцип не применим к ИИ;
  • Профессор также объяснил, что системы ИИ могут иметь триллионы параметров, что делает причины их решений часто «непрозрачными»;
  • В отличие от людей, ИИ не корректирует свое поведение на основе социальных представлений или этических норм. По словам Бэйли, его принятие решений основано на статической модели мира, определяемой данными обучения.
  • Чтобы повысить доверие к ИИ, важно вовлекать людей в решения, принимаемые системами. Однако эксперт полагает, что в долгосрочной перспективе это может стать неустойчивым.

Такую диссертацию защищает Марк Бэйли, профессор киберразведки и науки о данных Национального разведывательного университета (США), в статье, опубликованной в The Conversation. По мнению эксперта, у систем ИИ есть существенное ограничение: большая часть их внутреннего функционирования непроницаема.

Это делает их принципиально необъяснимыми и непредсказуемыми. Более того, создание систем искусственного интеллекта, которые ведут себя так, как ожидают люди, является серьезной проблемой.

Отрывок из статьи Марка Бэйли, профессора киберразведки и науки о данных Национального разведывательного университета (США), опубликованной на сайте The Conversation.

Доверие и ИИ

Роботизированные руки на клавиатуре
(Изображение: Thinkstock)

Доверие основано на предсказуемости. Это зависит от вашей способности предвидеть поведение других. Например, если вы доверяете кому-то, а он не делает того, что вы ожидаете, ваше восприятие его надежности снижается.

Многие системы искусственного интеллекта построены на основе нейронных сетей глубокого обучения, которые в некотором смысле имитируют человеческий мозг. Эти сети имеют взаимосвязанные «нейроны» с переменными или «параметрами», которые влияют на силу связей между нейронами.

Когда наивной сети предоставляются обучающие данные, она «учится» классифицировать данные путем настройки этих параметров. Таким образом система ИИ учится классифицировать данные, которых она раньше не видела. Он не запоминает, что представляет собой каждый фрагмент данных, а скорее предсказывает, каким он может быть.

Многие из самых мощных систем искусственного интеллекта содержат триллионы параметров. Из-за этого причины, по которым системы ИИ принимают те или иные решения, часто неясны. Это проблема объяснимости ИИ — непроницаемый черный ящик принятия решений ИИ.

Отрывок из статьи Марка Бэйли, профессора киберразведки и науки о данных Национального разведывательного университета (США), опубликованной на сайте The Conversation.

Поведение и ожидания

Гуманоидный робот, ИИ
(Изображение: thinkhubstudio/Shutterstock)

Доверие зависит не только от предсказуемости, но и от нормативных или этических мотиваций. Обычно вы ожидаете, что люди будут действовать не только так, как вы предполагаете, но и так, как они должны действовать. Человеческие ценности находятся под влиянием общего опыта, а моральные рассуждения представляют собой динамический процесс, формируемый этическими стандартами и восприятием других.

По словам Бейли, в отличие от людей, ИИ не корректирует свое поведение в зависимости от того, как его воспринимают другие, или придерживаясь этических норм. Для эксперта внутреннее представление мира ИИ в значительной степени статично и определяется данными обучения.

Их процесс принятия решений основан на неизменной модели мира, безразличной к динамичным и тонким социальным взаимодействиям, которые постоянно влияют на человеческое поведение. Исследователи работают над программированием этики ИИ, но это оказывается непросто.

Отрывок из статьи Марка Бэйли, профессора киберразведки и науки о данных Национального разведывательного университета (США), опубликованной на сайте The Conversation.

Критически важные системы

Роботизированное нажатие клавиши ноутбука вручную
(Изображение: sdecoret/Adobe Stock)

По мнению профессора, один из способов уменьшить неопределенность и повысить доверие — обеспечить участие людей в решениях, принимаемых системами ИИ. Это подход, принятый, например, Министерством обороны США, который требует, чтобы при принятии всех решений ИИ человек должен был либо «в процессе», либо «руководить процессом».

«В процессе» означает, что система ИИ дает рекомендации, но чтобы инициировать действие, необходим человек. «На вершине процесса» означает, что хотя система ИИ может инициировать действие самостоятельно, человек-наблюдатель может остановить или изменить его.

Хотя привлечение людей к участию является отличным первым шагом, я не уверен, что это будет устойчивым в долгосрочной перспективе. Поскольку предприятия и правительства продолжают использовать ИИ, будущее, вероятно, будет включать в себя вложенные системы ИИ, в которых быстрое принятие решений ограничивает возможности вмешательства людей.

Отрывок из статьи Марка Бэйли, профессора киберразведки и науки о данных Национального разведывательного университета (США), опубликованной на сайте The Conversation.

Для Бейли важно решить проблемы объяснимости и согласованности до того, как будет достигнут переломный момент, когда вмешательство человека станет невозможным. «На данном этапе у нас не будет другого выбора, кроме как довериться ИИ», — написал он.

Избежать этого порога особенно важно, поскольку ИИ все чаще интегрируется в критически важные системы, например: электросети, Интернет и военные системы.

В критически важных системах доверие имеет первостепенное значение, и нежелательное поведение может иметь фатальные последствия. Поскольку интеграция ИИ становится более сложной, становится еще более важным решать проблемы, ограничивающие надежность.

Отрывок из статьи Марка Бэйли, профессора киберразведки и науки о данных Национального разведывательного университета (США), опубликованной на сайте The Conversation.

Вы смотрели новые видео на YouTube от Олхар Диджитал? Подпишитесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *