Чего опасаются эксперты, которые предупреждают о «риске исчезновения», создаваемом ИИ

Как лучшие предложения,
хвост не застрял

Когда влиятельная группа руководителей и исследователей искусственного интеллекта делает открытое заявление об опасности этой технологии для человечества, невозможно не обратить внимания. Тем более, когда используется слово «вымирание».

Нас заменит ИИ или мы просто вымрем? (Изображение: Витор Падуа / )

Среди подписантов предупреждения, выпущенного 30 мая, есть руководители таких компаний, как OpenAI и Google DeepMind, а также уважаемые ученые в этой области, такие как Джеффри Хинтон и Йошуа Бенжио, считающиеся крестными отцами современного ИИ. Сообщение было простым: «Снижение риска исчезновения ИИ должно быть глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».

За инициативой стоит некоммерческая организация Центр безопасности ИИ. Его исполнительный директор Дэн Хендрикс также является исследователем искусственного интеллекта. Его беспокойство по поводу их будущего и их отношения к нам выражено в статье под названием «Естественный отбор предпочитает ИИ людям» — что-то вроде «Естественный отбор предпочитает ИИ людям».

Да, знаю. Совсем не обнадеживает.

Но как именно искусственный интеллект может вызвать нечто столь серьезное, как вымирание человечества? Здесь стоит посмотреть, что говорит Центр безопасности ИИ.

Это не должно быть вымирание, чтобы быть серьезным.

Для большинства из нас искусственный интеллект сводится к ChatGPT или генераторам изображений. Это не то, о чем говорит Хендрикс и возглавляемая им организация. Риски, на которые указывает организация, могут быть предложены только гораздо более развитыми системами, которых сегодня еще не существует, но они могут появиться.

Среди угроз, указанных на сайте группы, есть серьезные опасности, и можно утверждать, что некоторые из них будут способны генерировать сценарии разрушения для человечества. Но не все риски приведут к такому результату, следует отметить. Есть разные уровни повреждений. О некоторых из них мы рассказали на Технокаст 293.

Худший сценарий предполагает вооружение (вооружение). Здесь у нас был бы ИИ, намеренно используемый для нанесения разного урона. Текст на веб-сайте Центра безопасности ИИ поднимает, например, вероятность его использования для автоматических кибератак.

Но могло быть и хуже, так как искусственный интеллект можно было бы использовать для управления оружием, в том числе химическим. В этом контексте неправильное толкование системы может привести к катастрофическим последствиям, например, к началу войны.

Искусственный интеллект (иллюстративное изображение: Max Pixel)

Из остальных представленных рисков некоторые основаны на ухудшении явлений, которые мы можем наблюдать уже сегодня, таких как использование ИИ в целях дезинформации и концентрация этих инструментов в руках нескольких агентов, таких как компании и страны. Здесь нет вымирания, но все же серьезные проблемы.

Ближе к концу списка мы видим больше, скажем так, спекулятивных рисков.

Что, если машина решит иначе?

Большая часть научной фантастики, рассуждающей о возможной напряженности между человечеством и агентами ИИ, включая роботов, проистекает из недоверия. Что бы мы сделали, если бы разум, превосходящий наш, решил сделать что-то отличное от того, для чего мы его создали?

Центр безопасности ИИ перечисляет некоторые риски, связанные с человеческим страхом перед машинами. Новые цели (возникающие цели): в своей эволюции искусственный интеллект мог развить цели и поведение, которые мы не предвидели, и которые могли — понимаете, мог – быть вредным для нас.

А как быть с системами, которые активно пытаются нас обмануть(обман)? И даже не из желания нас перехитрить, а просто из расчета — ведь речь о машине, да? — что ложь поможет достичь определенной цели. Представьте, если бы они могли даже обмануть людей, ответственных за их наблюдение…

Это гипотезы, вызывающие недоверие, которые так хорошо исследует художественная литература. В кино Я воруюнапример, мы видим, как ИИ приходит к новой интерпретации своих указаний, понимая, что самый безопасный способ соблюдать его главное правило, защищать людей, был через контроль. Даже против нашей воли.

Терминатор

Поскольку так много компаний спешат создать более сложные системы, неудивительно, что эти опасения начинают высказываться. В разговорах о риске исчезновения может быть некоторое преувеличение, но общий посыл ясен: давайте держать ухо востро.

Мы также должны прислушиваться к скептикам

Конечно, письмо Центра безопасности ИИ вызывает опасения, но важно отметить, что есть много людей, которые разбираются в теме и не воспринимают ее всерьез.

Среди них Янн ЛеКун, французский ученый-компьютерщик. Он также считается, наряду с Джеффри Хинтоном и Йошуа Бенжио, одним из крестных отцов исследований ИИ. Однако, в отличие от своих коллег, ЛеКун, который также работает в Meta, не подписал заявление. и высказался по этому поводу в Твиттере.

Наиболее распространенной реакцией исследователей ИИ на эти роковые пророчества является фейспалм.

Ян ЛеКун

ЛеКун ответил на твит профессора Педро Домингоса из Школы компьютерных наук и инженерии Вашингтонского университета. Домингос также выразил скептицизм: «Напоминание: большинство исследователей ИИ считают идею о том, что ИИ уничтожит человеческую цивилизацию, глупо».

Арвинд Нараянан, ученый-компьютерщик из Принстонского университета, сказал Би-би-си: «Существующий ИИ далеко не так хорош, чтобы эти риски материализовались. В результате это отвлекает внимание от краткосрочного урона ИИ».

Какой кратковременный ущерб? На некоторых обращает внимание Диого Кортис, когнитивист и профессор PUC/SP.

Утверждение, что общество находится под угрозой исчезновения, — это попытка контролировать повествование. Это помогает донести идею о том, что технологии, которыми они владеют, более мощные, чем они есть на самом деле, отвлекая внимание от реальных и текущих проблем: предубеждения, согласие на использование данных, неправомерное использование, ответственность и подотчетность, интеллектуальная собственность, рабочие места, концентрация и т. д.

Диого Кортис Изображение астронавта на лошади, созданное Dall-E (изображение: репродукция/OpenAI)

На самом деле все вышеперечисленные моменты реальны и создают проблемы здесь и сейчас. Путь к их решению лежит через более открытые данные — то, что OpenAI, кажется, оставил только на словах — и через некоторую форму регулирования, что признают сами руководители.

Риски, связанные с передовым ИИ, будут продолжать преследовать нас, и в какой-то степени это хорошо. Мы не хотим неприятных сюрпризов. Тем не менее, небольшой скептицизм в отношении мотивов стольких руководителей также приветствуется.

Стоит напомнить, что в марте Илон Маск подписал открытое письмо с просьбой приостановить разработку ИИ. Вскоре после этого тот же Маск запустил проект искусственного интеллекта для Twitter, показав, что на самом деле он никогда не хотел перерыва в исследованиях.

Короче говоря, в идеале нужно быть бдительным. По отношению к будущему, но и к настоящему.

Джеффри ХинтонInteligência ArtificialOpenAIЙошуа БенжиоDeepMindИлон Маск

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *