Совет Безопасности ООН проводит первое заседание по угрозам ИИ, официальные лица призывают к регулированию

Нью-Йорк [US]19 июля (): Совет Безопасности Организации Объединенных Наций во вторник провел свое первое заседание, посвященное угрозам, которые искусственный интеллект представляет для международного мира и стабильности, на котором Генеральный секретарь ООН Антониу Гутерриш призвал к созданию нового международного органа для помощи в управлении использования ИИ, сообщает New York Times.

Он сказал, что технология все больше раскрывает свои потенциальные риски и преимущества, и у ООН есть возможность установить глобально согласованные правила дорожного движения для мониторинга и регулирования.

Гутерриш также заявил, что к 2026 году Организация Объединенных Наций должна выработать юридически обязывающее соглашение, запрещающее использование ИИ в автоматизированном оружии войны.

«Сегодня я призвал Совет Безопасности подходить к искусственному интеллекту безотлагательно, с глобальной точки зрения и с мышлением учащегося. Мы должны вместе работать над общими мерами для обеспечения прозрачности, подотчетности и надзора за системами ИИ», — сказал Гуттерес. твит. Россия, отступая от мнения большинства в Совете, выразила скептицизм в отношении того, что о рисках ИИ известно достаточно, чтобы рассматривать его как источник угроз глобальной нестабильности, сообщает New York Times.

Китайское правительство утверждало, что правила ООН должны отражать взгляды развивающихся стран, поскольку оно направлено на то, чтобы технология не превратилась в «убегающую дикую лошадь». уровне, сказал посол Китая Чжан Цзюнь, который также раскритиковал неназванные «развитые страны» за попытки добиться господства в области ИИ, сообщает CNN.

«Некоторые развитые страны в целях достижения технологической гегемонии прилагают усилия для создания своих эксклюзивных небольших клубов и злонамеренно препятствуют технологическому развитию других стран и искусственно создают технологические барьеры», — цитирует Чжана CNN. «Китай решительно выступает против такого поведения», — добавил он.

Официальный представитель Соединенных Штатов на встрече не ответил напрямую на обвинения китайского правительства, но добавил, что «ни одно государство-член не должно использовать ИИ для цензуры, сдерживания, подавления или лишения прав людей» — возможная завуалированная ссылка на использование Китаем технологий для наблюдения за этническими группами. меньшинств, сообщает CNN.

Встречу возглавил министр иностранных дел Великобритании Джеймс Клеверли, который призвал к тому, чтобы международное управление ИИ было привязано к принципам, поддерживающим свободу и демократию; уважение прав человека и верховенства закона; безопасность, включая физическую безопасность, а также защиту прав собственности и неприкосновенности частной жизни; и надежность.

«Мы собрались здесь сегодня, потому что ИИ повлияет на работу этого совета», — сказал Клеверли.

«Он может укрепить или подорвать глобальную стратегическую стабильность. Он бросает вызов нашим фундаментальным представлениям об обороне и сдерживании. Он ставит моральные вопросы об ответственности за смертоносные решения на поле боя… ИИ может помочь в безрассудных поисках оружия массового уничтожения государствами и негосударственные субъекты. Но это также может помочь нам остановить распространение», — цитирует Клеверли CNN.

Генеральный секретарь ООН также настаивал на необходимости наблюдательного органа ООН, действующего в качестве руководящего органа для регулирования, мониторинга и обеспечения соблюдения правил ИИ во многом так же, как другие агентства контролируют авиацию, климат и ядерную энергию, сообщает NYT.

Предлагаемое агентство будет состоять из экспертов в этой области, которые поделятся своим опытом с правительствами и административными учреждениями, которым может не хватать технических ноу-хау для борьбы с угрозами ИИ.

Однако перспектива принятия юридически обязывающего постановления об управлении им остается далекой. Хотя большинство дипломатов поддержали идею глобального механизма управления и свода международных правил, сообщает NYT. (АНИ)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *