Гиганты искусственного интеллекта соблюдают правила правительства США

Как лучшие предложения,
хвост не застрял

Крупные ИИ-компании объявили о своей приверженности соблюдению рекомендаций правительства США по безопасной разработке ИИ. Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI одобрили меры Белого дома в эту пятницу (21). С этим соглашением компании будут следовать правилам безопасности, чтобы избежать рисков при развитии ИИ.

Сегодня основные компании, занимающиеся искусственным интеллектом, утвердили руководящие принципы, предложенные правительством США (Изображение: Vitor Pádua / )

Анонс соглашения между сторонами (правительством и компаниями) опубликован на официальном сайте Белого дома. Согласно тексту, обязательства компаний были добровольными. Правительство США также сообщает, что оно находится в контакте с другими странами, включая Бразилию, для увеличения числа компаний и правительств, которые поддерживают принципы безопасности для разработки ИИ.

Меры по безопасной разработке ИИ

Всего было представлено восемь руководств (или мер) по безопасному развитию искусственного интеллекта. Эти меры — лишь первый шаг Белого дома перед созданием нормативного предложения. Мы суммируем их в соответствии с их сходством.

  • Обеспечение безопасности ИИ перед запуском: на данный момент компании обязуются разрешить третьим сторонам проводить тесты с их искусственным интеллектом. Эти тесты проверят риски, связанные с тем, что ИИ раскрывает данные о биобезопасности и кибербезопасности.
    Компании также будут делиться информацией с правительствами, промышленностью, обществом и академическими кругами в дополнение к продвижению положительных практик в области безопасности, обмену методами и попытками «обойти» меры безопасности ИИ, например те, которые не позволяют ChatGPT писать вирусы.

OpenAI, создатель ChatGPT, является одной из компаний, принявших рекомендации Белого дома (Изображение: Vitor Pádua / )

  • « Безопасность прежде всего »: По существу, это дополнение к предыдущему пункту требует, чтобы компании выпускали свои модели только после того, как убедились, что ИИ безопасен. Компании также упростят обнаружение уязвимостей третьими лицами и сообщение о них. ИИ по-прежнему будет нужен «надежный механизм» для сообщения об ошибках.
  • «Завоевать доверие публики»: здесь правительство США предлагает компаниям создать инструменты, позволяющие определить, генерируется ли контент с помощью ИИ; предать гласности возможности своих ИИ (что позволит избежать случаев ложных обвинений в плагиате со стороны ChatGPT); уделять приоритетное внимание исследованиям рисков технологий для общества; предотвращения вредоносного и дискриминационного контента и защиты конфиденциальности.
    Компаниям также необходимо разрабатывать передовые системы искусственного интеллекта для решения ключевых социальных проблем, таких как лечение рака и смягчение последствий изменения климата.

С информацией: Нью-Йорк Таймс e Google

Amazon.comБелый домСШАGoogleНаселение СШАOpenAIMicrosoftИскусственный интеллектChatGPTБезопасностьБразилия

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *