Как лучшие предложения,
хвост не застрялКрупные ИИ-компании объявили о своей приверженности соблюдению рекомендаций правительства США по безопасной разработке ИИ. Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI одобрили меры Белого дома в эту пятницу (21). С этим соглашением компании будут следовать правилам безопасности, чтобы избежать рисков при развитии ИИ.
Сегодня основные компании, занимающиеся искусственным интеллектом, утвердили руководящие принципы, предложенные правительством США (Изображение: Vitor Pádua / )
Анонс соглашения между сторонами (правительством и компаниями) опубликован на официальном сайте Белого дома. Согласно тексту, обязательства компаний были добровольными. Правительство США также сообщает, что оно находится в контакте с другими странами, включая Бразилию, для увеличения числа компаний и правительств, которые поддерживают принципы безопасности для разработки ИИ.
Меры по безопасной разработке ИИ
Всего было представлено восемь руководств (или мер) по безопасному развитию искусственного интеллекта. Эти меры — лишь первый шаг Белого дома перед созданием нормативного предложения. Мы суммируем их в соответствии с их сходством.
- Обеспечение безопасности ИИ перед запуском: на данный момент компании обязуются разрешить третьим сторонам проводить тесты с их искусственным интеллектом. Эти тесты проверят риски, связанные с тем, что ИИ раскрывает данные о биобезопасности и кибербезопасности.
Компании также будут делиться информацией с правительствами, промышленностью, обществом и академическими кругами в дополнение к продвижению положительных практик в области безопасности, обмену методами и попытками «обойти» меры безопасности ИИ, например те, которые не позволяют ChatGPT писать вирусы.
OpenAI, создатель ChatGPT, является одной из компаний, принявших рекомендации Белого дома (Изображение: Vitor Pádua / )
- « Безопасность прежде всего »: По существу, это дополнение к предыдущему пункту требует, чтобы компании выпускали свои модели только после того, как убедились, что ИИ безопасен. Компании также упростят обнаружение уязвимостей третьими лицами и сообщение о них. ИИ по-прежнему будет нужен «надежный механизм» для сообщения об ошибках.
- «Завоевать доверие публики»: здесь правительство США предлагает компаниям создать инструменты, позволяющие определить, генерируется ли контент с помощью ИИ; предать гласности возможности своих ИИ (что позволит избежать случаев ложных обвинений в плагиате со стороны ChatGPT); уделять приоритетное внимание исследованиям рисков технологий для общества; предотвращения вредоносного и дискриминационного контента и защиты конфиденциальности.
Компаниям также необходимо разрабатывать передовые системы искусственного интеллекта для решения ключевых социальных проблем, таких как лечение рака и смягчение последствий изменения климата.
С информацией: Нью-Йорк Таймс e Google
Amazon.comБелый домСШАGoogleНаселение СШАOpenAIMicrosoftИскусственный интеллектChatGPTБезопасностьБразилия