Генеративный искусственный интеллект обещает добиться прогресса в технологиях и изменить практическую повседневную жизнь многих людей. Один из основных аргументов в пользу автоматизации некоторых видов деятельности, например, заключается в том, что ИИ мог бы посвятить себя большой работе, в то время как люди думают о стратегических, этических и творческих вопросах. Однако инновации в этом секторе сопряжены с рисками для конфиденциальности, безопасности и защиты данных, как признает собственный вице-президент Google по глобальным разработкам в области конфиденциальности, защиты и безопасности.

Для Royal Hansen ИИ трансформируется быстрыми темпами, но риски меньше, чем гарантии обновленной команды.

Читать далее:

Вице-президент Google признает риски, связанные с искусственным интеллектом

  • Роял Хансен прибудет в Бразилию в следующий четверг (17) на мероприятие «Больше безопасности с Google» и поговорил с Эстадао.
  • Руководитель признал риски ИИ и привел пример: чат-боты использовались для улучшения фишинговых электронных писем и создания вредоносных кодов, но следовало ожидать, что преступники воспользуются преимуществами любой технологии, которая могла бы им помочь.
  • Для Хансена решение было бы в «своего рода гонке между атакой и защитой», в которой плохие парни пользуются возможностями ИИ, пока разработчики пытаются с ними бороться.
  • Однако у искусственного интеллекта есть преимущество: в отличие от плохих парней, которые, по словам Хансена, «копируют и вставляют» готовые коды, созданные с помощью технологий, у ИИ есть команда, которая постоянно обновляется.
  • «В кибербезопасности работа никогда не заканчивается, потому что всегда есть активный противник, стремящийся к инновациям. Поэтому нам тоже нужно внедрять инновации», — сказал он.
Вице-президент Google приедет в Бразилию на мероприятие Google по безопасности (Фото: Google/Репродукция)

Дезинформация и регулирование ИИ

На вопрос, не усугубит ли ИИ проблему дезинформации (доказано, что ChatGPT, один из самых известных чат-ботов, является лжецом), вице-президент Google признал, что это постоянная проблема и что она требует сотрудничества других компаний сектора.

Использование этих замечательных языковых моделей для обнаружения информации о насилии или дезинформации является одной из наиболее продвинутых областей моей команды. Мы рассматриваем водяные знаки для контента, созданного ИИ, но еще слишком рано знать, как это может работать. Для меня здесь важно то, что индустрия объединяет разных участников для работы над этими проблемами, потому что этого недостаточно для Google. Вы должны сделать это в Интернете в целом.

Роял Хансен, вице-президент по разработке, конфиденциальности, безопасности и безопасности в Google

Что касается регулирования ИИ, Хансен подчеркнул, что технология постоянно меняется и что введение правил должно постоянно обсуждаться. Это связано с тем, что недостаточно установить общие правила, которые за короткое время может обновить сам искусственный интеллект и, следовательно, устаревшее законодательство.

Тем не менее, по словам вице-президента, ни одна компания не сможет предотвратить все последствия ИИ.

Рука держит мобильный телефон с логотипом Google Bard
Бард — это чат-бот Google с искусственным интеллектом (Изображение: gguy/Shutterstock)

Google и искусственный интеллект в Бразилии

  • Роял Хансен также рассказал о роли Бразилии в разработке и применении ИИ.
  • Для него страна — не только испытательная лаборатория, но и «двигатель подходов, которые будут широко использоваться».
  • Он отмечает, что это не просто место для проведения экспериментов, но и нахождение реальных решений на национальной почве.
  • Хансен считает, что Бразилия способна эффективно создавать глобальные инструменты конфиденциальности, защиты данных и кибербезопасности.
  • По его словам, для этого Google намерен нанимать и инвестировать в бразильских талантов. Royal Hansen также напоминает, что у компании уже есть команда ИИ в Белу-Оризонти.
По словам Хансена, пользовательские данные из инструментов Google Workspace не используются для обучения ИИ (Фото: Репродукция)

Использует ли Google личную информацию для обучения ИИ?

В настоящее время информация от Google и других разработчиков, таких как сама OpenAI, о способах обучения ИИ неясна. Например, невозможно узнать, используют ли компании интернет-контент, охраняемый авторским правом, или даже публикации отдельных лиц.

Недавно Google обновил условия использования, чтобы указать на возможное использование «общедоступных» данных при обучении ИИ. На вопрос, почему было внесено это изменение и не нарушит ли оно конфиденциальность пользователей, Роял Хансен снова заявил, что технологии постоянно меняются и что проблема обучения в настоящее время является проблемой разработки продукта. Он добавил, что «обычному человеку непросто понять все детали того, что подразумевается в этих вещах».

Однако вице-президент заверил, что данные, содержащиеся на личном рабочем столе пользователя Google, Workspace (включая Gmail, Docs, Drive и Sheets), не используются для обучения ИИ.

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *