Недавний выпускник Дзюмпей Укита и профессор Кеничи Оки с кафедры физиологии Медицинской школы Токийского университета разработали и протестировали новый способ улучшить защиту искусственных нейронных сетей, сделав систему искусственного интеллекта (ИИ) более безопасной.

Для тех, кто спешит:

  • Ученые Токийского университета разработали новую методику повышения безопасности искусственных нейронных сетей, улучшающую систему искусственного интеллекта;
  • Вдохновленные исследованиями человеческого мозга, исследователи применили явление, наблюдаемое в искусственных нейронных сетях, чтобы сделать их более надежными;
  • Метод предполагает введение случайного шума не только во входной слой, но и во внутренние слои сети, усиливая ее устойчивость к состязательным атакам;
  • Этот подход выходит за рамки традиционных методов защиты и позволил создать более адаптируемую и устойчивую систему.
  • Хотя этот метод был протестирован в моделировании состязательных атак, ученые планируют улучшить и расширить этот метод для защиты от еще более широкого спектра угроз.

Укита и Оки — учёные, которые занимаются не только компьютерными технологиями. Они также изучали человеческий мозг – и это вдохновило их использовать обнаруженный ими феномен в искусственной нейронной сети (ИНС).

Читать далее:

Исследование, опубликованное в журнале Neural Networks и опубликованное Токийским университетом, подчеркивает динамичный характер продолжающейся битвы между преступниками и защитниками в области искусственного интеллекта.

ИИ и мозг

Искусственный интеллект и человеческий мозг
(Изображение: whiteMocca/Shutterstock)

Нейронные сети, вдохновленные биологическими нейронами мозга, составляют основу большинства систем искусственного интеллекта. Эти сети обрабатывают информацию через слои: входные данные поступают на один конец, а выходные данные — на другой. Они необходимы для принятия автоматических решений, например, в автономных транспортных средствах.

Однако эти сети не являются непогрешимыми. Их можно ввести в заблуждение намеренно или случайно, что приведет к неправильной интерпретации входных данных. Эта уязвимость вызывает беспокойство, особенно в таких важных приложениях, как медицинская диагностика и беспилотные автомобили.

Обычно стратегии защиты фокусируются на начальном входном слое, оставляя уязвимыми внутренние уровни. Но исследователи применили явление, наблюдаемое в мозге, к искусственным нейронным сетям.

Они ввели случайный шум в эти внутренние слои, чтобы повысить устойчивость сети. Этот подход выходит за рамки традиционных методов и обеспечивает более надежную систему. Добавляя шум не только ко входному слою, но и к более глубоким слоям, они повысили адаптивность без ущерба для нормального функционирования.

Их подход, протестированный в моделируемой состязательной атаке, оказался эффективным, значительно снизив уязвимость сети. Однако исследователи стремятся усовершенствовать и расширить этот метод для защиты от более широкого спектра атак.

Смотрели ли вы новые видео на YouTube от Olhar Digital? Подпишитесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *