Все о Искусственный интеллект
Недавний выпускник Дзюмпей Укита и профессор Кеничи Оки с кафедры физиологии Медицинской школы Токийского университета разработали и протестировали новый способ улучшить защиту искусственных нейронных сетей, сделав систему искусственного интеллекта (ИИ) более безопасной.
Для тех, кто спешит:
- Ученые Токийского университета разработали новую методику повышения безопасности искусственных нейронных сетей, улучшающую систему искусственного интеллекта;
- Вдохновленные исследованиями человеческого мозга, исследователи применили явление, наблюдаемое в искусственных нейронных сетях, чтобы сделать их более надежными;
- Метод предполагает введение случайного шума не только во входной слой, но и во внутренние слои сети, усиливая ее устойчивость к состязательным атакам;
- Этот подход выходит за рамки традиционных методов защиты и позволил создать более адаптируемую и устойчивую систему.
- Хотя этот метод был протестирован в моделировании состязательных атак, ученые планируют улучшить и расширить этот метод для защиты от еще более широкого спектра угроз.
Укита и Оки — учёные, которые занимаются не только компьютерными технологиями. Они также изучали человеческий мозг – и это вдохновило их использовать обнаруженный ими феномен в искусственной нейронной сети (ИНС).
Читать далее:
Исследование, опубликованное в журнале Neural Networks и опубликованное Токийским университетом, подчеркивает динамичный характер продолжающейся битвы между преступниками и защитниками в области искусственного интеллекта.
ИИ и мозг
Нейронные сети, вдохновленные биологическими нейронами мозга, составляют основу большинства систем искусственного интеллекта. Эти сети обрабатывают информацию через слои: входные данные поступают на один конец, а выходные данные — на другой. Они необходимы для принятия автоматических решений, например, в автономных транспортных средствах.
Однако эти сети не являются непогрешимыми. Их можно ввести в заблуждение намеренно или случайно, что приведет к неправильной интерпретации входных данных. Эта уязвимость вызывает беспокойство, особенно в таких важных приложениях, как медицинская диагностика и беспилотные автомобили.
Обычно стратегии защиты фокусируются на начальном входном слое, оставляя уязвимыми внутренние уровни. Но исследователи применили явление, наблюдаемое в мозге, к искусственным нейронным сетям.
Они ввели случайный шум в эти внутренние слои, чтобы повысить устойчивость сети. Этот подход выходит за рамки традиционных методов и обеспечивает более надежную систему. Добавляя шум не только ко входному слою, но и к более глубоким слоям, они повысили адаптивность без ущерба для нормального функционирования.
Их подход, протестированный в моделируемой состязательной атаке, оказался эффективным, значительно снизив уязвимость сети. Однако исследователи стремятся усовершенствовать и расширить этот метод для защиты от более широкого спектра атак.
Смотрели ли вы новые видео на YouTube от Olhar Digital? Подпишитесь на канал!