Система распознавания объектов на многоканальных изображениях дистанционного зондирования на основе глубоких нейронных сетей постепенно стала широко применяться в области космической разведки, автономной ситуационной осведомленности беспилотных боевых сред, многокомпонентного наведения и навигации и других военных сценариях. Однако ввиду неполноты теории глубокого обучения, инженерной утилизации проектирования структуры глубоких нейронных сетей и влияния всех видов помех в сложной электромагнитной среде на систему многоканального распознавания изображений, существует недостаточная оценка устойчивости атак существующей системы, что приводит к серьезным угрозам безопасности. В данной статье мы в первую очередь анализируем потенциальные риски безопасности из-за неполноты теории глубокого обучения и образцов атак на систему распознавания, и представляем основные принципы и типичные методы атаки на устойчивость глубоких моделей распознавания. Во-вторых, мы оцениваем устойчивость глубоких моделей распознавания к атакам на многоканальных изображениях дистанционного зондирования с точки зрения корректной вероятности распознавания и понятности в отношении атак. Оценка включает в себя девять типичных архитектур глубоких моделей распознавания и семь типичных образцов атаки на примеры глубоких моделей, подтверждает общий недостаток устойчивости глубоких моделей в сложных атаках, анализирует различия в скрытых активациях функций между образцами атак и обычными образцами, и предоставляет указания для следующего проектирования алгоритмов обнаружения образцов атаки и усиления устойчивости моделей к атакам.
关键词
Распознавание объектов на многоканальных изображениях дистанционного зондирования; Глубокие нейронные сети; Атаки; Визуализация функций; Оценка устойчивости к атакам