Из-за фундаментального различия в принципе изображения синтетической апертурной радарной (SAR) картинки и оптической камеры, они проявляют заметные различия в радиационных и геометрических характеристиках, и их точное автоматическое сопоставление всегда было горячей темой академических исследований в мире. На сегодняшний день большинство методов сопоставления на основе глубокого обучения сосредоточены на извлечении глубоких функций изображения, но эти модели обычно игнорируют многомасштабное объединение функций и выражение общих функций, что приводит к недостаточной устойчивости и сложности работы с сложными и переменными сценами. Учитывая это, в данном исследовании был предложен метод сопоставления оптических и SAR-изображений, основанный на усилении глубокой перестройки функций. Этот метод основан на построении сети извлечения общей функции путем объединения многомасштабных глубинных функций и перестройки изображения. Во-первых, благодаря масштабированной архитектуре извлечения функций сеть может эффективно извлекать глубокие функции пары оптического и SAR-изображений на уровне пикселя. Во-вторых, была разработана ветвь трансляции ложного SAR-изображения для оптического изображения, которая использует глубокую перестройку изображения для усиления способности сети выражать общие функции. Наконец, была построена совместная функция потерь на основе сходства многократного сопоставления функций и средней квадратичной ошибки перестройки изображения, что привело к достижению устойчивого сопоставления оптических и SAR-изображений. В сравнительных экспериментах на наборах данных дистанционного зондирования различной разрешающей способности, содержащих различные земельные участки (городские, пригородные, пустынные, горные, водные), результаты показали, что предложенные методы всегда проявляют наивысшие показатели точности сопоставления по сравнению с некоторыми передовыми методами сопоставления.