Studie über Methoden zur Unmixing von Hyperspektralbildern basierend auf dem Mamba-Spektrum-Pyramiden-Aufmerksamkeitsnetzwerk

Hu Jiwei ,  

Tan Yangyang ,  

Jin Qiwen ,  

摘要

In den letzten Jahren haben lineare Unmixing-Modelle aufgrund ihrer Effizienz (einfache Berechnungen, Skalierbarkeit), ihres klaren physikalischen Sinns und ihrer einfachen Verarbeitung viel Aufmerksamkeit erregt. Unter den verschiedenen Methoden des linearen Unmixing hat die Technologie der Autoencoder in Bezug auf die Fähigkeit, Daten anzupassen und tiefe Merkmale zu extrahieren, signifikante Vorteile gezeigt. Dieser Ansatz hat jedoch auch bestimmte Einschränkungen. Beispielsweise verringert sich die Fähigkeit des Modells zur Verallgemeinerung aufgrund von Rauschen in den Daten; bei der Bearbeitung multi-skaliger Merkmale treten häufig redundanten Probleme auf; um eine lineare Berechnungskomplexität bei gleichzeitiger Beibehaltung einer langen Abhängigkeit zu gewährleisten, benötigen wir ein tiefes Verständnis der räumlichen und spektralen Merkmale. Um die oben genannten Probleme zu lösen, schlägt dieser Bericht ein Selbst-Aufmerksamkeits-Modul zur Verarbeitung von Hyperspektralbildern vor; gleichzeitig wird ein neues Modell für Hyperspektralbilder auf der Grundlage des Mamba-Modells vorgeschlagen, speziell haben wir einen räumlichen Mamba-Block zur Extraktion räumlicher Merkmale entworfen; auf spektraler Seite wird ein spektraler Mamba-Block vorgeschlagen, der den spektralen Vektor in mehrere Gruppen unterteilt, um Beziehungen zwischen verschiedenen spektralen Gruppen zu erforschen und spektrale Merkmale zu extrahieren. Durch die Integration dieser drei Blöcke in ein mehrstufiges Faltungsautoencoding-Netzwerk wurde ein mehrstufiges Mamba-Aufmerksamkeits-Unmixing-Framework (PSAMN, Phase-wise Mamba-Aufmerksamkeits-Unmixing-Framework) gebildet, das im Vergleich zu vorhandenen Algorithmen auf synthetischen und realen Hyperspektraldatensätzen eine höhere Wirksamkeit und Wettbewerbsfähigkeit aufweist.

关键词

Hyperspektral-Unmixing; Deep Learning; Selbst-Aufmerksamkeitsmodul; Mamba-Block

阅读全文