Das Mangrovensumpfgebiet ist eines der artenreichsten und produktivsten marinen Ökosysteme und die feine Klassifizierung von Mangrovensumpfgesellschaften unter Verwendung von hochauflösenden Fernerkundungsbildern und tiefem Lernen ist zu einem aktuellen Forschungs- und Schwierigkeitspunkt geworden. In diesem Artikel wird ein neuartiges tiefes Lernnetzwerkmodell vorgestellt, ein visueller Wandler auf der Basis des Fensteraufmerksamkeitsmechanismus und des Hohlraumes SSAFormer (Swin-Segmentation-Atrous-Transformer) zur feinen Klassifizierung von Mangrovensumpfgesellschaften. Das Modell basiert auf einer Variante des Visuellen Transformators, dem Swin Transformer, und integriert in das Hauptnetzwerk ein CNN (Convolutional Neural Network) sowie Atrous Spatial Pyramid Pooling (ASPP) zur Extraktion von mehrskaligen Merkmalen, und in den leichtgewichtigen Decoder wird eine Feature Pyramid Network (FPN) Struktur eingebettet, um reiche semantische Merkmalinformationen aus den unteren und oberen Schichten zu verschmelzen. In dieser Arbeit wurden drei Arten von passiven und aktiven Fernerkundungsdatensätzen durch die Konstruktion von multispektralen Bildern des Satelliten Gaofen-7 (GF-7) und UAV-LiDAR-Punktwolken erstellt und die Klassifizierungsergebnisse des SegFormers und des Swin Transformer-Algorithmus, der in dieser Studie verbessert wurde, verglichen und analysiert, um die Klassifizierungsleistung des SSAFormer-Algorithmus für die Mangrovensumpfgesellschaften weiter zu demonstrieren. Die Ergebnisse zeigen: (1) Im Vergleich zu SegFormer erreicht SSAFormer eine feine Klassifizierung des Mangrovensumpfes, die Gesamtgenauigkeit OA (Overall Accuracy) steigt um 1,77% - 5,30%, der maximale Kappa-Koeffizient beträgt 0,8952 und der durchschnittliche Benutzerüberschneidungskoeffizient MIoU (Mean Intersection over Union) steigt um maximal 7,68%. (2) Im multispektralen Datensatz von GF-7 erreicht der SSAFormer-Algorithmus eine maximale Gesamtgenauigkeit (OA) von 91%, im UAV-LiDAR-Datensatz steigt der MIoU des SSAFormer-Algorithmus auf 57,68%, und im UAV-LiDAR-Datensatz mit spektralen Merkmalen steigt der durchschnittliche MIoU des SSAFormer-Algorithmus um 1,48%. (3) Im Vergleich zu den multispektralen Daten von GF-7 steigt der durchschnittliche Benutzerüberschneidungskoeffizient (MIoU) der UAV-LiDAR-Daten um 5,35%, die durchschnittliche Genauigkeit OA steigt um 1,81% und die Klassifizierungsgenauigkeit (F1-Score) der UAV-LiDAR-Daten mit spektralen Merkmalen steigt um 2,6%. (4) Der SSAFormer-Algorithmus dieser Studie erreicht eine maximale Klassifizierungsgenauigkeit (F1-Score) von 97,07% für Heritiera littoralis, eine Klassifizierungsgenauigkeit (F1-Score) von 91,99% für Barringtonia asiatica und eine F1-Score von 93,64% für Avicennia marina. Der durchschnittliche F1-Score von Barringtonia asiatica auf dem SSAFormer-Modell erreicht einen Höchstwert von 86,91%. Der in dieser Studie vorgestellte SSAFormer-Algorithmus kann die Klassifizierungsgenauigkeit von Mangrovensumpfgesellschaften effektiv verbessern.
关键词
Fernerkundung;Mangrovensumpf;GF-7 Multispektral;UAV-LiDAR Punktwolken;SSAFormer;Tiefes Lernen;Integration von passiven und aktiven Bildern;Merkmalsauswahl;Feine Klassifizierung von Gemeinschaften