Hyperspektrale Bilder HSI (Hyperspectral Image) können spektrale Merkmale von Oberflächenkomponenten erfassen, fehlen jedoch dreidimensionale Informationen, während LiDAR (Light Detection And Ranging) Entfernungs- und Höheninformationen von Oberflächenkomponenten erfassen kann. Diese beiden Datentypen ergänzen sich effektiv und können die Genauigkeit der Objektklassifizierung erheblich verbessern. Das Mamba-Modell verfügt über Vorteile beim Fernmerkmallernen und bei effizienten Berechnungen, jedoch gibt es derzeit wenig Forschung zur multimodalen Fernerkundungsdatenfusion und -klassifikation, wobei Probleme wie fehlende multimodale Merkmale und unzureichende Fusion bestehen. Basierend darauf wird in diesem Artikel ein auf der Mamba-Struktur basierendes adaptives Fusions-Kollaborationsklassifikationsnetzwerk für hyperspektrale und LiDAR-Daten vorgeschlagen. Das Netzwerk umfasst ein stapelbares, auf der Mamba-Struktur basierendes zweikanaliges kooperatives Aufmerksamkeitsmodul, das durch Parameterfreigabe das gegenseitige Lernen zwischen multimodalen Merkmalen fördert und somit eine höhere Klassifikationsgenauigkeit und bessere Generalisierungsfähigkeit in Klassifikationsaufgaben erzielt. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus Gesamtgenauigkeiten von 99,33 %, 91,74 % und 94,94 % auf den Datensätzen Trento, Houston2013 und MUUFL erreicht und multimodale Merkmale effizienter extrahieren und fusionieren kann.