A imagem hiperespectral HSI (Hyperspectral Image) pode capturar as características espectrais dos componentes do terreno, mas carece de informações tridimensionais, enquanto o LiDAR (Light Detection And Ranging) pode capturar informações de distância e altura dos objetos. Esses dois tipos de dados se complementam efetivamente e podem melhorar significativamente a precisão da classificação do reconhecimento de objetos. O modelo Mamba possui vantagens no aprendizado remoto de características e computação eficiente, mas atualmente há poucas pesquisas sobre a fusão e classificação de dados multimodais de sensoriamento remoto, apresentando problemas como perda de informações de múltiplas fontes e fusão insuficiente. Com base nisso, este artigo propõe uma rede de classificação colaborativa de fusão adaptativa de dados hiperespectrais e LiDAR baseada na estrutura Mamba. A rede inclui um módulo de atenção colaborativa de dois canais, empilhável e baseado na estrutura Mamba, que utiliza compartilhamento de parâmetros para promover o aprendizado mútuo entre as características de múltiplas fontes, alcançando maior precisão de classificação e melhor capacidade de generalização em tarefas de classificação. Os resultados experimentais mostram que o algoritmo proposto alcançou uma precisão geral de 99,33%, 91,74% e 94,94% nos conjuntos de dados Trento, Houston2013 e MUUFL, respectivamente, possibilitando uma extração e fusão mais eficientes das características de múltiplas fontes.
关键词
classificação de imagens de sensoriamento remoto; classificação colaborativa; fusão adaptativa; estrutura Mamba; compartilhamento de parâmetros; imagem hiperespectral; LiDAR; fusão de dados multimodais