Die automatische Extraktion von Straßen aus Fernerkundungsbildern hat breite Anwendungsperspektiven in Bereichen wie Smart Cities, Smart Transportation und autonomes Fahren. Die automatische Extraktion von Straßen aus hochauflösenden Fernerkundungsbildern hat jedoch Probleme mit Fragmentierung, schlechter Konnektivität, und die vollständige Extraktion von Straßen bleibt eine Herausforderung. Um diese Probleme zu lösen, wurde ein verbessertes Encoder-Decoder-Netzwerk namens SAMSNet vorgeschlagen. Zunächst verwenden wir das Split-Attention Network (ResNeSt-50) als Encoder, um überkreuzende Kanäle zur Extraktion semantischer Informationen aus dem Bild zu verwenden und eine hochwertige Merkmalrepräsentation zu erreichen. Dann führen wir parallele assoziative Faltungseinheiten ein, die die Fähigkeit des Netzwerks zur Wahrnehmung von kontextbezogenen Informationen in mehreren Skalen erhöhen, während der Wahrnehmungsbereich erweitert wird. Schließlich führen wir in der Sprungverbindungsteil einen multiskaligen kanalbasierten Aufmerksamkeitsmodul (MS-CAM) ein, der sich gleichzeitig auf globale und lokale Informationen von Straßen konzentriert, um dem Netzwerk zu helfen, Straßen bei extremen Maßstabsänderungen zu erkennen und zu erkennen. Während der Experimente mit den Datensätzen DeepGlobe Road, Massachusetts Road und GRSet zeigten die Ergebnisse, dass SAMSNet in den drei öffentlichen Datensätzen andere Vergleichsmodelle bei Bewertungsindizes wie IoU und F1-Score übertroffen hat und die besten Ergebnisse bei der Extraktion erzielt hat.