Die Instanzsegmentierung von Fernerkundungsbildern kann gleichzeitig die objektbezogene Lokalisierung und die pixelgenaue Klassifizierung erreichen und stellt eine wichtige und äußerst herausfordernde Aufgabe dar. Die meisten aktuellen Instanzsegmentierungsmethoden für Fernerkundungsbilder basieren auf detaillierten pixelgenauen Annotationen, deren Erstellung kostenintensiv ist. Darüber hinaus erschweren die gemischten Vorder- und Hintergründe sowie die komplexen Objektkonturen in Fernerkundungsbildern die Segmentierung zusätzlich. Um diesen Herausforderungen zu begegnen, wurde in dieser Arbeit ein prioritätsgesteuertes System entwickelt, das für die schwachüberwachte Instanzsegmentierungsaufgabe von Fernerkundungsbildern geeignet ist, und ein auf mehreren Prioritäten basierendes schwachüberwachtes Instanzsegmentierungsnetzwerk vorgeschlagen. Konkret werden die Prioritätsinformationen in der schwachüberwachten Instanzsegmentierungsaufgabe von Fernerkundungsbildern nach ihrer Herkunft in Aufgabenpriorität und Bildpriorität unterteilt, wobei die Aufgabenpriorität aus der eng mit der Instanzsegmentierung verwandten Bounding-Box-Erkennungsaufgabe stammt, während die Bildpriorität aus der Zusammenfassung und Exploration der Bildinformationen selbst resultiert. Weiterhin wurden drei spezifische Komponenten entworfen, um die Aufgabenprioritätsinformationen zu konkretisieren: die Konsistenzbeschränkung der Rahmen-Masken-Projektion, die Pixel-Differenzierungsschwierigkeits-Charakterisierungsfunktion und die Zentralpositionsprioritätsbeschränkung, die das Netzwerk dazu treiben, die Größe der Maske zu bestimmen und sich voll auf wichtige Pixel und Regionen im Bild zu konzentrieren; zwei Komponenten zur Konstruktion der Bildprioritätsinformationen wurden ebenfalls entwickelt: die Nachbarschafts-Visuelle-Konsistenzbeschränkung und die Gradienten-Konsistenzbeschränkung, die es dem Netzwerk ermöglichen, Vorder- und Hintergrund effizient zu unterscheiden und sich an komplexe Objektkonturen in Fernerkundungsbildern anzupassen. Die experimentellen Ergebnisse auf optischen und SAR-Datensätzen für Fernerkundungsbilder zeigen, dass die vorgeschlagene Methode AP-Werte von 52,5 bzw. 54,1 ohne jegliche pixelgenaue Annotation erreicht, besser als bestehende schwachüberwachte Segmentierungsmethoden abschneidet und 89,3 % bzw. 84,3 % der Leistung des vollständig überwachten Mask R-CNN erreicht. Die Methode bietet eine leistungsstarke und kostengünstige Lösung für die fein granulare Interpretation von Fernerkundungsbildern.