여러 소스의 다른 시기의 위성 이미지의 공간적 이질성 문제를 해결하기 위해, 본 연구에서는 FTN (Fully Transformer Network) 네트워크 모델을 개선하고, 슬라이딩 윈도우 및 컨볼루션 믹스 네트워크의 주의력이 발생하도록 변경된 건물 변화 감지 네트워크 모델, SWSACNet (Sliding-Window-Shift Attention Convolution mix Network) 을 제안하였다. SWSACNet은 FTN 모델의 프레임워크를 기반으로 하며, 다중 소스 이미지에서 붕괴된 건물 특성을 효율적으로 식별하기 위해 ACmix (Attention Convolution mix)를 사용하고, 슬라이딩 윈도우의 유사성 특성을 비교하여 다중 소스 이미지의 공간 위치 편향을 감소시킨다. 2023년 2월 6일 터키에서 발생한 Mw 7.8의 지진을 예로 들어, 지진 전 후의 고해상도 위성 사진 및 구글 이미지와 베이징 3 현상 후의 사진을 수집하여 붕괴된 건물 변화 감지 데이터 셋을 구성하고, SWSACNet, FTN 및 5 가지 모델을 훈련시켜 지진 지역의 변화를 감지하고 붕괴된 건물을 추출하였다. 실험 결과는 SWSACNet의 정확도 F1 스코어가 80.8%에 도달하고, mIoU는 67.8%로, 다른 4가지 모델보다 우수한 것으로 나타났다. 3Fevaipasa, Nurdagi 및 Islahiye의 시나리오에 적용했을 때, 모델의 평균 정확도 F1 스코어는 60.84%로, 일반화 성능이 향상되어야 함을 보여준다.