PDF
摘要
双时相遥感图像由于拍摄时间、角度和传感器等因素会产生各种伪变化,同时存在一些不感兴趣的变化,变化的位置通常与周边其他物体相关,采用全卷积神经网络会丢失长程信息.针对这一问题,提出了一种融合CNN(Convolutional Neural Networks)和Transformer的网络(C-T Net)模型.整体网络结构分为深度特征提取部分和检测头部分:网络主干部分将CNN和Swin Transformer相结合,设计融合模块Cto-T、T-to-C以聚合信息;检测头部分利用Transformer编码、解码,获得精细化的特征图以进行变化区域的判别.与多个变化检测模型相比,在LEVIR-CD数据集和WHU-CD数据集上F1_1(90.63%、86.24%)和pIoU_1(82.87%、75.81%)均为最高,在两个数据集上的结果表明,无论是可视化结果还是数据指标,与现有的方法相比,该模型具有一定的优越性.
关键词
Key words
C-T Net:融合CNN和Transformer的遥感图像变化检测模型[J].
华东师范大学学报(自然科学版), 2025, 0(4): 49-60 DOI: