基于双域Transformer耦合特征学习的CT截断数据重建模型

汪辰 ,  蒙铭强 ,  李明强 ,  王永波 ,  曾栋 ,  边兆英 ,  马建华

南方医科大学学报 ›› 2024, Vol. 44 ›› Issue (05) : 950 -959.

PDF (1909KB)
南方医科大学学报 ›› 2024, Vol. 44 ›› Issue (05) : 950 -959. DOI: 10.12122/j.issn.1673-4254.2024.05.17
技术方法

基于双域Transformer耦合特征学习的CT截断数据重建模型

作者信息 +

Reconstruction from CT truncated data based on dual-domain transformer coupled feature learning

Author information +
文章历史 +
PDF (1953K)

摘要

目的 为解决CT扫描视野(FOV)不足导致的截断伪影和图像结构失真问题,本文提出了一种基于投影和图像双域Transformer耦合特征学习的CT截断数据重建模型(DDTrans)。 方法 基于Transformer网络分别构建投影域和图像域恢复模型,利用Transformer注意力模块的远距离依赖建模能力捕捉全局结构特征来恢复投影数据信息,增强重建图像。在投影域和图像域网络之间构建可微Radon反投影算子层,使得DDTrans能够进行端到端训练。此外,引入投影一致性损失来约束图像前投影结果,进一步提升图像重建的准确性。 结果 Mayo仿真数据实验结果表明,在部分截断和内扫描两种截断情况下,本文方法DDTrans在去除FOV边缘的截断伪影和恢复FOV外部信息等方面效果均优于对比算法。 结论 DDTrans模型可以有效去除CT截断伪影,确保FOV内数据的精确重建,同时实现FOV外部数据的近似重建。

Abstract

Objective To propose a CT truncated data reconstruction model (DDTrans) based on projection and image dual-domain Transformer coupled feature learning for reducing truncation artifacts and image structure distortion caused by insufficient field of view (FOV) in CT scanning. Methods Transformer was adopted to build projection domain and image domain restoration models, and the long-range dependency modeling capability of the Transformer attention module was used to capture global structural features to restore the projection data information and enhance the reconstructed images. We constructed a differentiable Radon back-projection operator layer between the projection domain and image domain networks to enable end-to-end training of DDTrans. Projection consistency loss was introduced to constrain the image forward-projection results to further improve the accuracy of image reconstruction. Results The experimental results with Mayo simulation data showed that for both partial truncation and interior scanning data, the proposed DDTrans method showed better performance than the comparison algorithms in removing truncation artifacts at the edges and restoring the external information of the FOV. Conclusion The DDTrans method can effectively remove CT truncation artifacts to ensure accurate reconstruction of the data within the FOV and achieve approximate reconstruction of data outside the FOV.

Graphical abstract

关键词

CT截断伪影 / Transformer / 深度学习 / 双域

Key words

CT truncation artifacts / transformer / deep learning / dual-domain

引用本文

引用格式 ▾
汪辰,蒙铭强,李明强,王永波,曾栋,边兆英,马建华. 基于双域Transformer耦合特征学习的CT截断数据重建模型[J]. 南方医科大学学报, 2024, 44(05): 950-959 DOI:10.12122/j.issn.1673-4254.2024.05.17

登录浏览全文

4963

注册一个新账户 忘记密码

CT目前已被广泛应用于疾病诊断、放射治疗计划制定、手术导航等临床任务中,具备高时间、高空间分辨率等优点。但在实际CT扫描中,由于探测器尺寸的限制和降低辐射剂量的需求,测量数据可能会在探测器方向采样不足,这种情况称为数据截断。根据数据截断范围,可以分为以下两种情况:①部分扫描角度下的投影截断1。例如患者部分超出CT探测器的可测量范围,或者放置在患者身上的外部基准标记物无法完全位于扫描视野(SFOV)内2。这种情况通常是由于患者体型过大或者摆位不正确导致的。②感兴趣区域(ROI)重建3。在特定临床应用中,如心脏扫描、牙科CT根管治疗以及对植入物的跟踪检查,通过准直器限制X射线束的SFOV,仅对局部区域进行内扫描,可以达到降低患者所受辐射剂量的目的4。然而,直接采用滤波反投影算法(FBP)对上述截断数据进行重建时,会在重建图像ROI边缘处引入锐利白色的截断伪影,导致FOV内CT值漂移,FOV外解剖结构完全失真,难以满足临床诊断需求。
针对截断伪影校正问题,传统研究方法主要分为以下3类:投影数据外插法、基于优化滤波的截断数据重建算法,基于迭代的截断数据重建算法。然而,投影数据外插法5-7会在重建图像FOV边缘处引入二次伪影,并且不精确的近似外插无法解决FOV内CT值偏移的问题,此外,该方法对于严重截断的内扫描数据校正效果有限;基于优化滤波的截断数据重建算法,例如微分反投影(DBP)算法8及其变体9-11,以及Xia等12提出的近似截断伪影抑制(ATRACT)算法,此类方法对滤波方案进行优化,使得算法本质上对数据截断不敏感,但由于改变了滤波步骤,其重建结果会产生较严重的CT值漂移;当内部ROI可以表示为分段常数或分段多项式时,基于迭代的截断数据重建算法可以实现精确重建13-15,但在实际扫描过程中,投影数据通常含有噪声,基于TV约束的重建结果存在边缘不清晰、微小结构表达能力差、块状伪影等问题。此外,上述基于迭代和优化滤波的方法都只能提高FOV内的图像质量,而FOV外的解剖结构仍然失真。
近年来,深度学习在CT重建方面取得了令人瞩目的成果。在内重建领域,有研究提出使用DBP重建图像代替FBP重建图像作为U-Net的输入,使得网络对不同大小ROI具有更好的泛化能力16。Li等17提出的iCT-Net通用网络架构可以直接从截断数据学习内重建图像。对于扩展FOV(eFOV)重建,有研究将U-Net应用到线性外插投影重建图像的后处理中18,实现了FOV外图像质量的提升。Huang等19提出的PnP截断校正框架,集成了测量数据的数据一致性和网络学习到的先验图像信息,比单纯图像后处理的深度学习网络具有更好的鲁棒性和可解释性。以上成果表明深度学习在CT截断数据重建中的应用前景广阔。然而,上述方法仍存在一些局限性:直接使用网络做图像域后处理,虽然可以实现截断伪影校正,但忽略了重建过程的约束,无法获得最优结果;此外,PnP方法将图像域深度学习网络嵌入到传统迭代重建模型中,存在超参数选择困难的问题,降低了其在实际应用中的泛化能力。
鉴于此,受投影数据外插类算法和Transformer模型应用于医学图像恢复任务的启发20,本文提出了基于投影和图像双域Transformer耦合特征学习的CT截断数据重建模型(DDTrans),以解决不同截断程度数据的FOV内精确重建和eFOV图像近似重建问题。该方法首先利用Transformer网络捕获投影数据全局相似性,对线性外插后的投影数据进行恢复,得到近似非截断的投影;然后,构建可微FBP层对网络恢复的投影数据进行重建,使得双域网络能够进行端到端训练;最后,通过图像域Transformer网络提取全局图像信息来消除由于投影误差引入的全局伪影;此外,为保持投影数据一致性,本文构建前投影数据损失来进一步提升重建图像的准确性。Mayo仿真数据实验结果表明,本文方法重建结果明显优于对比方法,其优越性体现在以下两点:有效去除图像FOV内截断引起的杯状伪影,同时确保CT值的准确性;更准确的eFOV图像重建,为临床诊断提供更丰富的解剖结构信息。

1 材料和方法

截断伪影的产生,是由于FBP框架下的滤波操作具有非局部性,对投影的任意点进行滤波时,需要知道SFOV完全覆盖物体时探测器上的线积分值,而部分截断和内扫描数据(图1)均不满足这一条件。针对上述问题,本文提出了基于投影和图像双域Transformer耦合特征学习的截断数据重建模型——DDTrans,不仅去除了投影截断相关的伪影,且将重建FOV扩展到扫描仪定义的SFOV之外。

1.1 整体框架

针对CT截断数据重建问题,一种有效的方法是从数据角度出发,通过投影外插避免数据的截断。基于此,本文提出了DDTrans模型(图2),该模型包括4个模块:投影域恢复网络(S-Net),FBP重建层(FBP-L),图像域恢复网络(I-Net)和投影数据一致性约束层(FP-L)。

对于输入的截断投影数据ptruncRH×W,首先对其最外侧通道沿探测器方向做线性插值,得到线性外插后的投影pLIR(H+2C)×W,其中C表示投影单侧外插通道数。然后,将pLI输入投影域恢复网络S-Net,对外插区域投影数据进行恢复,获得近似非截断的投影数据p^full。为避免网络对原始投影的修改,保留原始测量的投影数据,用ptrunc替换p^full 中相应的FOV内数据,再经FBP-L重建获得eFOV图像I^RM×N。其中,FBP-L由滤波和反投影两步操作构成,用于实现投影的解析重建,该模块首先利用Ram-Lak滤波器在傅里叶域对p^full 进行滤波,然后将滤波后的投影沿每个投影角度反投影至图像域。为去除投影误差导致的图像全局伪影,构建图像域网络I-Net对I^做二次恢复,进一步提升图像质量,并输出网络预测结果IoutRN×N。由于这3步网络是单向映射的,缺乏原始截断数据的自监督,因此,受对偶学习21框架启发,构建投影数据一致性约束层(FP-L),将重建图像Iout前投影到虚拟截断探测器,获得投影p^truncRH×W,前投影结果需与输入的截断投影ptrunc相一致,从而确保ROI内部的精确重建以及eFOV图像的准确性。其中,FBP-L和FP-L是利用PyTorch深度学习库Torch-radon22中可微的扇形束几何FBP重建算子和前投影算子构建的,分别用于投影数据p^full 的重建和图像Iout的前投影,同时允许在网络前向传播过程中保留梯度,可以在深度学习框架中高效地处理CT图像重建任务。

损失函数包含三部分:投影域损失S-Net、图像域损失I-Net和投影数据一致性损失PC。本文使用L2损失训练模型。其中,S-Net只对外插区域求损失:

S-Net=12C×W[i=1Cj=1WfS-NetPLIi,j-pgti,j22+i=H+CH+2Cj=1WfS-NetPLIi,j-pgti,j22]                      
         I-Net=1N2i=1Nj=1NfI-NetI^i,j-Igti,j22 

其中,fS-NetPLI表示S-Net的输出结果,fI-NetI^表示I-Net的输出结果。pgt是全视野扫描获得的未截断的投影数据,Igt是不含截断伪影的全视野扫描图像。投影一致性(PC)损失用于约束网络输出图像的前投影结果,帮助提升eFOV图像的准确性:

PC=1HWi=1Hj=1Wp^trunci,j-ptrunci,j22 

则总的损失函数可表示为:

=λ1LS-Net+λ2LI-Net+λ3LPC          

其中,λ1λ2λ3为损失函数权重,总和为1。

1.2 基于Transformer的数据恢复网络

相比于CNN,基于自注意(SA)的Transformer不受卷积运算感受野的限制,可以对图像中的远距离像素关系建模,并且对给定输入内容的适应性很强20。鉴于此,本实验为实现更精确的投影数据恢复和图像域二次恢复,选择Restormer23作为S-Net和I-Net的基础网络。由于Transformer模型的计算复杂度随着空间分辨率的增加而呈二次曲线增长,因此不适用于大多数的图像恢复任务。而Restormer网络在模块(多头自注意和前馈网络)中进行了有效设计,可以根据整幅图像的通道空间计算SA,使其能够捕获远距离像素交互,同时仍然适用于大图像。具体模块结构可参考文献[23]。

该网络采用带有全局残差的U-Net架构(图2),使用4级编-解码器在投影和图像上进行多尺度局部-全局表征学习,并且不用将数据分解为局部窗口。对于输入网络的投影或图像,首先应用卷积得到浅层特征F0,然后经过4级对称编-解码器,转换为深层特征Fd。每一级编解码器包含多个Transformer块。为了帮助恢复,编码器特征通过跳跃连接与解码器特征级联,并输入1×1卷积层进行特征融合。然后经Transformer块细化,最后通过3×3卷积恢复原始通道数,与输入相加得到输出。

1.3 实验设计

1.3.1 实验数据集

实验所使用的数据集是来自Mayo Clinic公开数据集中的全剂量数据24,包含10例不同患者的1 mm层厚胸腹部CT图像数据。该数据集管电压为120 kV或100 kV,有效管电流为200 mAs,图像矩阵大小为512×512,层厚为1 mm。本实验选择其中8例患者的5860张CT图像用于网络训练,2例患者的1086张图像用于验证和测试。使用torch-radon库仿真全视野扫描、部分截断和内扫描的投影数据,具体地,将图像前投影到探测器单元个数为672的虚拟探测器,获得非截断投影作为标签数据,然后通过裁剪非截断投影数据外部区域获得探测器单元个数为384(部分截断)和272(内扫描)的截断投影数据作为网络输入。其余仿真参数设置如下:使用扇形束几何仿真,X射线源到旋转中心的距离为1195.0 mm,旋转中心到探测器阵列的距离为350.6 mm,投影角度为1152,在360°的扫描内均匀分布。此外,为测试模型在其他数据集上的泛化能力,我们还使用了“Low-dose CT image and projection dataset”数据集25对模型泛化性能进行分析。

1.3.2 实验设置

本文DDTrans网络是基于PyTorch26框架搭建的,在显存为48 G的NVIDIA RTX A6000 GPU上进行训练,采用Adam优化器,初始学习率设置为3e-4,通过余弦退火法逐渐降低到1e-4,批处理参数(Batch size)设置为1,迭代次数(Epoch)设置为200。S-Net和I-Net均使用相同的网络结构,从1级到4级Transformer块的数量设置为[4,6,6,8],通道数为[16,32,64,128]。根据双域网络预实验可知,图像域对于实验结果影响更大,为平衡双域网络在整个任务中的贡献,损失函数权重λ1λ2λ3根据经验分别设置为0.2、0.6、0.2。本文的目标是在投影域学习具有丰富表达能力的特征,对截断投影进行更准确地外推,实现伪影去除和FOV外解剖结构恢复,然而,轻微的投影误差会导致图像全局伪影。因此,我们为图像域分配了更高的权重,通过图像域网络提取全局信息来消除由于投影误差引入的全局伪影,以获得更优的结果。

1.3.3 对比方法及评估指标

为验证DDTrans在CT截断数据FOV内精确重建和FOV外近似重建方面的优越性,本文选择了不同类型的方法进行比较。其中,传统算法包括基于优化滤波的ATRACT12重建算法,基于投影数据外推的水柱拟合方法(WCE)6;基于深度学习的算法包括图像后处理方法ES-UNet18,双域GAN网络(DGAN),以及微分反投影数据作为输入的OneNetDBP16。上述方法均使用相同的训练数据进行训练。本文选取了均方根误差(RMSE)、特征相似度(SSIM)、峰值信噪比(PSNR)3个定量指标来对重建结果FOV内和FOV外恢复效果分别进行定量比较。

2 结果

2.1 对比实验

2.1.1 实验一:部分截断

部分截断情况下不同解剖位置的对比实验结果中,红色虚线圆圈为FOV边界,左下角和右下角的矩形方框内是感兴趣区域的局部放大细节图(图3)。结果显示,直接采用FBP算法重建截断投影数据,会在图像FOV边界处引入锐利白色的截断伪影,导致FOV内CT值严重偏移,且FOV外解剖结构完全缺失。ATRACT方法虽然可以有效去除伪影,但由于滤波的改变,重建结果CT值会发生偏移,需要进行额外的CT值校正步骤,图中所示为校正后结果,并且由于数据截断,该算法无法恢复FOV外部的结构。WCE虽然可以显著减少截断伪影,但由于投影外推区域拟合曲线的计算需要依赖截断位置处的衰减值,因此eFOV图像恢复效果较差,难以辅助确定ROI的相对位置,并且由于投影外插不精确,重建结果CT值仍存在偏移,尤其是在FOV边缘处误差最大。ES-UNet使用线性外插后投影重建的FOV内图像替换网络输出的相应部分来确保FOV内信息不受网络影响,没有考虑来自FOV外部信息的贡献,因此FOV内CT值偏差较大,并且在FOV边缘处存在强度不连续的问题。

OneNetDBP通过网络学习希尔伯特逆变换过程,重建图像CT值漂移严重,组织结构恢复效果较差,存在结构错误的情况。DGAN可以较好地恢复出eFOV图像,但在FOV边缘处仍存在部分阴影伪影。相比之下,DDTrans可以更好地保持FOV内信息,FOV外结构恢复效果也更优,并且没有引入新的伪影。分析图像所示红色实线位置处的剖面线(图4),与对比方法结果相比,本文方法的剖面线值与真值图像最接近,几乎重叠。不同方法在所有测试集图像(包括胸腹部图像层)上FOV内和FOV外的RMSE、SSIM、PSNR定量指标结果显示(表1),本文提出的DDTrans模型表现最优,6个定量指标相较于次优算法分别提升了75.42%、15.70%、1.57%、3.73%、25.36%和16.12%。

2.1.2 实验二:内重建

内扫描情况下不同解剖位置的对比实验结果显示(图5),当直接采用FBP算法重建内扫描数据时,FOV内部的信息完全被截断伪影淹没。各对比方法都可以较好地去除截断伪影,但仍存在局限性。ATRACT算法重建图像的CT值严重漂移;WCE算法做投影外插时需要至少1个非截断投影角度下的总衰减值作为先验信息,对于内扫描数据校正效果有限;随着截断程度的增加,ES-UNet方法的强度不连续问题加重;OneNetDBP获得的eFOV图像由网络随机生成,缺乏投影数据约束,恢复效果较差,无法辅助定位ROI或恢复体外基准标记物形状;DGAN结果仍存在较明显的阴影伪影。而本文提出的DDTrans模型有效去除了截断伪影,FOV边界处信息保持完整,eFOV图像表征与常规CT图像也更为接近。分析内扫描情况下不同方法在所有测试集图像上FOV内和FOV外的RMSE、SSIM、PSNR定量指标结果均值(表2),其中DDTrans的6个定量指标相较于次优算法分别提升了72.96%,13.30%,3.14%,3.16%,28.30%和10.36%。

2.2 消融实验

对单投影域网络(S-Net)、单图像域网络(I-Net)、不加PC约束层的双域网络(w/o PC)3种情况下的重建结果进行对比。结果显示,使用双域网络并加入投影一致性损失可以进一步改善eFOV图像质量,且FOV边缘处的信息保持效果更优(图6)。DDTrans具有更低的RMSE,更高的SSIM和PSNR(表3)。

2.3 模型泛化能力评估

对比部分截断情况下不同算法在“Low-dose CT image and projection dataset”肩部仿真数据上的测试结果,结果显示(图7),相比于其他对比方法,DDTrans重建的eFOV图像与真值数据最为接近。定量指标同样证明了其优越性(表4)。

2.4 算法重建时间对比

对比不同算法处理526层维度为512×512的部分截断数据所需时间,结果显示,本文提出的DDTrans模型用时最短,仅为40.6 s;OneNetDBP用时则最多,为353.5 s(表5)。

3 讨论

由于受到CT检查中放射剂量以及探测器尺寸的限制,基于截断数据的断层扫描成像技术对现代医学有着重要的实际应用价值。为解决截断数据重建引入的截断伪影和图像结构失真问题,本文提出了基于双域Transformer的DDTrans模型。该方法将截断数据重建问题转化为投影域和图像域数据的恢复问题,并引入可微的投影一致性约束层来进一步改善eFOV图像质量。

本文采用Mayo仿真数据集进行评估,结果显示,针对截断数据FOV内的精确图像重建以及eFOV图像的近似重建问题,虽然已取得部分研究成果,但现有的校正算法仍存在诸多问题:(1)缺少统一的伪影校正模型。现有方法都有各自的适用范围,对于不同截断程度的投影数据重建以及eFOV图像的恢复普适性较差。ATRACT方法虽然可以有效去除伪影,但由于数据截断,该算法无法实现eFOV图像的近似重建,且需要进行额外的CT值校正;WCE方法做投影外插依赖于截断位置处衰减值,eFOV恢复效果不稳定,而在内扫描情况下,该算法需要至少一个非截断投影角度下的总衰减值作为先验信息,校正效果有限;深度学习方法ES-UNet使用图像域网络做后处理实现截断伪影校正,在部分截断情况下可以有效去除伪影,同时实现eFOV图像的近似重建,但由于忽略了重建过程的约束,无法获得最优的成像结果,尤其是在截断严重时,eFOV图像缺乏辅助诊断价值;OneNetDBP使用DBP重建图像代替FBP重建图像作为U-Net的输入,对不同截断程度数据重建具有更好的泛化能力,但组织结构保真效果较差;DGAN采用双域GAN模型来重建eFOV图像,相比于其他对比方法,可以取得较好的结果,但仍不可避免地引入了二次伪影,恢复效果不够理想。而本文提出的DDTrans可以有效克服上述方法的不足,对于部分扫描角度下截断的投影数据和内扫描数据,均可以获得更好的重建结果。此外,模型泛化能力评估结果表明,DDTrans模型对于未参与训练的数据集也具有较好的泛化能力;(2)未考虑外部数据对FOV内图像精确重建的影响。由于每个角度下的射线都会穿过整个物体,而不仅仅是ROI27,在投影截断的情况下,这些来自外部的信息会阻碍截断投影的精确重建,因此,需要通过更精确的投影外插来进一步保证FOV内数据的准确性。例如,WCE方法由于投影外插效果不稳定,导致重建数值准确性较差,特别是在FOV边缘区域误差较大;ES-UNet用线性外插后投影重建图像的FOV内数据替换网络输出图像的相应部分,没有考虑FOV外部信息的影响,因此在FOV边缘处存在强度不连续问题;DGAN提升了投影外插效果,获得了较好的eFOV图像,但在FOV边界的过渡区域存在阴影伪影。而DDTrans采用Transformer模型学习双域耦合特征,实现了更精确的投影外插,可以获得更具辅助诊断价值的eFOV图像,同时确保了FOV内数据的精确重建。

本文所提方法的优势在于:(1)采用基于双域Transformer的截断数据重建模型。将截断数据重建问题转化为投影域和图像域数据的恢复问题,其中投影域Transformer网络用于实现投影数据的精确外插,图像域Transformer用于校正投影误差产生的全局图像伪影数据恢复。通过融合投影域和图像域信息提升了图像重建质量,并有效减少了二次伪影;(2)采用Transformer模型实现投影数据外插。区别于传统CNN网络只能提取局部空间特征,Transformer是一种基于SA的模型,该模型对图像中远距离像素关系具有很强的建模能力,并且对给定输入内容的适应性强,有助于更好地恢复截断投影未测量区域的数据,从而提高了输出图像的保真度;(3)引入可微的投影一致性约束层来确保eFOV图像的投影与原始输入投影的一致性。受对偶学习框架启发,DDTrans采用闭环网络重建框架。消融实验结果表明,该框架可以有效去除截断伪影,同时进一步提升FOV外失真组织结构的恢复效果。

本研究也存在不足之处:首先,由于目前缺乏临床实验数据,本文未针对真实部分截断数据和内扫描数据进行算法评估,在未来工作中需补充采集临床数据,并引入eFOV图像的临床医生评分以及实验结果的统计学分析;其次,由于本文提出的DDTrans模型采用了可微的FBP算子,并设置了固定的重建参数,所以无法测试不同截断程度(即不同重建参数)下模型的泛化能力,在未来工作中可以通过优化网络,来解决可变视野下的截断数据重建问题。

综上所述,本文提出的DDTrans方法采用Transformer网络构建双域CT截断数据重建模型,并引入投影一致性损失来约束图像前投影结果,有效去除了截断伪影,确保FOV内数据的精确重建,同时实现FOV外部数据的近似重建,可以提供更广泛的上下文信息,帮助医生更精确地定位ROI,这对复杂解剖结构或较小的病变有益28,并且为图像引导治疗提供所需的外部基准标记物信息,例如在脊柱导航辅助手术29中,通过改善FOV外的图像质量有利于提高标记物检测的准确性。

参考文献

[1]

曾更生. 医学图像重建[M]. 北京: 高等教育出版社, 2010.

[2]

Fan FX, Kreher B, Keil H, et al. Fiducial marker recovery and detection from severely truncated data in navigation-assisted spine surgery[J]. Med Phys, 2022, 49(5): 2914-30. DOI: 10.1002/mp.15617

[3]

Wang G, Yu HY, De Man B. An outlook on X-ray CT research and development[J]. Med Phys, 2008, 35(3): 1051-64. DOI: 10.1118/1.2836950

[4]

Kudo H, Suzuki T, Rashed EA. Image reconstruction for sparse-view CT and interior CT-introduction to compressed sensing and differentiated backprojection[J]. Quant Imaging Med Surg, 2013, 3(3): 147-61. DOI: 10.3978/j.issn.2223-4292.2013.06.01

[5]

Ohnesorge B, Flohr T, Schwarz K, et al. Efficient correction for CT image artifacts caused by objects extending outside the scan field of view[J]. Med Phys, 2000, 27(1): 39-46. DOI: 10.1118/1.598855

[6]

Hsieh J, Chao E, Thibault J, et al. A novel reconstruction algorithm to extend the CT scan field-of-view[J]. Med Phys, 2004, 31(9): 2385-91. DOI: 10.1118/1.1776673

[7]

Sourbelle K, Kachelriess M, Kalender WA. Reconstruction from truncated projections in CT using adaptive detruncation[J]. Eur Radiol, 2005, 15(5): 1008-14. DOI: 10.1007/s00330-004-2621-9

[8]

Noo F, Clackdoyle R, Pack JD. A two-step Hilbert transform method for 2D image reconstruction[J]. Phys Med Biol, 2004, 49(17): 3903-23. DOI: 10.1088/0031-9155/49/17/006

[9]

Kudo H, Courdurier M, Noo F, et al. Tiny a priori knowledge solves the interior problem in computed tomography[J]. Phys Med Biol, 2008, 53(9): 2207-31. DOI: 10.1088/0031-9155/53/9/001

[10]

Courdurier M, Noo F, Defrise M, et al. Solving the interior problem of computed tomography using a priori knowledge[J]. Inverse Probl, 2008, 24(6): 065001. DOI: 10.1088/0266-5611/24/6/065001

[11]

Coussat A, Rit S, Clackdoyle R, et al. Region-of-interest CT reconstruction using object extent and singular value decomposition[J]. IEEE Trans Radiat Plasma Med Sci, 2022, 6(5): 537-51. DOI: 10.1109/trpms.2021.3091288

[12]

Xia Y, Hofmann H, Dennerlein F, et al. Towards clinical application of a Laplace operator-based region of interest reconstruction algorithm in C-arm CT[J]. IEEE Trans Med Imaging, 2014, 33(3): 593-606. DOI: 10.1109/tmi.2013.2291622

[13]

Han WM, Yu HY, Wang G. A general total variation minimization theorem for compressed sensing based interior tomography[J]. J Biomed Imag, 2009, 2009: 21. DOI: 10.1155/2009/125871

[14]

Yang JS, Yu HY, Jiang M, et al. High-order total variation minimization for interior tomography[J]. Inverse Probl, 2010, 26(3): 035013. DOI: 10.1088/0266-5611/26/3/035013

[15]

Yu HY, Wang G. Compressed sensing based interior tomography[J]. Phys Med Biol, 2009, 54(9): 2791-805. DOI: 10.1088/0031-9155/54/9/014

[16]

Han Y, Ye JC. One network to solve all ROIs: deep learning CT for any ROI using differentiated backprojection[J]. Med Phys, 2019, 46(12): e855-e872. DOI: 10.1002/mp.13631

[17]

Li YS, Li K, Zhang CZ, et al. Learning to reconstruct computed tomography images directly from sinogram data under A variety of data acquisition conditions[J]. IEEE Trans Med Imaging, 2019, 38(10): 2469-81. DOI: 10.1109/tmi.2019.2910760

[18]

Fournié É, Baer-Beck M, Stierstorfer K. CT field of view extension using combined channels extension and deep learning methods[J]. arXiv preprint, arXiv:1908.09529, 2019,

[19]

Huang YX, Preuhs A, Manhart M, et al. Data extrapolation from learned prior images for truncation correction in computed tomography[J]. IEEE Trans Med Imaging, 2021, 40(11): 3042-53. DOI: 10.1109/tmi.2021.3072568

[20]

Shamshad F, Khan S, Zamir SW, et al. Transformers in medical imaging: a survey[J]. Med Image Anal, 2023, 88: 102802. DOI: 10.1016/j.media.2023.102802

[21]

Guo Y, Chen J, Wang JD, et al. Closed-loop matters: dual regression networks for single image super-resolution[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 13-19, 2020. Seattle, WA, USA. IEEE, 2020: 5047-16. DOI: 10.1109/cvpr42600.2020.00545

[22]

Ronchetti M. TorchRadon: fast differentiable routines for computed tomography[J]. arXiv preprint arXiv:2009.14788, 2020

[23]

Zamir SW, Arora A, Khan S, et al. Restormer: efficient transformer for high-resolution image restoration[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 18-24, 2022. New Orleans, LA, USA. IEEE, 2022: 5278-39. DOI: 10.1109/cvpr52688.2022.00564

[24]

AAPM. Low dose CT grand challenge[EB/OL]. 2017.

[25]

Moen TR, Chen BY, Holmes DR 3rd, et al. Low-dose CT image and projection dataset[J]. Med Phys, 2021, 48(2): 902-11. DOI: 10.1002/mp.14594

[26]

Paszke A, Gross S, Chintala S, et al. Automatic differentiation in PyTorch[C]. Proceedings of the 31st Conference on Neural Information Processing Systems. Long Beach, USA, 2017.

[27]

Cheung JP, Shugard E, Mistry N, et al. Evaluating the impact of extended field-of-view CT reconstructions on CT values and dosimetric accuracy for radiation therapy[J]. Med Phys, 2019, 46(2): 892-901. DOI: 10.1002/mp.13299

[28]

Fonseca GP, Baer-Beck M, Fournie E, et al. Evaluation of novel AI-based extended field-of-view CT reconstructions[J]. Med Phys, 2021, 48(7): 3583-94. DOI: 10.1002/mp.14937

[29]

Wallace N, Schaffer NE, Freedman BA, et al. Computer-assisted navigation in complex cervical spine surgery: tips and tricks[J]. J Spine Surg, 2020, 6(1): 136-44. DOI: 10.21037/jss.2019.11.13

基金资助

RIGHTS & PERMISSIONS

版权所有©《南方医科大学学报》编辑部2021

AI Summary AI Mindmap
PDF (1909KB)

178

访问

0

被引

详细

导航
相关文章

AI思维导图

/