T-Unet采用Barlow twin方法对U-Net模型的编码器进行无监督的预训练减少冗余信息,以学习数据表示。之后,对完整网络进行微调以执行实际的分割。
BT-Unet由 Indian Institute of Information Technology Allahabad开发,发布在2022年的JML上
BT-Unet架构图:a、预训练U-Net编码器网络,b、用预训练的编码器权值初始化的微调U-Net模型
BT-Unet框架分为两个阶段:1)预训练阶段和2)微调阶段。
预训练
预训练的目的是使用无注释的数据样本,学习复杂的特征表示。U-Net模型的编码器使用Barlow Twins (BT)策略进行预先训练,然后进行微调以执行实际的分割:
BT-Unet框架可应用于各种先进的U-Net模型:经典U-Net、注意力U-Net (A-Unet)、inception U-Net (I-Unet)和residual cross-spatial attention guided inception U-Net (RCA-IUnet)。
微调
U-Net 模型中编码器网络的权重使用预训练权重(来自第一阶段)进行初始化,而网络的其余部分使用默认权重进行初始化。
使用有限的注释样本对 U-Net 模型进行微调,用于生物医学图像分割。
U-Net 模型使用分段损失函数进行微调,L 定义为二元交叉熵损失、LBC 和dice coefficient损失的平均值,LDC:
其中,y为像素的真值标签,p(y)为像素的预测标签,N为像素的总数量。
论文使用下面的数据集进行评测对比:
基于相同样本数量的小训练集的性能分析
在不同规模小型训练集的性能研究
对于所有训练数据比例小于50%的数据集,在模型之间观察到类似的性能变化。
定性结果
带有BT的RCA-IUNet具有很好的分割效果。
论文地址:
[2022 JML] [BT-Unet] BT-Unet: A self-supervised learning framework for biomedical image segmentation using barlow twins with U-net models
https://link.springer.com/article/10.1007/s10994-022-06219-3
作者:Sik-Ho Tsang
本文分享自 DeepHub IMBA 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!