【深度学习】弱/半监督学习解决医学数据集规模小、数据标注难问题 |
您所在的位置:网站首页 › refuge和retreat › 【深度学习】弱/半监督学习解决医学数据集规模小、数据标注难问题 |
【深度学习】弱/半监督学习解决医学数据集规模小、数据标注难问题
随着标注数据的大量增加,深度学习在图像分割方面获得了巨大地成功。然而,对于医学图像来说,标注数据的获取通常是昂贵的,因为生成准确的注释需要专业知识和时间,特别是在三维图像中。为了降低标记成本,近年来人们提出了许多方法来开发一种高性能的医学图像分割模型,以减少标记数据。例如,将用户交互与深度神经网络相结合,交互式地进行图像分割,可以减少标记的工作量。自监督学习方法是利用无标签数据,以监督的方式训练模型,学习基础知识然后进行知识迁移。半监督学习框架直接从有限地带标签数据和大量的未带标签数据中学习,得到高质量的分割结果。弱监督学习方法从边框、涂鸦或图像级标签中学习图像分割,而不是使用像素级标注,这减少了标注的负担。但是,弱监督学习和自监督学习在医学图像分割任务上性能依旧受限,尤其是在三维医学图像的分割上。除此之外,少量标注数据和大量未标注数据更加符合实际临床场景。本文总结了近些年出现的用于医学影像的半监督学习方法,这些方法大致可以分为: (1),基于数据扰动或模型扰动或数据模型同时扰动正则化; (2),基于多任务层面的一致性约束。医疗影像的数据紧缺问题我就不再多bibi了,为了解决这个问题,出现了很多的方法,像主动学习,迁移学习,半监督学习等弱监督学习方法,部分方法在图像分类中有很突出的应用。但是!图像分割尤其是医疗影像分割方面的弱监督方法还有待发掘~当然,也存在一些简单的方法,比如使用少量的数据训练的模型去预测未标注的数据,得到伪标签然后加入训练集继续训练。。。(在分类任务中比较常用) 先搞一下要点: 半监督学习 影像分割 正则化loss 三个医疗影像数据集:skin lesion ISIC 2017 dataset,optic disc REFUGE dataset,liver LiTS dataset 2 半监督学习Transformation equivariant representation
在不管是分类还是分割中,我们通常会需要数据增强来防止过拟合,并且提高精度。但是数据在进行增强时,比如图像顺时针旋转90度,而网络的参数是不会旋转的,其中的feature map也不一定与直接将不旋转的图像数据得到的feature map顺时针旋转90度一样,等价。但是他们的输入的确相同的,不过是其中一个多了90度的扰动。
注意: 在图像分割的任务中,默认是transformation equivariant!!
上面这个概念可以很好的由下面的图解释:
训练流程
现有的一些方法使用分类网络能够分割物体的部分区域,该论文进一步增强分类模型使其能够将判明区域的信息传送给邻近未判明区域来克服上面的问题。如下图所示,空洞卷积能够使信息传输:
使用上面的方法产生的热图分别训练半监督分割模型和弱监督分割模型。
以上两篇的文章代码也已开源: https://github.com/xmengli999/TCSM 5 总结弱监督学习的三种类型 不完全监督(incomplete supervision): 只有一部分的训练数据含有标注信息,其他数据则没有标签 不确切监督(inexact supervision): 训练数据仅仅具有粗粒度的标注信息,例如在图像领域中的实例分割任务,仅仅含有bbox标注 不精确监督(inaccurate supervision): 训练数据的标注信息有误并不完全正确 不完全监督(incomplete supervision) 不完全监督主要应对只有训练集的一个很小的子集含有标签,而大量的样本为无标注的样本。如果仅仅采用有标注的信息训练模型,往往不能得到一个泛化能力强, 非常鲁棒的模型。 应对此不完全监督任务的两种解决方案是:主动学习和半监督学习 主动学习(active learning) 主动学习假设存在一个oracle(我也不知道怎么翻译,神谕???),主动学习假设可以从oracle查询选定的未标注实例的真值标签。 简单起见,假设模型的损失依赖于询问的数目,主动学习的目标就是最小化询问的数目,以此来最小化训练模型的损失 对于给定的一部分数目较少的标注样本和大量的无标注样本,主动学习试图寻找最有价值的无标注样本及逆行询问(query),有两种广泛使用的选择策略:信息性与代表性。信息性衡量一个无标注样本降低统计模型不确定性的程度;代表性衡量无标注样本对于表达输入范式的有用程度。 半监督学习(semi-supervised learning) 半监督学习无需人工的参与,自动开发无标注的数据,来提升模型的性能。 存在一种特殊的半监督学习,称为直推式学习(transductive learning);直推式学习和(纯)半监督学习的主要区别在于,它们对测试数据,即训练过的模型需要进行预测的数据,假设有所不同。直推式学习持有「封闭世界」假设,即,测试数据是事先给出的、目标是优化测试数据的性能;换言之,未标注数据正是测试数据。纯半监督式学习则持有「开放世界」假设,即,测试数据是未知的,未标注数据不一定是测试数据 在半监督学习中有两个主要的假设就是:聚类假设和流形假设,二者都是关于数据分布的假设。前者假设数据具有连续的聚类结构,因此在相同聚类簇中的结果有相同的类别。后者假设数据依赖于流形,因此相近的实例具有相同的类别。这两种假设都依赖于相似的数据点有相似的输出,因此无标注的数据对相似点的发现有帮助。 半监督学习有四种主要的方法:生成式方法,基于图的方法,低密度分离方法,基于不一致的方法 生成式方法假设有标注与无标注的样本由同一个连续模型生成。因此无标注样本的label作为生成式模型的丢失值,采用EM算法评估。这些模型的不同点在于使用不同的生成式模型来拟合数据,为了能够得到更好的效果通常需要domain的知识来获得充足的生成式模型,也有很多人尝试去混合生成式模型与判别式模型。 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |