[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN114581434A - 基于深度学习分割模型的病理图像处理方法、电子设备 - Google Patents

基于深度学习分割模型的病理图像处理方法、电子设备 Download PDF

Info

Publication number
CN114581434A
CN114581434A CN202210294465.7A CN202210294465A CN114581434A CN 114581434 A CN114581434 A CN 114581434A CN 202210294465 A CN202210294465 A CN 202210294465A CN 114581434 A CN114581434 A CN 114581434A
Authority
CN
China
Prior art keywords
deep learning
segmentation model
learning segmentation
training
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210294465.7A
Other languages
English (en)
Inventor
周冯源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shengtong Intelligent Technology Beijing Co ltd
Original Assignee
Shengtong Intelligent Technology Beijing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shengtong Intelligent Technology Beijing Co ltd filed Critical Shengtong Intelligent Technology Beijing Co ltd
Priority to CN202210294465.7A priority Critical patent/CN114581434A/zh
Publication of CN114581434A publication Critical patent/CN114581434A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20152Watershed segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种基于深度学习分割模型的病理图像处理方法、电子设备,该方法包括:采集病理切片的图像数据,对病理切片的图像数据进行处理,得到训练数据集;搭建深度学习分割模型,深度学习分割模型包括血管深度学习分割模型和节细胞深度学习分割模型;结合训练数据集采用基于伪标签损失权重系数Wd的半监督技术对深度学习分割模型进行训练,得到训练好的深度学习分割模型;通过训练好的深度学习分割模型对待测图片进行血管和节细胞的识别。基于伪标签损失权重系数Wd的半监督技术,直接合并两个阶段的训练流程,避免了由于标注数据质量较差导致伪标签存在大量错误,通过Wd控制深度学习分割模型周期性收敛。

Description

基于深度学习分割模型的病理图像处理方法、电子设备
技术领域
本公开一般涉及计算机辅助病理分析诊断技术领域,尤其涉及一种基于深度学习分割模型的病理图像处理方法、电子设备。
背景技术
在病理图像分析中,由于不同观察者所处角度存在差异,标注数据中往往存在一定的噪声数据,所以缺乏具有高质量标注的训练数据集成为了有监督的深度学习在病理图像任务中应用的主要限制。
在传统半监督训练流程中,往往采用两阶段(two stage)的方式,即第一阶段采用真实标注数据分别训练两个不同初始化的模型,第二阶段采用半监督方法相互打伪标签进行进一步训练,最终选择较优的模型为最终结果。由于传统半监督流程采用two stage方式,整体训练时间较长,同时二阶段效果受一阶段模型影响较大,若一阶段模型精度较低,则伪标签中将存在大量的错误信息,导致半监督效果较差。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一种基于深度学习分割模型的病理图像处理方法、电子设备。
第一方面,提供一种基于深度学习分割模型的病理图像处理方法,包括:
采集病理切片的图像数据,对所述病理切片的图像数据进行处理,得到训练数据集;
搭建深度学习分割模型,所述深度学习分割模型包括血管深度学习分割模型和节细胞深度学习分割模型;
结合所述训练数据集采用基于伪标签损失权重系数Wd对所述深度学习分割模型进行训练,得到训练好的深度学习分割模型;
通过所述训练好的深度学习分割模型对待测图片进行血管和节细胞的识别。
第二方面,提供一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器执行如本申请各实施例提供的基于深度学习分割模型的病理图像处理方法。
第三方面,提供一种存储有计算机程序的计算机可读存储介质,该程序被处理器执行时实现如本申请各实施例提供的基于深度学习分割模型的病理图像处理方法。
根据本申请实施例提供的技术方案,针对传统半监督技术存在的问题,本申请提供了一种基于基于伪标签损失权重系数Wd的半监督技术,通过模型一致性约束,初始化两个结构相同、但权重参数不同的深度学习分割模型,通过多项式增长的伪标签损失权重系数Wd,把训练流程从two stage变为端到端,同时避免了由于标注数据质量较差导致伪标签存在大量错误,使模型难以收敛到最优的问题。
进一步的,根据本申请实施例提供的技术方案,通过深度学习分割模型对需要计量的目标进行分割,提高病理指标计算的稳定性和计算效率。
进一步的,根据本申请的某些实施例,通过图像分割优化单元对深度学习分割模型定位的目标的精确度进行优化,最终对需要的指标进行计算及显示,对待计量目标进行全自动检测与指标计算,大大提高了指标计算效率,降低了指标计算复杂度,对计量指标进行了客观地量化,克服了目前人工病理计算产生的主观性和时移性,对有人工智能辅助诊断需求的病理项目提供高效的辅助体系。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1为本申请实施例提供的基于深度学习分割模型的病理图像处理方法的一种示例性流程框图;
图2为本申请实施例提供的基于伪标签损失权重系数Wd的半监督技术对深度学习分割模型进行训练的结构图;
图3为本申请实施例提供的伪标签损失权重系数Wd的增长曲线图;
图4为本申请实施例提供的基于深度学习分割模型的病理图像处理方法的一种优选实施方式的示例性流程框图;
图5为本申请实施例提供的血管深度学习分割模型架构图;
图6为图5中血管深度学习分割模型中的编码模块、解码模块和输出模块的架构图;其中,图(a)为编码模块架构图;图(b)为解码模块架构图;图(c)输出模块架构图;
图7为图6中的编码模块和解码模块中的特征提取模块的架构图;
图8为本申请实施例提供的节细胞深度学习分割模型架构图;
图9为图8中节细胞深度学习分割模型中的编码模块、解码模块和输出模块的架构图;其中,图(a)为编码模块架构图;图(b)为解码模块架构图;图(c)输出模块架构图;
图10为本申请实施例提供的荧光污点筛除自适应阈值选取方式图;
图11为本申请实施例提供的使用图像分割优化单元处理前、后效果图;其中,图(a)为处理前的效果图;图(b)为处理后的效果图;
图12本申请实施例提供的指标计算单元计算各项计量指标的示意图;其中,图(a)为原图;图(b)感兴趣区域;
图13为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
请参考图1,示出了根据本申请实施例提供的基于深度学习分割模型的病理图像处理方法的示例性流程框图。
如图1所示,在本实施例中,本发明提供的基于深度学习分割模型的病理图像处理方法包括:
S110:采集病理切片的图像数据,对所述病理切片的图像数据进行处理,得到训练数据集;
S120:搭建深度学习分割模型,所述深度学习分割模型包括血管深度学习分割模型和节细胞深度学习分割模型;
S130:结合所述训练数据集采用基于伪标签损失权重系数Wd的半监督技术对所述深度学习分割模型进行训练,得到训练好的深度学习分割模型;
S140:通过所述训练好的深度学习分割模型对待测图片进行血管和节细胞的识别。
具体的,传统半监督技术往往采用two stage的方式,而本申请直接合并两个阶段的训练流程,提出了多项式增长的伪标签损失权重系数Wd计算方法,避免了由于标注数据质量较差导致伪标签存在大量错误,通过伪标签损失权重系数Wd,控制深度学习分割模型周期性收敛,使深度学习分割模型收敛到最优。
在一个实施例中,步骤S130包括:
将真实标注的训练数据集分别输入到两个深度学习分割模型中进行并行训练,两个深度学习分割模型分别为结构相同、权重参数不同的第一深度学习分割模型和第二深度学习分割模型,得到训练后的第一深度学习分割模型和第二深度学习分割模型,以及第一深度学习分割模型对应的第一监督信号和第二深度学习分割模型对应的第二监督信号;
利用所述第一监督信号更新所述第一深度学习分割模型的权重参数,重新训练第一深度学习分割模型;利用第二监督信号更新所述第二深度学习分割模型的权重参数,重新训练第二深度学习分割模型;
利用所述训练后的第一深度学习分割模型标定未标注的训练数据集的第一伪标签,计算第一伪标签数据训练产生的损失LossF1;利用所述训练后的第二深度学习分割模型标定未标注的训练数据集的第二伪标签,计算第二伪标签数据训练产生的损失LossF2
为所述第二伪标签数据训练产生的损失LossF2配置伪标签损失权重系数Wd,将配置伪标签损失权重系数Wd的第二伪标签作为第一深度学习分割模型的监督信号,更新所述第一深度学习分割模型的权重参数,重新训练所述第一深度学习分割模型;
为所述第一伪标签数据训练产生的损失LossF1配置伪标签损失权重系数Wd,将配置伪标签损失权重系数Wd的第一伪标签作为第二深度学习分割模型的监督信号,更新所述第二深度学习分割模型的权重参数,重新训练所述第二深度学习分割模型;
从所述第一深度学习分割模型和第二深度学习分割模型中选择模型收敛较好的模型作为训练好的深度学习分割模型。
具体的,对深度学习分割模型进行训练使其具备识别指定目标的能力,如对血管深度学习分割模型进行训练使其具有识别血管的能力;对节细胞深度学习分割模型进行训练使其具有识别眼底RGC节细胞的能力。本发明并行训练两个深度学习分割模型以端到端的方式进行跨模型协同优化(如图2)。两个深度学习分割模型分别为结构相同、但初始权重参数不同的第一深度学习分割模型和第二深度学习分割模型,本申请实施例以Res-UNet模型为例进行示例性说明。具体的,权重参数在训练之前往往通过一定策略进行初始化,如:Xavier初始化、He初始化、随机初始化等。本申请通过不同的初始化方法来获取两个深度学习分割模型。
如图2所示,在每个训练train_loop中,每个深度学习模型更新两次权重参数,第一次利用真实标注的训练数据集去训练深度学习分割模型,并计算对应深度学习分割模型的损失(LossT1、LossT2),利用该损失(LossT1、LossT2)作为监督信号,反向更新对应深度学习分割模型的权重参数;第二次利用两个深度学习分割模型前向传播获取的伪标签,为第一深度学习分割模型的第一伪标签数据训练产生的损失LossF1配置伪标签损失权重系数Wd,并作为第二深度学习分割模型的监督信号,为第二深度学习分割模型的第二伪标签数据训练产生的损失LossF2配置伪标签损失权重系数Wd,并作为第一深度学习分割模型的监督信号,通过使用呈现递减周期性增长的伪标签损失权重系数Wd,控制在反向传播更新深度学习分割模型参数时伪标签的贡献度,更新两个深度学习分割模型的权重参数,利用模型的一致性约束,用以达到不同模型预测一致的期望。
具体的,由图3所示,在深度学习分割模型训练初期,伪标签损失权重系数Wd从0开始缓慢增长,此时深度学习分割模型主要的监督信息来源于真实标注数据,同时为了避免伪标签数据质量问题导致模型收敛方向发生偏移,伪标签损失权重系数Wd呈现递减周期性增长。
深度学习分割模型包括:深度学习分割模型架构的选择与改进,用于模型训练的数据的制作,模型训练及最优模型保存的方法。经过训练的深度学习分割模型可以通过模型推理将感兴趣目标分割出来。深度学习分割模型输入尺寸设为256×256;验证集与训练集比例设为0.15;批尺寸设为16;使用Adam优化器,学习率设为常量0.001;深度学习分割模型训练总轮次设为120轮(预设次数阈值),完成后停止训练;训练过程中,当深度学习分割模型在验证集上的损失降低时即触发模型更新保存,在模型训练完成120轮后得到的模型即为最优模型。
需要说明的是,上述深度学习分割模型训练过程中设置的模型参数只是示例性说明,在实际应用场景中,也可选择其他参数值。
在一个实施例中,如图2所示,所述第一监督信号的确定方法包括:
根据第一深度学习分割模型对真实标注的训练数据集的第一真实预测结果P1与所述真实标注的训练数据集计算第一真实标签数据训练产生的损失LossT1,将所述第一真实标签数据训练产生的损失LossT1作为第一监督信号;
所述第二监督信号的确定方法包括:
根据第二深度学习分割模型对真实标注的训练数据集的第二真实预测结果P2与所述真实标注的训练数据集计算第二真实标签数据训练产生的损失LossT2,将所述第二真实标签数据训练产生的损失LossT2作为第二监督信号。
具体的,利用第一真实标签数据训练产生的损失LossT1更新第一深度学习分割模型的权重参数,利用第二真实标签数据训练产生的损失LossT2更新第二深度学习分割模型的权重参数。
在一个实施例中,所述利用所述训练后的第一深度学习分割模型标定未标注的训练数据集的第一伪标签,计算第一伪标签数据训练产生的损失LossF1包括:
将所述训练后的第一深度学习分割模型对未标注的训练数据集的预测结果作为第一伪标签,根据所述第一伪标签与所述第二深度学习分割模型的预测结果计算第一伪标签数据训练产生的损失LossF1
所述利用所述训练后的第二深度学习分割模型标定未标注的训练数据集的第二伪标签,计算第二伪标签数据训练产生的损失LossF2包括:
将所述训练后的第二深度学习分割模型对未标注的训练数据集的预测结果作为第二伪标签,根据所述第二伪标签与所述第一深度学习分割模型的预测结果计算第二伪标签数据训练产生的损失LossF2
具体的,为第一伪标签数据训练产生的损失LossF1配置伪标签损失权重系数Wd,并作为第二深度学习分割模型的监督信号,更新第二深度学习分割模型的权重参数;为第二伪标签数据训练产生的损失LossF2配置伪标签损失权重系数Wd,并作为第一深度学习分割模型的监督信号,更新第一深度学习分割模型的权重参数,通过使用伪标签损失权重系数Wd,控制在反向传播更新模型权重参数时伪标签的贡献度。
需要说明的是,P1为第一深度学习分割模型的预测结果,当采用真实标注的训练数据集输入到第一深度学习分割模型时,P1为真实标注的训练数据集的第一真实预测结果;当未标注的训练数据集输入到第一深度学习分割模型时,P1为未标注的训练数据集的第一伪预测结果。同理,P2为第二深度学习分割模型的预测结果。
在一个实施例中,所述第一深度学习分割模型训练后产生的损失为loss1,计算公式如下:
loss1=lossT1+Wd*lossF2
所述第二深度学习分割模型训练后产生的的损失为loss2,计算公式如下:
loss2=lossT2+Wd*lossF1
其中,LossT1为第一真实标签数据训练产生的损失,LossF2为第二伪标签数据训练产生的损失,LossT2为第二真实标签数据训练产生的损失,LossF1为第一伪标签数据训练产生的损失;Wd为伪标签损失权重系数,表达式如下:
Figure BDA0003562746800000071
Sc=Sc+max[(α-θ),0.5]*Sd
Figure BDA0003562746800000072
其中,Sg为当前训练步数,Sc用于控制每个权重周期的最低值以及用于控制权重系数的递减周期;floor为向下取整函数,Sd为权重增长周期,α是权重周期控制系数,变量θ∈[0,α],递减周期从αSd、(α-1)Sd依次递减到Sd
在一个实施例中,如图2所示,所述将所述训练后的第一深度学习分割模型对未标注的训练数据集的预测结果作为第一伪标签包括:
对所述训练后的第一深度学习分割模型对未标注训练数据集的预测结果进行二值化和数据增强处理,将数据增强处理后的标签作为未标注的训练数据集的第一伪标签。
所述将所述训练后的第二深度学习分割模型对未标注的训练数据集的预测结果作为第二伪标签包括:
对所述训练后的第二深度学习分割模型对未标注训练数据集的预测结果进行二值化和数据增强处理,将数据增强处理后的标签作为未标注的训练数据集的第二伪标签。
具体的,对第一深度学习分割模型的预测结果P1进行二值化处理得到第一伪标签Y1,再对第一伪标签Y1进行数据增强(Aug)处理。同理,对第二深度学习分割模型的预测结果P2进行二值化处理得到第二伪标签Y2,再对第二伪标签Y2进行数据增强(Aug)处理。根据第一伪标签Y1和第二深度学习分割模型的预测结果P2计算第一伪标签数据训练产生的损失LossF1;根据第二伪标签Y2与第一深度学习分割模型的预测结果P1计算第二伪标签数据训练产生的损失LossF2
在一个实施例中,所述未标注的训练数据集为新获取的病理切片的图像数据或者为真实标注的训练数据集去掉标注信息后的数据。
在一个实施例中,步骤S110中,对所述病理切片的图像数据进行处理至少进行如下一项操作:数据裁剪、数据缩放、生成真实掩模、数据增强。
具体的,对采集的病理切片的图像数据进行数据处理,使其适用于深度学习分割模型。数据处理包括:原始数据获取、数据筛选、数据裁切或缩放、生成真实掩膜和数据增强(旋转、翻转、模糊、添加噪声、色彩抖动等);通过数据增强可以避免过拟合。
如首先对收集到的视网膜病理图像及对应的病理标注信息进行预处理,即将视网膜病理图像剪裁或缩放成适合深度学习分割模型输入的图像尺寸,并根据病理标注信息生成剪裁后图像的真实轮廓掩膜和真实区域掩膜,再对处理后的数据进行多倍数据增强,训练数据中已包含了多种情况的视网膜图片,足以训练深度学习分割模型完成细胞分割任务。
在一个实施例中,步骤S120中,所述血管深度学习分割模型采用标准U-Net模型;所述节细胞深度学习分割模型采用改进的U-Net模型,所述改进的U-Net模型采用残差模块代替标准U-Net模型中的编码模块。
具体的,深度学习分割模型用于定位病理图像中需要计量的目标,深度学习分割模型包括标准U-Net模型和改进的U-Net模型;其中采用标准U-Net模型对视网膜图像中的血管进行分割,采用改进的U-Net模型对视网膜图像中的节细胞(RGC,视网膜神经节细胞)进行分割。利用标准U-Net模型和改进的U-Net模型可以以更少的训练数据和更短的训练时间得到高准确度的模型,且以更快的运行速度对节细胞和血管进行定位和指标计算。
其中,标准U-Net模型是深度学习网络完成分割任务的经典网络结构之一,使用较少量的训练数据即可快速地进行图像分割。通过使用对称的编码解码结构、特有的跳跃连接、创新的弹性形变数据增强策略和改进的损失函数,使得网络可以在较少标注量的医学图像上得到高准确率的分割结果。
改进的U-Net模型即为Res-UNet模型,改进的U-Net模型采用残差模块代替标准U-Net模型中的编码模块,残差模块借鉴了高速网络的跨层连接思想,这种残差跳跃式的结构,打破了传统的神经网络n-1层的输出只能给n层作为输入的惯例,使某一层的输出可以直接跨过几层作为后面某一层的输入,加入残差模块不但可以防止网络的梯度消失并且也可以增加深层和浅层网络的联系。
在一个实施例中,步骤S120中,所述标准U-Net模型包括至少一个编码模块、至少一个解码模块和一个输出模块,所述编码模块与所述解码模块呈对称状。
具体的,如图5所示,标准U-Net模型包括五级编码模块(Encoding Module,即图中的EB1、EB2、EB3、EB4、EB5)、五级解码模块(Decoding Module,即图中DB1、DB2、DB3、DB4、DB5)和一个输出模块(Output Module)。其中,编码模块主要负责下采样编码工作,用于获取丰富的上下文信息,对细胞和背景进行分类;解码器主要负责上采样解码工作,用于实现细胞的精确定位;上采样使用反卷积放大特征图是指能够与浅层特征图大小一致并连接,通过浅层的特征图跳跃连接与深层特征图拼接,得到最终的特征图,结合细粒度层信息和粗粒度层信息,以获得更精确的上下文信息,得到更多的细胞细节信息。输出模块用于将血管深度学习分割模型输出整合成一张血管区域掩膜,并与真实值做二值交叉熵计算损失。U-Net网络可以利用较少的训练集进行训练,得到较好的分割结果。
在一个实施例中,每个编码模块包含一个特征提取模块和一个二维最大池化层;每个解码模块包含一个二维反卷积层、一个特征融合层和一个特征提取模块;所述输出模块包括三个二维卷积层,其中,靠近输出模块的输入端的两个二维卷积层分别带有ReLU激活函数,靠近输出端的二维卷积层带有Sigmoid激活函数。
具体的,如图6(a)所示,每个编码模块包含由外向内依次设置的一个特征提取模块(Feature Extraction Block,FEB)和一个二维最大池化层(2DMax Pooling Layer),完成下采样编码工作;如图6(b)所示,每个解码模块包含由外向内依次设置的一个二维反卷积层(2D Transpose Convolution Layer)、一个特征融合层(Concatenate Layer)和一个特征提取模块(Feature Extraction Block)完成上采样解码工作;其中,编码模块中的二维最大池化层的输出特征图输入至对应的解码模块中的二维反卷积层;编码模块中的特征提取模块的输出特征图输入至对应解码模块的特征融合层,完成特征尺度的融合,改善上采样时信息不足的问题,提高分割精度。如图6(c)所示,输出模块(Output Module)包括三个二维卷积层(2D Convolution Layer),其中输出模块的输入端的两个二维卷积层分别带有ReLU激活函数,输出模块的输出端的二维卷积层带有Sigmoid激活函数。通过输出模块将血管深度学习分割模型输出整合成一张血管区域掩膜,并与真实值做二值交叉熵计算损失。
在一个实施例中,步骤S120中,所述特征提取模块包括两个二维卷积层和一个丢弃层,每个二维卷积层带有一个ReLU激活函数。
具体的,如图7所示,特征提取模块包括由外向内依次设置的二维卷积层(Conv2D)、ReLU激活函数、丢弃层(Dropout)、Conv 2D、ReLU激活函数;通过Dropout可以解决模型训练样本量太少导致的过拟合问题。
具体的,节细胞深度学习分割模型使用改进的U-Net模型结构。在标准U-Net模型的基础上,使用残差模块(Residual Block)替换编码模块,同时分别计算轮廓掩膜和区域掩膜的二值交叉熵损失后再加和作为最终的模型损失值。改进的U-Net模型可以大大降低编解码过程中的信息损失,同时降低模型过拟合概率,得到鲁棒性较高的分割模型。
改进的U-Net模型整体架构如图8所示。改进的U-Net模型由五级编码模块(Encoding Module,即EB1、EB2、EB3、EB4、EB5)、五级解码模块(Decoding Module,即图中DB1、DB2、DB3、DB4、DB5)和一个输出模块(Output Module)组成。如图9(a)所示,每个编码模块由外向内依次设置的一个卷积残差模块(Convolution Residual Block)和一个恒等残差模块(Identity Residual Block)组成;如图9(b)所示,每个解码模块都由一个二维反卷积层(2D Transpose Convolution Layer)、一个特征融合层(Concatenate Layer)和一个特征提取模块(Feature Extraction Block)完成上采样解码;如图9(c)所示,在模型输出阶段,使用三层卷积和Sigmoid激活函数将模型输出整合成一张细胞轮廓掩膜和一张细胞区域掩膜,并与两张掩膜的真实值做二值交叉熵后相加作为模型损失。
在一个实施例中,所述恒等残差模块包括残差支路、桥连接支路、加法模块和ReLU激活函数层;将所述卷积残差模块输出的特征图分别输入残差支路和桥连接支路进行处理;
通过加法模块将所述残差支路和桥连接支路输出的处理后的特征图进行相加,并将相加后的结果输入ReLU激活函数层进行处理,得到下一个编码模块的输入特征图。
具体的,如图9(a)所示,编码模块中的恒等残差模块用于将残差支路的输入图像和残差支路的输出图像进行相加并经过ReLU激活函数处理后作为下一个编码模块的输入特征图。
在一个实施例中,所述恒等残差模块中的残差支路包括由外向内依次设置的二维卷积层、批标准化层(Batch Normalization,BN)、ReLU激活函数层、二维卷积层和批标准化层。
在一个实施例中,所述卷积残差模块包括残差支路、桥连接支路、加法模块和ReLU激活函数层;将待处理特征图分别输入残差支路和桥连接支路进行处理;所述桥连接支路包括由外向内依次设置的二维卷积层和批标准化层;
通过加法模块将所述残差支路和桥连接支路输出的处理后的特征图进行相加,并将相加后的结果输入ReLU激活函数层进行处理,得到恒等残差模块的输入特征图。
具体的,如图9(a)所示,卷积残差模块的残差支路结构与恒等残差模块的残差支路结构相同。在卷积残差模块中,将特征图分别输入桥连接支路和残差支路进行处理;在桥连接支路中,特征图依次经过二维卷积层和批标准化层处理输出;在残差支路中,特征图经过多个二维卷积层和批标准化层以及激活函数ReLU处理后输出;通过加法模块将分别从桥连接支路和残差支路输出的处理后的特征图进行相加后再采用激活函数ReLU处理,得到恒等残差模块的输入特征图。
因此,将残差模块引入U-Net网络,缩短了深层抽象特征与浅层特征之间的路径,增强了特征的传播能力,从而能够提取出更多的细胞细节信息,避免了梯度消失现象,同时降低模型过拟合概率,得到鲁棒性较高的分割模型。
需要说明的是,本申请中以标准U-Net和Res-UNet模型为例进行示例性说明,深度学习分割网络还可以使用全连接网络(FCN)、嵌套U-Net网络(U-Net++、U2-Net)等其他深度学习分割模型,或Mask-RCNN等其他目标检测网络,同样能够实现本发明实施例的效果。且本申请实施例提供的基于伪标签损失权重系数Wd的半监督技术同样适用于对这些深度学习分割模型进行训练。
具体的,步骤S140中,使用训练好的深度学习分割模型对需要进行分析的病理图像进行目标分割,如采用训练好的血管深度学习分割模型和节细胞深度学习分割模型可以预测到一张视网膜荧光图片内所有血管和节细胞,但包含一些分割错误的假阳性目标。
在一个优选实施例中,如图4所示,步骤S140之后还包括:
S150:采用图像分割优化单元对所述深度学习分割模型识别到的血管和节细胞进行精确度优化,去除假阳性目标。
具体的,图像分割优化单元用于对深度学习分割模型定位到的目标的准确度进行优化,去除假阳性目标。
在一个优选实施例中,S150中,图像分割优化单元至少包括如下一项:细胞尺寸筛选、荧光污点误分割目标筛除和背景误分割目标筛除。
具体的,图像分割优化单元逐一检查深度学习分割模型分割出来的目标的特征,从而删去分割错误的目标,达到优化分割结果的目的。
在一个优选实施例中,所述细胞尺寸筛选包括:预设细胞尺寸阈值,将小于所述预设细胞尺寸阈值的目标筛除。
依照视网膜节细胞在医学图像中的尺寸不小于50个像素点(预设细胞尺寸阈值)的特点,首先检查所有预测目标的尺寸,筛除所有尺寸小于50个像素点的目。其中,预设细胞尺寸阈值也可以根据实际需求设置为其他参数值。
在一个优选实施例中,设置像素强度自适应阈值,检查预测每个目标的平均像素强度值,将高于所述像素强度自适应阈值的目标筛除;其中,像素强度自适应阈值为
Figure BDA0003562746800000131
Figure BDA0003562746800000132
为所有预测目标的强度均值,σ为所有预测目标的强度标准差,a为随机常数。
具体的,依照荧光污点的亮度远高于细胞亮度的特点,检查所有预测目标的平均像素强度,设置自适应阈值,筛除所有像素强度高于自适应阈值的预测目标。像素强度自适应阈值S选取机制如图10所示,首先计算每个预测目标的平均像素强度,计算所有预测目标的像素强度的均值和标准差,选取均值加三倍标准差值为阈值,高于自适应阈值S的目标则为离群异常值。此处a为3是示例性说明,也可以设置为其他参数值。
在一个实施例中,检查背景像素强度的均值,检查预测每个目标的平均像素强度值,将目标的平均像素强度值与背景像素强度的均值差值小于预设阈值的目标筛除。
具体的,依照背景误分割目标亮度与背景亮度相似的特点,检查所有预测目标的平均像素强度值与背景像素强度值均值之差,筛除所有与背景亮度差异过小的目标,预设阈值设为15。经过上述三种优化方式处理后,如图11中所示,未被筛除的目标即确定是目标节细胞,用点标示出细胞质心。由图11可知,采用本申请实施例提供的基于深度学习分割模型的病理图像处理方法可以有效的对视网膜病理图像中所有节细胞进行识别和计数。
在一个优选实施例中,如图4所示,步骤S150之后还包括:
S160:根据所述图像分割优化单元优化后的目标计算相应的计量指标。
具体的,通过对图像分割优化单元优化后的目标进行一系列统计计算,最终将对病理分析与诊断有帮助的指标输出,辅助病理专家进行分析和诊断。根据图像分割优化单元优化后的目标可计算荧光染色的视网膜病理图像中所含感兴趣区域面积、血管的面积、节细胞的数量与节细胞的密度等。其中,感兴趣区域面积定义为整张视网膜荧光图像中除血管以外所有区域的总面积,如图12中所示,具体计算公式如下:
感兴趣区域面积=(图像总像素数-血管面积总像素数)×图像分辨率2
式中,图像分辨率因数在本实施例中为0.66mpp(micron per pixel),因此计算出的感兴趣区域面积单位为μm2
可通过检查经过图像分割优化单元优化后的节细胞预测目标数量,根据预测的节细胞数量计算节细胞密度,用节细胞数量除以感兴趣区域面积得到,单位为个/μm2,具体计算公式如下:
节细胞密度=(节细胞数量÷感兴趣区域面积)
需要说明的是,在本发明的图像分割优化单元,可以使用离群点阈值筛选、目标尺寸阈值分割、色度阈值分割、分水岭、基于聚类的异常点检测等优化方式,同样能够实现本发明实施例的效果。
本发明提供了一种基于深度学习分割模型的病理图像处理方法,操作简单且能直观显示病理指标信息,通过深度学习分割模型对需要计量的目标进行分割,并通过图像处理对分割后的结果进行优化,最终对需要的指标进行计算及显示;对于需要依靠病理专家在显微镜下人工计数特定目标的项目,不仅可以减少病理专家的工作量,也可以提高病理指标计算的稳定性和计算效率。
应当注意,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,流程图中描绘的步骤可以改变执行顺序。例如,可先执行步骤S120再执行步骤S110。
图13示出了根据本申请实施例提供的一种电子设备的结构示意图。
如图13所示,作为另一方面,本申请还提供了一种电子设备200,包括一个或多个中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有系统操作所需的各种程序和数据。CPU 201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本公开的实施例,上文参考图1-2描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行基于深度学习分割模型的病理图像处理方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
作为又一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中所述装置中所包含的计算机可读存储介质;也可以是单独存在,未装配入设备中的计算机可读存储介质。计算机可读存储介质存储有一个或者一个以上程序,所述程序被一个或者一个以上的处理器用来执行描述于本申请的基于深度学习分割模型的病理图像处理方法。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这根据所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以通过执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以通过专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元或模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元或模块也可以设置在处理器中,例如,各所述单元可以是设置在计算机或移动智能设备中的软件程序,也可以是单独配置的硬件装置。其中,这些单元或模块的名称在某种情况下并不构成对该单元或模块本身的限定。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (13)

1.基于深度学习分割模型的病理图像处理方法,其特征在于,包括:
采集病理切片的图像数据,对所述病理切片的图像数据进行处理,得到训练数据集;
搭建深度学习分割模型,所述深度学习分割模型包括血管深度学习分割模型和节细胞深度学习分割模型;
结合所述训练数据集采用基于伪标签损失权重系数Wd的半监督技术对所述深度学习分割模型进行训练,得到训练好的深度学习分割模型;
通过所述训练好的深度学习分割模型对待测图片进行血管和节细胞的识别。
2.根据权利要求1所述的基于深度学习分割模型的病理图像处理方法,其特征在于,所述结合所述训练数据集采用基于伪标签损失权重系数Wd的半监督技术对所述深度学习分割模型进行训练,得到训练好的深度学习分割模型包括:
将真实标注的训练数据集分别输入到两个深度学习分割模型中进行并行训练,两个深度学习分割模型分别为结构相同、权重参数不同的第一深度学习分割模型和第二深度学习分割模型,得到训练后的第一深度学习分割模型和第二深度学习分割模型,以及第一深度学习分割模型对应的第一监督信号和第二深度学习分割模型对应的第二监督信号;
利用所述第一监督信号更新所述第一深度学习分割模型的权重参数,重新训练第一深度学习分割模型;利用第二监督信号更新所述第二深度学习分割模型的权重参数,重新训练第二深度学习分割模型;
利用所述训练后的第一深度学习分割模型标定未标注的训练数据集的第一伪标签,计算第一伪标签数据训练产生的损失LossF1;利用所述训练后的第二深度学习分割模型标定未标注的训练数据集的第二伪标签,计算第二伪标签数据训练产生的损失LossF2
为所述第二伪标签数据训练产生的损失LossF2配置伪标签损失权重系数Wd,将配置伪标签损失权重系数Wd的第二伪标签作为第一深度学习分割模型的监督信号,更新所述第一深度学习分割模型的权重参数,重新训练所述第一深度学习分割模型;
为所述第一伪标签数据训练产生的损失LossF1配置伪标签损失权重系数Wd,将配置伪标签损失权重系数Wd的第一伪标签作为第二深度学习分割模型的监督信号,更新所述第二深度学习分割模型的权重参数,重新训练所述第二深度学习分割模型;
从所述第一深度学习分割模型和第二深度学习分割模型中选择模型收敛较好的模型作为训练好的深度学习分割模型。
3.根据权利要求2所述的基于深度学习分割模型的病理图像处理方法,其特征在于,所述第一监督信号的确定方法包括:
根据第一深度学习分割模型对真实标注的训练数据集的第一真实预测结果与所述真实标注的训练数据集计算第一真实标签数据训练产生的损失LossT1,将所述第一真实标签数据训练产生的损失LossT1作为第一监督信号;
所述第二监督信号的确定方法包括:
根据第二深度学习分割模型对真实标注的训练数据集的第二真实预测结果与所述真实标注的训练数据集计算第二真实标签数据训练产生的损失LossT2,将所述第二真实标签数据训练产生的损失LossT2作为第二监督信号。
4.根据权利要求2所述的基于深度学习分割模型的病理图像处理方法,其特征在于,所述利用所述训练后的第一深度学习分割模型标定未标注的训练数据集的第一伪标签,计算第一伪标签数据训练产生的损失LossF1包括:
将所述训练后的第一深度学习分割模型对未标注的训练数据集的预测结果作为第一伪标签,根据所述第一伪标签与所述第二深度学习分割模型的预测结果计算第一伪标签数据训练产生的损失LossF1
所述利用所述训练后的第二深度学习分割模型标定未标注的训练数据集的第二伪标签,计算第二伪标签数据训练产生的损失LossF2包括:
将所述训练后的第二深度学习分割模型对未标注的训练数据集的预测结果作为第二伪标签,根据所述第二伪标签与所述第一深度学习分割模型的预测结果计算第二伪标签数据训练产生的损失LossF2
5.根据权利要求1-4任一项所述的基于深度学习分割模型的病理图像处理方法,其特征在于,所述第一深度学习分割模型训练后产生的损失为loss1,计算公式如下:
loss1=lossT1+Wd*lossF2
所述第二深度学习分割模型训练后产生的的损失为loss2,计算公式如下:
loss2=lossT2+Wd*lossF1
其中,LossT1为第一真实标签数据训练产生的损失,LossF2为第二伪标签数据训练产生的损失,LossT2为第二真实标签数据训练产生的损失,LossF1为第一伪标签数据训练产生的损失;伪标签损失权重系数Wd的表达式如下:
Figure FDA0003562746790000031
Sc=Sc+max[(α-θ),0.5]*Sd
Figure FDA0003562746790000032
其中,Sg为当前训练步数,Sc用于控制每个权重周期的最低值以及用于控制权重系数的递减周期;Sd为权重增长周期,α是权重周期控制系数,变量θ∈[0,α],floor为向下取整函数。
6.根据权利要求4所述的基于深度学习分割模型的病理图像处理方法,其特征在于,所述将所述训练后的第一深度学习分割模型对未标注的训练数据集的预测结果作为第一伪标签包括:
对所述训练后的第一深度学习分割模型对未标注的训练数据集的预测结果进行二值化和数据增强处理,将数据增强处理后的标签作为未标注的训练数据集的第一伪标签;
所述将所述训练后的第二深度学习分割模型对未标注的训练数据集的预测结果作为第二伪标签包括:
对所述训练后的第二深度学习分割模型对未标注的训练数据集的预测结果进行二值化和数据增强处理,将数据增强处理后的标签作为未标注的训练数据集的第二伪标签。
7.根据权利要求2所述的基于深度学习分割模型的病理图像处理方法,其特征在于,所述未标注的训练数据集为新获取的病理切片的图像数据或者为真实标注的训练数据集去掉标注信息后的数据。
8.根据权利要求1所述的基于深度学习分割模型的病理图像处理方法,其特征在于,所述血管深度学习分割模型采用标准U-Net模型;所述节细胞深度学习分割模型采用改进的U-Net模型,所述改进的U-Net模型采用残差模块代替标准U-Net模型中的编码模块。
9.根据权利要求1所述的基于深度学习分割模型的病理图像处理方法,其特征在于,所述通过所述训练好的深度学习分割模型对待测图片进行血管和节细胞的识别之后还包括:
采用图像分割优化单元对所述深度学习分割模型识别到的血管和节细胞进行精确度优化,去除假阳性目标。
10.根据权利要求9所述的基于深度学习分割模型的病理图像处理方法,其特征在于,所述采用图像分割优化单元对所述深度学习分割模型识别到的血管和节细胞进行精确度优化,去除假阳性目标之后还包括:
根据所述图像分割优化单元优化后的目标计算相应的计量指标。
11.根据权利要求10所述的基于深度学习分割模型的病理图像处理方法,其特征在于,所述图像分割优化单元对所述深度学习分割模型识别到的血管和节细胞进行精确度优化包括至少如下一种操作:离群点阈值筛选、目标尺寸阈值分割、色度阈值分割、分水岭、基于聚类的异常点检测。
12.根据权利要求1-11任一项所述的基于深度学习分割模型的病理图像处理方法,其特征在于,对所述病理切片的图像数据进行处理至少进行如下一项操作:数据裁剪、数据缩放、生成真实掩模、数据增强。
13.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行如权利要求1-12中任一项所述的基于深度学习分割模型的病理图像处理方法。
CN202210294465.7A 2022-03-24 2022-03-24 基于深度学习分割模型的病理图像处理方法、电子设备 Pending CN114581434A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210294465.7A CN114581434A (zh) 2022-03-24 2022-03-24 基于深度学习分割模型的病理图像处理方法、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210294465.7A CN114581434A (zh) 2022-03-24 2022-03-24 基于深度学习分割模型的病理图像处理方法、电子设备

Publications (1)

Publication Number Publication Date
CN114581434A true CN114581434A (zh) 2022-06-03

Family

ID=81783211

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210294465.7A Pending CN114581434A (zh) 2022-03-24 2022-03-24 基于深度学习分割模型的病理图像处理方法、电子设备

Country Status (1)

Country Link
CN (1) CN114581434A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115409073A (zh) * 2022-10-31 2022-11-29 之江实验室 一种面向i/q信号识别的半监督宽度学习方法及装置
CN115690143A (zh) * 2022-09-26 2023-02-03 推想医疗科技股份有限公司 图像分割方法、装置、电子设备及存储介质
CN117351199A (zh) * 2023-09-11 2024-01-05 华中科技大学 基于框标注训练的息肉分割模型建立方法及息肉分割方法
CN117497064A (zh) * 2023-12-04 2024-02-02 电子科技大学 基于半监督学习的单细胞三维基因组数据分析方法
WO2024083152A1 (zh) * 2022-10-18 2024-04-25 安翰科技(武汉)股份有限公司 病理图像识别方法及其模型训练方法、系统和存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115690143A (zh) * 2022-09-26 2023-02-03 推想医疗科技股份有限公司 图像分割方法、装置、电子设备及存储介质
WO2024083152A1 (zh) * 2022-10-18 2024-04-25 安翰科技(武汉)股份有限公司 病理图像识别方法及其模型训练方法、系统和存储介质
CN115409073A (zh) * 2022-10-31 2022-11-29 之江实验室 一种面向i/q信号识别的半监督宽度学习方法及装置
CN117351199A (zh) * 2023-09-11 2024-01-05 华中科技大学 基于框标注训练的息肉分割模型建立方法及息肉分割方法
CN117497064A (zh) * 2023-12-04 2024-02-02 电子科技大学 基于半监督学习的单细胞三维基因组数据分析方法

Similar Documents

Publication Publication Date Title
CN111815574B (zh) 一种基于粗糙集神经网络的眼底视网膜血管图像分割方法
CN114581434A (zh) 基于深度学习分割模型的病理图像处理方法、电子设备
CN109584254B (zh) 一种基于深层全卷积神经网络的心脏左心室分割方法
CN112132817B (zh) 一种混合注意力机制的眼底图像视网膜血管分割方法
CN110414377B (zh) 一种基于尺度注意力网络的遥感图像场景分类方法
Wu et al. Cascaded fully convolutional networks for automatic prenatal ultrasound image segmentation
CN111784671B (zh) 基于多尺度深度学习的病理图像病灶区域检测方法
CN106920227B (zh) 基于深度学习与传统方法相结合的视网膜血管分割方法
CN109615582A (zh) 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法
CN109345538A (zh) 一种基于卷积神经网络的视网膜血管分割方法
CN106940816A (zh) 基于3d全连接卷积神经网络的ct图像肺结节检测系统
CN111754446A (zh) 一种基于生成对抗网络的图像融合方法、系统及存储介质
CN109035172B (zh) 一种基于深度学习的非局部均值超声图像去噪方法
Spirkovska A summary of image segmentation techniques
CN111539480B (zh) 多类别医学图像识别方法及设备
CN112926652B (zh) 一种基于深度学习的鱼类细粒度图像识别方法
CN109919915A (zh) 基于深度学习的视网膜眼底图像异常区域检测方法及设备
CN114565620B (zh) 一种基于骨架先验和对比损失的眼底图像血管分割方法
CN114648806A (zh) 一种多机制自适应的眼底图像分割方法
CN112348059A (zh) 基于深度学习的多种染色病理图像分类方法及系统
CN112598031A (zh) 一种蔬菜病害检测方法及系统
CN112270366A (zh) 基于自适应多特征融合的微小目标检测方法
CN115661459A (zh) 一种使用差异信息的2D mean teacher模型
WO2021009804A1 (ja) 閾値の学習方法
CN111882495A (zh) 一种基于自定义模糊逻辑与gan的图像高光处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination