CN115222675A - 一种基于深度学习的子宫肌瘤自动分型方法及装置 - Google Patents
一种基于深度学习的子宫肌瘤自动分型方法及装置 Download PDFInfo
- Publication number
- CN115222675A CN115222675A CN202210765824.2A CN202210765824A CN115222675A CN 115222675 A CN115222675 A CN 115222675A CN 202210765824 A CN202210765824 A CN 202210765824A CN 115222675 A CN115222675 A CN 115222675A
- Authority
- CN
- China
- Prior art keywords
- hysteromyoma
- type
- area
- uterine
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于深度学习的子宫肌瘤自动分型方法及装置。所述方法包括:构建语义分割模型,将输入盆腔医学影像划分为黏膜内、肌层、浆膜外3个区域;构建实例分割模型,分割出子宫肌瘤,得到子宫肌瘤体积VT;提取子宫肌瘤的轮廓,计算所述子宫肌瘤属于浆膜外区域的体积VO和属于黏膜内区域的体积VN;基于VO、VN和VT对所述子宫肌瘤进行FIGO分型。本发明对子宫肌瘤进行分型的全流程不需要人工参与,减轻了影像科医生的分析压力,有助于提升FIGO分型判定的准确率和一致性。
Description
技术领域
本发明属于医学影像技术领域,具体涉及一种基于深度学习的子宫肌瘤自动分型方法及装置。
背景技术
子宫肌瘤是常见的一种良性肿瘤,也是人体中最常见的肿瘤之一,又称为纤维肌瘤、子宫纤维瘤。由于子宫肌瘤主要是由子宫平滑肌细胞增生而成,其中有少量纤维结缔组织作为一种支持组织而存在,故又称为子宫平滑肌瘤。基于子宫肌瘤和子宫浆膜、黏膜的关系,可以对子宫肌瘤进行FIGO(The International Federation of Gynecology andObstetrics,国际妇产科学联盟)分型。不同FIGO分型的子宫肌瘤对患者的影响和治疗方法的选择是不同的。子宫肌瘤FIGO分型法如下:0型:完全位于宫腔内的黏膜下肌瘤;1型:肌瘤大部分位于宫腔内,肌瘤位于肌壁间的部分≤50%;2型:肌壁间突向黏膜下的肌瘤,肌瘤位于肌壁间的部分>50%;2-5型:混合类型;3型:肌瘤完全位于肌壁间,但其位置紧贴黏膜;4型:肌瘤完全位于肌壁间,既不靠近突向浆膜层又不突向黏膜层;5型:肌瘤突向浆膜,但位于肌壁间部分≥50%;6型:肌瘤突向浆膜,但位于肌壁间部分<50%;7型:有蒂的浆膜下肌瘤;8型:非子宫肌层类型(特殊部位如宫颈、阔韧带肌瘤)。
目前FIGO分型主要依赖医生主观判断,需要消耗大量的时间进行分析,尚无自动化FIGO分型算法和装置。医生的诊断依赖于医生的年资和诊断经验,主观性较强,一致性较差。为此,本发明提出一种基于深度学习分割模型的自动化FIGO分型方法,基于语义分割确定浆膜和黏膜的区域,然后基于医学影像上的实例分割获取子宫肌瘤的区域,提取相关特征后自动化得出FIGO分型。
发明内容
为了解决现有技术中存在的上述问题,本发明提供一种基于深度学习的子宫肌瘤自动分型方法及装置。
为了实现上述目的,本发明采用以下技术方案。
第一方面,本发明提供一种基于深度学习的子宫肌瘤自动分型方法,包括以下步骤:
构建语义分割模型,将盆腔医学影像输入到训练好的所述模型将所述图像划分为3个区域:黏膜内;肌层,即黏膜与浆膜之间的区域;浆膜外;
构建实例分割模型,将盆腔医学影像输入到训练好的所述模型,分割出子宫肌瘤,得到子宫肌瘤体积VT;
提取子宫肌瘤的轮廓,确定轮廓上每个像素点所邻接的区域,并计算所述子宫肌瘤属于浆膜外区域的体积VO和属于黏膜内区域的体积VN;
基于VO、VN和VT对所述子宫肌瘤进行FIGO分型。
进一步地,所述语义分割模型的输出为浆膜和黏膜两种类型,最后一层的激活函数为sigmoid;在模型预测时,sigmoid输出大于0.5的区域为预测类型;若一个像素既被预测为浆膜,又被预测为黏膜,那么该像素最终的类型是黏膜。
进一步地,确定轮廓上每个像素点所邻接的区域的方法包括:
选取以轮廓上任一像素点A为中心的一个邻域;
如果所述邻域内子宫肌瘤以外的像素点均属于3个区域中的一个区域,则所述一个区域为像素点A所邻接的区域;
如果所述邻域内子宫肌瘤以外的像素点属于3个区域中的多个区域,则选取所述多个区域中的任意一个区域为像素点A所邻接的区域。
更进一步地,VO、VN的计算方法包括:
分别连接每层子宫肌瘤轮廓上邻接区域为浆膜外区域的像素点和邻接区域为黏膜内区域的像素点,结合浆膜外区域和黏膜内区域的轮廓,得到每层子宫肌瘤分别属于浆膜外区域和黏膜内区域的两部分;
基于所述两部分计算每层子宫肌瘤属于浆膜外区域的体积VOi,以及属于黏膜内区域的体积VNi,i=1,2,…,n,n为盆腔医学影像的层数;
更进一步地,所述基于VO、VN和VT对所述子宫肌瘤进行FIGO分型,包括:
S1、若VN=VO=0,则子宫肌瘤为4型;否则,转步骤S2;
S2、若VT=VN,则子宫肌瘤为0型;否则,转步骤S3;
S3、若VT=VO,则子宫肌瘤为8型;否则,转步骤S4;
S4、若VN>0,且VO>0,则子宫肌瘤为2-5型;否则,转步骤S5;
S5、若VO>0,则转步骤S61;否则,转步骤S71;
S61、若ratio_O>0.98,则子宫肌瘤为7型;否则,转步骤S62;
S62、若ratio_max_O>0.5,则子宫肌瘤为6型;否则,转步骤S63;
S63、若ratio_max_O>0.1,则子宫肌瘤为5型;否则,子宫肌瘤为4型;
S71、若ratio_max_N<0.1,则子宫肌瘤为3型;否则,转步骤S72;
S72、若ratio_max_N<0.5,则子宫肌瘤为2型;否则,子宫肌瘤为1型。
第二方面,本发明提供一种基于深度学习的子宫肌瘤自动分型装置,包括:
第一建模模块,用于构建语义分割模型,将盆腔医学影像输入到训练好的所述模型将所述图像划分为3个区域:黏膜内;肌层,即黏膜与浆膜之间的区域;浆膜外;
第二建模模块,用于构建实例分割模型,将盆腔医学影像输入到训练好的所述模型,分割出子宫肌瘤,得到子宫肌瘤体积VT;
体积计算模块,用于提取子宫肌瘤的轮廓,确定轮廓上每个像素点所邻接的区域,并计算所述子宫肌瘤属于浆膜外区域的体积VO和属于黏膜内区域的体积VN;
肌瘤分型模块,用于基于VO、VN和VT对所述子宫肌瘤进行FIGO分型。
进一步地,所述语义分割模型的输出为浆膜和黏膜两种类型,最后一层的激活函数为sigmoid;在模型预测时,sigmoid输出大于0.5的区域为预测类型;若一个像素既被预测为浆膜,又被预测为黏膜,那么该像素最终的类型是黏膜。
进一步地,确定轮廓上每个像素点所邻接的区域的方法包括:
选取以轮廓上任一像素点A为中心的一个邻域;
如果所述邻域内子宫肌瘤以外的像素点均属于3个区域中的一个区域,则所述一个区域为像素点A所邻接的区域;
如果所述邻域内子宫肌瘤以外的像素点属于3个区域中的多个区域,则选取所述多个区域中的任意一个区域为像素点A所邻接的区域。
更进一步地,VO、VN的计算方法包括:
分别连接每层子宫肌瘤轮廓上邻接区域为浆膜外区域的像素点和邻接区域为黏膜内区域的像素点,结合浆膜外区域和黏膜内区域的轮廓,得到每层子宫肌瘤分别属于浆膜外区域和黏膜内区域的两部分;
基于所述两部分计算每层子宫肌瘤属于浆膜外区域的体积VOi,以及属于黏膜内区域的体积VNi,i=1,2,…,n,n为盆腔医学影像的层数;
进一步地,所述基于VO、VN和VT对所述子宫肌瘤进行FIGO分型,包括:
S1、若VN=VO=0,则子宫肌瘤为4型;否则,转步骤S2;
S2、若VT=VN,则子宫肌瘤为0型;否则,转步骤S3;
S3、若VT=VO,则子宫肌瘤为8型;否则,转步骤S4;
S4、若VN>0,且VO>0,则子宫肌瘤为2-5型;否则,转步骤S5;
S5、若VO>0,则转步骤S61;否则,转步骤S71;
S61、若ratio_O>0.98,则子宫肌瘤为7型;否则,转步骤S62;
S62、若ratio_max_O>0.5,则子宫肌瘤为6型;否则,转步骤S63;
S63、若ratio_max_O>0.1,则子宫肌瘤为5型;否则,子宫肌瘤为4型;
S71、若ratio_max_N<0.1,则子宫肌瘤为3型;否则,转步骤S72;
S72、若ratio_max_N<0.5,则子宫肌瘤为2型;否则,子宫肌瘤为1型。
与现有技术相比,本发明具有以下有益效果。
本发明通过构建语义分割模型,将盆腔医学影像划分为3个区域,构建实例分割模型,分割出子宫肌瘤,得到子宫肌瘤体积VT,提取子宫肌瘤的轮廓,确定轮廓上每个像素点所邻接的区域,并计算所述子宫肌瘤属于浆膜外区域的体积VO和属于黏膜内区域的体积VN,基于VO、VN和VT对所述子宫肌瘤进行FIGO分型,实现了子宫肌瘤的自动分型。本发明对子宫肌瘤进行分型的全流程不需要人工参与,极大减轻了影像科医生的分析压力,有助于提升FIGO分型判定的准确率和一致性。
附图说明
图1为本发明实施例一种基于深度学习的子宫肌瘤自动分型方法的流程图。
图2为子宫肌瘤、黏膜和浆膜标注示意图。
图3为子宫肌瘤轮廓点所属区域判定方法示意图。
图4为子宫肌瘤3个部分的体积分布示意图。
图5为基于VO、VN和VT对子宫肌瘤进行分型的流程图。
图6为本发明实施例一种基于深度学习的子宫肌瘤自动分型装置的方框图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明白,以下结合附图及具体实施方式对本发明作进一步说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例一种基于深度学习的子宫肌瘤自动分型方法的流程图,包括以下步骤:
步骤101,构建语义分割模型,将盆腔医学影像输入到训练好的所述模型将所述图像划分为3个区域:黏膜内;肌层,即黏膜与浆膜之间的区域;浆膜外;
步骤102,构建实例分割模型,将盆腔医学影像输入到训练好的所述模型,分割出子宫肌瘤,得到子宫肌瘤体积VT;
步骤103,提取子宫肌瘤的轮廓,确定轮廓上每个像素点所邻接的区域,并计算所述子宫肌瘤属于浆膜外区域的体积VO和属于黏膜内区域的体积VN;
步骤104,基于VO、VN和VT对所述子宫肌瘤进行FIGO分型。
本实施例中,步骤101主要用于将输入的盆腔医学影像分成3个区域。所述3个区域分别是黏膜内、肌层(黏膜在浆膜内,肌层即黏膜与浆膜之间的区域)和浆膜外,如图4所示。本实施例通过构建语义分割模型,将盆腔医学影像输入到训练好的所述模型中,将所述图像划分为3个区域。语义分割模型可将输入图像的每个像素进行分类。可以选用nnU-Net框架进行语义分割模型的训练,得到3D U-Net分割模型。模型训练需要通过收集包含盆腔部位的医学影像构建训练集、验证集和测试集。可选择常用的观察子宫肌瘤和浆膜、黏膜的影像序列,如矢状位T2WI和轴位T2WI的盆腔医学影像。整个数据收集过程须遵守保密性原则,对收集到的影像数据进行匿名化处理,除去所有患者个人信息。还要对收集到的影像进行标注,可由一名有经验的标注人在具有多年女性盆腔影像诊断经验的放射科医生的指导下,在每一个患者的医学影像上勾画出子宫轮廓及子宫内膜,勾画出所有的子宫肌瘤,并依据指南标注其FIGO分型。如图2所示,图中有两个子宫肌瘤,在标注时对每个肌瘤分别进行标注。为了避免因图像分辨率和大小的不同对模型性能产生不利影响,对于收集到的医学影像序列,进行空间分辨率归一化。首先,统计所有医学影像序列的分辨率和图像尺寸信息,选取中位数作为目标分辨率和目标大小。采用插值算法将所有图像重采样到目标分辨率,并裁剪至目标大小。同时,将医生的勾画结果进行同样的处理,即重采样到目标分辨率,并裁剪至目标大小。最后,将所有的数据按病人划分为训练集、验证集和测试集,3个数据集的划分比例可以根据数据量选取,如可选为6:2:2。本实施例的盆腔医学影像包括但不限于MR图像。
本实施例中,步骤102主要用于分割出子宫肌瘤。本实施例通过构建实例分割模型,将盆腔医学影像输入到训练好的所述模型,分割出子宫肌瘤。图像分割可以分为实例分割和语义分割,如前述,语义分割是对输入图像的每个像素进行分类,而实例分割是目标检测和语义分割的结合,在图像中将目标检测出来(目标检测),然后给每个像素打上标签(语义分割)。对于实例分割任务而言,不但要给出像素是否属于感兴趣目标,还要对同一类别的不同对象进行区分。可选用任何能完成子宫肌瘤分割任务的实例分割模型。实例分割模型可以选用Mask RCNN。由于盆腔MR扫描一般都是厚层数据,因此可采用伪3D的方式进行分割。具体地,取目标层图像和它的前后各1张共3张图像作为输入,使用2D的Mask RCNN模型预测目标图像的分割结果。比如,对于第k层的预测,输入的图像为第k-1、k、k+1层的3张图像,将这3张图像组合成输入张量的3个通道,输出是第k层的分割结果。这样的方式类似于自然图像的RGB三通道的方式,因此该方法可以充分利用自然图像数据集,如ImageNet的预训练参数,避免模型出现过拟合。值得说明的是,上述选用Mask RCNN仅是一个示例,还可选用其它现有的实例分割模型。另外,分割方法并不局限于伪3D的方式,也可以直接采用3D实例分割算法进行实例分割。子宫肌瘤分割完成后,可得到子宫肌瘤体积。
本实施例中,步骤103主要用于计算子宫肌瘤属于浆膜外区域的体积VO、属于黏膜内区域的体积VN。计算VO、VN是为了步骤104基于VO、VN和VT对子宫肌瘤进行分型。本实施例首先利用图像轮廓检索算法提取子宫肌瘤的轮廓。由于病灶不含空洞,因此仅检索最外层轮廓,得到宫肌瘤在当前层的所有轮廓点。然后基于步骤101将输入盆腔医学影像分成的3个区域,确定子宫肌瘤轮廓上每个像素点分别属于哪个区域,在此基础上分别确定子宫肌瘤属于浆膜外区域和黏膜内区域的部分,并分别计算体积VO和VN。如图4所示,图中的VOi、VNi分别为第i层的子宫肌瘤属于浆膜外区域的体积和属于黏膜内区域的体积,可通过计算VOi、VNi对i求和得到VO、VN。值得说明的是,这里的VOi、VNi均为体积而不是面积,因为每一层图像都有一定厚度,称为层厚(层厚是医学图像的参数,代表该层图像对应人体的实际厚度,可从存储的Dicom等介质中读取)。可通过求面积与层厚的积得到体积。
本实施例中,步骤104主要用于基于VO、VN和VT对所述子宫肌瘤进行分型。前面(背景技术部分)给出了子宫肌瘤的FIGO分型方法,将子宫肌瘤分成0~8型,还有一个混合型即2-5型,并给出了每个分型的特征。可根据所述特征,根据VO、VN和VT的取值(或简单运算后的取值),识别子宫肌瘤的分型。后面的实施例将给出一种具体的分型方法。
作为一可选实施例,所述语义分割模型的输出为浆膜和黏膜两种类型,最后一层的激活函数为sigmoid;在模型预测时,sigmoid输出大于0.5的区域为预测类型;若一个像素既被预测为浆膜,又被预测为黏膜,那么该像素最终的类型是黏膜。
本实施例给出了语义分割模型一种具体的技术方案。本实施例的语义分割模型相对现有的分割模型是一种改进。常见的多类别分割模型输出的类别数量为预测目标的个数+1(背景),例如本实施例中的原始模型输出层是3通道,分别为浆膜、黏膜和背景,通过使用激活函数softmax变换获取3个通道的预测概率,取预测概率最大的作为像素的预测结果,也就是多个预测结果是互斥的。本实施例中,由于浆膜和黏膜区域是包含关系(黏膜位于浆膜内),有的像素可以既在浆膜内,又在黏膜内。因此本实施例将输出层改为2通道的卷积层分别预测浆膜和黏膜,并将最后一层非线性变换由softmax改为sigmoid。在模型预测时,取sigmoid变换后大于0.5的区域为预测目标。由于浆膜和黏膜是包含关系,因此,黏膜的优先级高于浆膜。换句话说,如果一个像素既被预测为浆膜,又被预测为黏膜,那么该像素最终的结果是黏膜。
作为一可选实施例,确定轮廓上每个像素点所邻接的区域的方法包括:
选取以轮廓上任一像素点A为中心的一个邻域;
如果所述邻域内子宫肌瘤以外的像素点均属于3个区域中的一个区域,则所述一个区域为像素点A所邻接的区域;
如果所述邻域内子宫肌瘤以外的像素点属于3个区域中的多个区域,则选取所述多个区域中的任意一个区域为像素点A所邻接的区域。
本实施例给出了确定子宫肌瘤轮廓上任一像素点所邻接的区域的一种技术方案。上面的技术方案以像素点A为例,详细描述了确定任一像素点所邻接的区域的方法。为了便于理解技术方案,图3示出了4邻域判定方法,即以轮廓上任一像素点为中心,作一个3*3的“九宫格”,考察与中心点相邻的上、下、左、右共4个像素点中除子宫肌瘤之外的像素点所属的区域。图3中,左、下2个像素点属于子宫肌瘤,上、右2个像素点均属于浆膜外区域,因此中心点的邻接区域为浆膜外区域,标记为O。按照相同的方法可得到其它像素点所邻接的区域,如图3所示,标记为J的表示邻接区域为肌层,标记为N的表示邻接区域为黏膜内区域。
作为一可选实施例,VO、VN的计算方法包括:
分别连接每层子宫肌瘤轮廓上邻接区域为浆膜外区域的像素点和邻接区域为黏膜内区域的像素点,结合浆膜外区域和黏膜内区域的轮廓,得到每层子宫肌瘤分别属于浆膜外区域和黏膜内区域的两部分;
基于所述两部分计算每层子宫肌瘤属于浆膜外区域的体积VOi,以及属于黏膜内区域的体积VNi,i=1,2,…,n,n为盆腔医学影像的层数;
本实施例给出了计算VO、VN的一种技术方案。本实施例逐层计算VOi、VNi,然后对各层求和得到VO、VN。本实施例通过连接每层子宫肌瘤轮廓上邻接区域为浆膜外区域的像素点和邻接区域为黏膜内区域的像素点,比如连接图3中标记为O的像素点和标记为N的像素点,再根据浆膜外区域和黏膜内区域的轮廓,就可以得到子宫肌瘤凸出浆膜向外的区域和凸出黏膜向内的区域,从而得到VOi、VNi,如图4所示。
作为一可选实施例,所述基于VO、VN和VT对所述子宫肌瘤进行FIGO分型,包括:
S1、若VN=VO=0,则子宫肌瘤为4型;否则,转步骤S2;
S2、若VT=VN,则子宫肌瘤为0型;否则,转步骤S3;
S3、若VT=VO,则子宫肌瘤为8型;否则,转步骤S4;
S4、若VN>0,且VO>0,则子宫肌瘤为2-5型;否则,转步骤S5;
S5、若VO>0,则转步骤S61;否则,转步骤S71;
S61、若ratio_O>0.98,则子宫肌瘤为7型;否则,转步骤S62;
S62、若ratio_max_O>0.5,则子宫肌瘤为6型;否则,转步骤S63;
S63、若ratio_max_O>0.1,则子宫肌瘤为5型;否则,子宫肌瘤为4型;
S71、若ratio_max_N<0.1,则子宫肌瘤为3型;否则,转步骤S72;
S72、若ratio_max_N<0.5,则子宫肌瘤为2型;否则,子宫肌瘤为1型。
本实施例给出了对子宫肌瘤进行FIGO分型的一种技术方案。本实施例基于VO、VN和VT对子宫肌瘤进行FIGO分型。首先根据VO、VN和VT计算4个比值,分别为ratio_N、ratio_O、ratio_max_O和ratio_max_N,然后基于这些参数的关系和取值范围判定子宫肌瘤的FIGO分型。具体分型方法可参考图5所示的流程图,这里不再展开详细说明。
图6为本发明实施例一种基于深度学习的子宫肌瘤自动分型装置的组成示意图,所述装置包括:
第一建模模块11,用于构建语义分割模型,将盆腔医学影像输入到训练好的所述模型将所述图像划分为3个区域:黏膜内;肌层,即黏膜与浆膜之间的区域;浆膜外;
第二建模模块12,用于构建实例分割模型,将盆腔医学影像输入到训练好的所述模型,分割出子宫肌瘤,得到子宫肌瘤体积VT;
体积计算模块13,用于提取子宫肌瘤的轮廓,确定轮廓上每个像素点所邻接的区域,并计算所述子宫肌瘤属于浆膜外区域的体积VO和属于黏膜内区域的体积VN;
肌瘤分型模块14,用于基于VO、VN和VT对所述子宫肌瘤进行FIGO分型。
本实施例的装置,可以用于执行图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。后面的实施例也是如此,均不再展开说明。
作为一可选实施例,所述语义分割模型的输出为浆膜和黏膜两种类型,最后一层的激活函数为sigmoid;在模型预测时,sigmoid输出大于0.5的区域为预测类型;若一个像素既被预测为浆膜,又被预测为黏膜,那么该像素最终的类型是黏膜。
作为一可选实施例,确定轮廓上每个像素点所邻接的区域的方法包括:
选取以轮廓上任一像素点A为中心的一个邻域;
如果所述邻域内子宫肌瘤以外的像素点均属于3个区域中的一个区域,则所述一个区域为像素点A所邻接的区域;
如果所述邻域内子宫肌瘤以外的像素点属于3个区域中的多个区域,则选取所述多个区域中的任意一个区域为像素点A所邻接的区域。
作为一可选实施例,VO、VN的计算方法包括:
分别连接每层子宫肌瘤轮廓上邻接区域为浆膜外区域的像素点和邻接区域为黏膜内区域的像素点,结合浆膜外区域和黏膜内区域的轮廓,得到每层子宫肌瘤分别属于浆膜外区域和黏膜内区域的两部分;
基于所述两部分计算每层子宫肌瘤属于浆膜外区域的体积VOi,以及属于黏膜内区域的体积VNi,i=1,2,…,n,n为盆腔医学影像的层数;
作为一可选实施例,所述基于VO、VN和VT对所述子宫肌瘤进行FIGO分型,包括:
S1、若VN=VO=0,则子宫肌瘤为4型;否则,转步骤S2;
S2、若VT=VN,则子宫肌瘤为0型;否则,转步骤S3;
S3、若VT=VO,则子宫肌瘤为8型;否则,转步骤S4;
S4、若VN>0,且VO>0,则子宫肌瘤为2-5型;否则,转步骤S5;
S5、若VO>0,则转步骤S61;否则,转步骤S71;
S61、若ratio_O>0.98,则子宫肌瘤为7型;否则,转步骤S62;
S62、若ratio_max_O>0.5,则子宫肌瘤为6型;否则,转步骤S63;
S63、若ratio_max_O>0.1,则子宫肌瘤为5型;否则,子宫肌瘤为4型;
S71、若ratio_max_N<0.1,则子宫肌瘤为3型;否则,转步骤S72;
S72、若ratio_max_N<0.5,则子宫肌瘤为2型;否则,子宫肌瘤为1型。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于深度学习的子宫肌瘤自动分型方法,其特征在于,包括以下步骤:
构建语义分割模型,将盆腔医学影像输入到训练好的所述模型将所述图像划分为3个区域:黏膜内;肌层,即黏膜与浆膜之间的区域;浆膜外;
构建实例分割模型,将盆腔医学影像输入到训练好的所述模型,分割出子宫肌瘤,得到子宫肌瘤体积VT;
提取子宫肌瘤的轮廓,确定轮廓上每个像素点所邻接的区域,并计算所述子宫肌瘤属于浆膜外区域的体积VO和属于黏膜内区域的体积VN;
基于VO、VN和VT对所述子宫肌瘤进行FIGO分型。
2.根据权利要求1所述的基于深度学习的子宫肌瘤自动分型方法,其特征在于,所述语义分割模型的输出为浆膜和黏膜两种类型,最后一层的激活函数为sigmoid;在模型预测时,sigmoid输出大于0.5的区域为预测类型;若一个像素既被预测为浆膜,又被预测为黏膜,那么该像素最终的类型是黏膜。
3.根据权利要求1所述的基于深度学习的子宫肌瘤自动分型方法,其特征在于,确定轮廓上每个像素点所邻接的区域的方法包括:
选取以轮廓上任一像素点A为中心的一个邻域;
如果所述邻域内子宫肌瘤以外的像素点均属于3个区域中的一个区域,则所述一个区域为像素点A所邻接的区域;
如果所述邻域内子宫肌瘤以外的像素点属于3个区域中的多个区域,则选取所述多个区域中的任意一个区域为像素点A所邻接的区域。
5.根据权利要求4所述的基于深度学习的子宫肌瘤自动分型方法,其特征在于,所述基于VO、VN和VT对所述子宫肌瘤进行FIGO分型,包括:
S1、若VN=VO=0,则子宫肌瘤为4型;否则,转步骤S2;
S2、若VT=VN,则子宫肌瘤为0型;否则,转步骤S3;
S3、若VT=VO,则子宫肌瘤为8型;否则,转步骤S4;
S4、若VN>0,且VO>0,则子宫肌瘤为2-5型;否则,转步骤S5;
S5、若VO>0,则转步骤S61;否则,转步骤S71;
S61、若ratio_O>0.98,则子宫肌瘤为7型;否则,转步骤S62;
S62、若ratio_max_O>0.5,则子宫肌瘤为6型;否则,转步骤S63;
S63、若ratio_max_O>0.1,则子宫肌瘤为5型;否则,子宫肌瘤为4型;
S71、若ratio_max_N<0.1,则子宫肌瘤为3型;否则,转步骤S72;
S72、若ratio_max_N<0.5,则子宫肌瘤为2型;否则,子宫肌瘤为1型。
6.一种基于深度学习的子宫肌瘤自动分型装置,其特征在于,所述装置包括:
第一建模模块,用于构建语义分割模型,将盆腔医学影像输入到训练好的所述模型将所述图像划分为3个区域:黏膜内;肌层,即黏膜与浆膜之间的区域;浆膜外;
第二建模模块,用于构建实例分割模型,将盆腔医学影像输入到训练好的所述模型,分割出子宫肌瘤,得到子宫肌瘤体积VT;
体积计算模块,用于提取子宫肌瘤的轮廓,确定轮廓上每个像素点所邻接的区域,并计算所述子宫肌瘤属于浆膜外区域的体积VO和属于黏膜内区域的体积VN;
肌瘤分型模块,用于基于VO、VN和VT对所述子宫肌瘤进行FIGO分型。
7.根据权利要求6所述的基于深度学习的子宫肌瘤自动分型装置,其特征在于,所述语义分割模型的输出为浆膜和黏膜两种类型,最后一层的激活函数为sigmoid;在模型预测时,sigmoid输出大于0.5的区域为预测类型;若一个像素既被预测为浆膜,又被预测为黏膜,那么该像素最终的类型是黏膜。
8.根据权利要求6所述的基于深度学习的子宫肌瘤自动分型装置,其特征在于,确定轮廓上每个像素点所邻接的区域的方法包括:
选取以轮廓上任一像素点A为中心的一个邻域;
如果所述邻域内子宫肌瘤以外的像素点均属于3个区域中的一个区域,则所述一个区域为像素点A所邻接的区域;
如果所述邻域内子宫肌瘤以外的像素点属于3个区域中的多个区域,则选取所述多个区域中的任意一个区域为像素点A所邻接的区域。
10.根据权利要求9所述的基于深度学习的子宫肌瘤自动分型装置,其特征在于,所述基于VO、VN和VT对所述子宫肌瘤进行FIGO分型,包括:
S1、若VN=VO=0,则子宫肌瘤为4型;否则,转步骤S2;
S2、若VT=VN,则子宫肌瘤为0型;否则,转步骤S3;
S3、若VT=VO,则子宫肌瘤为8型;否则,转步骤S4;
S4、若VN>0,且VO>0,则子宫肌瘤为2-5型;否则,转步骤S5;
S5、若VO>0,则转步骤S61;否则,转步骤S71;
S61、若ratio_O>0.98,则子宫肌瘤为7型;否则,转步骤S62;
S62、若ratio_max_O>0.5,则子宫肌瘤为6型;否则,转步骤S63;
S63、若ratio_max_O>0.1,则子宫肌瘤为5型;否则,子宫肌瘤为4型;
S71、若ratio_max_N<0.1,则子宫肌瘤为3型;否则,转步骤S72;
S72、若ratio_max_N<0.5,则子宫肌瘤为2型;否则,子宫肌瘤为1型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210765824.2A CN115222675A (zh) | 2022-07-01 | 2022-07-01 | 一种基于深度学习的子宫肌瘤自动分型方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210765824.2A CN115222675A (zh) | 2022-07-01 | 2022-07-01 | 一种基于深度学习的子宫肌瘤自动分型方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115222675A true CN115222675A (zh) | 2022-10-21 |
Family
ID=83610779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210765824.2A Pending CN115222675A (zh) | 2022-07-01 | 2022-07-01 | 一种基于深度学习的子宫肌瘤自动分型方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115222675A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116029999A (zh) * | 2022-12-28 | 2023-04-28 | 北京优创新港科技股份有限公司 | 一种基于u2net的烟雾、火焰分割方法及系统 |
-
2022
- 2022-07-01 CN CN202210765824.2A patent/CN115222675A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116029999A (zh) * | 2022-12-28 | 2023-04-28 | 北京优创新港科技股份有限公司 | 一种基于u2net的烟雾、火焰分割方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sun et al. | Computer-aided diagnosis in histopathological images of the endometrium using a convolutional neural network and attention mechanisms | |
US11101033B2 (en) | Medical image aided diagnosis method and system combining image recognition and report editing | |
CN111402228B (zh) | 图像检测方法、装置和计算机可读存储介质 | |
CN108364006B (zh) | 基于多模式深度学习的医学图像分类装置及其构建方法 | |
CN113538313B (zh) | 一种息肉分割方法、装置、计算机设备及存储介质 | |
RU2477524C2 (ru) | Способы выбора признаков, использующие основанные на группе классификаторов генетические алгоритмы | |
CN112101451B (zh) | 一种基于生成对抗网络筛选图像块的乳腺癌组织病理类型分类方法 | |
CN111192245A (zh) | 一种基于U-Net网络的脑肿瘤分割网络及分割方法 | |
CN111243042A (zh) | 基于深度学习的超声甲状腺结节良恶性特征可视化的方法 | |
CN108898175A (zh) | 基于深度学习胃癌病理切片的计算机辅助模型构建方法 | |
Włodarczyk et al. | Spontaneous preterm birth prediction using convolutional neural networks | |
CN112365464A (zh) | 一种基于gan的医学图像病变区域弱监督定位方法 | |
CN114782307A (zh) | 基于深度学习的增强ct影像直肠癌分期辅助诊断系统 | |
CN109117890A (zh) | 一种图像分类方法、装置和存储介质 | |
CN112348794A (zh) | 基于注意力增强u型网络的超声乳腺肿瘤自动分割方法 | |
CN114398979A (zh) | 一种基于特征解耦的超声图像甲状腺结节分类方法 | |
CN117036288A (zh) | 一种面向全切片病理图像的肿瘤亚型诊断方法 | |
Liu et al. | Automated classification of cervical Lymph-Node-Level from ultrasound using depthwise separable convolutional swin transformer | |
CN115222675A (zh) | 一种基于深度学习的子宫肌瘤自动分型方法及装置 | |
CN115471512A (zh) | 一种基于自监督对比学习的医学影像分割方法 | |
CN113223716A (zh) | 一种甲状腺微小癌消融术前颈部淋巴结良恶性预测方法 | |
CN115631387B (zh) | 基于图卷积神经网络的肺癌病理高危因素预测方法和装置 | |
CN116468727A (zh) | 基于腔镜图像识别辅助判断子宫内膜高危增生的方法及系统 | |
CN115439491A (zh) | Mri图像肠损伤区域的分割方法、装置及等级评估系统 | |
CN116205930A (zh) | 一种基于多层ct影像的颅内出血区域自动分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |