CN110717910B - 基于卷积神经网络的ct图像目标检测方法及ct扫描仪 - Google Patents
基于卷积神经网络的ct图像目标检测方法及ct扫描仪 Download PDFInfo
- Publication number
- CN110717910B CN110717910B CN201910984904.5A CN201910984904A CN110717910B CN 110717910 B CN110717910 B CN 110717910B CN 201910984904 A CN201910984904 A CN 201910984904A CN 110717910 B CN110717910 B CN 110717910B
- Authority
- CN
- China
- Prior art keywords
- current frame
- frame image
- target
- composite
- output data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 88
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 36
- 239000002131 composite material Substances 0.000 claims abstract description 123
- 238000013528 artificial neural network Methods 0.000 claims abstract description 24
- 238000001914 filtration Methods 0.000 claims abstract description 22
- 238000011176 pooling Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 27
- 230000005484 gravity Effects 0.000 claims description 9
- 238000009877 rendering Methods 0.000 claims description 7
- 239000013598 vector Substances 0.000 description 23
- 238000012706 support-vector machine Methods 0.000 description 10
- 230000004927 fusion Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 210000004072 lung Anatomy 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- High Energy & Nuclear Physics (AREA)
- Data Mining & Analysis (AREA)
- Animal Behavior & Ethology (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Pulmonology (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种CT图像目标检测方法及CT扫描仪,CT图像目标检测方法包括:基于视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域;将残差区域与当前帧图像进行融合,获得融合当前帧图像;对融合当前帧图像进行高通滤波,获得高频当前帧图像;对融合当前帧图像进行低通滤波,获得低频当前帧图像;将高频当前帧图像和低频帧图像进行融合,获得复合当前帧图像;基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域;基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域;获得当前帧目标区域和复合目标区域的距离;若距离小于目标值,基于当前帧目标区域和复合目标区域,获得待检测的目标图像。
Description
技术领域
本发明涉及计算机技术领域,具体而言涉及一种基于卷积神经网络的CT图像目标检测方法及CT扫描仪。
背景技术
目标检测已经是一个比较成熟的计算机技术,基于区域的目标检测方法、基于纹理的目标检测方法等层出不穷,但是这些传统方法的检测精度低。当前,目标检测取得较好效果的是基于神经网络进行目标检测。但是,基于神经网络的目标检测方法依赖于大量的训练样本,且基于神经网络的目标检测方法没有考虑到训练样本存在的差异性,会导致现场应用的检测结果准确性不够高。在CT图像目标检测等需要高精度检测目标的场景,仅仅依赖于神经网络的目标检测方法或者传统的目标检测方法的的目标检测结果不尽人意。
为此,一种提高目标检测的准确性的CT图像目标检测方法为人们所需。
发明内容
本发明实施例提供了一种基于卷积神经网络的CT图像目标检测方法,其旨在解决现有技术中存在的上述问题。
第一方面,本发明实施例提供了一种基于卷积神经网络的CT图像目标检测方法,所述方法包括:
获得CT扫描仪扫描的待检测区域的CT视频;
基于CT视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域;
将所述残差区域与所述当前帧图像进行融合,获得融合当前帧图像;
对所述融合当前帧图像进行高通滤波,获得高频当前帧图像;
对所述融合当前帧图像进行低通滤波,获得低频当前帧图像;
将所述高频当前帧图像和所述低频帧图像进行融合,获得复合当前帧图像;
基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域;
基于第二卷积神经网络对所述复合当前帧图像进行目标检测,获得复合目标区域;
获得所述当前帧目标区域和所述复合目标区域的距离;
若所述距离小于目标值,基于所述当前帧目标区域和所述复合目标区域,获得待检测的目标图像。
可选的,所述将所述残差区域与所述当前帧图像进行融合,获得融合当前帧图像,包括:
获得所述残差区域中的像素点(i,j)的像素值与所述当前帧图像中的像素点(i,j+k)的像素值之和,其中,所述i,j是正整数,k是大于或等于0的整数;
若所述和大于255,所述融合当前帧图像的像素点(i,j)的像素值为第一差值,所述第一差值为255与所述和与255的商的余数之差值;
若所述和不大于255,所述融合当前帧图像的像素点(i,j)的像素值为所述和。
可选的,所述将所述高频当前帧图像和所述低频帧图像进行融合,获得复合当前帧图像,包括:
获得所述高频当前帧图像中像素点(i,j)的像素值与所述低频当前帧图像中像素点(i,j)的平均值;
确定所述平均值作为所述复合当前帧图像的像素点(i,j)的像素值。
可选的,所述基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域,包括:
对所述当前帧图像进行至少一次卷积处理后,获得第一输出数据;
对所述第一输出数据进行两次池化处理后,获得第二输出数据;
对所述第二输出数据进行至少两次卷积处理后,获得第三输出数据;
对所述第三输出数据进行至少三次池化处理后,获得第四输出数据;
对所述第四输出数据进行分类,获得所述当前目标区域。
可选的,所述基于第二卷积神经网络对所述复合当前帧图像进行目标检测,获得复合目标区域,包括:
对所述复合当前帧图像进行至少三次池化处理后,获得第五输出数据;
对所述第五输出数据进行至少两次卷积处理后,获得第六输出数据;
对所述第六输出数据进行一池化处理和一次卷积处理后,获得第七输出数据;
将所述第六输出数据和所述第七输出数据进行融合,获得第八输出数据;
对所述第八输出数据进行至少两次池化处理和至少两次卷积处理后,获得第九输出数据;
对所述第九输出数据进行分类,获得所述复合目标区域。
可选的,所述获得所述当前帧目标区域和所述复合目标区域的距离,包括:
获得所述当前帧目标区域和所述复合目标区域的外接圆;
获得所述当前帧目标区域的外接圆的圆心和所述复合目标区域的外接圆的圆心之间欧氏距离;
确定所述欧氏距离作为所述当前帧目标区域和所述复合目标区域的距离。
可选的,所述获得所述当前帧目标区域和所述复合目标区域的距离,包括:
分别获得所述当前帧目标区域和所述复合目标区域的重心;
获得所述当前帧目标区域的重心和所述复合目标区域的重心之间欧氏距离;
确定所述欧氏距离作为所述当前帧目标区域和所述复合目标区域的距离。
可选的,所述基于所述当前帧目标区域和所述复合目标区域,获得待检测的目标,包括:
获得所述当前帧目标区域和所述复合目标区域的交叉区域;
确定所述交叉区域为所述待检测的目标。
可选的,在所述确定所述交叉区域为所述待检测的目标之前,所述方法还包括:
对所述交叉区域进行渲染。
第二方面,本发明实施例提供了一种CT扫描仪,CT扫描仪包括扫描部和处理部;
所述扫描部用于扫描待检测区域的CT视频,将所述CT视频发送至所述处理部;
处理部用于执行上述任一项所述的方法。
相较于现有技术,本发明达到的技术效果为:
本发明实施例提供了一种基于卷积神经网络的CT图像目标检测方法及CT扫描仪,CT图像目标检测方法包括:获得待CT扫描仪扫描的CT图像中的检测区域的视频;基于视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域;将所述残差区域与所述当前帧图像进行融合,获得融合当前帧图像;对所述融合当前帧图像进行高通滤波,获得高频当前帧图像;对所述融合当前帧图像进行低通滤波,获得低频当前帧图像;将所述高频当前帧图像和所述低频帧图像进行融合,获得复合当前帧图像;基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域;基于第二卷积神经网络对所述复合当前帧图像进行目标检测,获得复合目标区域;获得所述当前帧目标区域和所述复合目标区域的距离;若所述距离小于目标值,基于所述当前帧目标区域和所述复合目标区域,获得待检测的目标图像。
通过基于视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域,将残差区域与当前帧图像进行融合,获得融合当前帧图像,增强了当前帧图像的特征信息;通过对融合当前帧图像进行高通滤波,获得高频当前帧图像,高频当前帧图像保留了当前帧图像的高频特征信息,对融合当前帧图像进行低通滤波,获得低频当前帧图像,低频当前帧图像保留了当前帧图像的低频特征信息,将高频当前帧图像和低频帧图像进行融合,获得复合当前帧图像,增强了复合当前帧图像中的特征信息,同时提高了特征信息的保真性。基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域;基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域,进一步提高了目标在符合目标区域中的概率,提高了目标检测的准确性;获得当前帧目标区域和复合目标区域的距离,若距离小于目标值,基于当前帧目标区域和复合目标区域,获得待检测的目标图像,结合了传统神经网络的目标检测的结果,加上准确性高的第二神经网络的目标检测结果,提高了目标检测的准确性,提高了待检测的目标的精度。解决了现有技术中存在的目标检测精度低的技术问题,达到了提高目标检测的准确性的技术效果。
附图说明
图1示出了本发明实施例提供的一种基于卷积神经网络的CT图像目标检测方法的流程图。
图2示出了本发明实施例提供的一种第一卷积神经网络的结构示意图。
图3示出了本发明实施例提供的一种第二卷积神经网络的结构示意图。
图4示出了本发明实施例提供的一种CT扫描仪100的方可结构示意图。
图标:100-CT扫描仪;110-扫描部110;120-处理部;130-显示部;140-存储部。
具体实施方式
如图1所述,本发明实施例提供了一种基于卷积神经网络的CT图像目标检测方法。所述CT图像目标检测方法包括如图1所示的S101~S110。以下结合图1对S101~S110进行阐述。
S101:获得CT扫描仪扫描的待检测区域的CT视频。其中,CT视频中包括多帧图像,待检测区域为患病区域或者待检查区域。图像可以称为CT图像。
S102:基于CT视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域。
S103:将残差区域与所述当前帧图像进行融合,获得融合当前帧图像。
S104:对融合当前帧图像进行高通滤波,获得高频当前帧图像。
S105:对所述融合当前帧图像进行低通滤波,获得低频当前帧图像。
S106:将高频当前帧图像和所述低频帧图像进行融合,获得复合当前帧图像。
S107:基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域。
S108:基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域。
S109:获得当前帧目标区域和所述复合目标区域的距离。
S110:若距离小于目标值,基于当前帧目标区域和复合目标区域,获得待检测的目标图像。
通过采用以上方案,通过基于视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域,将残差区域与当前帧图像进行融合,获得融合当前帧图像,增强了当前帧图像的特征信息。通过对融合当前帧图像进行高通滤波,获得高频当前帧图像,高频当前帧图像保留了当前帧图像的高频特征信息,对融合当前帧图像进行低通滤波,获得低频当前帧图像,低频当前帧图像保留了当前帧图像的低频特征信息,将高频当前帧图像和低频帧图像进行融合,获得复合当前帧图像,增强了复合当前帧图像中的特征信息,同时提高了特征信息的保真性。基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域;基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域,进一步提高了目标在符合目标区域中的概率,提高了目标检测的准确性。获得当前帧目标区域和复合目标区域的距离,若距离小于目标值,基于当前帧目标区域和复合目标区域,获得待检测的目标,结合了传统神经网络的目标检测的结果,加上准确性高的第二神经网络的目标检测结果,提高了目标检测的准确性,提高了待检测的目标的精度。
其中,S102具体为:获得前一帧图像的前像素点以及后一帧图像中与前像素点位置相对应的一后像素点。基于与前像素点对应的前区块和后区块,通过绝对差值和运算获得前像素点和后像素点之间的第一差值信息。前区块是前一帧图像中的一个区块,后区块是后一帧图像中的区域。前区块包括多个像素点。当像素点对应的前区块是,以前像素点为中心,设定大小的一个矩形区块,例如当前区块是2x2的区块的矩形区块。若前像素点的位置处在当前帧图像的边缘,则前区块包括以当前像素点为中心,获得与该像素点相邻的多个像素点,这些像素点构成的确定的一个区块就是当前区块。例如,前像素点是(0,0),则前区块是由(0,0)、(0,1)、(1,0)和(1,1)构成的区块。针对前区块中的每个像素点,获得每个像素点的取值与后区块中与每个像素点位置相对应的像素点的取值的差值;对差值的绝对值进行求和运算,获得第一差值信息,多个前像素点对应多个第一差值信息,多个第一差值信息按照与前像素点的对应关系,组成残差区块。其中,每个前区块中的每个像素点对应一个差值,具体的,对每个差值的绝对值进行求和运算。为了获得前帧图像中与前区块位置相对应的后区块,在后一帧图像中,获得与前区块位置相对应的后区块,当前区块中的每个像素点与后区块中的每个像素点一一位置相对应。其中,位置相对应指的是位置一一对应,例如前像素点的位置与后像素点的位置相同,具体体现为,前像素点的位置的取值与后像素点的位置的取值相同,例如,若前像素点的位置的取值为(1,2),后像素点的位置的取值为(1,2),则前像素点与后像素点位置相对应。如此,前区块和后区块的大小一致。具体的,通过下述公式(1)获得第一差值信息。
其中,a(i,j)表示前像素点(m,n)对应的前区块中的像素点(i,j)的取值,b(i,j)表示后区块中与像素点(i,j)位置相对应的像素点的取值,k表示前区块在横轴方向的像素点的数量,s1(m,n)表示第一差值信息。通过采用于前像素点对应的前区块中的每个像素点的取值,减去与前像素点对应的后区块中的与前区块的每个像素点一一对应的每个像素点的取值,求取获得的差值的绝对值,对这些像素点对应的绝对值进行求和,获得第一差值信息,进而得到的残差区块可以准确表征前帧图像相对于后一帧图像的差别。
针对将残差区域与所述当前帧图像进行融合,获得融合当前帧图像,具体为:
首先,获得残差区域中的像素点(i,j)的像素值与所述当前帧图像中的像素点(i,j+k)的像素值之和,其中,i,j是正整数,k是大于或等于0的整数。然后,若和大于255,融合当前帧图像的像素点(i,j)的像素值为第一差值,第一差值为255与和与255的商的余数之差值。例如,残差区域中的像素点(i,j)的像素值与所述当前帧图像中的像素点(i,j+k)的像素值之和为Y,Y>255,Y/255的余数为X,则第一差值等于255-X。若和不大于255,融合当前帧图像的像素点(i,j)的像素值为和。即融合当前帧图像的像素点(i,j)的像素值为Y。通过采用以上方案,融合当前帧图像的像素值融合了残差区域和当前帧图像的像素点的像素值的特点,在增强了融合当前帧图像的特征的同时,保证了融合当前帧图像的保真性,进而为提高目标检测的精度奠定了基础。
其中,针对将高频当前帧图像和低频帧图像进行融合,获得复合当前帧图像,具体为:获得高频当前帧图像中像素点(i,j)的像素值与低频当前帧图像中像素点(i,j)的平均值;确定平均值作为复合当前帧图像的像素点(i,j)的像素值。提高了复合当前帧图像的特征的准确性。
作为一种可选的实施方式,S106具体为:若高频当前帧图像中像素点(i,j)的像素值与低频当前帧图像中像素点(i,j)的像素值相等,且像素点的像素值为第一取值,则对复合当前帧图像的像素点(i,j)的像素值赋值成第二取值;若高频当前帧图像中像素点(i,j)的像素值与低频当前帧图像中像素点(i,j)的像素值相同,且像素点的像素值不为第一取值,则对复合当前帧图像的像素点(i,j)进行扩展,以使像素点(i,j)包括一个融合通道;对融合通道进行赋值,以使融合通道的取值为第二取值,第二取值与所述像素点的像素值和第一取值不同。通过采用以上方案,获得的复合当前帧图像包括了高频当前帧图像中的像素信息和低频当前帧图像中的像素信息,增强了复合当前帧图像的特征,进而为提高了检测的目标的准确性。
在本发明实施例中,基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域的步骤,具体为:对当前帧图像进行至少一次卷积处理后,获得第一输出数据;对第一输出数据进行两次池化处理后,获得第二输出数据;对第二输出数据进行至少两次卷积处理后,获得第三输出数据;对第三输出数据进行至少三次池化处理后,获得第四输出数据;对第四输出数据进行分类,获得当前目标区域。
为了清楚阐述基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域的步骤,如图2所示,图2示出了第一卷积神经网络的结构示意图,即第一卷积神经网络包括至少四个卷积层、至少五个池化层、以及一个分类层。第一卷积神经网络的结构可以为卷积层、卷积层、池化层、池化层、卷积层、卷积层、池化层、池化层、分类层。第一卷积神经网络的结构还可以为卷积层、卷积层、池化层、池化层、卷积层、卷积层、卷积层、池化层、池化层、池化层、池化层、分类层。其中,分类层可以是一个支持向量机模型。与分类层连接的池化层输出一个图像特征向量,分类层对图像特征向量进行分类识别,得到当前帧目标区域。
通过采用以上方案,对当前帧图像进行多长的卷积核池化操作,最后分类层对图像特征向量进行分类识别得到当前帧目标区域,提高了识别和检测当前帧目标区域的精度。
可选的,基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域,具体为:对复合当前帧图像进行至少三次池化处理后,获得第五输出数据;对第五输出数据进行至少两次卷积处理后,获得第六输出数据;对第六输出数据进行一池化处理和一次卷积处理后,获得第七输出数据;将第六输出数据和所述第七输出数据进行融合,获得第八输出数据;对第八输出数据进行至少两次池化处理和至少两次卷积处理后,获得第九输出数据;对第九输出数据进行分类,获得复合目标区域。
其中,第二卷积神经网络至少包括六个池化层、至少五个卷积层、融合层和分类层。如图3所示的一种第二卷积神经网络的结构示意图。第二卷积神经网络的结构可以是池化层、池化层、池化层、卷积层、卷积层、池化层、卷积层、融合层、池化层、池化层、卷积层、卷积层、分类层。第二卷积神经网络的结构可以是池化层、池化层、池化层、池化层、池化层、卷积层、卷积层、卷积层、卷积层、池化层、卷积层、融合层、池化层、池化层、池化层、池化层、卷积层、卷积层、卷积层、卷积层、分类层。其中,分类层可以是如上述的支持向量机模型。融合层用于分别对与其连接的卷积层的神经元的输出进行合并处理,其合并方式可以是加权累加或者进行抑或运算等,得到合并处理结果,然后将合并处理结果输出给池化层进行池化处理。最后的卷积层输出区域向量,经过分类层对区域向量进行分类,得到复合目标区域。
通过采用以上方案,对复合当前帧图像进行多长的卷积核池化操作,最后的卷积层输出区域向量,经过分类层对区域向量进行分类,得到目标区域,提高了识别和检测复合目标区域的精度。
可选的,获得当前帧目标区域和复合目标区域的距离的具体实施方式为:
获得当前帧目标区域和复合目标区域的外接圆;获得当前帧目标区域的外接圆的圆心和复合目标区域的外接圆的圆心之间欧氏距离;确定欧氏距离作为当前帧目标区域和复合目标区域的距离。其中,获得当前帧目标区域和复合目标区域的距离具体为:分别获当前帧目标区域和复合目标区域的重心;获得当前帧目标区域的重心和复合目标区域的重心之间欧氏距离;确定欧氏距离作为当前帧目标区域和复合目标区域的距离。
其中,针对S110所述的基于当前帧目标区域和复合目标区域,获得待检测的目标的具体实施方式可以是:获得当前帧目标区域和复合目标区域的交叉区域;确定交叉区域为待检测的目标。如此,提高了待检测的目标的准确性。
为了进一步提高待检测的目标的准确性,在确定交叉区域为待检测的目标之前,所述CT图像目标检测方法还包括:对交叉区域进行渲染。其渲染方法可以是根据检查的部位的病理特征和颜色特征进行颜色的渲染,例如,如果是肺部的CT图像,渲染后的待检测的目标就是一个彩色的肺部的图像。如果是脑部的CT图像,渲染后的待检测的目标就是一个灰度的脑部的图像或者头部骨架图像等。
为了提高渲染的准确性,进而提高目标检测的准确性,在对交叉区域进行渲染之前,CT图像目标检测方法还包括:对交叉区域进行膨胀处理,以使交叉区域的尺寸接近待测目标的尺寸。对交叉区域进行膨胀处理,以使交叉区域的尺寸接近待测的目标的尺寸,提高了渲染后的交叉区域的清晰度,提高了目标检测的准确性。
在本发明实施例中,目标值可以是根据经验的一个预设值。为了进一步提高目标检测的准确性,通过下述方式获得目标值:基于当前帧目标区域获得第一目标向量;基于复合目标区域获得第二目标向量;基于训练好的支持向量机模型对第一目标向量进行分类,获得第一目标值;基于训练好的支持向量机模型对第二目标向量进行分类,获得第二目标值;获得第一目标值和所述第二目标值之差,得到目标差值,以该目标差值作为目标值。
作为一种可选的实施例,CT图像目标检测方法包括:获得CT扫描仪扫描的待检测区域的CT视频。基于CT视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域。将残差区域与所述当前帧图像进行融合,获得融合当前帧图像。对融合当前帧图像进行高通滤波,获得高频当前帧图像。对所述融合当前帧图像进行低通滤波,获得低频当前帧图像。将高频当前帧图像和所述低频帧图像进行融合,获得复合当前帧图像。基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域。基于当前帧目标区域获得第一目标向量。基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域。基于复合目标区域获得第二目标向量。基于训练好的支持向量机模型对第一目标向量进行分类,获得第一目标值;基于训练好的支持向量机模型对第二目标向量进行分类,获得第二目标值;获得第一目标值和第二目标值之差,得到目标差值,以该目标差值作为目标值。获得当前帧目标区域和所述复合目标区域的距离。若距离小于目标值,基于当前帧目标区域和复合目标区域,得到待检测的目标图像。
通过采用以上方案,通过采用以上方案,通过基于视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域,将残差区域与当前帧图像进行融合,获得融合当前帧图像,增强了当前帧图像的特征信息。通过对融合当前帧图像进行高通滤波,获得高频当前帧图像,高频当前帧图像保留了当前帧图像的高频特征信息,对融合当前帧图像进行低通滤波,获得低频当前帧图像,低频当前帧图像保留了当前帧图像的低频特征信息,将高频当前帧图像和低频帧图像进行融合,获得复合当前帧图像,增强了复合当前帧图像中的特征信息,同时提高了特征信息的保真性。基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域;基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域,进一步提高了目标在符合目标区域中的概率,提高了目标检测的准确性。基于当前帧目标区域获得第一目标向量,基于复合目标区域获得第二目标向量,基于训练好的支持向量机模型对第一目标向量进行分类,获得第一目标值;基于训练好的支持向量机模型对第二目标向量进行分类,获得第二目标值;获得第一目标值和第二目标值之差,得到目标差值,以该目标差值作为目标值。获得当前帧目标区域和复合目标区域的距离,若距离小于目标值,基于当前帧目标区域和复合目标区域,获得待检测的目标,结合了传统神经网络的目标检测的结果,加上准确性高的第二神经网络的目标检测结果,提高了目标检测的准确性,提高了待检测的目标的精度。同时,目标值是基于前帧目标区域和复合目标区域获得,以目标值作为判断的基准,可以提高目标检测的准确性。
CT图像目标检测方法可以用于检测CT图像中的感染位置、心脏位置、肺部位置等。但不限于此。
在上述的CT图像目标检测方法的基础上,本发明实施例还提供了一种CT扫描仪。CT扫描仪100包括扫描部110、处理部120和显示部130。如图4所示,扫描部110用于扫描待检测区域的CT视频,将CT视频发送至处理部120。
处理部120用于执行上述任一CT图像目标检测方法,以对CT视频中的CT图像进行目标检测,得到待检测的目标图像,将得到的待检测的目标图像发送至显示部130。
显示部130用于显示待检测的目标图像。
其中,处理部120执行上述任一CT图像目标检测方法时,执行下述功能:获得CT扫描仪扫描的待检测区域的CT视频。基于CT视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域。将残差区域与所述当前帧图像进行融合,获得融合当前帧图像。对融合当前帧图像进行高通滤波,获得高频当前帧图像。对所述融合当前帧图像进行低通滤波,获得低频当前帧图像。将高频当前帧图像和所述低频帧图像进行融合,获得复合当前帧图像。基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域。基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域。获得当前帧目标区域和所述复合目标区域的距离。若距离小于目标值,基于当前帧目标区域和复合目标区域,获得待检测的目标图像。
通过采用以上方案,通过采用以上方案,通过基于视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域,将残差区域与当前帧图像进行融合,获得融合当前帧图像,增强了当前帧图像的特征信息。通过对融合当前帧图像进行高通滤波,获得高频当前帧图像,高频当前帧图像保留了当前帧图像的高频特征信息,对融合当前帧图像进行低通滤波,获得低频当前帧图像,低频当前帧图像保留了当前帧图像的低频特征信息,将高频当前帧图像和低频帧图像进行融合,获得复合当前帧图像,增强了复合当前帧图像中的特征信息,同时提高了特征信息的保真性。
基于第一卷积神经网络对当前帧图像进行目标检测,获得当前帧目标区域;基于第二卷积神经网络对复合当前帧图像进行目标检测,获得复合目标区域,进一步提高了目标在符合目标区域中的概率,提高了目标检测的准确性。
基于当前帧目标区域获得第一目标向量,基于复合目标区域获得第二目标向量,基于训练好的支持向量机模型对第一目标向量进行分类,获得第一目标值;基于训练好的支持向量机模型对第二目标向量进行分类,获得第二目标值;获得第一目标值和第二目标值之差,得到目标差值,以该目标差值作为目标值。获得当前帧目标区域和复合目标区域的距离,若距离小于目标值,基于当前帧目标区域和复合目标区域,获得待检测的目标,结合了传统神经网络的目标检测的结果,加上准确性高的第二神经网络的目标检测结果,提高了目标检测的准确性,提高了待检测的目标的精度。同时,目标值是基于前帧目标区域和复合目标区域获得,以目标值作为判断的基准,可以提高目标检测的准确性。
可选的,CT扫描仪100还包括存储部140,存储部用于存储检测到的目标图像,以及所述CT图像目标检测方法中的任意数据,特别说明的是,当对复合当前帧图像进行存储时,针对每个像素点,分两个存储区间,第一个存储区间用于存储融合通道的取值,第二个区间用于存储像素点的位置信息以及RGB信息。如此,提高了存储的准确性和有效性,保证了存储的复合当前帧图像的保真性。
Claims (10)
1.一种基于卷积神经网络的CT图像目标检测方法,其特征在于,所述方法包括:
获得CT扫描仪扫描的待检测区域的CT视频;
基于CT视频中当前帧图像的前一帧图像和后一帧图像,获得残差区域;
将所述残差区域与所述当前帧图像进行融合,获得融合当前帧图像;
对所述融合当前帧图像进行高通滤波,获得高频当前帧图像;
对所述融合当前帧图像进行低通滤波,获得低频当前帧图像;
将所述高频当前帧图像和所述低频当前帧图像进行融合,获得复合当前帧图像;
基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域;
基于第二卷积神经网络对所述复合当前帧图像进行目标检测,获得复合目标区域;
获得所述当前帧目标区域和所述复合目标区域的距离;
若所述距离小于目标值,基于所述当前帧目标区域和所述复合目标区域,获得待检测的目标图像。
2.根据权利要求1所述的方法,其特征在于,所述将所述残差区域与所述当前帧图像进行融合,获得融合当前帧图像,包括:
获得所述残差区域中的像素点(i,j)的像素值与所述当前帧图像中的像素点(i,j+k)的像素值之和,其中,所述i,j是正整数,k是大于或等于0的整数;
若所述和大于255,所述融合当前帧图像的像素点(i,j)的像素值为第一差值,所述第一差值为255与所述和与255的商的余数之差值;
若所述和不大于255,所述融合当前帧图像的像素点(i,j)的像素值为所述和。
3.根据权利要求1所述的方法,其特征在于,所述将所述高频当前帧图像和所述低频当前帧图像进行融合,获得复合当前帧图像,包括:
获得所述高频当前帧图像中像素点(i,j)的像素值与所述低频当前帧图像中像素点(i,j)的平均值;
确定所述平均值作为所述复合当前帧图像的像素点(i,j)的像素值。
4.根据权利要求1所述的方法,其特征在于,所述基于第一卷积神经网络对所述当前帧图像进行目标检测,获得当前帧目标区域,包括:
对所述当前帧图像进行至少一次卷积处理后,获得第一输出数据;
对所述第一输出数据进行两次池化处理后,获得第二输出数据;
对所述第二输出数据进行至少两次卷积处理后,获得第三输出数据;
对所述 第三输出数据进行至少三次池化处理后,获得第四输出数据;
对所述第四输出数据进行分类,获得所述当前目标区域。
5.根据权利要求1所述的方法,其特征在于,所述基于第二卷积神经网络对所述复合当前帧图像进行目标检测,获得复合目标区域,包括:
对所述复合当前帧图像进行至少三次池化处理后,获得第五输出数据;
对所述第五输出数据进行至少两次卷积处理后 ,获得第六输出数据;
对所述第六输出数据进行一池化处理和一次卷积处理后,获得第七输出数据;
将所述第六输出 数据和所述第七输出数据进行融合,获得第八输出数据;
对所述第八输出数据进行至少两次池化处理和至少两次卷积处理后,获得第九输出数据;
对所述第九输出数据进行分类,获得所述复合目标区域。
6.根据权利要求1所述的方法,其特征在于,所述获得所述当前帧目标区域和所述复合目标区域的距离,包括:
获得所述当前帧目标区域和所述复合目标区域的外接圆;
获得所述当前帧目标区域的外接圆的圆心和所述复合目标区域的外接圆的圆心之间欧氏距离;
确定所述欧氏距离作为所述当前帧目标区域和所述复合目标区域的距离。
7.根据权利要求1所述的方法,其特征在于,所述获得所述当前帧目标区域和所述复合目标区域的距离,包括:
分别获得所述当前帧目标区域和所述复合目标区域的重心;
获得所述当前帧目标区域的重心和所述复合目标区域的重心之间欧氏距离;
确定所述欧氏距离作为所述当前帧目标区域和所述复合目标区域的距离。
8.根据权利要求1所述的方法,其特征在于,所述基于所述当前帧目标区域和所述复合目标区域,获得待检测的目标图像,包括:
获得所述当前帧目标区域和所述复合目标区域的交叉区域;
确定所述交叉区域为所述待检测的目标。
9.根据权利要求8所述的方法,其特征在于,在所述确定所述交叉区域为所述待检测的目标之前,所述方法还包括:
对所述交叉区域进行渲染。
10.一种CT扫描仪,其特征在于,CT扫描仪包括扫描部和处理部;
所述扫描部用于扫描待检测区域的CT视频,将所述CT视频发送至所述处理部;
处理部用于执行权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910984904.5A CN110717910B (zh) | 2019-10-16 | 2019-10-16 | 基于卷积神经网络的ct图像目标检测方法及ct扫描仪 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910984904.5A CN110717910B (zh) | 2019-10-16 | 2019-10-16 | 基于卷积神经网络的ct图像目标检测方法及ct扫描仪 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110717910A CN110717910A (zh) | 2020-01-21 |
CN110717910B true CN110717910B (zh) | 2020-09-08 |
Family
ID=69211787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910984904.5A Expired - Fee Related CN110717910B (zh) | 2019-10-16 | 2019-10-16 | 基于卷积神经网络的ct图像目标检测方法及ct扫描仪 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110717910B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111079546B (zh) * | 2019-11-22 | 2022-06-07 | 重庆师范大学 | 一种无人机害虫检测方法 |
CN112132480A (zh) * | 2020-09-29 | 2020-12-25 | 姜锡忠 | 大数据在线教育平台的师资匹配方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1717058A (zh) * | 2004-06-29 | 2006-01-04 | 三洋电机株式会社 | 图像编码方法及装置、以及图像译码方法及装置 |
CN103400360A (zh) * | 2013-08-03 | 2013-11-20 | 浙江农林大学 | 基于Wedgelet和NSCT的多源图像融合方法 |
CN107909556A (zh) * | 2017-11-27 | 2018-04-13 | 天津大学 | 基于卷积神经网络的视频图像去雨方法 |
CN109035260A (zh) * | 2018-07-27 | 2018-12-18 | 京东方科技集团股份有限公司 | 一种天空区域分割方法、装置和卷积神经网络 |
CN110060225A (zh) * | 2019-03-28 | 2019-07-26 | 南京信息工程大学 | 一种基于快速有限剪切波变换与稀疏表示的医学图像融合法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109461495B (zh) * | 2018-11-01 | 2023-04-14 | 腾讯科技(深圳)有限公司 | 一种医学图像的识别方法、模型训练的方法及服务器 |
-
2019
- 2019-10-16 CN CN201910984904.5A patent/CN110717910B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1717058A (zh) * | 2004-06-29 | 2006-01-04 | 三洋电机株式会社 | 图像编码方法及装置、以及图像译码方法及装置 |
CN103400360A (zh) * | 2013-08-03 | 2013-11-20 | 浙江农林大学 | 基于Wedgelet和NSCT的多源图像融合方法 |
CN107909556A (zh) * | 2017-11-27 | 2018-04-13 | 天津大学 | 基于卷积神经网络的视频图像去雨方法 |
CN109035260A (zh) * | 2018-07-27 | 2018-12-18 | 京东方科技集团股份有限公司 | 一种天空区域分割方法、装置和卷积神经网络 |
CN110060225A (zh) * | 2019-03-28 | 2019-07-26 | 南京信息工程大学 | 一种基于快速有限剪切波变换与稀疏表示的医学图像融合法 |
Non-Patent Citations (2)
Title |
---|
Medical Image Super Resolution Using Improved Generative Adversarial Networks;XINYANG BING 等;《IEEE Access》;20191001;第1-9页 * |
医学影像配准融合分割技术及其在肺癌精准医疗的应用;史益新;《中国优秀硕士学位论文全文数据库医药卫生科技辑》;20170315;正文第1-50页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110717910A (zh) | 2020-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109859226B (zh) | 一种图形分割的棋盘格角点亚像素的检测方法 | |
CN106023257B (zh) | 一种基于旋翼无人机平台的目标跟踪方法 | |
JP5045371B2 (ja) | 動画像の各画素の前景背景分類装置、方法及びプログラム | |
CN104134200B (zh) | 一种基于改进加权融合的运动场景图像拼接方法 | |
CN108549891A (zh) | 基于背景与目标先验的多尺度扩散显著目标检测方法 | |
CN109211198B (zh) | 一种基于三目视觉的智能目标检测和测量系统和方法 | |
CN111445389A (zh) | 一种高分辨率图像的宽视角快速拼接方法 | |
CN112288758B (zh) | 一种电力设备红外与可见光图像配准方法 | |
CN102521816A (zh) | 一种云数据中心机房实时宽场景监控合成方法 | |
CN117036641A (zh) | 一种基于双目视觉的公路场景三维重建与缺陷检测方法 | |
CN110298884A (zh) | 一种适于动态环境中单目视觉相机的位姿估计方法 | |
JPH0935061A (ja) | 画像処理方法 | |
CN105335952B (zh) | 匹配代价计算方法和装置、以及视差值计算方法和设备 | |
CN104217459B (zh) | 一种球面特征提取方法 | |
CN106530407A (zh) | 一种用于虚拟现实的三维全景拼接方法、装置和系统 | |
CN112364881B (zh) | 一种进阶采样一致性图像匹配方法 | |
CN110717910B (zh) | 基于卷积神经网络的ct图像目标检测方法及ct扫描仪 | |
CN113095371A (zh) | 一种面向三维重建的特征点匹配方法及系统 | |
CN113159158A (zh) | 一种基于生成对抗网络的车牌矫正与重构方法及系统 | |
CN110120012B (zh) | 基于双目摄像头的同步关键帧提取的视频拼接方法 | |
CN116342519A (zh) | 一种基于机器学习的图像处理方法 | |
CN109978916B (zh) | 基于灰度图像特征匹配的Vibe运动目标检测方法 | |
CN110910497A (zh) | 实现增强现实地图的方法和系统 | |
CN108182700B (zh) | 一种基于两次特征检测的图像配准方法 | |
CN110717471B (zh) | 基于支持向量机模型b超图像目标检测方法及b超扫描仪 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200818 Address after: No.2505, unit 1, building 1, Changtong Century Commercial Plaza, No.100 Yingze West Street, Wanbailin District, Taiyuan City, Shanxi Province Applicant after: Taiyuan Huarui Xingchen Pharmaceutical Technology Co.,Ltd. Address before: 610000 15 / F, block a, building 1, Shangding international, Chengdu hi tech Zone, Chengdu, Sichuan Province Applicant before: Jiang Tongyuan |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200908 |
|
CF01 | Termination of patent right due to non-payment of annual fee |