[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN117557859A - 基于目标追踪的超声影像目标多角度融合分析系统及方法 - Google Patents

基于目标追踪的超声影像目标多角度融合分析系统及方法 Download PDF

Info

Publication number
CN117557859A
CN117557859A CN202311588836.3A CN202311588836A CN117557859A CN 117557859 A CN117557859 A CN 117557859A CN 202311588836 A CN202311588836 A CN 202311588836A CN 117557859 A CN117557859 A CN 117557859A
Authority
CN
China
Prior art keywords
target
image
frame
dimensional
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311588836.3A
Other languages
English (en)
Inventor
姜丽红
陈毅彬
孙焱
蔡鸿明
张淇
兰浩中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN202311588836.3A priority Critical patent/CN117557859A/zh
Publication of CN117557859A publication Critical patent/CN117557859A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

一种基于目标追踪的超声影像目标多角度融合分析系统及方法,该系统包括:单帧图像预处理模块、目标检测定位模块、目标轨迹追踪多角度信息获取模块和目标多角度信息融合分析模块,本发明基于轻量化目标识别网络对超声检测图像进行感兴趣目标识别定位,多角度采集与感兴趣目标有关的关键帧序列,以完成目标三维模型重建和目标三维模型形态特征分析,基于三维形态分析提供该目标的内部性质和外部轮廓的描述。

Description

基于目标追踪的超声影像目标多角度融合分析系统及方法
技术领域
本发明涉及的是一种图像处理领域的技术,具体是通过识别超声影像中的感兴趣目标,结合目标追踪实现对超声影像目标区域截取一系列不同观测角度的关键帧,通过关键帧融合实现目标三维建模的基于目标追踪的超声影像目标多角度融合分析系统及方法。
背景技术
医学超声作为无创获取探测病灶特征的影像模态之一,是人工智能技术在医疗图像分析中的重要应用领域。目前基于计算机辅助的超声影像分析主要功能中的超声图像目标识别一般采取两种方法:1)人工发现可疑病灶区域并将可疑图像交由计算机进一步处理。2)使用轻量的目标识别网络在实时超声影像中定位待搜寻目标的位置,辅助人工确认。由于超声影像的特点,截取的关键帧反映的是特定观察视角的图像,因此,目前的超声影像目标分类与语义分割方法大部分采取单一角度或二维分析方法,未跟随探测设备的移动进行多角度观测与综合分析。即一般只能发现目标病灶在二维图像中的特征,较难提供目标病灶的三维空间信息。
发明内容
本发明针对上述现有技术存在的不足,提出一种基于目标追踪的超声影像目标多角度融合分析系统及方法,基于轻量化目标识别网络对超声检测图像进行感兴趣目标识别定位,多角度采集与感兴趣目标有关的关键帧序列,以完成目标三维模型重建和目标三维模型形态特征分析,基于三维形态分析提供该目标的内部性质和外部轮廓的描述。
本发明是通过以下技术方案实现的:
本发明涉及一种基于超声图像的三维建模图像分析系统,包括:单帧图像预处理模块、目标检测定位模块、目标轨迹追踪多角度信息获取模块和目标多角度信息融合分析模块,其中:单帧图像预处理模块对原始超声影像按照单帧方式进行图像降噪、图像对比度增强和图像标准化以实现图像质量优化,目标检测定位模块通过计算标准化后的图像序列中每帧图像的已定位目标的分类置信度进行候选关键帧提取并输出目标检测定位框,目标轨迹追踪多角度信息获取模块通过目标追踪的方式对同一感兴趣目标记录相对移动轨迹进而计算得到多角度上的关键帧序列,目标多角度信息融合分析模块对同一目标的多角度关键帧序列进行三维融合建模。
所述的目标检测定位模块采用二分类网络进行目标分类,以卷积网络全连接层输出的类别概率值作为分类置信度,具体为:神经网络对输入图像中每个识别到的目标映射出一个其归类为每个可能类别上的概率数组,数组大小为该目标潜在类别数量,数组内部第i个值即该目标分类为第i个类别的置信度。当一帧图像内部有任一识别到的目标达到某个极大分类置信度时,该帧图像视为潜在关键帧用于后续对该高置信度目标三维重建和融合分析的步骤。
本发明涉及一种基于上述系统的基于目标追踪的超声影像目标多角度融合分析方法,包括:
步骤一、对超声原始影像进行图像降噪、图像对比度增强和图像标准化。
步骤二、计算标准化后的图像序列中每帧图像的目标定位和目标分类置信度进行所有候选关键帧提取,具体包括:
2.1)对预处理后的图像使用卷积层进行特征提取;
2.2)使用全连接层对特征向量进行目标分类;
2.3)计算每帧图像的感兴趣目标良恶性分类的置信度,任一识别类别置信度高的图像被截取作为画质与观测角度上的高质量帧。目标的分类结果不作为任何对外输出的意见或建议,仅是为了通过细化分类类别的方式增加分类置信度的可靠性。
所述的目标分类步骤采用二分类网络,即将目标分类为第1类、第2类和其他类。
步骤三、根据目标检测定位步骤得到的目标检测定位框实时维护多个已识别目标的轨迹链表,通过追踪相同目标在超声探头下的移动轨迹,捕捉目标多角度关键帧。
所述的捕捉目标多角度关键帧中,为每个超声图像中已被识别到的感兴趣目标定义:
目标起始状态、目标更新状态、目标丢失状态、目标重匹配状态和扫描结束状态,共5种目标追踪状态。
所述的步骤三,具体包括:
3.1)目标起始:接收由目标检测定位模块输出的新目标定位,为其建立轨迹记录链表和关键帧记录链表;为新定位目标打上标签,标签包含目标序号和良恶性分类;记录该目标第一个坐标为(0,0),用于表示其在图像x/y轴上的位置。
3.2)目标更新:由于超声影像相邻帧之间存在空间关联性,一帧识别结果中的目标定位框和上一帧之间存在一定的重叠,通过计算两个定位框的交并比(IOU)是否达到阈值可以确定两次目标识别结果为同一目标。
所述的交并比,由像素占比的方式计算得出。基于默认探头最快移动速度V(cm/s)、定位框更新间段内图像采集平均帧率F(1/s)、超声图像分辨率E(像素个数/cm)和对应目标定位框大小L*W(像素个数作单位的长和宽所相乘的面积)计算占比阈值。交并比阈值M的计算公式和判断两目标Di、Di+1是否为同目标的判别条件表达式为: 其中:Si是描述同目标情况的状态变量。当计算得的交并比大于等于M,视上下帧(第i帧与第i+1帧)的两个识别目标为同目标,即Si=1。
当确认新的定位目标为上一帧的同目标后,更新目标轨迹链表,计算当前帧的目标相距首帧目标之间的相对像素距离和位移向量。若相对像素距离及位移向量达到指定阈值时则认为属于不同角度的关键帧,将该关键帧添加到关键帧序列中。
3.3)目标丢失处理:出现目标丢失情况时,将保存该丢失目标已有的轨迹表和关键图像序列。当在当前帧所识别的同时出现的目标总数小于记录到的可同时出现的目标最大总数时,一旦又识别到一个新目标,则先默认新出现目标为之前丢弃的目标,该目标的目标重匹配状态将被激活。
3.4)目标重匹配:对新出现的目标用丢失目标留下的关键帧链表内的所有关键帧进行相关滤波。当滤波结果的图像灰度值能量达到指定阈值时,认为新目标与之前的某丢失目标为同一目标;反之视为新目标并让其进入新目标的目标起始状态。
所述的相关滤波先将感兴趣区域通过二维快速傅里叶变换(FFT-2D)转为频域,再将两张频域图相乘得到相关性。通过求取相乘结果图的中高频分量平均强度得到匹配程度的量化值,如下所示,Di与Dj为待匹配的两个目标,Pi是描述目标匹配情况的状态变量,Pi为1时表示两张图中目标匹配:
3.5)扫描结束:将追踪目标的轨迹链表和捕获到的多角度关键帧链表传送给目标多角度信息融合分析模块。
步骤四、对同一目标的多角度关键帧进行三维融合建模并分析其立体特性,具体包括:
4.1)使用边缘分割算子获取每张关键帧的目标二维轮廓,具体为:先对所有已知目标的所有关键帧序列进行读取,依次裁剪出目标区域的图像,每个裁剪后的图像内容仅刚好包含一个目标的最外部轮廓。使用边缘检测算子提取目标边缘,得到只显示目标区域的目标分割图。使用基于尺度不变特征转换法(SIFT)提取目标分割图序列中每张图内感兴趣区域轮廓的特征点和特征点对应的包含特征点灰度均值强度、特征点灰度分布方向向量的特征描述向量,具体为:
其中:G(x,y,σ)表示原图I(x,y)在σ模糊比例下的高斯尺度特征图,L(x,y)表示原图I(x,y)对应的像素级特征点分布梯度图,m(x,y)表示L(x,y)在(x,y)位置上的梯度幅值,θ(x,y)表示L(x,y)在(x,y)位置上的梯度方向,如此便获得每个像素级特征点在一张图内的位置(x,y)、尺度,即模糊比例σ、强度m和方向θ,使用4X4的像素块作为一个实际用于参考和匹配的特征点,则令rk表示图中第k个像素上的特征向量,Ri表示图中任意4X4特征点的特征向量,其表达式为:rk=((x,y)kk,mkk),Ri=(ri1,ri2,…,ri16)。
4.2)提取每个目标二维轮廓的固定特征点并匹配三维空间中的相对位置,即结合特征描述向量间最小相差距离的匹配方式确认每张图中特征点的相对位置关系,具体为:Ti表示另一张图中待与Ri匹配比较的4X4特征点(对应像素特征向量为tk),其表达式为tk=((x,y)kk,mkk),Ti=(ti1,ti2,…,ti16),由计算得到基于向量间最短距离法求得的特征点匹配程度,其中计算匹配程度时特征点的选取方法为全图遍历所有特征点。
4.3)将所有特征点依次映射在三维模型上直到所有特征点都已映射,具体为:通过运动恢复结构法(SFM)将已在三维空间定位好的目标分割图按照其获取的时间顺序依次映射为目标待生成的三维像素矩阵模型的某个角度的视图上,依次映射所有目标关键帧序列生成的目标分割图,直至目标模型三维重建完成,具体为:对目标在三维空间中关注的同一点目标s,将求得该目标在所有二维图像中关于它的匹配点。对任意两个最为匹配的特征向量,有本征矩阵F,可求得Ri与Ti在三维空间中的角度、距离关系,从而依次计算出所有像素点的映射关系,具体为:通过传统三维模型生成方式可映射出每个像素点s在三维空间上的位置和对应灰度值。
优选地,在重建出目标三维模型后,目标多角度信息融合分析模块对目标三维模型分析内部像素特性和外观轮廓特性,以获悉超声图像目标区域内像素值分布均匀度、平均值和目标外形规整度,具体为:对生成的三维模型使用其在三维频域的中高频分量强度判决其轮廓的圆滑程度;使用其三维灰度共生矩阵求内部灰度值分布的均匀程度和平均灰度值。
技术效果
本发明通过目标追踪的方式将同目标多个角度的超声图像进行联合,实现多角度综合分析目标的效果,解决过往超声图像自动分析软件中利用单张图像分析所面临的不精确的问题。由于多个角度上看到的目标区域特性不同,因此多角度综合分析超声检测图像可以取得更准确的图像描述和结论。本发明对超声检测视频流中的静态关键帧图像自动捕捉,不存在如其他现有方案中关键目标图像要由医生手动截取的问题。相比现有技术,本发明通过自动提取目标相关的候选关键帧,将一个目标的多个不同角度关键帧按照时间序列顺序映射重构出目标的三维模型。并根据目标三维模型得到其二维图像所无法反映的内部像素灰度值的平均值、分布均匀度与立体图形的外形圆滑程度。
附图说明
图1为本发明流程图;
图2为实施例系统示意图;
图3为目标轨迹追踪多角度信息获取模块的状态变换图;
图4为实施例3D重建示意图。
具体实施方式
本实施例以甲状腺超声检测为例,设置甲状腺结节为感兴趣目标,如图2所示,为本实施例涉及的基于超声图像的三维建模图像分析系统,包括:应用层、业务处理层、数据层、用于输入甲状腺超声影像的视频流入口和用于输出已识别目标结节实时定位框及重建模型与分析内容的输出口。
所述的视频流入口通过OpenCV开源库读取外部甲状腺超声影像源并且实时转换为超声图像序列,通过服务接口调用,每张图像都经过业务处理层的模块依次处理。
所述的模型分析内容的输出口,采用OpenCV结合Matplotlib开源库的方式实现三维像素矩阵在用户视窗显示的效果。
所述的数据层采用MongoDB持久化每次识别和分析的检测日志。为降低内存负担并保证程序稳定性,还将扫描过程中产生的关键帧和目标定位信息定期写入MongoDB,内存中丢弃较久远的中间识别结果,待需要调用时再从数据库中提取。
所述的业务处理层包括:图像预处理单元、目标检测定位单元、目标轨迹追踪单元和多角度信息融合分析单元,其中:图像预处理单元采用Scikit-Image开源库实现,由外界输入超声图像序列(单通道的灰度图),每张图像经过双边滤波实现在不干扰图像边缘信息的同时滤除高频噪音后,使用基于指数变换的非线性对比度增强方法对降噪后图像增强对比度,使目标的边缘和内质特征更为明显。对增强后的图像,使用Z-Score标准化,将图像原始灰度值映射到均值为0、方差为1的偏态分布上,对外输出预处理后的图像序列。目标检测定位单元选用Yolo5目标检测网络作为目标检测定位模块的主干网络,接收预处理后的图像序列。通过将红绿蓝(RGB)三通道图像输入头改为灰度(G)单通道图像输入头,并且再结合神经网络剪枝的方式大为降低原Yolo主干网络的参数复杂度,得到一个更快响应并且适应超声图像识别场景的,只判断目标定位及目标良恶性的二分类优化网络。考虑到网络为语义二分类性质,因此在剪枝过程中采用的方案为网络的语义特征层剪枝,底层空间特征层保留。在训练该网络时,采用图像裁剪、图像翻转、图像拉伸的方式作为数据增强方案,再添加椒盐噪声形成用于训练的干扰样本以提升网络的抗干扰能力。目标轨迹追踪单元结合Numpy库快速计算IOU重合程度确定连续目标,使用Numpy中的FFT函数实现快速傅里叶变换以匹配丢失目标。目标移动距离计算采用欧氏距离,直接使用向量距离计算得到。目标多角度信息融合分析单元使用Canny算子分割目标结节轮廓,将图像中目标轮廓之外的区域变为黑色,得到目标分割图。使用OpenCV库和Math库分析出结节分割图的所有角点特征和特征向量。再使用OpenCV库内置SFM函数重构目标三维模型。最后使用Numpy实现的3D-FFT函数计算目标三维模型的频域分布并求得中高频分量灰度值强度是否达到不规则边缘的阈值;使用Numpy的矩阵运算函数求得三维灰度共生矩阵中每个元素的值,之后判定其表示均匀度的指定元素值是否达到阈值。重建模型与分析内容通过数据层接口保存进MongoDB数据库中,通过服务接口返回给应用层的视窗进行显示。
所述的定位框的坐标和目标分类置信度数组,通过读取Yolo5库的底层模块得到并输出至目标轨迹追踪多角度信息获取模块。
本实施例使用Python语言编写,其实现效果为一个安装在用户计算机上的本地软件,由硬件接口接收超声检测仪器的影像输出端口,实时同步仪器画面和系统操作、显示画面。
如图1所示,为本实施例上述系统的分析方法,包括:
步骤一、对超声原始影像进行图像降噪、图像对比度增强和图像标准化
步骤二、计算标准化后的图像序列中每帧图像的目标分类置信度进行候选关键帧提取。
步骤三、根据目标检测定位框实时维护多个已识别目标的轨迹链表,通过追踪相同目标在超声探头下的移动轨迹,从候选关键帧中确定不同多角度上的关键帧。
步骤四、对同一目标的多角度关键帧进行三维融合建模并给出图像立体信息的内部体素、外部轮廓的分析。
表1技术特性对比表
在技术特性对比表中,外部性能包含:可靠性、执行效率、易用性。
与现有技术利用一个目标的单张图像分析方法,本发明综合单个目标在不同视角获取的多张图像综合分析,参考更多的目标区域信息,使目标的图像分析结果更全面。本发明无需手动截取感兴趣区域图像,而是自动截取关键图像重建目标三维模型,在运作效率上相较现有的手动截取关键图像的系统更高。此外经过网络剪枝后轻量化的目标定位分类神经网络的运行速度保证了系统在处理目标定位时的实时性。本发明进一步生成一般超声检测仪器产生的二维图像无法提供的目标三维重建模型及三维立体图像的内部像素分布与外形轮廓描述,供用户查看。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。

Claims (10)

1.一种基于目标追踪的超声影像目标多角度融合分析系统,其特征在于,包括:单帧图像预处理模块、目标检测定位模块、目标轨迹追踪多角度信息获取模块和目标多角度信息融合分析模块,其中:单帧图像预处理模块对原始超声影像按照单帧方式进行图像降噪、图像对比度增强和图像标准化以实现图像质量优化,目标检测定位模块通过计算标准化后的图像序列中每帧图像的已定位目标的分类置信度进行候选关键帧提取并输出目标检测定位框,目标轨迹追踪多角度信息获取模块通过目标追踪的方式对同一感兴趣目标记录相对移动轨迹进而计算得到多角度上的关键帧序列,目标多角度信息融合分析模块对同一目标的多角度关键帧序列进行三维融合建模;
所述的目标检测定位模块采用二分类网络进行目标分类,以卷积网络全连接层输出的类别概率值作为分类置信度。
2.一种基于权利要求1所述系统的基于目标追踪的超声影像目标多角度融合分析方法,其特征在于,包括:
步骤一、对超声原始影像进行图像降噪、图像对比度增强和图像标准化;
步骤二、计算标准化后的图像序列中每帧图像的目标定位和目标分类置信度进行所有候选关键帧提取;
步骤三、根据目标检测定位步骤得到的目标检测定位框实时维护多个已识别目标的轨迹链表,通过追踪相同目标在超声探头下的移动轨迹,捕捉目标多角度关键帧;
步骤四、对同一目标的多角度关键帧进行三维融合建模并分析其立体特性,具体包括;
4.1)使用边缘分割算子获取每张关键帧的目标二维轮廓,具体为:先对所有已知目标的所有关键帧序列进行读取,依次裁剪出目标区域的图像,每个裁剪后的图像内容仅刚好包含一个目标的最外部轮廓,使用边缘检测算子提取目标边缘,得到只显示目标区域的目标分割图,使用基于尺度不变特征转换法(SIFT)提取目标分割图序列中每张图内感兴趣区域轮廓的特征点和特征点对应的包含特征点灰度均值强度、特征点灰度分布方向向量的特征描述向量,具体为:L(x,y)=G(x,y,σ)*I(x,y),
其中:G(x,y,σ)表示原图I(x,y)在σ模糊比例下的高斯尺度特征图,L(x,y)表示原图I(x,y)对应的像素级特征点分布梯度图,m(x,y)表示L(x,y)在(x,y)位置上的梯度幅值,θ(x,y)表示L(x,y)在(x,y)位置上的梯度方向,如此便获得每个像素级特征点在一张图内的位置(x,y)、尺度,即模糊比例σ、强度m和方向θ,使用4X4的像素块作为一个实际用于参考和匹配的特征点,则令tk表示图中第k个像素上的特征向量,Ri表示图中任意4X4特征点的特征向量,其表达式为:rk=((x,y)kk,mkk),Ri=(ri1,ri2,…,ri16);
4.2)提取每个目标二维轮廓的固定特征点并匹配三维空间中的相对位置,即结合特征描述向量间最小相差距离的匹配方式确认每张图中特征点的相对位置关系,具体为:Ti表示另一张图中待与Ri匹配比较的4X4特征点(对应像素特征向量为tk),其表达式为tk=((x,y)kk,mkk),Ti=(ti1,ti2,…,ti16),由计算得到基于向量间最短距离法求得的特征点匹配程度,其中计算匹配程度时特征点的选取方法为全图遍历所有特征点;
4.3)将所有特征点依次映射在三维模型上直到所有特征点都已映射,具体为:通过运动恢复结构法(SFM)将已在三维空间定位好的目标分割图按照其获取的时间顺序依次映射为目标待生成的三维像素矩阵模型的某个角度的视图上,依次映射所有目标关键帧序列生成的目标分割图,直至目标模型三维重建完成,具体为:对目标在三维空间中关注的同一点目标s,将求得该目标在所有二维图像中关于它的匹配点,对任意两个最为匹配的特征向量,有本征矩阵F,可求得Ri与Ti在三维空间中的角度、距离关系,从而依次计算出所有像素点的映射关系,具体为:通过传统三维模型生成方式可映射出每个像素点s在三维空间上的位置和对应灰度值。
3.根据权利要求2所述的超声影像目标多角度融合分析方法,其特征是,所述的步骤二,具体包括:
2.1)对预处理后的图像使用卷积层进行特征提取;
2.2)使用全连接层对特征向量进行目标分类;
2.3)计算每帧图像的感兴趣目标良恶性分类的置信度,任一识别类别置信度高的图像被截取作为画质与观测角度上的高质量帧,目标的分类结果不作为任何对外输出的意见或建议,仅是为了通过细化分类类别的方式增加分类置信度的可靠性;
所述的捕捉目标多角度关键帧中,为每个超声图像中已被识别到的感兴趣目标定义:目标起始状态、目标更新状态、目标丢失状态、目标重匹配状态和扫描结束状态,共5种目标追踪状态。
4.根据权利要求2所述的超声影像目标多角度融合分析方法,其特征是,所述的步骤三,具体包括:
3.1)目标起始:接收由目标检测定位模块输出的新目标定位,为其建立轨迹记录链表和关键帧记录链表;为新定位目标打上标签,标签包含目标序号和良恶性分类;记录该目标第一个坐标为(0,0),用于表示其在图像x/y轴上的位置;
3.2)目标更新:由于超声影像相邻帧之间存在空间关联性,一帧识别结果中的目标定位框和上一帧之间存在一定的重叠,通过计算两个定位框的交并比(IOU)是否达到阈值可以确定两次目标识别结果为同一目标;
3.3)目标丢失处理:出现目标丢失情况时,将保存该丢失目标已有的轨迹表和关键图像序列,当在当前帧所识别的同时出现的目标总数小于记录到的可同时出现的目标最大总数时,一旦又识别到一个新目标,则先默认新出现目标为之前丢弃的目标,该目标的目标重匹配状态将被激活;
3.4)目标重匹配:对新出现的目标用丢失目标留下的关键帧链表内的所有关键帧进行相关滤波,当滤波结果的图像灰度值能量达到指定阈值时,认为新目标与之前的某丢失目标为同一目标;反之视为新目标并让其进入新目标的目标起始状态;
3.5)扫描结束:将追踪目标的轨迹链表和捕获到的多角度关键帧链表传送给目标多角度信息融合分析模块。
5.根据权利要求4所述的超声影像目标多角度融合分析方法,其特征是,所述的交并比,由像素占比的方式计算得出,基于默认探头最快移动速度V(cm/s)、定位框更新间段内图像采集平均帧率F(1/s)、超声图像分辨率E(像素个数/cm)和对应目标定位框大小L*W(像素个数作单位的长和宽所相乘的面积)计算占比阈值,交并比阈值M的计算公式和判断两目标Di、Di+1是否为同目标的判别条件表达式为:其中:Si是描述同目标情况的状态变量,当计算得的交并比大于等于M,视上下帧(第i帧与第i+1帧)的两个识别目标为同目标,即Si=1;
当确认新的定位目标为上一帧的同目标后,更新目标轨迹链表,计算当前帧的目标相距首帧目标之间的相对像素距离和位移向量,若相对像素距离及位移向量达到指定阈值时则认为属于不同角度的关键帧,将该关键帧添加到关键帧序列中。
6.根据权利要求4所述的超声影像目标多角度融合分析方法,其特征是,所述的相关滤波先将感兴趣区域通过二维快速傅里叶变换(FFT-2D)转为频域,再将两张频域图相乘得到相关性,通过求取相乘结果图的中高频分量平均强度得到匹配程度的量化值,如下所示,Di与Dj为待匹配的两个目标,Pi是描述目标匹配情况的状态变量,Pi为1时表示两张图中目标匹配:
7.根据权利要求2所述的超声影像目标多角度融合分析方法,其特征是,在重建出目标三维模型后,目标多角度信息融合分析模块对目标三维模型分析内部像素特性和外观轮廓特性,以获悉超声图像目标区域内像素值分布均匀度、平均值和目标外形规整度,具体为:对生成的三维模型使用其在三维频域的中高频分量强度判决其轮廓的圆滑程度;使用其三维灰度共生矩阵求内部灰度值分布的均匀程度和平均灰度值。
8.一种实现权利要求2-7中任一所述方法的超声影像目标多角度融合分析系统,其特征在于,包括:应用层、业务处理层、数据层、用于输入甲状腺超声影像的视频流入口和用于输出已识别目标结节实时定位框及重建模型与分析内容的输出口;
所述的业务处理层包括:图像预处理单元、目标检测定位单元、目标轨迹追踪单元和多角度信息融合分析单元,其中:图像预处理单元根据输入的超声图像序列,将其中每张图像进行双边滤波,以实现在不干扰图像边缘信息的同时滤除高频噪音后,使用基于指数变换的非线性对比度增强方法对降噪后图像增强对比度,使目标的边缘和内质特征更为明显,然后对增强后的图像,使用Z-Score标准化,将图像原始灰度值映射到均值为0、方差为1的偏态分布上,对外输出预处理后的图像序列;目标检测定位单元对预处理后的图像序列,将红绿蓝(RGB)三通道图像输入头改为灰度(G)单通道图像输入头,并结合神经网络剪枝的方式得到二分类优化网络;目标轨迹追踪单元结合Numpy库快速计算IOU重合程度确定连续目标,使用Numpy中的FFT函数实现快速傅里叶变换以匹配丢失目标,采用欧氏距离直接使用向量距离计算得到计算目标移动距离;目标多角度信息融合分析单元使用Canny算子分割目标结节轮廓,将图像中目标轮廓之外的区域变为黑色,得到目标分割图后,使用OpenCV库和Math库分析出结节分割图的所有角点特征和特征向量,再使用OpenCV库内置SFM函数重构目标三维模型,最后使用Numpy实现的3D-FFT函数计算目标三维模型的频域分布并求得中高频分量灰度值强度是否达到不规则边缘的阈值,使用Numpy的矩阵运算函数求得三维灰度共生矩阵中每个元素的值,之后判定其表示均匀度的指定元素值是否达到阈值。
9.根据权利要求8所述的超声影像目标多角度融合分析系统,其特征是,在剪枝过程中采用语义特征层剪枝,底层空间特征层保留;在训练该网络时,采用图像裁剪、图像翻转、图像拉伸的方式作为数据增强方案,再添加椒盐噪声形成用于训练的干扰样本以提升网络的抗干扰能力。
10.根据权利要求8所述的超声影像目标多角度融合分析系统,其特征是,所述的定位框的坐标和目标分类置信度数组,通过读取Yolo5库的底层模块得到并输出至目标轨迹追踪多角度信息获取模块;
所述的重建模型与分析内容通过数据层接口保存进MongoDB数据库中,通过服务接口返回给应用层的视窗进行显示。
CN202311588836.3A 2023-11-27 2023-11-27 基于目标追踪的超声影像目标多角度融合分析系统及方法 Pending CN117557859A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311588836.3A CN117557859A (zh) 2023-11-27 2023-11-27 基于目标追踪的超声影像目标多角度融合分析系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311588836.3A CN117557859A (zh) 2023-11-27 2023-11-27 基于目标追踪的超声影像目标多角度融合分析系统及方法

Publications (1)

Publication Number Publication Date
CN117557859A true CN117557859A (zh) 2024-02-13

Family

ID=89823035

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311588836.3A Pending CN117557859A (zh) 2023-11-27 2023-11-27 基于目标追踪的超声影像目标多角度融合分析系统及方法

Country Status (1)

Country Link
CN (1) CN117557859A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117830311A (zh) * 2024-03-05 2024-04-05 中山大学 医学影像图片分段和关键帧标识方法、系统、设备及介质
CN118397316A (zh) * 2024-07-01 2024-07-26 中数智科(杭州)科技有限公司 一种轨道列车项点的缺失检测方法
CN118470613A (zh) * 2024-07-10 2024-08-09 山东麦港数据系统有限公司 一种基于人工智能的视频图像变化检测方法
CN118662720A (zh) * 2024-08-22 2024-09-20 吉林大学 血液透析患者自体动静脉内瘘监测系统及方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117830311A (zh) * 2024-03-05 2024-04-05 中山大学 医学影像图片分段和关键帧标识方法、系统、设备及介质
CN117830311B (zh) * 2024-03-05 2024-05-28 中山大学 医学影像图片分段和关键帧标识方法、系统、设备及介质
CN118397316A (zh) * 2024-07-01 2024-07-26 中数智科(杭州)科技有限公司 一种轨道列车项点的缺失检测方法
CN118470613A (zh) * 2024-07-10 2024-08-09 山东麦港数据系统有限公司 一种基于人工智能的视频图像变化检测方法
CN118662720A (zh) * 2024-08-22 2024-09-20 吉林大学 血液透析患者自体动静脉内瘘监测系统及方法
CN118662720B (zh) * 2024-08-22 2024-11-01 吉林大学 血液透析患者自体动静脉内瘘监测系统及方法

Similar Documents

Publication Publication Date Title
JP7458328B2 (ja) マルチ分解能登録を介したマルチサンプル全体スライド画像処理
CN117557859A (zh) 基于目标追踪的超声影像目标多角度融合分析系统及方法
Ruan et al. Multi-correlation filters with triangle-structure constraints for object tracking
JP6587610B2 (ja) 映像医療機器により取得した画像を処理するシステムおよびそのシステムの作動方法
WO2019104767A1 (zh) 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法
CN108292366A (zh) 在内窥镜手术中检测可疑组织区域的系统和方法
CN113591825A (zh) 基于超分辨网络的目标搜索重建方法、装置及存储介质
Yang et al. Adversarial reconstruction CNN for illumination-robust frontal face image recovery and recognition
Liu et al. Component semantic prior guided generative adversarial network for face super-resolution
Adam et al. Objects can move: 3d change detection by geometric transformation consistency
Sarah et al. Evaluating the effect of super-resolution for automatic plant disease detection: application to potato late blight detection
Wu et al. Facial feature extraction and applications: A review
CN114998362A (zh) 基于双分割模型的医学图像分割方法
CN116524315A (zh) 一种基于Mask R-CNN的肺癌病理组织切片识别及分割方法
Koyun et al. Adversarial nuclei segmentation on H&E stained histopathology images
Li et al. Semid: Blind image inpainting with semantic inconsistency detection
Guangjing et al. Research on static image recognition of sports based on machine learning
CN109460768A (zh) 一种用于组织病理学显微图像的文本检测与去除方法
CN116168328A (zh) 一种甲状腺结节超声检查系统及方法
CN114463379A (zh) 一种视频关键点的动态捕捉方法及装置
Zhao et al. Automatic recognition and tracking of liver blood vessels in ultrasound image using deep neural networks
Patibandla et al. CT Image Precise Denoising Model with Edge Based Segmentation with Labeled Pixel Extraction Using CNN Based Feature Extraction for Oral Cancer Detection
Zhou et al. A lightweight object detection framework for underwater imagery with joint image restoration and color transformation
CN116129298B (zh) 基于时空记忆网络的甲状腺视频流结节识别系统
del Fresno et al. Application of color image segmentation to estrus detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination