[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN104867127A - 图像处理设备、图像处理方法和程序 - Google Patents

图像处理设备、图像处理方法和程序 Download PDF

Info

Publication number
CN104867127A
CN104867127A CN201510083936.XA CN201510083936A CN104867127A CN 104867127 A CN104867127 A CN 104867127A CN 201510083936 A CN201510083936 A CN 201510083936A CN 104867127 A CN104867127 A CN 104867127A
Authority
CN
China
Prior art keywords
area
shape
image processing
frontier point
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510083936.XA
Other languages
English (en)
Inventor
一木洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104867127A publication Critical patent/CN104867127A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Endoscopes (AREA)
  • Quality & Reliability (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

提供了一种图像处理设备,包括:边缘检测单元,配置为检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;第一估计单元,配置为基于所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及第二估计单元,配置为基于所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。

Description

图像处理设备、图像处理方法和程序
交叉引用相关申请
本申请要求2014年2月24日提交的日本优先权专利申请JP 2014-032808的利益,在此通过引用并入其全部内容。
技术领域
本技术涉及图像处理设备、图像处理方法和程序。更具体地,本技术涉及能够准确地校正内窥镜的屏蔽体(mask)的图像处理设备、图像处理方法和程序。
背景技术
内窥镜用作插入诸如患者的被摄体的体内的医疗仪器,并且观察身体的内部。来自内窥镜的图像以圆形帧的形式显示在矩形屏幕上。在这样的情况下,必须与作为由镜头筒部分区分地检测图像部分,该镜头筒部分显示为被镜头筒遮挡的部分。
屏蔽体可以用于区分不提供图像的部分和用户的由内窥镜获得的图像的部分。
发明内容
内窥镜的屏蔽体的位置可能经常移位,因此,例如如果位置移位,则期望检测并校正屏蔽体。
考虑这样的情况作出了本技术,并且意图允许精确地执行屏蔽体的检测。
根据本公开的实施例,提供了一种图像处理设备,包括:边缘检测单元,配置为检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;第一估计单元,配置为基于所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及第二估计单元,配置为基于所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。
要观察的被摄体可以是由内窥镜设备捕获的活体。
所述第一估计单元可以估计第一形状为圆形;以及所述第二估计单元可以估计第二形状为椭圆形。
所述图像处理设备还可以包括边缘删除单元,配置为从所述边界点中删除位于所述第一形状内的边界点。
所述边缘检测单元可以基于像素的亮度值检测所述边界点。
所述边缘检测单元可以使用安排为间隔预定数量的像素的两个矩形滤波器检测所述边界点。
所述边缘检测单元可以基于亮度值的标准偏差检测所述边界点。
可以从所述亮度值和标准偏差的关系表达式中计算标准偏差,所述关系表达式预先确定。
所述边缘检测单元可以包括在第一操作单元中,所述第一估计单元和所述第二估计单元可以包括在第二操作单元中,以及所述第一操作单元和所述第二操作单元之一可以配置为包括中央处理单元(CPU),并且另一个可以配置为包括图形处理单元(GPU)。
根据本公开另一实施例,提供了一种图像处理设备,包括:边缘检测单元,配置为检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;第一估计单元,配置为基于预定参考形状为所述边界点设置权重;以及第二估计单元,配置为基于对其设置了权重的边界点估计所述第一区域和所述第二区域之间的边界的形状。
要观察的被摄体可以是由内窥镜设备捕获的活体。
所述预定参考形状可以是圆形。
所述预定参考形状可以基于内窥镜设备的信息设置。
所述第二估计单元可以估计所述第一区域和所述第二区域之间的边界的形状为椭圆形。
根据本公开实施例的第一图像处理方法,包括:检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;基于检测到的所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及基于所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。
根据本公开实施例的第二图像处理方法,包括:检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;基于预定参考形状为检测到的所述边界点设置权重;以及基于对其设置了权重的边界点估计所述第一区域和所述第二区域之间的边界的形状。
根据本公开另一实施例,提供了一种计算机程序,用于使得计算机执行:检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;基于所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及基于检测到的所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。
在根据本技术实施例的第一图像处理设备、第一图像处理方法及其程序中,检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;基于所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及基于所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。
在根据本技术实施例的第二图像处理设备、第二图像处理方法及其程序中,检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;基于预定参考形状为所述边界点设置权重;以及基于对其设置了权重的边界点估计所述第一区域和所述第二区域之间的边界的形状。
根据本技术的实施例,允许精确地执行屏蔽体的检测。
注意,这里的优点不期望是限制性的,并且本公开中描述的其他优点是可以实现的。
附图说明
图1是图示对其应用本技术的图像处理设备的实施例的配置的图;
图2是图示描述屏蔽体的图;
图3是图示描述图像处理设备执行的操作的流程图;
图4是图示描述边缘的检测的图;
图5是图示描述边缘的检测的图;
图6是图示描述边缘的检测的图;
图7是图示描述边缘的检测的图;
图8是图示描述边缘的图;
图9是图示对其应用本技术的图像处理设备的另一实施例的配置的图;
图10是图示描述图像处理设备执行的操作的流程图;
图11是图示描述加权的图;以及
图12是图示描述记录介质的图。
具体实施方式
将描述用于实现本技术的实施例(以下简称“实施例”)。将按照以下顺序进行描述。
1.根据第一实施例的图像处理设备的配置
2.根据第一实施例的图像处理设备的操作
3.根据第二实施例的图像处理设备的配置
4.根据第二实施例的图像处理设备的操作
5.记录介质
<根据第一实施例的图像处理设备的配置>
这里描述的图像处理设备是用于处理从例如内窥镜获得的图像的图像处理设备。除了用于处理从内窥镜获得的图像的设备以外,这里描述的本技术可以应用于用于获取图像并从获取图像中检测屏蔽体的任何设备。将以用于处理从内窥镜获得的图像的图像处理设备作为例子进行下面的描述。
图1是图示对其应用本技术的图像处理设备的实施例的配置的图。图1所示的图像处理设备100从用作医疗仪器的内窥镜设备(未示出)获取图像数据,处理获取的图像,并且将处理的图像输出到用于显示图像的显示单元101,如监视器。
图像处理设备100配置为包括图像获取单元111、第一操作单元112和第二操作单元113。第一操作单元112配置为包括亮度图像转换单元121、边缘检测单元122和传输单元123。第二操作单元113配置为包括圆形估计单元131、边缘检测单元132和椭圆形估计单元133。
图像处理设备100的图像获取单元111从内窥镜设备(未示出)获取图像。内窥镜设备配置为包括内窥镜、光源单元、成像部件、和相机控制单元。内窥镜形成插入体腔中的活体成像设备,用于捕获身体的内部。光源单元给内窥镜提供照明光。内窥镜的成像部件可以是电荷耦合器件(CCD)。相机控制单元对成像部件执行信号处理。图像获取单元111获取从相机控制单元输出的图像数据。
图像获取单元111获取的图像数据提供给第一操作单元112。第一操作单元112中包括的亮度图像转换单元121将获取的图像数据转换为亮度图像的图像数据,并且将转换后的图像数据提供给边缘检测单元122。
边缘检测单元122基于提供的图像数据,使用亮度图像检测边缘部分。参考图2,描述了边缘(屏蔽体形状)。图2图示了在显示单元101上显示的示例图像。屏幕的中心部分是椭圆形有效区域151,其表示内窥镜设备对用户捕获的图像。
图像中的有效区域151的外围是屏蔽体区域152,其例如是涂黑区域,如图2所示。图像中有效区域151和屏蔽体区域152之间的边界是边缘。边缘检测单元122检测这样的边界。在本技术中,如稍后描述的,边缘检测单元122检测边缘,然后校正检测的边缘,从而获得精确边缘(屏蔽体的检测)。
在内窥镜获得的图像的左、又、上和下部存在活体图像不可见的区域。这是因为存在这样的区域,其中由于内窥镜中暗角(vignetting)的存在导致光没有透射到成像部件。活体图像不可见的区域对应于屏蔽体区域152,并且活体图像可见的区域对应于有效区域151。
因为内窥镜移位,所以暗角的出现状况可能改变。如果暗角的出现状况改变,则屏蔽体区域152也可能改变。因此,必须检查屏蔽体区域152的改变并且适当地处理该改变。换句话说,必须精确地检测屏蔽体,并且在稍后描述的本技术中,边缘检测单元122检测边缘,然后校正检测的边缘,从而获得精确边缘(屏蔽体的检测)。
回来参考图1所示的图像处理设备100的描述,传输单元123将关于边缘检测单元122检测的边缘的信息传输给第二操作单元113。
第二操作单元113中包括的圆形估计单元131估计屏蔽体的形状(边缘的形状)为圆形。当边缘检测单元122检测的边缘在圆形估计单元131估计的圆形内时,边缘删除单元132删除边缘。
椭圆形估计单元133通过使用关于没有被边缘删除单元132删除的剩余边缘的信息估计屏蔽体的形状为椭圆形,检测屏蔽体。
以此方式,在本技术中,通过第二操作单元中包括的圆形估计单元131和椭圆形估计单元133,执行两次估计,从而检测屏蔽体。通过椭圆估计单元133获得的估计结果作为检测的屏蔽体的形状输出到椭圆估计单元133的下级中布置的显示单元101。
将以执行圆形估计然后执行椭圆估计的实施例为例给出下面的描述,但是本技术的应用范围不限于上述的估计顺序。
如图2所示,当显示单元101上显示的屏蔽体区域152(或有效区域151)为椭圆形时,执行圆形估计,然后执行椭圆形估计。可替代地,在该情况下,还可以执行椭圆估计,然后执行椭圆估计。
此外,当显示单元101上显示的屏蔽体区域152(或有效区域151)为圆形时(未示出),执行圆形估计,然后可以执行圆形估计。可替代地,在该情况下,还可以执行椭圆估计,然后执行圆形估计。
在图1所示的图像处理设备100中,第一和第二操作单元112和113可以配置为包括中央处理单元(CPU)或图形处理单元(GPU)。第一和第二操作单元112和113可以配置为分离操作单元或作为单个组件,包括在图像处理设备100中。
第一和第二操作单元112和113可以安装在相同图像处理设备100中。可替代地,第一和第二操作单元112和113可以安装在单独的对应设备中,并且可以通过分别连接它们的电缆传输边缘信息。
具体地,例如,第一操作单元112可以配置为包括GPU以将从内窥镜设备获得的图像转换为亮度数据,并且检测边缘。第二操作单元113可以配置为包括CPU以使用GPU检测的边缘检测屏蔽体。
<根据第一实施例的图像处理设备的操作>
参考图3的流程图,描述图1所示的图像处理设备100执行的操作。
在步骤S101,图像处理设备100中包括的图像获取单元111从内窥镜设备(未示出)获取图像数据。
在步骤S102,图像处理设备100中包括的亮度图像转换单元121基于图像获取单元111获取的图像数据,将图像转换为亮度图像,并且将转换后的图像数据提供给边缘检测单元122。
边缘检测单元122从亮度图像中检测作为有效区域151和屏蔽体区域152(见图2)之间的边界部分的边缘,如参考图4和5描述的。
参考图4和5描述边缘检测单元122的边缘检测。
图4图示显示单元101上显示的示例屏幕。图4所示的示例屏幕基本上类似于图2所示的示例屏幕,但是为了描述方便,屏蔽体区域152以白色表示,并且有效区域151以灰色表示。边缘检测单元122从左上向右扫描亮度图像。另一方面,边缘检测单元122还从右上向左扫描亮度图像。
换句话说,边缘检测单元122在左和右方向上扫描亮度图像。左和右方向上的扫描相互类似地执行。因此,将以左方向上的扫描为例给出描述。
扫描可以从最上一行开始,或者可以从位于距离最上一行预定数量行的下侧的一行开始。扫描可以从位于最左的像素开始,或者扫描可以从位于距离最左像素预定数量像素的右侧的像素开始。将假设扫描从图4所示的像素S开始给出描述。
当在右方向上从像素S开始扫描并且完成预定数量像素的扫描时,要扫描的部分移位到下一行。可替代地,当在右方向上从像素S开始扫描并且检测到边缘时,要扫描的部分移位到下一行。
以此方式,当执行每行的预定范围中的扫描时,可以完成相关行的扫描,或者当检测到边缘时,可以完成相关行的扫描。换句话说,要扫描的范围可以设为固定或可变。
扫描在像素E所在的行完成。像素E是在位于距离底部行预定数量行的上侧的一行上的像素,并且像素E是距离左侧位于与像素S相同位置的像素。
在从像素S开始扫描并且从像素E开始的扫描完成时,与边缘检测有关的扫描完成。在像素S所在的行和像素E所在的行之间的所有行可以是要扫描的目标。可替代地,安排为间隔预定数量行的各行可以是要扫描的目标。
使用预定滤波器171执行扫描。图5是图示来描述滤波器171的图,并且是图4所述的屏幕中的区域172的放大图。在图5中,屏蔽体区域152以黑色表示,并且有效区域151以灰色表示。
滤波器171由矩形滤波器181-1和181-2构成。在下面的描述中,当不需要在滤波器181-1和滤波器181-2之间区分时,这些单元将简称为滤波器181。这类似地应用于其它组件。
滤波器181是具有这样大小的矩形形状,其中水平方向上的长侧的长度设为宽度W,并且垂直方向上的短侧的长度设为高度H。滤波器181中包含的像素的数量,即,宽度W乘以高度H的大小设为20或更多。
滤波器181-1和滤波器181-2间隔在它们之间包含的预定数量的像素。滤波器181-1和滤波器181-2之间的间距称为间隙G。
以此方式,在包括它们之间间隔间隙G的滤波器181-1和181-2的滤波器171中,通过将滤波器171从左向右移位执行扫描。
利用扫描,分开计算滤波器181-1中的平均亮度值和滤波器181-2中的平均亮度值,并且基于平均亮度值之间的差检测边缘。例如,当滤波器181-1和181-2在屏蔽体区域152中时,认为滤波器181-1和181-2的平均亮度值都低,并且滤波器181-1和181-2的平均亮度值之间的差也低。
另一方面,当滤波器181-1在屏蔽体区域152中并且滤波器181-2在有效区域151中时,认为滤波器181-1的平均亮度值低,滤波器181-2的平均亮度值高(至少高于滤波器181-1中的平均亮度值),并且滤波器181-1和181-2的平均亮度值之间的差大。
图6图示当滤波器181-1在屏蔽体区域152中并且滤波器181-2在有效区域151中时亮度值的示例。
在图6所示的曲线图中,水平轴表示像素的位置,并且垂直轴表示像素的亮度值。此外,图6所示的曲线图指示在边缘存在的部分中的七个部分的测量结果。位于像素43的位置(以下称为“位置43”)之前位置的像素具有小于或等于10的低亮度值。位于像素62的位置(以下称为“位置62”)之后位置的像素具有大于或等于60的高亮度值。在位置43和位置62之间的像素的位置中存在边缘,并且在包括边缘的位置之前和之后的位置处亮度值改变。
当滤波器181-1在屏蔽体区域152中时,它位于像素43的位置之前的位置,因此滤波器181-1中的亮度值的平均值具有小的值,在该情况下,10或更少。
另一方面,当滤波器181-2在有效区域151中时,它位于像素62的位置之后的位置,因此滤波器181-2中的亮度值的平均值具有大的值,在该情况下,60或更多。
以此方式,取决于滤波器181是否位于屏蔽体区域152中,滤波器181中的平均亮度值之间出现差。在如图6所示的情况下,当在位置43和位置62之间的各像素的位置中存在边缘并且滤波器171的间隙G位于该位置时,检测到边缘。
图5所示的滤波器171包括滤波器181-1和181-2,并且间隙G提供在滤波器181-1和181-2之间,并且这对应于当滤波器181-1在屏蔽体区域152中并且滤波器1812在有效区域151中时。这意图检测当边缘存在于间隙G内时。
以此方式,分开计算滤波器181-1和181-2中的平均亮度值,并且当平均亮度值之间的差大于或等于预定值时,检测到边缘存在于间隙G内。
以此方式,可以通过检测平均亮度值之间的差大于或等于预定值的位置来检测边缘的位置。此外,获得标准偏差,并且可以使用获得的标准偏差检测边缘的位置。
将以具有高离差的点设为屏蔽体的边缘的情况为例给出描述。该离差是通过将平均亮度值之间的差除以标准偏差获得的值。
离差=(平均亮度值之间的差)/标准偏差
具有高离差的点设为屏蔽体的边缘。具体地,阈值设为大约1.5倍标准偏差,并且当离差大于或等于该阈值时,可以允许检测到边缘。
当要使用标准偏差时,必须从实际测量的亮度值计算标准偏差,这增加了计算量。因此,如果强调实时属性,则可以使用之前计算的标准偏差计算离差,如稍后描述的,而不是从实际测量的亮度值计算标准偏差。
图7所示的曲线图指示平均亮度值和标准偏差之间的关系。在该曲线图中,水平轴表示平均亮度值,并且垂直轴表示标准偏差。图7图示通过绘制实际测量值获得的点。方块点是通过绘制从位于有效区域151中的像素获得的值获得的点。钻石形点是通过绘制从屏蔽体区域152获得的值获得的点。
使用最小二乘法和其它方法从这些点的分布确定线性表达式,因此确定平均亮度值和标准偏差之间的关系表达式。图7中的点线表示的线性线是如上所述确定的线性表达式。确定离差时的标准偏差从图7所示的线性表达式确定。例如,当平均亮度值为6.0时,0.7的值用作标准偏差,并且计算离差。
这样的关系表达式存储在边缘检测单元122中,并且当计算平均亮度值时,可以通过将平均亮度值代入存储的关系表达式确定标准偏差。可替代地,其中平均亮度值和标准偏差相互关联的表格存储在边缘检测单元122中,并且当计算平均亮度值时,通过参考存储的表示可以读取标准偏差。
这样的关系表达式可以共同用于每个图像处理设备100,但是优选考虑内窥镜设备的个体差异等为每个内窥镜设备确定关系表达式。例如,当内窥镜设备连接到图像处理设备100时,内窥镜设备捕获测试图案等,并且在捕获时从图像获得实际测量值,从而确定线性表达式。
当取决于使用环境或其它因素可能要改变关系表达式时,可以执行确定关系表达式的处理,作为在开始图像处理设备100的处理时的初始设置。
以此方式,通过预先设置平均亮度值和标准偏差之间的关系,可能减少在检测边缘时所需的计算量。
与使用通过实际测量获得的值确定标准偏差、然后确定离差的情况相比,可能减少通过错误检测或的边缘量。
当通过实际测量确定标准偏差时,在图7的曲线图中,可以看到标准偏差波动,如各点所示。因此,如果通过实际测量确定标准偏差,则由于标准偏差的波动,边缘的错误检测可能增加。然而,如上所述,通过预先建立平均亮度值和标准偏差之间的关系,吸收了标准偏差的波动,因此可以减少边缘的错误检测。
以此方式,通过使用滤波器171对亮度图像执行扫描,检测到边缘。假设在预定行上检测的边缘指示为边缘点并且边缘是各边缘点的集合,给出以下描述。此外,边缘点是从单个行检测的点,并且描述假设包括检测为边缘的点的坐标。
边缘点是通过内窥镜设备或的图像中,位于表示提供给用户的图像的区域(图2中的有效区域151)和不给用户提供图像的区域之间的边界,并且可以是也可以被称为边界点的点。
通过边缘检测单元122(见图1)检测的边缘点以预定安排收集,并且通过传输单元123传输给第二操作单元113(图3中的步骤S104)。
在步骤S105,圆形估计单元131估计圆形作为屏蔽体形状。在图8所示的示例屏幕中,屏蔽体形状假设为有效区域151’和屏蔽体区域152’之间的边界的形状。图8所示的示例屏幕图示屏蔽体在形状上为圆形。
在屏蔽体形状为圆形的假设下执行圆形的估计,并且从关于边缘检测单元122检测的边缘的信息估计圆形形状。换句话说,从边缘信息估计用于确定圆形的参数。该参数包括圆形的中心点(中心坐标)和半径。
在图8所示的示例屏幕中,中心点表示为点P,并且半径表示为半径R。圆形估计单元131从边缘信息计算点P的坐标和半径R。该估计可以使用边缘信息(关于边缘点的坐标的信息)通过最小二乘法执行。
在步骤S106,边缘删除单元132从边缘检测单元122检测的边缘点中删除位于由圆形估计单元131估计的圆内的边缘点。
如果在通过圆形估计单元131执行估计时使用的边缘信息设为第一边缘信息,则边缘删除单元132从第一边缘信息中删除位于估计的圆内的边缘点的信息,并且生成第二边缘信息。
在步骤S107,椭圆估计单元133估计椭圆形作为屏蔽体形状。在屏蔽体形状为椭圆形的假设下执行椭圆形的估计,并且从由边缘删除单元132生成的第二边缘信息中估计椭圆形形状。换句话说,从第二边缘信息中估计用于确定椭圆形的参数。该参数包括椭圆形的中心点(中心坐标)、长轴(主轴)的长度和短轴(副轴)的长度。
如图2所示,屏蔽体形状为椭圆形,因此使用第二边缘信息,例如通过最小二乘法估计屏蔽体形状。通过估计获得的结果输出到显示单元101作为屏蔽体形状(步骤S108中的处理)。
以此方式,在本实施例中,通过执行估计两次确定屏蔽体形状。通过估计屏蔽体形状在形状上不同(如圆形和椭圆形),执行两级的估计。通过执行两级的估计确定屏蔽体形状,因此可能改进屏蔽体形状的检测精确度。
通过第一级的估计,通过删除更可能是错误检测的边缘点以留下更可能是正确检测的边缘点,然后通过对剩余边缘点执行第二级估计,实现该改进。
如参考图4或5描述,使用矩形滤波器或使用平均亮度值和标准偏差之间的关系,执行边缘的检测,因此可以改进第一级估计中使用的第一边缘信息的精确度。因此,可以改进最终获得的屏蔽体形状的检测精确度。
在过去通常使用Hough变换执行屏蔽体的检测,但是Hough变换的特征是缺少实时属性,因此不适于内窥镜设备或其它类似设备中需要实时属性的图像处理。
同时,在上述第一实施例中,通过采用具有相对小的计算量的最小二乘法,可能减少计算量,因此可以缩短屏蔽体检测的时间。此外,在通过边缘检测单元122检测边缘时,预先确定平均亮度值和标准偏差之间的关系,因此通过使用该关系可能实现处理时间的进一步缩短。
因此,根据本技术的实施例,可能以更高精确度检测屏蔽体,并且可以缩短屏蔽体检测的时间。
尽管已经描述了在圆形估计单元131执行圆形估计之后,椭圆形估计单元133执行椭圆估计,但是本技术的应用不限于圆形估计和椭圆形估计的组合。
如果呈现给显示单元101的屏蔽体形状为椭圆形,则第二级估计是椭圆形估计,但是如果呈现给显示单元101的屏蔽体形状是圆形,则优选执行圆形估计。此外,本技术可以应用于第一级估计是圆形估计或椭圆形估计的任何情况。
尽管已经以圆形或椭圆形为例给出描述,但是在第一级估计和第二机构估计的任一中或在两级中可以执行使用其它形状(如矩形形状)的估计。
尽管已经描述执行两级估计,但是也可以执行三级或更多级估计。然而,如果执行估计的次数增加,则操作的次数相应地增加。在该情况下,屏蔽体检测的时间可能变长,因此优选执行估计的次数设为缩短屏蔽体检测的时间,并且改进检测精确度。
<根据第二实施例的图像处理设备的配置>
图9图示根据第二实施例的图像处理设备的配置。图9所示的图像处理设备200从用作医疗仪器的内窥镜设备(未示出)获取图像数据,处理获取的图像,并且将处理的图像输出到用于显示图像的显示单元101,如监视器,这与根据图1所示的第一实施例的图像处理设备100类似。
在图9所示的图像处理设备200和图1所示的图像处理设备100中,相同组件用相同参考标号表示,并且将适当地省略其描述。
图像处理设备200配置为包括图像获取单元111、第一操作单元112和第二操作单元201。第一操作单元112配置为包括亮度图像转换单元121、边缘检测单元122和传输单元123。第二操作单元201配置为包括权重设置单元211和椭圆估计单元212。
图9所示的图像处理设备200与图1所示的图像处理设备100的不同在于,在它们之间第二操作单元201的配置不同。图像处理设备200提供有权重设置单元211而不是图像处理设备100(图1)中包括的圆形估计单元131和边缘删除单元132。
<根据第二实施例的图像处理设备的操作>
参考图10的流程图,将描述图9所示的图像处理设备200执行的操作。
步骤S201到S204的步骤的处理类似于图3所示的流程图的S101到S104的步骤的处理,因此将省略其描述。换句话说,图像处理设备200的图像获取单元111执行的处理类似于图像处理设备100的图像获取单元111(图1)执行的处理。图像处理设备200中的第一操作单元112执行的处理类似于图像处理设备100的第一操作单元112(图1)执行的处理。
因此,在第二实施例中,可以实现缩短边缘检测的时间的优点,这类似于第一实施例。
在步骤S205,通过权重设置单元211设置权重。在权重设置单元211中,例如,对边缘信息执行如图11所示的加权处理。
图11是图示描述权重设置单元211执行的加权的图,并且图示当要设置的权重在显示单元101上显示时的示例屏幕。将假设在边缘较多可能存在的区域中将加权值设为1和在边缘较少可能存在的区域中将加权值设为0给出下面描述。
在图11中,黑色表示的部分是边缘较少可能存在的区域并且加权值设为0。白色表示的部分是边缘较多可能存在的区域并且加权值设为1。在图11中,从黑色区域到白色区域应用梯度。
换句话说,加权值设为0和1之间的数值。设置加权值,使得它从设为0的区域向设为1的区域逐渐改变。将假设设置加权值给出描述,但是加权值和设置加权值的方式不限于这里描述的示例。
权重设置单元211存储用于执行上述加权的参考形状,并且基于存储的参考形状(图案)执行加权。这样的参考形状优选为每种类型的内窥镜定义。在内窥镜中,例如,因为存在不同系列的系统,所以为内窥镜的每种系统准备参考形状,并且获得关于内窥镜的信息(如ID)。然后,可以通过使用与ID相关联的参考图像执行加权处理。
如图11所示,在屏幕的中央部分或四个角落部分中较少可能存在边缘,因此加权值设为0。在该情况下,即使在这样的部分检测到边缘点,加权值设为0,因此这样的边缘点不用于位于后级的椭圆消除单元212的操作。
删除从预定区域检测的边缘点的处理对应于第一实施例中由圆形估计单元131估计圆形和边缘删除单元132删除圆形内的边缘点的处理。
根据第一实施例的图像处理设备100通过允许圆形估计单元131和椭圆估计单元133执行两级估计来检测屏蔽体。根据第二实施例的图像处理设备200对边缘信息执行加权处理作为与第一级估计对应的处理。
这对应于当屏蔽体形状为圆形时估计更多可能存在边缘的区域的处理。此外,这对应于估计较少可能存在边缘的区域并删除该区域内的边缘点的处理。以此方式,在第二实施例中执行这样的处理,因此由权重设置单元211执行的处理对应于第一实施例中圆形估计单元131和边缘删除单元132执行的处理,也就是说,该处理对应于第一级估计。
即使在第二实施例中,也执行椭圆估计作为在步骤S205之后要执行的处理,因此通过执行两级估计检测屏蔽体,这与第一实施例类似。
以此方式,经历权重设置单元211的加权处理的边缘信息提供给椭圆估计单元212。提供给椭圆估计单元212的边缘信息是通过排除较少可能是边缘的信息获得的信息,并且如果该信息较多可能是边缘,则相应地它显著影响椭圆估计单元212执行的估计。
在步骤S206中,椭圆估计单元212检测屏蔽体形状为椭圆。可以以与图像处理设备100的椭圆估计单元133执行的步骤S107(图3)中的处理相似的方式执行步骤S206中的处理。可以以与步骤S108(图3)中的处理相似的方式执行步骤S207中的处理,因此将省略其描述。
以此方式,根据第二实施例,执行加权,使得检测的边缘点中较多可能是边缘的点影响屏蔽体检测,因此可以改进屏蔽体检测的精确度,从而减少计算量。
在第二实施例中,类似于第一实施例,可能以更高精确度检测屏蔽体,从而缩短屏蔽体检测的时间。
本技术的实施例能够在内窥镜捕获的图像的曝光适当或甚至过度时精确地检测屏蔽体。当曝光适当或过度时,在有效区域151中的图像和屏蔽体区域152中的图像之间对比明显,因此相对容易检测位于各图像之间的边界处的边缘和检测屏蔽体。
此外,本技术的各实施例能够在即使内窥镜捕获的图像的曝光不足以用于检测时精确地检测屏蔽体。当曝光不足以检测时,在有效区域151中的图像和屏蔽体区域152中的图像之间对比不明显。即使在这样的情况下,也可能通过如上所述检测边缘和执行两级估计精确地检测屏蔽体。
<记录介质>
上述一系列处理可以通过硬件执行,但也可以通过软件执行。当通过软件执行一系列处理时,构成这样的软件的程序安装到计算机中。这里,表达“计算机”包括并入专用硬件的计算机和当安装各种程序时能够执行各种功能的通用个人计算机。
图12是图示使用程序使得执行上述一系列处理的计算机的硬件配置示例的方块图。在计算机中,中央处理单元(CPU)1101、只读存储器(ROM)1102、和随机存取存储器(RAM)1103经由总线1104相互连接。总线1104连接到输入/输出接口1105。输入/输出接口1105连接到输入单元1106、输出单元1107、存储单元108、通信单元1109和驱动器1110。
输入单元1106包括键盘、鼠标、麦克风和其它类似设备。输出单元1107包括显示器、扬声器和其它类似设备。存储单元1108包括硬盘、非易失性存储器和其它类似设备。通信单元1109包括网络接口和其它类似设备。驱动器1110驱动可移除介质1111,如磁盘、光盘、磁光盘、半导体存储器等。
在如上所述配置的计算机中,作为一个示例,CPU 1101经由输入/输出接口1105和总线1104将存储单元1108中存储的程序加载到RAM 1103中,并且执行程序以执行前面描述的一系列处理。
提供要由计算机(CPU 1101)执行的程序,其以封装介质等的形式记录在可移除介质1111中。程序可以经由有线或无线传输介质(如局域网、因特网、或数字卫星广播)提供。
在计算机中,通过将可移除介质1111插入驱动器1110,程序可以经由输入/输出接口1105安装到存储单元1108中。此外,通信单元1108可以经由有线或无线传输介质接收程序,并且可以将其安装在存储单元1108中。此外,程序可以预先安装在ROM 1102或存储单元1108中。
应当注意的是,计算机执行的程序可以是按照这里描述的顺序以时间序列执行的程序,或者是并行或在必要定时(如调用时)处理的程序。
注意,这里使用的术语“系统”指由多个设备构成的整个配置。
注意,这里描述的优点要被认为是说明性的或示例性的,而不是限制性的,并且将从本技术理解的其它优点可以是可实现的。
本技术的实施例不限于上面描述的实施例,并且可以进行各种改变和修改而不偏离本技术的范围。
此外,本技术还可以配置如下。
(1)一种图像处理设备,包括:
边缘检测单元,配置为检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;
第一估计单元,配置为基于所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及
第二估计单元,配置为基于所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。
(2).根据(1)所述的图像处理设备,
其中,要观察的被摄体是由内窥镜设备捕获的活体。
(3).根据(1)或(2)所述的图像处理设备,
其中,所述第一估计单元估计第一形状为圆形;以及
其中,所述第二估计单元估计第二形状为椭圆形。
(4).根据(1)到(3)的任一所述的图像处理设备,还包括:
边缘删除单元,配置为从所述边界点中删除位于所述第一形状内的边界点。
(5).根据(1)到(4)的任一所述的图像处理设备,
其中,所述边缘检测单元基于像素的亮度值检测所述边界点。
(6).根据(5)所述的图像处理设备,
其中,所述边缘检测单元使用安排为间隔预定数量的像素的两个矩形滤波器检测所述边界点。
(7).根据(5)所述的图像处理设备,
其中,所述边缘检测单元基于亮度值的标准偏差检测所述边界点。
(8).根据(7)所述的图像处理设备,
其中,从所述亮度值和标准偏差的关系表达式中计算标准偏差,所述关系表达式预先确定。
(9).根据(1)到(8)的任一所述的图像处理设备,
其中,所述边缘检测单元包括在第一操作单元中,
其中,所述第一估计单元和所述第二估计单元包括在第二操作单元中,以及
其中,所述第一操作单元和所述第二操作单元之一配置为包括中央处理单元(CPU),并且另一个配置为包括图形处理单元(GPU)。
(10).一种图像处理设备,包括:
边缘检测单元,配置为检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;
第一估计单元,配置为基于预定参考形状为所述边界点设置权重;以及
第二估计单元,配置为基于对其设置了权重的边界点估计所述第一区域和所述第二区域之间的边界的形状。
(11).根据(10)所述的图像处理设备,
其中,要观察的被摄体是由内窥镜设备捕获的活体。
(12).根据(10)或(11)所述的图像处理设备,
其中,所述预定参考形状是圆形。
(13).根据(11)或(12)所述的图像处理设备,
其中,所述预定参考形状基于内窥镜设备的信息设置。
(14).根据(10)到(13)的任一所述的图像处理设备,
其中,所述第二估计单元估计所述第一区域和所述第二区域之间的边界的形状为椭圆形。
(15).一种图像处理方法,包括:
检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;
基于检测到的所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及
基于所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。
(16).一种图像处理方法,包括:
检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;
基于预定参考形状为检测到的所述边界点设置权重;以及
基于对其设置了权重的边界点估计所述第一区域和所述第二区域之间的边界的形状。
(17).一种程序,用于使得计算机执行:
检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;
基于检测到的所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及
基于所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。

Claims (17)

1.一种图像处理设备,包括:
边缘检测单元,配置为检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;
第一估计单元,配置为基于所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及
第二估计单元,配置为基于所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。
2.根据权利要求1所述的图像处理设备,
其中,要观察的被摄体是由内窥镜设备捕获的活体。
3.根据权利要求1所述的图像处理设备,
其中,所述第一估计单元估计第一形状为圆形;以及
其中,所述第二估计单元估计第二形状为椭圆形。
4.根据权利要求1所述的图像处理设备,还包括:
边缘删除单元,配置为从所述边界点中删除位于所述第一形状内的边界点。
5.根据权利要求1所述的图像处理设备,
其中,所述边缘检测单元基于像素的亮度值检测所述边界点。
6.根据权利要求5所述的图像处理设备,
其中,所述边缘检测单元使用安排为间隔预定数量的像素的两个矩形滤波器检测所述边界点。
7.根据权利要求5所述的图像处理设备,
其中,所述边缘检测单元基于亮度值的标准偏差检测所述边界点。
8.根据权利要求7所述的图像处理设备,
其中,从所述亮度值和标准偏差的关系表达式中计算标准偏差,所述关系表达式预先确定。
9.根据权利要求1所述的图像处理设备,
其中,所述边缘检测单元包括在第一操作单元中,
其中,所述第一估计单元和所述第二估计单元包括在第二操作单元中,以及
其中,所述第一操作单元和所述第二操作单元之一配置为包括中央处理单元(CPU),并且另一个配置为包括图形处理单元(GPU)。
10.一种图像处理设备,包括:
边缘检测单元,配置为检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;
第一估计单元,配置为基于预定参考形状为所述边界点设置权重;以及
第二估计单元,配置为基于对其设置了权重的边界点估计所述第一区域和所述第二区域之间的边界的形状。
11.根据权利要求10所述的图像处理设备,
其中,要观察的被摄体是由内窥镜设备捕获的活体。
12.根据权利要求10所述的图像处理设备,
其中,所述预定参考形状是圆形。
13.根据权利要求11所述的图像处理设备,
其中,所述预定参考形状基于内窥镜设备的信息设置。
14.根据权利要求10所述的图像处理设备,
其中,所述第二估计单元估计所述第一区域和所述第二区域之间的边界的形状为椭圆形。
15.一种图像处理方法,包括:
检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;
基于检测到的所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及
基于所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。
16.一种图像处理方法,包括:
检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;
基于预定参考形状为检测到的所述边界点设置权重;以及
基于对其设置了权重的边界点估计所述第一区域和所述第二区域之间的边界的形状。
17.一种程序,用于使得计算机执行:
检测包括要观察的被摄体的第一区域和不包括所述被摄体的第二区域之间的边界点;
基于检测到的所述边界点估计第一形状作为所述第一区域和所述第二区域之间的边界的形状;以及
基于所述边界点和估计的第一形状,估计第二形状作为所述第一区域和所述第二区域之间的边界的形状。
CN201510083936.XA 2014-02-24 2015-02-16 图像处理设备、图像处理方法和程序 Pending CN104867127A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014032808A JP2015156937A (ja) 2014-02-24 2014-02-24 画像処理装置、画像処理方法、並びにプログラム
JP2014-032808 2014-02-24

Publications (1)

Publication Number Publication Date
CN104867127A true CN104867127A (zh) 2015-08-26

Family

ID=53882700

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510083936.XA Pending CN104867127A (zh) 2014-02-24 2015-02-16 图像处理设备、图像处理方法和程序

Country Status (3)

Country Link
US (1) US10058237B2 (zh)
JP (1) JP2015156937A (zh)
CN (1) CN104867127A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633659A (zh) * 2019-08-30 2019-12-31 北京旷视科技有限公司 活体检测方法、装置、计算机设备和存储介质
CN110769731A (zh) * 2017-06-15 2020-02-07 奥林巴斯株式会社 内窥镜系统、内窥镜系统的工作方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10475201B1 (en) * 2016-02-02 2019-11-12 Hunter Engineering Company Method and apparatus for determining wheel rim and tire dimensions on a moving vehicle
JP6873740B2 (ja) * 2017-02-24 2021-05-19 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡装置及びエッジ検出方法
JP6987513B2 (ja) * 2017-03-07 2022-01-05 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡装置
US10776916B2 (en) * 2017-11-22 2020-09-15 Express Scripts Strategic Development, Inc. Computer imaging pre-processing for automated medication dispensing analysis
JP7159577B2 (ja) * 2018-03-20 2022-10-25 ソニーグループ株式会社 内視鏡システム、制御方法、情報処理装置、およびプログラム
JP7171274B2 (ja) 2018-07-06 2022-11-15 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察装置
US20210275000A1 (en) * 2020-03-05 2021-09-09 Stryker Corporation Systems and methods for endoscope type detection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1835547A (zh) * 2005-03-14 2006-09-20 株式会社其恩斯 图像处理装置及图像处理中的登录数据生成方法
US20100298641A1 (en) * 2009-01-15 2010-11-25 Olympus Medical Systems Corp. Endoscope system
US20110164064A1 (en) * 2008-09-01 2011-07-07 Hitachi Medical Corporation Image processing device and method for processing image
US20120155724A1 (en) * 2010-12-16 2012-06-21 Olympus Corporation Image processing apparatus, image processing method and computer-readable recording device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6778690B1 (en) * 1999-08-13 2004-08-17 Hanif M. Ladak Prostate boundary segmentation from 2D and 3D ultrasound images
US7011625B1 (en) * 2003-06-13 2006-03-14 Albert Shar Method and system for accurate visualization and measurement of endoscopic images
JP4664147B2 (ja) * 2005-07-29 2011-04-06 株式会社山武 虹彩認証装置
JP2010033305A (ja) * 2008-07-29 2010-02-12 Hitachi Ltd 画像情報処理方法、及び装置
US8903144B2 (en) * 2010-12-01 2014-12-02 Olympus Corporation Endoscope apparatus and method of measuring object
JP5663283B2 (ja) * 2010-12-02 2015-02-04 オリンパス株式会社 内視鏡画像処理装置及びプログラム
JP4893862B1 (ja) * 2011-03-11 2012-03-07 オムロン株式会社 画像処理装置、および画像処理方法
JP5888062B2 (ja) 2012-03-29 2016-03-16 株式会社Jvcケンウッド 立体画像処理装置および立体画像処理方法
JP6112879B2 (ja) * 2013-01-28 2017-04-12 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1835547A (zh) * 2005-03-14 2006-09-20 株式会社其恩斯 图像处理装置及图像处理中的登录数据生成方法
US20110164064A1 (en) * 2008-09-01 2011-07-07 Hitachi Medical Corporation Image processing device and method for processing image
US20100298641A1 (en) * 2009-01-15 2010-11-25 Olympus Medical Systems Corp. Endoscope system
US20120155724A1 (en) * 2010-12-16 2012-06-21 Olympus Corporation Image processing apparatus, image processing method and computer-readable recording device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110769731A (zh) * 2017-06-15 2020-02-07 奥林巴斯株式会社 内窥镜系统、内窥镜系统的工作方法
CN110633659A (zh) * 2019-08-30 2019-12-31 北京旷视科技有限公司 活体检测方法、装置、计算机设备和存储介质
CN110633659B (zh) * 2019-08-30 2022-11-04 北京旷视科技有限公司 活体检测方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
US10058237B2 (en) 2018-08-28
JP2015156937A (ja) 2015-09-03
US20150243027A1 (en) 2015-08-27

Similar Documents

Publication Publication Date Title
CN104867127A (zh) 图像处理设备、图像处理方法和程序
CN112106107B (zh) 显微镜切片图像的聚焦加权的机器学习分类器误差预测
JP6265588B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
US9536316B2 (en) Apparatus and method for lesion segmentation and detection in medical images
US9418414B2 (en) Image measurement apparatus, image measurement method and image measurement system
KR102025756B1 (ko) 영상에서 스펙클을 제거하는 방법, 장치 및 시스템.
JP5442542B2 (ja) 病理診断支援装置、病理診断支援方法、病理診断支援のための制御プログラムおよび該制御プログラムを記録した記録媒体
US20120134556A1 (en) Image processing device, image processing method, and computer-readable recording device
KR20120103456A (ko) 화상처리장치, 화상처리방법, 및 컴퓨터 판독가능한 기억매체
JP2013111125A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
KR20160118037A (ko) 의료 영상으로부터 병변의 위치를 자동으로 감지하는 장치 및 그 방법
JP2015009126A (ja) 画像処理装置、画像処理方法、撮影制御装置、放射線撮影システムおよびプログラム
JP7076168B1 (ja) リアルタイム映像における画像の物体輪郭を強調する方法
JP2014018251A (ja) 眼科撮影装置及び眼科撮影プログラム
EP3933759A1 (en) Image processing method, apparatus and system, and electronic device and storage medium
KR102177951B1 (ko) 슬라이드 이미지에 포함된 생체 조직의 길이를 측정하는 방법 및 이를 수행하는 컴퓨팅 시스템
JP5801226B2 (ja) 画像診断支援装置、方法およびプログラム
JP2018196426A (ja) 毛穴検出方法及び毛穴検出装置
US20230005148A1 (en) Image analysis method, image analysis device, image analysis system, control program, and recording medium
KR20220160015A (ko) 초분광 망막 이미지의 실시간 검출 및 음영 보정
KR20170059629A (ko) 뇌 자기 공명 이미지의 병변 검출 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체
US10964021B2 (en) Information processing apparatus, information processing method, and information processing system
US10401457B2 (en) Image processing apparatus, magnetic resonance imaging apparatus, image processing method, and storage medium
US9449251B2 (en) Image processing apparatus, image processing method, and medium
CN113633306B (zh) 图像处理方法及相关装置、电子设备和存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150826