CN106456252B - 手术场景的定量三维成像 - Google Patents
手术场景的定量三维成像 Download PDFInfo
- Publication number
- CN106456252B CN106456252B CN201580024437.1A CN201580024437A CN106456252B CN 106456252 B CN106456252 B CN 106456252B CN 201580024437 A CN201580024437 A CN 201580024437A CN 106456252 B CN106456252 B CN 106456252B
- Authority
- CN
- China
- Prior art keywords
- image
- sensors
- pixel
- dimensional
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00194—Optical arrangements adapted for three-dimensional imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
- A61B1/051—Details of CCD assembly
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Electromagnetism (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
提供一种设备,其包括内窥镜;图像传感器阵列,其被设置成对邻近内窥镜的视野进行成像,每个传感器包括与其他传感器的像素阵列分离的像素阵列;以及光源,其被设置成照亮视野。
Description
相关申请
本申请要求于2014年3月28日提交的名称为“手术场景的定量三维成像(QUANTITATIVE THREE-DIMENSIONAL IMAGING OF SURGICAL SCENES)”的美国临时专利申请No.61/971,749的优先权的利益,该专利申请的全部内容以引用方式并入本文。
技术领域
本发明总体涉及具有相关联的图像传感器的手术内窥镜检查系统,并且更具体地涉及确定显示在手术图像中的物理结构的三维坐标。
背景技术
定量三维(Q3D)视觉提供关于真实世界场景中的目标点的实际物理(x、y、z)3D坐标的数值信息。借助定量3D视觉,人不仅可以获得真实世界场景的三维感知,而且可以获得关于该场景中的对象的物理尺寸和该场景中的对象之间的物理距离的数值信息。以往,已经提出了一些Q3D系统,其使用飞行时间(time-of-flight)相关的信息或相位信息以确定关于场景的3D信息。其他Q3D系统已经使用结构光来确定关于场景的3D信息。
飞行时间信息的使用在名称为“CMOS兼容的三维图像传感器IC(CMOS-compatiblethree-dimensional image sensor IC)”的美国专利No.6,323,942中有所公开,该专利公开了三维成像系统,该系统包括使用CMOS制造技术在普通IC上制造的二维像素阵列光感测检测器。每个检测器具有相关联的高速计数器,该计数器累积在数量上与系统发出的脉冲的飞行时间(TOF)成正比的时钟脉冲,以从物点反射并且通过聚焦在该点上的像素检测器来检测。TOF数据提供从特定像素到反射所发出的光脉冲的对象上的点的距离的直接数字测量。在第二实施例中,计数器和高速时钟电路被省略,并且作为替代,每个像素检测器具有电荷积聚器和电子快门。快门在光脉冲发出时打开并且在其后关闭,使得每个像素检测器根据落在相关联的像素检测器上的返回光子能累积电荷。累积的电荷量提供来回TOF的直接测量。
延时信息的使用在名称为“用于内窥镜3D数据收集的装置和方法(Apparatus andmethod for endoscopic 3D data collection)”的美国专利No.8,262,559中有所公开,除了光成像机构以外,该专利公开了经调节的测量光束,用于将测量光束传导至要观察的区域上的光传送机构,其中光传送机构包括照明透镜,光成像机构用于将来自要观察区域的信号光束至少成像到相敏图像传感器上。可对应毫米范围内的深度差异的时间延迟导致相位信息,相位信息使描绘深度信息和距离信息的图像的产生成为可能。
使用结构光以确定对象在可视化图像中的物理坐标在名称为“内窥镜(Endoscope)”的美国专利申请公开No.2012/0190923中;以及在C.Schmalz等人的“基于结构光的内窥镜3D扫描仪(An endoscopic 3D scanner based on structured light)”,Medical Image Analysis,16(2012)1063-1072中有所公开。三角形法用于测量表面形貌。可具有不同颜色光谱范围的呈投影光线形式的结构光入射在表面上并且从该表面反射出。反射光线通过被校准的相机来观察,以使用反射的颜色光谱信息来确定表面的3D坐标。更具体地,结构光的使用通常涉及照亮3D表面上的光图案,并且基于由于物理对象轮廓而产生的光的变形图案来确定物理距离。
已经构建成像器阵列相机,其包括可以用于计算用于阵列中的像素的场景深度信息的多个像素阵列。高分辨率(HR)图像自多个低分辨率(LR)图像生成。选择基准视点并且生成如通过该视点所看到的HR图像。视差处理技术利用混叠效应来确定无基准图像关于基准图像像素的像素对应。融合和超分辨率用于从多个LR图像产生HR图像。参见名称为“使用带有异构成像器的单片相机阵列捕捉并处理图像(Capturing and Processing Imagesusing Monolithic Camera Array with Heterogeneous Imager)”的美国专利No.8,514,491;名称为“用于使用假设融合从包括混叠的场景的多个视图确定深度的系统和方法(Systems and Methods for Determining Depth from multiple Views of a Scenethat Include Aliasing using Hypothesized Fusion)”的美国专利申请公开No.2013/0070060;以及K.Venkataraman等人的“PiCam:超薄高性能单片相机阵列(PiCam:An ultra-Thin high Performance Monolithic Camera Array)”。
图1为示出根据一些实施例的已知成像器传感器180的细节的示意图。图像传感器180包括透镜堆叠182的光学阵列和传感器184的阵列。在该阵列中的每个传感器包括二维的像素排列,该排列在每个维度中至少具有两个像素。每个传感器包括透镜堆叠186,透镜堆叠186创建单独的光学通道,光学通道将图像分解到设置在透镜堆叠的焦平面188中的对应像素排列上。像素用作光传感器,并且每个焦平面188与其多个像素一起用作图像传感器。每个传感器与其焦平面188一起占据的传感器阵列区域与其他传感器和焦平面所占据的传感器阵列区域不同。
图2为示出图1的已知成像器传感器阵列180的简化平面图的示意图,已知成像器传感器阵列180包括传感器S11到S33。成像器传感器阵列180在半导体芯片上进行制造以包括多个传感器S11到S33。传感器S11到S33中的每个包括多个像素(例如,0.32兆像素),并且耦接到包括独立读出控制和像素数字化的外围电路(未示出)。在一些实施例中,传感器S11到S33排列成如图2所示的格网格式。在其他实施例中,传感器以非格网格式排列。例如,成像器可以环形图案、之字形图案或分散图案或包括子像素偏移的不规则图案排列。
每个传感器像素包括微透镜像素堆叠。图3为示出图1至图2的传感器的已知微透镜像素堆叠的示意图。像素堆叠800包括微透镜802,其位于氧化层804顶部,氧化层804的下方通常可以有滤色镜806,滤色镜806设置在氮化层808之上,氮化层808设置在第二氧化层810之上,第二氧化层810位于硅层812的顶部,硅层812包括传感器的有效区域814(通常是光电二极管)。微透镜802的主要作用是收集入射在其表面上的光并且使所述光聚焦在小的有效区814上。像素孔径816通过微透镜的扩展度来确定,微透镜使光聚集并且将其集中在有效区814上。
关于上述已知的成像器传感器阵列架构的附加信息于2013年8月20日发布的美国专利No.8,514,491和公开于2013年3月21日的美国专利申请公开No.U.S 20013/0070060中有所提供。
发明内容
在一方面,设备包括内窥镜。图像传感器阵列被设置成对邻近内窥镜的视野进行成像。传感器阵列的每个传感器包括与其他传感器的像素阵列分离的像素阵列。光源被设置成照亮视野。
在另一方面,提供用于Q3D成像的方法,其中邻近内窥镜的顶端提供图像传感器阵列。内窥镜的顶端被定位成邻近目标对象。目标对象借助光源被照亮。
在另一方面,提供用于Q3D成像的方法,其中邻近内窥镜的顶端提供光导管(lightpipe)输入端。内窥镜的顶端被定位成邻近目标对象。目标对象借助光源被照亮。光用于将到光导管的输入端的视野内的图像传递到图像传感器阵列,阵列中每个传感器包括与其他传感器的像素阵列分离的像素阵列。
在另一方面,Q3D成像信息在手术期间用于警告外科医生通过图像传感器成像的手术器械和通过图像传感器成像的目标对象之间的接近度。
在另一方面,使用Q3D成像信息创建目标对象的可视化3D模型,并且在手术程序期间操纵3D模型。
附图说明
当结合附图阅读时,从下面详细描述可以最好地理解本公开的方面。应当强调的是,根据行业中的标准实践,各种特征不是按比例绘制的。实际上,为了便于论述,各种特征的尺寸可任意增大或减小。此外,本公开可以在各种示例中重复参考标号和/或字母。这种重复是出于简化和清楚的目的,而其本身并不表示所讨论的各种实施例和/或构造之间的关系。
图1为示出已知成像器传感器阵列的细节的示意图。
图2为示出包括多个传感器的已知成像器传感器阵列的简化平面图的示意图。
图3为已知微透镜像素堆叠的示意图。
图4为示出根据一些实施例的透过观察器的手术场景的透视图的示意图。
图5为根据一些实施例的使用一个或多个机械臂来执行微创手术程序的远程操作手术系统的示意方框图。
图6为根据一些实施例的图5的系统的患者侧系统的示意透视图。
图7A为根据一些实施例的第一图像捕捉系统的示意图。
图7B为根据一些实施例的第二图像捕捉系统的示意图。
图8为示出根据一些实施例的与图7A的第一图像捕捉系统相关联的控制块,并且示出操作中的系统的示意方框图。
图9为表示根据一些实施例的确定物理目标的定量三维位置的过程的示意流程图。
图10为示出根据一些实施例的通常对应于模块图9以系统地选择目标的过程的某些细节的示意流程图。
图11为根据一些实施例的示例传感器成像器阵列的示意图,传感器成像器阵列包括多个传感器并且设置成具有包含示例性三维物理世界场景的视野,示例性三维物理世界场景包括三个示例性对象。
图12为表示根据一些实施例的图11的多个物理对象到多个传感器上的投影的示意图。
图13为指示根据一些实施例的从现实世界场景内选择感兴趣区域的示意图。
图14为示出根据一些实施例的关于多个传感器中的投影图像的相对几何偏移的细节的示意图。
图15为示出根据一些实施例的感兴趣区域(ROI)内的某些示例传感器中的投影图像的示意图,所述投影图像向右移位以与ROI内的指定基准传感器中的投影图像对齐。
图16为示出根据一些实施例的所选目标点到多个传感器上的投影的示意图。
图17为示出根据一些实施例的包括图16的多个传感器的成像器阵列的一部分和设置在物理空间中的适当位置处的所选目标点T的示意图。
图18为根据一些实施例的当前所选目标点T到图16的多个图像传感器上的投影的示意性正视图。
图19为示出根据一些实施例的当前所选目标相对于如上参考图17所述的多个传感器的布置的示意图,并且该示意图还示出传感器中的每个的候选像素的y方向像素偏移。
图20为表示根据一些实施例的在手术程序期间使用Q3D信息的第一过程的示意流程图。
图21为示出根据一些实施例的按照图20的过程在显示屏上所显示的菜单选择的示意图。
图22A至图22B为表示根据一些实施例的按照图20的过程接收用户输入的某些细节的示意图。
图23为表示根据一些实施例的在手术程序期间使用Q3D信息的第二过程的示意图。
图24为示出根据一些实施例的按照图23的过程在显示屏上所显示的菜单选择的示意图。
具体实施方式
给出以下描述以使本领域技术人员能够创建并使用手术内窥镜检查系统,该系统具有多个图像传感器,每个传感器包括与其他传感器的像素阵列分离的像素阵列,以确定图像传感器视野内的物理结构的三维坐标。对于本领域的技术人员而言,将易于对本实施例进行各种修改,并且本文所限定的一般原则可以应用于其他实施例和应用,而不背离本发明主题的精神和范围。而且,在下面描述中,出于说明的目的阐述了许多细节。然而,本领域的普通技术人员将认识到本发明主题可在没有这些具体细节的情况下进行实践。在其他情况下,为了不因不需要的细节而混淆本公开,因此以方框图形式示出众所周知的机器部件、过程和数据结构。相同的参考标号可以在不同附图中用于表示相同项的不同视图。下面所参考的附图中的流程图用于表示过程。计算机系统可以经配置执行这些过程中的一些。表示计算机实施过程的流程图内的模块表示根据计算机程序代码的计算机系统的配置,以执行参考这些模块描述的作用。因此,本发明主题并非旨在被限于所示实施例,而是符合与本文所公开的原则和特征一致的最广范围。
简要概述
根据一些实施例,包括成像器传感器阵列的图像传感器阵列与内窥镜相关联。图像传感器阵列包括多个传感器,并且每个传感器包括像素阵列。内窥镜的一部分插入人体体腔中,并且使用光源来照亮图像传感器阵列的视野中的目标对象。目标对象的物理位置和/或尺寸基于对象到阵列的单个传感器上投影图像来确定。
图4为示出根据一些实施例的透过观察器312的手术场景的透视图的示意图。具有两个成形元件206R、206L的观察系统可以提供优良的3D观察透视图。表示手术场景中的物理结构的物理尺寸和/或位置信息的所示数值覆盖在手术场景图像上。例如,所示数值距离值“d_Instr_Trgt”显示在器械400和目标410之间的场景内。
远程操作医疗系统
远程操作指的是在一定距离处的机器的操作。在微创远程操作医疗系统中,外科医生可以使用安装到内窥镜上的相机观察患者体内的手术部位。已经生成三维图形以在手术程序期间提供高分辨率视图。根据一些实施例,相机系统安装在内窥镜上并且包括成像器传感器阵列,所述相机系统提供加上颜色和照明数据的定量三维信息,所述定量三维信息可以用于生成三维图像。
图5为根据一些实施例的远程操作手术系统100的示意方框图,系统100使用一个或多个机械臂158来执行微创手术程序。系统100的方面包括遥控机器人和自主操作的特征。这些机械臂经常支撑器械。例如,机械手术臂(例如,中心机械手术臂158C)可以用于支撑立体或三维手术图像捕捉设备101C,诸如内窥镜相关联的Q3D图像传感器阵列。机械手术臂158C可以包括无菌适配器或夹钳、夹子、螺钉、狭槽/凹槽或其他紧固件机构,以将图像捕捉设备101C机械地固定到机械臂。相反地,图像捕捉设备101C可以包括与机械手术臂158C互补的物理轮廓和/或结构,以便牢固地与其互相配合。
用户或操作者O(通常是外科医生)通过在主控制台150处操纵控制输入设备160来对患者P执行微创手术程序。操作者可以通过立体显示设备164来观察患者身体内部的手术部位的图像的视频帧,立体显示设备164包括以上参考图4所描述的观察器312。控制台150的计算机151经由控制线159引导远程操作受控内窥镜手术器械101A至101C的移动,从而使用患者侧系统152(也称为“患者侧推车”)来影响器械的移动。
患者侧系统152包括一个或多个机械臂158。通常,患者侧系统152包括至少三个机械手术臂158A至158C(通常称为机械手术臂158),所述机械手术臂158通过对应的定位组合臂(set-up arm)156来支撑。中心机械手术臂158C可以支撑内窥镜相机101C,内窥镜相机101C适合于捕捉用于相机视野内的图像的Q3D信息。中心左侧和右侧的机械手术臂158A和158B分别可以支撑可操纵组织的器械101A和器械101B。
图6为根据一些实施例的患者侧系统152的示意透视图。患者侧系统152包括通过基座172支撑的推车柱170。一个或多个机械手术臂158分别附接到一个或多个组合臂156,组合臂156是患者侧系统152的定位部分的一部分。近似地位于基座172上的中心位置处,推车柱170包括保护配重子系统和制动子系统的部件远离污染物的保护罩180。
除监控器臂154之外,每个机械手术臂158均用于控制器械101A至101C。而且,在本发明的一个实施例中,每个机械手术臂158均耦接到组合臂156,组合臂156进而耦接到托架壳体190。一个或多个机械手术臂158各自通过其相应的组合臂156来支撑,如图6所示。
机械手术臂158A至158D各自可以包括一个或多个位移换能器、定向传感器和/或定位传感器185,以生成原始的未校正的运动学数据、运动学资料和/或运动学信息,从而辅助器械的获取和追踪。在本发明的一些实施例中,器械还可以包括位移换能器、定位传感器和/或定向传感器186。而且,一个或多个器械可以包括标记189来辅助器械的获取和追踪。
关于远程操作医疗系统的附加信息在公开于2012年1月26日的美国专利申请公开No.2012/0020547中有所提供。
内窥镜成像器系统
图7A为根据一些实施例的第一图像捕捉系统101C的示意图。图像捕捉系统101C包括内窥镜,内窥镜包括伸长部分202,伸长部分202包括第一端部204和第二端部206以及第一端部204的顶端部分208。第一端部202的尺寸设定成插入人体体腔中。包括多个图像传感器(未示出)的成像器传感器阵列210耦接到第一端部204的顶端部分208。伸长部分202具有足以将顶端部分208定位成足够靠近体腔内的目标对象的长度,使得可以通过成像器传感器阵列210来使对象成像。根据一些实施例,第二端部206可以包括通常如上所述的物理轮廓和/或结构(未示出),以便牢固地与机械臂(未示出)互相配合。伸长部分202还包括一个或多个电子信号路径212以电子地与成像器传感器阵列210传达信息。设置光源214来照亮要成像的对象。根据一些实施例,光源214可以是非结构化的光,例如白光、滤色光或处于一些所选波长的光。
图7B为根据一些实施例的第二图像捕捉系统101C′的示意图。基本上与第一图像捕捉系统101C相同的第二图像捕捉系统101C′的方面由相同的参考标号指示并且不再描述。到光导管输入的输入端诸如棒形透镜设置在第一端部204的顶端部分208处。光导管主体在伸长部分202内延伸,以便将作为光导管输入接收的图像传输到成像器传感器阵列210,成像器传感器阵列210从顶端部分208物理移置。在一些实施例中,成像器传感器移置到距顶端部分208足够远,使得传感器阵列210在观察体腔内的对象期间位于人体体腔外部。
图8为示出根据一些实施例的与图7A的第一图像捕捉系统101C相关联的控制块,并且示出操作中的系统的示意方框图。通过成像器传感器阵列210捕捉的图像通过数据总线212发送到视频处理器104,视频处理器104经由总线105与控制器106进行通信。视频处理器104可以包括相机控制单元(CCU)和视频信号检测器(VSD)板。CCU对成像传感器210的各种设置诸如亮度、颜色方案、白平衡等进行编程或控制。VSD处理从成像传感器接收的视频信号。
根据一些实施例,包括一个或多于一个处理器的处理器系统经配置执行处理器功能。在一些实施例中,处理器系统包括多个处理器,所述多个处理器经配置一起进行操作以执行本文所述的处理器功能。因此,本文提及的经配置执行一种或多种功能的至少一个处理器包括处理器系统,在处理器系统中,所述功能可以通过一个处理器单独执行或者通过多个处理器一起工作来执行。
替代地,CCU和VSD可结合到一个功能块中。在一种实施方式中,包括处理器和存储设备(未示出)的控制器106计算场景中的邻近伸长部分的顶端208的点的物理定量3D坐标,并且驱动视频处理器104和3D显示器驱动器109两者来构成3D场景,然后3D场景可以显示在3D显示器110上。数据总线107和数据总线108交换信息并且控制视频处理器104、控制器106和显示器驱动器109之中的信号。在一些实施例中,这些元件可以在内窥镜202的主体内部与图像传感器阵列210结合。替代地,它们可以分布在内窥镜的内部和/或外部。所示内窥镜202经由插管140定位以穿透人体组织130,以便提供到包括目标120的手术场景的可视化入口。目标120可以是解剖目标、另一手术器械或患者身体内部的手术场景的任何其他方面。
添加到场景图像的Q3D信息的示例
再次参考图4,图4为示出根据一些实施例的图5的主控制台150的观察器312的透视图的示意图。根据一些实施例,为提供三维透视图,观察器312包括针对每只眼睛的立体图像,立体图像包括手术部位的左侧图像400L和右侧图像400R,所述左侧图像和所述右侧图像包括分别在左侧取景器401L和右侧取景器401R中的任何器械400和目标410。取景器中的图像400L和图像400R分别可以通过左侧显示设备402L和右侧显示设备402R来提供。显示设备402L、402R可以任选地为一对阴极射线管(CRT)监控器、液晶显示器(LCD)或其他类型的图像显示设备(例如,等离子体、数字光投影等)。在本发明的优选实施例中,彩色图像通过一对彩色显示设备402L、402R来提供;诸如彩色CRT或彩色LCD。为支持与现有设备的向后兼容性,立体显示设备402L和402R可以与Q3D系统一起使用。替代地,Q3D成像系统可以连接到3D监控器、3D TV或自由立体显示器,诸如无需使用3D效果眼镜的显示器。
具有两个成像元件206R、206L的观察系统可以提供优良的3D观察透视图。Q3D成像系统使用手术场景中的物理结构的实际尺寸信息补充该观察透视图。与Q3D内窥镜检查系统结合使用的立体观察器312可以显示覆盖在手术场景的立体图像上的Q3D信息。例如,如图4所示,器械400和目标410之间的数字Q3D距离值“d_Instr_Trgt”可以显示在立体观察器312内。
可以用于覆盖手术场景的3D透视图上的物理位置和尺寸信息的视频立体观察系统的说明在美国专利申请公开No.2012/0020547的第[0043]至[0053]段和对应附图中有所提供,其以引用方式明确地并入本文。
处理定量三维物理信息
图9为根据一些实施例的表示确定物理目标的定量三维位置的过程的流程图。该过程参考图8实施例的Q3D系统101C进行描述。模块401配置控制器106以从成像传感器Sij获取视频数据。应该认识到,虽然图像传感器阵列210使全部视野“成像”,但图像传感器阵列210中的不同传感器和不同传感器内的不同像素可以通过来自视野内的不同对象点的图像投影来照亮。例如,视频数据可以包括颜色或光强度数据。每个传感器的每个像素可以提供指示投影在其上的图像的颜色和强度的一个或多个信号。模块402配置控制器以从物理世界视图(world view)中的所选感兴趣区域中系统地选择目标。模块403配置控制器以开始使用初始(x0,y0,z0)设置计算目标3D坐标(x,y,z)。然后,通过使用来自看到目标的所有传感器Sij的图像多样性数据,该算法检查坐标的一致性。坐标计算在步骤404处进行精确化,直到达到可接受的精确度。决定模块404配置控制器以确定当前计算的物理位置是否足够精确。响应于当前计算的位置不精确的确定,控制流程返回到模块403以尝试不同的可能的物理位置。响应于当前计算的位置足够精确的确定,模块405配置控制器以确定是否已经扫描整个感兴趣区域。响应于尚未扫描整个感兴趣区域的确定,控制流程返回到模块402并且选择不同的目标。响应于已经扫描整个感兴趣区域的确定,控制流程到模块406,模块406配置控制器以组合感兴趣的成像模块的三维模型。基于指示目标的结构的物理位置的三维信息组合目标的3D图像对本领域的技术人员而言是已知的并且不需要在本文进行描述。模块407配置控制器以存储通过使用为多个目标确定的物理位置信息而形成的3D模型以用于进一步的查看和操纵。例如,3D模型可以稍后用于手术应用,诸如针对患者器官的特定尺寸设定植入物的尺寸。在又一不同示例中,当新手术器械101安装在机器人系统152上时,需要回调所述3D模型并且将其显示在监控器110上,以便将新器械引用到先前的手术场景。模块408配置控制器以使用为多个目标确定的物理位置信息来显示定量3D视图。Q3D视图的示例是图4所示的距离值“d_Instr_Trgt”。
图10为示出根据一些实施例的通常对应于图9的模块402的过程的某些细节的示意流程图。模块402.1配置控制器以捕捉来自传感器阵列210中所有传感器的物理世界场景的图像。模块402.2配置控制器以从捕捉的场景内指定感兴趣的区域。模块402.3配置控制器以搜寻如感兴趣区域内的场景图像之间的最佳匹配,以便识别在不同传感器中的通过相同目标的投影照亮的像素位置。如稍后所解释,但不限于,通过使来自传感器Sij的单个图像移位,直到移位图像和基准图像之间的二维交叉相关函数最大化,可实现最佳匹配。基准图像例如可以是从传感器S11接收的场景图像。模块402.4配置控制器以识别通过来自相同目标的投影照亮的候选像素。模块402.5配置控制器以计算用于所选目标的两个或更多个像素坐标(Nx,Ny),从而确定候选像素是否通过来自相同目标的投影照亮。决定模块402.6确定计算的2D像素坐标值是否指示候选像素通过来自相同目标的投影照亮。通过使用多个传感器Sij观察相同场景所导致的图像多样性在与各种单个图像Sij中的具体目标相关联的正确识别(Nx,Ny)中起作用。例如,根据一些实施例,假设一种仅使用三个传感器S11、S12和S13的简化情境,如果2D像素坐标的三元数组[(NX11,Ny11)、(Nx12,Ny12)、(Nx13,Ny13)]并不对应于相同目标到[S11,S12和S13]上的投影,则数量和(y方向上投影移位的估计值)将产生不同的值。根据稍后提出的方程式,如果像素坐标(NX11,Ny11)、(Nx12,Ny12)、(Nx13,Ny13)来自相同目标的投影,则和应该是相等的。
如果和不近似相等,则控制流程返回到模块402.4并且使传感器平面Sij上的目标投影的最佳候选精确化。如上所述,上述仅是算法的简化实施。通常,如图10模块402.6所示,和之间差的范数应该小于可接受公差ε,以便使模块402完成其迭代。对于x轴线的对应估计值和应满足类似的限制。响应于确定计算的2D像素坐标值(Nx,Ny)确实指示候选像素通过来自相同目标的投影来照亮,则控制流程到至模块403。
应该认识到,每个像素直接从世界场景捕捉颜色和强度信息。而且,根据上述过程,每个像素与投影在像素上的世界视图中物理对象的(x,y,z)坐标相关联。因此,颜色信息、照明强度信息和物理位置信息,即被投影的物理对象的颜色和照明以及位置,可以与非暂时性计算机可读存储设备中的像素相关联。下面表格1示出该关联。
表格1
像素标识符 | 颜色值 | 亮度值 | 位置(x,y,z) |
确定Q3D信息的示例
投影匹配的示例
图11为根据一些实施例的示例传感器成像器阵列210的示意图,传感器成像器阵列210包括多个传感器S11至S33,所述传感器被设置为具有包括示例性三维物理世界场景的视野,该场景包括三个示例性对象。阵列中的每个传感器Sij包括像素的二维排列,所述排列在每个维度中至少具有两个像素。每个传感器包括透镜堆叠(lens stack),透镜堆叠创建单独的光学通道,光学通道将图像分解到设置在透镜堆叠的焦平面中的对应像素排列上。每个像素用作光传感器,并且每个焦平面和其多个像素一起用作图像传感器。每个传感器S11至S33和其焦平面一起占据的传感器阵列区域与其他传感器和焦平面占据的传感器阵列区域不同。合适的已知图像传感器在美国专利No.8,514,491和美国专利申请公开No.2013/0070060,所述专利在上面进行了描述。
根据一些实施例,传感器的特征为Nx和Ny(传感器在x方向和y方向上的像素的总数),以及视野角度θx和θy。在一些实施例中,期望x轴线和y轴线的传感器特征是相同的。然而,在替代实施例中,传感器具有不对称的x轴线特征和y轴线特征。类似地,在一些实施例中,所有的传感器将具有相同的像素总数和相同的视野角度。传感器以良好受控制的方式分布在整个传感器阵列210中。例如,传感器可以在所示的二维格网上以δ距离分开。传感器布置间距δ在整个此格网上可以对称或不对称。
在图11所示的实施例中,传感器排列在矩形格网中,在该矩形格网中,传感器S11至S13占据顶行,传感器S21至S23占据中间行,并且传感器S31至S33占据底行。每个传感器包括N行像素和N列像素。由虚线指示的通过光源产生的光线从三角形的第一对象、球形的第二对象和矩形的第三对象中的每个反射到成像器阵列中的每个传感器。出于说明的目的,仅示出到顶行中的传感器S11、S12和S13的光线。例如,光源可以是非结构化的白光或背景光。替代地,光源可以提供处于所选波长的光,诸如例如红外线,或者光源可以被过滤或分割以提供所选颜色或颜色范围。应该认识到,光线类似地从目标中的每个反射到传感器S21至S33。然而,为了简化说明,未示出这些其他光线。
根据模块401和模块402.1,阵列的传感器单独地从世界视图中并且根据模块402.1捕捉图像。图12为根据一些实施例的表示图11的三个对象到传感器Sij(仅示出S11、S12和S13)上的投影的示意图。本领域的技术人员将认识到入射在所述传感器上的反射光线对视野中的物体的图像进行投影。更具体地,从视野中的对象反射出的入射到成像器阵列的多个不同图像传感器上的光线在接收反射光线的每个传感器中产生对象的从三维到二维的透视投影,即不同投影。具体地,当从S11前进到S12到S13时,对象投影的相对位置从左侧移位到右侧。通过入射光线照亮的图像传感器像素响应于入射光产生电信号。因此,对于每个图像传感器,响应于指示该图像传感器内的图像投影的形状和位置的反射光,通过该图像传感器的像素产生电信号的图案。
根据模块402.2,感兴趣的区域选自世界场景。图13为指示从场景内选择感兴趣区域的示意图。在该示例中,三角形的第一对象、球形的第二对象和矩形的第三对象均在所选的感兴趣区域中。该步骤可以通过接受来自操作者的输入来实现,或者其可以使用由软件以规定方式配置的计算机来自动执行,或者通过操作者输入和自动软件控制选择的组合实现。例如,在一些实施例中,世界场景可以示出人类解剖结构的内腔,并且对象可以是内部人体器官或手术器械或其部分。外科医生可以从内腔内接收实时可视化影像,并且可以看到人类解剖结构的组织区域和在体腔内突出的手术器械的一部分。外科医生可以指定视野内的那些对象,对象的位置信息通过众所周知的技术来确定,所述技术诸如例如远程图显的视频标记。替代地或另外地,此操作者请求,自动化处理诸如边缘检测算法可以用于指定感兴趣区域(ROI)。
根据模块402.3,确定在感兴趣区域内的场景图像之间的最佳匹配,以便识别不同传感器中的通过相同目标的投影照亮的像素位置。图14为示出根据一些实施例的关于传感器S11、S12和S13中投影图像的相对几何偏移的附加细节的示意图。根据一些实施例,来自传感器S13的图像被认为是基准图像,并且所选ROI中的对象的投影相对于它们在传感器S13中的位置在传感器S12中按照量σ23像素向右偏移。所选ROI中的对象的投影相对于它们在传感器S13中的位置在传感器S11中按照量σ13像素向右偏移。
图15为示出根据一些实施例的ROI内的传感器S11和S12中的投影图像的示意图,所述投影图像向右侧移位以与ROI内的传感器S13中的投影图像对齐。在当前示例中,传感器S13被指定用作基准传感器。应该认识到,可选择其他传感器用于确定对齐和几何尺寸。所选ROI内对象的投影在指定传感器例如传感器S13中被识别,并且在其他传感器例如传感器S11和传感器S12中的投影被移位直到其与指定传感器中的投影对齐。用这种方式,可以在其他传感器内识别所选ROI内对象的对应投影,连同其相对于指定传感器中投影的位置的偏移。
具体地,例如,三个示例对象的投影在传感器S12中按照量σ23像素向右移位,并且三个示例性对象的投影在传感器S13中按照量σ13像素向右移位。在示例性示例中,为了简化说明,假设投影仅在y方向上偏移不在x方向上偏移,但是相同的原则应用于如传感器之间的x方向投影偏移。然而,虽然该示例示出线性偏移,但本领域的技术人员可以应用其他变换诸如旋转,以使不同传感器中的具有相对偏移的投影对齐。
根据一些实施例,例如,二维(2D)交叉相关技术或主成分分析(PCA)可以用于将S13中ROI内的投影与S12中ROI内的投影对齐,并且将S13中ROI内的投影与S11中ROI内的投影对齐。通常,希望关于指定为基准的传感器的图像最佳匹配或对齐来自传感器Sij的图像。更具体地,S12中ROI内的投影图像被移位并且与S13中ROI内的投影图像交叉相关,直到实现最高的相关系数。同样地,S11中ROI内的投影图像被移位并且与S13中ROI内的投影图像交叉相关,直到实现最高的相关系数。因此,ROI的投影对齐用于通过确定S13中ROI的投影和S12中ROI的投影之间的偏移,并且通过确定S13中ROI的投影和S11中ROI的投影之间的偏移,来识别传感器S11和传感器S12中ROI的投影位置。
候选像素选择和精确化的示例
根据模块402.4,识别在不同传感器内的候选像素,根据最佳匹配过程,所述不同传感器通过来自相同目标的投影照亮。一旦已经在传感器S11、S12和S13中的每个中识别ROI内的对象的投影,则可确定ROI内单个目标点相对于成像器阵列的物理(x,y,z)投影。根据一些实施例,对于ROI内多个目标点中的每个,识别通过来自目标点的投影照亮的多个传感器中的每个内的一个或多个像素。对于每个此目标点,至少部分基于设置在确定通过来自目标点的投影照亮的不同传感器中的像素之间的几何关系确定物理(x,y,z)目标点位置。
应该认识到,一系列的目标点可以通过系统地遍历ROI(例如,以特定的步长大小从右向左并且以步长大小从上到下)来自动选择,并且可以确定每个所选目标点的物理(x,y,z)目标点位置。由于S11和S12与S13最佳匹配,所以遍历在移位的感兴趣区域内部执行。选择目标包括识别通过目标的投影照亮的传感器S11、S12和S13中的每个中的像素。因此,S11、S12和S13中的每个中的候选像素被识别为通过所选目标点的投影照亮的像素。
换言之,为了选择目标点T,在通过目标点T的投影照亮的传感器S11、S12和S13中的每个中选择像素。应该认识到,目标T的(x,y,z)物理位置在其选择的时候是未知的。而且,应该认识到,上述对齐过程的不精确可以导致每个传感器中哪些像素被所选目标T的投影照亮的确定的不精确。因此,如参考图17、图18和图19所解释,根据通过当前所选目标T的投影照亮的S11、S12和S13中的每个中的像素确定的精确度作出进一步确定。
继续上述示例,假设三角形的第一对象为当前所选目标点。图16为示出根据一些实施例的所选三角形目标点到传感器S11、S12和S13上的投影的示意图。根据这些投影,确定目标T的2D像素坐标[(NX11,Ny11)、(Nx12,Ny12)、(Nx13,Ny13)]。为了简单化,图16仅示出y轴像素坐标。使用这些2D像素坐标,应用表达式(402.5-1)和(402.5-2)并且计算的和作为模块402.5的一部分。作为模块402.6的一部分,计算范数并且将其与可接受公差ε相比。类似地,计算x轴像素坐标和位置估计值并且将其与可接受公差相比较。如果模块402.6的条件满足,则过程继续到模块403。否则,过程返回到模块402.4以使目标候选进一步精确化。
参考图17,其示出包括传感器S11、S12和S13的成像器阵列的一部分,和设置在物理空间中的位置(x,y,z)处的所选三角形第一对象目标点T。成像器阵列内的传感器在其之间具有已知间距δij。S11和S12之间的物理位置间距为δ12,并且S12和S13之间的物理位置间距为δ23。在一些实施例中,所有传感器Sij之间的这些间距是相同的、等于δ的构造规格。传感器Sij还具有已知的视野角度θ。
如上所解释,在一些实施例中,每个传感器构造成2D成像元件,其中像素以行和列的矩形图案排列。替代地,像素可以例如环形图案、之字形图案或分散图案或以包括子像素偏移的不规则图案排列。这些元件的角度和像素特性可以相同,或替代地传感器之间彼此可不同。然而,这些特性假设为已知。为了简化说明,假设传感器相同,但是,然而,它们可以不同。
为了简化起见,假设所有的传感器Sij均具有N×N像素。在距传感器S11的距离z处,传感器的N像素宽度向外扩展到通过FOV1指示的S11的y维度视野。同样地,在距传感器S12的距离z处,传感器S12的y维度视野通过FOV2来指示。而且,在距传感器S13的距离z处,传感器S13的y维度视野通过FOV3来指示。长度FOV1、FOV2和FOV3彼此重叠,预示着传感器S11、S12和S13实现物理地位于一些(未知的)距离z处的目标T的3路采样多样性。当然,如果传感器相同地构建,如在示例中所假设的,则长度FOV1、FOV2和FOV3也将相同。应该认识到,三个长度FOV1、FOV2和FOV3均具有相同的大小并且共面,因为它们处于距成像器阵列相同的(未知的)z距离处,但是为了进行示意性的说明,将它们描绘成如同它们彼此邻近堆叠。
参考图18,其示出当前所选目标点T到图像传感器S11、S12和S13上的投影的示意性正视图。为了简化起见,假设传感器包括大小为N×N像素的几何学矩形像素阵列。还假设目标T投影的x坐标均相等。换言之,假设对于目标T到S11、S12和S13上的投影,nx1=nx2=nx3。为了简化说明,还假设水平的几何视野角度θ与其垂直时相同,θx=θy。如果上述假设中的任一个改变,本领域的技术人员将知道如何修改下面提出的过程,以便计算目标T的x、y和z物理坐标。
目标T的图像在图像传感器S11的平面中,投影到传感器S11内的几何坐标(nx1,ny1)处的物理点。更具体地,目标点T到传感器S11上的投影沿y轴线位于ny1像素,并且沿x轴线位于nx1像素,x轴线和y轴线均取自原点。目标T的图像在图像传感器S12的平面中,投影到传感器S12内的几何坐标(nx2,ny2)处的物理点。目标T的图像在图像传感器S13的平面中,投影到传感器S13内的几何坐标(nx3,ny3)处的物理点。应该认识到,每个传感器内的像素位置(nxi,nyi)相对于提供给传感器的原点(0,0)基准坐标来确定。如图17或图19所示,全球坐标系(x,y,z)被定义并且用于引用目标。例如但不限于,此类坐标系的原点可以放置在传感器S11的几何中心处。
参考图16和图18两者,可以看出目标的投影的y像素距离在每个传感器中是不同的。当前所选目标T的投影在S11中被设置到原点左侧的ny1像素。所选目标T的投影在S12中被设置到原点左侧的ny2像素。所选目标T的投影在S13中被设置到原点左侧的ny3像素。如上所述,为简化说明,假设目标的投影在所有三个传感器中均落在距原点相同的x像素距离处。
参考图19,其示出当前所选目标T相对于如上参考图17所述的传感器S11、S12和S13的布置,并且还示出在传感器中的每个中的候选像素的y方向像素偏移。应该理解,图19的附图提出用于确定所选目标点T的(x,y,z)物理坐标的物理结构和分析框架。在距成像器阵列平面的(未知的)距离z处,每个传感器的y方向视野延伸过标记为FOVi的长度。在一些实施例中,该长度FOVi对应于传感器的最大像素宽度,最大像素为N像素。考虑到工作假设为传感器具有x方向和y方向上对称的视野,长度还可以是沿x轴线是竖直的FOVi。
如上所述,候选像素选择至少部分地基于可以具有不确定水平的关联过程,该关联过程可以导致所选目标的物理位置的确定不精确。因此,根据一些实施例,进一步检查目标投影候选选择的精确度可以如下进行。
确定目标的物理(x,y)位置并检查目标投影候选选择的精确度的示例
根据模块402.5,为所选目标计算两个或更多个二维(Nx,Ny)坐标值,以确定来自相同目标的投影实际上是否照亮候选像素。基于上面讨论的假设并且将3D坐标系的原点放置在传感器S11的中心处,图19中的示例中的成像器阵列和当前所选目标T具有如下关系:
其中:
N为成像传感器的像素维度;
nx1为目标点T的以在x方向上距S11平面的原点的像素数目来表达的位置;
ny1为目标点T的以在y方向上距离S11平面的原点的像素数目来表达的位置;
nx2为目标点T的以在x方向上距离S12平面的原点的像素数目来表达的位置;以及
ny2为目标点T的以在y方向上距离S12平面的原点的像素数目来表达的位置;
θ为视野的角度。
而且,如果使用传感器S11和传感器S13执行相同的公式并且假定S11和S13之间的间隔为2δ,则我们得到:
其中:
nx3为目标点T的以在x方向上距S13平面的原点的像素数目表达的位置;
ny3为目标点T的以在y方向上距S13平面的原点的像素数目表达的位置。
因此,所选目标T的物理x坐标的确定可以基于表达式(3)或表达式(6)来确定。所选目标T的物理y坐标的确定可以基于表达式(2)或表达式(5)来确定。所选目标T的物理z坐标的确定可以基于方程式(1)或方程式(4)来确定。
更一般地说,根据模块402.6作出关于计算的2D坐标值是否指示候选像素通过来自相同目标的投影照亮的确定。应该认识到,目标T的物理(x,y,z)坐标的更可靠的确定可以通过使用用于每个坐标的两个公式来得到。例如,用于目标T的y坐标可以使用公式(2)和公式(5)两者来确定。如果使用两个公式计算的所得y坐标值相差超过某些可接受公差值εy,则可以作出以下确定,即匹配过程未能够以足够精确度解决不同传感器中的投影之间的偏移,并且因此候选像素不相符,因为它们没有接收到来自相同目标T的投影。在y计算匹配失败的情况下,可执行匹配过程的另外的迭代,试图改善各自对应于所选目标T的传感器内的候选像素的选择。应该认识到,因为不同传感器上的不同透视投影由于例如视差效应而可以不同,因此计算的y值不太可能相等。因此,可接受公差值根据预期的应用加以规定。对于手术成像应用,0.1mm至0.3mm的ε通常提供可接受的Q3D精确度。在没有背离本发明的精神的情况下,本领域的技术人员可以限定不同的可接受公差水平。
考虑到围绕x轴线和y轴线的假设的传感器对称性,本领域的技术人员将认识到,使用类似于(2)和(5)中那些的公式(但使用nxi代替nyi)可作出相同类型的确定。公式(3)和公式(6)不可以作为402.5和402.6的一部分被使用,因为所述公式需要z坐标的知识。然而,模块402.5和模块402.6的本质是确定传感器S11、S12和S13的平面上的正确目标投影。为此,针对x轴线和y轴线调整的公式(2)和公式(5)是足够的。完整的一组坐标(x,y,z)作为模块403和模块404的一部分被计算,如下文所述。
确定目标的物理z位置的示例
如图19所示,根据模块403和404,z坐标的初始估计值z0用于开始实施计算过程。根据医疗应用,该初始值被自动限定。医疗应用定义要进行可视化的预期世界视图。初始值z0开始于最接近内窥镜的视野边缘。参考图8,例如,对于包括手术内窥镜检查的Q3D应用,z0可以远离Q3D内窥镜202的远端208 1mm至5mm。此初始估计值通常足以用于该应用,因为不太可能使任何组织或手术器械如此紧密接近Q3D内窥镜的存在。接下来,将值z0插入公式(3)和公式(6)中。假设目标的x坐标是唯一的,则如果z0为目标的真实且正确的z坐标,那么公式(3)和公式(6)可产生在可接受的公差水平εx内的相同值或大致相等的值。
|x(3)-x(6)|<εx (7)
如果(3)和(6)在可接受的公差εx以外,那么迭代继续并且尝试z的新估计值z1。根据一些实施例,自动限定新估计值。例如,z1=z0+Δ,其中Δ为迭代的步长。通常,在第k次迭代处,zk=zk-1+Δ。当满足条件(7)时,迭代过程停止。在确定正确的目标坐标时,更小的Δ产生增加的精确度,但还需要更多计算时间以完成该过程,因此等待时间增加。等待时间增加可以导致手术器械的移动和通过操作的外科医生对其可视化之间的延迟。换言之,外科医生可以落后于他的命令感知系统。对于20cm至30cm深的手术观察空间,0.1mm至0.3mm的Δ可以是足够的。当然,本领域的技术人员将知道平衡Δ的步长和完成迭代过程所需的计算时间。
出于展示的原因,已将上述说明简化,并且因此其仅包括三个传感器S11、S12和S13。通常,更多个传感器不仅可以用于增加Q3D坐标计算的精确度,而且减少总体迭代次数。例如,如果使用多于三个的传感器,优选地3×3传感器阵列,则可以利用方法诸如最陡梯度法以趋向通过模块402.5和模块403造成的估计误差的方向。迭代步长和方向可以被调整以匹配朝向3D误差梯度表面的局部极值的进展。
借助Q3D信息引导内窥镜手术
图20为根据一些实施例的表示在手术程序期间使用Q3D信息的第一过程2000的示意流程图。计算机程序代码配置计算机151以执行过程2000。模块2002配置计算机以接收用户输入,从而当看向观察器312时选择在外科医生视野内的至少两个对象。模块2004配置计算机以响应于接收用户选择在计算机控制台上显示菜单。决定模块2006配置计算机以确定到菜单的显示距离的用户输入是否被接收。响应于确定显示距离的用户输入被接收,模块2008配置计算机以在外科医生视野中的视频图像内显示数值距离。决定模块2010配置计算机以等待接收选择距离显示的用户输入的规定时间间隔,并且响应于在“超时”间隔内未接收到用户输入而结束决定模块2006的操作。
决定模块2012配置计算机以确定到菜单的输入/录入(enter)接近度(proximity)警报界限的用户输入是否被接收。响应于确定输入接近度阈值的用户输入被接收,模块2014配置计算机以使用Q3D信息来监控外科医生视野内的两个或更多个对象之间的接近度。决定模块2016确定是否已经越过接近度阈值。响应于确定已经越过接近度阈值,模块2018配置计算机以激活警报。警报可以包括声音、可视化队列诸如闪光信号灯,或器械移动的锁定以避免碰撞。响应于确定还未越过接近度阈值,控制流程返回到监控模块2014。决定模块2020配置计算机以等待接收输入接近度阈值的用户输入的规定时间间隔,并且响应于在“超时”间隔内未接收到用户输入而结束决定模块2012的操作。
图21为示出根据一些实施例的按照图20过程在显示屏2102上所显示的菜单选择的示意图。显示屏2102包括与计算机151相关联的观察监控器。替代地,显示屏2102可以包括观察器312的成像元件206R、206L的区域。响应于用户输入,模块2004使菜单2104得以显示,菜单2104包括第一菜单项“显示距离”2106和第二菜单项“设定接近度警报”2108。响应选择“显示距离”菜单项2106的用户输入,模块2008使两个或更多个对象之间的Q3D距离得以显示。再次参考图4,其示出器械400和使用模块2008显示的目标之间的Q3D距离“d_Instr_Trgt”的显示。响应于选择“设定接近度警报”菜单项2108的用户输入,显示“输入距离”UI输入2110,UI输入2110包括用户可以输入接近度距离阈值例,如“xxxx毫米”的栏。在替代实施例(未示出)中,可以提前为所有器械设定默认的接近度阈值,并且用户可以使用例如图21的菜单来改变接近度阈值。在替代实施例中,用户可以决定选择默认阈值而不是输入阈值。在一些实施例中,用户可以选择显示距离和设定接近度警报两者。
图22A至图22B为表示根据一些实施例的按照图20的过程接收用户输入的某些细节的示意图。图22A示出目标410L、401R诸如人体组织的示例第一高光区2202L、2202R,第一高光区可以使用视频标记工具诸如远程图显,或者使用操纵图4的控制输入设备160的外科医生控制台创建。图22B示出器械顶端400L、400R的示例第二高光区2206L、2206R,第二高光区可以使用视频标记工具创建。在根据一些实施例的操作中,用户创建第一高光区2202L、2202R。接下来,用户使用视频标记工具来创建器械顶端400L、400R的示例第二高光区2206L、2206R。应该理解,将项加亮的顺序并不重要。然后用户致动选择器(未示出)(例如,按压ENTER键)以输入选择。模块2002将接收到的用户输入解释为目标图像410L、410R和器械图像400L、400R的选择。
图23为表示根据一些实施例的在手术程序期间使用Q3D信息的第二过程2300的示意流程图。计算机程序代码配置计算机151以执行过程2300。模块2302配置计算机以接收用户输入,从而当看向观察器312时选择外科医生视野内的对象。例如,再次参考图22A,其示出用户输入被接收以使用视频标记工具来创建器械顶端400L、400R的第二高光区2206L、2206R。用户输入(未示出)被接收,以致动选择器(未示出)(例如,按压ENTER键)从而输入器械顶端400L、400R的图像的选择。
再一次返回到图23,响应于接收用户选择,模块2304配置计算机以在计算机控制台上显示菜单。决定模块2306配置计算机以确定到菜单的使所选对象的图像旋转的用户输入是否被接收。响应于确定使图像旋转的用户输入被接收,模块2308配置计算机以使图像旋转从而示出对象的不同三维透视图。决定模块2310配置计算机以等待接收使图像旋转的用户输入的规定时间间隔,并且响应于在“超时”间隔内未接收到用户输入而结束决定模块2306的操作。
图24为示出根据一些实施例的按照图23的过程在显示屏2402上所显示的菜单选择的示意图。显示屏2402包括与计算机151相关联的观察监控器。替代地,显示屏2402可以包括观察器312的成像元件206R、206L的区域。响应于接收到的用户输入,模块2304使菜单2404得以显示,菜单2404包括第三菜单项“向左旋转”2406和第四菜单项“向右旋转”2408。响应于选择第三菜单项2406或第四菜单项2408中的一个或另一个的用户输入,模块2308使按照图9的模块407创建并存储的3D模型旋转。应该认识到,由于传感器成像器阵列210具有有限的总体视野,所以旋转量可以限制到几度,例如小于30度。
根据本发明实施例的前述描述和附图仅说明了本发明的原理。因此,应该理解,在不背离所附权利要求所限定的本发明的精神和范围的情况下,本领域的技术人员可以对实施例进行各种修改。
Claims (23)
1.一种用于在物理世界场景中包含数值距离的系统,其包括:
内窥镜;
包括至少三个传感器的图像传感器阵列,每个传感器包括像素阵列,所述像素阵列具有共面视野、被设置成对邻近所述内窥镜的视野进行成像,每个传感器包括与其他传感器的像素阵列分离的像素阵列;
光源,其被设置成照亮所述视野;
一个或更多个自由立体三维显示器,以显示所述物理世界场景的视频图像;和
控制器,其被配置为通过捕捉来自所述传感器阵列中的所有像素阵列传感器的所述物理世界场景的图像,从所述捕捉的场景内指定感兴趣区域,搜寻所述感兴趣区域内的场景图像之间的最佳匹配以便识别被相同目标的投影照亮的不同像素阵列中的像素位置,基于使用所述图像传感器阵列捕捉的图像信息来确定目标对象的三维位置;
其中所述控制器被配置为基于使用所述图像传感器阵列捕捉的所述目标对象的确定的三维位置,使得所述一个或更多个自由立体三维显示器将数值距离覆盖到所述物理世界场景的所显示的视频图像上。
2.根据权利要求1所述的系统,
其中所述光源仅产生非结构化的光。
3.根据权利要求1所述的系统,
其中所述光源产生白光。
4.根据权利要求1所述的系统,
其中所述内窥镜包括伸长部分,所述伸长部分具有第一端部和与所述第一端部相对的第二端部;并且
其中所述图像传感器阵列邻近所述第一端部设置。
5.根据权利要求1所述的系统,
其中所述内窥镜包括伸长部分,所述伸长部分具有第一端部和与所述第一端部相对的第二端部;
其中所述图像传感器阵列邻近所述第一端部设置;以及
其中所述光源产生白光。
6.根据权利要求1所述的系统,
其中所述内窥镜包括伸长部分,所述伸长部分具有第一端部和与所述第一端部相对的第二端部;并且
其中所述图像传感器阵列被设置成从所述第一端部移置;
所述系统进一步包括:
光导管,其被设置成将来自邻近所述第一端部的视野的图像传递到从所述第一端部移置的所述图像传感器阵列。
7.根据权利要求1所述的系统,
其中所述内窥镜包括具有第一端部的伸长部分;
其中所述图像传感器阵列邻近所述第一端部设置;以及
其中所述内窥镜的与所述伸长部分的所述第一端部相对的端部经配置用于与机械手术臂机械耦接。
8.根据权利要求1所述的系统,
其中所述内窥镜包括伸长部分,所述伸长部分具有第一端部和与所述第一端部相对的第二端部;
其中所述图像传感器阵列被设置成从所述第一端部移置;以及
其中所述第二端部适合于与机械手术臂机械耦接;所述系统进一步包括:
光导管,其被设置成将来自邻近所述第一端部的视野的图像传递到从所述第一端部移置的所述图像传感器阵列。
9.根据权利要求1所述的系统,
其中所述目标对象的所述三维位置至少部分地基于所述图像传感器阵列的识别的像素和物理特征之间的像素距离关系来确定。
10.根据权利要求1所述的系统,
其中识别像素位置包括匹配相同目标对象在所述图像传感器阵列的多个阵列中的每个中的图像投影。
11.根据权利要求1所述的系统,其中所述控制器经配置:
识别被来自相同目标对象的投影照亮的多个图像传感器中的每个中的像素;
其中识别像素包括使用相关过程来匹配多个图像传感器中的每个中的相同目标对象的图像投影;
其中确定所述三维位置包括:至少部分地基于至少三个识别的像素的相对位置来确定所述目标对象在至少一个维度中的估计位置;以及
响应于确定的估计位置相差超过可接受容限,重复所述相关过程以精确化图像投影的所述匹配。
12.根据权利要求1所述的系统,
其中所述控制器经配置识别被来自相同目标对象的投影照亮的多个图像传感器中的每个中的像素;以及
其中识别像素包括使用相关过程来匹配相同目标对象在多个图像传感器中的每个中的图像投影;
其中确定所述三维位置包括:基于至少三个识别的像素的相对位置来确定所述目标对象在大体平行于所述传感器的平面的至少一个物理维度中的估计位置;以及
响应于所述确定的估计位置匹配到可接受容限之内,至少部分地基于所述目标对象在所述至少一个物理维度中的所估计的确定的物理位置,确定所述目标对象在大体垂直于所述传感器的所述平面的至少一个其他物理维度中的估计物理位置。
13.一种用于在物理世界场景中包含数值距离的方法,其包括:
提供图像传感器阵列,所述图像传感器阵列包括至少三个传感器,每个传感器包括像素阵列,所述像素阵列具有共面视野、邻近内窥镜的顶端,所述阵列中的每个传感器包括与其他传感器的像素阵列分离的像素阵列;
借助光源照亮所述物理世界场景内的目标对象;
识别被目标对象的投影照亮的不同像素阵列中的像素;
至少部分地基于识别的像素和所述识别的像素的视野之间的距离关系来确定所述目标对象的三维位置;以及
基于使用所述图像传感器阵列捕捉的所述目标对象的经确定的三维位置,显示覆盖在通过一个或更多个自由立体三维视频显示器显示的所述物理世界场景的视频图像上的数值距离。
14.根据权利要求13所述的方法,
其中所述光源仅产生非结构化的光。
15.根据权利要求13所述的方法,
其中所述光源产生白光。
16.一种用于在物理世界场景中包含数值距离的方法,其包括:
提供光导管,所述光导管具有邻近内窥镜的顶端的输入端;
借助光源照亮所述物理世界场景内的目标;
使用所述光导管将所述光导管的所述输入端的视野内的图像传递到图像传感器阵列,所述图像传感器阵列包括至少三个传感器,每个传感器包括像素阵列,所述像素阵列具有共面视野,所述阵列中的每个传感器包括与其他传感器的像素阵列分离的像素阵列;
识别被目标对象的投影照亮的不同像素阵列中的像素;
确定所述目标对象的三维位置包括至少部分地基于识别的像素和所述识别的像素的视野之间的距离关系进行确定;以及
基于使用所述图像传感器阵列捕捉的所述目标对象的经确定的三维位置,显示覆盖在通过一个或更多个自由立体三维视频显示器显示的所述物理世界场景的视频图像上的数值距离。
17.根据权利要求16所述的方法,
其中所述光源仅产生非结构化的光。
18.根据权利要求16所述的方法,
其中所述光源产生白光。
19.一种用于在物理世界场景中包含数值距离的手术系统,其包括:
至少一个内窥镜,其与定量三维成像传感器阵列配合,所述定量三维成像传感器阵列包括至少三个传感器,每个传感器包括像素阵列,所述像素阵列具有共面视野、邻近所述内窥镜,每个传感器的每个像素阵列与其他传感器的像素阵列分离;
照明源,其提供非结构化的、可见的照明光;
处理器,其经配置:通过捕捉来自所述传感器阵列中的所有像素阵列的所述物理世界场景的图像,从所述捕捉的场景内指定感兴趣区域,搜寻所述感兴趣区域内的场景图像之间的最佳匹配以便识别被相同目标的投影照亮的不同像素阵列中的像素位置,处理从所述定量三维成像传感器接收的图像数据以产生定量三维图像信息;以及
观察系统,其包括一个或更多个自由立体三维视频图像显示器以显示所述物理世界场景的视频图像和定量三维图像信息;
其中所述处理器被配置为基于使用所述传感器阵列捕捉的所产生的定量三维图像信息,使得所述一个或更多个自由立体三维视频图像显示器显示覆盖到所述物理世界场景的所显示的视频图像上的数值距离。
20.根据权利要求19所述的系统,其进一步包括:
识别接近度阈值的装置;
识别来自手术场景内的至少两个感兴趣对象的装置;以及
响应于所述至少两个识别的对象之间的距离在所述识别的接近度阈值之下而提供警报的装置。
21.根据权利要求19所述的系统,其进一步包括:
识别手术场景内的目标对象的装置;
非暂时性计算机可读存储设备,其包括计算机可执行的指令以创建所述目标对象的三维模型;以及
图形化地操纵所述三维模型的视图的装置。
22.根据权利要求19所述的系统,
其中所述处理器被配置为基于使用所述图像传感器阵列捕捉的所产生的定量三维图像信息,接收用户输入以选择所捕捉的场景内的至少两个对象并且使得所述一个或更多个自由立体三维视频显示器将使所述至少两个对象分离的所述数值距离覆盖在所述物理世界场景的所显示的视频图像上。
23.根据权利要求19所述的系统,
其中所述处理器被配置为基于使用所述图像传感器阵列捕捉的所产生的定量三维图像信息,接收用户输入以指示距离值并且选择所捕捉的场景内的至少两个对象并且使得所述一个或更多个自由立体三维视频显示器显示警报指示以指示使所述至少两个对象分离的距离小于所指示的距离值。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461971749P | 2014-03-28 | 2014-03-28 | |
US61/971,749 | 2014-03-28 | ||
PCT/US2015/023210 WO2015149040A1 (en) | 2014-03-28 | 2015-03-28 | Quantitative three-dimensional imaging of surgical scenes |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106456252A CN106456252A (zh) | 2017-02-22 |
CN106456252B true CN106456252B (zh) | 2020-05-08 |
Family
ID=54196482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580024437.1A Active CN106456252B (zh) | 2014-03-28 | 2015-03-28 | 手术场景的定量三维成像 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10368054B2 (zh) |
EP (1) | EP3125806B1 (zh) |
JP (2) | JP2017518147A (zh) |
KR (1) | KR102397254B1 (zh) |
CN (1) | CN106456252B (zh) |
WO (1) | WO2015149040A1 (zh) |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
WO2011063347A2 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
WO2013043761A1 (en) * | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
US8542933B2 (en) | 2011-09-28 | 2013-09-24 | Pelican Imaging Corporation | Systems and methods for decoding light field image files |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
US8619082B1 (en) | 2012-08-21 | 2013-12-31 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation |
EP2888698A4 (en) | 2012-08-23 | 2016-06-29 | Pelican Imaging Corp | PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US9438888B2 (en) | 2013-03-15 | 2016-09-06 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
WO2015048694A2 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and methods for depth-assisted perspective distortion correction |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
WO2015149041A1 (en) | 2014-03-28 | 2015-10-01 | Dorin Panescu | Quantitative three-dimensional visualization of instruments in a field of view |
JP6938369B2 (ja) | 2014-03-28 | 2021-09-22 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 定量的な3次元イメージングに基づく触覚フィードバックを用いる手術システム |
EP3125807B1 (en) | 2014-03-28 | 2022-05-04 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional imaging of surgical scenes from multiport perspectives |
WO2015149043A1 (en) | 2014-03-28 | 2015-10-01 | Dorin Panescu | Quantitative three-dimensional imaging and printing of surgical implants |
WO2015151098A2 (en) * | 2014-04-02 | 2015-10-08 | M.S.T. Medical Surgery Technologies Ltd. | An articulated structured light based-laparoscope |
EP3467776A1 (en) | 2014-09-29 | 2019-04-10 | Fotonation Cayman Limited | Systems and methods for dynamic calibration of array cameras |
JP2017099616A (ja) * | 2015-12-01 | 2017-06-08 | ソニー株式会社 | 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム |
US20170280970A1 (en) * | 2016-03-31 | 2017-10-05 | Covidien Lp | Thoracic endoscope for surface scanning |
US10052163B2 (en) * | 2016-07-19 | 2018-08-21 | Hcl Technologies Limited | Assisting a surgeon to operate a surgical device |
CN111542827B (zh) | 2017-12-29 | 2021-09-28 | 上海联影医疗科技股份有限公司 | 一种患者定位的系统和方法 |
WO2019127539A1 (en) * | 2017-12-29 | 2019-07-04 | Shenzhen United Imaging Healthcare Co., Ltd. | Systems and methods for determining region of interest in medical imaging |
US11705238B2 (en) | 2018-07-26 | 2023-07-18 | Covidien Lp | Systems and methods for providing assistance during surgery |
US11071591B2 (en) | 2018-07-26 | 2021-07-27 | Covidien Lp | Modeling a collapsed lung using CT data |
EP3841954A4 (en) * | 2018-08-20 | 2021-10-13 | FUJIFILM Corporation | MEDICAL IMAGE PROCESSING SYSTEM |
CN112739283A (zh) * | 2018-09-17 | 2021-04-30 | 奥瑞斯健康公司 | 用于伴随医学规程的系统和方法 |
US10623660B1 (en) | 2018-09-27 | 2020-04-14 | Eloupes, Inc. | Camera array for a mediated-reality system |
US11801113B2 (en) * | 2018-12-13 | 2023-10-31 | Covidien Lp | Thoracic imaging, distance measuring, and notification system and method |
US11172184B2 (en) | 2018-12-13 | 2021-11-09 | Covidien Lp | Systems and methods for imaging a patient |
US11617493B2 (en) | 2018-12-13 | 2023-04-04 | Covidien Lp | Thoracic imaging, distance measuring, surgical awareness, and notification system and method |
EP3973540A1 (en) | 2019-05-23 | 2022-03-30 | Intuitive Surgical Operations, Inc. | Systems and methods for generating workspace volumes and identifying reachable workspaces of surgical instruments |
US12089902B2 (en) | 2019-07-30 | 2024-09-17 | Coviden Lp | Cone beam and 3D fluoroscope lung navigation |
KR102646521B1 (ko) | 2019-09-17 | 2024-03-21 | 인트린식 이노베이션 엘엘씨 | 편광 큐를 이용한 표면 모델링 시스템 및 방법 |
US11525906B2 (en) | 2019-10-07 | 2022-12-13 | Intrinsic Innovation Llc | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
US12002571B2 (en) * | 2019-12-30 | 2024-06-04 | Cilag Gmbh International | Dynamic surgical visualization systems |
EP4081933A4 (en) | 2020-01-29 | 2024-03-20 | Intrinsic Innovation LLC | SYSTEMS AND METHODS FOR CHARACTERIZING OBJECT POSE DETECTION AND MEASUREMENT SYSTEMS |
EP4085424A4 (en) | 2020-01-30 | 2024-03-27 | Intrinsic Innovation LLC | SYSTEMS AND METHODS OF DATA SYNTHESIS FOR TRAINING STATISTICAL MODELS ON DIFFERENT IMAGING MODALITIES INCLUDING POLARIZED IMAGES |
US10949986B1 (en) | 2020-05-12 | 2021-03-16 | Proprio, Inc. | Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
US12128571B2 (en) * | 2021-10-15 | 2024-10-29 | eBots Inc. | 3D computer-vision system with variable spatial resolution |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102046065A (zh) * | 2008-06-09 | 2011-05-04 | 康生科技公司 | 具有用以照明处于不同距离上的组织的多个源的体内相机 |
CN102908158A (zh) * | 2011-08-02 | 2013-02-06 | 三星电子株式会社 | 处理医学影像的方法和装置、及影像引导机器人手术系统 |
Family Cites Families (158)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1005215A (en) | 1911-05-16 | 1911-10-10 | Anton Hofacker | Sleigh attachment for vehicles. |
JPH04176429A (ja) | 1990-11-09 | 1992-06-24 | Olympus Optical Co Ltd | 内視鏡 |
JP3217386B2 (ja) | 1991-04-24 | 2001-10-09 | オリンパス光学工業株式会社 | 診断システム |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5603318A (en) | 1992-04-21 | 1997-02-18 | University Of Utah Research Foundation | Apparatus and method for photogrammetric surgical localization |
AT399647B (de) | 1992-07-31 | 1995-06-26 | Truppe Michael | Anordnung zur darstellung des inneren von körpern |
JPH06160087A (ja) * | 1992-11-20 | 1994-06-07 | Matsushita Electric Ind Co Ltd | 画像を用いた距離測定方法及びその装置 |
US5860934A (en) | 1992-12-21 | 1999-01-19 | Artann Corporation | Method and device for mechanical imaging of breast |
JPH07240945A (ja) | 1994-02-25 | 1995-09-12 | Matsushita Electric Ind Co Ltd | 仮想空間生成提示装置 |
JP3599854B2 (ja) | 1995-10-09 | 2004-12-08 | オリンパス株式会社 | 医療用顔面装着型映像表示装置 |
US6346940B1 (en) | 1997-02-27 | 2002-02-12 | Kabushiki Kaisha Toshiba | Virtualized endoscope system |
JPH11309A (ja) * | 1997-06-12 | 1999-01-06 | Hitachi Ltd | 画像処理装置 |
JP2958458B1 (ja) | 1998-08-26 | 1999-10-06 | 防衛庁技術研究本部長 | 多眼画像センサ |
JP2000149017A (ja) * | 1998-11-17 | 2000-05-30 | Sony Corp | 画像処理装置および画像処理方法、並びに提供媒体 |
US6659939B2 (en) | 1998-11-20 | 2003-12-09 | Intuitive Surgical, Inc. | Cooperative minimally invasive telesurgical system |
US6522906B1 (en) | 1998-12-08 | 2003-02-18 | Intuitive Surgical, Inc. | Devices and methods for presenting and regulating auxiliary information on an image display of a telesurgical system to assist an operator in performing a surgical procedure |
US7343195B2 (en) | 1999-05-18 | 2008-03-11 | Mediguide Ltd. | Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US6517478B2 (en) | 2000-03-30 | 2003-02-11 | Cbyon, Inc. | Apparatus and method for calibrating an endoscope |
US6468203B2 (en) | 2000-04-03 | 2002-10-22 | Neoguide Systems, Inc. | Steerable endoscope and improved method of insertion |
JP2002024807A (ja) | 2000-07-07 | 2002-01-25 | National Institute Of Advanced Industrial & Technology | 物体運動追跡手法及び記録媒体 |
JP4451968B2 (ja) | 2000-07-11 | 2010-04-14 | Hoya株式会社 | 3次元画像入力装置 |
US6650927B1 (en) | 2000-08-18 | 2003-11-18 | Biosense, Inc. | Rendering of diagnostic imaging data on a three-dimensional map |
JP2002171537A (ja) | 2000-11-30 | 2002-06-14 | Canon Inc | 複眼撮像系、撮像装置および電子機器 |
DE10138537B4 (de) | 2001-08-06 | 2006-07-06 | Siemens Ag | Taktiles Feedback zur Darstellung von Gewebeelastizität |
US8175680B2 (en) | 2001-11-09 | 2012-05-08 | Boston Scientific Scimed, Inc. | Systems and methods for guiding catheters using registered images |
JP3751568B2 (ja) | 2002-02-21 | 2006-03-01 | 株式会社サタケ | 内視鏡における空気噴流診断装置 |
US9155544B2 (en) | 2002-03-20 | 2015-10-13 | P Tech, Llc | Robotic systems and methods |
JP3927487B2 (ja) | 2002-12-02 | 2007-06-06 | 株式会社大野興業 | 人工骨モデルの製造方法 |
FR2855292B1 (fr) | 2003-05-22 | 2005-12-09 | Inst Nat Rech Inf Automat | Dispositif et procede de recalage en temps reel de motifs sur des images, notamment pour le guidage par localisation |
JP4414682B2 (ja) | 2003-06-06 | 2010-02-10 | オリンパス株式会社 | 超音波内視鏡装置 |
DE10340546B4 (de) | 2003-09-01 | 2006-04-20 | Siemens Ag | Verfahren und Vorrichtung zur visuellen Unterstützung einer elektrophysiologischen Katheteranwendung im Herzen |
JP2005087468A (ja) | 2003-09-17 | 2005-04-07 | Shoji Kawahito | 距離画像計測機能を有する撮像装置及び内視鏡装置 |
JP4229791B2 (ja) | 2003-09-19 | 2009-02-25 | 真 金子 | 内視鏡装置 |
US7746377B2 (en) | 2003-11-28 | 2010-06-29 | Topcon Corporation | Three-dimensional image display apparatus and method |
US7901348B2 (en) | 2003-12-12 | 2011-03-08 | University Of Washington | Catheterscope 3D guidance and interface system |
DE102004008164B3 (de) | 2004-02-11 | 2005-10-13 | Karl Storz Gmbh & Co. Kg | Verfahren und Vorrichtung zum Erstellen zumindest eines Ausschnitts eines virtuellen 3D-Modells eines Körperinnenraums |
US7289106B2 (en) | 2004-04-01 | 2007-10-30 | Immersion Medical, Inc. | Methods and apparatus for palpation simulation |
US20050254720A1 (en) | 2004-05-17 | 2005-11-17 | Kar-Han Tan | Enhanced surgical visualizations with multi-flash imaging |
JP2006109939A (ja) * | 2004-10-12 | 2006-04-27 | Chinontec Kk | 内視鏡装置 |
WO2006070669A1 (ja) | 2004-12-27 | 2006-07-06 | Olympus Corporation | 医療画像処理装置及び医療画像処理方法 |
US20100312129A1 (en) | 2005-01-26 | 2010-12-09 | Schecter Stuart O | Cardiovascular haptic handle system |
JP4625964B2 (ja) | 2005-01-28 | 2011-02-02 | 国立大学法人佐賀大学 | 三次元画像検出装置 |
JP2006305332A (ja) * | 2005-03-28 | 2006-11-09 | Hiroshima Industrial Promotion Organization | 画像処理装置およびそれを用いた内視鏡 |
US7752920B2 (en) | 2005-12-30 | 2010-07-13 | Intuitive Surgical Operations, Inc. | Modular force sensor |
EP1875310B1 (en) * | 2005-04-27 | 2013-03-06 | Obducat AB | Means for transferring a pattern to an object |
US8108072B2 (en) | 2007-09-30 | 2012-01-31 | Intuitive Surgical Operations, Inc. | Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US9492240B2 (en) | 2009-06-16 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Virtual measurement tool for minimally invasive surgery |
US8073528B2 (en) * | 2007-09-30 | 2011-12-06 | Intuitive Surgical Operations, Inc. | Tool tracking systems, methods and computer products for image guided surgery |
US9289267B2 (en) | 2005-06-14 | 2016-03-22 | Siemens Medical Solutions Usa, Inc. | Method and apparatus for minimally invasive surgery using endoscopes |
CA2620196A1 (en) | 2005-08-24 | 2007-03-01 | Traxtal Inc. | System, method and devices for navigated flexible endoscopy |
US20070135803A1 (en) | 2005-09-14 | 2007-06-14 | Amir Belson | Methods and apparatus for performing transluminal and other procedures |
US8079950B2 (en) | 2005-09-29 | 2011-12-20 | Intuitive Surgical Operations, Inc. | Autofocus and/or autoscaling in telesurgery |
EP1937176B1 (en) | 2005-10-20 | 2019-04-17 | Intuitive Surgical Operations, Inc. | Auxiliary image display and manipulation on a computer display in a medical robotic system |
US7907166B2 (en) | 2005-12-30 | 2011-03-15 | Intuitive Surgical Operations, Inc. | Stereo telestration for robotic surgery |
DE102006002001B4 (de) | 2006-01-16 | 2009-07-23 | Sensomotoric Instruments Gmbh | Verfahren zur Bestimmung der räumlichen Relation eines Auges einer Person bezüglich einer Kameravorrichtung |
IL181470A (en) | 2006-02-24 | 2012-04-30 | Visionsense Ltd | Method and system for navigation within a flexible organ in the human body |
US20070236514A1 (en) | 2006-03-29 | 2007-10-11 | Bracco Imaging Spa | Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation |
WO2007139949A2 (en) | 2006-05-25 | 2007-12-06 | Spinemedica Corporation | Patient-specific spinal implants and related systems and methods |
US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
GB0613576D0 (en) * | 2006-07-10 | 2006-08-16 | Leuven K U Res & Dev | Endoscopic vision system |
WO2008017051A2 (en) | 2006-08-02 | 2008-02-07 | Inneroptic Technology Inc. | System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities |
ATE472141T1 (de) | 2006-08-21 | 2010-07-15 | Sti Medical Systems Llc | Computergestützte analyse mit hilfe von videodaten aus endoskopen |
US7824328B2 (en) | 2006-09-18 | 2010-11-02 | Stryker Corporation | Method and apparatus for tracking a surgical instrument during surgery |
US8496575B2 (en) | 2006-11-14 | 2013-07-30 | Olympus Corporation | Measuring endoscope apparatus, program and recording medium |
WO2008063856A2 (en) | 2006-11-17 | 2008-05-29 | Salada Mark A | Haptic interface device and method for using such |
ATE493082T1 (de) | 2006-12-15 | 2011-01-15 | Ao Technology Ag | Vorrichtung für die computergestützte distale arretierung von marknägeln |
US20100149183A1 (en) | 2006-12-15 | 2010-06-17 | Loewke Kevin E | Image mosaicing systems and methods |
EP1952752B2 (de) | 2007-01-31 | 2019-10-16 | Richard Wolf GmbH | Endoskopsystem |
US8672836B2 (en) | 2007-01-31 | 2014-03-18 | The Penn State Research Foundation | Method and apparatus for continuous guidance of endoscopy |
JP2010532681A (ja) | 2007-06-29 | 2010-10-14 | スリーエム イノベイティブ プロパティズ カンパニー | 歯科用モデルのための、ビデオ補助境界マーキング |
US20090076476A1 (en) | 2007-08-15 | 2009-03-19 | Hansen Medical, Inc. | Systems and methods employing force sensing for mapping intra-body tissue |
FR2920085B1 (fr) | 2007-08-24 | 2012-06-15 | Univ Grenoble 1 | Systeme d'imagerie pour l'observation tridimensionnelle d'un champ operatoire |
US20090133260A1 (en) | 2007-11-26 | 2009-05-28 | Ios Technologies, Inc | 3D dental shade matching and apparatus |
US20100111389A1 (en) | 2007-12-06 | 2010-05-06 | Siemens Medical Solutions Usa, Inc. | System and method for planning and guiding percutaneous procedures |
US20090157059A1 (en) | 2007-12-14 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Surgical instrument navigation system |
JP2009204991A (ja) * | 2008-02-28 | 2009-09-10 | Funai Electric Co Ltd | 複眼撮像装置 |
US20090221908A1 (en) | 2008-03-01 | 2009-09-03 | Neil David Glossop | System and Method for Alignment of Instrumentation in Image-Guided Intervention |
DE102008018636B4 (de) | 2008-04-11 | 2011-01-05 | Storz Endoskop Produktions Gmbh | Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
EP2289235A4 (en) | 2008-05-20 | 2011-12-28 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER |
EP2145575A1 (en) | 2008-07-17 | 2010-01-20 | Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO | A system, a method and a computer program for inspection of a three-dimensional environment by a user |
US8334900B2 (en) | 2008-07-21 | 2012-12-18 | The Hong Kong University Of Science And Technology | Apparatus and method of optical imaging for medical diagnosis |
JP5435916B2 (ja) | 2008-09-18 | 2014-03-05 | 富士フイルム株式会社 | 電子内視鏡システム |
JP4702569B2 (ja) * | 2008-09-30 | 2011-06-15 | マツダ株式会社 | 車両用画像処理装置 |
RU2011120186A (ru) | 2008-10-20 | 2012-11-27 | Конинклейке Филипс Электроникс, Н.В. | Способ и система локализации на основе изображений |
US8594841B2 (en) | 2008-12-31 | 2013-11-26 | Intuitive Surgical Operations, Inc. | Visual force feedback in a minimally invasive surgical procedure |
WO2010093780A2 (en) | 2009-02-13 | 2010-08-19 | University Of Florida Research Foundation, Inc. | Communication and skills training using interactive virtual humans |
US8690776B2 (en) | 2009-02-17 | 2014-04-08 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image guided surgery |
US9017334B2 (en) | 2009-02-24 | 2015-04-28 | Microport Orthopedics Holdings Inc. | Patient specific surgical guide locator and mount |
US10004387B2 (en) | 2009-03-26 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Method and system for assisting an operator in endoscopic navigation |
US8939894B2 (en) * | 2009-03-31 | 2015-01-27 | Intuitive Surgical Operations, Inc. | Three-dimensional target devices, assemblies and methods for calibrating an endoscopic camera |
WO2010118117A1 (en) | 2009-04-07 | 2010-10-14 | Regents Of The University Of Minnesota | Sensing tissue properties |
US8660331B2 (en) | 2009-04-25 | 2014-02-25 | Siemens Aktiengesellschaft | Method and a system for assessing the relative pose of an implant and a bone of a creature |
CA2761844C (en) | 2009-05-14 | 2017-11-28 | University Health Network | Quantitative endoscopy |
US20120063644A1 (en) | 2009-06-01 | 2012-03-15 | Koninklijke Philips Electronics N.V. | Distance-based position tracking method and system |
US9259290B2 (en) | 2009-06-08 | 2016-02-16 | MRI Interventions, Inc. | MRI-guided surgical systems with proximity alerts |
JP2012529977A (ja) | 2009-06-16 | 2012-11-29 | エムアールアイ・インターヴェンションズ,インコーポレイテッド | Mri誘導装置、及び準リアルタイムに該装置を追跡し、該装置の動的可視化を生成することができるmri誘導介入システム |
US10026016B2 (en) | 2009-06-26 | 2018-07-17 | Regents Of The University Of Minnesota | Tracking and representation of multi-dimensional organs |
ES2353099B1 (es) | 2009-07-30 | 2012-01-02 | Fundacion Para Progreso Soft Computing | Método y sistema de identificación forense por superposición craneofacial basado en soft computing. |
US20110032088A1 (en) | 2009-08-10 | 2011-02-10 | Electronics And Telecommunications Research Institute | Method of encoding haptic information on image, method of decoding haptic information from image and apparatus of processing haptic information for the same |
WO2011063347A2 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US11699247B2 (en) * | 2009-12-24 | 2023-07-11 | Cognex Corporation | System and method for runtime determination of camera miscalibration |
US9436280B2 (en) | 2010-01-07 | 2016-09-06 | Qualcomm Incorporated | Simulation of three-dimensional touch sensation using haptics |
EP2523621B1 (en) | 2010-01-13 | 2016-09-28 | Koninklijke Philips N.V. | Image integration based registration and navigation for endoscopic surgery |
CN102781303A (zh) | 2010-02-01 | 2012-11-14 | 塞拉芬·尼盖茨·伊图瓦 | 球形胶囊视频内窥镜检查 |
DE102010006741A1 (de) | 2010-02-03 | 2011-08-04 | Friedrich-Alexander-Universität Erlangen-Nürnberg, 91054 | Verfahren zum Verarbeiten eines Endoskopiebildes |
JP5421828B2 (ja) | 2010-03-17 | 2014-02-19 | 富士フイルム株式会社 | 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム |
JP2011200515A (ja) | 2010-03-26 | 2011-10-13 | Hoya Corp | 触覚センサを備える電子内視鏡及び電子内視鏡システム |
JP5432793B2 (ja) | 2010-03-29 | 2014-03-05 | オリンパス株式会社 | 蛍光内視鏡装置 |
ES2615229T3 (es) * | 2010-06-11 | 2017-06-06 | Ethicon, Llc | Herramientas de dispensación de suturas para cirugía endoscópica y asistida por robot y procedimientos |
EP2613727A4 (en) | 2010-09-10 | 2014-09-10 | Univ Johns Hopkins | VISUALIZING A RECORDED UNDERGROUND ANATOMY WITH REFERENCE TO RELATED APPLICATIONS |
CN103108602B (zh) | 2010-09-15 | 2015-09-30 | 皇家飞利浦电子股份有限公司 | 从血管树图像对内窥镜的机器人控制 |
DE102010050227A1 (de) | 2010-11-04 | 2012-05-10 | Siemens Aktiengesellschaft | Endoskop mit 3D-Funktionalität |
CN106264659B (zh) | 2011-04-07 | 2019-02-22 | 3形状股份有限公司 | 用于引导对象的3d系统和方法 |
US9138148B2 (en) | 2011-04-13 | 2015-09-22 | St. Jude Medical, Inc. | High speed elastographic property mapping of lumens utilizing micropalpation delivered from an OCT-equipped catheter tip |
MX2013013129A (es) * | 2011-05-12 | 2014-10-17 | Olive Medical Corp | Sensor de imagen mejorado para uso endoscopico. |
US8900131B2 (en) | 2011-05-13 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery |
JP5830270B2 (ja) | 2011-05-24 | 2015-12-09 | オリンパス株式会社 | 内視鏡装置および計測方法 |
US8784301B2 (en) * | 2011-08-12 | 2014-07-22 | Intuitive Surgical Operations, Inc. | Image capture unit and method with an extended depth of field |
US9204939B2 (en) | 2011-08-21 | 2015-12-08 | M.S.T. Medical Surgery Technologies Ltd. | Device and method for assisting laparoscopic surgery—rule based approach |
US10866783B2 (en) | 2011-08-21 | 2020-12-15 | Transenterix Europe S.A.R.L. | Vocally activated surgical control system |
EP2744389B1 (en) | 2011-08-21 | 2019-10-30 | M.S.T. Medical Surgery Technologies Ltd. | Device for assisting laparoscopic surgery - rule based approach |
US9883788B2 (en) * | 2011-09-13 | 2018-02-06 | Visionsense Ltd. | Proximal high definition endoscope |
US20150049167A1 (en) | 2011-11-15 | 2015-02-19 | Naoki Suzuki | Photographic device and photographic system |
DE102011119608B4 (de) | 2011-11-29 | 2021-07-29 | Karl Storz Se & Co. Kg | Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung |
EP2793688A4 (en) | 2011-12-19 | 2015-05-06 | Univ California | SYSTEM AND METHOD FOR QUANTIFYING BODILY PALPATION FOR THE IMPROVEMENT OF MEDICAL DIAGNOSIS |
CA2857636C (en) | 2011-12-22 | 2020-06-23 | Mimedx Group Inc. | Cross-linked dehydrated placental tissue grafts and methods for making and using the same |
JP5918548B2 (ja) | 2012-01-24 | 2016-05-18 | 富士フイルム株式会社 | 内視鏡画像診断支援装置およびその作動方法並びに内視鏡画像診断支援プログラム |
US20130211244A1 (en) | 2012-01-25 | 2013-08-15 | Surgix Ltd. | Methods, Devices, Systems, Circuits and Associated Computer Executable Code for Detecting and Predicting the Position, Orientation and Trajectory of Surgical Tools |
WO2013116240A1 (en) | 2012-01-30 | 2013-08-08 | Inneroptic Technology, Inc. | Multiple medical device guidance |
US9092996B2 (en) | 2012-03-01 | 2015-07-28 | Simquest Llc | Microsurgery simulator |
US10758209B2 (en) | 2012-03-09 | 2020-09-01 | The Johns Hopkins University | Photoacoustic tracking and registration in interventional ultrasound |
US20130250081A1 (en) | 2012-03-21 | 2013-09-26 | Covidien Lp | System and method for determining camera angles by using virtual planes derived from actual images |
CN104244800B (zh) * | 2012-04-19 | 2017-05-17 | 皇家飞利浦有限公司 | 使用手术前和手术中的3d图像来人工操纵内窥镜的引导工具 |
WO2013160893A1 (en) | 2012-04-23 | 2013-10-31 | Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. | A device for rehabilitating brain mechanism of visual perception using complementary sensual stimulations |
EP2844159B1 (en) | 2012-05-03 | 2017-10-11 | Synthes GmbH | Surgical guide with cut resistant inserts |
US10013082B2 (en) | 2012-06-05 | 2018-07-03 | Stuart Schecter, LLC | Operating system with haptic interface for minimally invasive, hand-held surgical instrument |
WO2014002849A1 (ja) * | 2012-06-29 | 2014-01-03 | 富士フイルム株式会社 | 3次元測定方法、装置及びシステム、並びに画像処理装置 |
US9220570B2 (en) | 2012-06-29 | 2015-12-29 | Children's National Medical Center | Automated surgical and interventional procedures |
JP6160087B2 (ja) | 2013-01-11 | 2017-07-12 | 株式会社豊田中央研究所 | 電池 |
CN104582559B (zh) | 2013-03-06 | 2016-10-12 | 奥林巴斯株式会社 | 内窥镜系统和内窥镜系统的工作方法 |
WO2014160510A2 (en) | 2013-03-13 | 2014-10-02 | Massachusetts Institute Of Technology | Photometric stereo endoscopy |
US9456752B2 (en) | 2013-03-14 | 2016-10-04 | Aperture Diagnostics Ltd. | Full-field three-dimensional surface measurement |
CN103269430A (zh) | 2013-04-16 | 2013-08-28 | 上海上安机电设计事务所有限公司 | 基于bim的三维场景生成方法 |
US20150062299A1 (en) | 2013-08-30 | 2015-03-05 | The Regents Of The University Of California | Quantitative 3d-endoscopy using stereo cmos-camera pairs |
US10022914B2 (en) | 2013-11-12 | 2018-07-17 | Adobe Systems Incorporated | Method and apparatus for automatically adding utility holes to printable 3-dimensional models |
JP6644466B2 (ja) | 2013-12-31 | 2020-02-12 | イマージョン コーポレーションImmersion Corporation | 触覚通知を提供するシステム及び方法 |
CA2936453A1 (en) | 2014-01-09 | 2015-07-16 | Axiosonic, Llc | Systems and methods using ultrasound for treatment |
US10130329B2 (en) | 2014-01-28 | 2018-11-20 | General Electric Company | Distinct needle display in ultrasonic image |
KR102237597B1 (ko) | 2014-02-18 | 2021-04-07 | 삼성전자주식회사 | 수술 로봇용 마스터 장치 및 그 제어 방법 |
US9197885B2 (en) | 2014-03-20 | 2015-11-24 | Gopro, Inc. | Target-less auto-alignment of image sensors in a multi-camera system |
WO2015149043A1 (en) | 2014-03-28 | 2015-10-01 | Dorin Panescu | Quantitative three-dimensional imaging and printing of surgical implants |
JP6938369B2 (ja) | 2014-03-28 | 2021-09-22 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 定量的な3次元イメージングに基づく触覚フィードバックを用いる手術システム |
WO2015149041A1 (en) | 2014-03-28 | 2015-10-01 | Dorin Panescu | Quantitative three-dimensional visualization of instruments in a field of view |
EP3125807B1 (en) | 2014-03-28 | 2022-05-04 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional imaging of surgical scenes from multiport perspectives |
CN106455944B (zh) | 2014-03-28 | 2019-01-22 | 直观外科手术操作公司 | Q3d模型与3d图像的对准 |
-
2015
- 2015-03-28 CN CN201580024437.1A patent/CN106456252B/zh active Active
- 2015-03-28 KR KR1020167029885A patent/KR102397254B1/ko active IP Right Grant
- 2015-03-28 US US15/300,255 patent/US10368054B2/en active Active
- 2015-03-28 EP EP15768409.3A patent/EP3125806B1/en active Active
- 2015-03-28 WO PCT/US2015/023210 patent/WO2015149040A1/en active Application Filing
- 2015-03-28 JP JP2017502948A patent/JP2017518147A/ja active Pending
-
2019
- 2019-12-16 JP JP2019226104A patent/JP7321916B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102046065A (zh) * | 2008-06-09 | 2011-05-04 | 康生科技公司 | 具有用以照明处于不同距离上的组织的多个源的体内相机 |
CN102908158A (zh) * | 2011-08-02 | 2013-02-06 | 三星电子株式会社 | 处理医学影像的方法和装置、及影像引导机器人手术系统 |
Also Published As
Publication number | Publication date |
---|---|
EP3125806A4 (en) | 2018-03-28 |
KR20160138232A (ko) | 2016-12-02 |
EP3125806B1 (en) | 2023-06-14 |
JP2020054832A (ja) | 2020-04-09 |
US10368054B2 (en) | 2019-07-30 |
KR102397254B1 (ko) | 2022-05-12 |
CN106456252A (zh) | 2017-02-22 |
EP3125806A1 (en) | 2017-02-08 |
JP2017518147A (ja) | 2017-07-06 |
JP7321916B2 (ja) | 2023-08-07 |
WO2015149040A1 (en) | 2015-10-01 |
US20170188011A1 (en) | 2017-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106456252B (zh) | 手术场景的定量三维成像 | |
KR102373714B1 (ko) | 멀티포트 투시에 의한 수술 장면의 정량적 3차원 영상화 | |
EP3122232B1 (en) | Alignment of q3d models with 3d images | |
CN106535812B (zh) | 带有基于定量三维成像的触觉反馈的手术系统 | |
CN106456267B (zh) | 器械在视野中的定量三维可视化 | |
JPH11337845A (ja) | 内視鏡装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |