[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101993384B1 - 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템 - Google Patents

환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR101993384B1
KR101993384B1 KR1020120118674A KR20120118674A KR101993384B1 KR 101993384 B1 KR101993384 B1 KR 101993384B1 KR 1020120118674 A KR1020120118674 A KR 1020120118674A KR 20120118674 A KR20120118674 A KR 20120118674A KR 101993384 B1 KR101993384 B1 KR 101993384B1
Authority
KR
South Korea
Prior art keywords
real
image
time image
subject
marker
Prior art date
Application number
KR1020120118674A
Other languages
English (en)
Other versions
KR20140052524A (ko
Inventor
박동렬
김형주
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120118674A priority Critical patent/KR101993384B1/ko
Priority to US13/861,778 priority patent/US9437003B2/en
Publication of KR20140052524A publication Critical patent/KR20140052524A/ko
Application granted granted Critical
Publication of KR101993384B1 publication Critical patent/KR101993384B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)

Abstract

본 발명의 일 측면에 따른 환자의 자세 변화에 따른 의료 영상을 보정하는 방법은 피검자에 마커(marker)를 부착하고, 상기 피검자가 제 1 자세를 취한 상태에서 제 1 비 실시간 영상 및 제 1 실시간 영상을 생성하고, 상기 피검자가 제 2 자세를 취한 상태에서 제 2 실시간 영상을 생성하여, 상기 제 1 자세에서 상기 제 2 자세로 변경됨에 따라 상기 마커가 이동한 정보를 반영하여 상기 제 1 비 실시간 영상을 보정한다.

Description

환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템 {Method, Apparatus and system for correcting medical image by patient's pose variation}
환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템이 개시된다.
최근에는 외과 수술시 환자의 외상을 줄이고 회복을 빠르게 하기 위하여 복강경(laparoscope) 수술을 실시하는 경우가 많다. 또한, 전립선, 갑상선 등 좁은 영역을 갖는 조직에 대한 외과 수술시 수술용 로봇을 사용하는 경우도 점차 많아지고 있다. 수술용 로봇을 사용한 수술은 기존의 복강경 수술과 달리 3차원 스테레오 내시경(3D stereo endoscope)을 사용하기 때문에 의사에게 거리 감각을 부여하고, 이 영상을 확대하여 수술 부위를 자세히 볼 수 있다. 또한, 로봇을 통한 집도가 실시되므로 의사의 손 떨림에 의한 실수가 방지되고, 미세한 움직임에 대한 제어가 가능하게 되었다. 그러나 로봇 수술은 개복 수술과 달리, 의사가 환자의 몸 속 수술 부위를 직접 눈으로 볼 수 없고 모니터에 표시된 화면만을 통해 수술 부위를 파악할 수 있다. 로봇 수술을 집도하는 의사는 수술 전 CT(computed tomography), MRI (magnetic resonance imaging), 초음파 영상 등을 통해 수술 부위를 파악하여 수술하였으나, 이는 의사의 경험에 많이 의존하게 된다는 한계가 있다. 또한, 수술 부위에 대하여 복강경과 같은 내시경만으로 획득할 수 있는 영상은 몸 속 장기 조직의 외부 표면에 대한 영상들뿐이므로, 수술 부위가 장기에 가려져 보이지 않는 경우, 또는 수술 부위가 장기 내부인 경우 등에는 수술 부위에 대한 정확한 위치, 형태 등을 정확하게 파악하기 어렵다.
환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템을 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
본 발명의 일 측면에 따른 환자의 자세 변화에 따른 의료 영상을 보정하는 방법은 피검자에 마커(marker)를 부착하고, 상기 피검자가 제 1 자세를 취한 상태에서 상기 마커를 부착한 위치를 포함하는 주변 부위에 대한 상기 피검자의 해부학적 정보가 포함된 제 1 비 실시간 영상 및 제 1 실시간 영상을 생성하는 단계; 상기 피검자가 제 2 자세를 취한 상태에서 상기 주변 부위에 대한 상기 피검자의 제 2 실시간 영상을 생성하는 단계; 상기 제 1 실시간 영상 및 제 2 실시간 영상을 이용하여 상기 제 1 자세에서 상기 제 2 자세로 변경됨에 따라 상기 마커가 이동한 정보를 획득하는 단계; 및 상기 마커의 이동 정보를 반영하여 상기 제 1 비 실시간 영상을 보정하는 단계;를 포함한다.
본 발명의 다른 측면에 따라 상기된 환자의 자세 변화에 따른 의료 영상을 보정하는 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공된다.
본 발명의 또 다른 측면에 따른 환자의 자세 변화에 따른 의료 영상을 보정하는 장치는 마커(marker)를 부착한 피검자가 제 1 자세를 취한 상태에서 상기 마커를 부착한 위치를 포함하는 주변 부위에 대한 상기 피검자의 해부학적 정보가 포함된 제 1 비 실시간 영상을 생성하는 제 1 영상 생성부; 상기 피검자가 제 1 자세를 취한 상태에서 상기 주변 부위에 대한 상기 피검자의 해부학적 정보가 포함된 제 1 실시간 영상을 생성하는 제 2 영상 생성부; 상기 피검자가 제 2 자세를 취한 상태에서 상기 주변 부위에 대한 상기 피검자의 제 2 실시간 영상을 생성하는 제 3 영상 생성부; 상기 제 1 실시간 영상 및 제 2 실시간 영상을 이용하여 상기 제 1 자세에서 상기 제 2 자세로 변경됨에 따라 상기 마커가 이동한 정보를 획득하는 이동 정보 획득부; 및 상기 마커의 이동 정보를 반영하여 상기 제 1 비 실시간 영상을 보정하는 영상 보정부;를 포함한다.
본 발명의 또 다른 측면에 따른 환자의 자세 변화에 따른 의료 영상을 보정하는 시스템은 마커(marker)를 부착한 피검자의 해부학적 정보가 포함된 제 1 비 실시간 영상, 제 1 내지 제 3 실시간 영상을 생성하는 하나 이상의 촬상 장치; 상기 촬상 장치로부터 생성된 상기 피검자의 제 1 실시간 영상 및 제 2 실시간 영상을 이용하여 상기 마커의 이동 정보를 획득하고, 상기 마커의 이동 정보를 반영하여 제 1 비 실시간 영상을 보정하는 영상 처리 장치;를 포함한다.
본 발명의 또 다른 측면에 따른 촬상 장치로부터 피사체까지의 거리를 측정하는 방법은 피사체를 포함하는 두 개 이상의 영상들을 획득하는 단계; 상기 영상들을 기초로 삼각 측량(tiangulation)을 수행하여 상기 촬상 장치로부터 상기 피사체까지의 제 1 거리를 계산하는 단계; 상기 렌즈들의 캘리브레이션(calibration) 및 상기 영상들의 교정(rectification)을 수행한 후 상기 촬상 장치로부터 상기 피사체까지의 제 2 거리를 계산하는 단계; 상기 제 1 거리 및 제 2 거리를 이용하여, 상기 제 2 거리와 상기 촬상 장치로부터 상기 피사체까지의 실제 거리 간의 차이를 보정(compensation)하는 단계;를 포함한다.
상기된 바에 따르면, 마커(marker)를 이용하여 진단 영상을 수술 영상에 중첩할 때에 환자의 자세 변화로 인한 피부의 이동을 보상하여 정확한 영상을 제공할 수 있다. 또한, 로봇에 의하여 간단한 수술 동작을 수행할 경우 로봇을 제어할 수 있는 영상 정보를 제공할 수 있다.
또한, 촬상 장치에서 생성한 영상을 이용하여, 촬상 장치로부터 피사체까지의 거리를 정확하게 측정할 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상 보정 시스템의 사용 환경의 일 예를 도시한 도면이다.
도 2 는 본 발명의 일 실시예에 따른 마커의 일 예를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 피검자의 자세가 제 1 자세에서 제 2 자세로 변경됨에 따라 마커가 이동한 일 예를 도시한 도면이다.
도 4a 내지 4b는 본 발명의 일 실시예에 따른 제 1 위치 관계 특정부 및 제 2 위치 관계 특정부가 동작하는 일 예를 도시한 도면이다.
도 5a는 제 1 위치 관계 특정부가 제 1 실시간 영상 상에서 지점과 마커의 위치를 좌표로 표현하는 과정의 일 예를 도시한 도면이다.
도 5b는 본 발명의 일 실시예에 따른 이동량 및 이동 방향 산출부가 동작하는 일 예를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 영상 보정 시스템의 다른 예를 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 영상 보정 시스템의 사용 환경의 다른 예를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 영상 처리 장치에서 영상을 보정하는 일 예를 나타내는 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 영상 처리 장치에서 영상을 보정하는 다른 예를 나타내는 흐름도이다.
도 10a 내지 도 10b는 보정 패턴 및 위치 측정 장치의 지시자의 일 예를 도시한 도면이다.
도 11은 삼각측량 방식의 일 예를 도시한 도면이다.
도 12는 보정 패턴에 대한 영상을 이용하여 제 4 촬상 장치를 캘리브레이션 하는 일 예를 도시한 도면이다.
도 13은 제 4 촬상 장치가 캘리브레이션과 교정을 수행한 후, 제 4 촬상 장치에 포함된 좌측 및 우측 카메라의 x 좌표가 가로 방향으로 일치된 결과를 도시한 도면이다.
도 14는 위치 측정 장치 및 제 4 촬상 장치의 일 예를 도시한 도면이다.
이하에서는 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 영상 보정 시스템(1)의 일 예를 도시한 도면이다.
도 1 을 참조하면, 영상 보정 시스템(1)은 촬상 장치(10) 및 영상 처리 장치(20)를 포함할 수 있다. 또한, 영상 처리 장치(20)는 영상 생성부(210), 이동 정보 획득부(220) 및 영상 보정부(230)를 포함할 수 있다.
도 1에 도시된 영상 보정 시스템(1)에는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
또한, 도 1에 도시된 영상 처리 장치(20)의 영상 생성부(210), 이동 정보 획득부(220) 및 영상 보정부(230)는 하나 또는 복수 개의 프로세서에 해당할 수 있다. 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
먼저, 사용자는 피검자에 마커(marker)(60)를 부착한다. 그리고 영상 생성부(210)는 피검자가 제 1 자세(40)를 취한 상태에서 마커(60)를 부착한 위치를 포함하는 주변 부위에 대한 피검자의 해부학적 정보가 포함된 제 1 비 실시간 영상 및 제 1 실시간 영상을 생성한다. 또한, 영상 생성부(210)는 피검자가 제 2 자세(50)를 취한 상태에서 주변 부위에 대한 피검자의 제 2 실시간 영상을 생성한다.
여기에서 주변 부위는 마커(60)를 부착한 위치를 포함한 그 주변의 부위를 의미한다. 예를 들어, 피검자가 전립선 제거 수술을 받는다면, 주변 부위는 피검자의 전립선을 포함하는 그 주변의 부위를 의미할 수 있다.
여기에서 제 1 자세(40)는 제 1 비 실시간 영상 및 제 1 실시간 영상을 얻기 위하여 피검자가 취하는 자세로서, 예를 들어 피검자가 수술을 받기 전에 취하고 있는 자세가 될 수 있다. 또한, 제 2 자세(50)는 제 2 실시간 영상을 얻기 위하여 피검자가 취하는 자세로서, 예를 들어 피검자가 수술을 받기 위하여 제 1 자세에서 변경한 자세가 될 수 있다. 구체적으로, 사용자가 피검자의 전립선 제거 수술을 수행할 경우, 영상 보정 시스템(1)은 피검자의 자세를 제 1 자세(40)로 하여 제 1 비 실시간 영상을 생성하고, 피검자의 자세를 제 2 자세(50)로 변경하여 제 1 실시간 영상 및 제 2 실시간 영상을 생성할 수 있다.
마커(60)는 제 1 비 실시간 영상, 제 1 실시간 영상 및 제 2 실시간 영상들에서 식별 가능하고, 피검자의 외부에서도 식별 가능한 부분을 포함할 수 있다.
도 2 는 본 발명의 일 실시예에 따른 마커(60)의 일 예를 도시한 도면이다.
마커(60)는 제 1 비 실시간 영상, 제 1 실시간 영상 및 제 2 실시간 영상들에서 식별할 수 있도록, 상기 영상들에서 투명한(transparent) 부분(62) 및 불투명한(opaque) 부분(61)이 포함될 수 있다. 구체적으로, 마커(60)에 상기 투명한 부분(62) 및 불투명한 부분(61)이 포함됨에 따라, 상기 영상들에서 마커(60)의 형상이 나타날 수 있다. 또한, 마커(60)는 피검자의 외부에서도 식별 가능할 수 있다. 구체적으로, 사용자 등이 피검자에 마커(60)를 부착하고 난 후, 사용자의 외부에서도 마커(60)의 형상을 식별 가능한 부분이 포함될 수 있다.
도 2 에서 마커(60)는 원형으로 도시되어 있으나, 마커(60)가 영상들 및 피검자의 외부에서 식별 가능한 부분을 포함한다면, 원형에 한정되지 않는다.
또한, 본 발명의 일 실시예에서 마커(60)는 피검자의 피부(skin) 상에 부착될 수 있다. 예를 들어, 수술 전 얻은 진단 영상(pre-operative image)을 수술 시에 다른 스크린이나 내시경 화면의 일부에 표시하여 진단 영상 정보를 이용하는 경우에, 피검자의 자세 변화로 인하여 수술 시의 시점(viewpoint)과 진단 영상의 시점이 일치하지 않을 수 있다. 이러한 경우에 사용자가 임의로 진단 영상과 현재 보이는 수술 영상의 정보를 정합하게 되고, 따라서 정합의 정확도는 사용자의 경험에 의하여 좌우되는 경우가 많다.
최근에, 두뇌에 대한 신경외과 수술의 경우 피검자의 두개골에 마커를 부착하고(bone-implanted marker), 이 마커를 부착한 채로 CT(computed tomography)나 MR(magnetic resonance) 영상을 획득하고, 수술시에는 이 마커를 카메라 등의 실시간 마커 검출 시스템을 사용하여 수술 시 사용자의 화면에 표시하는 방법이 제안되었다. 그러나 이러한 방법은 피검자의 뼈에 마커를 부착함으로써 피검자에게 많은 불편을 주며, 시간이 많이 소요되고, 감염의 위험이 있고, 흉터가 남을 수 있으며, 상처 회복에 드는 시간이 증가할 수 있다.
그러나 본 발명에서는 마커(60)를 피검자의 피부 상에 부착함에 따라, 피검자의 신체를 상하게 하지 않고, 피검자의 자세 변화에 따른 영상들 간의 시점 변화를 보상(compensation)할 수 있다.
다시 도 1을 참조하면, 영상 생성부(210)는 피검자가 제 1 자세(40)를 취한 상태에서 제 1 비 실시간 영상 및 제 1 실시간 영상을 생성하고, 영상 생성부(210)는 피검자가 제 2 자세(50)를 취한 상태에서 제 2 실시간 영상을 생성한다.
여기에서, 제 1 비 실시간 영상, 제 1 실시간 영상 및 제 2 실시간 영상은 도 1에 도시한 바와 같이 촬상 장치(10)를 통하여 생성될 수도 있다. 예를 들어, 도 1은 영상 생성부(210)와 촬상 장치(10)를 분리하여 도시하였으나, 촬상 장치(10)와 영상 생성부(210)가 하나의 구성으로 동작할 수도 있다. 촬상 장치(10)와 영상 생성부(210)가 분리된 경우에는, 촬상 장치(10)가 마커(60)를 부착한 위치를 포함하는 주변 부위에 대한 피검자의 해부학적 정보를 얻고, 이를 전기적 신호 등으로 변환하여 영상 생성부(210)로 전송하면, 영상 생성부(210)가 수신한 전기적 신호 등을 변환하여 제 1 비 실시간 영상, 제 1 실시간 영상 및 제 2 실시간 영상을 얻을 수 있다.
또한, 촬상 장치(10)는 하나의 장치로 동작할 수 있으나, 제 1 비 실시간 영상, 제 1 실시간 영상 및 제 2 실시간 영상 각각에 대응하여 제 1 촬상 장치(11), 제 2 촬상 장치(12) 및 제 3 촬상 장치(13)로 구성되어 동작할 수도 있다. 또한, 영상 생성부(210)도 하나의 장치로 동작할 수 있으나, 제 1 비 실시간 영상, 제 1 실시간 영상 및 제 2 실시간 영상 각각에 대응하여 제 1 영상 생성부(211), 제 2 영상 생성부(212) 및 제 3 영상 생성부(213)로 구성되어 동작할 수도 있다.
여기에서 제 1 비 실시간 영상은 CT(computed tomography), MR(magnetic resonance), SPECT(single photon emission computed tomography), PET(positron emission tomography) 영상 중 어느 하나일 수 있다. 또한, 제 1 실시간 영상 및 제 2 실시간 영상은 초음파(ultrasound), PAT(photoacoustic tomography), X-ray 영상 중 어느 하나일 수 있다.
제 1 비 실시간 영상, 제 1 실시간 영상 및 제 2 실시간 영상은 그 영상을 촬영하는 촬상 장치(10)의 종류에 따라 2D(2-dimensional) 영상일 수도 있고, 3D(3-dimensional) 영상일 수도 있다. 만약, 영상 생성부(210)가 생성한 영상이 복수의 2D 영상들인 경우, 영상 생성부(210)는 볼륨 렌더링(volume rendering) 등의 이미 알려진 방법들을 통해 2D 영상들을 3D 영상으로 생성할 수 있다.
이동 정보 획득부(220)는 제 1 실시간 영상 및 제 2 실시간 영상을 이용하여 제 1 자세(40)에서 제 2 자세(50)로 변경됨에 따라 마커(60)가 이동한 정보를 획득한다. 예를 들어, 이동 정보 획득부(220)는 영상 생성부(210)로부터 제 1 실시간 영상 및 제 2 실시간 영상을 전송받고, 제 1 실시간 영상 및 제 2 실시간 영상을 이용하여 마커(60)가 이동한 정보를 획득할 수 있다. 여기에서 마커(60)가 이동한 정보는 마커(60)가 이동한 방향 및 이동량을 의미한다.
도 3은 본 발명의 일 실시예에 따른 피검자의 자세가 제 1 자세(도 1의 40)에서 제 2 자세(도 1의 50)로 변경됨에 따라 마커(도 1의 60)가 이동한 일 예를 도시한 도면이다.
피검자의 피부 상에 부착한 마커(도 1의 60)는 피검자의 자세가 변경됨에 이동할 수 있다. 예를 들어, 도 1에 도시된 바와 같이 피검자의 자세가 제 1 자세(도 1의 40)에서 제 2 자세(도 1의 50)로 변경되면, 중력 등의 외부에서 작용하는 힘에 의하여 피부의 위치가 변경될 수 있고, 이에 대응하여 마커(도 1의 60)도 이동할 수 있다.
구체적으로, 피검자가 제 1 자세(도 1의 40)를 취하고 있을 때 마커(도 1의 60)가 식별번호 310에 위치하고 있다면, 피검자의 자세가 제 2 자세(도 1의 50)로 변경될 경우 마커(도 1의 60)는 중력 등의 외부에서 작용하는 힘에 의하여 식별번호 320과 같이 이동할 수 있다. 여기에서 마커(도 1의 60)가 식별번호 310에서 320으로 이동하는 것으로 설명하였으나, 이에 한정되지 않는다. 또한, 도 3에서 마커(도 1의 60)의 개수를 3개로 도시하였으나, 이에 한정되지 않는다.
다시 도 1을 참조하면, 이동 정보 획득부(220)는 제 1 위치 관계 특정부(221), 제 2 위치 관계 특정부(222) 및 이동량 및 이동 방향 산출부(223)를 포함할 수 있다. 이동 정보 획득부(220)의 제 1 위치 관계 특정부(221), 제 2 위치 관계 특정부(222) 및 이동량 및 이동 방향 산출부(223)는 하나 또는 복수 개의 프로세서에 해당할 수 있다. 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
제 1 위치 관계 특정부(221)는 제 1 실시간 영상에 포함된 데이터들에서 측정한 값이 임계치를 초과하는 지점을 결정하고, 결정된 지점과 마커(60) 간의 제 1 위치 관계를 특정한다. 여기에서 데이터들은 제 1 실시간 영상을 구성하는 픽셀(pixel)들의 밝기(brightness) 정도 또는 제 1 실시간 영상에 포함된 조직의 강도(stiffness)를 의미할 수 있으나, 이에 한정되지 않는다.
예를 들어, 제 1 실시간 영상이 탄성 초음파(Ultrasound Elastography) 영상인 경우, 제 1 실시간 영상에 포함된 데이터들에서 측정한 값은 제 1 실시간 영상에 포함된 조직의 강도(stiffness)를 나타내는 값을 의미할 수도 있다.
또는, 제 1 실시간 영상이 초음파 영상인 경우, 초음파의 특성상 초음파가 장기의 표면 조직에 대해서 높은 에코발생도(high echogenicity)를 갖는 성질을 이용하여 제 1 실시간 영상에 포함된 데이터들에서 상기 값을 측정할 수 있다. 구체적으로, 제 1 위치 관계 특정부(221)는 특정 장기의 표면 조직이 초음파 영상에서 상대적으로 밝은 선으로 나타나는 성질을 이용함으로써 밝기 값이 임계치를 초과하는 지점을 결정할 수 있다. 여기에서 임계치는 피검자의 의료 영상 상에서 사용자, 예를 들어 의료 전문가가 직접 결정할 수도 있고, 제 1 위치 관계 특정부(221)에서 사용자의 개입 없이 자동으로 결정될 수도 있다.
밝기 값이 임계치를 초과하는 지점은 제 1 실시간 영상에 포함된 체내 조직들 중에서 피검자의 자세 변화에 무관하게 고정된 위치를 갖는 조직에서 선택한 지점을 의미할 수 있다. 예를 들어, 뼈나 혈관과 같은 조직은 피검자의 자세 변화에 무관하게 고정된 위치를 갖는다. 구체적으로, 제 1 실시간 영상과 제 2 실시간 영상 상에서 뼈나 혈관과 같은 조직은 피검자의 자세 변화에 상관없이 고정된 위치로 나타날 수 있다. 예를 들어, 제 1 위치 관계 특정부(221)는 제 1 실시간 영상에서 밝기 값이 임계치를 초과하고 피검자의 자세 변화에 무관하게 고정된 위치를 갖는 뼈 조직 중 한 지점을 결정할 수 있다.
제 2 위치 관계 특정부(222)는 제 2 실시간 영상 상에서 제 1 실시간 영상에서 결정한 지점과 대응되는 지점을 선택하고, 선택된 지점과 마커(60)간의 제 2 위치 관계를 특정한다.
앞에서 설명한 바와 같이, 제 1 위치 관계 특정부(221)가 결정한 지점은 피검자의 자세 변화에 상관없이 고정된 위치를 갖는 조직에서 선택한 지점이므로, 제 2 위치 관계 특정부(222)에서 선택한 지점도 피검자의 자세 변화에 상관없이 고정된 위치를 갖는 조직의 지점에 해당한다.
또한, 제 1 위치 관계 특정부(221) 또는 제 2 위치 관계 특정부(222)가 결정한 지점은, 제 1 위치 관계 특정부(221) 또는 제 2 위치 관계 특정부(222)가 제 1 실시간 영상 또는 제 2 실시간 영상 상에서 고정된 위치를 갖는 조직의 외곽면을 분리(segmentation)하고, 분리된 외곽면에서 선택한 지점이 될 수 있다. 여기에서 고정된 위치는 피검자의 자세 변화에 상관없이 고정된 위치를 의미한다.
도 4a 내지 4b는 본 발명의 일 실시예에 따른 제 1 위치 관계 특정부(도 1의 221) 및 제 2 위치 관계 특정부(도 1의 222)가 동작하는 일 예를 도시한 도면이다.
도 4a를 참조하면, 제 1 위치 관계 특정부(도 1의 221)가 제 1 실시간 영상에서 조직의 외곽면을 분리하는 과정이 도시되어 있다. 제 1 실시간 영상은 마커(440)를 부착한 위치 및 그 주변 부위(450)를 포함할 수 있다. 여기에서 주변 부위(450)에는 피검자의 골반 뼈(420a)가 포함되어 있다고 가정한다. 제 1 위치 관계 특정부(221)는 제 1 실시간 영상 상에서 피검자의 골반 뼈(420a) 조직을 선택하고, 그 골반 뼈(420a) 조직의 외곽면(420b)을 분리할 수 있다. 여기에서 제 1 실시간 영상이 초음파 영상인 경우, 제 1 위치 관계 특정부(221)는 골반 뼈(420a)의 표면 조직이 초음파 영상에서 상대적으로 밝은 선으로 나타나는 성질을 이용함으로써 골반 뼈(420a) 조직의 외곽면(420b)을 분리할 수 있다.
그리고 제 1 위치 관계 특정부(도 1의 221)는 분리된 골반 뼈(420a) 조직의 외곽면(420b) 상의 한 지점을 선택한다.
도 4b를 참조하면, 제 2 위치 관계 특정부(도 1의 222)가 제 2 실시간 영상에서 조직의 외곽면을 분리하는 과정이 도시되어 있다. 제 2 실시간 영상은 피검자가 제 2 자세를 취한 상태에서 생성된 영상으로서, 제 1 실시간 영상과 비교하여 마커의 위치가 다르다. 예를 들어, 제 1 실시간 영상에서의 마커의 위치를 식별번호 410이라고 한다면, 제 2 실시간 영상에서의 마커의 위치는 식별번호 430으로서 서로 동일하지 않을 수 있다. 제 2 위치 관계 특정부(도 1의 222)는, 제 1 위치 관계 특정부(도 1의 221)가 외곽면을 분리한 조직(예를 들어, 골반 뼈 조직)과 대응되는 조직(460a)을 제 2 실시간 영상에서 선택하고, 그 선택된 조직(460a)의 외곽면(460b)을 분리한다. 여기에서 제 2 위치 관계 특정부(도 1의 222)가 조직(460a)의 외곽면(460b)을 분리하는 과정은 제 1 위치 관계 특정부(도 1의 221)가 조직의 외곽면을 분리하는 과정과 같다.
그리고 제 2 위치 관계 특정부(도 1의 222)는, 제 1 위치 관계 특정부가 선택한 지점과 대응되는 지점을 제 2 실시간 영상 상에서 선택한다.
다시 도 1을 참조하면, 제 1 위치 관계 특정부(221)는 제 1 실시간 영상에서 결정된 지점과 마커(60) 간의 제 1 위치 관계를 특정한다. 예를 들어, 제 1 위치 관계 특정부(221)는 제 1 실시간 영상 상에서 지점과 마커의 위치를 좌표로 표현하는 방식으로 제 1 위치 관계를 특정할 수 있다.
또한, 제 2 위치 관계 특정부(222)는 제 2 실시간 영상에서 결정된 지점과 마커(60)간의 제 2 위치 관계를 특정한다. 예를 들어, 제 2 위치 관계 특정부(222)는 제 2 실시간 영상 상에서 지점과 마커의 위치를 좌표로 표현하는 방식으로 제 2 위치 관계를 특정할 수 있다.
도 5a는 제 1 위치 관계 특정부(도 1의 221)가 제 1 실시간 영상 상에서 지점과 마커의 위치를 좌표로 표현하는 과정의 일 예를 도시한 도면이다.
제 1 위치 관계 특정부(도 1의 221)는 제 1 실시간 영상에서 임의의 지점을 원점으로 하는 좌표축을 설정한다. 그 후, 제 1 위치 관계 특정부(도 1의 221)는 원점을 기준으로 앞에서 결정한 지점(520) 및 마커의 중심(510)에 해당하는 지점에 대한 좌표를 계산한다. 예를 들어, 제 1 실시간 영상이 3D 영상이라고 한다면, 제 1 위치 관계 특정부(도 1의 221)는 앞에서 결정한 지점(520)의 좌표를 P(x0, y0, z0), 마커의 중심(510)에 해당하는 지점의 좌표를 M1(x1, y1, z1)로 계산할 수 있다. 그리고, 제 1 위치 관계 특정부(도 1의 221)는 P(x0, y0, z0)와 M1(x1, y1, z1) 사이의 벡터
Figure 112012086921126-pat00001
를 계산하는 방식으로 제 1 위치 관계를 특정할 수 있다. 그러나, 앞에서 결정한 지점(520) 및 마커의 중심(510)에 해당하는 지점 간의 위치 관계를 나타낼 수 있다면, 벡터를 계산하는 방식에 한정되지 않는다.
제 2 위치 관계 특정부(도 1의 222)도 제 1 위치 관계 특정부(도 1의 221)와 동일한 방식으로 제 2 실시간 영상에서 결정한 지점 및 마커의 중심에 해당하는 지점의 좌표를 결정할 수 있다. 구체적으로, 제 2 위치 관계 특정부(도 1의 222)는 제 1 위치 관계 특정부(도 1의 221)가 설정한 원점 및 좌표축과 대응되는 원점과 좌표축을 기준으로, 제 2 실시간 영상에서 결정한 지점 및 마커의 중심에 해당하는 지점의 좌표를 계산한다. 예를 들어, 제 2 실시간 영상이 3D 영상이라고 한다면, 제 2 위치 관계 특정부는 앞에서 결정한 지점의 좌표를 P(x0, y0, z0), 마커의 중심에 해당하는 지점의 좌표를 M2(x2, y2, z2)로 계산할 수 있다. 그리고, 제 2 위치 관계 특정부(222)는 P(x0, y0, z0)와 M2(x2, y2, z2) 사이의 벡터
Figure 112012086921126-pat00002
를 계산하는 방식으로 제 2 위치 관계를 특정할 수 있다. 그러나, 앞에서 결정한 지점 및 마커의 중심에 해당하는 지점 간의 위치 관계를 나타낸다면, 벡터를 계산하는 방식에 한정되지 않는다.
다시 도 1을 참조하면, 이동량 및 이동 방향 산출부(223)는 제 1 위치 관계 및 제 2 위치 관계를 이용하여 피검자가 자세를 변경함에 따라 마커가 이동한 방향 및 이동량을 산출한다. 예를 들어, 이동량 및 이동 방향 산출부(223)는 제 1 위치 관계 특정부(221) 및 제 2 위치 관계 특정부(222)로부터 제 1 위치 관계 및 제 2 위치 관계에 관한 정보를 전송받아, 마커가 이동한 정보 마커가 이동한 방향 및 이동량을 산출한다.
도 5b는 본 발명의 일 실시예에 따른 이동량 및 이동 방향 산출부(도 1의 223)가 동작하는 일 예를 도시한 도면이다.
예를 들어, 이동량 및 이동 방향 산출부(도 1의 223)는 제 1 위치 관계 특정부(도 1의 221)가 계산한 제 1 위치 관계
Figure 112012086921126-pat00003
(540) 및 제 2 위치 관계 특정부(도 1의 222)가 계산한 제 2 위치 관계
Figure 112012086921126-pat00004
(530)를 전송받아, 양 벡터에 기초하여 마커가 이동(즉, 식별번호 560에서 식별번호 550으로 이동)한 이동 방향 및 이동량을 산출할 수 있다.
다시 도 1을 참조하면, 영상 보정부(230)는 마커의 이동 정보를 반영하여 제 1 비 실시간 영상을 보정한다. 예를 들어, 영상 보정부(230)는 이동 정보 획득부(220)로부터 전송받은 마커의 이동 정보(즉, 마커의 이동 방향 및 이동량)를 반영하여, 제 1 비 실시간 영상을 보정한다. 여기에서 제 1 비 실시간 영상을 보정하는 것은 제 1 비 실시간 영상에 나타난 마커(60)를 포함하는 주변 부위에 대한 해부학적 정보를 피검자가 제 2 자세를 취한 상태에서의 해부학적 정보를 나타낼 수 있도록 보정하는 것을 의미한다. 여기에서 해부학적 정보는 체내 조직들의 구성 뿐 만 아니라, 조직들이 이동한 방향 및 이동량을 포함하는 정보를 의미한다.
피검자가 자세를 변경함에 따라, 중력 등 외부에서 작용하는 힘에 의하여 체내 조직들의 위치도 이동할 수 있다. 구체적으로, 피검자의 자세 변화에 무관하게 고정된 위치를 갖는 뼈나 혈관과 같은 조직을 제외하고, 나머지 연조직(soft tissue)들은 피검자의 자세 변경에 따라 어느 정도 이동이 가능하다. 따라서, 영상 보정부(230)는 피검자의 피부에 부착한 마커(60)의 이동 정보, 즉 마커(60)의 이동 방향 및 이동량에 대응하여 체내 조직들이 이동한 방향 및 이동량을 산출하고, 이를 기초로 제 1 비 실시간 영상을 보정한다.
또한, 영상 보정부(230)는 평가부를 더 포함할 수 있고, 평가부는 제 1 비 실시간 영상이 정확하게 보정되었는지 여부를 판단할 수 있다. 예를 들어, 평가부는 보정된 제 1 비 실시간 영상 및 제 1 비 실시간 영상에 다수의 포인트들을 설정하고, 상기 보정된 제 1 비 실시간 영상 및 제 1 비 실시간 영상에서 서로 대응되는 위치에 설정된 포인트 간의 거리를 측정하여 소정의 오차 값 이하에 해당되는지를 판단할 수 있다. 여기에서 소정의 오차 값은 사용자가 설정한 값일 수도 있고, 평가부에서 사용자의 개입 없이 자동적으로 설정한 값일 수도 있다. 평가부가 상기 포인트 간의 거리가 소정의 오차 값을 초과한다고 판단한 경우, 영상 처리 장치(20)를 구성하는 각 유닛(unit)들은 상기 동작들을 다시 수행한다.
영상 보정부(230)가 제 1 비 실시간 영상을 보정함에 따라, 또 다른 영상의 생성 없이 피검자가 제 2 자세를 취한 상태에서의 체내 조직들의 위치를 나타내는 영상을 획득할 수 있다. 이에 따라, 피검자의 체내 조직들의 해부학적 정보를 나타내는 영상(예를 들어, CT 또는 MR 영상)을 얻기 위하여 피검자가 취하는 자세와 수술시 피검자가 취하는 자세가 다르더라도, 영상 보정부(230)는 피검자의 피부 및 체내 조직들의 이동을 보상하여 정확한 진단 영상을 획득할 수 있다.
도 6은 본 발명의 일 실시예에 따른 영상 보정 시스템(1)의 다른 예를 도시한 도면이다.
영상 보정 시스템(1)은 촬상 장치(10) 및 영상 처리 장치(20)를 포함할 수 있고, 영상 처리 장치(20)는 영상 생성부(210), 이동 정보 획득부(220), 영상 보정부(230) 및 영상 중첩부(240)를 포함할 수 있다.
도 6에 도시된 영상 보정 시스템(1)에는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 6에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
또한, 도 6에 도시된 영상 처리 장치(20)의 영상 생성부(210), 이동 정보 획득부(220), 영상 보정부(230) 및 영상 중첩부(240)는 하나 또는 복수 개의 프로세서에 해당할 수 있다. 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
또한, 도 6에 도시된 영상 처리 장치(20)의 이동 정보 획득부(220) 및 영상 보정부(230)의 동작은 전술한 바와 같다.
영상 생성부(210)는 피검자가 제 2 자세를 취한 상태에서 피검자의 주변 부위를 나타내는 영상인 제 3 실시간 영상을 생성한다. 예를 들어, 영상 생성부(210)를 구성하는 제 4 영상 생성부(214)는 피검자가 제 2 자세를 취한 상태에서 피검자의 체내에 삽입한 촬상 장치(10)를 이용하여 피검자의 주변 부위에 대한 해부학적 정보가 포함된 제 3 실시간 영상을 생성할 수 있다.
여기에서 촬상 장치(10)는 피검자의 체내에 삽입한 촬상 장치로서, 도 6에 도시된 바와 같이 제 1 비 실시간 영상, 제 1 실시간 영상 및 제 2 실시간 영상을 생성하는 촬상 장치들과 구별되는 제 4 촬상 장치(14)일 수 있다. 구체적으로, 제 1 비 실시간 영상, 제 1 실시간 영상 및 제 2 실시간 영상을 각각 생성하는 제 1 촬상 장치(11), 제 2 촬상 장치(12) 및 제 3 촬상 장치(13)는 피검자의 체외에 구비된 촬상 장치이고, 제 3 실시간 영상을 생성하는 제 4 촬상 장치(14)는 피검자의 체내에 삽입한 촬상 장치일 수 있다. 제 4 촬상 장치(14)는 복강경(laparoscope) 장치와 같은 내시경 장치일 수 있으나, 이에 한정되지 않는다.
또한, 도 6은 영상 생성부(210)와 촬상 장치(10)를 분리하여 도시하였으나, 촬상 장치(10)와 영상 생성부(210)가 하나의 구성으로 동작할 수도 있음은 전술한 바와 같다.
영상 생성부(210)(구체적으로, 제 4 영상 생성부(214))는 생성한 제 3 실시간 영상을 영상 중첩부(240)로 전송한다.
영상 중첩부(240)는 촬상 장치(10)와 마커(60) 간의 제 3 위치 관계를 파악하고, 제 3 위치 관계를 이용하여 제 3 실시간 영상과 보정된 영상을 중첩한다. 여기에서 보정된 영상은 제 1 비 실시간 영상이 보정된 영상을 의미하고, 이는 영상 보정부(230)에서 전송받는다.
영상 중첩부(240)가 제 3 위치 관계를 파악하기 위하여, 영상 보정 시스템(1)에 별도의 위치 측정 장치가 구비될 수 있다. 이하, 영상 중첩부(240)가 제 3 위치 관계를 파악하는 일 예는 위치 측정 장치를 이용하는 것으로 설명하겠으나, 이에 한정되지 않는다.
도 14는 위치 측정 장치 및 제 4 촬상 장치의 일 예를 도시한 도면이다.
먼저, 영상 중첩부(도 6의 240)는 위치 측정 장치(1410)와 마커(도 6의 60) 간의 위치 관계를 파악한다. 그 후, 영상 중첩부(도 6의 240)는 위치 측정 장치(1410)와 제 4 촬상 장치(도 6의 14) 간의 위치 관계를 파악한다. 여기에서 위치 측정 장치(1410)와 제 4 촬상 장치(도 6의 14) 간의 위치 관계는 제 4 촬상 장치(도 6의 14)에 부착한 별도의 마커(1430)를 이용하여 파악할 수 있다. 여기에서 제 4 촬상 장치(도 6의 14)에 부착한 마커(1430)는 외부로부터 도달된 적외선을 반사할 수 있고, 직접 적외선을 방출할 수도 있다.
예를 들어, 위치 측정 장치(1410)가 방출한 적외선이 제 4 촬상 장치(도 6의 14)에 부착한 마커(1430)에 도달하면, 제 4 촬상 장치(도 6의 14)에 부착한 마커(1430)는 그 적외선을 반사할 수 있다. 영상 중첩부(도 6의 240)는 이렇게 반사된 적외선이 다시 위치 측정 장치(1410)에 도달한 시간 및 방향을 측정하여 위치 측정 장치(1410)와 제 4 촬상 장치(도 6의 14)간의 위치 관계를 파악할 수 있다. 또 다른 예로, 영상 중첩부(도 6의 240)는 제 4 촬상 장치(도 6의 14)에 부착한 마커(1430)가 직접 방출한 적외선이 위치 측정 장치(1410)에 도달한 시간 및 방향을 측정하여 위치 측정 장치(1410)와 제 4 촬상 장치(도 6의 14)간의 위치 관계를 파악할 수도 있다.
다시 도 6을 참조하면, 위에서 영상 중첩부(240)가 파악한 위치 측정 장치(도 14의 1410)와 제 4 촬상 장치(14) 간의 위치 관계는, 제 4 촬상 장치(14)에 구비된 렌즈와 제 4 촬상 장치(14)에 부착한 마커(도 14의 1430) 사이의 위치 관계는 파악되지 않는다. 엄밀하게 말하면, 제 4 촬상 장치(14)를 이용하여 생성하는 제 3 실시간 영상은 제 4 촬상 장치(14)에 구비된 렌즈를 통하여 생성된 영상이다. 따라서, 위치 측정 장치(도 14의 1410)와 제 4 촬상 장치(14)에 부착한 마커(도 14의 1430) 사이의 위치 관계만으로는 영상 중첩부(240)가 제 3 실시간 영상과 보정된 영상을 정확하게 중첩하기 어려울 수 있다. 따라서, 제 4 촬상 장치(14)에 부착한 마커(도 14의 1430)와 제 4 촬상 장치(14)의 렌즈 사이의 위치 관계를 파악하여야 한다.
이하에서, 제 4 촬상 장치(14)는 스테레오 복강경(stereo laparoscope) 장치인 것으로 설명하나, 이에 한정되지 않는다.
먼저, 위치 측정 장치(도 14의 1410)는 보정 패턴(pattern)을 이용하여 위치 측정 장치(도 14의 1410)로부터 보정 패턴까지의 3차원 거리를 계산한다. 또한, 제 4 촬상 장치(14)는 보정 패턴을 이용하여 제 4 촬상 장치(14)의 좌측 및 우측 렌즈로부터 보정 패턴까지의 3차원 거리를 계산한다.
도 10a 내지 도 10b는 보정 패턴 및 지시자의 일 예를 도시한 도면이다.
도 10a를 참조하면, 제 4 촬상 장치(도 6의 14)의 외부에 보정 패턴(1010)이 존재한다고 가정하면, 제 4 촬상 장치(도 6의 14)의 좌측 및 우측 렌즈 각각이 보정 패턴(1010)의 소정의 지점(1020)을 바라봄으로써, 제 4 촬상 장치(도 6의 14)는 제 4 촬상 장치(도 6의 14)의 좌측 및 우측 렌즈로부터 보정 패턴까지의 3차원 거리를 계산할 수 있다. 또한, 위치 측정 장치(도 14의 1410)는 위치 측정 장치(도 14의 1410)로부터 보정 패턴까지의 3차원 거리도 계산할 수 있다.
여기에서 소정의 지점(1020)은 보정 패턴을 구성하는 검은색 사각형(1030)과 흰색 사각형(1040)이 서로 교차하는 지점으로 설정될 수 있으나, 이에 한정되지 않는다. 또한, 사용자가 지시자(도 10b의 1050)를 이용하여 소정의 지점(1020)을 가리키는 지점이 소정의 지점(1020)이 될 수 있으나, 이에 한정되지 않는다.
위에서 설명한 방법으로 제 4 촬상 장치를 중심으로 한 좌표계에서 측정된 소정의 지점의 3차원 좌표 데이터와, 이에 대응하는 위치 측정 장치(도 14의 1410)를 중심으로 한 좌표계에서 측정된 3차원 좌표 데이터의 대응점들을(correspondences) 정의할 수 있다. 이 대응점들간의 rigid transformation은 이후 설명될 특이값 분해(SVD : Singular Value Decomposition) 방법(후술할, 수학식 8 내지 수학식 14)을 이용하여 구할 수 있다.
먼저, 는제 4 촬상 장치(도 6의 14)는 삼각측량(triangulation) 방식을 이용하여 제 4 촬상 장치(도 6의 14)의 좌측 및 우측 렌즈로부터 소정의 지점(1020)까지의 3차원 거리를 계산한다. 여기에서 3차원 거리는 소정의 지점(1020)의 위치 벡터를 의미할 수 있다. 삼각측량 방식의 구체적인 알고리즘은 당해 기술분야에 속한 통상의 지식을 가진 자에게 자명하므로, 이하 간략하게 설명한다.
도 11은 삼각측량 방식의 일 예를 도시한 도면이다.
도 11을 참조하면, 보정 패턴의 소정의 지점 P(1110), 제 4 촬상 장치(도 6의 14)의 좌측 렌즈를 이용하여 생성한 소정의 지점(도 10a의 1020)에 대한 좌측 영상(1120), 제 4 촬상 장치(도 6의 14)의 우측 렌즈를 이용하여 생성한 소정의 지점(도 10a의 1020)에 대한 우측 영상(1130), 좌측 렌즈의 중심(1140) 및 우측 렌즈의 중심(1150)이 도시되어 있다.
좌측 렌즈의 좌표축을 기준으로 한 P(1110)의 위치 벡터를
Figure 112012086921126-pat00005
라고 가정하고, 우측 렌즈의 좌표축을 기준으로 한 P(1110)의 위치 벡터를
Figure 112012086921126-pat00006
라고 가정하면, 상기 두 벡터 사이의 관계는 아래의 수학식 1과 같이 나타낼 수 있다.
Figure 112012086921126-pat00007
수학식 1에서, R은 로테이션 행렬(rotation matrix), T는 변환 벡터(translation vector)이다. R과 T는 우측 렌즈의 좌표를 좌측 렌즈의 좌표로 변환할 때 활용될 수 있다.
P(1110)가 좌측 영상(1120) 상에 나타난 벡터를
Figure 112012086921126-pat00008
라고 하고, P(1110)가 우측 영상(1130) 상에 나타난 벡터를
Figure 112012086921126-pat00009
라고 한다면, 삼각측량은
Figure 112012086921126-pat00010
Figure 112012086921126-pat00011
로부터
Figure 112012086921126-pat00012
Figure 112012086921126-pat00013
을 찾는 문제로 귀결된다. 따라서, 수학식 1은 아래의 수학식 2와 같이 나타낼 수 있다.
Figure 112012086921126-pat00014
수학식 2에서
Figure 112012086921126-pat00015
라고 가정하면, 수학식 2의 최소 제곱 해(least square solution)은 아래의 수학식 3과 같이 표현할 수 있다.
Figure 112012086921126-pat00016
위의 수학식 3을 이용하여, 제 4 촬상 장치(도 6의 14)는 P(1110)의 위치에 해당하는 좌표를 구할 수 있다.
다시 도 10a를 참조하면, 제 4 촬상 장치(도 6의 14)는 제 4 촬상 장치(도 6의 14)를 캘리브레이션(calibration)하고, 두 영상들을 교정(rectification)하여 제 4 촬상 장치(도 6의 14)의 좌측 및 우측 렌즈로부터 소정의 지점(1020)까지의 3차원 거리를 계산할 수 있다. 여기에서 3차원 거리는 소정의 지점(1020)의 위치 벡터를 의미할 수 있다. 여기에서 두 영상들은 제 4 촬상 장치(도 6의 14)의 좌측 렌즈를 이용하여 생성한 소정의 지점(1020)에 대한 좌측 영상, 제 4 촬상 장치(도 6의 14)의 우측 렌즈를 이용하여 생성한 소정의 지점(1020)에 대한 우측 영상을 의미한다.
도 12는 보정 패턴(도 10a의 1010)에 대한 영상을 이용하여 제 4 촬상 장치(도 6의 14)를 캘리브레이션 후 교정하는 일 예를 도시한 도면이다.
도 12를 참조하면, 위의 두 영상은 캘리브레이션과 교정을 수행하기 전의 제 4 촬상 장치(도 6의 14)의 좌측 렌즈를 이용하여 생성한 좌측 영상(1210) 및 제 4 촬상 장치(도 6의 14)의 우측 렌즈를 이용하여 생성한 우측 영상(1220)을 의미한다. 캘리브레이션과 교정을 수행하기 전에는, 두 영상(1210, 1220)에 포함된 교정 패턴(도 10a의 1010)이 소정의 기준선(1230)을 기준으로 대응되는 위치로 정렬되어 있지 않다.
아래의 두 영상은 캘리브레이션과 교정을 수행한 후의 좌측 영상(1240) 및 우측 영상(1250)을 의미한다. 캘리브레이션과 교정을 수행한 후에는, 두 영상(1240, 1250)에 포함된 교정 패턴(도 10a의 1010)이 소정의 기준선(1230)을 기준으로 대응되는 위치로 정렬되어 있다.
제 4 촬상 장치를 캘리브레이션 하는 구체적인 방식은 당해 기술 분야에서 통상의 지식을 가진 자에게 자명하므로, 이하 생략한다.
제 4 촬상 장치(도 6의 14)는 캘리브레이션을 수행한 후의 두 영상들을 교정(rectification)한다.
여기에서 교정은 제 4 촬상 장치(도 6의 14)의 좌측 렌즈의 좌표축 x 축 및 우측 렌즈의 좌표축의 x 축이 일치되도록 하는 과정이다. 예를 들어, 좌측 렌즈 중심을 원점으로 하는 좌표계를 고정하고 이를 기준으로 우측 렌즈의 중심을 원점으로 하는 좌표계가 좌측 렌즈 중심 좌표계에 상대적으로 얼마나 회전(rotation)되고 이동(translation)되어 있는지를 구하여 우측 렌즈 중심 좌표계를 변환(transformation)한다. 이렇게 변환하면 각 렌즈의 x 축이 일치하게 된다.
제 4 촬상 장치(도 6의 14)가 수행하는 교정의 구체적인 알고리즘은 당해 기술분야에 속한 통상의 지식을 가진 자에게 자명하므로, 이하 간략하게 설명한다.
도 13은 제 4 촬상 장치(도 6의 14)가 캘리브레이션과 교정을 수행한 후, 제 4 촬상 장치(도 6의 14)에 포함된 좌측 및 우측 카메라의 x 좌표가 가로 방향으로 일치된 결과를 도시한 도면이다.
제 4 촬상 장치(도 6의 14)의 좌측 렌즈의 중심점(1340)을 원점으로 한 좌표축(이하, '좌측 좌표축'이라고 함) 및 제 4 촬상 장치(도 6의 14)의 우측 렌즈의 중심점(1350)을 원점으로 한 좌표축(이하, '우측 좌표축'이라고 함)을 이용하여 보정 패턴(도 10a의 1010)의 소정의 지점 P(1310)에 대한 좌표 성분을 나타내면 아래의 수학식 4와 같다.
Figure 112012086921126-pat00017
위의 수학식 4에서,
Figure 112012086921126-pat00018
,
Figure 112012086921126-pat00019
,
Figure 112012086921126-pat00020
은 좌측 좌표축 상에서의 P(1310)의 좌표 성분을 의미하고,
Figure 112012086921126-pat00021
,
Figure 112012086921126-pat00022
,
Figure 112012086921126-pat00023
은 우측 좌표축 상에서의 P(1310)의 좌표 성분을 의미한다. 또한, f는 렌즈의 초점 길이(focal length)를 의미한다. 또한,
Figure 112012086921126-pat00024
Figure 112012086921126-pat00025
은 각각 제 4 촬상 장치(도 6의 14)의 좌측 렌즈로 촬영한 영상(1320)의 픽셀의 수평(horizontal) 성분과 수직(vertical) 성분을 의미한다. 또한,
Figure 112012086921126-pat00026
Figure 112012086921126-pat00027
은 각각 제 4 촬상 장치(도 6의 14)의 우측 렌즈로 촬영한 영상(1330)의 픽셀의 수평(horizontal) 성분과 수직(vertical) 성분을 의미한다.
제 4 촬상 장치(도 6의 14)의 좌측 렌즈로 촬영한 영상(1320)과 제 4 촬상 장치(도 6의 14)의 우측 렌즈로 촬영한 영상(1330)은 x축에 대하여 평행하므로, 좌측 좌표축의 x축 성분
Figure 112012086921126-pat00028
과 우측 좌표축의 x축 성분
Figure 112012086921126-pat00029
은 아래의 수학식 5와 같은 관계를 가진다.
Figure 112012086921126-pat00030
위의 수학식 5에서, b는 제 4 촬상 장치(도 6의 14)의 좌측 렌즈의 중심점(1340)과 제 4 촬상 장치(도 6의 14)의 우측 렌즈의 중심점(1350) 사이의 거리를 의미한다.
여기에서,
Figure 112012086921126-pat00031
Figure 112012086921126-pat00032
의 간격을 d로 정의하면(즉,
Figure 112012086921126-pat00033
),
Figure 112012086921126-pat00034
의 관계 및 수학식 5를 이용하여, 수학식 4를 아래의 수학식 6과 같이 나타낼 수 있다.
Figure 112012086921126-pat00035
위의 수학식 6의 z를 수학식 4에 대입하고, 제 4 촬상 장치(도 6의 14)의 좌측 렌즈의 중심점
Figure 112012086921126-pat00036
(1340)을 제 4 촬상 장치(도 6의 14)의 world coordinate의 중심으로 정의하면, P(1310)의 world coordinate 상의 좌표 성분(즉, X, Y, Z)은 아래의 수학식 7과 같이 표현할 수 있다.
Figure 112012086921126-pat00037
위의 수학식 7을 이용하여, 제 4 촬상 장치(도 6의 14)는 P(1310)의 위치에 해당하는 좌표를 구할 수 있다.
다시 도 10a를 참조하면, 제 4 촬상 장치(도 6의 14)가 삼각측량 방식을 이용하여(즉, 수학식 3을 이용하여) 계산한 소정의 지점(1020)의 좌표와 캘리브레이션 및 영상 교정(rectification)을 이용하여(즉, 수학식 7을 이용하여) 계산한 소정의 지점(1020)의 좌표는 오차가 발생할 수 있다. 구체적으로, 제 4 촬상 장치(도 6의 14)가 삼각측량 방식을 이용하여 소정의 지점(1020)의 좌표를 계산하는 경우, 소정의 지점(1020)의 정확한 위치를 나타내는 좌표를 계산할 수 있으나 처리 시간이 많이 소요된다. 한편, 제 4 촬상 장치(도 6의 14)가 캘리브레이션 및 영상 교정을 이용하여 소정의 지점(1020)의 좌표를 계산하는 경우, 처리 시간은 적게 소요되나 소정의 지점(1020)의 실제 위치와 다소의 오차가 발생할 수 있다.
따라서, 제 4 촬상 장치(도 6의 14)는 삼각측량 방식으로 계산된 좌표를 이용하여, 캘리브레이션 및 영상 교정으로 계산된 좌표의 오차를 보정(compensation)한다. 구체적으로, 제 4 촬상 장치(도 6의 14)는 수학식 3을 이용하여 계산한 소정의 지점(1020)의 좌표 및 수학식 7을 이용하여 계산한 소정의 지점(1020)의 좌표를 기초로 특이값 분해(Singular Value Decomposition, SVD)를 적용하여 로테이션 행렬(rotation matrix) R, 변환 벡터(translation vector) T를 계산한다. 특이값 분해의 구체적인 알고리즘은 당해 기술분야에 속한 통상의 지식을 가진 자에게 자명하므로, 이하 간략하게 설명한다.
먼저, 서로 대응하는 점들의 두 집합 P 와 Q를 각각
Figure 112012086921126-pat00038
Figure 112012086921126-pat00039
라고 하면, 로테이션 행렬 R 및 변환 벡터 T는 아래의 수학식 8을 최소화한다.
Figure 112012086921126-pat00040
위의 수학식 8에서
Figure 112012086921126-pat00041
는 각 점들의 쌍에 대한 가중치이며,
Figure 112012086921126-pat00042
의 조건을 갖는다. 또한, n은 정수이다.
로테이션 행렬 R 및 변환 벡터 T를 계산하는 과정은 아래의 5단계를 거친다.
먼저, 아래의 수학식 9를 이용하여, P와 Q의 가중된 중심들(weighted centroids)
Figure 112012086921126-pat00043
,
Figure 112012086921126-pat00044
를 계산한다.
Figure 112012086921126-pat00045
다음으로, 위의
Figure 112012086921126-pat00046
,
Figure 112012086921126-pat00047
를 이용하여, 아래의 수학식 10을 통해 중심 벡터(centered vector)를 계산한다.
Figure 112012086921126-pat00048
다음으로, 위의
Figure 112012086921126-pat00049
,
Figure 112012086921126-pat00050
를 이용하여, 아래의 수학식 11을 통해 공분산 행렬(covariance matrix)를 계산한다.
Figure 112012086921126-pat00051
다음으로, 위의 H를 이용하여, 아래의 수학식 12를 통해 특이값 분해(SVD)를 계산한다.
Figure 112012086921126-pat00052
마지막으로, 위의 수학식 12의 결과를 이용하여 아래의 수학식 13을 통해 R 및 T를 계산한다.
Figure 112012086921126-pat00053
제 4 촬상 장치(도 6의 14)는 계산된 R, T를 이용하여 아래의 수학식 14를 통하여 캘리브레이션 및 영상 교정으로 계산된 좌표 성분인 X, Y, Z의 오차를 보정(compensation)한 좌표 성분인 Xnew, Ynew, Znew를 계산한다.
Figure 112012086921126-pat00054
이렇게 제 4 촬상 장치(도 6의 14)는 캘리브레이션 및 영상 교정으로 계산된 좌표 성분의 오차를 보정(compensation)한 좌표 성분을 계산함으로써, 시간이 많이 소요되는 삼각측량 방식을 이용하지 않고 피검자의 체내 조직의 정확한 위치를 계산할 수 있다. 구체적으로, 위치 측정 장치(미도시)는 피검자에 대한 시술 전에 보정 패턴(1010)의 소정의 지점(1020)에 대하여 제 4 촬상 장치(도 6의 14)의 좌표계를 위치 측정 장치(도 14의 1410)의 좌표계로 변환하는데 사용할 회전 행렬과 이동 벡터를 알고 있으므로, 비실시간 진단 영상 및 실시간 진단 영상, 제 4 촬상 장치에 의한 수술 장면 등을 제 4 촬상 장치의 좌표계로 또는 모두 위치 측정 장치(도 14의 1410)의 좌표계로 표시할 수 있다.
다시 도 6을 참조하면, 영상 중첩부(240)는 위치 측정 장치(도 14의 1410)와 마커(60) 간의 위치 관계 및 위치 측정 장치(도 14의 1410)와 제 4 촬상 장치(14)(구체적으로, 제 4 촬상 장치(14)를 구성하는 렌즈) 간의 위치 관계를 결합하여, 촬상 장치(10)와 마커(60) 간의 제 3 위치 관계를 파악할 수 있다.
영상 중첩부(240)는 제 3 위치 관계를 이용하여 제 3 실시간 영상과 보정된 영상을 중첩한다. 중첩된 영상은 장기 및 그 주변에 관한 3차원 의료 영상일 수 있다. 예를 들어, 생성된 합성 영상은 제 4 촬상 장치(14)에 의해 촬영된 제 3 실시간 영상에 포함된 장기 및 주변에 대한 외부 조직의 영상과, 제 1 촬상 장치(11)에 의해 촬영된 제 1 비 실시간 영상에 포함된 장기 및 주변에 대한 내외부 조직의 영상이 3차원적으로 동시에 표현된 영상이다. 합성 영상은 일종의 증강 영상에 해당될 수 있다.
예를 들어, 영상 중첩부(240)에서 중첩한 영상은 내시경 영상과 비내시경 영상 각각에서 나타난 장기의 위치가 동일하도록 생성한 것일 수 있다. 내시경 영상은 그 자체로 장기 및 그 주변의 실제의 3차원 영상에 해당된다. 그러나, 내시경 영상은 장기 내외부의 조직의 형태 및 위치 등의 정보를 알기 어렵다.
일반적으로, 비내시경 영상은 장기를 단면으로 촬영한 영상들의 집합에 해당될 수 있다. 하지만, 초음파 영상, CT 영상 및 MR 영상과 같은 비내시경 영상은 장기 및 주변의 내외부의 조직의 형태 및 위치 등에 대한 일종의 투시 정보를 포함하고 있다. 따라서, 비내시경 영상에는 장기의 외부 조직뿐만 아니라, 내부 조직의 형태 및 위치 등에 대한 정보도 함께 포함되어 있다. 따라서, 내시경 영상과 비내시경 영상이 합성될 경우, 실제 장기 및 주변의 내외부에 있는 조직들에 대한 정보를 정확하게 알 수 있고, 이것이 사용자에게 제공됨으로서 사용자는 보다 정교하고 세밀한 수술을 진행할 수 있게 된다.
여기에서, 초음파 영상, CT 영상 및 MR 영상과 같은 비내시경 영상은 그 영상을 촬영하는 촬상 장치(10)의 종류에 따라 2차원 영상일 수 있고, 또는 3차원 영상일 수 있다. 만약, 획득된 비내시경 영상이 복수의 2차원적인 비내시경 영상들인 경우, 영상 생성부(210)는 볼륨 렌더링(volume rendering) 등의 이미 알려진 방법들을 통해 2차원 비내시경 영상들을 3차원 비내시경 영상으로 생성하고, 영상 중첩부(240)는 그 생성된 영상을 영상의 중첩에 이용할 수 있다.
도 7은 본 발명의 일 실시예에 따른 영상 보정 시스템(1)의 사용 환경의 다른 예를 도시한 도면이다. 본 실시예에 따른 영상 보정 시스템(1)은 촬상 장치(10), 영상 처리 장치(20) 및 영상 표시 장치(30)로 구성된다.
도 7에 도시된 영상 보정 시스템(1)은 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 8에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
또한, 도 7에 도시된 영상 보정 시스템(1)은 도 1 및 도 6에 도시된 영상 처리 장치(20)의 일 실시예에 해당한다. 이에 따라, 도 1 및 도 6와 관련하여 기재된 내용은 도 7에 도시된 영상 보정 시스템(1)에도 적용 가능하기 때문에 중복되는 설명은 생략한다.
영상 표시 장치(30)는 영상 처리 장치(20)에서 생성된 영상들을 표시한다. 예를 들어, 영상 표시 장치(30)는 영상 보정 시스템(1)에 마련된 디스플레이 패널, 마우스, LCD 화면, 모니터 등의 출력 장치를 모두 포함한다.
도 8은 본 발명의 일 실시예에 따른 영상 처리 장치(20)에서 영상을 보정하는 일 예를 나타내는 흐름도이다.
도 8를 참조하면, 영상을 보정하는 방법은 도 1 및 도 7에 도시된 영상 처리 장치(20) 또는 영상 보정 시스템(1)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1 및 도 7에 도시된 영상 처리 장치(20) 또는 영상 보정 시스템(1)에 관하여 이상에서 기술된 내용은 도 8의 영상을 보정하는 방법에도 적용됨을 알 수 있다.
810 단계에서, 사용자는 피검자에 마커를 부착한다. 여기에서 마커는 피검자의 피부에 부착하며, 치료를 요하는 체내 조직과 인접한 피부에 부착할 수 있다.
820 단계에서, 영상 생성부(210)는 피검자가 제 1 자세를 취한 상태에서 마커를 부착한 위치를 포함하는 주변 부위에 대한 피검자의 해부학적 정보가 포함된 제 1 비 실시간 영상 및 제 1 실시간 영상을 생성한다.
830 단계에서, 영상 생성부(210)는 피검자가 제 2 자세를 취한 상태에서 주변 부위에 대한 피검자의 제 2 실시간 영상을 생성한다.
840 단계에서, 이동 정보 획득부(220)는 제 1 실시간 영상 및 제 2 실시간 영상을 이용하여 제 1 자세에서 제 2 자세로 변경됨에 따라 마커가 이동한 정보를 획득한다.
850 단계에서, 영상 보정부(230)는 마커의 이동 정보를 반영하여 제 1 비 실시간 영상을 보정한다.
도 9는 본 발명의 일 실시예에 따른 영상 처리 장치(20)에서 영상을 보정하는 다른 예를 나타내는 흐름도이다.
도 9를 참조하면, 영상을 보정하는 방법은 도 6 및 도 7에 도시된 영상 처리 장치(20) 또는 영상 보정 시스템(1)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도 도 6 및 도 7에 도시된 영상 처리 장치(20) 또는 영상 보정 시스템(1)에 관하여 이상에서 기술된 내용은 도 9의 영상을 보정하는 방법에도 적용됨을 알 수 있다.
910 단계 내지 950 단계는 도 8의 810 단계 내지 850 단계에 각각 대응하므로 이하 생략한다.
960 단계에서, 영상 생성부(210)는 피검자가 제 2 자세를 취한 상태에서 피검자의 체내에 삽입한 촬상 장치를 이용하여 피검자의 주변 부위에 대한 해부학적 정보가 포함된 제 3 실시간 영상을 생성한다.
970 단계에서, 영상 중첩부(240)는 촬상 장치와 마커 간의 제 3 위치 관계를 파악하고, 제 3 위치 관계를 이용하여 제 3 실시간 영상과 영상 보정부(230)에서 보정된 영상을 중첩한다.
상기된 바에 따르면, 영상 처리 장치(20)는 마커(marker)를 이용하여 진단 영상을 수술 영상에 중첩할 때에 환자의 자세 변화로 인한 피부의 이동을 보상하여 정확한 영상을 제공할 수 있다. 또한, 로봇에 의하여 간단한 수술 동작을 수행할 경우, 영상 처리 장치(20)는 로봇을 제어할 수 있는 영상 정보를 제공할 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등), PC 인터페이스(PC Interface)(예를 들면, PCI, PCI-express, Wifi 등)와 같은 저장매체를 포함한다.
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
10: 촬상 장치
20: 영상 처리 장치
210: 영상 생성부
220: 이동 정보 획득부
230: 영상 보정부

Claims (25)

  1. 피검자에 마커(marker)를 부착하고, 상기 피검자가 제 1 자세를 취한 상태에서 상기 마커를 부착한 위치를 포함하는 주변 부위에 대한 상기 피검자의 해부학적 정보가 포함된 제 1 비 실시간 영상 및 제 1 실시간 영상을 생성하는 단계;
    상기 피검자가 제 2 자세를 취한 상태에서 상기 주변 부위에 대한 상기 피검자의 제 2 실시간 영상을 생성하는 단계;
    상기 제 1 실시간 영상 및 제 2 실시간 영상을 이용하여 상기 제 1 자세에서 상기 제 2 자세로 변경됨에 따라 상기 마커가 이동한 정보를 획득하는 단계; 및
    상기 마커의 이동 정보를 반영하여 상기 제 1 비 실시간 영상을 보정하는 단계;를 포함하고,
    상기 제 1 비 실시간 영상 및 상기 제 1 실시간 영상은 서로 다른 시점에 획득된 영상을 의미하는 영상을 보정하는 방법.
  2. 제 1 항에 있어서,
    상기 마커가 이동한 정보를 획득하는 단계는
    상기 제 1 실시간 영상에 포함된 데이터들에서 측정한 값이 임계값을 초과하는 지점을 결정하고, 상기 결정된 지점과 상기 마커간의 제 1 위치 관계를 특정하는 단계;
    상기 제 2 실시간 영상 상에서 상기 제 1 실시간 영상에서 결정한 상기 지점과 대응되는 지점을 선택하고, 상기 선택된 지점과 상기 마커간의 제 2 위치 관계를 특정하는 단계; 및
    상기 제 1 위치 관계 및 상기 제 2 위치 관계를 이용하여 상기 피검자가 자세를 변경함에 따라 상기 마커가 이동한 방향 및 이동량을 산출하는 단계;인 방법.
  3. 제 2 항에 있어서,
    상기 임계값을 초과하는 지점은 상기 제 1 또는 상기 제 2 실시간 영상에 포함된 체내 조직들 중에서 상기 피검자의 자세 변화에 무관하게 고정된 위치를 갖는 조직에서 선택한 지점이고,
    상기 제 1 위치 관계 또는 제 2 위치 관계는 상기 제 1 또는 상기 제 2 실시간 영상 상에서 상기 지점과 상기 마커의 위치를 좌표로 표현하여 나타낸 관계인 방법.
  4. 제 3 항에 있어서,
    상기 지점은 상기 제 1 또는 상기 제 2 실시간 영상 상에서 상기 고정된 위치를 갖는 조직의 외곽면을 분리(segmentation)하고, 상기 분리된 외곽면에서 선택한 지점인 방법.
  5. 제 1 항에 있어서,
    상기 피검자가 제 2 자세를 취한 상태에서 상기 피검자의 체내에 삽입한 촬상 장치를 이용하여 상기 피검자의 주변 부위에 대한 해부학적 정보가 포함된 제 3 실시간 영상을 생성하는 단계를 더 포함하고,
    상기 제 1 비 실시간 영상, 상기 제 1 실시간 영상 및 상기 제 2 실시간 영상은 상기 피검자의 체외에 구비된 촬상 장치를 이용하여 생성한 영상인 방법.
  6. 제 5 항에 있어서,
    상기 촬상 장치와 상기 마커간의 제 3 위치 관계를 파악하고, 상기 제 3 위치 관계를 이용하여 상기 제 3 실시간 영상과 상기 보정된 영상을 중첩시키는 단계를 더 포함하는 방법.
  7. 제 1 항에 있어서,
    상기 제 1 비 실시간 영상은 CT, MR, SPECT, PET 영상 중 어느 하나이고, 상기 제 1 실시간 영상 및 상기 제 2 실시간 영상은 초음파, PAT, X-ray 영상 중 어느 하나인 방법.
  8. 제 1 항에 있어서,
    상기 마커는 상기 제 1 비 실시간 영상, 제 1 내지 제 2 실시간 영상들에서 식별 가능하고, 상기 피검자의 외부에서도 식별 가능한 부분을 포함하는 것을 특징으로 하는 방법.
  9. 제 1 항에 있어서,
    상기 보정된 제 1 비 실시간 영상 및 제 1 비 실시간 영상에 다수의 포인트들을 설정하고, 상기 보정된 제 1 비 실시간 영상 및 제 1 비 실시간 영상에서 서로 대응되는 위치에 설정된 포인트 간의 거리를 측정하여 소정의 오차 값 이하에 해당되는지를 판단하는 단계를 더 포함하는 방법.
  10. 제 1 항 내지 제 9 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램으로 기록한 컴퓨터로 읽을 수 있는 기록매체.
  11. 마커(marker)를 부착한 피검자가 제 1 자세를 취한 상태에서 상기 마커를 부착한 위치를 포함하는 주변 부위에 대한 상기 피검자의 해부학적 정보가 포함된 제 1 비 실시간 영상을 생성하는 제 1 영상 생성부;
    상기 피검자가 제 1 자세를 취한 상태에서 상기 주변 부위에 대한 상기 피검자의 해부학적 정보가 포함된 제 1 실시간 영상을 생성하는 제 2 영상 생성부;
    상기 피검자가 제 2 자세를 취한 상태에서 상기 주변 부위에 대한 상기 피검자의 제 2 실시간 영상을 생성하는 제 3 영상 생성부;
    상기 제 1 실시간 영상 및 제 2 실시간 영상을 이용하여 상기 제 1 자세에서 상기 제 2 자세로 변경됨에 따라 상기 마커가 이동한 정보를 획득하는 이동 정보 획득부; 및
    상기 마커의 이동 정보를 반영하여 상기 제 1 비 실시간 영상을 보정하는 영상 보정부;를 포함하고,
    상기 제 1 비 실시간 영상 및 상기 제 1 실시간 영상은 서로 다른 시점에 획득된 영상을 의미하는 영상을 보정하는 장치.
  12. 제 11 항에 있어서,
    상기 이동 정보 획득부는
    상기 제 1 실시간 영상에 포함된 데이터들에서 측정한 값이 임계값을 초과하는 지점을 결정하고, 상기 결정된 지점과 상기 마커간의 제 1 위치 관계를 특정하는 제 1 위치 관계 특정부;
    상기 제 2 실시간 영상 상에서 상기 제 1 실시간 영상에서 특정한 상기 소정의 지점과 대응되는 지점을 결정하고, 상기 결정된 지점과 상기 마커간의 제 2 위치 관계를 특정하는 제 2 위치 관계 특정부; 및
    상기 제 1 위치 관계 및 상기 제 2 위치 관계를 이용하여 상기 피검자가 자세를 변경함에 따라 상기 마커가 이동한 방향 및 이동량을 획득하는 획득부;인 장치.
  13. 제 12 항에 있어서,
    상기 임계값을 초과하는 지점은 상기 제 1 또는 상기 제 2 실시간 영상에 포함된 체내 조직들 중에서 상기 피검자의 자세 변화에 무관하게 고정된 위치를 갖는 조직에서 선택한 지점이고,
    상기 제 1 위치 관계 또는 제 2 위치 관계는 상기 제 1 또는 상기 제 2 실시간 영상 상에서 상기 지점과 상기 마커의 위치를 좌표로 표현하여 나타낸 관계인 장치.
  14. 제 13 항에 있어서,
    상기 지점은 상기 제 1 또는 상기 제 2 실시간 영상 상에서 상기 고정된 위치를 갖는 조직의 외곽면을 분리(segmentation)하고, 상기 분리된 외곽면에서 선택한 지점인 장치.
  15. 제 11 항에 있어서,
    상기 피검자가 제 2 자세를 취한 상태에서 상기 피검자의 체내에 삽입한 촬상 장치를 이용하여 상기 피검자의 주변 부위에 대한 해부학적 정보가 포함된 제 3 실시간 영상을 생성하는 제 4 영상 생성부를 더 포함하고,
    상기 제 1 비 실시간 영상, 상기 제 1 실시간 영상 및 상기 제 2 실시간 영상은 상기 피검자의 체외에 구비된 촬상 장치를 이용하여 생성한 영상들인 장치.
  16. 제 15 항에 있어서,
    상기 촬상 장치와 상기 마커간의 제 3 위치 관계를 특정하고, 상기 제 3 위치 관계를 이용하여 상기 제 3 실시간 영상과 상기 보정된 영상을 중첩하는 영상 중첩부;를 더 포함하는 장치.
  17. 제 11 항에 있어서,
    상기 제 1 비 실시간 영상은 CT, MR, SPECT, PET 영상 중 어느 하나이고, 상기 제 1 실시간 영상 및 상기 제 2 실시간 영상은 초음파, PAT, X-ray 영상 중 어느 하나인 장치.
  18. 제 11 항에 있어서,
    상기 마커는 상기 제 1 비 실시간 영상, 제 1 내지 제 2 실시간 영상들에서 식별 가능하고, 상기 피검자의 외부에서도 식별 가능한 부분을 포함하는 것을 특징으로 하는 장치.
  19. 제 11 항에 있어서,
    상기 영상 보정부는
    상기 보정된 제 1 비 실시간 영상 및 제 1 비 실시간 영상에 다수의 포인트들을 설정하고, 상기 보정된 제 1 비 실시간 영상 및 제 1 비 실시간 영상에서 서로 대응되는 위치에 설정된 포인트 간의 거리를 측정하여 소정의 오차 값 이하에 해당되는지를 판단하는 평가부;를 더 포함하는 장치.
  20. 마커(marker)를 부착한 피검자의 해부학적 정보가 포함된 제 1 비 실시간 영상, 제 1 내지 제 3 실시간 영상을 생성하는 하나 이상의 촬상 장치;
    상기 촬상 장치로부터 생성된 상기 피검자의 제 1 실시간 영상 및 제 2 실시간 영상을 이용하여 상기 마커의 이동 정보를 획득하고, 상기 마커의 이동 정보를 반영하여 제 1 비 실시간 영상을 보정하는 영상 처리 장치;를 포함하고,
    상기 제 1 비 실시간 영상 및 상기 제 1 실시간 영상은 서로 다른 시점에 획득된 영상을 의미하는 영상 보정 시스템.
  21. 복수의 렌즈들을 포함하는 촬상 장치로부터 피사체까지의 거리를 측정하는 방법에 있어서,
    피사체를 포함하는 두 개 이상의 영상들을 획득하는 단계;
    상기 영상들을 기초로 삼각 측량(tiangulation)을 수행하여 상기 촬상 장치로부터 상기 피사체까지의 제 1 거리를 계산하는 단계;
    상기 렌즈들의 캘리브레이션(calibration) 및 상기 영상들의 교정(rectification)을 수행한 후 상기 촬상 장치로부터 상기 피사체까지의 제 2 거리를 계산하는 단계;
    상기 제 1 거리 및 제 2 거리를 이용하여, 상기 제 2 거리와 상기 촬상 장치로부터 상기 피사체까지의 실제 거리 간의 차이를 보정(compensation)하는 단계;를 포함하는 방법.
  22. 제 21 항에 있어서,
    상기 두 개 이상의 영상들은
    상기 촬상 장치에 포함된 하나 이상의 렌즈를 통해서 생성한 영상들인 방법.
  23. 제 21 항에 있어서,
    상기 보정하는 단계는
    상기 제 1 거리 및 상기 제 2 거리 각각에 대응하는 상기 피사체의 위치를 나타내는 좌표들을 이용하여 로테이션 행렬(rotation matrix) 및 변환 벡터(translation vector)를 계산하는 단계; 및
    상기 계산된 로테이션 행렬(rotation matrix) 및 변환 벡터(translation vector)를 반영하여 상기 제 2 거리에 대응하는 상기 피사체의 위치를 나타내는 좌표를 갱신하는 단계인 방법.
  24. 제 23항에 있어서,
    상기 계산하는 단계는
    상기 제 1 거리에 대응하는 상기 피사체의 위치를 나타내는 좌표 및 상기 제 2 거리에 대응하는 상기 피사체의 위치를 나타내는 좌표를 기초로 특이값 분해(Singular Value Decomposition)를 적용하여 상기 로테이션 행렬(rotation matrix) 및 상기 변환 벡터(translation vector)를 계산하는 방법.
  25. 제 21항에 있어서,
    상기 제 1 거리 및 상기 제 2 거리는
    상기 렌즈들의 중심을 원점으로 한 상기 렌즈들 각각의 좌표축을 설정하고, 상기 피사체의 위치를 상기 좌표축을 기초로 한 좌표 성분으로 나타낸 것을 특징으로 하는 방법.
KR1020120118674A 2012-10-24 2012-10-24 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템 KR101993384B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120118674A KR101993384B1 (ko) 2012-10-24 2012-10-24 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
US13/861,778 US9437003B2 (en) 2012-10-24 2013-04-12 Method, apparatus, and system for correcting medical image according to patient's pose variation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120118674A KR101993384B1 (ko) 2012-10-24 2012-10-24 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템

Publications (2)

Publication Number Publication Date
KR20140052524A KR20140052524A (ko) 2014-05-07
KR101993384B1 true KR101993384B1 (ko) 2019-06-26

Family

ID=50485367

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120118674A KR101993384B1 (ko) 2012-10-24 2012-10-24 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템

Country Status (2)

Country Link
US (1) US9437003B2 (ko)
KR (1) KR101993384B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9386908B2 (en) * 2013-01-29 2016-07-12 Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) Navigation using a pre-acquired image
TWI670681B (zh) * 2017-06-04 2019-09-01 鈦隼生物科技股份有限公司 判定手術路徑上一個或多個點之方法和系統
KR102488901B1 (ko) * 2018-08-01 2023-01-17 브레인 나비 바이오테크놀러지 씨오., 엘티디. 수술 중 환자 위치를 추적하는 방법 및 시스템
CN111311632B (zh) * 2018-12-11 2023-12-01 深圳市优必选科技有限公司 一种物体位姿跟踪方法、装置及设备
TWI766253B (zh) * 2019-03-19 2022-06-01 鈦隼生物科技股份有限公司 基於影像匹配決定手術路徑之方法與系統
CA3130916A1 (en) * 2019-06-07 2020-12-10 Mayekawa Mfg. Co., Ltd. Image processing device, image processing program, and image processing method
KR102548203B1 (ko) * 2021-01-20 2023-06-29 프로메디우스 주식회사 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308514A (ja) 1997-09-01 2003-10-31 Canon Inc 情報処理方法及び情報処理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5873827A (en) 1996-12-23 1999-02-23 Russell; Donald G. Surface marker for ultrasound examination and a method for using the marker
US6119033A (en) * 1997-03-04 2000-09-12 Biotrack, Inc. Method of monitoring a location of an area of interest within a patient during a medical procedure
US6484049B1 (en) * 2000-04-28 2002-11-19 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
DE10333543A1 (de) * 2003-07-23 2005-02-24 Siemens Ag Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung
JP4348310B2 (ja) 2004-09-30 2009-10-21 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波イメージング装置、画像処理装置およびプログラム
KR100657917B1 (ko) * 2004-12-11 2006-12-14 삼성전자주식회사 자세 교정 장치 및 그 방법
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
EP1992288A4 (en) 2006-03-09 2010-01-20 Imagnosis Inc METHOD FOR PROCESSING MEDICAL IMAGES
CA2658510C (en) 2006-07-21 2013-01-15 Orthosoft Inc. Non-invasive tracking of bones for surgery
JP4309936B2 (ja) 2007-01-05 2009-08-05 オリンパスメディカルシステムズ株式会社 超音波診断装置
KR101662323B1 (ko) 2010-05-28 2016-10-04 가천의과학대학교 산학협력단 의료 영상 장치용 3축 움직임 추적 장치 및 이를 이용한 의료 영상 보정 방법
US8675939B2 (en) * 2010-07-13 2014-03-18 Stryker Leibinger Gmbh & Co. Kg Registration of anatomical data sets
JP5661382B2 (ja) 2010-08-31 2015-01-28 キヤノン株式会社 画像表示装置
EP2587450B1 (en) * 2011-10-27 2016-08-31 Nordson Corporation Method and apparatus for generating a three-dimensional model of a region of interest using an imaging system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308514A (ja) 1997-09-01 2003-10-31 Canon Inc 情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
US20140112529A1 (en) 2014-04-24
US9437003B2 (en) 2016-09-06
KR20140052524A (ko) 2014-05-07

Similar Documents

Publication Publication Date Title
US20220192611A1 (en) Medical device approaches
US11883118B2 (en) Using augmented reality in surgical navigation
JP6395995B2 (ja) 医療映像処理方法及び装置
KR101993384B1 (ko) 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
US9498132B2 (en) Visualization of anatomical data by augmented reality
US11443431B2 (en) Augmented reality patient positioning using an atlas
CA2617313C (en) A method and a system for registering a 3d pre-acquired image coordinates system with a medical positioning system coordinate system and with a 2d image coordinate system
JP6083103B2 (ja) 画像内遮蔽領域の画像補完システム、画像処理装置及びそのプログラム
CN111655160A (zh) 超声图像数据的三维成像和建模
EP3338246A1 (en) Registration of video camera with medical imaging
US20150371390A1 (en) Three-Dimensional Image Segmentation Based on a Two-Dimensional Image Information
KR102233585B1 (ko) 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
CN113473915B (zh) 对融合超声影像与x射线影像进行的实时跟踪
US20230248441A1 (en) Extended-reality visualization of endovascular navigation
KR20160057024A (ko) 마커리스 3차원 객체추적 장치 및 그 방법
US11941765B2 (en) Representation apparatus for displaying a graphical representation of an augmented reality
US20220022964A1 (en) System for displaying an augmented reality and method for generating an augmented reality
Stolka et al. A 3D-elastography-guided system for laparoscopic partial nephrectomies
KR102184001B1 (ko) 수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법
Penza et al. Virtual assistive system for robotic single incision laparoscopic surgery
JP6795744B2 (ja) 医療支援方法および医療支援装置
Kumar et al. Stereoscopic augmented reality for single camera endoscope using optical tracker: a study on phantom
CN117677358A (zh) 用于手术期间现场x射线荧光透视和c形臂计算机断层扫描成像的立体投影和交叉参考的增强现实系统和方法
De Paolis Advanced navigation and augmented visualization in minimally invasive surgery
Westwood Development of a 3D visualization system for surgical field deformation with geometric pattern projection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant