[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR100466409B1 - System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon - Google Patents

System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon Download PDF

Info

Publication number
KR100466409B1
KR100466409B1 KR10-2001-0024390A KR20010024390A KR100466409B1 KR 100466409 B1 KR100466409 B1 KR 100466409B1 KR 20010024390 A KR20010024390 A KR 20010024390A KR 100466409 B1 KR100466409 B1 KR 100466409B1
Authority
KR
South Korea
Prior art keywords
image
path
virtual endoscope
data
volume
Prior art date
Application number
KR10-2001-0024390A
Other languages
Korean (ko)
Other versions
KR20020031273A (en
Inventor
구윤모
신영길
정진욱
Original Assignee
주식회사 인피니트테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인피니트테크놀로지 filed Critical 주식회사 인피니트테크놀로지
Priority to PCT/KR2001/002017 priority Critical patent/WO2002041767A1/en
Priority to AU2002222701A priority patent/AU2002222701A1/en
Publication of KR20020031273A publication Critical patent/KR20020031273A/en
Application granted granted Critical
Publication of KR100466409B1 publication Critical patent/KR100466409B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20108Interactive selection of 2D slice in a 3D data set
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/06Curved planar reformation of 3D line structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

가상 내시경 시스템 및 방법과 이를 저장한 컴퓨터가 판독 가능한 기록 매체가 개시된다. 본 발명에 따르면, 3차원 볼륨 데이터로부터 관찰하고자하는 부위에 해당하는 볼륨 렌더링 영상을 생성하여, 하나의 화면을 분할한 다수의 뷰어상에 생성된 볼륨 렌더링 영상, 2차원 영상, 가상 내시경 영상 및 경로 재구성 영상을 각각 디스플레이한다. 2차원 영상 또는 3차원 볼륨 렌더링 영상 중 어느 하나의 영상에서 사용자에 의해 경로가 설정됨에 따라 디스플레이되는 경로 재구성 영상을 갱신하고, 사용자의 조작에 따라 카메라 위치 변경 요청이 있는 경우에는 카메라의 위치 변경에 따라 조정된 가상 내시경 영상 데이터를 생성하고, 생성된 가상 내시경 영상 데이터를 근거로 가상 내시경 영상과 2차원 영상을 갱신한다.Disclosed are a virtual endoscope system and method and a computer-readable recording medium storing the same. According to the present invention, a volume rendering image corresponding to a region to be observed from three-dimensional volume data is generated, and volume rendering images, two-dimensional images, virtual endoscope images, and paths generated on a plurality of viewers divided into one screen. Each reconstruction image is displayed. The path reconstruction image displayed as the path is set by the user in the 2D image or the 3D volume rendered image is updated, and when the camera position change request is requested by the user's operation, The virtual endoscope image data adjusted accordingly is generated, and the virtual endoscope image and the 2D image are updated based on the generated virtual endoscope image data.

그 결과, 3차원 볼륨 데이터에 대한 전처리 과정없이 볼륨 렌더링으로 생성한 영상을 참조 영상으로 사용하며, 상기 참조 영상으로 이용하여 사용자가 쉽게 경로를 설정 및 수정할 수 있고, 카메라의 방향을 2차원상에서 3차원적으로 조절할 수 있다.As a result, the image generated by volume rendering is used as a reference image without preprocessing 3D volume data, and the user can easily set and modify a path by using the reference image, and the direction of the camera is changed to 3D in 2D. You can adjust the dimensions.

Description

가상 내시경 시스템, 가상 내시경 디스플레이 방법과 그 방법을 컴퓨터 상에서 수행하는 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체{System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon}System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon}

본 발명은 가상 내시경 시스템에 관한 것으로, 보다 상세하게는 가상 내시경에서의 단면 영상 및 볼륨 렌더링 영상을 이용하여 경로 설정이 가능한 가상 내시경 시스템 및 가상 내시경 디스플레이 방법과 그 방법을 컴퓨터 상에서 수행하는 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체에 관한 것이다.The present invention relates to a virtual endoscope system, and more particularly, a virtual endoscope system and a virtual endoscope display method capable of setting a path using a cross-sectional image and a volume rendering image of a virtual endoscope, and a program for performing the method on a computer. A computer readable recording medium.

일반적으로 가상 내시경 시스템을 포함하는 영상 재구성 시스템은 많은 응용 분야가 있지만 3차원적 형상을 가지는 인체 구조물의 의료 영상 분야에 사용될 수 있다.In general, an image reconstruction system including a virtual endoscope system has many applications, but may be used in the medical imaging field of a human body structure having a three-dimensional shape.

특히 3차원 의료 영상 기법이란, 컴퓨터 단층 촬영기(Computed Tomography: 이하 CT) 또는 자기 공명 장치(Magnetic Resonance Imaging: 이하 MRI)로부터 얻어지는 일련의 2차원 의료 영상으로부터 3차원 영상을 생성하는 것을 말하는데, 일련의 2차원 영상만을 통한 진단은 전체적인 입체감을 얻기가 힘들고 임의의 단면 등을 관찰하기 불가능한 단점이 있다. 그러나, 3차원 의료 영상기법을 사용하면 환부에 대한 정확한 위치 판단이 가능하고, 수술 방법을 보다 현실감 있게 예측할 수 있다.In particular, the 3D medical imaging technique refers to generating a 3D image from a series of 2D medical images obtained from a computed tomography (CT) or a magnetic resonance imaging (MRI). Diagnosis using only two-dimensional images has a disadvantage in that it is difficult to obtain an overall three-dimensional effect and cannot observe an arbitrary cross section. However, the 3D medical imaging technique enables accurate location determination of the affected part and predicts the surgical method more realistically.

이러한 종래의 가상 내시경 시스템은 카메라(또는 가상 카메라)의 움직임을 조절하기 위해 2차원 영상을 이용했다. 그러나 이러한 2차원 영상을 이용하는 방법에서는 관찰하고 있는 인체 구조물에서 해당 카메라의 위치 파악이 어렵다는 문제점이 있다.This conventional virtual endoscope system used a two-dimensional image to adjust the movement of the camera (or virtual camera). However, the method of using the 2D image has a problem that it is difficult to determine the location of the camera in the human body observed.

또한 카메라나 내시경이 움직이면서 계속적으로 변화하는 영상을 보여주는 동작, 즉 자동 네비게이션을 하기 어렵다는 문제점이 있다.In addition, there is a problem that it is difficult to perform an operation that shows a continuously changing image while moving the camera or the endoscope, that is, automatic navigation.

이러한 점에 착안하여 인체 구조물에 대한 윤곽을 보여주기 위해, 특정 구조물의 데이터를 다른 부분으로부터 분리해내는 세그멘테이션(segmentation) 작업을한 후에 표면 추출 렌더링 기법으로 전체 윤곽을 디스플레이하고, 카메라의 정확한 위치를 나타내는 보다 진보된 방법이 개발되었으며, 이러한 환경하에서 네비게이션을 위해 자동적으로 경로를 찾아주는 알고리즘이 개발되기도 하였다.With this in mind, to show the contours of the human structure, the segmentation process separates the data of one structure from the other, and then displays the entire contour with surface extraction rendering techniques, and displays the exact position of the camera. More advanced methods have been developed, and under these circumstances, algorithms have been developed to automatically find routes for navigation.

그러나 이러한 진보된 방식을 이용하더라도 완전 자동 세그멘테이션이 어렵고, 구조물이 복잡할수록 세그멘테이션을 완전 자동으로 할 수 없기 때문에 수작업을 수행해야하는 번거로움이 있다.However, even with this advanced approach, fully automatic segmentation is difficult, and the more complicated the structure, the more difficult the segmentation can be done automatically.

또한 내시경의 경로를 자동적으로 찾아 주는 알고리즘 역시 사용자가 원하는 일정 수준까지 경로를 찾지는 못하며, 항상 세그멘테이션을 통해 구조물 벽에 대한 정보를 알고 있어야 하는 문제점이 있다.In addition, the algorithm that automatically finds the path of the endoscope does not find the path to a certain level desired by the user, and there is a problem in that information about the structure wall is always known through segmentation.

이에 본 발명의 기술과 과제는 이러한 종래의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 전처리 과정없이도 3차원 볼륨 렌더링 영상에서 직접 경로 설정을 수행하여 진단의 시간을 줄이고, 경로를 포함하는 다면 재구성 영상을 디스플레이하므로써, 2차원 상에 3차원 영상적인 효과를 나타내고, 진단의 효율성을 향상시키기 위한 가상 내시경 시스템을 제공하는 것이다.Accordingly, the present invention has been made in an effort to solve such a conventional problem, and an object of the present invention is to perform a path setting directly on a 3D volume rendered image without a preprocessing process, thereby reducing the time for diagnosis and reconstructing a multifaceted path including a path. By displaying an image, to provide a three-dimensional image effect on a two-dimensional, to provide a virtual endoscope system for improving the efficiency of the diagnosis.

또한 본 발명의 다른 목적은 상기한 가상 내시경 시스템을 이용한 가상 내시경 디스플레이 방법을 제공하는 것이다.Another object of the present invention is to provide a virtual endoscope display method using the virtual endoscope system.

또한 본 발명의 또 다른 목적은 상기한 가상 내시경 디스플레이 방법을 컴퓨터 상에서 수행하는 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체를 제공하는 것이다.Still another object of the present invention is to provide a computer-readable recording medium storing a program for performing the above-described virtual endoscope display method on a computer.

도 1은 본 발명의 실시예에 따른 가상 내시경 시스템을 설명하기 위한 도면이다.1 is a view for explaining a virtual endoscope system according to an embodiment of the present invention.

도 2는 본 발명에 따른 가상 내시경 시스템의 화면 일례를 도시한다.2 shows an example of a screen of the virtual endoscope system according to the present invention.

도 3은 본 발명에 따른 가상 내시경 디스플레이 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a virtual endoscope display method according to the present invention.

도 4는 상기한 도 3의 단계 S400을 보다 상세히 설명하기 위한 흐름도이다.FIG. 4 is a flowchart for explaining the above-described step S400 of FIG. 3 in more detail.

도 5는 상기한 도 4의 단계 S420을 보다 상세히 설명하기 위한 흐름도이다.FIG. 5 is a flowchart for explaining the above-described step S420 of FIG. 4 in more detail.

도 6은 본 발명에 의한 가상 내시경 시스템에서 참조 영상위에 입력된 한 포인트로부터 실제 내부 기관의 3차원상의 위치를 찾는 과정을 설명하기 위한 도면이다.FIG. 6 is a view for explaining a process of finding a three-dimensional position of an actual internal organ from a point input on a reference image in the virtual endoscope system according to the present invention.

도 7은 본 발명에 따른 경로를 포함한 단면 재구성 영상의 생성을 설명하기 위한 도면이다.7 is a view for explaining the generation of the cross-sectional reconstruction image including a path according to the present invention.

도 8은 본 발명에 따른 경로와 평행 또는 수직인 단면 재구성 영상의 생성을 설명하기 위한 도면이다.8 is a view for explaining the generation of the cross-sectional reconstruction image parallel or perpendicular to the path according to the present invention.

도 9는 본 발명에 따른 2차원에서 3차원적 카메라 조정을 설명하기 위한 도면이다.9 is a view for explaining a two-dimensional to three-dimensional camera adjustment in accordance with the present invention.

도 10은 본 발명에 의한 가상 내시경 시스템의 참조 영상으로 사용되는 3차원 볼륨 렌더링 영상을 도시한다.10 illustrates a 3D volume rendering image used as a reference image of the virtual endoscope system according to the present invention.

도 11은 상기한 도 10의 3차원 볼륨 렌더링 영상을 기초로 본 발명에 의한 바람직한 가상 내시경 시스템이 제공하는 화면을 불러낸 예이다.FIG. 11 illustrates an example of a screen provided by a preferred virtual endoscope system according to the present invention based on the 3D volume rendering image of FIG. 10.

도 12는 본 발명에 의한 바람직한 가상 내시경 시스템에서 상기한 도 11에서 사용자가 한번 지정했던 경로를 임의로 수정할 수 있게 하는 기능을 제공하는 화면을 도시한다.FIG. 12 illustrates a screen providing a function of allowing a user to arbitrarily modify a path designated by the user once in FIG. 11 in the preferred virtual endoscope system according to the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

10 : 입력/저장부 20 : 내시경 영상 처리부10: input / storage unit 20: endoscope image processing unit

22 : 참조 영상 처리부 24 : 경로 변환부22: reference image processing unit 24: path conversion unit

26 : 다면 재구성 영상 합성부 30 : 표시부26: multi-faceted reconstruction image synthesizer 30: display unit

40 : 입력부 100 : 3차원 볼륨 렌더링 영상40: input unit 100: 3D volume rendering image

200 : 2차원 영상 300 : 가상 내시경 영상200: two-dimensional image 300: virtual endoscope image

400 : 경로 재구성 영상400: path reconstruction image

상기한 본 발명의 목적을 실현하기 위한 하나의 특징에 따른 가상 내시경 시스템은,Virtual endoscope system according to one feature for realizing the above object of the present invention,

3 차원적 위치의 함수로서 표현되는 소정의 특성을 가지는 입체적 구조의 각 부분의 위치에 따른 상기 특성을 볼륨 데이터의 형태로 입력받아 이후의 처리를 위하여 저장하기 위한 입력/저장부;An input / storing unit for receiving the characteristic according to the position of each part of the three-dimensional structure having a predetermined characteristic expressed as a function of three-dimensional position in the form of volume data and storing it for subsequent processing;

상기 입력 저장부에 저장된 데이터를 기초로 하여 상기 특성의 공간적 분포를 3차원 영상으로 표시하고 이를 참조 영상으로 표시할 수 있도록 처리하며, 상기 참조 영상위에 직접 표시된 소정의 경로를 따라 내시경 영상을 생성하며, 이를 표시할 수 있도록 처리하는 내시경 영상 처리부;Based on the data stored in the input storage unit, the spatial distribution of the characteristic is displayed as a 3D image and is processed to be displayed as a reference image, and an endoscope image is generated along a predetermined path displayed directly on the reference image. An endoscope image processor configured to display the same;

상기 참조 영상을 표시하고, 상기 경로에 따른 내시경 영상을 표시하는 표시부; 및A display unit configured to display the reference image and to display an endoscope image along the path; And

상기 참조 영상으로부터 사용자가 상기 경로를 지정할 수 있도록 하기 위한 입력부를 포함하여 이루어진다.And an input unit for allowing a user to designate the path from the reference image.

여기서, 상기 내시경 영상 처리부는, 상기 입력 저장부에 저장된 볼륨 데이터로부터 상기 3차원 참조 영상을 표시할 수 있도록 처리하고, 상기 입력수단을 통하여 내시경 영상을 보고자하는 내부 구조물을 지나는 소정의 경로를 상기 참조 영상 위의 소정의 곡선 데이터의 형태로 입력받아 처리하는 참조 영상 처리부; 상기 참조 영상 처리부에 입력된 상기 경로로부터 내시경 영상을 보고자하는 내부 구조물의 벽에 해당되는 복셀의 상기 볼륨 데이터 내의 위치를 판단하며, 상기 복셀의 위치에 의해 상기 경로가 실제로 내부 구조물을 통과하는 경로가 될 수 있도록 경로를 정정하는 경로 변환부; 및 상기 경로 변환부에서 얻어진 상기 정정된 경로에 따라 상기 경로를 포함하는 다면 재구성 영상을 생성하는 다면 재구성 영상 합성부를 포함한다.The endoscope image processor may be configured to display the 3D reference image from volume data stored in the input storage unit, and refer to a predetermined path passing through an internal structure for viewing the endoscope image through the input unit. A reference image processor which receives and processes a predetermined curve of data on the image; The position of the volume data of the voxel corresponding to the wall of the internal structure from which the endoscope image is to be viewed is input from the path input to the reference image processor. The path of the path actually passing through the internal structure is determined by the position of the voxel. A path converting unit correcting a path so that the path can be corrected; And a multi-faceted reconstruction image synthesizer configured to generate a multi-faceted reconstructed image including the path according to the corrected path obtained by the path transform unit.

또한, 상기한 본 발명의 다른 목적을 실현하기 위한 하나의 특징에 따른 가상 내시경 디스플레이 방법은, 원시 영상 데이터를 저장하고, 저장된 원시 영상 데이터의 밀도값을 분류하여 가상 내시경을 디스플레이하는 가상 내시경 디스플레이 방법에 있어서,In addition, the virtual endoscope display method according to one aspect for realizing another object of the present invention, the virtual endoscope display method for storing the raw image data, classify the density value of the stored raw image data to display the virtual endoscope To

(a) 상기 3차원 볼륨 데이터로부터 관찰하고자하는 부위에 해당하는 볼륨 렌더링 영상을 생성하는 단계;(a) generating a volume rendering image corresponding to an area to be observed from the 3D volume data;

(b) 하나의 화면을 분할한 다수의 뷰어상에 상기 생성된 볼륨 렌더링 영상, 2차원 영상, 가상 내시경 영상 및 경로 재구성 영상을 각각 디스플레이하는 단계;(b) displaying each of the generated volume rendering image, two-dimensional image, virtual endoscope image, and path reconstruction image on a plurality of viewers partitioning one screen;

(c) 사용자의 조작에 따라 상기 2차원 영상 또는 3차원 볼륨 렌더링 영상 중 어느 하나의 영상에서 경로가 설정됨에 따라 상기 경로 재구성 영상의 디스플레이를 갱신하는 단계;(c) updating the display of the path reconstruction image as a path is set in one of the 2D image and the 3D volume rendering image according to a user's manipulation;

(d) 사용자의 조작에 따라 카메라의 위치 변경 요청 여부를 체크하는 단계; 및(d) checking whether to change the position of the camera according to a user's operation; And

(e) 상기 카메라 위치 변경 요청이 있는 경우에는 상기 카메라의 위치 변경에 따라 조정된 가상 내시경 영상 데이터를 생성하고, 상기 생성된 가상 내시경 영상 데이터를 근거로 상기 가상 내시경 영상과 상기 2차원 영상을 갱신하는 단계를 포함하여 이루어진다.(e) When the camera position change request is made, generate virtual endoscope image data adjusted according to the position change of the camera, and update the virtual endoscope image and the 2D image based on the generated virtual endoscope image data. It comprises a step.

여기서, 상기한 카메라는 소정의 시각 벡터를 이용하여 상기 볼륨 렌더링영상, 2차원 영상, 가상 내시경 영상 및 경로 재구성 영상을 디스플레이하고, 상기 시각 벡터를 조정한 변경 시각 벡터를 이용하여 상기 볼륨 렌더링 영상, 2차원 영상, 가상 내시경 영상 및 경로 재구성 영상을 갱신하여 2차원 영상 상에서 3차원적인 영상 효과를 얻는 것이 바람직하다.Here, the camera displays the volume rendering image, the two-dimensional image, the virtual endoscope image, and the path reconstruction image by using a predetermined time vector, and uses the change time vector by adjusting the time vector. It is preferable to obtain a three-dimensional image effect on the two-dimensional image by updating the two-dimensional image, the virtual endoscope image and the path reconstruction image.

또한, 상기한 본 발명의 또 다른 목적을 실현하기 위한 하나의 특징에 따른 가상 내시경 디스플레이 방법을 컴퓨터 상에서 수행하는 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체는, 원시 영상 데이터를 저장하고, 저장된 원시 영상 데이터의 밀도값을 분류하여 가상 내시경을 디스플레이하는 방법을 컴퓨터 상에서 수행하는 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체에 있어서,In addition, a computer-readable recording medium storing a program for performing a virtual endoscope display method on a computer according to one aspect for realizing another object of the present invention, stores the raw image data, stored raw image A computer-readable recording medium storing a program for performing a method of displaying a virtual endoscope on a computer by classifying density values of data, the method comprising:

(a) 상기 3차원 볼륨 데이터로부터 관찰하고자하는 부위에 해당하는 볼륨 렌더링 영상을 생성하는 단계;(a) generating a volume rendering image corresponding to an area to be observed from the 3D volume data;

(b) 하나의 화면을 분할한 다수의 뷰어상에 상기 생성된 볼륨 렌더링 영상, 2차원 영상, 가상 내시경 영상 및 경로 재구성 영상을 각각 디스플레이하는 단계;(b) displaying each of the generated volume rendering image, two-dimensional image, virtual endoscope image, and path reconstruction image on a plurality of viewers partitioning one screen;

(c) 사용자의 조작에 따라 상기 2차원 영상 또는 3차원 볼륨 렌더링 영상 중 어느 하나의 영상에서 경로가 설정됨에 따라 상기 경로 재구성 영상의 디스플레이를 갱신하는 단계;(c) updating the display of the path reconstruction image as a path is set in one of the 2D image and the 3D volume rendering image according to a user's manipulation;

(d) 사용자의 조작에 따라 카메라의 위치 변경 요청 여부를 체크하는 단계; 및(d) checking whether to change the position of the camera according to a user's operation; And

(e) 상기 카메라 위치 변경 요청이 있는 경우에는 상기 카메라의 위치 변경에 따라 조정된 가상 내시경 영상 데이터를 생성하고, 상기 생성된 가상 내시경 영상 데이터를 근거로 상기 가상 내시경 영상과 상기 2차원 영상을 갱신하는 단계를 포함하여 이루어진다.(e) When the camera position change request is made, generate virtual endoscope image data adjusted according to the position change of the camera, and update the virtual endoscope image and the 2D image based on the generated virtual endoscope image data. It comprises a step.

이러한 가상 내시경 시스템 및 디스플레이 방법과 그 방법을 컴퓨터 상에서 수행하는 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체에 의하면, 3차원 볼륨 데이터에 대한 전처리 과정없이 볼륨 렌더링으로 생성한 영상을 참조 영상으로 사용하며, 상기 참조 영상으로 이용하여 사용자가 쉽게 경로를 설정 및 수정할 수 있고, 카메라의 방향을 2차원상에서 3차원적으로 조절할 수 있다.According to a computer-readable recording medium storing such a virtual endoscope system and a display method and a program for performing the method on a computer, an image generated by volume rendering without preprocessing 3D volume data is used as a reference image. By using the reference image, a user can easily set and modify a path, and adjust the direction of the camera in two dimensions in three dimensions.

그러면, 통상의 지식을 지닌 자가 본 발명을 용이하게 실시할 수 있도록 실시예에 관해 설명하기로 한다.Then, embodiments will be described so that those skilled in the art can easily implement the present invention.

도 1은 본 발명의 실시예에 따른 가상 내시경 시스템을 설명하기 위한 도면이다.1 is a view for explaining a virtual endoscope system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명에 의한 가상 내시경 시스템은 입력/저장부(10), 내시경 영상 처리부(20), 표시부(30) 및 입력부(40)를 포함하여 이루어진다.Referring to FIG. 1, the virtual endoscope system according to the present invention includes an input / storage unit 10, an endoscope image processing unit 20, a display unit 30, and an input unit 40.

입력/저장부(10)는 3 차원적 위치 함수로서 표현되는 소정의 특성을 가지는 입체적 구조의 각 부분의 위치에 따른 상기 특성을 볼륨 데이터의 형태로 입력받아 이후의 처리를 위하여 저장한다. 예를 들어, CT나 MRI 단면 스캐닝 결과의 집합으로서의 볼륨 데이터를 입력받아 저장하는 경우에는 각각의 측정 장치로부터의 데이터 전송을 받기 위한 접속 하드웨어와 이를 저장하기 위한 하드 디스크나 메모리 소자로 구성될 수 있으며, 이미 측정된 결과를 다른 저장 매체에 저장하여 읽어들이거나 자체의 하드디스크 등의 저장매체에 저장하고 있는 경우에는 그와 같은 시스템 내/외부 저장 장치로부터 데이터를 읽어들여 이를 저장하기 위한 접속 하드웨어와 이를 저장하기 위한 하드 디스크나 메모리 소자로 구성될 수 있음은 자명하다.The input / storage unit 10 receives the characteristic according to the position of each part of the three-dimensional structure having a predetermined characteristic expressed as a three-dimensional position function in the form of volume data and stores it for later processing. For example, in the case of receiving and storing volume data as a set of CT or MRI cross-sectional scanning results, it may include a connection hardware for receiving data transmission from each measuring device and a hard disk or a memory element for storing the data. In case that the measured result is already stored in another storage medium or read in the storage medium such as its own hard disk, access hardware for reading and storing data from such internal / external storage device and Obviously, it may be composed of a hard disk or a memory device for storing the same.

내시경 영상 처리부(20)는 참조 영상 처리부(22), 경로 변환부(24) 및 다면 재구성 영상 합성부(26)를 포함하여, 입력/저장부(10)에 저장된 데이터를 기초로 하여 상기한 특성의 공간적 분포를 3차원 영상으로 표시하고 이를 참조 영상으로 표시할 수 있도록 처리하며, 상기 참조 영상 위에 직접 표시된 소정의 경로를 따라 내시경 영상을 생성하며, 이를 표시할 수 있도록 처리한다.The endoscope image processor 20 includes a reference image processor 22, a path converter 24, and a multi-faceted reconstructed image synthesizer 26, based on data stored in the input / storage unit 10. It is processed to display the spatial distribution of the 3D image and to display it as a reference image, to generate an endoscope image along a predetermined path displayed directly on the reference image, and to display it.

보다 상세히는, 참조 영상 처리부(22)는 입력/저장부(10)에 저장된 볼륨 데이터로부터 3차원 참조 영상을 표시할 수 있도록 처리하고, 입력부(40)를 통하여 내시경 영상을 보고자하는 내부 구조물을 지나는 소정의 경로를 참조 영상 위의 소정의 곡선 데이터의 형태로 입력받아 처리한다.In more detail, the reference image processor 22 processes the 3D reference image from the volume data stored in the input / storage unit 10 and passes through the internal structure to view the endoscope image through the input unit 40. A predetermined path is input and processed in the form of predetermined curve data on the reference image.

경로 변환부(24)는 참조 영상 처리부(22)에 입력된 경로로부터 내시경 영상을 보고자하는 내부 구조물의 벽에 해당되는 복셀의 상기 볼륨 데이터 내의 위치를 판단하며, 복셀의 위치에 의해 경로가 실제로 내부 구조물을 통과하는 경로가 될 수 있도록 경로를 정정한다.The path converter 24 determines a position in the volume data of the voxel corresponding to the wall of the internal structure from which the endoscope image is to be viewed from the path input to the reference image processor 22, and the path is actually inside by the location of the voxel. Correct the path to be the path through the structure.

다면 재구성 영상 합성부(26)는 경로 변환부(24)에서 얻어진 정정된 경로에 따라 상기한 경로를 포함하는 다면 재구성 영상을 생성한다.The multi-faceted reconstructed image synthesizer 26 generates a multi-faceted reconstructed image including the above-described path according to the corrected path obtained by the path converting unit 24.

상기한 내시경 영상 처리부(20)는 볼륨 데이터를 계산, 처리하기 위한 수단이며, 일련의 계산 과정을 수행할 수 있는 컴퓨터나 상호 데이터 교환이 가능한 컴퓨터 집합이나 ASIC 등을 통한 구현도 가능함은 자명하다.The endoscope image processing unit 20 is a means for calculating and processing volume data, and it is apparent that the endoscope image processing unit 20 may be implemented through a computer capable of performing a series of calculation processes or a computer set or interchangeable ASIC.

표시부(30)는 상기한 참조 영상을 표시하고, 상기한 경로에 따른 내시경 영상을 디스플레이하고, 입력부(40)는 상기한 참조 영상으로부터 사용자가 상기한 경로를 지정할 수 있도록 한다.The display unit 30 displays the reference image, displays the endoscope image according to the path, and the input unit 40 allows the user to specify the path from the reference image.

도 2는 본 발명에 따른 가상 내시경 시스템의 화면 일례를 도시한다.2 shows an example of a screen of the virtual endoscope system according to the present invention.

도 2를 참조하면, 본 발명에 따른 가상 내시경 시스템의 화면은 3차원 볼륨 렌더링 영상(3D Volume Rendering Image)(100), 2차원 영상(Axial Image)(200), 가상 내시경 영상(Endoscopy Image)(300) 및 경로 재구성 영상(MPR path Image)(400)의 4개의 뷰어(viewer)로 이루어진다. 여기서 볼륨 렌더링(Volume Rendering)이란 3차원 공간의 볼륨 데이터로부터 다양한 응용에 필요한 시각적인 영상 정보를 추출하는 작업을 일컫는다.2, the screen of the virtual endoscope system according to the present invention is a 3D Volume Rendering Image (100), 2D (Axial Image) 200, Endoscopy Image (Endoscopy Image) ( 300 and four viewers of the MPR path image 400. Volume rendering refers to a task of extracting visual image information required for various applications from volume data of a 3D space.

디스플레이되는 화면의 3차원 볼륨 렌더링 영상(100)에서 사용자의 조작에 의해 카메라를 설정하면 이에 따라 2차원 영상(200) 및 가상 내시경 영상(300)이 생성되어 이미 디스플레이되는 영상을 갱신한다. 또한, 사용자의 조작에 의해 경로를 설정함에 따라 이에 연동하여 경로 재구성 영상(400)이 생성되어 이미 디스플레이되는 영상을 갱신한다.When the camera is set by the user's manipulation in the 3D volume rendering image 100 of the displayed screen, the 2D image 200 and the virtual endoscope image 300 are generated accordingly to update the image already displayed. In addition, as the path is set by the user's manipulation, the path reconstruction image 400 is generated in association with the path to update the image already displayed.

또한 디스플레이되는 2차원 영상(200)에서도 사용자의 조작에 의해 카메라를 설정함에 따라 경로 재구성 영상(400)을 생성하여 이미 디스플레이되는 영상을 갱신할 수도 있고, 사용자의 조작에 의해 경로를 설정함에 따라 가상 내시경 영상(300)을 생성하여 이미 디스플레이되는 영상을 갱신할 수도 있다.In addition, in the displayed two-dimensional image 200, the path reconstruction image 400 may be generated by updating the image that is already displayed by setting the camera by the user's operation, or the virtual may be set by the user's operation. The endoscope image 300 may be generated to update an image that is already displayed.

그러면, 상기한 각종 영상을 디스플레이하기 위한 동작을 보다 상세히 설명한다.Next, an operation for displaying the various images will be described in detail.

도 3은 본 발명에 따른 가상 내시경 디스플레이 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a virtual endoscope display method according to the present invention.

도 2와 도 3을 참조하면, 먼저 CT나 MRI 등의 장치를 통해 얻은 인체 구조물의 스캔 데이터, 즉 원시 영상 데이터를 저장한다(단계 S100).Referring to FIGS. 2 and 3, first, scan data, that is, raw image data, of a human structure obtained through a device such as CT or MRI is stored (step S100).

이어 사용자 조작에 따라 관찰하고자 하는 구조물을 볼 수 있도록 실시간으로 밀도값 분류 등의 분류화 작업(classification)을 실시하고, 불필요한 부분을 삭제하는 방식을 통해 관찰 부위가 명확히 나타나도록 3차원 볼륨 렌더링 영상(100)을 생성한다(단계 S200).Then, in order to see the structure to be observed according to the user's operation, a classification process such as density value classification is performed in real time, and unnecessary parts are deleted to make the observation part appear clearly. 100) (step S200).

이어 상기한 도 2에서 도시한 4개의 뷰어상에 3차원 볼륨 렌더링 영상(100), 2차원 영상(200), 가상 내시경 영상(300) 및 경로 재구성 영상(400)을 각각 디스플레이한다(단계 S300).Subsequently, the 3D volume rendering image 100, the 2D image 200, the virtual endoscope image 300, and the path reconstruction image 400 are respectively displayed on the four viewers illustrated in FIG. 2 (S300). .

이어 2차원 영상이나 3차원 볼륨 렌더링 영상 상에서 사용자의 조작에 따라 경로 설정 요청이 입력됨에 따라 해당 경로의 설정 동작을 수행한다(단계 S400). 이러한 경로 설정이나 경로 변경은 2차원 영상 상에서 수행될 수도 있으나, 사용자의 편의면에서 3차원 볼륨 렌더링 영상 상에서 사용자가 직접 임의의 직선 또는 곡선의 형태로 설정하는 것이 바람직하다.Subsequently, the path setting request is input according to the user's manipulation on the 2D image or the 3D volume rendering image (step S400). Such a path setting or a path change may be performed on a 2D image, but for convenience of the user, the user may directly set the path in the form of an arbitrary straight line or a curve on the 3D volume rendering image.

또한 3차원 볼륨 렌더링 영상(100)에서 지정한 2차원 포인트가 보고자하는 내부 구조물의 중앙의 포인트로, 즉 3차원 포인트로 매핑(mapping)시켜 설정된 경로에 따른 영상을 생성하여 디스플레이한다(단계 S500). 바람직하게는 도 2에 도시한 경로 재구성 영상(400)을 갱신할 것이다.In addition, a 2D point designated in the 3D volume rendering image 100 is mapped to a point of the center of the internal structure to be viewed, that is, mapped to a 3D point, thereby generating and displaying an image according to a set path (step S500). Preferably, the path reconstruction image 400 shown in FIG. 2 will be updated.

이어 사용자의 조작에 따른 카메라 조정이 있는지의 여부를 체크하여(단계 S600), 카메라 조정이 없는 경우에는 단계 S500으로 피드백하여 영상 디스플레이를 계속하고, 카메라 조정이 있는 경우에는 카메라로 조정된 가상 내시경 영상(300)을 생성한다(단계 S700). 이때 조정되는 카메라는 내시경 영상 상에서 움직이는 일종의 가상 카메라, 즉 사용자가 보는 눈의 관점이며, 카메라의 보는 각도를 자유자재로 조절할 수 있다. 이러한 카메라의 자유자재로운 각도에 연동하여 원시 영상 데이터로부터 볼륨 렌더링 영상을 재구성하여 디스플레이한다.Then, it is checked whether there is a camera adjustment according to the user's operation (step S600), and if there is no camera adjustment, feedback is returned to step S500 to continue displaying the image, and if there is a camera adjustment, the virtual endoscope image adjusted by the camera. 300 is generated (step S700). At this time, the adjusted camera is a kind of virtual camera moving on the endoscope image, that is, the viewpoint of the user's eyes, and can freely adjust the viewing angle of the camera. The volume rendering image is reconstructed from the raw image data and displayed in conjunction with the free angle of the camera.

이어 2차원 영상(200)과 가상 내시경 영상(300)을 갱신하여 디스플레이한다(단계 S800).Subsequently, the 2D image 200 and the virtual endoscope image 300 are updated and displayed (step S800).

이어 3차원 볼륨 렌더링 영상(100)을 재조작하는 지의 여부를 체크하여(단계 S900), 3차원 볼륨 렌더링 영상을 재조작한다고 체크되는 경우에는 단계 S200으로 피드백한다.Then, it is checked whether the 3D volume rendered image 100 is remanufactured (step S900), and when it is checked that the 3D volume rendered image is remanufactured, it is fed back to step S200.

그러면, 본 발명의 하나의 특징이라 할 수 있는 경로 설정 방법에 대해서 첨부하는 도면을 이용하여 보다 상세히 설명한다.Next, a path setting method, which is one feature of the present invention, will be described in detail with reference to the accompanying drawings.

도 4는 상기한 도 3의 단계 S400을 보다 상세히 설명하기 위한 흐름도이다.FIG. 4 is a flowchart for explaining the above-described step S400 of FIG. 3 in more detail.

도 4를 참조하면, 2차원 영상 또는 3차원 볼륨 렌더링 영상에서 사용자의 조작에 의해 경로 재구성을 위해 포인트들이 지정됨에 따라(단계 S410), 곡선식의 컨트롤 포인트들을 추가한다(단계 S420).Referring to FIG. 4, as points are designated for path reconstruction by a user's manipulation in a 2D image or a 3D volume rendered image (step S410), curved control points are added (step S420).

이어 3차원 곡선의 식을 이용하여 경로를 생성하고(단계 S430), 해당 곡선을따라 가면서 일정 간격, 예를 들어 하나의 복셀 간격씩 진행해가면서 해당 포인트들을 소정의 경로 자료 구조에 저장한다(단계 S440). 상기한 경로 자료 구조에 저장된 각종 포인트들은 재설정되는 경로에 대응하는 데이터들로 이용될 것이며, 이에 응답하여 경로 재구성 영상들이 단계 S500에서 갱신되어 디스플레이될 것이다.Subsequently, a path is generated using an equation of a three-dimensional curve (step S430), and the corresponding points are stored in a predetermined path data structure while going along the curve by a predetermined interval, for example, one voxel interval (step S440). ). The various points stored in the path data structure will be used as data corresponding to the path to be reset, and in response, the path reconstruction images will be updated and displayed in step S500.

이상에서 설명한 단계 S410에서, 만일 사용자가 가상 내시경 영상이나 경로 재구성 영상을 얻기 위해 참조 영상으로 도 2에 도시한 2차원 영상(200)을 사용하는 경우에는 디스플레이되는 참조 영상, 즉 2차원 영상의 (x,y) 데이터와 함께 어느 복셀에 존재하는 2차원 영상인지를 인식할 수 있기 때문에 z 좌표값까지 인식할 수 있어 전체 볼륨 데이터상의 위치인 3차원 좌표(x,y,z)까지 알 수 있다.In step S410 described above, if the user uses the 2D image 200 shown in FIG. 2 as a reference image to obtain a virtual endoscope image or a path reconstruction image, With the x, y) data, it is possible to recognize which voxel is present in the voxel, and thus it is possible to recognize the z coordinate value and to know the 3D coordinates (x, y, z), which are positions on the entire volume data. .

그러나, 만일 사용자가 가상 내시경 영상이나 경로 재구성 영상을 얻기 위해 참조 영상으로 3차원 영상을 사용하는 경우에는 효율적으로 z값을 인식해야 한다.However, if a user uses a 3D image as a reference image to obtain a virtual endoscope image or a path reconstruction image, it is necessary to efficiently recognize the z value.

그러면 본 발명의 다른 하나의 특징이라 할 수 있는 3차원 영상을 참조 영상으로 사용할 때 z값을 인식하는 방법을 보다 상세히 설명한다.Next, a method of recognizing a z value when using a 3D image, which is another feature of the present invention, as a reference image will be described in detail.

도 5는 상기한 도 4의 단계 S420을 보다 상세히 설명하기 위한 흐름도로서, 특히 3차원 볼륨 렌더링 영상에서 지정한 2차원 포인트가 구조물의 중앙 포인트로 매핑되는 과정을 설명하고, 도 6은 본 발명에 의한 가상 내시경 시스템에서 참조 영상 상에 입력된 한 포인트로부터 실제 내부 기관의 3차원상의 위치를 찾는 과정을 설명하기 위한 도면이다.FIG. 5 is a flowchart for explaining step S420 of FIG. 4 in more detail. In particular, a process of mapping a 2D point designated in a 3D volume rendering image to a center point of a structure is described, and FIG. In the virtual endoscope system, it is a view for explaining a process of finding a three-dimensional position of an actual internal organ from a point input on a reference image.

도 5와 도 6을 참조하면, 먼저 3차원 볼륨 렌더링으로 디스플레이되는 2차원 영상 상에 사용자의 조작에 따라 마우스가 입력됨에 따라(단계 S4210), 검사할 깊이의 최소값과 최대값을 설정한다(단계 S4220).5 and 6, first, as a mouse is input according to a user's operation on a two-dimensional image displayed by 3D volume rendering (step S4210), a minimum value and a maximum value of a depth to be inspected are set (step S4210). S4220).

이어 시간 역행렬을 곱하여 평면 좌표계의 포인트를 공간 좌표계에서의 포인트로 변환한다(단계 S4230).Then, the point in the plane coordinate system is converted into a point in the spatial coordinate system by multiplying the time inverse matrix (step S4230).

이어 상기 설정된 최소 깊이로부터 소정의 광선을 발사한다(단계 S4240). 물론 여기서 발사되는 광선은 물리적인 광선이라기 보다는 가상의 3차원 공간상에서 발사되는 가상의 직선 광선일 것이다.Subsequently, a predetermined ray is emitted from the set minimum depth (step S4240). Of course, the rays emitted here will be virtual straight rays emitted in a virtual three-dimensional space rather than physical rays.

이어 구조물의 벽에 해당하는 복셀에 만났는지를 체크하여(단계 S4250), 물체의 벽에 해당하는 복셀에 만났다고 체크되는 경우에는 인볼륨포인트(inVolumePoint)에 만난 위치를 기록한다(단계 S4260). 즉, 화면에 입력된 2차원 영상에서 주어진 시각 방향(viewing vector), 또는 카메라 방향을 따라가면서 직선상에 놓여있는 복셀, 즉, 볼륨 데이터를 구성하는 각 단위 부분과 주변의 값들을 체크하여 구조물의 벽에 해당하는 밀도값에 해당하는지를 체크한다.Subsequently, it is checked whether a voxel corresponding to the wall of the structure has been met (step S4250), and when it is checked that the voxel corresponding to the wall of the object has been met, the location of the encounter at the involume point is recorded (step S4260). That is, the voxels lying on a straight line along a given viewing direction or camera direction in a 2D image input to the screen, that is, each unit part constituting the volume data and surrounding values are checked. Check if it corresponds to the density value of the wall.

이어 물체의 벽에 해당하는 복셀에 만났는지를 체크하여(단계 S4270), 물체의 벽에 해당하는 복셀에 만났다고 체크되는 경우에는 아웃볼륨포인트(outVolumePoint)에 만난 위치를 기록한다(단계 S4280).Subsequently, it is checked whether a voxel corresponding to the wall of the object has been met (step S4270), and when it is checked that the voxel corresponding to the wall of the object has been met, the location of the encounter at the outvolume point is recorded (step S4280).

이어 인볼륨포인트와 아웃볼륨포인트의 중간 포인트 결과를 출력하고, 이를 근거로 볼륨 렌더링 영상에서 입력된 점을 구조물 중앙으로 변환시킬 수 있다(단계 S4290).Subsequently, the midpoint result of the involume point and the outvolume point is output, and based on this, the point input in the volume rendering image may be converted to the center of the structure (step S4290).

상기한 바와 같이, 도 5에서 블랙 복셀은 인체 구조물의 밀도값을 갖는 복셀이고, 화살표 진행 방향의 첫 번째 포인트는 구조물 내부에 진입하기 이전을 나타내고, 두 번째 포인트는 구조물 내부를 나타내고, 세 번째 포인트는 구조물 내부를 바로 통과한 것을 의미한다.As described above, in FIG. 5, the black voxel is a voxel having a density value of the human body structure, the first point in the direction of arrow progression indicates before entering the structure, the second point indicates the inside of the structure, and the third point. Refers to just passing through the inside of the structure.

한편, 가상 내시경 시스템으로 내시경 진단을 할 때 주변 구조물에 대한 정보가 있다면 진단에 매우 유용하다. 특히 의료진에서는 구조물의 중앙선을 통과하는 경로를 포함한 재구성 이미지를 원한다.Meanwhile, when the endoscope is diagnosed with a virtual endoscope system, it is very useful for diagnosis if there is information on surrounding structures. In particular, medical staff want a reconstructed image that includes a path through the centerline of the structure.

이러한 의료진의 요구에 응답하여 본 발명의 가상 내시경 시스템에 따르면 경로를 포함한 재구성 이미지를 참조 영상으로 보여준다. 또한 이 영상은 360도로 돌면서 영상을 만들어 주기 때문에 주변 구조물에 대한 정확한 정보를 얻게 해 준다.In response to the request of the medical staff, according to the virtual endoscope system of the present invention, a reconstructed image including a path is shown as a reference image. In addition, the image rotates 360 degrees to create an image that provides accurate information about the surrounding structures.

도 7은 본 발명에 따른 경로를 포함한 단면 재구성 영상의 생성을 설명하기 위한 도면이고, 도 8은 본 발명에 따른 경로와 평행 또는 수직인 단면 재구성 영상의 생성을 설명하기 위한 도면이다.7 is a view for explaining the generation of a cross-sectional reconstruction image including a path according to the present invention, Figure 8 is a view for explaining the generation of a cross-sectional reconstruction image parallel or perpendicular to the path according to the present invention.

도 7 내지 도 8을 참조하면, 직선이나 곡선의 경로를 포함한 다면 재구성 이미지는 사용자의 마우스 조작에 따른 경로 상의 각 포인트에서 사용자가 설정한 일정한 방향으로 한 줄씩의 스캔 라인을 생성하여 영상을 형성할 수 있다. 즉, 3차원 이미지 상에서 단면 영상을 디스플레이할 때 직선에 의해 절단된 영상뿐만 아니라 다양한 형태의 3차원 상의 곡선을 통해 절단된 다면 재구성 이미지를 생성하여 디스플레이할 수 있다. 이때 형성되는 경로 재구성 영상은 구조물의 중앙선을 통과하는 경로를 중심으로 주변 구조물에 대한 정보까지 디스플레이하므로 내시경 진단을 할 때 의료진에게는 매우 요긴하게 이용될 수 있다.7 to 8, a multi-faceted reconstructed image including a path of a straight line or a curved line may generate an image by generating a line of scan lines in a predetermined direction set by the user at each point on the path according to the user's mouse operation. Can be. That is, when displaying a cross-sectional image on a three-dimensional image, it is possible to generate and display a reconstructed image if not only an image cut by a straight line but also a cut through various types of three-dimensional curves. The path reconstruction image formed at this time displays information on the surrounding structures around the path passing through the center line of the structure, and thus can be very useful for medical personnel when diagnosing an endoscope.

본 발명에 따르면, 가상 내시경 경로를 이용한 다면 재구성 영상을 합성하는데 있어서, 3차원 영상을 관찰하는 방향으로 곡면 재구성(curved planar reformation)을 시행하므로써, 보고자 하는 해부학적 구조물의 전장을 펼쳐 보일 수 있다. 또한, 3차원 영상의 회전에 따라 곡면 재구성 영상이 바뀌도록 하므로써 실질적으로 가상 내시경 경로를 축으로한 곡면 재구성 영상을 회전시킬 수 있다.According to the present invention, in synthesizing a multi-dimensional reconstructed image using a virtual endoscope path, by performing curved planar reformation in a direction of observing a 3D image, the full length of the anatomical structure to be viewed can be shown. In addition, the curved reconstructed image may be rotated substantially based on the virtual endoscope path by changing the curved reconstructed image according to the rotation of the 3D image.

또한, 도 8에 도시한 바와 같이, 가상 내시경 관점에서 가상 내시경 경로에 평행한 직선 인터페이스 방식의 단면 재구성의 경우도 가상 내시경 경로의 방향을 축으로 자유롭게 회전시킬 수도 있으며, 가상 내시경 관점에서 가상 내시경 경로에 수직인 직선 인터페이스 방식의 단면 재구성은 가상 내시경 관점의 이동에 따라 이동하면서 관찰하고자 하는 구조물의 수직 단면을 연속적으로 보여줄 수 있게 구현할 수도 있다.In addition, as shown in FIG. 8, in the case of the cross-sectional reconstruction of the linear interface method parallel to the virtual endoscope path from the virtual endoscope perspective, the direction of the virtual endoscope path can also be freely rotated about the axis, and the virtual endoscope path from the virtual endoscope viewpoint. The cross-sectional reconstruction of the straight interface method perpendicular to may be implemented to continuously show the vertical cross section of the structure to be observed while moving as the virtual endoscope moves.

즉, 가상 내시경 관점에서 관찰하고자 하는 구조물의 특성에 따라 적절한 다면 재구성 방법을 선택해서 사용할 수 있도록 함으로써, 가상 내시경 영상 소견을 다면 재구성 영상을 통해 쉽게 이해할 수 있다.That is, the virtual endoscope image findings can be easily understood through the reconstructed image by allowing the user to select and use a proper reconstruction method according to the characteristics of the structure to be observed from the virtual endoscope perspective.

우선 3차원 영상을 관찰하는 방향으로 곡면 재구성(curved planar reformation)을 시행하여 보고자 하는 해부학적 구조물의 전장을 펼쳐 보이는 방법은 다음과 같이 구현된다.First, the method of unfolding the full length of the anatomical structure to be seen by performing curved planar reformation in the direction of observing the 3D image is implemented as follows.

즉, 구조물의 중심을 따라가는 곡선 경로에 대한 정보는 예를 들어, 길이가 1만큼 씩 떨어진 포인트들로서 3차원 좌표값(x,y,z)으로 저장되어 있다. 따라서, 경로 상의 한 포인트와 시각 벡터(viewing vector)를 알고 있으므로 경로 상의 한포인트를 지나는 직선을 따라가면서 곡면 재구성 이미지를 얻는다.That is, the information on the curved path along the center of the structure is stored as, for example, three-dimensional coordinate values (x, y, z) as points separated by one length. Therefore, since we know a point on the path and a viewing vector, we get a surface reconstruction image along a straight line passing through a point on the path.

각각의 포인트에서 출발하여 볼륨 데이터의 경계를 벗어날 때까지 방향 벡터를 이용해 전진하면서 픽셀에 해당하는 값을 얻어온다. 한 포인트에 대해 수행하면 재구성 영상의 한 줄을 구한 것이다.Starting at each point, we move forward with the direction vector until we get out of the boundary of the volume data, and we get the value corresponding to the pixel. Performing on one point yields a line of the reconstructed image.

따라서, 모든 3차원 포인트들에 대해서 수행하면 하나의 완전한 재구성 영상이 이루어진다. 도 7은 그 과정을 도시한다.Therefore, if all three-dimensional points are performed, one complete reconstruction image is obtained. 7 shows the process.

한편, 도 8과 같이, 경로와 평행 또는 수직인 단면을 재구성하기 위해서는 경로 상의 한 포인트에서의 법선 벡터를 이용한다. 경로를 이루고 있는 각 포인트는 곡선의 식을 미분한 값을 법선 벡터 값으로 가지고 있다. 따라서, 경로상의 한 포인트와 평행인 면을 재구성하기 위해서는 경로 상의 한 포인트와 법선 벡터 상의 한 포인트를 포함한 평면으로 평면 재구성 이미지를 만든다. 이때 평면은 여러 개가 나올 수 있으므로 사용자의 조작으로 평면을 선택하는 것이 바람직할 것이다.On the other hand, as shown in Figure 8, in order to reconstruct the cross-section or parallel to the path using a normal vector at a point on the path. Each point in the path has a normal vector value that is the derivative of the curve equation. Thus, in order to reconstruct a plane parallel to a point on the path, a planar reconstruction image is made of a plane containing one point on the path and one point on the normal vector. In this case, since several planes may come out, it may be desirable to select a plane by a user's manipulation.

또한, 경로의 한 포인트와 수직인 단면은 한 포인트와 법선 벡터와 수직인 평면이므로 하나의 평면이 결정된다. 따라서 경로 상의 한 포인트를 선택하면 그 포인트에서의 법선 벡터가 평면의 법선 벡터가 되는 평면으로 평면 재구성 이미지를 만들 수 있다.Also, one plane is determined because the cross section perpendicular to one point of the path is a plane perpendicular to one point and the normal vector. Therefore, by selecting a point on the path, a planar reconstruction image can be made into a plane in which the normal vector at that point becomes the normal vector of the plane.

그러면 본 발명의 또 다른 하나의 특징이라 할 수 있는 2차원 영상 상에서 3차원 영상 효과를 얻을 수 있는 방법을 보다 상세히 설명한다.Next, a method of obtaining a 3D image effect on a 2D image, which is another feature of the present invention, will be described in detail.

도 9는 본 발명에 따른 2차원 영상에서 3차원적 카메라 조정을 설명하기 위한 도면으로, 특히 평면상에서의 방향 조작과 깊이 상에서의 방향 조작을 각각 설명하기 위한 도면이다.9 is a view for explaining a three-dimensional camera adjustment in a two-dimensional image according to the present invention, in particular, a view for explaining the direction operation on the plane and the direction operation on the depth, respectively.

도 9를 참조하면, 2차원 영상이나 볼륨 렌더링 영상으로 만들어진 3차원 영상에 관찰할 위치를 마우스 클릭으로 지정하고, 2차원 영상 및 3차원 영상 각각에서 가상 내시경 시각 방향을 x, y 좌표의 평면 방향과 z 좌표의 깊이 방향까지 조절할 수 있다.Referring to FIG. 9, a mouse click is used to designate a position to be observed in a 3D image made of a 2D image or a volume rendering image, and the virtual endoscope visual direction is a planar direction of x and y coordinates in the 2D image and the 3D image, respectively. You can also adjust the depth to the and z coordinates.

즉, 본 발명에 따르면 관점과 시각 방향이 바뀔 때마다 가상 내시경 영상을 새로 렌더링하여 사용자가 가상 내시경의 위치 선정과 위치 파악을 용이하게 할 수 있어 2차원 영상에서 3차원적인 영상 효과를 얻을 수 있다.That is, according to the present invention, the virtual endoscope image is newly rendered whenever the viewpoint and the visual direction are changed, so that the user can easily select the position and position of the virtual endoscope to obtain a three-dimensional image effect in the two-dimensional image. .

그 조작 방법을 가상 내시경을 이용하는 사용자 관점에서 설명하면 아래와 같다.The operation method is described below from the user's point of view using the virtual endoscope.

현재 카메라의 위치와 방향이 볼륨 렌더링 뷰어와 2차원 단면 영상에서 빨간색으로 표시된다. 이때 카메라의 위치를 바꾸기 위해서는 예를 들어, 왼쪽 마우스를 클릭하고, 방향을 돌리기 위해서는 예를 들어, 오른쪽 마우스를 움직여 결정한다. 그러나 일반적인 2차원 영상을 가상 내시경의 참조 영상으로 이용하는 경우, 2차원 상에서 깊이 방향까지 표시하기는 어렵다.The position and orientation of the current camera is displayed in red in the volume rendering viewer and the two-dimensional section image. At this time, the left mouse is clicked to change the position of the camera, for example, and the right mouse is moved to change the direction. However, when a general two-dimensional image is used as a reference image of a virtual endoscope, it is difficult to display the depth direction in two dimensions.

그러나, 본 발명에 따른 가상 내시경 시스템에서는 도 8에 도시한 바와 같이, z 좌표의 방향 모드까지 바꿀 수 있다. 즉, 화살표를 오른쪽 마우스로 클릭할 때마다 토글식으로 방향 전환 모드가 바뀐다. 즉, 빨간색을 평면 방향으로 파란색은 깊이 방향으로 조절이 가능하다. 빨간색인 경우, 마우스의 움직임에 따라 카메라가 보는 방향과 수직인 평면상에서 방향이 바뀌고, 파란색인 경우에는 카메라가보는 방향 벡터를 포함하는 평면상에서 방향이 바뀌므로 2차원 영상에서 3차원적으로 조작이 가능하다.However, in the virtual endoscope system according to the present invention, as shown in FIG. 8, the direction mode of the z coordinate can be changed. In other words, each time you right-click the arrow, the toggle mode changes. That is, red in the plane direction and blue in the depth direction can be adjusted. In red, the direction changes in a plane perpendicular to the direction of the camera as the mouse moves. In blue, the direction changes in the plane including the direction vector. It is possible.

도 10은 본 발명에 의한 가상 내시경 시스템의 참조 영상으로 사용되는 3차원 볼륨 렌더링 영상을 도시하며, 특히, 기관지를 내시경하기 위해 3차원 볼륨 렌더링으로 기관지를 가시화한 영상을 도시한 예이다.FIG. 10 illustrates a 3D volume rendering image used as a reference image of the virtual endoscope system according to the present invention. In particular, FIG. 10 is an example showing an image of the bronchus visualized by 3D volume rendering for endoscopy.

도 10을 참조하면, 가상 내시경으로 기관지를 보기 위해 3차원 볼륨 렌더링에서 우선적으로 기관지에 해당하는 밀도값으로 분류화 작업을 하고 기관지를 보이도록 불필요한 부분을 삭제하고 카메라 또는 사용자가 보는 방향을 조절한다.Referring to FIG. 10, in order to view the bronchus with a virtual endoscope, the 3D volume rendering is first classified into density values corresponding to the bronchus, and unnecessary parts are deleted to show the bronchus and the direction of the camera or the user is adjusted. .

도 11은 상기한 도 10의 3차원 볼륨 렌더링 영상을 기초로 본 발명에 의한 바람직한 가상 내시경 시스템이 제공하는 화면을 불러낸 예이다.FIG. 11 illustrates an example of a screen provided by a preferred virtual endoscope system according to the present invention based on the 3D volume rendering image of FIG. 10.

도 11을 참조하면, 가상 내시경 시스템으로 들어가면 상기 도 2와 같은 4개의 뷰어가 보이고, 각 뷰어에서 카메라의 위치가 빨간 색 포인트로 표시되며, 본 발명의 특징의 하나인 3차원 참조 영상에서 직접 경로를 설정한 예를 보여주고 있다.Referring to FIG. 11, when entering the virtual endoscope system, four viewers as shown in FIG. 2 are shown, and the position of the camera is indicated by a red point in each viewer, and a direct path in the 3D reference image, which is one of the features of the present invention. Shows an example of setting.

사용자의 조작에 의해 경로가 설정되면, MPR path 뷰어에서 경로를 포함한 다면 재구성 영상이 생성된다. 상기 경로를 포함한 다면 재구성 영상에서도 카메라의 위치를 표시한다. 상기 경로를 포함한 다면 재구성 영상의 방향을 바꾸기 위해서는 상기 볼륨 렌더링 영상 뷰어에서 마우스를 이용한다. 이때 재구성 이미지의 방향이 상기 4개의 뷰어 중, 3차원 볼륨 렌더링 뷰어에 파란색 줄로 표시되게 구성한 예이다.When the path is set by the user's manipulation, the reconstructed image is generated if the path is included in the MPR path viewer. If the path is included, the position of the camera is also displayed in the reconstructed image. In order to change the direction of the reconstructed image including the path, a mouse is used in the volume rendering image viewer. In this case, the direction of the reconstructed image is configured to be displayed in a blue line in the three-dimensional volume rendering viewer among the four viewers.

도 12는 본 발명에 의한 바람직한 가상 내시경 시스템에서 상기 도 11에서 사용자가 한번 지정했던 경로를 임의로 수정할 수 있게 하는 기능을 제공하는 화면을 도시한다.FIG. 12 illustrates a screen providing a function of allowing a user to arbitrarily modify a path designated by the user in FIG. 11 in a preferred virtual endoscope system according to the present invention.

도 12를 참조하면, 경로를 3차원 참조 영상에서 직접 수정하는 과정을 나타내고 있다. 경로 수정은 경로 위에 보여지는 포인트를 마우스를 이용하여 움직이면 된다.Referring to FIG. 12, a process of directly modifying a path in a 3D reference image is illustrated. To modify the path, use the mouse to move the point shown on the path.

또한, 본 발명에 따른 시스템은 이와 같이 만들어진 경로 위에서 길이를 측정하는 도구를 포함하도록 하여 사용자의 편의를 도모하도록 할 수 있다.In addition, the system according to the present invention can include a tool for measuring the length on the path thus made for the convenience of the user.

본 발명에 의한 가상 내시경 시스템과 이를 이용한 가상 내시경 디스플레이 방법과 그 방법을 컴퓨터 상에서 수행하는 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체는 본 발명의 기술적 사상의 범위 내에서 다양한 형태로 변형, 응용 가능하며 상기 바람직한 실시예에 한정되지 않는다.The virtual endoscope system according to the present invention, the virtual endoscope display method using the same, and a computer-readable recording medium storing a program for executing the method on a computer can be modified and applied in various forms within the scope of the technical idea of the present invention. It is not limited to the said preferable embodiment.

예를 들면, 상기 입력부는 마우스뿐만 아니라 라이트 펜이나 키보드 또는 다종 다양한 입력장치를 사용할 수 있으며, 의료 영상 처리를 위한 시스템뿐만 아니라 자동차, 선박, 건축물 등의 입체적 구조를 가지는 건조물의 설계 및 시공 분야에도 광범위한 응용을 할 수 있다.For example, the input unit may use not only a mouse but also a light pen, a keyboard, or various input devices. In addition to a system for medical image processing, the input unit may be used in the field of design and construction of a building having a three-dimensional structure such as an automobile, a ship, and a building. A wide range of applications is possible.

이상에서 설명한 바와 같이, 본 발명에 따른 가상 내시경 시스템은 3차원 볼륨 데이터에 대한 전처리 과정이 없이 볼륨 렌더링으로 생성한 영상을 참조 영상으로 사용하며, 상기한 참조 영상으로 이용하여 사용자가 쉽게 경로를 설정하고 수정할 수 있고, 설정된 경로에 따라 MPR 영상을 생성하므로써 구조물 주변에 대한 이해를 보다 쉽게 할 수 있다.As described above, the virtual endoscope system according to the present invention uses an image generated by volume rendering without a preprocessing process for 3D volume data as a reference image, and the user easily sets a path using the reference image. It is possible to easily understand the surroundings of the structure by generating MPR images according to the set path.

또한, 이상에서 설명한 가상 내시경은 여러 종류의 의료 영상의 통합 환경으로서 고도의 기술력을 종합한 것이며, 본 발명으로 인해 가상 내시경은 더욱 다양한 영상 및 다양한 기술을 포함한 통합 시스템으로 발전할 수 있을 것이다.In addition, the virtual endoscope described above is a combination of high technology as an integrated environment of various types of medical images, the virtual endoscope will be able to develop into an integrated system including more various images and various technologies due to the present invention.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to a preferred embodiment of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the invention as set forth in the claims below. It will be appreciated.

이상 설명한 바와 같이, 본 발명에 따른 가상 내시경은 환자에게는 비침습적인 것으로써, 고통 없이 장기의 내부를 볼 수 있게 해 준다.As described above, the virtual endoscope according to the present invention is non-invasive to the patient, and allows the internal view of the organ without pain.

또한 실제 내시경에서는 카메라가 들어가는 방향, 즉 카메라의 전진 방향으로만 장기 내부를 관찰할 수 있으나, 본 발명에 따른 가상 내시경은 카메라가 들어가는 반대 방향, 즉 카메라의 후진 방향으로도 관찰이 가능하므로 진단에 매우 유용하다.In addition, in an endoscope, the inside of the organ may be observed only in the direction in which the camera enters, that is, in the forward direction of the camera, but the virtual endoscope according to the present invention may be observed in the opposite direction in which the camera enters, that is, in the backward direction of the camera. Very useful.

또한, 현재까지는 인터페이스의 비효율성으로서 가상 내시경 시스템의 조작이 어려워서 널리 이용되지 못하고 있었으나, 본 발명에 따르면 사용자가 쉽게 카메라를 조작할 수 있고, 여러 가지 참조 영상을 함께 보여 줌으로서 가상 내시경의 유용성을 더욱 높일 수 있다.In addition, until now, the virtual endoscope system has been difficult to operate due to the inefficiency of the interface. However, according to the present invention, the user can easily operate the camera and show the various reference images together. It can be increased further.

Claims (9)

삭제delete 소정의 특성을 가지는 입체적 구조물에 대한 밀도값이 저장된 볼륨 데이터를 입력받아 저장하는 입력/저장부;An input / storing unit configured to receive and store volume data storing density values of three-dimensional structures having predetermined characteristics; 3차원 참조 영상상에서 사용자가 지정한 경로를 입력받는 입력부;An input unit configured to receive a path designated by a user on a 3D reference image; 상기 3차원 참조 영상을 표시하고, 경로에 따른 내시경 영상을 표시하는 표시부; 및A display unit displaying the 3D reference image and displaying an endoscope image along a path; And 상기 입력/저장부에 저장된 볼륨 데이터로부터 상기 표시부에 표시되는 3차원 참조 영상을 생성하고, 상기 입력부를 통하여 입력된 경로를 상기 3차원 참조 영상상의 곡선 데이터로 처리하는 참조 영상 처리부; 상기 참조 영상 처리부에 의해 곡선 데이터로 처리된 경로로부터 내시경 영상을 보고자 하는 내부 구조물의 벽에 해당되는 복셀의 볼륨 데이터 내의 위치를 판단하며, 상기 경로가 실제로 내부 구조물을 통과하도록 상기 복셀의 볼륨 데이터 내의 위치에 의해 경로를 정정하는 경로 변환부; 및 상기 경로 변환부에서 얻어진 정정된 경로에 따라 상기 경로를 포함하는 다면 재구성 영상을 생성하는 다면 재구성 영상 합성부를 구비한 내시경 영상 처리부를 포함하되,A reference image processor which generates a 3D reference image displayed on the display unit from the volume data stored in the input / storage unit, and processes a path input through the input unit as curve data on the 3D reference image; Determine a position in the volume data of the voxel corresponding to the wall of the internal structure from which the endoscope image is to be viewed from the path processed by the reference image processor, and in the volume data of the voxel so that the path actually passes through the internal structure. A path converting unit correcting a path by a position; And an endoscope image processor having a multi-faceted reconstructed image synthesizer configured to generate a multi-faceted reconstructed image including the path according to the corrected path obtained by the path converter. 상기 내부 구조물의 벽에 해당하는 복셀의 볼륨 데이터 내의 위치는, 소정의 발사된 광선이 내부 구조물의 벽에 해당하는 복셀과 1차 만나는 위치를 저장하는 제1 저장된 위치와 내부 구조물의 벽에 해당하는 복셀과 2차 만나는 위치를 저장하는 제2 저장된 위치를 근거로 결정된 내부 구조물의 중간 포인트 지점이 되는 것을 특징으로 하는 가상 내시경 시스템.The position in the volume data of the voxel corresponding to the wall of the inner structure corresponds to a first stored position and a wall of the inner structure which stores the position where a predetermined fired ray first meets the voxel corresponding to the wall of the inner structure. And a midpoint point of the internal structure determined based on a second stored location storing a secondary encounter with the voxel. 원시 영상 데이터를 저장하고, 저장된 원시 영상 데이터의 밀도값을 분류하여 가상 내시경을 디스플레이하는 가상 내시경 디스플레이 방법에 있어서,In the virtual endoscope display method for storing the raw image data, classifying the density value of the stored raw image data to display a virtual endoscope, (a) 상기 3차원 볼륨 데이터로부터 관찰하고자하는 부위에 해당하는 볼륨 렌더링 영상을 생성하는 단계;(a) generating a volume rendering image corresponding to an area to be observed from the 3D volume data; (b) 하나의 화면을 분할한 다수의 뷰어상에 상기 생성된 볼륨 렌더링 영상, 2차원 영상, 가상 내시경 영상 및 경로 재구성 영상을 각각 디스플레이하는 단계;(b) displaying each of the generated volume rendering image, two-dimensional image, virtual endoscope image, and path reconstruction image on a plurality of viewers partitioning one screen; (c) 사용자의 조작에 따라 상기 2차원 영상 또는 3차원 볼륨 렌더링 영상 중 어느 하나의 영상에서 경로가 설정됨에 따라 상기 경로 재구성 영상의 디스플레이를 갱신하는 단계;(c) updating the display of the path reconstruction image as a path is set in one of the 2D image and the 3D volume rendering image according to a user's manipulation; (d) 사용자의 조작에 따라 카메라의 위치 변경 요청 여부를 체크하는 단계; 및(d) checking whether to change the position of the camera according to a user's operation; And (e) 상기 카메라 위치 변경 요청이 있는 경우에는 상기 카메라의 위치 변경에 따라 조정된 가상 내시경 영상 데이터를 생성하고, 상기 생성된 가상 내시경 영상 데이터를 근거로 상기 가상 내시경 영상과 상기 2차원 영상을 갱신하는 단계(e) When the camera position change request is made, generate virtual endoscope image data adjusted according to the position change of the camera, and update the virtual endoscope image and the 2D image based on the generated virtual endoscope image data. Steps to 를 포함하는 가상 내시경 디스플레이 방법.Virtual endoscope display method comprising a. 제3항에 있어서,The method of claim 3, (f) 사용자의 조작에 따른 볼륨 렌더링 영상의 재조작 요청 여부를 체크하여, 재조작 요청이 있는 경우에는 상기 단계(a)로 피드백하는 단계를 더 포함하는 것을 특징으로 하는 가상 내시경 디스플레이 방법.and (f) checking whether or not the volume rendering image is requested to be remanufactured according to a user's operation, and feeding back to the step (a) if there is a remanipulation request. 제3항에 있어서, 상기 단계(c)는,The method of claim 3, wherein step (c) comprises: (c-1) 사용자의 조작에 따라 2차원 영상 또는 3차원 볼륨 렌더링 영상에서 포인트가 지정됨에 따라 곡선식의 컨트롤 포인트를 추가하여 3차원 곡선의 식을 생성하는 단계;(c-1) generating a 3D curve equation by adding a curved control point as a point is designated in a 2D image or a 3D volume rendered image according to a user's manipulation; (c-2) 상기 3차원 곡선의 식을 이용하여 곡선 경로를 생성하는 단계; 및(c-2) generating a curve path using the equation of the three-dimensional curve; And (c-3) 상기 생성된 곡선 경로를 따라 가면서 일정 간격마다 해당 포인트들을 저장하는 단계를 포함하는 것을 특징으로 하는 가상 내시경 디스플레이 방법.(c-3) storing the corresponding points at predetermined intervals along the generated curved path. 제5항에 있어서, 상기 단계(c-2)는,The method of claim 5, wherein step (c-2) comprises: 상기 3차원 볼륨 렌더링 영상을 참조영상으로 이용하는 경우에는 구조물의 중앙으로 변환시키는 단계를 더 포함하는 것을 특징으로 하는 가상 내시경 디스플레이 방법.And using the 3D volume rendering image as a reference image, converting the image to the center of the structure. 제6항에 있어서, 상기 구조물의 중앙으로 변환시키는 단계는,The method of claim 6, wherein converting to the center of the structure, 볼륨 렌더링으로 그려진 2차원 영상에 마우스 입력에 따라 검사할 깊이의 최소값과 최대값을 설정하는 단계;Setting a minimum value and a maximum value of a depth to be inspected according to a mouse input in a 2D image drawn by volume rendering; 시간 역행렬을 곱하여 화면 좌표계의 포인트를 공간 좌표계에서의 포인트로 변환하는 단계;Multiplying the temporal inverse to convert points in the screen coordinate system into points in the spatial coordinate system; 상기 설정된 최소 깊이에서 소정의 광선을 발사하는 단계;Firing a beam of light at the set minimum depth; 상기 발사된 광선이 물체의 벽에 해당하는 복셀과 1차 만나는 경우에는 해당 위치를 제1 저장하는 단계;First storing the location when the emitted light beam first meets a voxel corresponding to a wall of an object; 상기 발사된 광선이 물체의 벽에 해당하는 복셀과 2차 만나는 경우에는 해당 위치를 제2 저장하는 단계; 및If the emitted light beam meets a voxel corresponding to a wall of an object for a second time, storing the second location; And 상기 제1 저장된 위치와 제2 저장된 위치를 근거로 중간 포인트 결과를 생성하는 단계를 포함하는 것을 특징으로 하는 가상 내시경 디스플레이 방법.And generating a midpoint result based on the first stored position and the second stored position. 제3항에 있어서, 상기 카메라는,The method of claim 3, wherein the camera, 소정의 시각 벡터를 이용하여 상기 볼륨 렌더링 영상, 2차원 영상, 가상 내시경 영상 및 경로 재구성 영상을 디스플레이하고, 상기 시각 벡터를 조정한 변경 시각 벡터를 이용하여 상기 볼륨 렌더링 영상, 2차원 영상, 가상 내시경 영상 및 경로 재구성 영상을 갱신하여 2차원 영상 상에서 3차원적인 영상 효과를 얻는 것을 특징으로 하는 가상 내시경 디스플레이 방법.The volume rendering image, the two-dimensional image, the virtual endoscope image, and the path reconstruction image are displayed by using a predetermined visual vector, and the volume rendering image, the two-dimensional image, and the virtual endoscope by using the changed time vector having adjusted the visual vector And a three-dimensional image effect on a two-dimensional image by updating the image and the path reconstruction image. 원시 영상 데이터를 저장하고, 저장된 원시 영상 데이터의 밀도값을 분류하여 가상 내시경을 디스플레이하는 방법을 그 방법을 컴퓨터 상에서 수행하는 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체에 있어서,A computer-readable recording medium storing a program for storing a raw image data, classifying density values of stored raw image data, and displaying a virtual endoscope on the computer. (a) 상기 3차원 볼륨 데이터로부터 관찰하고자하는 부위에 해당하는 볼륨 렌더링 영상을 생성하는 단계;(a) generating a volume rendering image corresponding to an area to be observed from the 3D volume data; (b) 하나의 화면을 분할한 다수의 뷰어상에 상기 생성된 볼륨 렌더링 영상, 2차원 영상, 가상 내시경 영상 및 경로 재구성 영상을 각각 디스플레이하는 단계;(b) displaying each of the generated volume rendering image, two-dimensional image, virtual endoscope image, and path reconstruction image on a plurality of viewers partitioning one screen; (c) 사용자의 조작에 따라 상기 2차원 영상 또는 3차원 볼륨 렌더링 영상 중 어느 하나의 영상에서 경로가 설정됨에 따라 상기 경로 재구성 영상의 디스플레이를 갱신하는 단계;(c) updating the display of the path reconstruction image as a path is set in one of the 2D image and the 3D volume rendering image according to a user's manipulation; (d) 사용자의 조작에 따라 카메라의 위치 변경 요청 여부를 체크하는 단계; 및(d) checking whether to change the position of the camera according to a user's operation; And (e) 상기 카메라 위치 변경 요청이 있는 경우에는 상기 카메라의 위치 변경에 따라 조정된 가상 내시경 영상 데이터를 생성하고, 상기 생성된 가상 내시경 영상 데이터를 근거로 상기 가상 내시경 영상과 상기 2차원 영상을 갱신하는 단계(e) When the camera position change request is made, generate virtual endoscope image data adjusted according to the position change of the camera, and update the virtual endoscope image and the 2D image based on the generated virtual endoscope image data. Steps to 를 컴퓨터 상에서 수행하는 프로그램이 저장된 컴퓨터가 판독 가능한 기록 매체.A computer-readable recording medium storing a program for executing a program on a computer.
KR10-2001-0024390A 2000-11-25 2001-05-04 System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon KR100466409B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2001/002017 WO2002041767A1 (en) 2000-11-25 2001-11-22 System and method for displaying a virtual endoscopy and computer readable medium storing thereof
AU2002222701A AU2002222701A1 (en) 2000-11-25 2001-11-22 System and method for displaying a virtual endoscopy and computer readable medium storing thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020000070725 2000-11-25
KR20000070725 2000-11-25

Publications (2)

Publication Number Publication Date
KR20020031273A KR20020031273A (en) 2002-05-01
KR100466409B1 true KR100466409B1 (en) 2005-01-13

Family

ID=19701509

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0024390A KR100466409B1 (en) 2000-11-25 2001-05-04 System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon

Country Status (1)

Country Link
KR (1) KR100466409B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100960777B1 (en) 2007-12-31 2010-06-01 주식회사 인트로메딕 System and method for acquiring information in living body
KR20140141507A (en) 2013-05-29 2014-12-10 서울과학기술대학교 산학협력단 Lesion Tracking and Monitoring System for Endoscopy
US9508143B2 (en) 2014-01-02 2016-11-29 Samsung Electronics Co., Ltd. Apparatus and method for marking region of interest
US12138401B2 (en) 2019-04-30 2024-11-12 Ln Robotics Inc. Apparatus and method for evaluating proceeding route of guide wire

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509133A (en) * 2009-09-10 2012-04-19 インフィニット ヘルスケア カンパニー リミテッド Virtual endoscope apparatus, driving method thereof, and examination apparatus
KR101230871B1 (en) * 2009-09-10 2013-02-07 주식회사 인피니트헬스케어 Virtual Endoscopy Apparatus, Method for Driving thereof and Medical Examination Apparatus
KR101700847B1 (en) * 2014-03-31 2017-01-31 이미숙 Method for Providing Training of Image Guided Surgery and Computer-readable Recording Medium for the same
WO2018159867A1 (en) * 2017-02-28 2018-09-07 메디컬아이피 주식회사 Three-dimensional medical image control method and device therefor
CN112465763B (en) * 2020-11-24 2024-10-01 深圳开立生物医疗科技股份有限公司 Image processing method, device, equipment, medium and endoscope system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100960777B1 (en) 2007-12-31 2010-06-01 주식회사 인트로메딕 System and method for acquiring information in living body
KR20140141507A (en) 2013-05-29 2014-12-10 서울과학기술대학교 산학협력단 Lesion Tracking and Monitoring System for Endoscopy
US9508143B2 (en) 2014-01-02 2016-11-29 Samsung Electronics Co., Ltd. Apparatus and method for marking region of interest
US12138401B2 (en) 2019-04-30 2024-11-12 Ln Robotics Inc. Apparatus and method for evaluating proceeding route of guide wire

Also Published As

Publication number Publication date
KR20020031273A (en) 2002-05-01

Similar Documents

Publication Publication Date Title
EP3358528B1 (en) Point cloud proxy for physically-based volume rendering
JP4377464B2 (en) Image display device
US6049622A (en) Graphic navigational guides for accurate image orientation and navigation
KR100439756B1 (en) Apparatus and method for displaying virtual endoscopy diaplay
CN103356155B (en) Virtual endoscope assisted cavity lesion examination system
US20040171922A1 (en) Image processing method for interacting with a 3-d surface represented in a 3-d image
US8077948B2 (en) Method for editing 3D image segmentation maps
US4989142A (en) Three-dimensional images obtained from tomographic slices with gantry tilt
US20160232703A1 (en) System and method for image processing
US7825924B2 (en) Image processing method and computer readable medium for image processing
JP2009034521A (en) System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium
KR100466409B1 (en) System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon
WO2011041475A1 (en) Medical image analysis system using n-way belief propagation for anatomical images subject to deformation and related methods
EP2483865A1 (en) Medical image analysis system for anatomical images subject to deformation and related methods
US12073508B2 (en) System and method for image processing
JP6739897B2 (en) Method and system for rendering
JP2006000127A (en) Image processing method, apparatus and program
CN111383233A (en) Volume rendering optimization with known transfer functions
EP2483864A1 (en) Medical image analysis system for displaying anatomical images subject to deformation and related methods
KR100420791B1 (en) Method for generating 3-dimensional volume-section combination image
WO2013027773A1 (en) Image processing device, image processing method, and recording medium
JP2008067915A (en) Medical picture display
KR101946577B1 (en) Method and apparatus for generating 3d volume panorama
JP4010034B2 (en) Image creation device
JP2019205791A (en) Medical image processing apparatus, medical image processing method, program, and data creation method

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
G15R Request for early publication
E902 Notification of reason for refusal
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130104

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140106

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20150106

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20160105

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20170104

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20191230

Year of fee payment: 16