[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20000011134A - Stereotactic surgical procedure apparatus and method - Google Patents

Stereotactic surgical procedure apparatus and method Download PDF

Info

Publication number
KR20000011134A
KR20000011134A KR1019980709294A KR19980709294A KR20000011134A KR 20000011134 A KR20000011134 A KR 20000011134A KR 1019980709294 A KR1019980709294 A KR 1019980709294A KR 19980709294 A KR19980709294 A KR 19980709294A KR 20000011134 A KR20000011134 A KR 20000011134A
Authority
KR
South Korea
Prior art keywords
image
block
computer
virtual
coordinates
Prior art date
Application number
KR1019980709294A
Other languages
Korean (ko)
Inventor
마이클 에이. 페쉬킨
줄리오 제이. 산토스-뮨네
Original Assignee
인드래니 머캐르지
노쓰웨스턴 유니버시티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인드래니 머캐르지, 노쓰웨스턴 유니버시티 filed Critical 인드래니 머캐르지
Priority to KR1019980709294A priority Critical patent/KR20000011134A/en
Publication of KR20000011134A publication Critical patent/KR20000011134A/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/464Displaying means of special interest involving a plurality of displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: An apparatus for stereo tactic surgical procedure is provided to permit accurate computer-based planning of the insertion point and angle of approach of a needle, a drill, a screw, a nail, a wire or other surgical instruments into the body of a patient. CONSTITUTION: An apparatus and method are provided for coordinating two fluoroscope images (62, 86), which permit accurate computer-based planning of the insertion point and angle of approach of a needle, drill, screw, nail, wire or other surgical instrumentation into the body of a patient, and subsequently guide the surgeon in performing the insertion in accordance with the plan.

Description

정위 수술 방법 및 장치Stereotactic Surgical Method and Device

본 발명은 전국과학협회에서 수상한 Grant No. DMC-8857854 하에서 미국정부의 지원을 받아 이루어진 것이고, 미국 정부는 본 발명에 대한 소정의 권리를 가진다.The present invention is Grant No. awarded from the National Science Association. It is made with the support of the US Government under DMC-8857854, and the US Government has certain rights in the invention.

본 발명은 소정의 물건을 선형 궤도를 따라 인체에 삽입하는 것을 설계 및 안내하는 장치 및 방법에 관한 것이다. 더욱 구체적으로는, 본 발명은 오직 2차원 이미지를 사용하여 효과적인 3차원 경로를 설계할 수 있도록 두 개의 수집(capture)된 형광 투시경에 의한(fluoroscope) 이미지를 조정하는 방법 및 장치에 관한 것이다.The present invention relates to an apparatus and method for designing and guiding insertion of an object into a human body along a linear track. More specifically, the present invention relates to a method and apparatus for adjusting two captured fluoroscope images such that only two-dimensional images can be used to design an effective three-dimensional path.

의료 행위에 있어서 인체에 바늘, 드릴, 나사, 못, 와이어, 또는 기타의 디바이스를 삽입하는 경우가 많이 있다. 어떤 경우에는, 그러한 디바이스의 각도 및 위치 모두가 매우 중요할 수 있는데, 예컨대, 척추의 축을 따라 나사를 체결시키기 위하여 구멍을 뚫는 경우를 들 수 있다. 다른 경우에 있어서는, 그러한 디바이스의 첨점을 위치시키는 것이 가장 중요한 것일 수 있는데, 예컨대, 생체검사용 바늘을 예상 종양에 위치시키는 경우를 들 수 있다. 또다른 경우에 있어서는, 그 목적이 라인보다 한 점을 한정하는 것일 수 있는데, 예컨대, 방사성 치료를 위하여 종양을 표적으로 삼아 치료하는 경우를 들 수 있다. 많은 다른 예들이 있으며, 특히, 정형외과 분야에서 특히 빈번하다.In medical practice, needles, drills, screws, nails, wires, or other devices are often inserted into the human body. In some cases, both the angle and the location of such a device can be very important, for example, drilling holes to fasten screws along the axis of the spine. In other cases, positioning the peaks of such devices may be the most important, for example placing a biopsy needle on a prospective tumor. In another case, the purpose may be to define a point rather than a line, for example, to treat the tumor with a target for radiotherapy. There are many other examples, especially in the field of orthopedic surgery.

또한, 본 발명은 피부를 관통하여 하는 치료에 있어서의 개선과도 관련이 있다. 피부를 통하여 인체 내로 기구를 삽입하기 위한 선형 경로를 결정하는 것은 개(open)수술 기법의 경우보다 더 어렵지만, 피부 조직의 손상 또는 충격은 감소시키는 것이 요구된다 할 것이다.The invention also relates to improvements in treatments that penetrate the skin. Determining a linear path for inserting an instrument through the skin into the human body is more difficult than in the case of an open surgical technique, but it would be required to reduce damage or impact of skin tissue.

형광검사(fluoroscopy) 기법은 의료 행위를 보조하기 위하여 흔히 사용되고 있다. 수술 행위에 있어서의 연속적인 형광검사는 바람직하지 못한데, 이는 의사의 손이 방사성 물질에 노출되기 때문이다. 또한 연속적이든 간헐적이든 형광검사가 행해지면, 그 결과로써 얻어진 이미지는 2차원이지만 의사는 3차원의 공간을 고려하여 의료 기구를 삽입해야 한다.Fluoroscopy techniques are commonly used to assist medical practice. Continuous fluorescence in surgical operations is undesirable because the doctor's hand is exposed to radioactive material. In addition, if fluorescence is performed continuously or intermittently, the resultant image is two-dimensional, but the doctor must insert a medical device in consideration of three-dimensional space.

본 발명의 방법 및 장치는 인체의 독립된 두 개의 형광검사 이미지를 포착 및 저장하는 것을 포함하는데, 이들은 서로 다른 두 방향에서 취해진 것이다. 통상적으로, 언제나 그렇다고는 할 수 없더라도, 이들은 환자의 앞에서 뒤로 취해진 전방/후방(A/P) 이미지 및 측면에서 측면으로 취해진 시상봉합(sagittal) 이미지일 수 있다. 이 두 개의 형광검사 이미지는 두 개의 인접 컴퓨터에 디스플레이 된다. 의사는 모니터 상에서의 삽입 포인트 또는 삽입 경로를 구체화하기 위하여 트랙볼 또는 기타의 컴퓨터 입력 장치를 사용한다.The method and apparatus of the present invention include capturing and storing two independent fluorescence images of the human body, which are taken in two different directions. Typically, but not always, they can be anterior / rear (A / P) images taken from the front and back of the patient and sagittal images taken laterally from the side. These two fluorescence images are displayed on two adjacent computers. The surgeon uses a trackball or other computer input device to specify the insertion point or insertion path on the monitor.

그리고 의사가 의료 기구의 삽입을 사용하는데 안내장치의 위치설정을 위하여 기구적 위치설정 장치가 사용된다. 이 위치설정 장치는 로봇과 같은 적극적으로 컴퓨터로 제어하는 조작기이거나 또는 컴퓨터로부터의 출력에 따라 수치적으로 세트된 수동 조작용 기구 장치일 수 있다.And the doctor uses the insertion of a medical instrument, the mechanical positioning device is used for positioning the guide device. This positioning device may be an actively computer-controlled manipulator, such as a robot, or may be a manually operated instrument device numerically set in accordance with an output from a computer.

본 발명의 방법 및 장치는, 형광검사가 어디에서 행해지든, 수취한 두 개의 형광검사 이미지 각각과 관련하는 투영의 기하학적 관련성을 전개시켜 환자 몸의 둘레 또는 내부에 3차원 작업공간을 만든다. 그러면 이 두 개의 이미지들은 좌표설정된 한 쌍으로 되며, 이것은 3차원 설계를 달성할 수 있도록 해주는데, 이는 이 방법을 사용하지 않았다면 컴퓨터 단층촬영(CT) 스캔이 요구되었을 것이다.The method and apparatus of the present invention, regardless of where fluorescence is performed, develops the geometrical relevance of the projections associated with each of the two received fluorescence images to create a three dimensional workspace around or inside the patient's body. The two images then become coordinated pairs, which allows to achieve a three-dimensional design, which would have required a computed tomography (CT) scan without this method.

거의 직각인 두 개의 이미지를 취득 및 디스플레이하는 것이 의사에게 3차원을 설계할 수 있도록 하기 위하여 요구될 수 있어도, 두 개의 이미지가 반드시 필요한 것은 아니다. 어떤 경우에 있어서는 하나의 수집된 이미지를 사용하는 것도 가능하며, 특히 의사가 형광검사의 비임 축을 의도된 궤도에 맞춘 경우가 그러하다. 또한, 두 개 이상의 이미지도 취득 및 좌표설정될 수 있고, 이것은 더욱 바람직하다.Acquiring and displaying two images that are nearly orthogonal may be required to enable the physician to design three dimensions, but the two images are not necessary. In some cases it is also possible to use a single collected image, especially if the physician has adjusted the beam axis of the fluorescence to the intended trajectory. Also, two or more images may be acquired and coordinated, which is more desirable.

의료 화상을 디스플레이하는 컴퓨터 스크린 상에서 설계되는 정위(stereotactic) 또는 로봇 수술에 대한 몇 가지 다른 방법은 다른 기술자들에 의하여 설명되었고, 이하에서 나열될 것이다. 약간의 배경 설명이 선행 기술을 설명하기 전에 언급된다. 본 발명의 방법 및 장치는 좌표설정된 형광 투시경(coordinated fluoroscopy)이라고 불리는 기법을 구성한다. 좌표설정된 형광검사는 등록(REGISTRATION) 및 수술 설계(SURGICAL PLANNING)에 대한 기법이다. 그것은 어떤 부가적인 측정 장치를 요하지 아니하면서 그들 스스로 요구되는 형광검사 이미지들에 기초한 등록을 가능하게 한다. 그것은 컴퓨터 단층촬영(CT)과 같은 3차원 이미지를 요하지 않으면서, 그리고 두 개의 형광검사 이미지들이 직각인 형광검사 포즈로부터 얻어질 것을 요구하지 않으면서, 두 각도로부터의 형광검사 사진에 기반한 3차원 수술 설계를 가능하게 해준다.Some other methods for stereotactic or robotic surgery designed on computer screens displaying medical images have been described by other technicians and will be listed below. Some background discussion is mentioned before describing the prior art. The method and apparatus of the present invention constitute a technique called coordinated fluoroscopy. Coordinated fluorescence is a technique for registration and surgical design. It enables registration based on the fluorescence images required by themselves without requiring any additional measuring device. It does not require three-dimensional images, such as computed tomography (CT), and does not require two fluorescence images to be obtained from a right-angle fluorescence pose, three-dimensional surgery based on fluorescence photographs from two angles. Enable design

등록(REGISTRATION)REGISTRATION

등록은 이미지로 안내되는 수술 시스템에 있어서 가장 중요한 단계이다. 등록은 수술 계획이 준비되는 이미지 포인트들, 및 환자 근처(및 내부)의 작업공간의 포인트들 사이의 일치에 관한 결정이다.Registration is the most important step in an image-guided surgical system. Registration is a determination regarding the correspondence between the image points at which the surgical plan is prepared and the points in the workspace near (and inside) the patient.

큰공간 상의 어딘가에 존재하는 표식의 3차원 좌표를 측정할 수 있는, 보통 광학인, 글로벌 위치설정 시스템의 도움으로 등록을 행하는 것이 일반적이다. 좌표설정된 형광검사는 고가이고 불편한 이러한 장치의 필요성을 제거해 주며, 얻어진 형광검사 이미지 자체로부터 직접 등록을 유도한다. 좌표설정된 형광검사는 하나 또는 그 이상의 이미지가 다른 각도(포즈)로부터 얻어질 때 환자와 관련한 고정된 위치에서 얻어지는 "등록 인공구조물(registration artifact)"을 사용한다. 이러한 다양한 이미지들이 얻어지는 형광검사 포즈들을 제한할 필요성이 없는데, 예컨대, 그들이 직각일 필요성이 없으며, 또한 형광검사들이 포즈 각도들을 측정할 수 있는 기구도 필요 없게 된다. 그 대신, 포즈 정보는 사후적으로 이미지로부터 추출된다. 몬 발명의 중요한 이점은 그들이 필요로 되어지는 환경에 따라 의사 자신의 선택에 따른 형광검사 포즈들을 사용하여 형광검사 이미지들을 얻을 수 있다는 것이다.It is common to register with the aid of a global positioning system, which is usually optical, that can measure the three-dimensional coordinates of a marker that exists somewhere in large space. Coordinated fluorescence eliminates the need for such an expensive and inconvenient device and induces direct registration from the resulting fluorescence image itself. Coordinated fluorescence uses a "registration artifact" obtained at a fixed position relative to the patient when one or more images are obtained from different angles (poses). There is no need to limit the fluorescence poses from which these various images are obtained, for example, there is no need for them to be at right angles, nor does there need to be a mechanism for fluorescence to measure pose angles. Instead, the pose information is subsequently extracted from the image. An important advantage of the invention is that it is possible to obtain fluorescence images using fluorescence poses of the physician's own choice, depending on the circumstances in which they are needed.

등록 인공구조물은 하나의 형광검사 이미지 상에서 용이하게 식별할 수 있도록 설계된 여러 가지의 특징들(기준점들(fiducials))을 포함한다. 여기에서 설명된 구현예는 광방사 매트릭스에 구현된 8개의 작은 강 구들을 사용한다. 이러한 기준점들은 설계 또는 측정에 의하여 인공구조물에 고정된 좌표 시스템과 관련하여 공지되어 있다.The registration construct includes a variety of features (fiducials) designed to easily identify on one fluorescence image. The embodiment described herein uses eight small steel spheres implemented in the light emission matrix. These reference points are known in the context of coordinate systems fixed to the artificial structure by design or measurement.

하나의 형광 이미지의 이러한 기준점들의 투영에 대한 2차원적 위치로부터, 인공 구조물 근처의 어디에 있는 일반적인 3차원 포인트를 이미지 상의 투영된 이미지로 유도할 수 있다. 이것은 이미지 및 작업공간 사에의 등록을 형성한다. 몇 개의 이미지들은 동일한 등록 구조물과 관련하여 각각 등록될 수 있으며, 따라서 모든 이미지들을 서로 등록부로 유도할 수 있다.From the two-dimensional position of the projection of these reference points in one fluorescent image, one can derive a general three-dimensional point somewhere near the artificial structure into the projected image on the image. This forms a registration with the image and workspace company. Several images may be registered respectively with respect to the same registration structure, thus leading all the images to the registration with each other.

전술과 같은 기하학적 투영의 인식은 형광검사 이미지 그 자체로부터는 불가능하며, 이것은 매우 비선형적이며 왜곡되어 있기 때문이다. 우선 이들 왜곡에 대하여 매핑 또는 보상을 해야만 한다. 본 발명을 선행 기술과 비교할 때에는 왜곡 보상의 필요성을 인식하여야 한다.Recognition of the geometric projection as described above is not possible from the fluorescence image itself, since it is very nonlinear and distorted. You must first map or compensate for these distortions. When comparing the present invention with the prior art, the need for distortion compensation should be recognized.

수술 설계(SURGICAL PLANNING)SURGICAL PLANNING

또한 수술 설계도 이미지로 안내되는 수술에서의 중요한 단계이다. 3차원 수술 행위의 설계는 3차원 데이터 세트 상에서 수행되는 것이 기대될 수 있으며, 그것은 컴퓨터 단층촬영(CT) 데이터로부터 재구축될 수 있다. 그러나, 의사들은 2차원 이미지 즉, 방사선 사진 및 형광검사 이미지 상에서 설계하는 것에 익숙해 있다. 사실상 CT 데이터가 사용 가능할 때조차도, 3차원 재구축에 의한 방식을 취하기보다는 개별적인 2차원의 CT "조각"들 상에서 행해진다.It is also an important step in surgery that is guided by surgical design images. Design of three dimensional surgical behavior can be expected to be performed on a three dimensional data set, which can be reconstructed from computed tomography (CT) data. However, doctors are used to designing on two-dimensional images, radiographs and fluorescence images. In fact, even when CT data is available, it is done on individual two-dimensional CT "pieces" rather than taking the way by three-dimensional reconstruction.

의도된 나사, 생체검사용 바늘, 또는 드릴링된 구멍을 나타내는 라인 세그먼트의 첨점의 좌표들은 물론 3차원이며, 종양 또는 파편 조각의 현 위치를 나타내는 인체 내의 단일점의 좌표도 마찬가지이다. 수술 설계에 있어서, 그러한 점들은 하나의 2차원 이미지 상에서 구체화될 수 있으며, 또는 몇 개의 2차원 이미지 각각 상에서 구체화될 수도 있다. 그러한 2차원 이미지 각각은 동일한 3차원 공간에 대한 투영이다.The coordinates of the tip of the line segment representing the intended screw, biopsy needle, or drilled hole are, of course, three-dimensional, as well as the coordinates of a single point in the human body indicating the current location of the tumor or fragment. In surgical design, such points may be embodied on one two-dimensional image, or may be embodied on each of several two-dimensional images. Each such two-dimensional image is a projection of the same three-dimensional space.

몇 개의 이미지 각각에 대한 구체화된 포인트들의 2차원 좌표들을, 의도된 궤도를 따라 또는 인체 내의 소정의 포인트로 도구를 안내하는데 사용될 수 있는 3차원 좌표로 변환하는 것이 필요하다. 그렇게 하기 위해서는, 이미지를 생성한 투영의 기하학적 관계에 관한 지식을 가지고 있어야만 한다.It is necessary to convert the two-dimensional coordinates of the materialized points for each of several images into three-dimensional coordinates that can be used to guide the tool along the intended trajectory or to some point in the human body. To do so, you must have knowledge of the geometric relationship of the projection that created the image.

그러한 기하학적 지식이 없으면, 한 이미지 상에 구체화된 포인트 및 다른 이미지 상에 별도로 구체화 포인트는 사실상 인체 내의 어떤 한 포인트와 일치하지 않는다. 이것은 하나의 2차원 이미지 상에 구체화된 포인트가 공간상에서의 한 라인의 투영이기 때문이다. 3차원에서 암시된 포인트는 두 개의 그런 라인의 교점이며, 각 이미지에서 구체화된 포인트에 의하여 암시된 것이다. 두 개의 그러한 라인들은 독립적인 경사각을 가질 수 있고, 교점은 없다. 이와 유사하게, 의도된 행위에 대한 라인 세그먼트들은 두 개의 이미지에서 독립적으로 선택될 수 없는데, 그렇지 않았다면, 그들은 일반적으로 잘 정의된 3차원 라인 세그먼트와 일치하지 않을 것이다.Without such geometric knowledge, the points embodied on one image and the embodied points separately on another image virtually do not coincide with any one point in the human body. This is because the point embodied on one two-dimensional image is a projection of a line in space. The point implied in three dimensions is the intersection of two such lines, implied by the points embodied in each image. Two such lines can have independent angles of inclination and no intersection. Similarly, line segments for the intended behavior cannot be selected independently in two images, otherwise they will generally not match well defined three-dimensional line segments.

좌표설정된 형광검사에서, 두 개의 이미지들을 하나의 3차원 좌표 시스템으로 관련시키는 기하학적 투영법은 설계의 개시 전에 형성된다. 그러므로 두 개 또는 그 이상의 이미지 상에서 의사에 의하여 선택된 포인트들은 그들이 잘 정의된 3차원 상의 포인트와 정확하게 일치하도록 소프트웨어에 의하여 제한될 수 있다. 사실상, 의사가 의도된 포인트 또는 라인 세그먼트를 한 이미지에 조절할 때, 다른 이미지(들)에 디스플레이되는 포인트 또는 라인 세그먼트도 계속해서 갱신 및 조절을 한다. "임의의" 포인트 또는 라인 세그먼트를 독립적으로 이미지 상에 긋는 것은 불가능하다. 즉, 소프트웨어만이 잘 정의된 3차원 포인트 또는 라인 세그먼트에 일치하는 포인트 또는 라인 세그먼트를 형성할 수 있게 해준다.In coordinated fluorescence, geometric projection, which involves two images into one three-dimensional coordinate system, is formed before the start of the design. Therefore, the points selected by the physician on two or more images can be limited by software such that they exactly match the points on a well-defined three-dimensional image. In fact, when the physician adjusts the intended point or line segment to one image, the point or line segment displayed in the other image (s) also continues to update and adjust. It is not possible to draw "random" points or line segments independently on an image. In other words, only software can form points or line segments that match well-defined three-dimensional point or line segments.

전술과 같이 기하학적으로 좌표설정된 이미지들 상에서 설계를 하는 이점은 다음과 같은 세 가지로 요약된다.The advantages of designing on geometrically coordinated images as described above are summarized in the following three ways.

1) 의사가 일단 두 개의 이미지 상에서 하나의 포인트 또는 라인 세그먼트를 선택했다면, 선택들이 대응하게 되는 3차원 포인트 또는 라인 세그먼트는 완전히 정의되며 또한 실행 준비가 완료된다.1) Once the physician has selected one point or line segment on two images, the three-dimensional point or line segment to which the selections correspond is fully defined and ready for execution.

2) CT 슬라이스에서 볼 수 있듯이 축방향의 사진은 형광검사적으로는 얻기 어렵다. 축방향에서 가장 용이하게 가시화할 수 있는 각도는 트랜스버스 각도(transverse angle)라고 알려져 있으며, 이것은 형광검사 하에서는 선택 및 실행이 비용이하다. 좌표설정된 형광검사에서, 트랜스버스 각도는 의사가 두 개의 이미지 상에서 라인 세그먼트를 선택함으로써 암시적으로 구체화된다. 이것은 의사가 의료행위를 위하여 트랜스버스 각도를 가시화 및 설계하는 것을 도와줄 수 있다.2) As can be seen from the CT slice, the axial picture is difficult to obtain by fluorescence. The most easily visible angle in the axial direction is known as the transverse angle, which is costly to select and implement under fluorescence. In coordinated fluorescence, the transverse angle is implicitly specified by the physician selecting a line segment on two images. This can help the physician visualize and design the transverse angle for medical practice.

3) 종래의 형광 검사에서, 비임의 분산에 따른 이미지 팽창은 잘 알려져 있지 않았던 것으로써, 해부학상의 거리측정에 있어서 정확도의 유지를 어렵게 한다. 좌표설정된 형광검사에서, 의도된 라인 세그먼트의 실제의 동시 길이는 소프트웨어에 의하여 결정될 수 있다. 이것은 적절한 경사 길이를 선택하거나 기타 다른 목적에 유용한 것이다.3) In the conventional fluorescence test, the image expansion due to the dispersion of the beam is not well known, which makes it difficult to maintain accuracy in the anatomical distance measurement. In coordinated fluorescence, the actual simultaneous length of the intended line segment can be determined by software. This is useful for selecting an appropriate slope length or for other purposes.

프랑스 그르노블의 라벨르(Lavalle) 등은 이미지 소스로써 컴퓨터 단층촬영을 사용하는 척추 수술용 시스템을 개발하였다. CT 데이터는 3차원 데이터 세트로 조합되고, 이것은 자유롭게 직교 평면 상에서 다시 조작될 수 있다. 수술 설계는 세 개의 상호 직교인 평면상에서 동시에 진행된다. 등록은 척추의 임의의 표면 포인트들을 디지털화하기 위한 광학 트래킹 장치를 사용함으로써 수행되며, 그들 표면 포인트들을 CT 데이터 세트와 일치시킨다.Lavalle et al., Grenoble, France, have developed a system for spinal surgery that uses computed tomography as an image source. The CT data are combined into a three dimensional data set, which can be freely manipulated again on the orthogonal plane. The surgical design proceeds simultaneously on three mutually orthogonal planes. Registration is performed by using an optical tracking device to digitize any surface points of the spine, matching those surface points with a CT data set.

스위스 베른의 놀트(Nolte) 등은 라벨르 등의 것과 매우 유사한 척추 시스템을 개발하였다. 등록이 다른 점은 광학 트래킹 장치가 일반적인 표면 윤곽이 아니라 특정 해부학적 사안을 디지털화하기 위하여 사용된다는 것이다. 그 특징들은 CT 데이터에서 수동으로 지적되며, 이것은 일치 동작이 가능하게 한다.Nolte, Bern, Switzerland, developed a spinal system very similar to Ravel et al. The difference in registration is that the optical tracking device is used to digitize certain anatomical issues rather than the general surface contours. The features are manually pointed out in the CT data, which makes the coincident operation possible.

영국 하이 와이콤비의 피. 핀레이(P. Finlay)는 대퇴골(히프) 골절에 대한 형광검사 시스템을 개발하였다. 이 절차에 있어서의 정확도의 요구는 그다지 큰 것이 아니며, 형광검사 왜곡의 보상도 요구되지 않는다. 그 부족함은 본 발명에서 수행되는 것과 같은 이미지로부터의 기하학적 투영의 식별이 불가능하게 한다. 그 대신, 두 개의 형광검사 왜곡 보상이 직교가 되도록 요구되며 C-아암은 두 개의 이미지 사이의 플로어를 따라 이동되어서는 아니된다. 등록은 이미지에 나타나는 수술 도구의 다양한 특징들을 인식함으로써, 그리고 형광검사의 사진에 나타나는 표식 와이어를 강조함으로써 수행된다. 영국 런던의 포타미아노스(Potamianos) 등은 신장 생체검사 및 유사한 연조직 의료행위를 위한 시스템을 개발하였다. 여기에는 생체검사 바늘이 부착된 그리고 의사에 의하여 수동으로 이동될 수 있는 디지털화하는 기계적 아암이 포함되어 있다. 수술 계획 그 자체는 없으며, 그 대신 바늘이 수동으로 환자 근처 및 내부로 이동함에 따라 수집된 (정정) 형광검사 이미지 상에 바늘의 현재 위치를 나타내는 라인 세그먼트가 중첩되어 디스플레이된다.Blood of the British High Wycombe. P. Finlay has developed a fluorescence system for femoral (hip) fractures. The requirement for accuracy in this procedure is not very large and compensation of fluorescence distortion is not required. The lack thereof makes it impossible to identify geometric projections from the image as performed in the present invention. Instead, two fluorescence distortion compensations are required to be orthogonal and the C-arms should not be moved along the floor between the two images. Registration is performed by recognizing the various features of the surgical instrument that appears in the image, and by highlighting the marker wire that appears in the photograph of the fluorescence. Potamianos, London, UK, has developed a system for renal biopsy and similar soft tissue medical practice. It includes a digitizing mechanical arm that has a biopsy needle attached and can be moved manually by a physician. There is no surgical plan per se, but instead a superimposed line segment representing the current position of the needle is displayed on the (corrected) fluorescence image collected as the needle is manually moved in and near the patient.

영국 휼의 필립스(Phillips) 등은 정형외과 진료용 시스템을 개발하였다. 이것은 형광검사 뿐만 아니라 광학적 트래킹 장치를 사용한다. 등록은 형광검사를 발광 다이오드와 함께 사용하고 광학적 트래킹 장치로 그들을 트래킹 함으로써 행해진다. 수술 설계 소프트웨어는 수술행위에 특수한 것을 사용하며, 본 발명에서와 같이 단지 궤도를 디스플레이하는 것이 아니라 의학적 소견을 제공한다. 척수내 정(nail)의 배치를 위하여, 예컨대, 의사는 척수내 보철물의 표적 구멍에 대한 윤곽을 잡으며, 소프트웨어가 그것들을 통하여 궤도를 계산한다.Phillips of Hugh, UK, has developed an orthopedic system. This uses an optical tracking device as well as fluorescence. Registration is done by using fluorescence with light emitting diodes and tracking them with an optical tracking device. Surgical design software uses specific to surgical operations and provides medical findings rather than merely displaying trajectories as in the present invention. For placement of the spinal cord nails, for example, the surgeon outlines the target hole of the prosthetic spinal cord and the software calculates the trajectory through them.

미국 특허 제4,750,487(Zanetti)는 환자에게 씌우는 정위(stereotactic) 프레임에 대하여 개시하고 있다. 앞/뒤 형광검사가 얻어지고, 거기에서 프레임에 부착된 십자선이 보인다. 소정의 표적으로부터 십자선의 배치를 측정함으로써, 두 개를 일직선이 되도록 하는 프레임의 움직임이 이루어진다. 이 발명은 본 발명이 고려하고 있는 3차원 정위법(stereotaxy)을 용이하게 하지는 않고 있다.US Pat. No. 4,750,487 (Zanetti) discloses a stereotactic frame for a patient. Front / back fluorescence is obtained, where the crosshairs are attached to the frame. By measuring the placement of the crosshairs from a given target, a frame movement is made that keeps the two in a straight line. This invention does not facilitate the three-dimensional stereotactic which the present invention considers.

미국 특허 제5,078,140(Kwoh)에는 신경외과용 정위 및 로보틱 시스템에 관하여 기술하고 있다.US Pat. No. 5,078,140 to Kwoh describes neurosurgical stereotactic and robotic systems.

본 발명에서는 인체의 이미지를 만들어내기 위하여 형광검사(fluoroscope)를 이용하여 수술 도구를 인체 내로 선형 궤도를 따라 삽입하기 위한 정위 수술 행위(stereotactic surgical procedure)를 설계하는 방법이 제공된다. 이 방법은 다수의 기준선을 포함하는 등록 인공구조물(registration artifact)을 인체 근처에 위치시키는 것, 환자 인체 및 등록 인공구조물의 이미지를 컴퓨터 모니터 상에 디스플레이하는 것, 제1 모니터에 디스플레이된 등록 인공구조물의 2차원 기준선 좌표를 식별하기 위하여 사용자 또는 자동 연산방식의 입력을 수신하는 것, 그리고 파라미터들을 가지며 3차원 좌표를 이미지 포인트들로 투영하는 기하학적 모델을 생성함으로써 이미지를 등록하는 것, 그리고 공지된 기준점들의 3차원 좌표의 투영이 이미지의 인식된 2차원 좌표에 가장 잘 맞도록 기하학적 모델의 파라미터들을 수치적으로 최적화하는 것을 포함한다.In the present invention, a method of designing a stereotactic surgical procedure for inserting a surgical tool along a linear trajectory into a human body using a fluoroscope to produce an image of the human body is provided. The method involves positioning a registration artifact comprising a plurality of baselines near the human body, displaying an image of the patient's human body and the registration artifact on a computer monitor, and registering the registration artifact displayed on the first monitor. Receiving input from a user or an automatic algorithm to identify a two-dimensional baseline coordinate of the image, and registering the image by creating a geometric model having parameters and projecting the three-dimensional coordinates to the image points, and a known reference point Their projection of the three-dimensional coordinates numerically optimizes the parameters of the geometric model so that they best fit the recognized two-dimensional coordinates of the image.

또한, 본 방법은, 제1의 이미지와 다른 각도에서, 환자의 인체 및 등록 인공구조물로부터 취해진 제2 이미지를 제2 컴퓨터 모니터에 디스플레이하는 것, 제2 컴퓨터 모니터에 디스플레이된 2차원 기준선 좌표를 식별하기 위하여 사용자 또는 자동 연산방식의 입력을 수신하는 것, 그리고 파라미터들을 가지며 3차원 좌표를 이미지 포인트들로 투영하는 기하학적 모델을 생성함으로써 제2 이미지를 등록하는 것, 그리고 공지된 기준점들의 3차원 좌표의 투영이 제2 이미지의 인식된 2차원 좌표에 가장 잘 맞도록 기하학적 모델의 파라미터들을 수치적으로 최적화하는 것을 포함한다.In addition, the method may further comprise displaying, on an angle different from the first image, a second image taken from the patient's human body and the registered artificial structure on a second computer monitor, identifying two-dimensional baseline coordinates displayed on the second computer monitor. Receiving input of a user or an automatic calculation method, and registering a second image by generating a geometric model having parameters and projecting the three-dimensional coordinates to the image points, and of the three-dimensional coordinates of known reference points. Numerically optimizing the parameters of the geometric model such that the projection best fits the recognized two-dimensional coordinates of the second image.

또한, 본 방법은, 얻어진 이미지가 하나이든 그 이상이든, 컴퓨터 모니터 상에서 수술 도구를 위한 삽입 포인트를 선택하기 위하여 사용자의 입력을 수신하는 단계를 더 포함한다. 두 개의 이미지의 경우에는, 또한 수술 도구에 대한 궤도를 나타내며 세그먼트들을 그리며, 이미지(들) 상에서, 투영된 가이드와이어(projected guidewire)이라고 알려진, 가상 가이드와이어의 위치, 길이, 및 각도를 선택하기 위하여 사용자 입력을 수신한다. 두 개의 이미지가 있을 때, 투영된 가이드와이어은 공간상의 동일한 3차원 세그먼트와 기하학적으로 일치하도록 제약되며, 이는 가상 가이드와이어(virtual guidewire)이라고 알려져 있다.In addition, the method further includes receiving user input to select an insertion point for the surgical instrument on the computer monitor, whether one or more images are obtained. In the case of two images, it also represents the trajectory of the surgical instrument and draws segments, to select the position, length, and angle of the virtual guidewire, known as the projected guidewire, on the image (s). Receive user input. When there are two images, the projected guidewires are constrained to geometrically match the same three-dimensional segment in space, which is known as a virtual guidewire.

또한, 본 방법은 투영된 가이드와이어(들)이 투영되는 가상 가이드와이어을 교정함으로써, 그리고 교정된 가상 가이드와이어에 일치시켜 투영된 가이드와이어들을 다시 그림으로써 투영된 가이드와이어의 어떤 끝을 이동시키기 위하여 사용자 입력을 수신하는 것을 포함한다.The method also allows the user to move any end of the projected guidewire by correcting the virtual guidewire onto which the projected guidewire (s) is projected, and by redrawing the projected guidewires in accordance with the calibrated virtual guidewire. Receiving input.

또한, 본 방법은 가상 가이드와이어의 길이를 변화시키기 위하여 사용자 입력을 수신하는 것, 그리고 교정된 가상 가이드와이어에 일치시켜 투영된 가이드와이어(들)을 다시 그리는 것을 더 포함한다. 길이가 0인 특수한 경우도 있는데, 설계되는 것은 가상 가이드와이어이라기보다는 가상 표적점(virtual targetpoint)이다.The method further includes receiving user input to change the length of the virtual guidewire, and redrawing the projected guidewire (s) in accordance with the calibrated virtual guidewire. There is also a special case of zero length, which is designed as a virtual target point rather than a virtual guidewire.

또한, 본 방법은 가상 가이드와이어의 두개골(sagittal), 횡근(transverse), 또는 두정(coronal)의 각도(들)를 변화시키기 위하여 사용자 입력을 수신하는 것, 새로운 각도에 기초한 가상 가이드와이어의 지향을 갱신하는 것, 그리고 투영된 가이드와이어(들)을 교정된 가상 가이드와이어에 일치시켜 다시 그리는 것을 더 포함한다.In addition, the method may be adapted to receive user input to change the angle (s) of the sagittal, transverse, or coronal of the virtual guidewire, or to direct the virtual guidewire based on the new angle. Updating and redrawing the projected guidewire (s) to match the calibrated virtual guidewire.

또한, 본 방법은 이미지에서 안내 축의 투영이 컴퓨터 모니터 상에 디스플레이된 입력 포인트와 일치되도록 도구 안내의 좌표를 조절하기 위하여 출력을 생성하는 것을 더 포함한다.The method further includes generating an output to adjust the coordinates of the tool guide such that the projection of the guide axis in the image coincides with the input point displayed on the computer monitor.

또한, 본 방법은 가상 가이드와이어과 일치되도록 도구 안내의 좌표를 조절하기 위하여 출력을 생성하는 것, 또는 삽입될 수술 도구의 인체내의 위치를 제어하기 위하여, 그 축을 따른 안내의 위치가 가상 가이드와이어의 한 끝점으로부터 소정거리 만큼 오프셋되도록 도구 안내의 조표를 조절하기 위한 출력을 생성하는 것을 더 포함한다.In addition, the method can generate an output to adjust the coordinates of the instrument guide to match the virtual guidewire, or to control the position in the body of the surgical instrument to be inserted, so that the position of the guide along its axis is one of the virtual guidewires. And generating an output for adjusting the representation of the tool guidance to be offset by a predetermined distance from the endpoint.

또한, 본 방법은 상기 좌표를 로봇 또는 다른 자동 기구적 장치로 전송하는 것, 또는 운용자가 기구적 장치를 수동으로 조절할 수 있도록 상기 좌표를 디스플레이하는 것을 더 포함한다.The method further includes transmitting the coordinates to a robot or other automatic mechanical device, or displaying the coordinates so that an operator can manually adjust the mechanical device.

도 1은 형광검사로부터의 이미지를 좌표설정하고, 선형 궤도의 의료 행위를 설계하고, 그리고 선형 궤도의 의료 행위를 제어하도록 로봇을 제어하기 위한 본 발명의 정위 수술 장치에 관한 개략도,1 is a schematic diagram of an stereotactic surgical device of the present invention for coordinates an image from fluorescence, designing a medical behavior in a linear orbit, and controlling the robot to control the medical behavior in a linear orbit;

도 2는 본 발명의 등록 인공구조물 및 도구 안내에 관한 사시도,Figure 2 is a perspective view of the guide to the registered artificial structure and tool of the present invention,

도 3a는 형광검사에 의하여 취해지고 프로그램을 수행하기 위하여 필요한 많은 버튼 및 입력 필드들과 함께 제1 컴퓨터 모니터에 디스플레이된 전면/후면(A/P)을 포함하는 사용자 인터페이스에 관한 샘플 스크린 플레이,3A is a sample screen play of a user interface including a front / rear (A / P) displayed on a first computer monitor with many buttons and input fields taken by fluorescence and needed to perform a program;

도 3b는 형광검사에 의해 취해지고 프로그램을 수행하기 위하여 필요한 많은 버튼 및 입력 필드들과 함께 제2 컴퓨터 모니터에 디스플레이된 두개골 이미지를 포함하는 샘플 스크린 플레이,3B is a sample screen play that includes a skull image displayed on a second computer monitor with many buttons and input fields taken by fluorescence and needed to perform a program,

도 3c는 메인 프로그램 루우프 동안 컴퓨터에 의해 수행되는 단계들에 관한 흐름도,3C is a flow diagram relating to the steps performed by a computer during a main program loop;

도 4는 형광검사로부터 A/P 이미지를 얻기 위해 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,4 is a flow chart of the steps performed by a computer to obtain an A / P image from fluorescence;

도 5는 형광검사로부터 두개골 이미지를 얻기 위해 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,5 is a flow chart of the steps performed by a computer to obtain a skull image from fluorescence;

도 6은 도 3a에 디스플레이된 A/P 이미지로부터 A/P 기준점들을 선택 또는 식별하기 위하여 컴퓨터 및 사용자에 의해 수행되는 단계들에 대한 흐름도,6 is a flow chart of the steps performed by the computer and the user to select or identify A / P reference points from the A / P image displayed in FIG. 3A;

도 7은 도 3b의 두개골 이미지 상에 디스플레이된 A/P 이미지로부터 A/P 기준점들을 선택 또는 식별하기 위하여 컴퓨터 및 사용자에 의해 수행되는 단계들에 대한 흐름도,7 is a flow chart of the steps performed by the computer and the user to select or identify A / P reference points from the A / P image displayed on the skull image of FIG. 3B;

도 8은 A/P 이미지를 등록하기 위하여 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,8 is a flowchart of steps performed by a computer to register an A / P image;

도 9는 두개골 이미지를 등록하기 위하여 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,9 is a flowchart of steps performed by a computer to register a skull image,

도 10은 가상 가이드와이어의 횡근 각도를 변화시키기 위하여 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,10 is a flowchart of steps performed by a computer to change the transverse angle of the virtual guidewire;

도 11은 형광검사 수수행위에서 사용되는 가상 가이드와이어의 길이를 변화시키기 위하여 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,11 is a flow chart of the steps performed by a computer to vary the length of the virtual guidewire used in fluorescence passing;

도 12는 가상 가이드와이어의 두개골 각도를 변화시키기 위하여 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,12 is a flow chart of the steps performed by a computer to change the skull angle of the virtual guidewire;

도 13은 로봇의 접근 각도를 변화시키기 위하여 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,13 is a flow chart of the steps performed by the computer to change the approach angle of the robot;

도 14는 도 1에 도시된 로봇을 설계된 위치 및 지향으로 이동시키기 위하여 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,14 is a flow chart of the steps performed by a computer to move the robot shown in FIG. 1 to a designed position and orientation;

도 15는 로봇의 말단 작동체를 도구 안내의 축을 따라 이동시키기 위하여 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,15 is a flow chart of the steps performed by the computer to move the distal actuator of the robot along the axis of the tool guide;

도 16은 도 3a의 A/P 이미지 영역에서의 커서에 기초하여 컴퓨터가 사용자 입력을 받아들일 때 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,FIG. 16 is a flow chart of the steps performed by the computer when the computer accepts user input based on a cursor in the A / P image area of FIG. 3A;

도 17은 도 3b의 두개골 이미지 영역에서의 커서에 기초하여 컴퓨터가 사용자 입력을 받아들일 때 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,FIG. 17 is a flow chart of the steps performed by the computer when the computer receives user input based on a cursor in the skull image area of FIG. 3B;

도 18은 도 3a-b의 로봇 제어 영역의 커서에 기초하여 컴퓨터가 사용자 입력을 받아들일 때 컴퓨터에 의해 수행되는 단계들에 대한 흐름도,FIG. 18 is a flow chart of the steps performed by the computer when the computer accepts user input based on a cursor in the robot control area of FIGS. 3A-B;

도면을 참조하면, 도 1은 교정 및 좌표화된 투시검사를 이용하는 선형 궤적 의료 중재를 위한 정위 시스템(10)을 도시한다. 본 발명의 장치 및 방법은 수술대(14)상의 신체의 투시 이미지 또는 x선 이미지를 발생시키는 표준 C-암과 같은 투시검사장치(12)로부터의 이미지를 이용한다. 이미징 암(16)은 신체의 전방/후방(A/P) 이미지 및 시상 이미지 또는 측면 이미지를 얻을 수 있도록 이동가능하다.Referring to the drawings, FIG. 1 illustrates a stereotactic system 10 for linear trajectory medical intervention using calibrated and coordinated fluoroscopy. The apparatus and method of the present invention utilize an image from a fluoroscopy device 12, such as a standard C-arm, which generates a fluoroscopy image or x-ray image of the body on the operating table 14. Imaging arm 16 is movable to obtain an anterior / rear (A / P) image and a sagittal or lateral image of the body.

로봇(18)은 수술대(14)에 인접하게 배치된다. 예를 들어, 상기 로봇은 PUMA-560 로봇이다. 로봇(18)은 엔드 플랜지(22)를 가지는 가동 암 어셈블리(20)를 포함한다. 정렬 또는 조절 부재(24)는 로봇(18)의 엔드 플랜지(22)에 연결된다.The robot 18 is disposed adjacent to the operating table 14. For example, the robot is a PUMA-560 robot. The robot 18 includes a movable arm assembly 20 having an end flange 22. The alignment or adjustment member 24 is connected to the end flange 22 of the robot 18.

조절 부재(24)는 도 2에 가장 잘 도시되어 있다. 조절 부재(24)는 8개의 불투명한 구체 또는 기준점(26) 및 조절 부재(24)를 통하여 툴 가이드(28)를 홀딩하는 개구부(30)를 제외하고는 x-선이 투과하고 시각적으로 투명하다. 처음에, 조절 부재(24)는 신체(32)의 관련 부위 위에서 투시검사장치의 관측 필드 내에 대략적으로 배치된다. 따라서, 기준점(26)은 이하에 설명하는 바와 같이 A/P 이미지 및 시상 이미지 상에 명료한 도트로 보인다. 조절 부재의 형상은 기준점(26)으로부터의 이미지 도트가 서로 겹쳐지지 않고 각도 편차에 대하여 민감해지도록 설정된다. 로봇 암(20) 은 도 1에 도시된 X-축(34), Y-축(36), 또는 Z-축(38)에 대하여 3차원으로 조절 부재(24)를 조정할 수 있다.The adjusting member 24 is best shown in FIG. 2. The adjusting member 24 is transmissive and visually transparent except for eight opaque spheres or reference points 26 and openings 30 holding the tool guide 28 through the adjusting member 24. . Initially, the adjustment member 24 is disposed approximately in the field of view of the fluoroscopy apparatus over the relevant site of the body 32. Thus, the reference point 26 appears as clear dots on the A / P image and the sagittal image as described below. The shape of the adjusting member is set so that the image dots from the reference point 26 are sensitive to angle deviations without overlapping each other. The robot arm 20 can adjust the adjusting member 24 in three dimensions with respect to the X-axis 34, the Y-axis 36, or the Z-axis 38 shown in FIG. 1.

본 발명의 좌표화된 투시 제어 시스템은 컴퓨터(40)에 의하여 제어되며, 상기 컴퓨터는 마이크로프로세서(42), 내부 램(44) 및 하드 디스크 드라이브(46)를 포함한다. 컴퓨터(40)는 두 개의 그래픽 모니터(48, 50)에 연결된다. 제 1그래픽 모니터(48)는 C-암(12)에 의하여 얻은 시상 이미지를 디스플레이한다. 컴퓨터(40)는 또한 로봇(18)의 제어기(53)에 연결된 직렬 통신 포트(52)를 포함한다. 컴퓨터(40)는 또한 이미지 습득 카드(54)를 통하여 C-암(12)으로부터의 이미지를 수신하기 위하여 C-암(12)에 연결된다. 또한 컴퓨터(40)는 예를 들어 트랙볼 제어부(58)를 가진 키보드인 입력 장치(56)에 연결된다. 트랙볼 입력 제어부(58)는 양쪽 모니터(48, 50)상의 커서를 제어한다.The coordinated perspective control system of the present invention is controlled by a computer 40, which includes a microprocessor 42, an internal RAM 44, and a hard disk drive 46. Computer 40 is connected to two graphics monitors 48 and 50. The first graphics monitor 48 displays the sagittal image obtained by the C-arm 12. The computer 40 also includes a serial communication port 52 connected to the controller 53 of the robot 18. Computer 40 is also coupled to C-arm 12 to receive an image from C-arm 12 via image acquisition card 54. The computer 40 is also connected to an input device 56, which is a keyboard with a trackball control 58, for example. The trackball input control unit 58 controls the cursors on both monitors 48 and 50.

모니터(48, 50)상의 디스플레이는 도 3a 및 3b에 도시되어 있다. 도 3b에 따르면, 시상 이미지는 모니터(48)상의 영역(62)에 디스플레이된다. 모두 8개의 기준점(26)이 시상 이미지 영역(62)에 나타나야 한다. 그렇지 않으면, 수단(24) 또는 C-암(12)은 조정되어야 한다. 이하에 상세히 설명되는 바와 같이, 컴퓨터(40)는 투사된 가이드와이어(68)의 상부 엔트리 포인트(64) 및 하부 포인트(66)를 디스플레이한다. 투사된 가이드와이어(68)는 정위 수술과정 중에 삽입될 기구의 위치를 나타내는 시상 이미지 영역 상에 디스플레이되는 라인 세그먼트이다. 조준 라인(70) 역시 시상 이미지 영역(62)내에 디스플레이된다.Displays on monitors 48 and 50 are shown in FIGS. 3A and 3B. According to FIG. 3B, the sagittal image is displayed in the area 62 on the monitor 48. All eight reference points 26 should appear in the sagittal image area 62. Otherwise, the means 24 or the C-arm 12 must be adjusted. As will be described in detail below, the computer 40 displays the upper entry point 64 and the lower point 66 of the projected guidewire 68. The projected guidewire 68 is a line segment displayed on the sagittal image area indicating the position of the instrument to be inserted during the stereotactic procedure. Aim line 70 is also displayed in sagittal image area 62.

여러 가지 사용자 선택 버튼이 모니터(48)상에 디스플레이된다. 외과의사 또는 오퍼레이터는 버튼에 커서를 이동시켜 클릭하거나 또는 키보드 상의 적당한 기능키(F1, F2 등)를 이들 선택사항에 액세스할 수 있다. 모니터(48)상에 디스플레이된 선택 버튼은 시상 이미지를 습득하기 위한 버튼(72(기능F2)), 시산 기준점을 선택하는 버튼(74(F4)) 및 시상 이미지를 등록시키는 버튼(76(F6))을 포함한다. 또한, 시상 이미지를 선택하는 버튼(78(F10))이 제공되고, 스크류 길이를 세팅하는 버튼(80(F8))이 제공되며, 툴 가이드의 축을 따라 로봇을 이동시키는 버튼(82(F12))이 제공된다. 끝으로, 디스플레이 스크린은 로봇 제어 영역(84)을 포함한다. 오퍼레이터는 커서를 이동시켜 로봇 제어 영역(84)에서 클릭하여 이하에 설명되는 바와 같이 로봇(18)을 제어하도록 할 수 있다.Various user select buttons are displayed on the monitor 48. The surgeon or operator can access these selections by moving the cursor over the button and clicking or by using the appropriate function keys (F1, F2, etc.) on the keyboard. The selection button displayed on the monitor 48 includes a button 72 (function F2) for acquiring a sagittal image, a button 74 (F4) for selecting a trial reference point and a button 76 (F6) for registering a sagittal image. ). In addition, a button 78 (F10) for selecting a sagittal image is provided, a button 80 (F8) for setting a screw length is provided, and a button 82 (F12) for moving the robot along the axis of the tool guide. This is provided. Finally, the display screen includes a robot control area 84. The operator can move the cursor and click in the robot control area 84 to control the robot 18 as described below.

도 3a에 따르면, 모니터(50)의 디스플레이 스크린 상에 디스플레이된 A/P 이미지가 도시된다. A/P 이미지는 스크린의 영역(86)에 디스플레이된다. 다시, 모두 8개의 기준점(26)이 A/P 이미지 영역(86)내에 나타나야 한다. 가상 가이드와이어의 삽입 포인트는 위치(88)에 도시되며, 하부 포인트는 위치(90)에 배치된다. A/P 이미지로의 가이드와이어 투사는 라인 세그먼트(92)에 의하여 도시된다.According to FIG. 3A, the A / P image displayed on the display screen of the monitor 50 is shown. The A / P image is displayed in area 86 of the screen. Again, all eight reference points 26 must appear within the A / P image area 86. The insertion point of the virtual guidewire is shown at position 88 and the lower point is disposed at position 90. Guidewire projection to the A / P image is shown by line segment 92.

컴퓨터(40)는 또한 모니터(50)상의 여러 가지 선택 버튼을 디스플레이한다. 버튼(94(F1))은 A/P 이미지를 습득하기 위하여 제공된다. 버튼(96(F3))은 A/P 기준점을 선택하기 위하여 제공된다. 버튼(98(F5))은 A/P 이미지를 등록하기 위하여 제공된다. 버튼(100(F7))은 가상 가이드와이어의 횡단 각도를 세팅하기 위하여 제공되며, 버튼(102(F9))은 로봇에 대한 접근 각도를 세팅하기 위하여 제공된다. 버튼(104(F11))은 로봇을 이동시키기 위하여 제공된다. 컴퓨터(40)는 또한 로봇 제어 영역(84)을 디스플레이한다. 오퍼레이터는 커서를 이동시켜 로봇 제어 영역(84)내에서 클릭하여 이하에 설명되는 바와 같이 로봇(18)을 제어할 수 있다.Computer 40 also displays various selection buttons on monitor 50. The button 94 (F1) is provided to acquire an A / P image. Button 96 (F3) is provided to select an A / P reference point. Button 98 (F5) is provided to register the A / P image. Button 100 (F7) is provided to set the crossing angle of the virtual guidewire, and button 102 (F9) is provided to set the approach angle to the robot. Button 104 (F11) is provided to move the robot. Computer 40 also displays robot control area 84. The operator can move the cursor and click in the robot control area 84 to control the robot 18 as described below.

본 발명은 A/P 이미지 영역(86)내의 투사된 가이드와이어(88)의 상부 포인트를 이동시킴으로써 수술 기구를 삽입하는 포인트를 선택할 수 있도록 한다. 또한 오퍼레이터는 투사된 가이드와이어(90)의 바닥 포인트를 조정하여 횡단 각도 및 시상 각도를 특정할 수 있다. 또한, 오퍼레이터는 투사된 가이드와이어(64)의 상부 포인트를 조정하여 조준 라인상의 위치를 특정하고, 투사된 가이드와이어(66)의 하부 포인트를 조정하여 시상 이미지 영역(62)내의 시상 각도 및 횡단 각도를 특정할 수 있다. 따라서, 외과의사는 수술 기구의 원하는 위치 및 신체로의 방향을 선택할 수 있다.The present invention allows selecting the point at which the surgical instrument is inserted by moving the upper point of the projected guidewire 88 in the A / P image area 86. The operator can also adjust the bottom point of the projected guidewire 90 to specify the crossing angle and the sagittal angle. In addition, the operator adjusts the upper point of the projected guidewire 64 to specify the position on the aiming line, and adjusts the lower point of the projected guidewire 66 to adjust the sagittal angle and the transverse angle in the sagittal image area 62. Can be specified. Thus, the surgeon can select the desired position and orientation of the surgical instrument to the body.

컴퓨터(40)는 투시검사장치(12)의 광학부로부터의 공간적 왜곡을 교정하기 위한 소프트웨어가 프로그램된다. 본 발명의 시스템은 인접 모니터(48, 50)상의 단지 한 쌍의 이차원 형광사진 이미지만을 이용하여 정위 수술을 가능하게 한다. 수술 기구의 위치를 전체적으로 특정하기 위한 CT 슬라이스의 이용은 요구되지 않는다. 컴퓨터(40)는 이미지 왜곡 및 A/P 이미지와 시상 이미지를 형성하기 위한 C-암의 무작위 또는 자유 위치설정에도 불구하고 A/P 이미지와 시상 이미지사이의 직접적인 기하학적 관계를 형성한다. 본 발명의 개선된 시스템은 이러한 정확한 기하학적 관계를 밀리미터 이하의 정밀도에서 형성할 수 있다.The computer 40 is programmed with software for correcting spatial distortion from the optics of the perspective inspection apparatus 12. The system of the present invention enables stereotactic surgery using only a pair of two-dimensional fluorescence images on adjacent monitors 48 and 50. Use of a CT slice to globally specify the position of the surgical instrument is not required. The computer 40 forms a direct geometric relationship between the A / P and sagittal images despite image distortion and random or free positioning of the C-arms to form the A / P and sagittal images. The improved system of the present invention can form such precise geometric relationships at sub-millimeter precision.

시상 이미지 및 A/P 이미지가 등록되면, 외과의사에 의하여 A/P 이미지 또는 시상 이미지중 하나 상에 선택된 포인트 또는 라인은 다른 이미지상의 대응 투사로서 컴퓨터(40)에 즉시 디스플레이된다. 따라서, 모니터(48)상의 시상 이미지 및 모니터(50)상의 A/P 이미지를 이용함으로써, 외과의사는 CT 스캔 슬라이스 없이도 선형 궤적을 정위적으로 계획할 수 있다. 따라서, 본 발명은 1백만 달러 이상의 비용이 드는 고가의 CT 스캔 장치 없이도 수행될 수 있다.Once the sagittal image and the A / P image are registered, the point or line selected by the surgeon on either the A / P image or the sagittal image is immediately displayed on the computer 40 as a corresponding projection on the other image. Thus, by using the sagittal image on the monitor 48 and the A / P image on the monitor 50, the surgeon can stereoscopically plan the linear trajectory without the CT scan slice. Thus, the present invention can be performed without expensive CT scan devices that cost more than $ 1 million.

본 발명의 시스템을 제어하는 소프트웨어의 동작은 도 3c-18에 상세히 도시되어 있다.The operation of the software controlling the system of the present invention is shown in detail in FIGS. 3C-18.

모든 표시, 첨자 및 수학법칙, 방정식 및 설명은 첨부된 부록에 포함되어 있다. 도 4-18에 도시된 모든 흐름도에 대하여, 기준은 부록 및 부록에 나타난 영역 [1] 내지 [15]를 참조로 한다.All signs, subscripts and mathematical laws, equations and explanations are included in the appended appendix. For all of the flowcharts shown in FIGS. 4-18, the reference refers to the appendices and areas [1] to [15] shown in the appendix.

메인 프로그램은 도 3c의 블록(110)에서 시작한다. 컴퓨터(40)는 블록(112)에서 부모(parent) 윈도우를 생성하고 블록(114)에 나타난 바와 같이 메인 윈도우상에 버튼을 드로윙한다. 다음에 컴퓨터(40)는 블록(116)에 나타난 바와 같이 모니터(48)상에 시상 자식(child) 윈도우를 생성한다. 컴퓨터(40)는 또한 블록(118)에 나타낸 바와 같이 모니터(50)상에 A/P 자식 윈도우를 생성한다. 다음에 컴퓨터(40)는 버튼 또는 키가 블록(120)에서 눌러졌는지를 결정한다. 눌러지지 않았다면, 컴퓨터(40)는 블록(122)에 나타난 바와 같이 대기하고 다음에 블록(120)으로 돌아가서 버튼 또는 키가 눌러지기를 기다린다.The main program starts at block 110 of FIG. 3C. Computer 40 creates a parent window at block 112 and draws a button on the main window as shown in block 114. Computer 40 then creates a sagittal child window on monitor 48 as shown in block 116. Computer 40 also creates an A / P child window on monitor 50 as shown in block 118. Computer 40 then determines whether the button or key was pressed at block 120. If not pressed, computer 40 waits as shown in block 122 and then returns to block 120 to wait for a button or key to be pressed.

버튼 또는 키가 블록(120)에서 눌러지면, 컴퓨터(40)는 A/P 이미지 습득 버튼(94) 또는 F1 키가 블록(124)에서 눌러졌는지를 결정한다. 만약 눌러졌다면, 컴퓨터(40)는 도4의 블록(166)으로 진행한다. 눌러지지 않았다면, 컴퓨터(40)는 시상 이미지 습득 버튼(94) 또는 F3 키가 블록(126)에서 눌러졌는지를 결정한다. 만약 눌러졌다면 컴퓨터(40)는 도 5의 블록(200)으로 진행한다. 눌러지지 않았다면, 컴퓨터(40)는 A/P 기준점 선택 버튼(96) 또는 F3 키가 블록(128)에서 눌려졌는지를 결정한다. 만약 눌러졌다면 컴퓨터(40)는 도 6의 블록(234)으로 진행한다. 만약 버튼(96) 또는 F3 키가 블록(128)에서 눌러지지 않았다면, 컴퓨터(40)는 시상 기준점 선택 버튼(74) 또는 F4 키가 블록(130)에 나타난 바와 같이 선택되었는지를 결정한다. 만약 선택되었다면, 컴퓨터(40)는 도 7의 블록(276)으로 진행한다. 만약 선택되지 않았다면, 컴퓨터(40)는 블록(132)으로 진행한다.When the button or key is pressed at block 120, computer 40 determines whether the A / P image acquisition button 94 or F1 key has been pressed at block 124. If pressed, computer 40 proceeds to block 166 of FIG. If not pressed, the computer 40 determines whether the sagittal image acquisition button 94 or the F3 key has been pressed at block 126. If pressed, computer 40 proceeds to block 200 of FIG. If it is not pressed, the computer 40 determines whether the A / P reference point selection button 96 or the F3 key has been pressed at block 128. If pressed, computer 40 proceeds to block 234 of FIG. 6. If the button 96 or the F3 key was not pressed at block 128, the computer 40 determines whether the sagittal reference point selection button 74 or the F4 key has been selected as shown at block 130. If so, computer 40 proceeds to block 276 of FIG. If not, computer 40 proceeds to block 132.

블록(132)에서, 컴퓨터(40)는 A/P 이미지 등록 버튼(98) 또는 F5 키가 눌러졌는지를 결정한다. 만약 눌러졌다면, 컴퓨터(40)는 도 8의 블록(324)으로 진행한다. 만약 눌러지지 않았다면, 컴퓨터(40)는 시상 이미지 등록 버튼(76) 또는 F6키가 블록(134)에 나타난 바와 같이 눌러졌는지를 결정한다. 만약 눌러졌다면, 컴퓨터(40)는 도 9의 블록(350)으로 진행한다. 만약 눌러지지 않았다면, 컴퓨터(40)는 블록(136)으로 진행한다.In block 132, the computer 40 determines whether the A / P image registration button 98 or the F5 key has been pressed. If pressed, computer 40 proceeds to block 324 of FIG. 8. If not pressed, the computer 40 determines whether the sagittal image registration button 76 or the F6 key has been pressed as shown in block 134. If pressed, computer 40 proceeds to block 350 of FIG. 9. If not pressed, computer 40 proceeds to block 136.

블록(136)으로부터, 컴퓨터(40)는 횡단 각도 버튼(100) 또는 F7 키가 블록(138)에 나타난 바와 같이 눌러졌는지를 결정한다. 만약 눌러졌다면, 컴퓨터(40)는 도 10의 블록(376)으로 진행한다. 만약 눌러지지 않았다면, 컴퓨터(40)는 스크류 길이 버튼(78) 또는 F10 키가 블록(142)에서 나타난 바와 같이 눌러졌는지를 결정한다. 만약 눌러졌다면, 컴퓨터(40)는 도 11의 블록(388)으로 진행한다. 만약 눌러지지 않았다면, 컴퓨터(40)는 시상 각도 버튼(78) 또는 F10 키가 블록(142)에 나타난 바와 같이 눌려졌는지를 결정한다. 만약 눌러졌다면, 컴퓨터(40)는 도 12의 블록(400)으로 진행한다. 만약 눌러지지 않았다면, 컴퓨터(40)는 접근 각도 버튼(102) 또는 F9 키가 블록(144)에 나타난 바와 같이 눌러졌는지를 결정한다. 만약 눌러졌다면, 컴퓨터(40)는 도 13의 블록(412)으로 진행한다. 만약 눌러지지 않았다면, 컴퓨터(40)는 블록(146)으로 진행한다.From block 136, computer 40 determines whether the traverse angle button 100 or the F7 key was pressed as shown in block 138. If pressed, computer 40 proceeds to block 376 of FIG. If not pressed, the computer 40 determines whether the screw length button 78 or the F10 key was pressed as shown in block 142. If pressed, computer 40 proceeds to block 388 of FIG. 11. If not pressed, the computer 40 determines whether the sagittal angle button 78 or the F10 key has been pressed as shown in block 142. If pressed, computer 40 proceeds to block 400 of FIG. 12. If not pressed, computer 40 determines whether the approach angle button 102 or F9 key has been pressed as shown in block 144. If pressed, computer 40 proceeds to block 412 of FIG. 13. If not pressed, computer 40 proceeds to block 146.

블록(146)에서, 컴퓨터(40)는 로봇 이동 버튼(104) 또는 F11 키가 눌러졌는지를 결정한다. 만약 눌러졌다면, 컴퓨터(40)는 도 14의 블록(422)으로 진행한다. 만약 눌러지지 않았다면, 컴퓨터(40)는 축을 따른 로봇 이동 버튼(82) 또는 F12 키가 블록(148)에 나타난 것처럼 눌러졌는지를 결정한다. 만약 눌러졌다면, 컴퓨터(40)는 도15의 블록(452)으로 진행한다. 만약 눌러지지 않았다면, 커서가 A/P 이미지 영역(86)내에 있을 때 블록(150)에 나타난 바와 같이 컴퓨터(40)는 모니터(50)의 A/P 이미지 영역이 클릭에 의하여 선택되는지를 결정한다. 만약 선택되었다면, 컴퓨터(40)는 도 16의 블록(476)으로 진행한다. 만약 선택되지 않았다면, 컴퓨터(40)는 모니터(48)상의 시상 이미지 영역(62)에 커서를 위치시켜 클릭함으로써 시상 이미지 영역이 선택되었는지를 결정한다.In block 146, the computer 40 determines whether the robotic move button 104 or F11 key has been pressed. If pressed, computer 40 proceeds to block 422 of FIG. 14. If not pressed, the computer 40 determines whether the robotic move button 82 or the F12 key along the axis was pressed as shown in block 148. If pressed, computer 40 proceeds to block 452 of FIG. If it is not pressed, the computer 40 determines whether the A / P image area of the monitor 50 is selected by clicking as shown in block 150 when the cursor is in the A / P image area 86. . If so, computer 40 proceeds to block 476 of FIG. If not selected, the computer 40 determines whether the sagittal image area has been selected by placing and clicking the cursor on the sagittal image area 62 on the monitor 48.

블록(154)으로부터, 컴퓨터(40)는 커서를 이동시켜 모니터(48)상의 로봇 제어 영역(84) 또는 모니터(50)상의 로봇 제어 영역(106)에서 클릭함으로써 로봇 제어 영역(54) 또는 (106)이 선택되었는지를 결정한다. 로봇 제어가 선택되었다면 컴퓨터(40)는 도 18의 블록(536)으로 진행한다. 로봇 제어가 선택되지 않았다면, 컴퓨터(40)는 블록(158)으로 진행하여 메인 프로그램을 중지하고자 하는 오퍼레이터 의도를 나타내는 "Q"키가 눌러졌는지를 결정한다. "Q"버튼이 눌러지면, 컴퓨터(40)는 블록(160)에 나타난 것처럼 모든 할당된 메모리에서 자유로와지며 블록(162)에 나타난 것처럼 메인 프로그램을 종료한다. "Q" 버튼이 블록(154)에서 눌러지지 않으면, 컴퓨터(40)는 블록(122)으로 진행하여 다른 버튼 또는 키가 눌러지기를 기다린다.From block 154, the computer 40 moves the cursor and clicks on the robot control area 84 on the monitor 48 or the robot control area 106 on the monitor 50 to control the robot control area 54 or 106. ) Is selected. If robot control has been selected, then computer 40 proceeds to block 536 of FIG. 18. If no robot control has been selected, the computer 40 proceeds to block 158 to determine if the "Q" key was pressed indicating the operator's intention to abort the main program. When the "Q" button is pressed, computer 40 is freed from all allocated memory as shown in block 160 and terminates the main program as shown in block 162. If the "Q" button is not pressed at block 154, computer 40 proceeds to block 122 and waits for another button or key to be pressed.

본 발명의 시스템에 의하여 수행되는 여러 가지 기능을 설명한다. A/P 이미지 습득 버튼(94) 또는 F1 키가 눌러지면, 컴퓨터(40)는 도 4의 블록(166)으로 진행한다. 다음에 컴퓨터(40)는 이미지 습득 카드가 블록(168)에서 통과 모드에 있는지를 결정한다. 버튼(94) 및 F1 키는 토글 버튼이다. 버튼(94) 또는 F1 키가 초기에 눌러지면, 카드는 통과 모드가 되며 C-암(12)으로부터의 이미지는 직접 모니터(50)로 전송된다. C-암에 의한 이미지가 습득되는 지가 모니터(50)상에 A/P 이미지 영역(86)내에 보여진다. 따라서, 카드가 블록(168)에서 통과 모드에 있지 안으면, 버튼(94) 또는 F1키를 누름으로써 블록(170)에서 통과 모드가 설정된다. 다음에 컴퓨터(40)는 블록(172)에서 다음 명령을 기다리기 위하여 복귀한다. 컴퓨터(40)내의 이미지 습득 카드가 통과 모드가 된 후에 버튼(94) 또는 F1 키가 다시 눌러지면, 블록(174)에서 라이브 이미지를 보존하고 A/P 이미지를 포착한다. 상기 포착된 이미지는 블록(176)에서 모니터(50)상에 디스플레이된다. 다음에 블록(178)에서 컴퓨터(40)는 버튼 F11, F12 및 F5를 디세이블시켜 흐리게 하고, 버튼(96) 및 키 F3을 인에이블시켜 밝게 한다. 다시 말해, A/P 이미지가 포착된 후에, 컴퓨터(40)는 버튼(96) 또는 키 F3을 통하여 A/P 기준점을 오퍼레이터가 선택하도록 한다.Various functions performed by the system of the present invention will be described. When the A / P image acquisition button 94 or the F1 key is pressed, the computer 40 proceeds to block 166 of FIG. 4. The computer 40 then determines whether the image acquisition card is in the pass-through mode at block 168. Button 94 and the F1 key are toggle buttons. When the button 94 or F1 key is initially pressed, the card is in pass-through mode and the image from the C-arm 12 is sent directly to the monitor 50. It is shown in the A / P image area 86 on the monitor 50 whether the image by the C-arm is acquired. Thus, if the card is not in the pass mode at block 168, the pass mode is set at block 170 by pressing button 94 or the F1 key. The computer 40 then returns to block 172 to wait for the next command. If the button 94 or F1 key is pressed again after the image acquisition card in the computer 40 has entered the pass-through mode, block 174 preserves the live image and captures the A / P image. The captured image is displayed on monitor 50 at block 176. Next, at block 178, computer 40 disables buttons F11, F12, and F5 to dimm, and enables button 96 and key F3 to lighten. In other words, after the A / P image is captured, computer 40 allows the operator to select an A / P reference point via button 96 or key F3.

다음에 컴퓨터(40)는 블록(180)에서 NULL 툴을 할당한다. 로봇의 NULL 툴은 로봇(18)의 엔드 플랜지(22)의 3차원 배치이다. 다시 말해, 엔드 플랜지(22)는 엔드 플랜지(22)에 부착될 수 있는 특정 수술 도구에 의존하지 않고 로봇에 대한 3차원 위치를 형성한다. 컴퓨터(40)는 NULL 툴이 블록(182)에서 적합하게 할당되었는지를 결정한다. 만약 할당되지 않았다면, 컴퓨터(40)는 블록(184)에서 "툴이 할당되지 않았다"라는 에러 메시지를 발생시킨다. 다음에, 컴퓨터(40)는 블록(186)에서 다음 명령을 기다린다. NULL 툴이 블록(182)에서 적합하게 할당되었다면, 컴퓨터(40)는 블록(188)에서 로봇 제어기(53)로부터 엔드 플랜지의 현재 위치를 얻는다. 다음에 컴퓨터(40)는 블록(190)에서 시상 이미지가 모니터(48)상에 디스플레이되는 지를 결정한다. 디스플레이되지 않았다면, 컴퓨터(40)는 블록(192)에서 "시상 이미지 습득" 메시지를 보내고 블록(194)에서 다음 명령을 기다리기 위하여 복귀한다. 시상 이미지가 블록(190)에서 디스플레이되면, 컴퓨터(40)는 블록(196)에서 "기준점 선택" 메시지를 전송한다. 다음에 컴퓨터(40)는 블록(198)에서 다음 명령을 기다리기 위하여 복귀한다.Computer 40 then allocates a NULL tool at block 180. The NULL tool of the robot is a three dimensional arrangement of the end flange 22 of the robot 18. In other words, the end flange 22 forms a three-dimensional position with respect to the robot without depending on the particular surgical tool that may be attached to the end flange 22. Computer 40 determines whether a NULL tool has been properly assigned at block 182. If it has not been assigned, then computer 40 generates an error message at block 184 stating that "Tool not assigned." Next, the computer 40 waits for the next command at block 186. If the NULL tool has been properly assigned at block 182, computer 40 obtains the current position of the end flange from robot controller 53 at block 188. Computer 40 then determines whether the sagittal image is displayed on monitor 48 at block 190. If not displayed, computer 40 sends a " sagittal image acquisition " message at block 192 and returns to block 194 to wait for the next command. If the sagittal image is displayed at block 190, computer 40 transmits a “reference point selection” message at block 196. Computer 40 then returns to block 198 to wait for the next command.

시상 이미지 습득 버튼(72) 또는 F2 키가 눌러지면, 컴퓨터(40)는 도 5의 블록(200)으로 진행한다. 다음에 컴퓨터(40)는 블록(202)에서 이미지 습득 카드가 통과 모드에 있는지를 결정한다. 버튼(72) 및 F2 키는 토글 버튼이다. 카드가 블록(202)에서 통과 모드에 있지 않으면, 버튼(72) 또는 F2 키를 누름으로써 블록(204)에서 통과 모드를 설정한다.When the sagittal image acquisition button 72 or the F2 key is pressed, the computer 40 proceeds to block 200 of FIG. 5. Computer 40 then determines in block 202 whether the image acquisition card is in a pass mode. Button 72 and the F2 key are toggle buttons. If the card is not in the pass mode at block 202, set the pass mode at block 204 by pressing button 72 or the F2 key.

다음에 컴퓨터(40)는 블록(206)에서 다음 명령을 기다리기 위하여 복귀한다. 다음에 컴퓨터(40)는 블록(206)에서 다음 명령을 기다리기 위하여 복귀한다. 컴퓨터(40)내의 이미지 습득 카드가 통과 모드가 된 후에 버튼(72) 또는 F2 키가 다시 눌러지면, 블록(208)에서 라이브 이미지를 보존하고 시상 이미지를 포착한다. 상기 포착된 이미지는 블록(210)에서 모니터(48)상에 디스플레이된다. 다음에 블록(212)에서 컴퓨터(40)는 버튼 F11, F12 및 F6을 디세이블시켜 흐리게 하고, 버튼(74) 및 키 F3을 인에이블시켜 밝게 한다. 다시 말해, 시상 이미지가 포착된 후에, 컴퓨터(40)는 버튼(74) 또는 키 F4를 통하여 시상 기준점을 오퍼레이터가 선택하도록 한다.Computer 40 then returns to block 206 to wait for the next command. Computer 40 then returns to block 206 to wait for the next command. If the button 72 or the F2 key is pressed again after the image acquisition card in the computer 40 has entered the pass mode, block 208 preserves the live image and captures the sagittal image. The captured image is displayed on the monitor 48 at block 210. In block 212 the computer 40 then disables and dims buttons F11, F12, and F6, and enables and brightens button 74 and key F3. In other words, after the sagittal image is captured, the computer 40 allows the operator to select the sagittal reference point via the button 74 or the key F4.

다음에 컴퓨터(40)는 블록(214)에서 NULL 툴을 할당한다. 컴퓨터(40)는 블록(216)에서 NULL 툴이 적합하게 할당되었는지를 결정한다. 만약 할당되지 않았다면, 컴퓨터(40)는 블록(218)에서 "툴이 할당되지 않았다" 에러 메시지를 발생시킨다. 다음에 컴퓨터(40)는 블록(220)에서 다음 명령을 기다린다. NULL 툴이 블록(216)에서 적합하게 할당되면, 컴퓨터(40)는 블록(222)에서 로봇 제어기(53)로부터 엔드 플랜지(22)의 현재 위치를 얻는다. 다음에 컴퓨터(40)는 블록(224)에서 A/P 이미지가 모니터(50)상에 디스플레이되는 지를 결정한다. 디스플레이되지 않으면, 컴퓨터(40)는 블록(226)에서 "A/P 이미지 습득" 메시지를 전송하고 블록(228)에서 다음 명령을 기다리기 위하여 복귀한다. A/P 이미지가 블록(224)에서 디스플레이되면, 컴퓨터(40)는 블록(230)에서 "기준점 선택" 메시지를 전송한다. 컴퓨터(40)는 다음에 블록(232)에서 다음 명령을 기다리기 위하여 복귀한다.Computer 40 then assigns a NULL tool at block 214. Computer 40 determines in block 216 whether the NULL tool has been properly assigned. If not, computer 40 generates a "tool not assigned" error message at block 218. Computer 40 then waits for the next command at block 220. If the NULL tool is properly assigned at block 216, computer 40 obtains the current position of end flange 22 from robot controller 53 at block 222. Computer 40 then determines whether an A / P image is displayed on monitor 50 at block 224. If not displayed, computer 40 sends a " A / P image acquisition " message at block 226 and returns to block 228 to wait for the next command. If the A / P image is displayed at block 224, computer 40 sends a “reference point selection” message at block 230. Computer 40 then returns to block 232 to wait for the next command.

A/P 기준점 선택 버튼(96) 또는 F3 키 버튼이 눌러지면, 컴퓨터(40)는 도 6의 블록(234)으로 진행한다. 먼저 컴퓨터(40)는 블록(236)에서 A/P 이미지가 모니터(50)상에 디스플레이되었는지를 결정한다. 디스플레이되지 않았다면, 블록(238)에서 "A/P 이미지 습득" 에러 메시지를 발생시킨다. 다음에 컴퓨터(40)는 블록(240)에서 다음 명령을 기다리기 위하여 복귀한다.When the A / P reference point selection button 96 or the F3 key button is pressed, the computer 40 proceeds to block 234 of FIG. 6. First, computer 40 determines at block 236 whether an A / P image has been displayed on monitor 50. If not displayed, generate a "A / P image acquisition" error message at block 238. Computer 40 then returns to block 240 to wait for the next command.

A/P 이미지가 블록(236)에서 디스플레이되면, 컴퓨터(40)는 블록(242)에서 모니터(50)의 디스플레이 스크린 상에 사각 커서를 디스플레이한다. 다음에 컴퓨터(40)는 블록(244)에서 기준점 수를 제로로 리세팅한다. 다음에, 컴퓨터(40)는 블록(246)에서 오퍼레이터에 의하여 클릭될 트랙볼 버튼을 기다린다. 트랙볼 버튼이 기준점 쉐도우(shadow)상에서 클릭되면, 컴퓨터(40)는 블록(248)에서 발신음(beep)을 발생시킨다. 다음에 컴퓨터(40)는 블록(250)에서 선택된 마우스 커서 좌표 주위의 에지 검출을 수행한다. 상기와 같은 에지 검출은 존 캐니에 의하여 개발되고 첨부된 부록의 섹션[1]에 참조된 논문에 기술된 경사 기준 방법을 이용하여 수행된다. 상기 논문은 여기서 참고로 인용된다.If the A / P image is displayed at block 236, computer 40 displays a rectangular cursor on the display screen of monitor 50 at block 242. The computer 40 then resets the reference point number to zero at block 244. The computer 40 then waits for a trackball button to be clicked by the operator at block 246. When the trackball button is clicked on the reference point shadow, computer 40 generates a beep at block 248. Computer 40 then performs edge detection around the mouse cursor coordinates selected at block 250. Such edge detection is performed using the gradient reference method developed by John Canny and described in the paper referenced in section [1] of the appendix. The paper is incorporated herein by reference.

다음에 컴퓨터(40)는 적어도 3개의 에지 화소가 블록(252)에 나타난 에지 검출 단계 중에 발견되는지를 결정한다. 만약 에지 화소가 발견되지 않았다면, 컴퓨터(40)는 블록(254)에서 "기준점에 다시 접근함" 에러 메시지를 발생시킨다. 다음에 컴퓨터(40)는 마우스 버튼이 다시 클릭되는 것을 기다리기 위하여 블록(246)으로 복귀한다. 적어도 3개의 에지 화소가 블록(252)에서 발견되지 않았다면, 컴퓨터(40)는 블록(256)에서 첨부된 부록의 식[13]을 이용하여 에지 화소를 그들의 교정된 이미지 좌표로 매핑한다.The computer 40 then determines whether at least three edge pixels are found during the edge detection step shown in block 252. If no edge pixel is found, the computer 40 generates a "access to reference point" error message at block 254. Computer 40 then returns to block 246 to wait for the mouse button to be clicked again. If at least three edge pixels were not found at block 252, computer 40 maps the edge pixels to their corrected image coordinates using equation [13] of the appendix appended at block 256.

다음에 컴퓨터(40)는 부록의 식[14]에 기재된 바와 같이 교정된 에지 화소를 이용하여 기준점(26)에 의하여 발생된 기준점 쉐도우의 중심을 발견한다. 이 단계는 블록(258)에 나타나 있다. 다음에 컴퓨터(40)는 도 6의 블록(262)으로 진행한다. 블록(262)으로부터, 컴퓨터(40)는 기준점 쉐도우의 중심 주위에 원을 그린다.The computer 40 then finds the center of the reference point shadow generated by the reference point 26 using the corrected edge pixels as described in equation [14] of the appendix. This step is shown at block 258. Computer 40 then proceeds to block 262 of FIG. From block 262, computer 40 draws a circle around the center of the reference point shadow.

다음에 컴퓨터(40)는 블록(264)에서 모두 8개의 기준점(26)이 A/P 이미지에 배치되었는지를 결정한다. 배치되지 않았다면, 컴퓨터(40)는 도 6의 블록(246)으로 복귀하고 다른 기준점 쉐도우에 마우스 버튼이 클릭되기를 기다린다.Computer 40 then determines whether all eight reference points 26 have been placed in the A / P image at block 264. If not, computer 40 returns to block 246 in FIG. 6 and waits for a mouse button to be clicked on another reference point shadow.

모두 8개의 기준점이 블록(264)에서 배치되면, 컴퓨터(40)는 블록(268)에서 컴퓨터 메모리 내에 모든 기준점의 이미지 좌표를 저장한다. 다음에 컴퓨터(40)는 블록(270)에서 A/P 이미지 등록 버튼(98) 및 F5 키를 인에이블시켜 밝게 한다. 다음에 컴퓨터(40)는 블록(272)에서 "A/P 이미지 등록" 메시지를 전송한다.If all eight reference points are placed at block 264, computer 40 stores image coordinates of all reference points in computer memory at block 268. Computer 40 then enables and brightens A / P image registration button 98 and the F5 key at block 270. The computer 40 then sends a "Register A / P Image" message at block 272.

다음, 컴퓨터(40)는 블록(274)에서 도 8의 엔트리1 위치로 진행한다. 컴퓨터(40)는 도 8의 엔트리1 위치로 이동하기 위하여 오퍼레이터가 버튼을 누를 것을 기다리지 않는다.Computer 40 then proceeds to block 274 at entry1 location in FIG. The computer 40 does not wait for the operator to press a button to move to the Entry 1 position of FIG. 8.

시상 기준점 선택 버튼 또는 F4 키 버튼이 눌러지면, 컴퓨터(40)는 도 7의 블록(276)으로 진행한다. 먼저 컴퓨터(40)는 시상 이미지가 블록(278)에서 모니터(48)상에 디스플레이되는지를 결정한다. 디스플레이되지 않았다면, 컴퓨터(40)는 블록(280)에서 "시상 이미지 습득" 에러 메시지를 발생시킨다. 다음에 컴퓨터(40)는 블록(282)에서 다음 명령을 기다리기 위하여 복귀한다.When the sagittal reference point selection button or the F4 key button is pressed, the computer 40 proceeds to block 276 of FIG. 7. First, computer 40 determines whether a sagittal image is displayed on monitor 48 at block 278. If not displayed, computer 40 generates a "thalamic image acquisition" error message at block 280. Computer 40 then returns to block 282 to wait for the next command.

시상 이미지가 블록(278)에 디스플레이되면, 컴퓨터(40)는 블록(290)에서 모니터(48)의 디스플레이 스크린 상에 사각 커서를 디스플레이한다. 다음에 컴퓨터(40)는 블록(292)에서 배치된 기준점의 수를 제로로 리세팅한다. 다음, 컴퓨터(40)는 블록(294)에서 오퍼레이터에 의하여 트랙볼 버튼이 클릭되기를 기다린다. 트랙볼 버튼이 클릭되면, 컴퓨터(40)는 블록(296)에서 발신음을 발생시킨다. 다음에 컴퓨터(40)는 블록(298)에서 선택된 트랙볼 커서 좌표 주위에서 에지 검출을 수행한다. 에지 검출은 첨부된 부록의 섹션[1]에 참고된 논문에 기재된 존 캐니에 의하여 개발된 경사 기준 방법을 이용하여 수행된다.If the sagittal image is displayed at block 278, computer 40 displays a rectangular cursor on the display screen of monitor 48 at block 290. The computer 40 then resets the number of reference points placed at block 292 to zero. The computer 40 then waits for the trackball button to be clicked by the operator at block 294. When the trackball button is clicked, computer 40 generates a dial tone at block 296. Computer 40 then performs edge detection around the trackball cursor coordinates selected at block 298. Edge detection is performed using the slope reference method developed by John Canny as described in the paper referenced in section [1] of the appendix.

다음에 컴퓨터(40)는 적어도 3개의 에지 화소가 블록(300)에 나타난 에지 검출 단계 중에 발견되는지를 결정한다. 만약 에지 화소가 발견되지 않았다면, 컴퓨터(40)는 블록(302)에서 "기준점에 다시 접근함" 에러 메시지를 발생시킨다. 다음에 컴퓨터(40)는 트랙볼 버튼이 다시 클릭되는 것을 기다리기 위하여 블록(294)으로 복귀한다. 적어도 3개의 에지 화소가 블록(300)에서 발견되지 않았다면, 컴퓨터(40)는 블록(304)에서 첨부된 부록의 식[13]을 이용하여 에지 화소를 그들의 교정된 이미지 좌표로 매핑한다.Computer 40 then determines whether at least three edge pixels are found during the edge detection step shown in block 300. If no edge pixel is found, the computer 40 generates a "retrieval reference point" error message at block 302. The computer 40 then returns to block 294 to wait for the trackball button to be clicked again. If at least three edge pixels have not been found at block 300, computer 40 maps the edge pixels to their corrected image coordinates using equation [13] of the appendix appended at block 304.

다음에 컴퓨터(40)는 부록의 식[14]에 기재된 바와 같이 교정된 에지 화소를 이용하여 기준점(26)에 의하여 발생된 기준점 쉐도우의 중심을 발견한다. 이 단계는 블록(306)에 나타나 있다. 다음에 컴퓨터(40)는 블록(310)으로 진행한다. 블록(310)으로부터, 컴퓨터(40)는 기준점 쉐도우의 중심 주위에 원을 그린다.The computer 40 then finds the center of the reference point shadow generated by the reference point 26 using the corrected edge pixels as described in equation [14] of the appendix. This step is shown in block 306. Computer 40 then proceeds to block 310. From block 310, computer 40 draws a circle around the center of the reference point shadow.

다음에 컴퓨터(40)는 블록(312)에서 모두 8개의 기준점(26)이 시상 이미지에 배치되었는지를 결정한다. 배치되지 않았다면, 컴퓨터(40)는 블록(294)으로 복귀하고 트랙볼 버튼이 다시 클릭되기를 기다린다.Computer 40 then determines in block 312 if all eight reference points 26 have been placed in the sagittal image. If not, computer 40 returns to block 294 and waits for the trackball button to be clicked again.

모두 8개의 기준점이 블록(312)에서 배치되면, 컴퓨터(40)는 블록(316)에서 컴퓨터 메모리 내에 모든 기준점의 이미지 좌표를 저장한다. 다음에 컴퓨터(40)는 블록(318)에서 시상 이미지 등록 버튼(76) 및 F6 키를 인에이블시켜 밝게 한다. 다음에 컴퓨터(40)는 블록(320)에서 "시상 이미지 등록" 메시지를 전송한다.If all eight reference points are placed at block 312, computer 40 stores image coordinates of all reference points in computer memory at block 316. The computer 40 then enables and brightens the sagittal image registration button 76 and the F6 key at block 318. The computer 40 then sends a "sagittal image registration" message at block 320.

다음, 컴퓨터(40)는 블록(322)에서 도 9의 엔트리2 위치로 진행한다. 컴퓨터(40)는 도 9의 엔트리2 위치로 이동하기 위하여 오퍼레이터가 버튼을 누르기를 기다리지 않는다.The computer 40 then proceeds to block 322 to the entry2 location in FIG. 9. The computer 40 does not wait for the operator to press the button to move to the entry 2 position of FIG. 9.

A/P 이미지 등록 버튼(98) 또는 F5 키가 눌러지면, 컴퓨터(40)는 도 8의 블록(324)으로 진행한다. 먼저 컴퓨터(40)는 블록(326)에서 모든 A/P 이미지 기준점이 발견되었는지를 결정한다. 발견되지 않았다면, 컴퓨터(40)는 블록(328)에서 "모든 기준점이 선택되지 않았음" 에러 메시지를 발생시킨다. 다음에 컴퓨터(40)는 블록(330)에서 다음 명령을 기다리기 위하여 복귀한다.When the A / P image registration button 98 or F5 key is pressed, the computer 40 proceeds to block 324 of FIG. First, computer 40 determines whether all A / P image reference points have been found at block 326. If not found, the computer 40 generates a "not all reference points selected" error message at block 328. Computer 40 then returns to block 330 to wait for the next command.

모든 A/P 기준점이 블록(326)에서 발견되었다면, 컴퓨터(40)는 블록(332)으로 진행한다. 전술한 바와 같이, 컴퓨터(40)는 또한 모든 기준점이 선택된 후에 도 6의 블록(274)으로부터 블록(332)으로 진행한다.If all A / P reference points have been found at block 326, the computer 40 proceeds to block 332. As discussed above, the computer 40 also proceeds from block 274 of FIG. 6 to block 332 after all reference points have been selected.

블록(332)에서, 먼저 컴퓨터(40)는 A/P 기준점 중심의 모든 2차원 좌표를 불러낸다. 다음, 컴퓨터(40)는 블록(334)에서 기준점(26)의 중심의 3차원 좌표 파일로부터 데이터를 판독한다. 기준점(26)의 3차원 좌표는 좌표 측정 머신(CMM)을 이용하여 얻는다. 따라서, 상기 데이터는 기준점(26)의 실제 위치에 관한 정보를 제공한다. 일반적으로, 이들 CMM에 의한 좌표는 조절 부재(24)의 제조자로부터 얻는다.At block 332, computer 40 first retrieves all two-dimensional coordinates of the A / P reference point center. The computer 40 then reads data from the three-dimensional coordinate file of the center of the reference point 26 at block 334. The three-dimensional coordinates of the reference point 26 are obtained using a coordinate measuring machine (CMM). Thus, the data provides information regarding the actual position of the reference point 26. In general, the coordinates by these CMMs are obtained from the manufacturer of the adjusting member 24.

다음, 컴퓨터(40)는 3차원 좌표를 대응하는 이미지 포인트로 투사하는 기하학적 모델의 파라미터를 최적화한다. 최적화된 모델은 섹션[3]에 기재된 등록 매트릭스에서 인캡슐레이팅된다. 최적화는 블록(334)에서 판독된 3차원 좌표의 모델 투사와 블록(334)에서 판독된 2차원 좌표의 모델 투사사이의 차이를 최소화함으로서 수행된다. 레벤버그-마커트 방법은 블록(336)에서 첨부된 부록의 식[2]에 설명되는 바와 같이 최적화에 이용된다. 다음에 컴퓨터(40)는 첨부된 부록 섹션[3]에 기술된 등록 매트릭스를 형성한다. 이 단계는 블록(338)에 나타나 있다.The computer 40 then optimizes the parameters of the geometric model that projects the three-dimensional coordinates to the corresponding image points. The optimized model is encapsulated in the registration matrix described in section [3]. Optimization is performed by minimizing the difference between the model projection of the three-dimensional coordinates read at block 334 and the model projection of the two-dimensional coordinates read at block 334. The Levenberg-Market method is used for optimization as described in equation [2] of the appendix appended to block 336. Computer 40 then forms the registration matrix described in the appended section [3]. This step is shown in block 338.

다음에, 컴퓨터(40)는 시상봉합 이미지가 블록(340)에서 기술된 바와같이 기입되었는지의 여부를 결정한다. 만일 그렇지 않다면, 컴퓨터(40)는 블록(342)에 기술된 바와같이 "시상봉합 이미지 실행"의 메시지를 발생시킨다. 그다음에, 컴퓨터(40)는 블록(344)에 기술된 바와같이 다음 명령을 대기하기 위하여 복귀한다.Next, computer 40 determines whether the sagittal closure image has been written as described in block 340. If not, computer 40 generates a message of " launch sagittal image execution " as described in block 342. < Desc / Clms Page number 10 > The computer 40 then returns to wait for the next command as described in block 344.

만일 시상봉합 이미지가 블록(340)에서 등록되었다면, 컴퓨터(40)는 블록(346)에서 기술된 바와같이 "선택 엔트리 포인트"의 디스플레이 메시지를 발생시킨다. 그다음에, 컴퓨터(40)는 블록(348)에 기술된 바와같이 다음 명령을 대기하기 위하여 복귀한다.If the sagittal stitched image has been registered at block 340, computer 40 generates a display message of “selection entry point” as described at block 346. The computer 40 then returns to wait for the next command as described in block 348.

만일 레지스터 시상봉합 이미지 버튼(76) 또는 F6가 눌러지면, 컴퓨터(40)는 도 9의 블록(350)으로 진행한다. 컴퓨터(40)는 모든 시상봉합 기준점이 블록(352)에서 기술된 바와같이 발견되는 지의 여부를 우선 결정한다. 만일 그렇지 않다면, 컴퓨터(40)는 블록(354)에서 기술된바와같이 "모든 기준점이 선택되지 않았다는" 에러 메시지를 발생시킨다. 그다음에, 컴퓨터(40)는 블록(356)에 기술된바와같이 다음 명령을 대기하기 위하여 복귀한다.If register sagittal image button 76 or F6 is pressed, computer 40 proceeds to block 350 of FIG. The computer 40 first determines whether all sagittal closure reference points are found as described in block 352. If not, computer 40 generates an error message that "not all reference points have been selected" as described in block 354. Computer 40 then returns to wait for the next command as described in block 356.

만일 모든 시상봉합 기준점이 블록(352)에서 발견되었다면, 컴퓨터(40)는 블록(358)로 진행한다. 전술한 바와같이, 컴퓨터(40)는 모든 기준점이 선택된후에 도 7의 블록(322)으로부터 블록(358)로 자동적으로 진행한다.If all sagittal reference points are found at block 352, computer 40 proceeds to block 358. As discussed above, the computer 40 automatically advances from block 322 to block 358 in FIG. 7 after all reference points have been selected.

블록(358)에서, 컴퓨터(40)는 시상봉합 기준점 중심의 모든 2차원 좌표를 우선 호출한다. 다음에, 컴퓨터(40)는 블록(360)에 기술된바와같이 기준점(26)의 중심에 대한 3차원 좌표의 파일로부터 데이터를 판독한다. 기준점(26)의 좌표는 좌표측정기계(CMM)를 사용하여 얻어진다. 따라서, 정보를 제공하는 이러한 데이터는 기준점(26)의 실제 위치에 관련된 정보를 제공한다. 통상적으로, 이들 좌표는 등록 인공구조(24)의 제조업자로부터 얻어진다.At block 358, computer 40 first calls all two-dimensional coordinates of the sagittal reference point center. Next, computer 40 reads data from a file of three-dimensional coordinates with respect to the center of reference point 26 as described in block 360. The coordinates of the reference point 26 are obtained using a coordinate measuring machine (CMM). Thus, this informational information provides information relating to the actual location of the reference point 26. Typically, these coordinates are obtained from the manufacturer of the registration artifact 24.

다음에, 컴퓨터(40)는 블록(362)에서 기술된바와같이 블록(360)에서 판독된 3차원 좌표와 블록(358)에서 판독된 2차원 좌표사이에 피트를 첨부된 부록의 방정식[2]로 기술된 Levenberg-Marquardt 방법을 사용하여 최적화한다. 그다음에, 컴퓨터(40)는 첨부된 부록의 섹션[4]에서 설명한바와같이 등록 매트릭스를 구성한다. 이 단계는 블록(364)에서 기술된다.Next, the computer 40 adds a pit between the three-dimensional coordinates read in block 360 and the two-dimensional coordinates read in block 358 as described in block 362 [2]. Optimize using the Levenberg-Marquardt method described by The computer 40 then constructs a registration matrix as described in section [4] of the appendix. This step is described in block 364.

다음에, 컴퓨터(40)는 블록(366)에 기술된 바와같이 A/P 이미지가 등록되었는지의 여부를 결정한다. 만일 그렇지 않다면, 컴퓨터(40)는 블록(368)에 기술된바와같이 "A/P 등록 실행"의 메시지를 발생시킨다. 컴퓨터(40)는 블록(370)에서 기술된 바와같이 다음 명령을 대기하기 위하여 복귀한다.Next, computer 40 determines whether the A / P image has been registered as described in block 366. If not, the computer 40 generates a message of "execute A / P registration" as described in block 368. Computer 40 returns to wait for the next command as described in block 370.

만일 A/P 이미지가 블록(366)에 등록되었다면, 컴퓨터(40)는 블록(372)에 기술된 바와같이 "선택 엔트리 포인트"의 메시지를 발생시킨다. 컴퓨터(40)는 블록(374)에 기술된 바와같이 다음 명령을 대기하기 위하여 복귀한다.If the A / P image has been registered at block 366, computer 40 generates a message of "selection entry point" as described at block 372. Computer 40 returns to wait for the next command as described in block 374.

만일 횡단각 버튼(100) 또는 F7 키가 눌러지면, 컴퓨터(40)는 도 10의 블록(376)으로 진행한다. 횡단각은 도 1의 X축(34)에 대해 오른손 법칙을 사용하여 결정된 각이다. 횡단각을 조절하기 위하여, 오퍼레이터는 도 10의 블록(378)에 기술된 바와같이 도 3a의 엔트리 필드 버튼(101)으로 커서의 위치를 설정한다. 그때, 오퍼레이터는 블록(380)에서 기술된 바와같이 횡단각에 대한 수치값을 입력한다. 그다음에, 컴퓨터(40)는 새로운 횡단각을 판독하며, 첨부된 부록의 섹션[6]에서 설명된 방정식을 사용하여 가상 가이드와이어의 방향을 갱신한다. 이 단계는 블록(382)에 기술된다. 다음에, 컴퓨터(40)는 블록(384)에서 기술된 바와같이 첨부된 부록의 섹션[7]에서 설명된 방정식을 사용하여 새로운 횡단각에 기초한 시상봉합 이미지 영역(62)의 A/P 이미지 영역(86, 68)에 가상 가이드와아이 투영(92)을 다시 그린한다. 그다음에, 컴퓨터(40)는 블록(386)에서 기술된 바와같이 다음 명령을 대기하기 위하여 복귀한다.If the cross angle button 100 or the F7 key is pressed, the computer 40 proceeds to block 376 of FIG. 10. The traversing angle is the angle determined using the right hand rule with respect to the X axis 34 of FIG. 1. To adjust the traverse angle, the operator sets the position of the cursor with the entry field button 101 of FIG. 3A as described in block 378 of FIG. 10. The operator then enters a numerical value for the crossing angle as described in block 380. The computer 40 then reads the new crossing angle and updates the direction of the virtual guidewire using the equations described in section [6] of the appendix. This step is described in block 382. The computer 40 then uses the equations described in section [7] of the appended appendix as described in block 384 to the A / P image area of the sagittal image area 62 based on the new cross angle. Redraw the virtual guide and eye projection 92 on (86, 68). The computer 40 then returns to wait for the next command as described in block 386.

나사 길이 버튼(80) 또는 F8 키가 눌러지면, 컴퓨터(40)는 도 11의 블록(388)로 진행한다. 그다음에, 커서는 블록(390)에 기술된 바와같이 도 3b의 엔트리 필드(81)상에 위치한다. 그다음에, 오퍼레이터는 블록(392)에 기술된 바와같이 새로운 나사 길이에 대한 수치값을 입력한다. 컴퓨터(40)는 새로운 나사 길이를 판독하며, 첨부된 부록의 섹션[11]에서 설명된 방정식을 사용하여 가상 가이드와이어의 길이를 갱신한다. 이 단계를 블록(394)에 기술된다. 다음에, 컴퓨터(40)는 첨부된 부록의 섹션[7]에서 설명된 방정식을 사용하여 A/P 이미지 영역(86)에 투영된 가이드와이어(92)를 다시 그리며 시상봉합 이미지 영역(62)에 투영된 가이드와이어(68)을 다시 그린다. 이들 단계는 블록(396)에 기술된다. 그다음에, 컴퓨터(40)는 블록(398)에 기술된 바와같이 다음 명령을 대기하기 위하여 복귀한다.When the thread length button 80 or the F8 key is pressed, the computer 40 proceeds to block 388 of FIG. 11. The cursor is then placed on the entry field 81 of FIG. 3B as described in block 390. The operator then enters a numerical value for the new thread length as described in block 392. The computer 40 reads the new screw length and updates the length of the virtual guidewire using the equation described in section [11] of the appendix. This step is described in block 394. Next, the computer 40 redraws the guidewire 92 projected on the A / P image area 86 using the equation described in section [7] of the appended appendix to the sagittal image area 62. Redraw the projected guidewire 68. These steps are described in block 396. The computer 40 then returns to wait for the next command as described in block 398.

만일 시상봉합 각 버튼(78) 또는 F10 키가 눌러지면, 컴퓨터(40)는 시상봉합 각을 조절하기 위하여 도 13의 블록(400)으로 진행한다. 시상봉합 각은 오른손 법칙을 사용하여 도 1의 Y-축(36)에 대한 각이다.If the sagittal closure button 78 or the F10 key is pressed, the computer 40 proceeds to block 400 of FIG. 13 to adjust the sagittal closure angle. The sagittal closure angle is the angle to the Y-axis 36 of FIG. 1 using the right hand rule.

커서는 블록(402)에 기술된 바와같이 도 3b의 엔트리 필드(79)에 위치한다. 다음에, 오퍼레이터는 블록(404)에 기술된 바와같이 시상봉합 각에 대한 수치값을 입력한다. 컴퓨터(40)는 새로운 시상봉합 각의 값을 판독하며, 첨부된 부록의 섹션[10]에서 설명된 방정식을 사용하여 가상 가이드와이어의 방향을 갱신한다.The cursor is located in the entry field 79 of FIG. 3B as described in block 402. The operator then enters a numerical value for the sagittal closure angle, as described in block 404. The computer 40 reads the value of the new sagittal closure angle and updates the orientation of the virtual guidewire using the equations described in section [10] of the appendix.

상기 단계는 블록(406)에서 설명되었다. 이어, 컴퓨터(40)는 부록의 섹션[7]에 전개된 식을 사용하여 돌출된 가이드 와이어(92)를 A/P 이미지 영역(62)에 다시 그리고, 돌출된 가이드 와이어(68)를 시상 이미지 영역(62) 내에 다시 그린다. 이러한 단계는 블록(408)에서 설명된다. 이어 컴퓨터(40)는 블록(410)에서 나타낸 바와 같이 다음 명령을 기다리기 위해 복귀한다.This step has been described at block 406. The computer 40 then draws the protruding guide wire 92 back into the A / P image area 62 using the equation developed in section [7] of the appendix and sagittal image the protruding guide wire 68. Redraw in area 62. This step is described at block 408. Computer 40 then returns to wait for the next command as indicated at block 410.

접근 각 버튼(102) 또는 F9키가 눌려지면 컴퓨터(40)는 도 12의 블록(412)으로 진행한다. 접근 각도는 도 1의 Z축(38)에 대하여 취하여진 각이다.When the approach angle button 102 or the F9 key is pressed, the computer 40 proceeds to block 412 of FIG. The approach angle is the angle taken with respect to the Z axis 38 of FIG.

블록(414)에서 나타낸 바와 같이 커서가 도 1의 엔트리 필드(103)내에 위치된다. 오퍼레이터는 블록(416)에서 나타낸 바와 같이 접근 각도를 위한 새로운 수치를 입력한다. 컴퓨터(40)는 블록(418)에서 나타낸 바와 같이 새로운 접근 각도를 읽어 들인다. 이어 블록(420)에서 나타낸 바와 같이 컴퓨터(40)는 다음 명령을 기다린다.As shown at block 414, the cursor is located in the entry field 103 of FIG. 1. The operator enters a new value for the approach angle as shown at block 416. Computer 40 reads the new approach angle as shown at block 418. The computer 40 then waits for the next command, as shown in block 420.

공간내의 선형 궤도를 계획하기 위해, 단지 두 개의 각이 필요하며, 이러한 특별한 절차를 위해 횡단각과 시상 각이 사용된다. 접근 각도는 외과 의사가 로봇의 이동을 제어하는 것을 허용한다. 다시 말하면, 접근 각도는 선형 궤도를 계획하는 데에 사용되지 않는다.To plan a linear trajectory in space, only two angles are needed, and for this particular procedure the transverse and sagittal angles are used. The approach angle allows the surgeon to control the movement of the robot. In other words, the approach angle is not used to plan linear trajectories.

로봇 이동 버튼(104) 또는 F11키가 눌려지면, 컴퓨터(40)는 도 14의 블록(422)으로 진행한다. 컴퓨터(40)는 블록(424)에서 나타낸 바와 같이 접근 각도를 메모리로부터 호출한다. 이어 컴퓨터(40)는 블록(426)에서 나타낸 바와 같이 가상 가이드 와이어의 시상 각, 횡단 각 및 3차원 좌표를 호출한다. 이어 컴퓨터(40)는 부록의 섹션[12]의 식을 사용하여 계획된 위치 및 방향을 계산한다. 이러한 단계는 블록(428)에서 설명된다. 이어 컴퓨터(40)는 블록(430)에서 나타낸 바와 같이 수수 절차 동안 사용되는 특정 수술의 엔드 이펙터에 관련된 파일로부터 데이터를 읽어 들인다. 이러한 데이터는 좌표 계산 장치(CMM)로부터의 3차원 데이터를 포함한다.When the robot movement button 104 or the F11 key is pressed, the computer 40 proceeds to block 422 of FIG. 14. Computer 40 calls the approach angle from memory as shown in block 424. The computer 40 then calls the sagittal angle, traversal angle and three-dimensional coordinates of the virtual guide wire as shown in block 426. The computer 40 then calculates the planned position and orientation using the equation in section [12] of the appendix. This step is described at block 428. Computer 40 then reads data from a file related to the end effector of the particular surgery used during the procedure, as indicated at block 430. Such data includes three-dimensional data from a coordinate calculation device (CMM).

블록(434)에서 컴퓨터(40)는 수술 엔드 이펙터가 적합하게 할당되었는지를 결정한다. 그렇지 않다면, 컴퓨터(40)는 블록(436)에서 나타낸 바와 같이 "수술 엔드 이펙트가 할당되지 않음"의 에러 메시지를 발생시킨다. 이어 컴퓨터(40)는 블록(438)에서 나타낸 바와 같이 다음 명령을 기다리기 위해 복귀한다.In block 434 the computer 40 determines whether the surgical end effector has been properly assigned. If not, the computer 40 generates an error message "No Surgical End Effect is Assigned" as indicated at block 436. Computer 40 then returns to wait for the next command as indicated at block 438.

블록(434)에서 수술상의 엔드 이펙트가 적절하게 할당되었다면, 블록(440)에서 나타낸 바와 같이 계획된 위치 및 방향으로 로봇을 이동시키기 위해, 컴퓨터는 로봇 제어기(53)로 직렬 통신 포트(50)를 통해 명령을 전송한다. 컴퓨터(40)는 블록(444)에서 NULL 엔드 이펙터가 적합하게 할당되었는지를 결정한다. 그렇지 않다면, 컴퓨터(40)는 블록(446)에 나타낸 바와 같이 "NULL 엔드 이펙터가 할당되지 않음"의 에러 메시지를 발생한다. 이어 컴퓨터(40)는 다음 명령을 기다리기 위해 블록(448)에서 복귀한다. 블록(444)에서 NULL 엔드 이펙터가 적절하게 할당되지 않았다면, 컴퓨터는 블록(450)에서 나타낸 바와 같이 다음 명령을 기다리기 위해 복귀한다.If the surgical end effect has been properly assigned at block 434, the computer is directed through the serial communication port 50 to the robot controller 53 to move the robot to the planned position and direction as indicated at block 440. Send the command. Computer 40 determines at block 444 whether a NULL end effector has been properly assigned. If not, computer 40 generates an error message " No NULL End Effector is Assigned " as shown in block 446. Computer 40 then returns to block 448 to wait for the next command. If the NULL end effector was not properly assigned at block 444, the computer returns to wait for the next command as indicated at block 450.

도 3b의 "축을 따른 로봇 이동"버튼(82)이 선택되면, 컴퓨터(40)는 도 15의 블록(452)으로 진행한다. 컴퓨터(40)는 이미 도 20의 단계 동안에 적합한 방향으로 로봇을 이동시켰다. 이에 따라, 도 21의 단계는 도 2의 툴 가이드(28)에 의해 정의된 툴 가이드 축을 따라 로봇을 이동시키도록 설계된다. 툴 가이드 축은 일반적으로 툴 가이드 축을 따르는 테이블(14) 상의 몸체를 향해 그리고 몸체로부터 이격되도록 이동된다. 컴퓨터(40)는 블록(454)에서 "로봇 축 이동"으로 명명된 나사 조절 프로그램이 처리되는지 여부를 결정한다. 이러한 나사 조절 프로그램은 정지될 때까지 자체적으로 수행된다. 블록(454)에서 상기 프로그램이 시작되지 않았다면, 컴퓨터(40)는 블록(456)에서 나타낸 바와 같이 이러한 프로그램을 시작한다. 컴퓨터(40)는 블록(458)에서 추가의 명령을 기다리기 위해 복귀한다. 상기 나사 조절 프로그램이 블록(454)에서 시작한다면, 컴퓨터(40)는 블록(460)에서 페이지 업 버튼이 눌려졌는지를 결정한다. 그렇지 않다면, 컴퓨터(40)는 블록(462)에서 페이지 다운 버튼이 눌려졌는지를 결정한다. 그렇지 않다면 컴퓨터(40)는 다음 명령을 기다리기 위해 블록(464)으로 복귀한다.If the “move robot along axis” button 82 of FIG. 3B is selected, the computer 40 proceeds to block 452 of FIG. 15. Computer 40 has already moved the robot in the proper direction during the step of FIG. Accordingly, the step of FIG. 21 is designed to move the robot along the tool guide axis defined by the tool guide 28 of FIG. 2. The tool guide axis is generally moved toward and away from the body on the table 14 along the tool guide axis. Computer 40 determines whether a screw adjustment program named "robot axis movement" in block 454 is processed. This screw adjustment program runs on its own until it is stopped. If the program has not been started at block 454, the computer 40 starts this program as shown at block 456. Computer 40 returns to block 458 to wait for further instructions. If the screw adjustment program starts at block 454, the computer 40 determines whether the page up button was pressed at block 460. If not, the computer 40 determines whether the page down button was pressed at block 462. If not, computer 40 returns to block 464 to wait for the next command.

페이지 업 버튼이 블록(460)에서 눌려진다면, 컴퓨터(40)는 블록(466)에서 페이지 업 버튼이 여전히 눌려졌는지를 결정한다. 그렇지 않다면, 컴퓨터(40)는 블록(468)에서 나타낸 바와 같이 다음 명명을 기다리기 위해 복귀한다. 블록(466)에서 페이지 업 버튼이 여전히 눌려져 있으면, 컴퓨터(40)는 VAL 명령을 통신 포트(50)로부터 로봇 제어기(53)로 전송하여, 블록(470)에서 나타낸 바와 같이 로봇이 양의 툴 가이드 축에서 이동하도록 한다. 양의 툴 가이드 축 방향은 환자로부터 이격되어 상승되는 방향이다. 컴퓨터(40)는 블록(466)으로 복귀한다.If the page up button is pressed at block 460, computer 40 determines whether the page up button is still pressed at block 466. If not, computer 40 returns to wait for the next naming, as indicated at block 468. If the page up button is still depressed at block 466, computer 40 sends a VAL command from communication port 50 to robot controller 53, so that the robot can guide the positive tool as shown at block 470. Move on the axis. The positive tool guide axial direction is the direction of elevation away from the patient. Computer 40 returns to block 466.

페이지 다운 버튼이 블록(462)에서 눌려졌다면, 컴퓨터(40)는 블록(472)에서 페이지 다운 버튼이 여전히 눌려져 있는지를 결정한다. 그렇지 않다면, 컴퓨터(40)는 블록(468)에서 다음 명령을 기다리기 위해 복귀한다. 블록(472)에서 페이지 다운 버튼이 여전히 눌려져 있다면 컴퓨터는 VAL 명령을 송신하여, 블록(474)에서 나타낸 바와 같이 로봇이 음의 툴 가이드 방향으로 이동하도록 한다. 상기 음의 툴 가이드 축 방향은 환자를 향해 하향하는 방향이다. 컴퓨터(40)는 블록(472)으로 복귀한다.If the page down button was pressed at block 462, computer 40 determines whether the page down button is still pressed at block 472. If not, the computer 40 returns to block 468 to wait for the next command. If the page down button is still pressed at block 472, the computer sends a VAL command to cause the robot to move in the negative tool guide direction as shown at block 474. The negative tool guide axial direction is a downward direction towards the patient. Computer 40 returns to block 472.

다시 말하면, 도 15의 제어 단계는 오퍼레이터가 로봇을 툴 가이드 축을 따라 이동시키는 것을 허용한다. 로봇이 양 또는 음의 방향으로 이동하고 있다면, 페이지 업 또는 페이지 다운이 해제될 때까지 상기 이동은 계속된다. 전체 로봇은 엔드 이펙터(24) 및 툴 가이드(28)를 계획된 축을 따르는 동일한 방향으로 유지하기 위해 이동한다. 다시 말하면 로봇(18)의 엔드 이펙터(24)는 도 1의 Z축(38)에 대해 45°가 되는 방향으로 유지된다. VAL은 PUMA-560 제어기(53)를 위한 프로그램 제어 언어이다. 다른 로봇, 제어기 및 프로그램 언어가 본 발명에 따라 이용될 수 있다는 것이 이해된다.In other words, the control step of FIG. 15 allows the operator to move the robot along the tool guide axis. If the robot is moving in the positive or negative direction, the movement continues until the page up or page down is released. The entire robot moves to keep the end effector 24 and tool guide 28 in the same direction along the planned axis. In other words, the end effector 24 of the robot 18 is held in a direction of 45 ° with respect to the Z axis 38 of FIG. 1. VAL is a program control language for the PUMA-560 controller 53. It is understood that other robots, controllers and programming languages may be used in accordance with the present invention.

커서가 도 3a의 A/P 이미지 영역(86) 상에 있을 경우, 컴퓨터(40)는 도 16의 블록(476)으로 진행한다. 컴퓨터(40)는 트랙볼이 블록(478)에서 나타낸 바와 같이 A/P 이미지 영역(86)에서 클릭되도록 기다린다. 트랙볼이 블록(478)에서 클릭되면, 컴퓨터(40)는 A/P 이미지 및 시상 이미지 모두가 블록(480)에서 설명한 것과 같이 등록되는지의 여부를 결정한다. 등록되지 않으면, 컴퓨터(40)는 어떠한 것도 수행하지 않으며 다음의 명령을 기다리기 위해 블록(482)으로 복귀한다.If the cursor is on the A / P image area 86 of FIG. 3A, the computer 40 proceeds to block 476 of FIG. 16. The computer 40 waits for the trackball to be clicked in the A / P image area 86 as shown in block 478. When the trackball is clicked at block 478, the computer 40 determines whether both the A / P image and the sagittal image are registered as described at block 480. If not registered, computer 40 does nothing and returns to block 482 to wait for the next command.

A/P 및 시상 모양의 이미지가 블록(480)에서 등록되면, 컴퓨터(40)는 돌출된 가이드 와이어가 블록(484)에서 나타낸 바와 같이 그려졌는 지의 여부를 결정한다. 그렇지 않다면, 컴퓨터(40)는 오퍼레이터가 돌출된 가이드와이어를 그리기를 의도하는 것으로 가정한다. 이에 따라, 컴퓨터(40)는 블록(486)에서 설명한 것과 같이 십자선을 트랙볼 좌표(U,V)에 그린다. 이어, 컴퓨터(40)는 블록(488)에서 설명된 것과 같은 부록의 섹션[5]의 식을 사용하여 시상 이미지 상에 조준 라인을 나타내는 곡선을 그린다. 이미지 내의 왜곡에 기인하여 조준 라인을 나타내는 곡선이 그려진다. x-레이의 조준 라인을 취하였다면, 그것의 이미지는 형광검사의 이미지 증강장치(intensifier)에 내재하는 왜곡에 기인하여 곡선이 된다. 이것은 곡선이 조준 라인을 나타내기 위해 그려져야하기 때문이다. 조준 라인 지시기(70)가 도 3b의 시상 영역(62) 상에서 그려진다면, 컴퓨터(40)는 블록(490)에서 설명된 것과 같이 다음 명령을 대기하기 위해 궤환한다.Once the A / P and sagittal images are registered at block 480, computer 40 determines whether the protruding guide wire is drawn as shown at block 484. If not, the computer 40 assumes that the operator intends to draw a protruding guidewire. Accordingly, computer 40 draws the crosshairs in trackball coordinates U and V as described at block 486. The computer 40 then draws a curve representing the aiming line on the sagittal image using the equation in section [5] of the appendix as described in block 488. Due to the distortion in the image a curve representing the aiming line is drawn. If an x-ray aiming line is taken, its image is curved due to the distortion inherent in the fluorescence image intensifier. This is because the curve must be drawn to represent the aiming line. If the aiming line indicator 70 is drawn on the sagittal area 62 of FIG. 3B, the computer 40 returns to wait for the next command as described at block 490.

돌출된 가이드 와이어가 블록(484)에서 이미 그려진다면, 컴퓨터(40)는 트랙볼 좌표가 A/P 이미지내의 상부 포인트(88)로부터 5개의 픽셀 내에 존재하는 지의 여부를 결정한다. 이 단계는 블록(492)에서 설명되었다. 커서 좌표가 상부 포인트(88)로부터 5개의 픽셀 내에 존재한다면, 컴퓨터(40)는 블록(494)에서 설명된 것과 같이 돌출된 가이드와이어를 지우고 블록(496)에서 설명한 것과 같이 다음 명령을 기다리기 위해 복귀한다.If the protruding guide wire is already drawn at block 484, computer 40 determines whether the trackball coordinates are within five pixels from the upper point 88 in the A / P image. This step has been described at block 492. If the cursor coordinates are within five pixels from the upper point 88, the computer 40 clears the protruding guidewires as described in block 494 and returns to wait for the next command as described in block 496. do.

블록(492)에서 트랙볼 커서 좌표가 상부 포인트(88)로부터 5개의 픽셀내에 존재하지 않으면, 컴퓨터(40)는 트랙볼 좌표가 블록(498)에서 나타난 바와 같이 하부 포인트(90)의 5개 픽셀내에 존재하는 지의 여부를 결정한다. 그렇지 않은 경우, 컴퓨터(40)는 블록(490)에서 나타난 바와 같이 다음의 명령을 기다리기 위해 복귀한다. 블록(498)에서 트랙볼 커서 좌표가 하부 포인트(90)로부터 5개의 픽셀 내에 존재한다면, 컴퓨터(40)는 트랙볼이 블록(500)에서 나타난 바와 같이 재차 클릭되는 지의 여부를 결정한다. 그러한 경우, 컴퓨터는 다음 명령을 기다리기 위해 블록(490)으로 복귀한다. 그렇지 않은 경우, 컴퓨터(40)는 트랙볼의 이동에 기초하여 블록(502)에서 나타난 바와 같이 횡단 각도 또는 시상 각도를 업데이트한다. 상기 횡단 각도 값은 트랙볼이 상향 이동하는 경우에 증가된다. 상기 횡단 각도 값은 트랙볼이 하향 이동하는 경우에 감소된다. 상기 시상 각도 값은 트랙볼이 우측 이동하는 경우에 증가된다. 상기 시상 각도 값은 트랙볼이 좌측 이동하는 경우에 감소된다. 증가율(incrementing factor)은 픽셀당 0.1°이다. 이러한 단계에 대한 식은 부록의 섹션[6]에 전개되어 있다.If the trackball cursor coordinates are not within five pixels from the upper point 88 at block 492, the computer 40 is within the five pixels of the lower point 90 as shown at block 498. Decide whether or not to do so. Otherwise, computer 40 returns to wait for the next command, as indicated at block 490. If the trackball cursor coordinates are within five pixels from the lower point 90 at block 498, the computer 40 determines whether the trackball is clicked again as shown at block 500. If so, the computer returns to block 490 to wait for the next command. Otherwise, computer 40 updates the transverse angle or sagittal angle as shown in block 502 based on the movement of the trackball. The traverse angle value is increased when the trackball moves up. The traverse angle value is decreased when the trackball moves downward. The sagittal angle value is increased when the trackball moves to the right. The sagittal angle value is decreased when the trackball moves left. Incrementing factor is 0.1 ° per pixel. The equations for these steps are developed in section [6] of the appendix.

횡단 각도 및/또는 시상 각도가 블록(502)에서 업데이트된 후, 컴퓨터(40)는 부록의 섹션[7]의 식을 사용하여 A/P 이미지 영역(86)내에 돌출된 가이드 와이어(92) 및 시상 이미지 영역(62)내에 돌출된 가이드 와이어(68)를 재차 그린다. 이어 컴퓨터는 블록(500)으로 복귀한다.After the transverse and / or sagittal angles have been updated at block 502, computer 40 and guide wire 92 protruding within A / P image area 86 using the equation in section [7] of the appendix; The guide wire 68 protruding in the sagittal image region 62 is drawn again. The computer then returns to block 500.

커서가 도 3b의 시상 이미지상에 존재한다면, 컴퓨터(40)는 도 17의 블록(506)으로 진행한다. 컴퓨터(40)는 조준 라인이 블록(508)에서 그려져 있는지의 여부를 결정한다. 그렇지 않다면, 컴퓨터는 블록(510)에서 다음 명령을 기다리기 위해 복귀한다. 블록(508)에서 조준 라인이 그려져 있다면, 컴퓨터(40)는 부록의 섹션[8]의 식을 사용하여 A/P 이미지 영역(86)내에 돌출된 가이드 와이어(92) 및 시상 이미지 영역(62)내에 돌출된 가이드 와이어(68)를 그린다. 이러한 단계는 블록(512)에서 설명된다. 블록(513)에서 컴퓨터(40)는 또한 로봇이 초기화되었는지를 체크하고, 그렇게 되었다면, 컴퓨터(40)는 블록(515)에서 "로봇 이동(Move Robot)" 및 " 드릴 축을 따른 이동(Move Along Drill Axis)" 버튼 및 F11과 F12 키를 인에이블 및 점등시킨다. 이어, 컴퓨터(40)는 블록(514)에서 나타낸 바와 같이 시상 이미지 영역(62)내에서 트랙볼이 클릭되기를 기다린다. 로봇이 초기화되지 않았다면, 컴퓨터(40)는 블록(514)에서 나타낸 바와 같이 시상 이미지 영역(62)내에서 트랙볼이 클릭되는 것을 기다린다. 이어, 컴퓨터(40)는 블록(516)에서 나타낸 바와 같이 트랙볼 커서 좌표가 상부 포인트(64)로부터 5개의 픽셀 내에 위치하는지의 여부를 결정한다. 그렇지 않다면, 컴퓨터(40)는 블록(518)에서 나타낸 바와 같이 트랙볼 커서 좌표가 하부 포인트(66)로부터 5개 픽셀 내에 존재하는지의 여부를 결정한다. 그렇지 않다면 컴퓨터(40)는 다음 명령을 기다리기 위해 블록(520)으로 복귀한다.If the cursor is on the sagittal image of FIG. 3B, computer 40 proceeds to block 506 of FIG. 17. Computer 40 determines whether the aiming line is drawn at block 508. If not, the computer returns to block 510 to wait for the next command. If the line of aiming is drawn at block 508, the computer 40 uses the equation in section [8] of the appendix to guide wire 92 and sagittal image area 62 protruding within the A / P image area 86. Draw the guide wire 68 protruding therein. This step is described in block 512. At block 513 the computer 40 also checks if the robot has been initialized, and if so, the computer 40 at block 515 “Move Robot” and “Move Along Drill” Axis) "button and the F11 and F12 keys are enabled and lit. The computer 40 then waits for the trackball to be clicked within the sagittal image area 62 as shown at block 514. If the robot has not been initialized, the computer 40 waits for the trackball to be clicked within the sagittal image area 62 as shown in block 514. The computer 40 then determines whether the trackball cursor coordinates are located within five pixels from the upper point 64 as shown in block 516. If not, the computer 40 determines whether the trackball cursor coordinates are within five pixels from the bottom point 66 as shown in block 518. If not, computer 40 returns to block 520 to wait for the next command.

블록(516)에서 트랙볼 좌표가 상부 포인트(64)의 5개 픽셀 내에 존재한다면, 컴퓨터(40)는 블록(522)에서 트랙볼이 재차 클릭되는지의 여부를 결정한다. 그러한 경우, 다음 명령을 기다리기 위해 블록(524)에서 복귀한다. 그렇지 않은 경우, 컴퓨터(40)는 트랙볼 이동과 동일한 방향으로 조준 라인을 따라 가이드 와이어를 이동시키므로써, 가상 가이드 와이어(68)의 위치를 업데이트시킨다. 증가율은 픽셀당 0.1mm이다. 이러한 단계는 블록(526)에서 설명된다. 컴퓨터는 가상 가이드와이어 위치를 업데이트하기 위해 부록의 섹션[9]에서 전개된 식을 사용한다. 이어 컴퓨터(40)는 부록의 섹션[7]에 전개된 식을 사용하므로써, 블록(528)에서 나타낸 바와 같이 시상 이미지 영역(62) 내에 돌출된 가이드 와이어(68)를 다시 그리고 또한 A/P 이미지 영역(86)내에 돌출된 가이드 와이어(92)를 다시 그린다. 이어 컴퓨터(40)는 블록(522)으로 다시 복귀한다.If the trackball coordinates are at five pixels of the upper point 64 at block 516, the computer 40 determines whether the trackball is clicked again at block 522. If so, return to block 524 to wait for the next command. Otherwise, the computer 40 updates the position of the virtual guide wire 68 by moving the guide wire along the aiming line in the same direction as the trackball movement. The rate of increase is 0.1 mm per pixel. This step is described at block 526. The computer uses the expression developed in section [9] of the appendix to update the virtual guidewire location. The computer 40 then uses the equation developed in section [7] of the appendix to redraw and also the A / P image of the guide wire 68 protruding in the sagittal image area 62 as shown in block 528. Guide wire 92 protruding in region 86 is redrawn. Computer 40 then returns to block 522 again.

블록(518)에서 트랙볼 좌표가 하부 포인트(66)로부터 5개의 픽셀 내에 위치한다면, 컴퓨터(40)는 블록(530)에서 트랙볼이 재차 클릭되는 지의 여부를 결정한다. 그러한 경우, 컴퓨터(40)는 다음 명령을 기다리기 위해 블록(524)으로 복귀한다. 그렇지 않은 경우, 컴퓨터(40)는 오퍼레이터가 하부 포인트(66)의 위치를 조정하기를 원하는 것으로 가정한다. 이에 따라 컴퓨터는 블록(532)에서 나타낸 바와 같이 트랙볼의 이동에 기초하여 시상 각도 및/또는 횡단 각도를 업데이트 한다. 상기 횡단 각도는 트랙볼이 상향 이동하는 경우에 증가된다. 상기 횡단 각도는 트랙볼이 하향 이동하는 경우에 감소된다. 시상 각도는 상기 트랙볼이 우측으로 이동하는 경우에 증가된다. 상기 시상 각도는 상기 트랙볼이 좌측으로 이동하는 경우에 감소된다. 증가율은 픽셀당 0.1°이다. 컴퓨터는 블록(532)에서 나타낸 바와 같이, 이러한 단계들을 위해 블록의 섹션[10]에 전개된 식을 이용한다. 이어 컴퓨터(40)는 블록(534)에서 도시된 바와 같이 부록의 섹션[7]에 전개된 식을 사용하여, 시상 이미지 영역(62)내에 돌출된 가이드 와이어(68)를 다시 그리고 A/P 이미지 영역(86) 내에 돌출된 가이드 와이어(92)를 다시 그린다. 이어 컴퓨터(40)는 블록(530)으로 복귀한다.If the trackball coordinates are located within five pixels from the bottom point 66 at block 518, then computer 40 determines whether the trackball is clicked again at block 530. If so, computer 40 returns to block 524 to wait for the next command. Otherwise, the computer 40 assumes that the operator wants to adjust the position of the lower point 66. Accordingly, the computer updates the sagittal angle and / or the transverse angle based on the movement of the trackball as indicated at block 532. The traversing angle is increased when the trackball moves up. The traverse angle is reduced when the trackball moves downward. The sagittal angle is increased when the trackball moves to the right. The sagittal angle is reduced when the trackball moves to the left. The rate of increase is 0.1 ° per pixel. The computer uses the equation developed in section [10] of the block for these steps, as shown in block 532. The computer 40 then uses the equation developed in section [7] of the appendix as shown in block 534 to redraw and A / P image the guide wire 68 protruding in the sagittal image area 62. The guide wire 92 protruding in the area 86 is redrawn. Computer 40 then returns to block 530.

도 3a 및 도 3b의 로봇 제어 영역(84)이 선택되면, 컴퓨터(40)는 도 18의 블록(536)으로 진행한다. 이어 컴퓨터(40)는 블록(538)에서 사용자 선택부를 제공하는 메뉴를 디스플레이한다. 제 1 선택부는 "로봇 초기화" 선택부이다. 컴퓨터(40)는 로봇 초기화 메뉴 항목이 블록(540)에서 선택되었는 지의 여부를 결정한다. 그러한 경우, 컴퓨터(40)는 블록(542)에 나타낸 바와 같이 로봇 제어기(53)와의 통신을 위해, 직렬 통신 포트(52)를 개방한다. 컴퓨터(40)는 블록(544)에서 나타낸 바와 같이 로봇 제어기(53)를 초기화하기 위해 요구되는 VAL 프로그램 언어 명령을 전송한다. 컴퓨터(40)는 VAL이 블록(546)에서 적절하게 초기화되었는지를 결정한다. VAL이 적적하게 초기화되지 않았다면 컴퓨터(40)는 블록(548)에서 나타낸 바와 같이 VAL이 초기화되지 않았다는 메시지를 전송한다. 컴퓨터(40)는 블록(550)에서 복귀한다.Once the robot control region 84 of FIGS. 3A and 3B is selected, the computer 40 proceeds to block 536 of FIG. 18. Computer 40 then displays a menu that provides a user selection at block 538. The first selection unit is a "robot initialization" selection unit. Computer 40 determines whether the robot initialization menu item has been selected at block 540. In such a case, the computer 40 opens the serial communication port 52 for communication with the robot controller 53 as shown in block 542. Computer 40 transmits a VAL program language command required to initialize robot controller 53 as shown in block 544. Computer 40 determines whether the VAL has been properly initialized at block 546. If the VAL was not properly initialized, computer 40 sends a message that the VAL was not initialized, as indicated at block 548. Computer 40 returns at block 550.

블록(546)에서 VAL이 적절하게 초기화되었다면, 컴퓨터(40)는 블록(552)에서 나타낸 바와 같이 미리 설정된 HOME 위치 및 START 위치를 로봇 제어기(53)에 전송한다. 상기 HOME 위치 및 START 위치는 로봇의 작업 공간 내에 위치한 두 위치이다. 게다가, 컴퓨터(40)는 블록(554)에서 나타낸 바와 같이 미리 설정된 NULL 엔드 이펙터 및 SURGICAL 엔드 이펙터를 초기화한다. 다시 말하면, 컴퓨터(40)는 사용되어질 특별한 수술상의 명령에 대한 정확한 배열에 관한 설명을 전송한다. 이에 따라 제어기(53)는 이러한 위치들로 로봇을 이동시키도록 프로그램된다. 수술 동안, 컴퓨터(40)는 제어기(53)가 특정한 HOME 위치 또는 START 위치로 이동하도록 명령할 수 있다. 게다가 제어기(53)는 특정한 수술상의 엔드 이펙터에 대한 명령을 인지하며, 상기 엔드 이펙터는 단계(554)에서 초기화된다. 이어, 로봇 속도는 블록(556)에서 나타낸 바와 같이 매우 느린 속도로 설정된다. 예를 들어 로봇 속도는 256 중에서 5의 속도로 설정된다. 이어 컴퓨터(40)는 가상 가이드 와이어가 계획되었는 지의 여부를 체크하여, 그렇게 되었다면, 컴퓨터는 블록(557.5)에서 나타낸 바와 같이, "로봇 이동"(104) 및 "드릴 축을 따른 로봇 이동"(82) 버튼 및 F11 및 F12 키를 인에이블시키고 점등시킨다. 이어 컴퓨터(40)는 블록(559)에서 나타낸 바와 같이 다음 명령을 기다리기 위해 복귀한다.If the VAL is properly initialized at block 546, computer 40 transmits a preset HOME position and START position to robot controller 53, as indicated at block 552. The HOME position and the START position are two positions located within the working space of the robot. In addition, the computer 40 initializes a preset NULL end effector and a SURGICAL end effector as shown in block 554. In other words, computer 40 transmits a description of the exact arrangement of the particular surgical command to be used. The controller 53 is thus programmed to move the robot to these positions. During surgery, computer 40 may instruct controller 53 to move to a particular HOME or START position. In addition, the controller 53 recognizes a command for a particular surgical end effector, which is initialized in step 554. The robot speed is then set at a very slow speed, as shown at block 556. For example, the robot speed is set to 5 out of 256 speeds. The computer 40 then checks whether a virtual guide wire was planned, and if so, the computer moves "robot movement" 104 and "robot movement along the drill axis" 82, as indicated at block 557.5. Enable and light the button and the F11 and F12 keys. The computer 40 then returns to wait for the next command as indicated at block 559.

가상 가이드와이어가 계획되지 않았다면, 컴퓨터(40)는 블록(558)에서 나타낸 바와 같이 다음 명령을 기다리기 위해 복귀한다.If the virtual guidewire was not planned, the computer 40 returns to wait for the next command as indicated at block 558.

"미리 정의된 위치로 이동"으로 명명된 선택부가 상기 팝업 메뉴(538)로부터 선택되고 로봇이 블록(560)에서 나타낸 바와 같이 이미 초기화되었다면, 컴퓨터(40)는 블록(562)에 나타낸 바와 같이 미리 정의된 위치로 로봇을 이동시키도록 선택부를 구비한 대화 박스를 디스플레이한다. 다시 말하면, 로봇을 HOME 위치 또는 START 위치로 이동시키기 위한 선택부를 구비한 대화 박스가 디스플레이된다. 오퍼레이터는 블록(562)에서 이러한 선택부 중 하나를 선택할 수 있다. 컴퓨터(40)는 로봇(18)을 블록(564)에서 나타낸 바와 같이 특정 위치로 이동시키기 위해, VAL 명령을 제어기(53)에 전송한다. 이어 컴퓨터(40)는 다음 명령을 기다리기 위해 블록(568)에서 복귀한다.If a selection named “Move to a predefined location” has been selected from the pop-up menu 538 and the robot has already been initialized as shown at block 560, then computer 40 may advance in advance as shown at block 562. Displays a dialog box with a selection to move the robot to the defined position. In other words, a dialog box with a selection for moving the robot to the HOME position or the START position is displayed. The operator can select one of these selections at block 562. The computer 40 sends a VAL command to the controller 53 to move the robot 18 to a specific location as shown in block 564. Computer 40 then returns to block 568 to wait for the next command.

컴퓨터(40)가 "할당되고 미리 정의된 툴"의 선택부가 상기 팝업 메뉴(538)로부터 선택되는 지를 결정하고 상기 로봇이 블록(570)에서 나타낸 바와 같이 이미 초기화되었다면, 컴퓨터(40)는 블록(554)의 초기화 단계 동안에 설정되는 미리 정의된 툴을 할당하기 위한 선택부를 구비한 대화 박스를 디스플레이한다. 이러한 단계는 블록(574)에서 설명된다. 다시 말하면, 컴퓨터(40)는 블록(574)에서 NULL 엔드 이펙터 또는 SURGICAL 엔드 이펙터를 할당하기 위한 대화 박스를 디스플레이한다. 이어 컴퓨터(40)는 블록(578)에서 다음 명령을 기다리기 위해 복귀한다. 할당되고 미리 정의된 엔드-이펙터 항목이 선택되지 않았거나 로봇이 블록(570)에서 초기화되지 않았다면, 컴퓨터(40)는 블록(572)에서 다음 명령을 기다리기 위해 복귀한다.If computer 40 has determined whether a selection of "assigned and predefined tools" is selected from the pop-up menu 538 and the robot has already been initialized as shown in block 570, then computer 40 may select block ( A dialog box with a selection unit for assigning a predefined tool set during the initialization step 554 is displayed. This step is described at block 574. In other words, computer 40 displays a dialog box for assigning a NULL end effector or a SURGICAL end effector at block 574. Computer 40 then returns to block 578 to wait for the next command. If an assigned and predefined end-effector item has not been selected or the robot has not been initialized at block 570, computer 40 returns to block 572 to wait for the next command.

본 발명은 소정의 바람직한 실시예를 참조하여 상세히 설명하였더라도, 첨부된 청구 범위에 한정되고 기술된 본 발명의 사상 및 범주내에서의 변화 및 수정이 가능하다.Although the invention has been described in detail with reference to certain preferred embodiments, variations and modifications are possible within the spirit and scope of the invention as defined and described in the appended claims.

부록Appendix

[1] J. Canny; "A Computational Approach to Edge Detection"; IEEE Transactions on Pattern Analysis Machine Intelligence; Vol 8, Nov. 1986, pp. 679-698.[1] J. Canny; "A Computational Approach to Edge Detection"; IEEE Transactions on Pattern Analysis Machine Intelligence; Vol 8, Nov. 1986, pp. 679-698.

[2] 수학은 Levenberg-Marquardt 최적화 방법을 실행하는데 사용된다.[2] Mathematics is used to implement the Levenberg-Marquardt optimization method.

여기서, xi=[x,y,z]는 기준점의 3차원 좌표이며, (u, v)는 기준점의 중심에 대한 2차원 좌표이며, a=[ø,θ,ψ, tx, ty, tz]는 자유 자세의 6도를 한정하는 6개의 파라미터이다.Where x i = [x, y, z] is the three-dimensional coordinates of the reference point, (u, v) is the two-dimensional coordinates with respect to the center of the reference point, and a = [ø, θ, ψ, t x , t y , t z ] are six parameters that define six degrees of free attitude.

[3] 일단 피트가 형성되면 다음과 같이 최적화된 파라미터(a=[ø,θ,ψ, tx, ty, tz])에 대응하는 동차 변환 매트릭스를 구성한다.[3] Once the pits are formed, a homogeneous transformation matrix corresponding to the optimized parameters a = [ø, θ, ψ, t x , t y , t z ] is constructed as follows.

[4] 일단 피트가 실행되면, 다음과 같이 최적화된 파라미터 a=[ø,θ,ψ, tx, ty, tz]에 대응하는 동차 변환 매트릭스를 구성한다.[4] Once pitting is performed, a homogeneous transformation matrix corresponding to the optimized parameters a = [[o], [theta], [phi], t x , t y , t z ] is constructed as follows.

[5] 시역라인은 다음과 같은 방식으로 계산된다. 시역라인은 CCS에서 (0, 0, 0) 및 (uc, vc, f)에 의해 한정된다.[5] The line of sight is calculated in the following manner. The viewing line is defined by (0, 0, 0) and (u c , v c , f) in CCS.

주해: (uc, vc)는 (u, v)의 측정된 방정식이다. [13] 참조Note: (u c , v c ) is the measured equation of (u, v). See [13]

형광투시경에서의 간섭 왜곡 때문에 시역라인은 곡선 이미지로써 그려진다. 이것은 [15]에서 처럼 (u1, v1) 및 (u2, v2)에 의해 한정된 라인상에 50개의 포인트를 측정하지 않고 그들을 통해 다중라인을 그림으로써 행해진다.Because of the interference distortion in the fluoroscopy, the viewing line is drawn as a curved image. This is done by drawing multiple lines through them without measuring 50 points on the line defined by (u 1 , v 1 ) and (u 2 , v 2 ) as in [15].

[6] 가상 가이드와이어가 (0wt, 0wt, 0wt) 및 (0wb, 0wb, 나사길이wb)에 의해 한정된 3차원 대상물인 것을 재현한다. β=β+0.1*(트랙볼에 의해 이동된 #화소).[6] Reproduce that the virtual guidewire is a three-dimensional object defined by (0 wt , 0 wt , 0 wt ) and (0 wb , 0 wb , thread length wb ). β = β + 0.1 * (# pixels moved by trackball).

[7] (Vxwt, Vywt, Vzwt) 및 (Vxwb, Vywb, Vzwb)에 대해, 가상 가이드와이어의 투영은 다음과 같은 방정식을 사용하여 A/P 및 시상봉합 이미지로 그려진다.[7] For (Vx wt , Vy wt , Vz wt ) and (Vx wb , Vy wb , Vz wb ), the projection of the virtual guidewire is drawn with A / P and sagittal image using the following equation.

형광투시경에서의 왜곡 때문에 투영된 가이드와이어는 곡선으로 그려진다. 이것은 [15]에서 처럼 (uat, vat) 및 (uab, vab)에 의해 한정된 라인상에 20개의 포인트를 측정하지 않고, (ust, vst) 및 (usb, vsb)를 사용하여 그들을 통해 A/P 이미지 및 시상봉합 이미지상에 다중라인을 그림으로써 행해진다.Because of the distortion in the fluoroscopy, the projected guidewires are drawn in a curve. It does not measure 20 points on the line defined by (u at , v at ) and (u ab , v ab ), as in [15], but instead of (u st , v st ) and (u sb , v sb ). Using to draw multiple lines on the A / P image and sagittal image through them.

[8] 가상 가이드와이어 투영을 그리기 위해서, WCS에서의 두 개의 포인트 (0, 0, 0) 및 (0, 0, 나사길이)는 상부 포인트(0, 0, 0)이 시역의 라인상에 놓이도록 변환된다. 시역 가이드와이어는 초기에 30mm로 설정된다. 투영된 가이드와이어는 다음과 같은 방식을 사용하여 그려진다.[8] To draw a virtual guidewire projection, two points (0, 0, 0) and (0, 0, thread length) in the WCS are placed on the line of sight with the top point (0, 0, 0). Is converted to The viewing guidewire is initially set at 30 mm. The projected guidewire is drawn using the following method.

초기;Early;

깊이=0.2Depth = 0.2

나사길이= 30mmScrew length = 30mm

α=0, β=0α = 0, β = 0

(tx, ty, tz)은 (LSxw1, LSyw1, LSzw1) 및 (LSxw2, LSyw2, LSzw2)에 의해 한정된 시역의 라인상에 놓이도록 제한된다. 따라서,(tx, ty, tz) is constrained to lie on the line of sight defined by (LSx w1 , LSy w1 , LSz w1 ) and (LSx w2 , LSy w2 , LSz w2 ). therefore,

T는 다음과 같은 변환으로 이루어진다.T consists of the following transformations:

T= Trans(tx, ty, tz)Rot(y, α)Rot(x, β) 또는T = Trans (tx, ty, tz) Rot (y, α) Rot (x, β) or

이미지의 투영된 가이드와이를 그리기 위하여, 포인트(Vxwt, Vywt, Vzwt) 및 (Vxwb, Vywb, Vzwb)은 함께 사용된다.To draw the projected guides of the image, the points (Vx wt , Vy wt , Vz wt ) and (Vx wb , Vy wb , Vz wb ) are used together.

[9] 가상 가이드와이어가 (0wt, 0wt, 0wt) 및 (0wb, 0wb, 나사길이wb)에 의해 한정된 3차원 대상물인 것을 재현한다.[9] Reproduce that the virtual guidewire is a three-dimensional object defined by (0 wt , 0 wt , 0 wt ) and (0 wb , 0 wb , thread length wb ).

깊이=깊이+0.1*(트랙볼에 의해 이동된 #화소)Depth = Depth + 0.1 * (# pixel moved by trackball)

[10] 가상 가이드와이어가 (0wt, 0wt, 0wt) 및 (0wb, 0wb, 나사길이wb)에 의해 한정된 3차원 대상물인 것을 재현한다.[10] Reproduce that the virtual guidewire is a three-dimensional object defined by (0 wt , 0 wt , 0 wt ) and (0 wb , 0 wb , thread length wb ).

α=α+0.1*(트랙볼에 의해 한정된 #화소)α = α + 0.1 * (# pixels limited by trackball)

[11] 가상 가이드와이어가 (0wt, 0wt, 0wt) 및 (0wb, 0wb, 나사길이wb)에 의해 한정된 3차원 대상물인 것을 재현한다.[11] Reproduce that the virtual guidewire is a three-dimensional object defined by (0 wt , 0 wt , 0 wt ) and (0 wb , 0 wb , thread length wb ).

[12][12]

가 주어지고 다음과 같은 매트릭스,즉Given the following matrix, i.e.

를 사용하면, 완전한 [FP]인 나머지 두 개의 벡터가 결정된다. Is determined, the remaining two vectors that are complete [FP] are determined.

PUMA 560 로봇이 방향을 지정하는 Euler 식을 사용하기 때문에, [FP]의 역은 다음과 같은 방식으로 결정된다.Since the PUMA 560 robot uses the Euler equation to specify the direction, the inverse of [FP] is determined in the following way.

Euler식 = Rot(z,ø)Rot(y, θ)Rot(z, ψ)이다. 따라서, [i]로부터Euler equation = Rot (z, ø) Rot (y, θ) Rot (z, ψ). Therefore, from [i]

가 구해진다. Is obtained.

ø 및 θ에 PUMA 특정 오프셋을 가산하면, 최종 위치 및 방향이 설정된다.By adding the PUMA specific offset to? and?, the final position and direction are set.

최종 자세=(ø+90, θ-90, ψ,tx, ty, tz)이다.Final posture = (ø + 90, θ-90, ψ, tx, ty, tz).

[13] 에지 화소(u, v)의 측정된 좌표(x, y)는 다음과 같이 4차 다항식을 사용하여 결정된다.The measured coordinates (x, y) of the edge pixels (u, v) are determined using the fourth order polynomial as follows.

파라미터 a 및 b의 세트는 측정 프로그램을 사용하여 사전에 결정된다.The set of parameters a and b is previously determined using a measurement program.

[14] 기준점 새도우의 중심은 의사반전 방법을 사용하여 에지 화소에 순환방정식을 적용시킴으로써 발견된다.[14] The center of the reference point shadow is found by applying a cyclic equation to the edge pixels using a pseudo inversion method.

또는or

A = BPA = BP

의사반전을 사용하면Using pseudo inversion

일단 P가 설정되면, 기준점(h, k)의 중심은 다음과 같이 결정된다.Once P is set, the center of the reference points h and k is determined as follows.

[15] 측정되지 않은(왜곡된) 좌표(u, v)는 측정된 좌표(x, y)에 대응하며 다음과 같이 4차 다항식으르 사용하여 결정된다.[15] The unmeasured (distorted) coordinates (u, v) correspond to the measured coordinates (x, y) and are determined using a fourth order polynomial as follows.

파라미터 a 및 b의 세트는 개별 측정 프로그램을 사용하여 사전에 결정된다.The set of parameters a and b is predetermined using a separate measurement program.

Claims (32)

인체의 이미지를 발생시키는 형광 투시경을 사용하여 정위수술행위를 설계하는 방법에 있어서,In the method of designing stereotactic surgery using a fluoroscopic to generate an image of the human body, 인공구조물의 공지된 좌표 프레임에 관련된 공지된 위치에서 다수의 기준점을 가진 등록 인공구조를 인체에 인접하게 위치시키는 단계와;Positioning a registration artificial structure having a plurality of reference points adjacent to the human body at a known position relative to the known coordinate frame of the artificial structure; 환자의 인체 및 등록 인공구조물로부터 취해진 이미지를 컴퓨터 모니터상에 디스플레이하는 단계와;Displaying on the computer monitor an image taken from the patient's human body and the registered artificial structure; 상기 이미지상에 디스플레이된 상기 등록 인공구조물의 기준점에 대한 2차원 좌표를 식별하는 입력을 수신하는 단계와;Receiving an input identifying two-dimensional coordinates for a reference point of the registered artifact displayed on the image; 파라미터들을 가진 기하학적 모델을 형성하여 상기 이미지를 등록하는 단계를 포함하며, 상기 모델은 이미지 포인트내에 3차원 좌표를 투영하고 기준점들의 공지된 3차원 좌표의 투영이 이미지에서 동일한 2차원 좌표에 일치하도록 기하학적 모델의 파라미터들을 수치적으로 최적화하는 것을 특징으로 하는 방법.Registering the image by forming a geometric model with parameters, the model projecting the three-dimensional coordinates within the image point and geometrically such that the projection of the known three-dimensional coordinates of the reference points coincides with the same two-dimensional coordinates in the image. And numerically optimizing the parameters of the model. 제 1항에 있어서,The method of claim 1, 상기 환자의 인체와 등록 인공구조물로부터 취해지고 제 1이미지의 각과 다른 각을 가진 제 2 이미지를 디스플레이하는 단계와;Displaying a second image taken from the patient's human body and a registered artificial structure and having a different angle from that of the first image; 상기 제 2 이미지상에 디스플레이된 등록 인공구조물의 기준점에 대한 2차원 좌표를 식별하기 위한 입력을 수신하는 단계와;Receiving an input for identifying two-dimensional coordinates for a reference point of a registered artificial structure displayed on the second image; 파라미터들을 가진 기하학적 모델을 형성하여 상기 제 2 이미지를 등록하는 단계를 더 포함하며, 상기 모델은 3차원 좌표를 이미지 포인터내에 투영하며, 기준점들의 공지된 3차원 좌표의 투영이 상기 제 2이미지에서 동일한 2차원 좌표와 일치하도록 상기 기하학적 모델의 파라미터들을 수치적으로 최적화하는 것을 특징으로 하는 방법.Forming a geometric model with parameters to register the second image, the model projecting three-dimensional coordinates within an image pointer, wherein the projection of known three-dimensional coordinates of reference points is the same in the second image. And numerically optimizing the parameters of the geometric model to match two-dimensional coordinates. 제 2항에 있어서, 상기 제 1 이미지상의 포인트를 선택하는 사용자 입력을 수신하는 단계를 더 포함하며, 상기 포인트는 가상 가이드와이어를 부분적으로 나타내는 것을 특징으로 하는 방법.3. The method of claim 2, further comprising receiving user input to select a point on the first image, the point partially representing a virtual guidewire. 제 3항에 있어서, 상기 가상 가이드와이어의 위치, 길이 및 각을 지정하는 입력을 수신하는 단계를 더 포함하는 것을 특징으로 하는 방법.4. The method of claim 3, further comprising receiving an input specifying a position, a length, and an angle of the virtual guidewire. 제 4항에 있어서, 투영된 가이드와이어가 상기 이미지상에 투영된 가상 가이드와이어이도록 투영된 가이드와이어 세그먼트를 그리는 단계를 더 포함하는 것을 특징으로 하는 방법.5. The method of claim 4, further comprising drawing the projected guidewire segment such that the projected guidewire is a virtual guidewire projected on the image. 제 5항에 있어서, 투영된 두 개의 가이드와이어인 가상 가이드와이어를 교정하고 교정된 가상 가이드와이어에 따라 상기 각각의 이미지상에 투영된 두 개의 가이드와이어를 그려서 어느 한 이미지상에 투영된 가이드와이드의 어느 한 단부를 이동시키는 사용자 입력을 수신하는 단계를 더 포함하는 것을 특징으로 하는 방법.6. The method according to claim 5, wherein the guide wires projected on one image are corrected by drawing two guide wires projected on each image according to the corrected virtual guide wires. Receiving user input to move either end. 제 5항에 있어서, 상기 가상 가이드와이어의 길이를 변화시키는 사용자 입력을 교정하며, 상기 교정된 가상 가이드와이어에 따라 상기 각각의 이미지상에 투영된 상기 두 개의 가이드와이어를 다시 그리는 단계를 더 포함하는 것을 특징으로 하는 방법.6. The method of claim 5, further comprising calibrating user input that changes the length of the virtual guidewire, and redrawing the two guidewires projected on each image in accordance with the calibrated virtual guidewire. Characterized in that the method. 제 5항에 있어서, 상기 가상 가이드와이어의 시상봉합 각을 변화시키는 사용자 입력을 수신하고, 상기 새로운 시상봉합 각에 기초하여 상기 가상 가이드와이어의 방향을 갱신하며, 상기 교정된 가상 가이드와이어에 따라 상기 각각의 이미지상에 투영된 상기 두 개의 가이드와이어를 다시 그리는 단계를 더 포함하는 것을 특징으로 하는 방법.6. The method of claim 5, receiving user input to change the sagittal closure angle of the virtual guidewire, updating the orientation of the virtual guidewire based on the new sagittal closure angle, and according to the calibrated virtual guidewire. And redrawing the two guidewires projected on each image. 제 5항에 있어서, 상기 가상 가이드와이어의 횡단각을 조절하는 사용자 입력을 수신하고, 상기 새로운 횡단각에 기초하여 상기 가상 가이드와이어의 방향을 갱신하며, 상기 교정된 가상 가이드와이어에 따라 상기 각각의 이미지상에 투영된 두 개의 가이드와이어를 다시 그리는 단계를 더 포함하는 것을 특징으로 하는 방법.6. The method of claim 5, wherein the device receives a user input for adjusting a crossing angle of the virtual guidewire, updates the direction of the virtual guidewire based on the new crossing angle, and wherein the respective virtual guidewire is in accordance with the calibrated virtual guidewire. And redrawing the two guidewires projected on the image. 제 5항에 있어서, 상기 가상 가이드와이어의 두정 각을 조절하는 사용자 입력을 수신하고, 상기 새로운 두정 각에 기초하여 상기 가이드와이어의 방향을 갱신하며, 상기 교정된 가상 가이드와이어에 따라 상기 각각의 이미지상에 투영된 두 개의 가이드와이어를 다시 그리는 단계를 더 포함하는 것을 특징으로 하는 방법.6. The method of claim 5, wherein a user input for adjusting the head angle of the virtual guide wire is received, the direction of the guide wire is updated based on the new head angle, and the respective images according to the calibrated virtual guide wire. And redrawing the two guidewires projected onto it. 제 5항에 있어서, 좌표축이 상기 가상 가이드와이어와 정렬되도록 툴 가이드의 좌표를 조절하는 출력을 발생시키는 단계를 더 포함하는 것을 특징으로 하는 방법.6. The method of claim 5, further comprising generating an output that adjusts the coordinates of the tool guide such that the coordinate axis is aligned with the virtual guidewire. 제 11항에 있어서, 좌표축을 따르는 가이드의 위치가 가상 가이드와이어의 한 종점으로부터 소정 거리만큼 오프셋되도록 툴 가이드의 좌표를 조절하는 출력을 발생시키는 단계를 더 포함하는 것을 특징으로 하는 방법.12. The method of claim 11, further comprising generating an output that adjusts the coordinates of the tool guide such that the position of the guide along the coordinate axis is offset by a distance from one end point of the virtual guidewire. 제 11항에 있어서, 자동 기계장치에 상기 좌표를 전송하는 단계를 더 포함하는 것을 특징으로 하는 방법.12. The method of claim 11, further comprising transmitting the coordinates to an automatic machine. 제 11항에 있어서, 오퍼레이터가 기계장치를 수동으로 조절할 수 있도록 상기 좌표를 디스플레이하는 단계를 더 포함하는 것을 특징으로 하는 방법.12. The method of claim 11, further comprising displaying the coordinates so that an operator can manually adjust the mechanism. 제 11항에 있어서, 상기 등록 인공구조물은 툴 가이드를 포함하는 것을 특징으로 하는 방법.12. The method of claim 11, wherein the registration artifact comprises a tool guide. 제 2항에 있어서, 상기 제 1 이미지상에서 한 포인트를 선택하는 입력을 수신하는 단계를 더 포함하며, 상기 포인트는 수술도구에 대한 목표 포인트를 부분적으로 나타내는 것을 특징으로 하는 방법.3. The method of claim 2, further comprising receiving an input for selecting a point on the first image, wherein the point partially represents a target point for the surgical instrument. 제 16항에 있어서, 투영된 목표 포인트가 이미지상에 투영된 가상 목표 포인트이도록 상기 제 1 이미지상에 투영된 목표 포인트 및 상기 제 2 이미지상에 투영된 다른 목표 포인트를 그리는 단계를 더 포함하는 것을 특징으로 하는 방법.17. The method of claim 16, further comprising drawing a target point projected on the first image and another target point projected on the second image such that the projected target point is a virtual target point projected on the image. How to feature. 제 17항에 있어서, 투영된 두 개의 목표 포인트인 가상 목표 포인트를 교정하고 이 교정된 가상 목표 포인트에 따라 상기 각각의 이미지에서 투영된 두 개의 목표 포인트를 다시 그려서, 어느 한 이미지상에 투영된 목표 포인트를 이동시키는 사용자 입력을 수신하는 단계를 더 포함하는 것을 특징으로 하는 방법.18. The target projected on one image according to claim 17, wherein the projected two target points are corrected and the targets projected on any one image are redrawn by projecting the two target points projected in each image according to the corrected virtual target points. Receiving user input to move the point. 제 18항에 있어서, 좌표 축이 상기 가상 목표 포인트와 교차하도록 툴 가이드의 좌표를 조절하는 출력을 발생시키는 단계를 더 포함하는 것을 특징으로 하는 방법.19. The method of claim 18, further comprising generating an output that adjusts the coordinates of the tool guide such that the coordinate axis intersects the virtual target point. 제 19항에 있어서, 좌표축을 따르는 가이드의 위치가 상기 가상 목표포인트로부터 소정의 거리만큼 오프셋되도록 툴 가이드의 좌표를 조절하는 출력을 발생시키는 단계를 더 포함하는 것을 특징으로 하는 방법.20. The method of claim 19, further comprising generating an output that adjusts the coordinates of the tool guide such that the position of the guide along the coordinate axis is offset by the predetermined distance from the virtual target point. 제 19항에 있어서, 자동 기계장치에 상기 좌표를 전송하는 단계를 더 포함하는 것을 특징으로 하는 방법.20. The method of claim 19, further comprising transmitting the coordinates to an automatic device. 제 19항에 있어서, 오퍼레이터가 기계장치를 수동으로 조절할 수 있도록 상기 좌표를 디스플레이하는 단계를 더 포함하는 것을 특징으로 하는 방법.20. The method of claim 19, further comprising displaying the coordinates so that an operator can manually adjust the mechanism. 제 19항에 있어서, 상기 등록 인공구조물은 툴 가이드를 포함하는 것을 특징으로 하는 방법.20. The method of claim 19, wherein the registration artifact comprises a tool guide. 제 1항에 있어서, 상기 제 1 이미지상에서 하나의 포인트를 선택하는 입력을 수신하는 단계를 더 포함하며, 상기 포인트는 인체내로의 수술기구의 궤도를 나타내는 가상 가이드와이어를 부분적으로 나타내는 것을 특징으로 하는 방법.The method of claim 1, further comprising receiving an input for selecting a point on the first image, the point partially representing a virtual guidewire representing the trajectory of the surgical instrument into the human body. Way. 제 24항에 있어서, 좌표축이 상기 가상 가이드와이어와 정렬되도록 툴 가이드의 좌표를 조절하는 출력을 발생시키는 단계를 더 포함하는 것을 특징으로 하는 방법.25. The method of claim 24, further comprising generating an output that adjusts the coordinates of the tool guide such that the coordinate axis is aligned with the virtual guidewire. 제 25항에 있어서, 자동 기계장치에 상기 좌표를 전송하는 단계를 더 포함하는 것을 특징으로 하는 방법.27. The method of claim 25, further comprising transmitting the coordinates to an automatic mechanism. 제 25항에 있어서, 오퍼레이터가 기계장치를 수동으로 조절할 수 있는 상기 좌표를 디스플레이하는 단계를 더 포함하는 것을 특징으로 하는 방법.27. The method of claim 25, further comprising displaying the coordinates by which an operator can manually adjust the mechanism. 제 25항에 있어서, 상기 등록 인공구조물은 툴 가이드를 포함하는 것을 특징으로 하는 방법.27. The method of claim 25, wherein the registration artifact comprises a tool guide. 인체의 이미지를 발생시키는 형광 투시경을 사용하여 정위수술행위를 설계하는 장치에 있어서,In the device for designing stereotactic surgery using a fluoroscopic to generate an image of the human body, 다수의 기준점을 가지는 등록 인공구조물을 인체에 인접하게 위치시키는 수단과;Means for positioning a registration artificial structure having a plurality of reference points adjacent to the human body; 상기 인체 및 상기 기준점으로부터 취해진 이미지를 디스플레이하는 수단과;Means for displaying an image taken from the human body and the reference point; 이미지에서 상기 기준점의 2차원 좌표를 식별하는 수단과;Means for identifying two-dimensional coordinates of the reference point in an image; 상기 기준점 인공구조물에 대한 이미지를 등록하는 수단과;Means for registering an image for the reference point artificial structure; 상기 가이드와이어 또는 목표 포인트가 상기 이미지상에서 중첩되어 디스를레이되는 동안 상기 가상 가이드와이어 또는 목표 포인트를 선택하고 조절하는 입력을 수신하는 수단을 포함하는 것을 특징으로 하는 장치.And means for receiving an input for selecting and adjusting the virtual guidewire or target point while the guidewire or target point is superimposed on the image for display. 인체의 이미지를 발생시키는 형광 투시경을 사용하여 수술기구를 인체에 선형 궤도로 삽입하는 정위수술행위를 설계하는 장치에 있어서,In a device for designing stereotactic surgery to insert a surgical instrument in a linear orbit using a fluoroscopic to generate an image of the human body, 인체에 인접하게 위치하며, 공지된 좌표 프레임에 관련된 공지된 3차원 좌표에 위치한 다수의 기준점을 가지는 등록 인공구조물과;A registration artificial structure located adjacent to the human body and having a plurality of reference points located in known three-dimensional coordinates associated with the known coordinate frame; 적어도 하나의 컴퓨터 모니터상에 상기 인체 및 인공구조물로부터 취해진 적어도 하나의 이미지를 디스플레이하는 수단과;Means for displaying at least one image taken from the human body and the artificial structure on at least one computer monitor; 상기 각각의 이미지에서 상기 기준점에 대한 2차원 좌표를 식별하는 수단과;Means for identifying two-dimensional coordinates for the reference point in each image; 기하학적 모델의 파라미터를 수치적으로 최적화하는 수단을 포함하며, 상기 모델은 기준점의 공지된 3차원 좌표가 상기 이미지에서 동일한 2차원 좌표와 일치하도록 이미지 포인트내로 3차원 좌표를 투영하는 것을 특징으로 하는 장치.Means for numerically optimizing a parameter of a geometrical model, said model projecting three-dimensional coordinates into an image point such that the known three-dimensional coordinates of a reference point coincide with the same two-dimensional coordinates in said image. . 제 30항에 있어서, 가상 가이드와이어의 위치, 길이 및 각을 선택하는 사용자 입력을 수신하는 수단과, 상기 가상 가이드와이어의 위치를 나타내는 각각의 등록된 이미지상에 투영된 가이드와이어 세그먼트를 디스플레이하는 수단을 더 포함하는 것을 특징으로 하는 장치.31. The apparatus of claim 30, further comprising: means for receiving user input for selecting the position, length, and angle of the virtual guidewire, and means for displaying the guidewire segment projected on each registered image representing the position of the virtual guidewire; Apparatus further comprising a. 제 30항에 있어서, 툴 가이드와, 상기 툴 가이드의 좌표를 조절하는 출력을 발생시시키는 수단을 더 포함하는 것을 특징으로 하는 장치.31. The apparatus of claim 30, further comprising a tool guide and means for generating an output for adjusting the coordinates of the tool guide.
KR1019980709294A 1996-05-15 1997-05-14 Stereotactic surgical procedure apparatus and method KR20000011134A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019980709294A KR20000011134A (en) 1996-05-15 1997-05-14 Stereotactic surgical procedure apparatus and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/648,313 1996-05-15
US08/649,798 1996-05-17
KR1019980709294A KR20000011134A (en) 1996-05-15 1997-05-14 Stereotactic surgical procedure apparatus and method

Publications (1)

Publication Number Publication Date
KR20000011134A true KR20000011134A (en) 2000-02-25

Family

ID=19635785

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980709294A KR20000011134A (en) 1996-05-15 1997-05-14 Stereotactic surgical procedure apparatus and method

Country Status (1)

Country Link
KR (1) KR20000011134A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100460831B1 (en) * 2002-01-15 2004-12-09 유용석 Inplant finite element method
KR100462389B1 (en) * 2002-01-19 2004-12-17 한국과학기술원 An Acetabular Locating Device Using Optoelectronic System
WO2014077613A1 (en) * 2012-11-16 2014-05-22 경북대학교 산학협력단 Robot for repositioning procedure, and method for controlling operation thereof
WO2015152679A1 (en) * 2014-04-03 2015-10-08 경북대학교 산학협력단 Bone retraction device and fracture reduction system including same
KR20210005312A (en) * 2013-03-13 2021-01-13 씽크 써지컬, 인크. Systems and methods for pre-operative planning and precise bone tunnel placement for ligament reconstruction

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100460831B1 (en) * 2002-01-15 2004-12-09 유용석 Inplant finite element method
KR100462389B1 (en) * 2002-01-19 2004-12-17 한국과학기술원 An Acetabular Locating Device Using Optoelectronic System
WO2014077613A1 (en) * 2012-11-16 2014-05-22 경북대학교 산학협력단 Robot for repositioning procedure, and method for controlling operation thereof
KR101433242B1 (en) * 2012-11-16 2014-08-25 경북대학교 산학협력단 Reduction surgical robot and method for driving control thereof
US10015470B2 (en) 2012-11-16 2018-07-03 Kyungpook National University Industry-Academic Cooperation Foundation Robot for repositioning procedure, and method for controlling operation thereof
KR20210005312A (en) * 2013-03-13 2021-01-13 씽크 써지컬, 인크. Systems and methods for pre-operative planning and precise bone tunnel placement for ligament reconstruction
WO2015152679A1 (en) * 2014-04-03 2015-10-08 경북대학교 산학협력단 Bone retraction device and fracture reduction system including same

Similar Documents

Publication Publication Date Title
JP5065783B2 (en) Stereotaxic treatment apparatus and method
US10772687B2 (en) System and method for image localization of effecters during a medical procedure
US10825177B2 (en) Imaging system and method for image localization of effecters during a medical procedure
US5765561A (en) Video-based surgical targeting system
US5297037A (en) X-ray simulating method and system for radiotherapy plan
US6690960B2 (en) Video-based surgical targeting system
US6064904A (en) Frameless stereotactic CT scanner with virtual needle display for planning image guided interventional procedures
EP3254621A1 (en) 3d image special calibrator, surgical localizing system and method
JP7170705B2 (en) Systems and methods for image localization of effectors during medical procedures
US20080221520A1 (en) Positioning System for Percutaneous Interventions
USRE40176E1 (en) Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
JPH09511430A (en) Three-dimensional data set registration system and registration method
JPH09507131A (en) Equipment for computer-assisted microscopic surgery and use of said equipment
CN112603538A (en) Orthopedic navigation positioning system and method
CN112869856B (en) Two-dimensional image guided intramedullary needle distal locking robot system and locking method thereof
KR20000011134A (en) Stereotactic surgical procedure apparatus and method
AU773931B2 (en) Stereotactic surgical procedure apparatus and method
WO2023129934A1 (en) Systems and methods for integrating intra-operative image data with minimally invasive medical techniques
CN116687437A (en) Medical perspective device, medical navigation system, and medical image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application