KR20180100514A - Surgical robot system for stereotactic surgery - Google Patents
Surgical robot system for stereotactic surgery Download PDFInfo
- Publication number
- KR20180100514A KR20180100514A KR1020180102578A KR20180102578A KR20180100514A KR 20180100514 A KR20180100514 A KR 20180100514A KR 1020180102578 A KR1020180102578 A KR 1020180102578A KR 20180102578 A KR20180102578 A KR 20180102578A KR 20180100514 A KR20180100514 A KR 20180100514A
- Authority
- KR
- South Korea
- Prior art keywords
- surgical
- unit
- coordinate system
- marker
- imaging data
- Prior art date
Links
- 238000002672 stereotactic surgery Methods 0.000 title claims abstract description 96
- 238000003384 imaging method Methods 0.000 abstract description 192
- 239000003550 marker Substances 0.000 abstract description 99
- 238000006243 chemical reaction Methods 0.000 abstract description 23
- 230000009466 transformation Effects 0.000 description 90
- 230000036544 posture Effects 0.000 description 59
- 238000001356 surgical procedure Methods 0.000 description 32
- 238000000034 method Methods 0.000 description 30
- 230000001131 transforming effect Effects 0.000 description 28
- 230000000399 orthopedic effect Effects 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 11
- 210000004556 brain Anatomy 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000003902 lesion Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000284 resting effect Effects 0.000 description 2
- 230000000452 restraining effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G06T3/0031—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법에 관한 것이다.The present invention relates to a surgical robot system for stereotactic surgery and a control method for a robot for stereotactic surgery.
본 발명은 산업통상자원부의 로봇산업융합핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다. [과제고유번호: 10062800, 연구과제명: 임상시험을 통한 의료영상기반 뇌수술 로봇시스템의 실용화 기술 개발]The present invention is derived from research carried out as part of the core technology development project of the robot industry fusion technology of the Ministry of Industry and Commerce. [Assignment No.: 10062800, Research title: Development of practical use of medical image-based brain surgery robot system through clinical trial]
다양한 정위수술기구들이 공지되어 있다. 예를 들어, 뇌 수술용 수동 정위수술기구로 렉셀 프레임(LEKSELL FRAME)이 사용되고 있다. 렉셀 프레임은, 정위수술도구의 위치가 환부 위치에 대응되도록, 사용자가 수동으로 정위수술도구를 X, Y, Z축으로 이동 및 회전시킬 수 있는 구조를 갖는다. 그러나, 이러한 수동 정위수술기구를 이용하는 경우, 사용자가 렉셀 프레임 상의 눈금을 육안으로 읽어 수술도구의 위치를 결정하고 이동시켜야 하므로, 환부 위치와 수술도구 사이에 오차가 발생하기 쉽다.Various orthopedic surgical instruments are known. For example, a LEXELL FRAME is used as a manual surgical apparatus for brain surgery. The lextel frame has a structure in which the user can manually move and rotate the orthopedic surgical tool in X, Y, and Z axes so that the position of the orthopedic surgical tool corresponds to the affected part position. However, in the case of using the manual orthopedic surgical instrument, since the user must visually read the scale on the lextel frame to determine the position of the surgical tool and move it, errors are likely to occur between the lesion site and the surgical tool.
따라서, 수술도구의 위치 설정의 정밀도를 개선하고자, 정위수술에 로봇을 활용하는 기술이 사용되고 있다. 정위수술용 로봇은, 가동 암 어셈블리를 포함하는 로봇 암으로 구현되며, 여기서 로봇 암은, 고정된 베이스에 연결되며, 직렬로 연결된 복수의 암을 포함한다. 이러한 직렬형 로봇 암에 부착된 수술도구의 위치 및 수술 정밀도는, 로봇 암의 모든 자유도 축에 의해 영향을 받는다. 즉, 로봇 암의 어느 한 축을 이용한 동작에서 오차가 발생하게 되면, 그 오차는 다른 축을 이용한 동작에서 발생한 오차에 더해짐으로써, 로봇 암의 모든 축을 통한 동작의 오차가 누적되어 수술 정밀도에 영향을 미친다. 이 경우, 베이스 측에 설치된 구동단에서 동작 오차가 발생하면, 그 오차는 베이스에 연결된 복수의 로봇 암들의 다른 동작 오차들과 더해져서, 로봇 암의 말단으로 갈수록 오차가 증폭된다. 따라서, 수술의 정밀도를 높이기 위해서는, 로봇 암이 고정된 베이스와 환부 사이의 거리는 짧게 설정되는 것이 바람직하다. 그러나, 로봇 암의 베이스와 환부 사이의 거리가 짧아지면, 로봇 암의 관성이 작아지므로 오차가 발생하기 쉬워지고, 그에 따라 로봇 암의 정밀한 제어가 어려워진다. 또한, 로봇 암의 베이스와 환부 사이의 공간이 작아지기 때문에, 로봇 암의 작업 반경이 협소해진다. 또한, 베이스에 고정된 로봇 암이 환부 주위에 배치될 때에는, 사용자가 환부 주위에서 움직일 때 로봇 암과 충돌할 위험이 있으므로, 사용자의 움직임이 방해될 수 있다.Therefore, in order to improve the precision of the positioning of the surgical tool, a technique utilizing a robot for stereotactic surgery is being used. The robot for stereotactic surgery is embodied as a robot arm including a movable arm assembly, wherein the robot arm is connected to a fixed base and includes a plurality of arms connected in series. The position of the surgical tool attached to the tandem robot arm and the precision of the operation are affected by all degrees of freedom of the robot arm. That is, when an error occurs in an operation using one of the axes of the robot arm, the error is added to the error generated in operation using the other axes, so that errors in operation through all the axes of the robot arm accumulate and affect the accuracy of operation. In this case, if an operation error occurs in the drive end provided on the base side, the error is added to the other operation errors of the plurality of robot arms connected to the base, and the error is amplified toward the end of the robot arm. Therefore, in order to increase the precision of the operation, it is desirable that the distance between the base on which the robot arm is fixed and the ring portion is set to be short. However, if the distance between the base and the ring portion of the robot arm is shortened, the inertia of the robot arm becomes small, so that an error is likely to occur, thereby making it difficult to precisely control the robot arm. Further, since the space between the base and the annular portion of the robot arm becomes small, the working radius of the robot arm becomes narrow. Further, when the robot arm fixed to the base is disposed around the lesion portion, there is a danger that the user may collide with the robot arm when the user moves around the lesion portion, so that the movement of the user may be interrupted.
한편, 정위수술을 위해서는, 수술타겟의 위치와 수술도구의 진입 위치(또는 엔트리)가 지정되어야 한다. 뇌 또는 신경 수술의 경우, 수술도구의 진입 위치를 적절히 설정하지 못하면, 수술도구가 수술타겟에 도달하기 전에 뇌 또는 신경의 중요 부분에 접촉함으로써 환자에 대해 불필요한 위험이 초래될 수 있다. 그러나, 종래의 정위수술기구는, 수술타겟의 위치에 따라 수술도구를 이동시키는 것과, 수술도구의 진입 위치에 따라 수술도구를 이동시키는 것이, 각각 독립적으로 구분되지 않은 상태로 제어된다. 따라서, 실제 수술도구의 위치와 정위수술용 로봇 시스템이 인식하는 수술도구의 위치의 사이에 오차가 발생하면, 이 오차를 수정하기 위한 수술도구의 제어가 복잡해진다.On the other hand, for the stereotactic operation, the position of the surgical target and the entry position (or entry) of the surgical tool must be specified. In the case of brain or neurosurgery, if the position of the surgical tool is not set properly, unnecessary risk may be caused to the patient by contacting the important parts of the brain or nerve before the surgical tool reaches the surgical target. However, in the conventional stereotactic surgical instrument, the movement of the surgical tool according to the position of the surgical target and the movement of the surgical tool according to the entry position of the surgical tool are controlled independently. Therefore, when an error occurs between the position of the actual surgical tool and the position of the surgical tool recognized by the stereotactic surgical robot system, the control of the surgical tool for correcting the error becomes complicated.
본 발명은, 정위수술의 정밀도를 높이고 환자의 수술 자세 편의성을 확보할 수 있는 정위수술용 수술로봇을 제공한다.The present invention provides a surgical robot for orthopedic surgery, which can improve the accuracy of the orthopedic surgery and ensure the convenience of the patient's posture.
본 발명은, 정위수술용 수술로봇의 제어 오차를 저감하고 발생 오차의 수정이 용이한 정위수술용 수술로봇의 제어방법을 제공한다.The present invention provides a control method of a surgical robot for stereotactic surgery, which reduces the control error of the surgical robot for stereotactic surgery and facilitates correcting the occurrence error.
본 발명은, 수술타겟의 위치에 따른 수술도구의 동작의 제어와, 수술도구의 진입위치에 따른 수술도구의 동작의 제어를, 각각 독립적으로 실행함으로써, 수술도구의 동작 제어의 복잡성이 감소될 수 있는, 정위수술용 수술로봇 및 정위수술용 수술로봇의 제어방법을 제공한다.In the present invention, the operation control of the surgical tool according to the position of the surgical target and the control of the operation of the surgical tool according to the entry position of the surgical tool are independently performed, A surgical robot for stereotactic surgery, and a surgical robot for stereotactic surgery.
본 발명은, 사용자 인터페이스에 표시된 수술대상의 이미지에 기초하여 정위수술용 수술로봇을 용이하게 제어할 수 있는, 수술로봇 시스템 및 정위수술용 수술로봇의 제어방법을 제공한다.The present invention provides a surgical robot system and a control method of a stereotactic surgical robot capable of easily controlling a surgical robot for stereotactic surgery based on an image of a surgical object displayed on a user interface.
본 발명의 일 실시예에 따른 정위수술용 수술로봇 시스템은 수술도구를 적어도 5자유도로 이동 및 회전시키는 정위수술부, 수술타겟을 포함하는 수술부위의 3차원 이미지를 나타내는 제1 이미징 데이터를 수신하는 제어부, 상기 수술부위에 부착되거나 근접하여 배치된 적어도 하나의 마커, 상기 수술부위의 외부의 3차원 이미지를 나타내는 제2 이미징 데이터를 생성하는 촬상부 및 상기 촬상부 및 상기 마커의 위치 및 자세를 트래킹하는 트래킹부를 포함할 수 있고, 상기 제어부는 상기 제1 이미징 데이터의 제1 좌표계로부터 상기 제2 이미징 데이터의 제2 좌표계로 좌표를 변환시키기 위한 제1 좌표 변환 관계를 생성할 수 있고, 상기 제1 좌표 변환 관계와 상기 촬상부 및 상기 적어도 하나의 마커의 위치 및 자세를 이용하여 상기 제1 좌표계로부터 상기 적어도 하나의 마커의 제3 좌표계로 좌표를 변환시키기 위한 제2 좌표 변환 관계, 및 상기 제3 좌표계로부터 상기 정위수술부의 제4 좌표계로 좌표를 변환시키기 위한 제3 좌표 변환 관계를 생성할 수 있으며, 상기 제2 좌표 변환 관계 및 상기 제3 좌표 변환 관계를 이용하여 상기 정위수술부를 제어할 수 있다.The surgical robot system for stereotactic surgery according to an embodiment of the present invention includes a stereotactic surgery unit for moving and rotating the surgical tool through at least five degrees of freedom, and a second imaging unit for receiving first imaging data representing a three- An imaging section for generating second imaging data representing a three-dimensional image of the outside of the surgical site, and an imaging section for tracking the position and posture of the imaging section and the marker, And the control unit may generate a first coordinate transformation relationship for transforming coordinates from a first coordinate system of the first imaging data to a second coordinate system of the second imaging data, And the position and posture of the at least one marker are used to calculate an image from the first coordinate system A second coordinate transformation relationship for transforming coordinates to a third coordinate system of at least one marker and a third coordinate transformation relationship for transforming coordinates from the third coordinate system to the fourth coordinate system of the stereotactic surgery section, And the stereotactic surgery unit can be controlled using the second coordinate transformation relation and the third coordinate transformation relation.
일 실시예에 따르면, 상기 제어부는 사용자 인터페이스를 통해, 상기 제1 이미징 데이터를 시각화할 수 있고, 상기 사용자 인터페이스를 통해 사용자가 입력한 상기 수술타겟의 위치 및 상기 수술도구의 진입 위치를 상기 제1 좌표계 상의 좌표들로 변환할 수 있다.According to one embodiment, the control unit can visually visualize the first imaging data through a user interface, and the position of the surgical target input by the user and the entry position of the surgical tool through the user interface, Can be converted into coordinates on the coordinate system.
일 실시예에 따르면, 상기 제어부는 상기 제2 좌표 변환 관계 및 상기 제3 좌표 변환 관계를 이용하여 상기 변환된 제1 좌표계 상의 좌표들을 상기 정위수술부의 제4 좌표계 상의 좌표들로 변환할 수 있다.According to an embodiment, the controller may convert the coordinates on the transformed first coordinate system into coordinates on the fourth coordinate system of the stereotactic surgery unit using the second coordinate transformation relation and the third coordinate transformation relation.
일 실시예에 따르면, 상기 정위수술부는 상기 수술도구가 부착되고, 2개의 회전축들 중 적어도 1개의 회전축을 중심으로 상기 수술도구를 회전시키는 회전부 및 3개의 축들 중 적어도 1개의 축 방향으로 상기 회전부를 이동시키는 이동부를 포함할 수 있으며, 상기 제어부는 상기 변환된 제4 좌표계 상의 좌표들에 기초하여 상기 수술도구의 진입 자세를 결정할 수 있고, 상기 제4 좌표계 상에서 상기 수술타겟의 위치에 대응하는 좌표가 상기 2개의 회전축의 교차점에 위치하도록 상기 이동부를 통해 상기 회전부를 이동시킬 수 있으며, 상기 수술도구가 상기 결정된 수술도구의 진입 자세를 갖도록 상기 회전부를 통해 상기 수술도구를 회전시킬 수 있다.According to one embodiment, the stereotactic surgery unit includes a rotation unit to which the surgical tool is attached and rotates the surgical tool around at least one rotation axis of the two rotation axes, and a rotation unit that rotates the rotation unit in at least one of three axes And the control unit may determine an entry posture of the surgical tool based on the coordinates on the transformed fourth coordinate system, and the coordinate corresponding to the position of the surgical target on the fourth coordinate system is The rotating part can be moved through the moving part so as to be located at the intersection of the two rotating shafts and the surgical tool can be rotated through the rotating part so that the surgical tool has the determined attitude of the surgical tool.
일 실시예에 따르면, 상기 이동부는 제1 축 방향을 따라 이동하는 제1 방향 구동부, 상기 제1 방향 구동부에 연결되고, 제2 축 방향을 따라 이동하는 제2 방향 구동부 및 상기 제2 방향 구동부에 연결되고, 제3 축 방향을 따라 이동하는 제3 방향 구동부를 포함할 수 있고, 상기 회전부는 상기 제3 방향 구동부에 연결되는 일단을 포함하며, 제1 회전축을 중심으로 회전하는 제1 회전 구동부 및 상기 제1 회전 구동부에 연결되는 일단을 포함하며, 제2 회전축을 중심으로 회전하는 제2 회전 구동부를 포함할 수 있으며, 상기 수술도구는 상기 제2 회전 구동부에 부착될 수 있다.According to one embodiment, A first direction driving unit moving along a first axis direction, a second direction driving unit connected to the first direction driving unit and moving along a second axis direction, and a second direction driving unit connected to the second direction driving unit, And the rotation unit may include one end connected to the third direction driving unit, and may include a first rotation driving unit rotating about the first rotation axis and a second rotation driving unit connected to the first rotation driving unit And a second rotation driving unit rotating about a second rotation axis, and the surgical tool may be attached to the second rotation driving unit.
일 실시예에 따르면, 상기 제어부는 상기 촬상부의 위치 및 자세에 기초하여, 상기 제2 좌표계로부터 상기 촬상부의 제5 좌표계로 좌표를 변환시키기 위한 제4 좌표 변환 관계, 및 상기 제5 좌표계로부터 상기 제3 좌표계로 좌표를 변환시키기 위한 제5 좌표 변환 관계를 생성할 수 있으며, 상기 제1 좌표 변환 관계, 상기 제4 좌표 변환 관계 및 상기 제5 좌표 변환 관계에 기초하여 상기 제2 좌표 변환 관계를 생성할 수 있다.According to an embodiment, the control unit may include a fourth coordinate conversion relationship for converting coordinates from the second coordinate system to the fifth coordinate system of the image sensing unit based on the position and posture of the image sensing unit, 3 coordinate system, and generates the second coordinate transformation relation based on the first coordinate transformation relation, the fourth coordinate transformation relation, and the fifth coordinate transformation relation can do.
일 실시예에 따르면, 상기 제어부는 상기 제1 이미징 데이터가 나타내는 3차원 이미지와 상기 제2 이미징 데이터가 나타내는 3차원 이미지 간의 이미지 정합(image registration)을 통해 상기 제1 좌표 변환 관계를 생성할 수 있다.According to one embodiment, the control unit may generate the first coordinate transformation relationship through image registration between a three-dimensional image represented by the first imaging data and a three-dimensional image represented by the second imaging data .
일 실시예에 따르면, 상기 제어부는 상기 제1 이미징 데이터가 나타내는 3차원 이미지와 상기 제2 이미징 데이터가 나타내는 3차원 이미지에 공통적으로 포함된 상기 수술부위의 적어도 일부분을 이용하여 상기 이미지 정합을 수행할 수 있다.According to one embodiment, the control unit performs the image matching using at least a part of the surgical site commonly included in the three-dimensional image represented by the first imaging data and the three-dimensional image represented by the second imaging data .
일 실시예에 따르면, 상기 제어부는 상기 제1 이미징 데이터로부터 상기 수술부위의 2차원 단면 이미지를 나타내는 2차원 이미징 데이터를 추출할 수 있고, 상기 2차원 이미징 데이터의 제6 좌표계로부터 상기 제1 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계와, 상기 제2 좌표 변환 관계 및 상기 제3 좌표 변환 관계를 이용하여, 상기 정위수술부를 제어할 수 있다.According to one embodiment, the control unit may extract two-dimensional imaging data representing a two-dimensional cross-sectional image of the surgical site from the first imaging data, and may be configured to extract, from the sixth coordinate system of the two- The stereotactic surgery unit can be controlled using the coordinate transformation relation for transforming the coordinates and the second coordinate transformation relation and the third coordinate transformation relation.
일 실시예에 따르면, 상기 촬상부는 위상천이 방식(Phase Measuring Profilometry)을 이용하여 상기 제2 이미징 데이터를 생성할 수 있다.According to an embodiment, the imaging unit may generate the second imaging data using a phase measuring scheme.
본 발명의 일 실시예에 따라, 정위수술용 수술로봇 시스템에서, 수술도구를 적어도 5자유도로 이동 및 회전시키는 정위수술부를 제어하는 방법은 수술타겟을 포함하는 수술부위의 3차원 이미지를 나타내는 제1 이미징 데이터를 제어부가 수신하는 단계, 상기 수술부위의 외부의 3차원 이미지를 나타내는 제2 이미징 데이터를 촬상부가 생성하는 단계, 상기 촬상부 및, 상기 수술부위에 부착되거나 근접하여 배치된 적어도 하나의 마커의 위치 및 자세를 트래킹부가 트래킹하는 단계, 상기 제1 이미징 데이터의 제1 좌표계로부터 상기 제2 이미징 데이터의 제2 좌표계로 좌표를 변환시키기 위한 제1 좌표 변환 관계를 상기 제어부가 생성하는 단계, 상기 제1 좌표 변환 관계와 상기 촬상부 및 상기 적어도 하나의 마커의 위치 및 자세를 이용하여 상기 제1 좌표계로부터 상기 적어도 하나의 마커의 제3 좌표계로 좌표를 변환시키기 위한 제2 좌표 변환 관계, 및 상기 제3 좌표계로부터 상기 정위수술부의 제4 좌표계로 좌표를 변환시키기 위한 제3 좌표 변환 관계를 상기 제어부가 생성하는 단계 및 상기 제2 좌표 변환 관계 및 상기 제3 좌표 변환 관계를 이용하여 상기 제어부가 상기 정위수술부를 제어하는 단계를 포함할 수 있다.According to an embodiment of the present invention, in a surgical robot system for stereotactic surgery, a method for controlling a stereotactic surgical part for moving and rotating a surgical tool at least five degrees of freedom includes a first step of displaying a three- The method comprising the steps of: receiving imaging data by a control unit; generating second imaging data representing a three-dimensional image outside the surgical site, the imaging unit including at least one imaging unit and at least one marker attached to or proximate to the surgical site Generating a first coordinate transformation relationship for transforming coordinates from a first coordinate system of the first imaging data to a second coordinate system of the second imaging data by the tracking unit; The first coordinate transformation relation and the position and posture of the imaging unit and the at least one marker, A third coordinate transformation relationship for transforming coordinates from the system to the third coordinate system of the at least one marker and a third coordinate transformation relationship for transforming coordinates from the third coordinate system to the fourth coordinate system of the stereotactic surgery section, And the control unit controls the stereotactic surgery unit using the second coordinate transformation relation and the third coordinate transformation relation.
일 실시예에 따르면, 상기 정위수술부를 제어하는 방법은 사용자 인터페이스를 통해, 상기 제어부가 상기 제1 이미징 데이터를 시각화하는 단계 및 상기 사용자 인터페이스를 통해 사용자가 입력한 상기 수술타겟의 위치 및 수술도구의 진입 위치를 상기 제1 좌표계 상의 좌표들로 상기 제어부가 변환하는 단계를 더 포함할 수 있다.According to one embodiment, the method for controlling the stereotactic surgery unit includes the steps of visualizing the first imaging data through the user interface, and displaying the position of the surgical target, which is input by the user through the user interface, And the control unit may convert the entry position into coordinates on the first coordinate system.
일 실시예에 따르면, 상기 정위수술부를 제어하는 단계는 상기 제2 좌표 변환 관계 및 상기 제3 좌표 변환 관계를 이용하여, 상기 변환된 제1 좌표계 상의 좌표들을 상기 정위수술부의 제4 좌표계 상의 좌표들로 상기 제어부가 변환하는 단계를 포함할 수 있다.According to one embodiment, the step of controlling the stereotactic surgery unit may further comprise the step of using the second coordinate transformation relation and the third coordinate transformation relation to convert the coordinates on the transformed first coordinate system into coordinates on the fourth coordinate system of the stereotactic surgery unit And the control unit may perform the conversion.
일 실시예에 따르면, 상기 정위수술부는 상기 수술도구가 부착되고, 2개의 회전축들 중 적어도 1개의 회전축을 중심으로 상기 수술도구를 회전시키는 회전부 및 3개의 축들 중 적어도 1개의 축 방향으로 상기 회전부를 이동시키는 이동부를 포함할 수 있으며, 상기 정위수술부를 제어하는 단계는 상기 변환된 제4 좌표계 상의 좌표들에 기초하여 상기 제어부가 상기 수술도구의 진입 자세를 결정하는 단계, 상기 제4 좌표계 상에서 상기 수술타겟의 위치에 대응하는 좌표가 상기 2개의 회전축의 교차점에 위치하도록 상기 제어부가 상기 이동부를 통해 상기 회전부를 이동시키는 단계 및 상기 수술도구가 상기 결정된 수술도구의 진입 자세를 갖도록 상기 제어부가 상기 회전부를 통해 상기 수술도구를 회전시키는 단계를 포함할 수 있다.According to one embodiment, the stereotactic surgery unit includes a rotation unit to which the surgical tool is attached and rotates the surgical tool around at least one rotation axis of the two rotation axes, and a rotation unit that rotates the rotation unit in at least one of three axes Wherein the step of controlling the stereotactic surgery part includes the steps of the control part determining the entry posture of the surgical tool based on the coordinates on the transformed fourth coordinate system, The control unit moves the rotation unit through the movement unit so that a coordinate corresponding to a position of the target is located at an intersection of the two rotation axes, and the control unit controls the rotation unit And rotating the surgical tool through the surgical instrument.
일 실시예에 따르면, 상기 제2 좌표 변환 관계를 상기 제어부가 생성하는 단계는, 상기 촬상부의 위치 및 자세에 기초하여, 상기 제2 좌표계로부터 상기 촬상부의 제5 좌표계로 좌표를 변환시키기 위한 제4 좌표 변환 관계, 및 상기 제5 좌표계로부터 상기 제3 좌표계로 좌표를 변환시키기 위한 제5 좌표 변환 관계를 상기 제어부가 생성하는 단계 및 상기 제1 좌표 변환 관계, 상기 제4 좌표 변환 관계 및 상기 제5 좌표 변환 관계에 기초하여 상기 제2 좌표 변환 관계를 상기 제어부가 생성하는 단계를 포함할 수 있다.According to one embodiment, the step of generating the second coordinate transformation relation by the control unit may include a fourth step of transforming coordinates from the second coordinate system to the fifth coordinate system of the image sensing unit, based on the position and posture of the image sensing unit, And a fifth coordinate transformation relation for transforming coordinates from the fifth coordinate system to the third coordinate system by the control unit, and a second coordinate transformation relationship for transforming the first coordinate transformation relation, the fourth coordinate transformation relation, And the control unit may generate the second coordinate conversion relation based on the coordinate conversion relation.
일 실시예에 따르면, 제1 좌표 변환 관계를 상기 제어부가 생성하는 단계는 상기 제1 이미징 데이터가 나타내는 3차원 이미지와 상기 제2 이미징 데이터가 나타내는 3차원 이미지 간의 이미지 정합을 통해 상기 제어부가 상기 제1 좌표 변환 관계를 생성하는 단계를 포함할 수 있다.According to an embodiment, the step of generating the first coordinate transformation relation may include: a step of generating, by image matching between a three-dimensional image represented by the first imaging data and a three-dimensional image represented by the second imaging data, 1 < / RTI > coordinate transformation relationship.
일 실시예에 따르면, 상기 제어부는, 상기 제1 이미징 데이터가 나타내는 3차원 이미지와 상기 제2 이미징 데이터가 나타내는 3차원 이미지에 공통적으로 포함된 상기 수술부위의 적어도 일부분을 이용하여 상기 이미지 정합을 수행할 수 있다.According to one embodiment, the control unit performs the image matching using at least a part of the surgical site commonly included in the three-dimensional image represented by the first imaging data and the three-dimensional image represented by the second imaging data can do.
본 발명의 일 실시예에 따른 컴퓨터 판독가능 저장매체는 상기 수술로봇 시스템의 제어 방법들의 각 단계를 수행하는 명령어들을 포함하는 프로그램을 저장할 수 있다.The computer-readable storage medium according to an embodiment of the present invention may store a program including instructions for performing each step of the control methods of the surgical robot system.
본 발명에 의한 정위수술용 수술로봇 및 정위수술용 수술로봇의 제어방법에 의하면, 수술타겟의 위치와 수술도구의 진입 위치에 따라 정위수술용 수술로봇을 독립적으로 제어할 수 있어 수술 정밀도가 향상되고, 제어 방식이 간편해진다. 환자의 환부 주위로 근접하게 수술로봇을 배치할 수 있어 환자의 편의성 및 작업자의 작업성이 향상될 수 있으며 제어 오차를 저감하는 것이 가능하다.According to the control method of the surgical robot for stereotactic surgery and the surgical robot for stereotactic surgery according to the present invention, the surgical robot for stereotactic surgery can be independently controlled according to the position of the surgical target and the entry position of the surgical tool, , The control method becomes simple. It is possible to dispose the surgical robot in the vicinity of the affected part of the patient so that the convenience of the patient and the workability of the operator can be improved and the control error can be reduced.
또한, 본 발명에 의한 정위수술용 수술로봇을 포함하는 수술로봇 시스템에 의하면, 의사가 정위수술용 수술로봇을 사용자 인터페이스를 통해 간단히 제어할 수 있으며, 수술 도중에 환자의 움직임이 있더라도 짧은 시간 내에 수술로봇의 제어를 위한 좌표 변환 관계의 재설정이 가능하다.In addition, according to the surgical robot system including the surgical robot for stereotactic surgery according to the present invention, the physician can easily control the surgical robot for stereotactic surgery through the user interface, and even if there is movement of the patient during the operation, It is possible to reset the coordinate conversion relation for the control of FIG.
도 1은 본 발명의 일 실시예에 따른 수술로봇 시스템이 수술에 사용되고 있는 예를 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 수술로봇 시스템을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 정위수술용 수술로봇을 나타내는 사시도이다.
도 4는 본 발명의 일 실시예에 따른 이동부의 사시도이다.
도 5는 본 발명의 일 실시예에 따른 회전부의 사시도이다.
도 6은 본 발명의 일 실시예에 따른 수술부위지지부의 사시도이다.
도 7은 본 발명의 일 실시예에 따른 환자고정부의 사시도이다.
도 8은 본 발명의 일 실시예에 따른 환자고정부가 결합된 정위수술용 수술로봇의 사시도이다.
도 9는 본 발명의 일 실시예에 따른 트래킹부의 동작을 설명하기 위한 마커 및 트래킹부를 나타내는 블록도이다.
도 10은 본 발명의 일 실시예에 따라 촬상부를 통해 획득된 수술도구의 진입위치 주변에 대한 이미지와 수술 전에 촬영된 수술부위가 포함된 환자의 이미지를 정합한 결과를 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따라 수술 전에 촬영된 수술부위가 포함된 환자의 3차원 이미지에 수술타겟의 위치 및 수술도구의 진입 위치가 표시된 도면이다.
도 12는 본 발명의 일 실시예에 따라 수술부위를 포함하는 3차원 이미지 또는 3차원 이미지의 2차원 단면 이미지 상에 표시된 수술타겟의 위치 및 수술도구의 진입 위치를 정위수술부의 좌표계 상의 위치로 변환하는 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시예에 따라 수술부위를 포함하는 3차원 이미지를 나타내는 이미징 데이터의 좌표계로부터 환자 마커의 좌표계로 좌표를 변환시키기 위한 방법을 설명하기 위한 도면이다.
도 14는 본 발명의 일 실시예에 따라 수술 전에 촬영된 수술부위가 포함된 환자의 3차원 이미지의 축평면 상의 2차원 단면 이미지에 사용자가 수술타겟의 위치 및 수술도구의 진입 위치를 표시한 도면이다.
도 15는 본 발명의 일 실시예에 따라 수술 전에 촬영된 수술부위가 포함된 환자의 3차원 이미지의 시상면 상의 2차원 단면 이미지에 사용자가 수술타겟의 위치 및 수술도구의 진입 위치를 표시한 도면이다.
도 16은 본 발명의 일 실시예에 따라 수술 전에 촬영된 수술부위가 포함된 환자의 3차원 이미지의 관상면 상의 2차원 단면 이미지에 사용자가 수술타겟의 위치 및 수술도구의 진입 위치를 표시한 도면이다.
도 17은 본 발명의 일 실시예에 따라 정위수술부를 제어하는 방법을 나타내는 흐름도이다.
도 18은 본 발명의 일 실시예에 따라 수술부위를 포함하는 3차원 이미지를 나타내는 이미징 데이터의 좌표계로부터 환자 마커의 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계를 생성하는 방법을 나타내는 흐름도이다.
도 19는 본 발명의 일 실시예에 따라 수술부위를 포함하는 3차원 이미지를 나타내는 이미징 데이터의 좌표계로부터 정위수술부의 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계를 이용하여 정위수술부를 제어하는 방법을 나타내는 흐름도이다.1 is a view showing an example in which a surgical robot system according to an embodiment of the present invention is used for surgery.
2 is a block diagram illustrating a surgical robot system according to an embodiment of the present invention.
3 is a perspective view illustrating a surgical robot for stereotactic surgery according to an embodiment of the present invention.
4 is a perspective view of a moving part according to an embodiment of the present invention.
5 is a perspective view of a rotating part according to an embodiment of the present invention.
6 is a perspective view of a surgical site support according to an embodiment of the present invention.
7 is a perspective view of a patient fixation unit according to an embodiment of the present invention.
8 is a perspective view of a surgical robot for orthopedic surgery combined with a patient fixation unit according to an embodiment of the present invention.
9 is a block diagram illustrating a marker and a tracking unit for explaining the operation of the tracking unit according to an embodiment of the present invention.
10 is a view showing a result of matching images of a patient including an image of the vicinity of an entry position of the surgical tool obtained through the imaging unit and a surgical site photographed before surgery according to an embodiment of the present invention.
11 is a view showing a position of a surgical target and an entry position of a surgical tool in a three-dimensional image of a patient including a surgical site photographed before surgery according to an embodiment of the present invention.
12 is a view for explaining the position of a surgical target and the entry position of a surgical tool displayed on a two-dimensional sectional image of a three-dimensional image or a three-dimensional image including a surgical site according to an embodiment of the present invention, Fig.
13 is a diagram for explaining a method for converting coordinates from a coordinate system of imaging data representing a three-dimensional image including a surgical site to a coordinate system of a patient marker according to an embodiment of the present invention.
14 is a view showing a position of a surgical target and an entry position of a surgical tool on a two-dimensional sectional image on an axial plane of a three-dimensional image of a patient including a surgical site photographed before surgery according to an embodiment of the present invention; to be.
15 is a view showing a position of a surgical target and an entry position of a surgical tool on a two-dimensional sectional image on a sagittal plane of a three-dimensional image of a patient including a surgical site photographed before surgery according to an embodiment of the present invention; to be.
16 is a view showing a position of a surgical target and an entry position of a surgical tool on a two-dimensional sectional image on a coronal plane of a three-dimensional image of a patient including a surgical site photographed before surgery according to an embodiment of the present invention; to be.
17 is a flowchart illustrating a method of controlling a stereotactic surgery unit according to an embodiment of the present invention.
18 is a flowchart illustrating a method of generating a coordinate transformation relationship for transforming coordinates from a coordinate system of imaging data representing a three-dimensional image including a surgical site to a coordinate system of a patient marker according to an embodiment of the present invention.
19 is a diagram illustrating a method of controlling a stereotactic surgery unit using a coordinate transformation relation for converting coordinates from a coordinate system of imaging data representing a three-dimensional image including a surgical site to a coordinate system of a stereotactic surgical unit according to an embodiment of the present invention FIG.
이하 설명하는 본 발명의 실시예들은 본 발명을 설명하기 위한 목적으로 예시된 것이다. 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며, 본 발명이 아래 제시된 실시예들이나 이들 실시예들에 대한 구체적 설명으로 한정되는 것으로 해석되지 않는다.The embodiments of the present invention described below are illustrated for the purpose of illustrating the present invention. The embodiments of the present invention may be embodied in various forms and are not to be construed as being limited to the embodiments shown below or to the detailed description of these embodiments.
본 실시예에서 사용되는 용어 "부"는 소프트웨어, FPGA(field-programmable gate array), ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소를 의미한다. 그러나, "부"는 하드웨어 및 소프트웨어에 한정되는 것은 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일례로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세서, 함수, 속성, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이 및 변수를 포함한다. 구성요소와 "부" 내에서 제공되는 기능은 더 작은 수의 구성요소 및 "부"로 결합되거나 추가적인 구성요소와 "부"로 더 분리될 수 있다.The term "part " used in the present embodiment means hardware components such as software, field-programmable gate array (FPGA), and application specific integrated circuit (ASIC). However, "part" is not limited to hardware and software. "Part" may be configured to reside on an addressable storage medium, and may be configured to play back one or more processors. Thus, by way of example, and not limitation, "part, " as used herein, is intended to be broadly interpreted as referring to components such as software components, object-oriented software components, class components and task components, Firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided within the component and the "part " may be combined into a smaller number of components and" parts " or further separated into additional components and "parts ".
본 명세서에서 사용되는 모든 기술적 용어들 및 과학적 용어들은, 다르게 정의되어 있지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 갖는다. 본 명세서에서 사용되는 모든 용어들은 본 발명을 보다 명확히 설명하기 위한 목적으로 선택된 것이며 본 발명의 범위를 제한하기 위해 선택된 것이 아니다. All technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. All terms used herein are selected for the purpose of more clearly illustrating the present invention and are not to be construed as limiting the scope of the present invention.
본원 명세서에서 기술된 단수형의 표현은 달리 언급하지 않는 이상 복수형의 표현도 함께 포함할 수 있으며, 이는 청구항에 기재된 단수형의 표현에도 마찬가지로 적용된다. The singular forms of the disclosure described herein may also include plural representations, unless the context clearly dictates otherwise, and the same applies to the singular forms of the claims set forth in the claims.
본 발명의 다양한 실시 예에서 사용된 "제1", "제2" 등의 표현들은 복수의 구성요소들을 상호 구분하기 위해 사용하는 것일 뿐 해당 구성요소들의 순서 또는 중요도를 한정하는 것이 아니다.The terms "first "," second ", etc. used in various embodiments of the present invention are used to distinguish between a plurality of components, and do not limit the order or importance of the components.
본 명세서에서 사용되는 "포함하는" 및 "갖는"과 같은 표현은, 해당 표현이 포함되는 문구 또는 문장에서 특별히 다르게 언급되지 않는 한, 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.As used herein, the terms "comprising" and "having ", unless the context clearly dictates otherwise, are to be construed as open-ended terms.
본 명세서에서 "~에 기초하여"라는 표현은, 해당 표현이 포함되는 문구에서 기술되는 결정 또는 판단의 행위 또는 동작에 영향을 주는 하나 이상의 인자를 기술하는데 사용되고, 이 표현은 결정 또는 판단의 행위 또는 동작에 영향을 주는 추가적인 인자를 배제하지는 않는다. The expression "on the basis of" in this specification is used to describe one or more factors that affect the behavior or behavior of a decision or judgment described in the phrase including the expression, It does not rule out additional factors that affect operation.
본 명세서에서 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When an element is referred to herein as being "connected" or "connected" to another element, it is to be understood that any element may be directly connected or connected to the other element, It should be understood that there may be other components between the component and the other component.
이하, 첨부한 도면들을 참조하여, 본 발명의 실시예들을 상세하게 설명한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.
<정위수술용 수술로봇 시스템><Surgical Robot System for Surgical Surgery>
도 1은 본 발명의 일 실시예에 따른 정위수술을 수행할 수 있는 수술로봇 시스템이 수술에 사용되고 있는 예를 나타낸다. 도시된 바와 같이, 의사(또는 사용자)는 정위수술부(1)와 같은 수술로봇을 이용하여 환자(160)에 대한 정위수술을 진행할 수 있다. 의사는 사용자 인터페이스(150)에 디스플레이된 수술부위의 이미지를 검토하여, 수술을 진행할 수술타겟의 위치 및 수술도구가 환자(160) 내부로 진입할 위치를 결정할 수 있다.FIG. 1 shows an example in which a surgical robot system capable of performing a stereotactic surgery according to an embodiment of the present invention is used in surgery. As shown, a doctor (or a user) can perform a stereotactic operation on the
만약 의사가 사용자 인터페이스(150)를 통해, 수술타겟의 위치 및 수술도구의 진입 위치를 입력하면, 이에 기초하여 정위수술부(1)의 동작이 제어됨으로써, 정위수술부(1)에 부착된 수술도구가 수술타겟으로 접근할 수 있다. 여기서, "수술타겟"(또는 수술대상)은, 종양, 또는 장기, 혈관 또는 뼈에서 병소가 있는 부분 등과 같이, 수술도구를 통해 제거 또는 치료가 행해지는 대상을 의미할 수 있다. 예를 들어, 수술타겟은 환자(160)의 체내 혹은 외부 표면(또는 피부)에 위치할 수 있다. 수술도구의 "진입 위치"(또는 엔트리)는, 수술타겟이 환자의 체내에 있을 때, 수술도구가 수술타겟에 접근하기 위해 최초로 접촉하거나 통과하는 환자의 외부 표면 상의 위치를 의미할 수 있다. 예를 들어, 수술도구가 환자의 뇌 속에 존재하는 종양을 제거하기 위해 동작하는 경우, 수술도구의 진입 위치는 환자의 두피 상에 설정될 수 있다.If the doctor inputs the position of the surgical target and the entry position of the surgical tool through the
일 실시예에 따르면, 정위수술부(1)의 동작은, 수술로봇 시스템에 포함된 촬상부(120) 및 트래킹부(130)를 이용하여 정확하게 제어될 수 있다. 촬상부(120)는, 뇌 또는 척추와 같이, 수술타겟이 포함된 수술부위의 외부의 3차원 이미지를 나타내는 이미징 데이터를 생성할 수 있다. 여기서, "이미징 데이터(imaging data)"는, 수술부위와 같은 촬영 대상을 시각적으로 인식할 수 있는 형태로 나타낼 수 있는 데이터를 의미할 수 있으며 예를 들어, 수술 부위를 시각적으로 나타내는 2차원 또는 3차원 이미지와 그 이미지와 관련된 좌표계 정보를 포함할 수 있다. 트래킹부(130)는 찰상부(120), 정위수술부(1) 및 환자(160)에 부착된 마커들(170, 172, 174)을 트래킹하여, 각각의 마커가 부착된 대상의 위치 및 자세를 트래킹할 수 있다. 본 발명의 수술로봇 시스템에 의하면, 트래킹부(130)를 이용하여 정위수술부(1)에 부착된 수술도구의 현재의 위치가 결정될 수 있다. 또한, 촬상부(120) 및 트래킹부(130)를 통해 생성된 정보에 기초하여, 수술도구가 현재 위치로부터 사용자 인터페이스(150)를 통해 입력된 수술타겟의 위치로 이동할 수 있다.According to one embodiment, the operation of the stereotactic
일 실시예에 따르면, 정위수술부(1)는 수술대(110)에 부착되어 사용될 수 있다. 따라서, 정위수술 중에 수술대(110)가 움직이더라도, 정위수술부(1)가 수술대(110)와 함께 움직이기 때문에 수술도구가 수술타겟으로 가이드되고 있는 위치가 변하지 않을 수 있다. 또한, 정위수술부(1)가 수술대(110)에 부착되어 사용되면, 정위수술부(1)가 환자 가까이에 위치할 수 있으므로, 정위수술부(1)에 부착된 수술도구의 정밀한 제어가 가능해지고, 정위수술부(1)에 의해 의사의 동선이 방해되는 것을 방지할 수 있다. According to one embodiment, the orthopedic
이하에서는 도 1의 예를 통해 개략적으로 설명한 본 발명의 수술로봇 시스템의 다양한 실시예들에 관해 보다 구체적으로 설명한다.Hereinafter, various embodiments of the surgical robot system of the present invention outlined in the example of FIG. 1 will be described in more detail.
도 2는 본 발명의 일 실시예에 따른 수술로봇 시스템(100)을 나타내는 블록도이다. 수술로봇 시스템(100)은, 정위수술을 수행할 수 있는 수술로봇 시스템으로서, 정위수술부(1), 촬상부(120), 트래킹부(130) 및 제어부(140)를 포함할 수 있다. 정위수술부(1)는, 수술부위에 포함된 수술타겟에 대한 정위수술을 실행할 수 있는 수술도구와 이 수술도구를 가이드할 수 있는 장치를 포함할 수 있다.2 is a block diagram illustrating a
일 실시예에 따르면, 정위수술부(1)는 적어도 5자유도 이상의 자유도로 동작할 수 있는 정위수술용 수술로봇일 수 있다. 예를 들어, 정위수술부(1)는, 수술도구를 적어도 3개의 축 방향으로 이동할 수 있으며, 수술도구를 적어도 2개의 회전축을 중심으로 회전시킬 수 있다. 정위수술부(1)는 수술대(110)에 부착되어 사용될 수 있다.According to one embodiment, the stereotactic
일 실시예에 따르면, 정위수술부(1)는, 수술타겟의 위치 및 수술도구의 진입 위치에 따라 수술도구의 이동 및 회전을 각각 독립적으로 수행할 수 있다. 여기서 수술도구의 이동 및 회전을 각각 독립적으로 수행한다는 것은, 정위수술부(1)에서 수술도구를 이동시키는 구성과 수술도구를 회전시키는 구성이 분리되어 구현되고, 이러한 구성에 따라 수술도구의 이동과 회전이 개별적으로 제어되어 수행될 수 있다는 의미일 수 있다. 예를 들어, 정위수술부(1)는, 수술타겟의 위치에 따라 수술도구를 먼저 이동시키고, 수술도구의 진입 위치에 따라 수술도구가 수술타겟으로 접근 또는 삽입되는 자세 또는 방향을 결정한 후에, 수술도구가 그와 같은 자세를 갖도록, 수술도구를 회전시킬 수 있다. 따라서, 정위수술 중에 동일한 수술타겟에 대한 수술도구의 진입 위치가 변경될 경우, 간단히 수술도구의 자세만을 변경함으로써 짧은 시간 내에 수술이 재개될 수 있다. 정위수술부(1)의 구성과 동작에 관한 보다 구체적인 실시예들은 이후 관련 부분에서 설명된다.According to one embodiment, the
촬상부(120)는 수술부위의 외부의 2차원 또는 3차원 이미지를 나타내는 이미징 데이터를 생성할 수 있다. 일 실시예에 따르면, 촬상부(120)는 환자(160)의 표면 이미지를 나타내는 이미징 데이터를 생성하거나 수술타겟 또는 수술도구의 진입 위치(또는 그 주변)의 이미지를 나타내는 이미징 데이터를 생성할 수 있다. 일 실시예에 따르면, 촬상부(120)는 패턴광 등을 이용하는 위상천이 방식(Phase Measuring Profilometry)에 기초하여 3차원 이미지를 나타내는 이미징 데이터를 생성할 수 있다.The
촬상부(120)에 의해 생성된 이미징 데이터는 사용자 인터페이스(150)에 전달되어 사용자 인터페이스(150) 상에서 시각적으로 표시될 수 있다. 또한, 촬상부(120)에 의해 생성된 이미징 데이터는 저장장치(180)에 저장된 후 수술 이후의 수술결과 분석 또는 치료에 사용될 수도 있다.Imaging data generated by the
일 실시예에 따르면, 촬상부(120)에 의해 생성된 이미징 데이터와, 수술 전에 미리 촬영된 수술타겟을 포함하는 수술부위의 3차원 이미지를 나타내는 이미징 데이터가 정합될 수 있다. 수술부위의 3차원 이미지를 나타내는 이미징 데이터는 수술 전에 저장장치(180)에 저장될 수 있다. 사용자 인터페이스(150)는, 두 이미징 데이터가 정합된 결과를 시각적으로 표시할 수 있다. 예를 들어, 사용자 인터페이스(150)는 임의의 이미징 데이터에 기초하여 그 데이터가 나타내는 2차원 또는 3차원 이미지를 표시할 수 있는 디스플레이 장치일 수 있다. 수술 전에 미리 촬영된 수술부위의 3차원 이미지를 나타내는 이미징 데이터는, 수술부위에 관한 CT 또는 MRI 이미지에 관한 이미징 데이터일 수 있다.According to one embodiment, the imaging data generated by the
또 다른 실시예에 따르면, 제어부(140)는 촬상부(120)를 이용하여 생성된 이미징 데이터에 기초하여 정위수술부(1)를 제어할 수 있다. 촬상부(120)와 관련된 보다 구체적인 실시예들은 이후 관련 부분에서 설명된다.According to another embodiment, the
트래킹부(130)는, 물체의 움직임을 트래킹하기 위한 장치이며, 구체적으로 물체의 위치 및/또는 자세를 트래킹할 수 있는 장치이다. 일 실시예에 따르면, 트래킹부(130)는 트래킹 대상에 부착된 마커의 위치 및/또는 자세를 측정함으로써, 마커가 부착된 대상을 트래킹할 수 있다. 예를 들어, 마커를 수술도구에 부착한 후, 트래킹부(130)가 수술도구에 부착된 마커의 위치 및/또는 자세를 트래킹함으로써 수술도구가 트래킹될 수 있다.The
일 실시예에 따르면, 촬상부(120), 정위수술부(1) 및 환자(160)의 수술부위 또는 수술부위의 가까이에 각각 부착된 마커들(170, 172, 174)을 트래킹한 결과를 이용하여, 정위수술부(1)가 제어될 수 있다. 마커는 트래킹의 목적에 따라 수술로봇 시스템(100)의 각 구성들 또는 정위수술에 사용되는 도구/장치의 다양한 위치에 부착될 수 있다. 트래킹부(130)의 구성과 동작에 관련된 보다 구체적인 실시예들은 이후 관련 부분에서 설명된다.According to one embodiment, the results of tracking the
제어부(140)는, 정위수술부(1), 촬상부(120), 트래킹부(130), 사용자 인터페이스(150)를 포함하는 수술로봇 시스템(100)의 다양한 구성요소들의 동작들을 제어할 수 있다. 제어부(140)는 이들 구성요소의 제어를 위한 수술 계획 소프트웨어 및 내비게이션 소프트웨어를 포함하는 제어용 소프트웨어를 저장 및 실행할 수 있다. 또한, 제어부(140)는 이러한 소프트웨어들을 실행할 수 있는 CPU와 같은 프로세서를 1개 이상 포함할 수 있다.The
일 실시예에 따르면, 제어부(140)는 수술실 내에 위치하여 수술로봇 시스템(100)을 제어할 수 있다. 또 다른 실시예에 따르면, 제어부(140)는 수술실 외부에 위치하여 유선 또는 무선 네트워크를 통해 수술로봇 시스템(100)에 연결되어 수술로봇 시스템(100)을 제어할 수 있다. 또 다른 실시예에 따르면, 제어부(140)는 그 기능이 수술로봇 시스템(100)의 다른 구성요소들에 분산되어 구현될 수 있다. 예를 들어, 트래킹부(130)를 제어할 수 있는 제어부(140)의 기능은 트래킹부(130) 내에 구현될 수 있고, 촬상부(120)를 제어할 수 있는 제어부(140)의 기능은 촬상부(120) 내에 구현될 수 있다. 제어부(140)는 수술실 또는 병원의 내부 또는 외부에 설치된 데이터베이스와 유선 또는 무선 네트워크로 연결되어 있을 수 있으며, 이 데이터베이스로부터 수술에 필요한 이미징 데이터를 포함하는 다양한 데이터를 수신할 수 있다.According to one embodiment, the
이하에서는 수술로봇 시스템(100)에 포함된 구성들 각각에 관한 구체적인 실시예들이 설명된다.Hereinafter, specific embodiments of each of the components included in the
<정위수술부(1)><Suture Surgery Section (1)>
도 3은, 도 2의 정위수술부(1)로써 사용될 수 있는, 본 발명의 일 실시예에 따른 정위수술용 수술로봇(1)을 나타낸다. 본 실시예의 정위수술용 수술로봇(1)은, 이동부(10)와 회전부(40) 및 수술부위지지부(70)를 포함하며, 수술대와 착탈 가능하도록 구성될 수 있다. 회전부(40)의 일단에는 수술도구(50)가 구비될 수 있으며, 정위수술용 수술로봇(1)가 이동부(10) 및 회전부(40)를 제어하여 수술도구(50)의 위치 및 자세를 조정할 수 있다. 본 실시예에 따른 정위수술용 수술로봇(1)은, 수술타겟의 위치에 따라 이동부(10)를 이동시키고, 수술도구 진입 위치 또는 자세에 따라 회전부(40)를 회전시키는 것이 가능하다. 이동부(10)와 회전부(40)는 각각 독립적으로 제어될 수 있다.Fig. 3 shows a
이하 도 4 및 도 5를 참조하여, 회전부(40)가 회전 가능하도록 연결된 이동부(10)의 상세 구성과 동작을 설명한다. 일 실시예에 따르면, 이동부(10)는 회전부(40) 및 회전부(40)의 일단에 고정된 수술도구(50)를 3개의 축들 중 적어도 1개의 축방향으로 왕복 이동하도록 동작 가능하며, 이에 따라 이동부(10)는 3 자유도를 가질 수 있다. 이동부(10)는 제1 내지 제3 선형축 방향(13, 15, 17)을 따라 이동하는 제1 내지 제3 방향 구동부(12, 14, 16)를 포함할 수 있다.4 and 5, the detailed configuration and operation of the moving
본 실시예에서는 예시적으로, 제1 내지 제3 선형축 방향(13, 15, 17)이 서로 직교하며, 각각의 구동부(12, 14, 16)는 서로 직교한 축들을 따라 왕복 이동할 수 있다. 또 다른 실시예 따르면, 제1 내지 제3 선형축 방향(13, 15, 17)은 직교하지 않는 임의의 방식으로 배열될 수도 있다. 제1 내지 제3 방향 구동부(12, 14, 16)는, 예를 들어, 리니어 모터, 볼 스크류 등을 포함하는 다양한 기계적 또는 전기적 구동 수단들 중의 하나를 이용하여 구현될 수 있다. 본 실시예에서 이동부(10)는 고정부(11)을 통해 수술부위지지부(70)의 연결부(72)와 착탈 가능하도록 연결되어 있고, 제3 구동부(16)에는 회전부(40)가 회전 가능하게 연결될 수 있다.In this embodiment, the first to third linear
도 5를 참조하여, 회전부(40)의 상세 구성과 동작을 설명한다. 회전부(40)는 제3 방향 구동부(16)에 연결되는 제1 회전 구동부(42) 및 제1 회전 구동부(42)와 연결되는 제2 회전 구동부(44)를 포함할 수 있다. 제1 및 제2 회전 구동부(42, 44)는 각각 제1 및 제2 회전축(43, 45)을 중심으로 회전될 수 있다. 예를 들어, 제1 및 제2 회전 구동부(42, 44) 각각은 서보 모터, 유압 모터 등을 포함하는 다양한 기계적 또는 전기적 구동 수단들 중의 하나를 이용하여 구현될 수 있다.The detailed configuration and operation of the
도시된 바와 같이, 제1 및 제2 회전 구동부(42, 44)는 원호 또는 이와 유사한 형상으로 설계될 수 있다. 이러한 형상을 채용함으로써, 회전부(40)에 회전부(40) 전체를 덮을 수 있는 일체형 드레이프를 장착할 수 있고, 위생적으로 드레이프를 설치 및 교환할 수 있다. 제1 및 제2 회전 구동부(42, 44)의 형상은 도 5에 도시된 것에 한정되지 않고, 본 발명의 수술로봇 시스템이 사용되는 수술부위 또는 수술 방식에 따라, 다양한 형상으로 변경될 수 있다.As shown, the first and second
본 실시예의 제2 회전 구동부(44)는, 제1 회전 구동부(42)와 연결되는 수술도구(50), 및 수술도구(50)를 착탈 가능하게 유지할 수 있는 홀더(46)를 포함할 수 있다. 홀더(46)는 다양한 유형의 수술도구가 간이하게 착탈될 수 있도록 구성된다. 이와 같은 구성을 갖는 홀더(46)를 설치함으로써, 의사는 수술도구의 교체 시간을 단축시킴으로써 신속한 수술을 수행할 수 있다. The second
한편, 제2 회전 구동부(44)에는 수술도구(50)의 착탈 여부를 감지하는 수술도구감지부(51)가 더 구비될 수 있다. 수술도구감지부(51)에 의해 수술도구(50)의 장착이 감지될 때, 제어부(140)는 이동부(10)의 각 구동부(12, 14, 16)가 더 이상 이동하지 않고 고정될 수 있도록 제어할 수 있다. 이러한 제어부(140)의 이동부(10) 동작 제어에 의해, 수술 중 수술 로봇의 오작동, 또는 물리적인 충격으로 인해 이동부가 이동함으로써 발생하는 치명적인 의료 사고가 방지되고, 안전한 수술이 가능하다.The second
본 실시예에서 제1 회전축(43)과 제2 회전축(45)은 서로 직교하도록 설정되고, 수술도구(50)가 제2 회전 구동부(44)에 부착됨으로써, 수술도구(50)의 선단이 제1 회전축(43)과 제2 회전축(45)이 교차하는 지점을 향하는 자세가 유지될 수 있다. 따라서, 제1 회전 구동부(42)와 제2 회전 구동부(44)가 제1 회전축(43)과 제2 회전축(45)을 중심으로 각각 회전하더라도, 제1 회전축(43)과 제2 회전축(45)이 교차하는 지점은 일정하게 유지되고, 수술도구(50)의 선단이 제1 회전축(43)과 제2 회전축(45)이 교차하는 지점을 향하는 자세가 유지될 수 있다. 제1 회전축(43)과 제2 회전축(45)이 교차하는 지점이 수술타겟의 위치와 일치하도록, 이동부(10)에 의해 회전부(40)가 이동되는 동안에, 수술도구(50)의 선단이 수술타겟의 위치를 향하는 자세를 유지하므로, 수술타겟의 위치가 일정하게 유지된 채로 수술도구(50)의 진입 자세가 적절하게 선택될 수 있다. 따라서, 회전부(40)가 수술도구(50)를 회전시키더라도 수술타겟의 위치를 일정하게 유지하면서 정위수술용 수술로봇(1)의 동작이 제어될 수 있다. 여기서 '수술타겟의 위치'란 수술타겟의 어느 한 지점 또는 그 지점을 포함하는 수술타겟이 차지하는 3차원적인 공간의 위치를 의미할 수 있다. 또한, 수술타겟의 '지점'이란 시각적으로 한 점으로 식별될 수 있는 정도로 충분히 작은 2차원적 또는 3차원적인 영역을 의미할 수 있으며, 수학적인 또는 물리적인 의미의 점으로 한정되는 것은 아니다.The first
이상 설명된 구성을 갖는 이동부(10)가 수술타겟의 위치에 따라 회전부(40)를 이동시키고, 회전부(40)가 수술도구의 진입 자세에 따라 수술도구(50)를 회전시킴으로써, 수술타겟의 위치와 수술도구 자세에 따라 이동부(10)와 회전부(40)를 각각 독립적으로 제어할 수 있다. 종래에는 수술도구를 제어하기 위해 상당히 복잡한 수술로봇 동작 제어 방식이 사용되었고, 수술타겟의 위치에 따른 제어와 수술도구 진입 자세에 따른 제어를 독립적으로 할 수 없었다. 그러나, 본 실시예에 따르면 이동부(10)와 회전부(40)를 수술타겟의 위치와 수술도구의 진입 자세 각각에 따라 독립적으로 제어할 수 있으므로, 수술로봇과 수술도구의 제어의 정밀도와 효율성이 향상될 수 있다.The moving
본 실시예에서는, 회전부(40)의 제1 회전 구동부(42)와 제3 방향 구동부(16) 의 연결부분에, 제1 회전축(43)을 중심으로 형성된 중공(48)을 더 포함할 수 있다. 중공(48)의 하부에는 중공(48)을 통해 수술부위 또는 다른 환부의 의료 이미지를 촬영하기 위한 촬영장치가 설치될 수 있다. 이와 같은 구성에 따르면, 수술도구의 위치에 대한 캘리브레이션, 또는 수술 중 환자의 상태를 관찰을 위해 수술 부위 등을 촬영하는 경우에도, 이동부(10) 또는 회전부(40)가 촬영 대상 부분을 가리는 것을 방지할 수 있다. 또한, 이와 같이 제1 회전 구동부(42) 및 제3 방향 구동부(16) 의 연결부분에 중공(48)을 제1 회전축(43) 방향으로 형성함으로써, 정위수술용 수술로봇(1)의 작동과, C 암을 포함하는 다양한 의료 영상 장치의 활용이 양립될 수 있다. 예를 들어, 중공(48)은 제1 회전 구동부(42)와 제3 방향 구동부(16)의 연결부분에 제1회전축(43) 방향으로 형성된 중공형 회전 조인트를 사용하여 구현될 수 있다.The present embodiment may further include a hollow 48 formed around the
도 6을 참조하여 수술부위지지부(70)의 상세한 구성과 동작을 상세히 설명한다. 환자 또는 수술부위에 대한 이동부(10) 및 회전부(40)의 위치를 적절히 조절할 수 있도록 수술부위지지부(70)가 구비될 수 있다. 수술부위지지부(70)가 구비됨으로써 수술 시 환자가 좀 더 편안한 자세를 취할 수 있다. 본 실시예에서 수술부위지지부(70)는 자세조절부(74, 75), 연결부(72) 및 수술대고정부(78)를 포함한다.The detailed configuration and operation of the surgical
연결부(72)는, 이동부(10)와 연결 가능한 연결부재(73)를 포함할 수 있다. 연결부재(73)는, 이동부(10)의 고정부(11)와 연결부(72)를 착탈 가능하게 연결할 수 있도록, 볼트 및 너트, 또는 이를 포함한 다양한 기계적인 연결수단들 중의 하나를 이용하여 구현될 수 있다. 연결부재(73)는, 복수의 볼트 및 너트를 이용하여 구현될 수 있으며, 이러한 구성을 통해 이동부(10)와 수술부위지지부(70) 사이의 신뢰성 높은 연결 및 고정이 가능하다.The connecting
자세조절부(74, 75)는 수술부위의 각도를 조절하는 각도조절부(75) 및 수술부위의 높이를 조절하는 높이조절부(74)를 포함할 수 있다. 각도조절부(75)는 하나의 축을 중심으로 연결부(72)와 높이조절부(74) 사이의 각도를 조절할 수 있는 수동 또는 자동 기계장치를 이용하여 구현될 수 있다. 수동 기계장치는 힌지 또는 링크 구조 등을 포함하는 다양한 수동식 구조가 포함될 수 있고, 자동 기계장치는 서보 모터 또는 유압 실린더 등의 구동기가 포함될 수 있다. 높이조절부(74)는 수술대고정부(78)에 대해 높이 방향으로 이동 가능하게 연결됨으로써, 높이조절부(74)에 연결된 다른 구성요소들의 전체의 높이를 조절할 수 있다. 높이조절부(74)는 볼 스크류 또는 리니어 모터 등을 포함하는 수동 또는 자동 기계장치를 이용하여 구현될 수 있다.The
수술대고정부(78)는 수술대(110)에 수술부위지지부(70) 전체를 고정하도록 구성될 수 있다. 이를 통해, 이동부(10)와 회전부(40)를 포함하는 정위수술용 수술로봇(1) 전체가 수술대(110)에 고정될 수 있다. 수술대고정부(78)는 수술대(110)와 수술대고정부(78)의 견고한 고정을 위한 클램핑부(79)를 포함할 수 있다. 클램핑부(79)는, 수술대고정부(78)를 수술대(110)의 일부(예컨대, 측면에 구비된 레일)에 클램핑함으로써 수술부위지지부(70) 전체를 수술대(110)에 고정할 수 있다. 본 실시예에서는 예시적으로 수술대고정부(78)가 클램핑부(79)를 채용하였으나, 수술대고정부(78)는 나사, 형태결합 등 다양한 고정 기구가를 이용하여 수술대(110)에 고정될 수 있다.The
도 7 및 8을 참조하여 수술부위고정부(90)의 상세 구조 및 동작을 상세히 설명한다. 일반적으로 정위수술 장치에는 환자의 수술부위(예를 들어, 환자의 머리)를 수술도구에 대해 흔들림 없이 고정해야 할 필요가 있다. 이를 위해 본 실시예에서는, 수술부위고정부(90)가 수술부위고정프레임(92, 93)과 수술부위고정핀(94)을 포함할 수 있다. 수술부위고정프레임(92, 93)은 수술 부위를 고정하기 위한 횡방향 수술부위고정프레임(92)과 종방향 수술부위고정프레임(93)으로 구성되며, 종방향 수술부위고정프레임(93)의 일단에는 환자의 수술부위를 정밀하게 고정할 수 있는 수술부위고정핀(94)이 부착되어 있다. 본 실시예는 예시적으로 수술부위고정부(90)가 하나의 횡방향 수술부위고정프레임(92)과 네 개의 종방향 수술부위고정프레임(93)를 포함하고 있으나, 횡방향 수술부위고정프레임(92)과 종방향 수술부위고정프레임(93)의 개수나 그들 사이의 연결 구성은 필요에 따라 적절히 변경될 수 있다.The detailed structure and operation of the surgical
본 실시예의 수술부위고정프레임(92, 93)은 촬상부(120)와의 사용상 양립가능성을 높이기 위하여 적절한 형태로 변경될 수 있다. 예컨대, 환자의 머리를 수술하는 경우, 환자의 이미지를 촬영하고, 그 이미지에서 환자의 눈, 코, 미간, 귀 등의 특징영역을 추출함으로써, 환자의 수술부위(즉, 머리)의 정밀한 위치를 예측 및 판단할 수 있다. 이 경우, 수술부위고정프레임(92, 93)은, 환자의 특징영역의 촬영을 방해하지 않도록 구성될 수 있다. 본 실시예에서는, 예를 들어, 환자의 코 부위와 간섭하지 않도록 횡방향 수술부위고정프레임(92) 상방의 중앙 부분이 오목한 형상을 갖는 한편, 환자의 귀 부위를 가리지 않도록 종방향 수술부위고정프레임(93)이 횡방향 수술부위고정프레임(92)의 가장 바깥쪽과 연결될 수 있다. 따라서, 본 실시예의 횡방향 수술부위고정프레임(92) 및 종방향 수술부위고정프레임(93)은 환자의 특징영역을 가리는 것을 방지하여, 수술 중 촬상부(120)에 의한 환자의 특징영역의 촬영을 보장할 수 있다. The surgery
수술부위고정프레임(92, 93) 및 수술부위고정핀(94)은, 예를 들어 금속과 같은 내구성과 견고한 특성을 갖는 재질로 제작될 수 있다. 다만, 이러한 금속성 재질을 사용하는 경우, 전자제어장비 또는 측정장비와 같은 전기 장치와 접촉되는 경우 환자를 감전시킬 수 있다. 따라서, 이를 방지하기 위하여, 전기 장치들과 환자가 전기적으로 접촉되지 않도록, 절연수단이 수술부위고정프레임(92, 93)에 연결될 수 있다. 구체적으로, 수술부위고정프레임(92, 93)과 연결부(72) 사이에 절연수단(95)이 포함됨으로써 수술부위고정프레임(92, 93)과 연결부(72)가 전기적으로 연결되지 않은 상태로 결합될 수 있다.The surgical
본 실시예에서의 수술부위고정부(90)는 연결부(72)에 착탈 가능하게 연결될 수 있으므로, 수술 목적에 맞는 형상 및 크기의 수술부위고정부(90)가 선택되어 간단하게 교체될 수 있다. 또한, 수술부위고정부(90)가 수술부위지지부(70)에 직접 고정될 수 있으므로 이동부(10)의 이동 및 회전부(40)의 회전 중에도 수술부위고정부(90)가 안정적으로 수술부위를 고정할 수 있다.Since the surgical
본 실시예의 정위수술용 수술로봇(1)은 제어부(140)를 통해 자동적으로 제어될 수 있다. 이하, 정위수술용 수술로봇(1)의 제어방법에 대해 상세히 설명한다. The surgical robot for
제어부(140)는, 수술계획에 따른 수술부위의 위치 및 수술도구 진입 위치를 결정하고, 결정된 위치들에 따라 이동부(10) 및 회전부(40)가 수술도구를 이동시키도록 하는 제어신호를 출력할 수 있다. 제어부(140)가 출력한 제어신호에 기초하여, 이동부(10)는 수술타겟의 위치 정보에 따라 2개의 회전축이 교차하는 지점이 수술타겟의 위치와 일치하도록, 3개의 축들 중 적어도 1개의 축 방향으로 이동한다. 또한, 제어부(140)가 출력한 제어신호에 기초하여, 회전부(40)는 수술도구의 진입 자세 정보에 따라 2개의 회전축들 중 적어도 1개의 회전축을 중심으로 수술도구(50)를 회전시킬 수 있다. 좀 더 구체적으로, 제어부(140)가 출력한 제어신호에 기초하여, 이동부(10)는 제1 선형축 방향을 따라 제1 방향 구동부를 이동시키거나, 제2 선형축 방향을 따라 상기 제2 방향 구동부를 이동시키거나, 제3 선형축 방향을 따라 상기 제3 방향 구동부를 이동시킬 수 있다. 또한, 회전부(40)는, 제어부(140)의 제어신호에 기초하여, 제1 회전축을 중심으로 제1 회전 구동부를 회전시키거나, 제2 회전축을 중심으로 제2 회전 구동부를 회전시킬 수 있다.The
이와 같이, 수술타겟의 위치와 수술도구 진입 자세에 따라 이동부(10)와 회전부(40)이 각각 독립적으로 제어되므로, 수술로봇(1)의 동작 제어에 있어서 오차의 저감이 가능하고, 오차가 발생하더라도 그 오차의 수정에 필요한 추가적인 동작 제어가 간소화 될 수 있다.Since the moving
또한, 제어부(140)는 각도조절부(75) 및 높이조절부(74)가 수술부위의 각도 및 높이 중 적어도 하나를 조절하도록 제어할 수 있다.The
본 발명에 따른 정위수술용 수술로봇(1)이 예시적인 일 실시예를 통하여 설명되었으나, 정위수술이 적용될 수 있는 다양한 수술부위(인체의 머리, 척추, 관절 등)를 두루 포괄하여 적용될 수 있다.Although the
<트래킹부(130)>≪
트래킹부(130)는 물체의 움직임을 트래킹할 수 있는 장치로서, 구체적으로 물체의 위치 및/또는 자세를 측정할 수 있는 장치이다. 트래킹 방법은 특별히 제한되지 않으나, 일반적으로 광학적 기술에 기반을 둔 옵티컬 트래킹(optical tracking) 방법 또는 전자기파 기술에 기반을 둔 전자기파 트래킹(electromagnetic tracking) 방법이 사용될 수 있다. 또한, 다양한 트래킹 방법들이 복합적으로 사용될 수도 있다.The
트래킹부(130)가 측정하는 위치는, 예컨대 직교 좌표계의 X, Y, Z 축 상에서의 좌표와 같은 공간 좌표로서 정의될 수 있다. 트래킹부(130)가 측정하는 자세는 롤(roll), 피치(pitch), 요(yaw)와 같은 회전 정보로서 정의될 수 있다. 물체의 정확한 트래킹을 위해서, 이와 같이 정의되는 물체의 위치 및 자세의 6 자유도(6 Degree of Freedom)가 측정될 수 있다.The position measured by the
일 실시예에 따르면, 트래킹부(130)는 물체에 부착된 마커의 위치 및/또는 자세를 측정함으로써, 물체를 트래킹할 수 있다. 예를 들어, 마커를 수술도구에 부착한 후, 트래킹부(130)가 수술도구에 부착된 마커의 위치 및/또는 자세를 측정함으로써, 수술도구가 트래킹될 수 있다.According to one embodiment, the
일 실시예에 따르면, 트래킹부(130)는 역반사체(retroreflector)를 마커로서 사용하여 마커의 위치를 측정할 수 있다. 또 다른 실시예에 따르면, 트래킹 대상의 위치 및 자세를 동시에 측정하기 위해서, 3개 이상의 복수의 마커가 부착된 구조물이 트래킹 대상에 부착될 수 있다. 이 경우 마커로서 역반사체가 사용될 수 있으나, 트래킹부(130)가 위치를 인식할 수 있는 마커라면 어떠한 형태의 마커든 사용될 수 있다. 일 실시예에 따르면, 트래킹부(130)를 통해 측정된 3개 이상의 마커들 간의 기하학적인 위치 관계와 미리 저장된 3개 이상의 마커들 간의 기하학적인 위치 관계를 비교하여 트래킹 대상의 위치 및 자세가 동시에 측정될 수 있다.According to one embodiment, the
한편, 마커를 단순화하기 위해서 1개의 마커만을 사용하여, 마커가 부착된 물체의 위치 및 자세가 측정될 수 있다. 도 9는 본 발명의 일 실시예에 따라 1개의 마커를 사용하는 옵티컬 트래킹 방법에서 활용될 수 있는 마커(910) 및 트래킹부(130)를 나타내는 블록도이다. 마커(910)는 패턴이 구현된 적어도 하나의 패턴부(911) 및 패턴부(911)의 패턴을 확대하여 전송할 수 있는 제1 렌즈(912)를 포함할 수 있다. 트래킹부(130)는 마커(910)로부터 전송된 패턴부(911)의 패턴을 이미지로 결상할 수 있는 제2 렌즈(131) 및 결상소자(132)를 포함할 수 있다. 일 실시예에 따르면, 패턴부(911)의 패턴의 인식 범위를 늘리거나 패턴의 인식률을 높이기 위해서 트래킹부(130)가 2개 이상 사용될 수 있으며, 하나의 트래킹부(130) 내에 결상소자(132)가 2개 이상 포함될 수 있다.On the other hand, in order to simplify the marker, only one marker can be used to measure the position and posture of the object to which the marker is attached. 9 is a block diagram showing a
패턴부(911)에 형성되는 패턴은 마커(910)의 위치 및 자세를 측정하기 위한 정보를 제공할 수 있다. 일 실시예에 따르면, 패턴부(911)에 형성되는 패턴은 복수의 패턴들이 일정한 형태와 간격으로 배열되어 형성될 수 있으며, 이러한 패턴을 결상한 이미지를 이용하여, 마커(910)의 위치 및 자세가 결정될 수 있다.The pattern formed on the
일 실시예에 따르면, 결상소자(132)에서 패턴부(911)에 구현된 패턴의 전부 또는 일부를 결상하면, 제어부(140)는 결상된 이미지에서 패턴이 보이는 영역의 크기 변화를 추출하고, 이에 기초하여 마커(810)의 위치를 결정할 수 있다. 구체적으로, 마커(910)의 위치가 변하면 결상된 패턴의 크기가 달라지는데, 이와 같은 패턴의 크기 변화는 렌즈(131)의 직경 및 초점 거리와 비교하여 위치로서 환산될 수 있다.According to one embodiment, when all or a part of the pattern embodied in the
또 다른 실시예에 따르면, 제어부(140)는 2개의 결상소자에서 각각 결상한 이미지에서 패턴의 전부 또는 일부가 보이는 영역의 위치가 다르다는 점에 기초한 삼각법(triangulation)을 이용하여, 마커(910)의 위치를 계산할 수 있다. 일 실시예에 따르면, 제어부(140)는 패턴 내의 각 패턴 영역의 위치 변화에 기초하여 마커(910)의 자세를 결정할 수 있다. 일 실시예에 따르면, 트래킹부(130)를 제어할 수 있는 제어부(140)의 기능은 트래킹부(130)와 일체로서 형성될 수 있다.According to another embodiment, the
마커(910)는 액티브 마커(active marker) 또는 패시브 마커(passive marker)로 구현될 수 있다. 마커(910)가 액티브 마커인 경우에는, 마커(910)는 내부에 광원을 포함할 수 있다. 따라서, 마커(910) 내부의 광원은 패턴부(911)에 빛을 조사하고, 조사한 빛은 패턴부(911)에 형성된 패턴을 투과하거나 패턴에서 반사될 수 있다. 트래킹부(130)는 패턴을 투과하거나 또는 패턴에서 반사된 빛을 수신하고, 패턴부(911)의 패턴의 이미지를 결상할 수 있다. 제어부(140)는 이와 같이 결상된 이미지에 기초하여 마커(910)의 위치 및 자세를 트래킹할 수 있다.The
마커(910)가 패시브 마커인 경우에는, 마커(910)의 외부에 마커(910)를 향해 빛을 조사하는 광원이 배치될 수 있다. 따라서, 마커(910)의 외부의 광원은 마커(910)에 빛을 조사하고, 조사된 빛은 패턴부(911)에 형성된 패턴을 투과하거나 패턴에서 반사될 수 있다. 트래킹부(130)는 패턴을 투과하거나 또는 패턴에서 반사된 빛을 수신하고, 패턴부(911)의 패턴의 이미지를 결상할 수 있다. 제어부(140)는 이와 같이 결상된 이미지에 기초하여 마커(910)의 위치 및 자세를 트래킹할 수 있다. 만약 수술 장소가 충분히 밝아 마커(910)의 패턴이 트래킹부(130)에서 명확히 인식될 수 있다면, 추가적인 광원 없이 마커(910)가 트래킹될 수도 있다.When the
일 실시예에 따르면, 마커(910)는 제1 렌즈(912)의 초점이 패턴부(911)의 패턴 면에 맺히도록 구현될 수 있다. 이를 위해, 패턴부(911)의 패턴 면의 형상이 제1 렌즈(912)의 초점이 맺히는 면의 형상과 일치되도록 구현되거나, 또는 제1 렌즈(912)의 초점이 패턴부(911)의 패턴 면에 맺히도록 제1 렌즈(912)가 설계될 수 있다.According to one embodiment, the
마커(910)가 제1 렌즈(912)의 초점이 패턴부(911)의 패턴 면에 맺히도록 구현되고 또한 트래킹부(130)의 결상소자(132)가 제2 렌즈(131)의 초점거리에 위치하면, 마커(910)와 트래킹부(130)의 광학계는 무한 광학계를 형성할 수 있다. 마커(910)와 트래킹부(130)가 무한 광학계를 형성하면, 트래킹부(130)는 무한 광학계를 통해 확대된 패턴 이미지를 결상할 수 있다. 따라서, 마커(910)가 트래킹부(130)에서 멀리 떨어져 있더라도 트래킹부(130)에서의 패턴의 인식률이 높아질 수 있다. The
트래킹부(130)는 제2 렌즈(131)를 통해 전달된 패턴을 결상소자(132)를 이용해서 결상할 수 있다. 결상소자(132)는 빛을 통해 전달된 이미지 정보를 전기적 신호로 변환하는 장치로서, 대표적으로는 CMOS 이미지 센서 또는 CCD 등을 이용하여 구현될 수 있다. 일 실시예에 따르면, 결상소자(132)는 제2 렌즈(131)의 초점거리에 상응하는 위치에서 이미지를 결상할 수 있다.The
<촬상부(120)>≪
촬상부(120)는 수술부위의 외부의 이미지를 나타내는 이미징 데이터를 생성할 수 있는 장치이다. 일 실시예에 따르면, 촬상부(120)는 환자(160)의 표면 이미지를 획득하거나 수술부위 또는 수술도구의 진입 위치(또는 그 주변)의 이미지를 나타내는 이미징 데이터를 생성할 수 있다. 촬상부(120)는 일반적인 카메라 이미지와 같은 2차원 이미지를 나타내는 이미징 데이터를 생성할 수 있는 장치일 수 있지만, 정위수술과 같은 정밀한 수술 진행을 위해 필요한 3차원 이미지를 나타내는 이미징 데이터를 생성할 수 있는 장치일 수도 있다.The
일 실시예에 따르면, 촬상부(120)는 패턴광 등을 이용한 위상천이 방식에 기초하여 3차원 이미지를 나타내는 이미징 데이터를 생성할 수 있다. 예를 들어, 일정한 형태의 패턴광을 환자에 조사하여 촬영된 이미지들을 처리하여, 3차원 이미지를 나타내는 이미징 데이터가 생성될 수 있다. 패턴광은 격자 패턴광과 같은 조도가 사인파 형태를 갖는 패턴광일 수 있으나, 이에 한정되지 않는다. 조사된 패턴광은 환자(160)의 표면의 굴곡에 따라 환자(160)의 표면상에서의 빛의 세기가 달라질 수 있으며, 이로부터 위상 데이터를 생성하여 표면을 구성하는 각 점들의 높이를 계산함으로써 3차원 이미지를 나타내는 이미징 데이터가 생성될 수 있다.According to one embodiment, the
일 실시예에 따르면, 촬상부(120)는 촬상부(120) 내에 포함된 이미지 처리부에서 3차원 이미지를 나타내는 이미징 데이터를 생성할 수 있다. 또 다른 실시예에 따르면, 제어부(140)가 촬상부(120)가 획득한 이미지 데이터를 수신한 후, 이미지 데이터를 처리하여 3차원 이미지를 나타내는 이미징 데이터를 생성할 수도 있다.According to one embodiment, the
일 실시예에 따르면, 촬상부(120)에 의해 생성된 이미징 데이터는 사용자 인터페이스(150)를 통해 시각적으로 표시될 수 있다. 또 다른 실시예에 따르면, 촬상부(120)에 의해 생성된 이미징 데이터가 나타내는 촬상부 이미지와 다른 이미지 간의 이미지 정합을 이용하여 두 이미지가 오버랩될 수 있고, 그 결과가 사용자 인터페이스(150)를 통해 시각적으로 표시될 수 있다. 예를 들어, 도 10에 도시된 바와 같이, 촬상부(120)를 이용하여 획득된 수술도구의 진입위치(1030)의 주변(1050)에 대한 촬상부 이미지와 수술 전에 미리 획득된 수술타겟(1010)이 포함된 수술부위 이미지 간의 이미지 정합을 이용하여, 수술부위 이미지 상에 촬상부 이미지가 오버랩될 수 있다.According to one embodiment, the imaging data generated by the
일 실시예에 따르면, 이미지 정합은 촬상부 이미지와 이와 정합할 다른 이미지에 공통적으로 포함된 수술부위의 적어도 일부분을 이용하여 수행될 수 있다. 또 다른 실시예에 따르면, 동일한 기준마커(fiducial marker)를 포함하도록 촬상부 이미지 및 이와 정합할 다른 이미지를 획득한 후, 두 이미지 포함된 기준마커를 이용하여 이미지 정합이 수행될 수 있다.According to one embodiment, the image registration may be performed using at least a portion of the surgical site that is commonly included in the image of the imaging unit and other images to be matched therewith. According to another embodiment, image acquisition may be performed using the fiducial markers included in the two images, after acquiring the image of the imaging unit and other images to be matched therewith to include the same fiducial markers.
<수술로봇 시스템(100)의 제어방법><Control Method of
일반적으로 정위수술은 뇌와 같이 의사가 직접 눈으로 확인하기 어려운 부위에 관한 수술이다. 따라서, 의사는 CT나 MRI 이미지와 같은 환자(160)의 체내에 있는 수술타겟을 포함하는 수술부위의 3차원 이미지 또는 이와 같은 3차원 이미지의 2차원 단면 이미지를 분석하여, 수술타겟을 결정할 수 있고, 수술도구가 수술타겟으로 안전하게 진입할 수 있는 위치를 결정할 수 있다. 예를 들어, 사용자 인터페이스(150)를 통해, CT 이미지가 표시되면, 의사는 CT 이미지를 검토함으로써 수술타겟의 위치 및/또는 수술도구의 진입 위치를 결정할 수 있고, 결정된 위치들을 사용자 인터페이스(150)를 통해 입력할 수 있다. 본 발명의 정위수술부(1)는 의사가 입력한 수술타겟의 위치 및/또는 수술도구의 진입 위치에 기초하여 제어될 수 있다.In general, stereotactic surgery is a surgery on a part of the brain that is difficult for the physician to visually identify. Thus, the surgeon can analyze a three-dimensional image of the surgical site or a two-dimensional cross-sectional image of such a three-dimensional image, including a surgical target in the body of a
도 11은 수술부위의 3차원 이미지에 의사가 수술타겟의 위치(1110) 및 수술도구의 진입 위치(1130)를 입력한 결과를 나타낸다. 일 실시예에 따르면, 의사와 같은 사용자는 사용자 인터페이스(150)를 통해 표시된 이미지에 터치 스크린 등을 이용하여 수술타겟의 위치(1110) 또는 수술도구의 진입 위치(1130)를 입력할 수 있다. 또 다른 실시예에 따르면, 사용자는 좌표값을 타이핑하여 수술타겟의 위치(1110) 또는 수술도구의 진입 위치(1130)를 입력할 수 있다.11 shows the result of inputting the position of the
이상과 같이 수술타겟의 위치(1110) 또는 수술도구의 진입 위치(1130)가 사용자 인터페이스를 통해 입력되면, 제어부(140)는 입력된 수술타겟의 위치(1110)에 기초하여 정위수술부(1)의 동작을 제어할 수 있다.When the
일 실시예에 따르면, 제어부(140)는 입력된 수술타겟의 위치(1110)에 기초하여 정위수술부(1)의 이동부(10)를 3개의 축들 중 적어도 1개의 축 방향으로 이동시킬 수 있다. 이동부(10)에는 수술도구를 회전시키는 회전부(40)가 부착될 수 있다. 따라서, 이동부(10)의 이동에 따라 회전부(40)가 이동할 수 있다. 일 실시예에 따르면, 제어부(140)는 수술타겟의 위치에 대응하는 좌표가 회전부(40)의 2개의 회전축의 교차점에 위치하도록, 이동부(10)를 통해 회전부를 이동시킬 수 있다.The
일 실시예에 따르면, 제어부(140)는 사용자에 의해 입력된 수술타겟의 위치(1110) 및 수술도구의 진입 위치(1130)에 기초하여 수술도구의 진입 자세를 결정할 수 있다. 제어부(140)는 수술도구가 결정된 수술도구의 진입 자세를 갖도록, 수술도구가 부착된 회전부(40)를 2개의 회전축 중 적어도 1개의 회전축을 중심으로 회전시킬 수 있다.According to one embodiment, the
정위수술부(1)는 정위수술부(1)의 좌표계를 기준으로 구동될 수 있다. 그런데 사용자 인터페이스(150) 통해 입력된 수술타겟의 위치(1110) 및 수술도구의 진입 위치(1130)는 정위수술부(1)의 좌표계가 아니라 사용자 인터페이스(150)에 표시된 이미지의 좌표계 상의 위치이다. 따라서, 정위수술부(1)의 좌표계를 기준으로 정위수술부(1)를 제어하기 위해서는, 사용자 인터페이스(150)에 표시된 이미지의 좌표계를 기준으로 입력된 수술타겟의 위치(1110)와 수술도구의 진입 위치(1030)가 정위수술부(1)의 좌표계 기준의 위치로 변환되어야 한다. The
일 실시예에 따르면, 제어부(140)는 수술 전에 미리 촬영된 CT나 MRI 이미지와 같은 3차원 이미지를 나타내는 이미징 데이터("제1 이미징 데이터")를 수신할 수 있다. 제1 이미징 데이터는 수술타겟을 포함하는 수술부위에 관한 이미징 데이터일 수 있다. 제1 이미징 데이터는 수술 전에 저장장치(180)에 미리 저장될 수 있다. 제어부(140)은 촬상부(120)를 통해 생성된 수술부위의 외부의 3차원 이미지를 나타내는 이미징 데이터("제2 이미징 데이터")를 수신할 수 있다. 제어부(140)은 (i) 제1 이미징 데이터의 제1 좌표계로부터 제2 이미징 데이터의 제2 좌표계로 좌표를 변환시키기 위한 제1 좌표 변환 관계를 생성할 수 있고, (ii) 트래킹부(130)를 이용하여 촬상부(120)의 위치 및 자세를 트래킹할 수 있다.According to one embodiment, the
제어부(140)는 제1 좌표 변환 관계와 촬상부(120)의 위치 및 자세를 이용하여, 제1 이미징 데이터의 제1 좌표계로부터 정위수술부(1)의 제4 좌표계로 좌표를 변환하기 위한 좌표 변환 관계를 생성할 수 있다.The
이하에서는, 도 12를 참조하여 보다 구체적으로 설명한다. 우선, 사용자는 사용자 인터페이스(150)를 통해, 수술타겟의 위치(1110)와 수술도구의 진입 위치(1130)를 입력할 수 있다. 제어부(140)는 사용자가 입력한 수술타겟의 위치(1110) 및 수술도구의 진입 위치(1130)를 제1 이미징 데이터의 제1 좌표계(1210) 상의 좌표들로 변환할 수 있다.Hereinafter, this will be described in more detail with reference to FIG. First, the user can input the
일 실시예에 따르면, 제1 이미징 데이터의 제1 좌표계(1210) 상의 위치를 정위수술부(1)의 제4 좌표계(1230) 상의 위치로 변환하기 위해, 제1 이미징 데이터의 제1 좌표계(1210) 상의 좌표는 환자 마커(174)의 제3 좌표계(1220) 상의 좌표, 정위수술부(1)의 제4 좌표계(1230) 상의 좌표 순으로 변환될 수 있다. 이와 같은 좌표 변환을 위해서 (i) 제1 이미징 데이터의 제1 좌표계(1210)로부터 환자 마커(174)의 제3 좌표계(1220)로 좌표를 변환시키기 위한 제2 좌표 변환 관계와 (ii) 환자 마커(174)의 제3 좌표계(1220)로부터 정위수술부(1)의 제4 좌표계(1230)로 좌표를 변환시키기 위한 제3 좌표 변환 관계가 획득될 수 있다. 여기서, 환자 마커(174)는 환자(160)의 수술부위에 부착된 마커이거나 수술부위에 근접하여 배치되어 있으면서 정위수술부(1)의 수술부위고정부(90)와 같이 환자(160)와 일체로서 함께 움직일 수 있는 대상에 부착된 마커일 수 있다. 환자 마커(174)는 이와 같은 대상에 적어도 1개가 부착될 수 있다.According to one embodiment, to convert the position of the first imaging data on the first coordinate
제1 이미징 데이터의 제1 좌표계(1210)로부터 환자 마커(174)의 제3 좌표계(1220)로 좌표를 변환하는 제2 좌표 변환 관계는, (i) 제1 이미징 데이터의 제1 좌표계(1210)로부터 제2 이미징 데이터의 제2 좌표계(1240)로 좌표를 변환시키기 위한 제1 좌표 변환 관계와 (ii) 트래킹부(130)를 이용하여 얻은 촬상부(120)의 위치 및 자세를 이용하여 얻을 수 있다. 구체적으로, 도 13에 도시된 바와 같이, 제1 이미징 데이터의 제1 좌표계(1210) 상의 좌표가 제2 이미징 데이터의 제2 좌표계(1240) 상의 좌표, 촬상부(120)의 제5 좌표계(1250) 상의 좌표, 환자 마커(174)의 제3 좌표계(1220) 상의 좌표 순으로 변환되면, 제1 이미징 데이터의 제1 좌표계(1210)로부터 환자 마커(174)의 제3 좌표계(1220)로 좌표가 변환될 수 있다.The second coordinate transformation relationship for transforming the coordinates from the first coordinate
제2 이미징 데이터는, 정위수술이 진행되기 전 또는 정위수술이 진행되는 중에 촬상부(120)를 이용하여 생성될 수 있다. 일 실시예에 따르면, 제1 이미징 데이터가 나타내는 3차원 이미지와 제2 이미징 데이터가 나타내는 3차원 이미지 간의 이미지 정합을 이용하여, 제1 이미징 데이터의 제1 좌표계(1210)로부터 제2 이미징 데이터의 제2 좌표계(1240)로 좌표를 변환시키기 위한 제1 좌표 변환 관계가 생성될 수 있다. 제1 이미징 데이터가 나타내는 3차원 이미지와 제2 이미징 데이터가 나타내는 3차원 이미지 간의 이미지 정합은 양 이미지에 공통적으로 포함되어 있는 수술부위의 적어도 일부분을 이용하여 수행될 수 있다. 또 다른 실시예에 따르면, 동일한 기준마커에 관한 데이터를 포함하는 제1 이미징 데이터와 제2 이미징 데이터를 획득한 후, 이 기준마커를 이용하여 이미지 정합이 수행될 수 있다. 그 밖에도 알려진 다양한 이미지 정합 방법이 제1 좌표 변환 관계를 생성하는데 사용될 수 있다.The second imaging data may be generated using the
일 실시예에 따르면, 제2 이미징 데이터의 제2 좌표계(1240)로부터 촬상부(120) 의 제5 좌표계(1250)로 좌표를 변환시키기 위한 제4 좌표 변환 관계는 (i) 촬상부(120)의 광학계의 기준 좌표계로부터 촬상부(120)의 제5 좌표계(1250)로 좌표를 변환시키기 위한 좌표 변환 관계와 (ii) 제2 이미징 데이터의 제2 좌표계(1240)로부터 촬상부(120)의 광학계의 기준 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계를 이용하여 생성될 수 있다. According to one embodiment, the fourth coordinate transformation relation for transforming coordinates from the second coordinate
촬상부(120)의 제5 좌표계(1250)로부터 환자 마커(174)의 제3 좌표계(1220)로 좌표를 변환시키기 위한 제5 좌표 변환 관계는 (i) 촬상부(120)의 제5 좌표계(1250)로부터 트래킹부(130)의 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계와 (ii) 환자 마커(174)의 제3 좌표계(1220)로부터 트래킹부(130)의 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계를 이용하여 생성될 수 있다. The fifth coordinate transformation relation for converting the coordinates from the fifth coordinate
이때 촬상부(120)의 제5 좌표계(1250)로부터 트래킹부(130)의 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계 및 환자 마커(174)의 제3 좌표계(1220)로부터 트래킹부(130)의 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계는 트래킹부(130)를 이용하여 측정한 환자 마커(174) 및 촬상부 마커(170)의 위치 및 자세를 이용하여 생성될 수 있다.At this time, the coordinate conversion relationship for converting the coordinates from the fifth coordinate
환자 마커(174)의 제3 좌표계(1220)로부터 정위수술부(1)의 제4 좌표계(1230)로 좌표를 변환시키기 위한 제3 좌표 변환 관계는 (i) 정위수술부(1)의 원점에 둔 마커의 위치 및 자세와 (ii) 환자 마커(174)의 위치 및 자세를 이용하여 생성될 수 있다. 이때, 각 마커의 위치 및 자세는 트래킹부(130)를 이용하여 측정될 수 있다. 여기서, 정위수술부(1)의 원점은 정위수술부(1)의 회전축들의 교점으로 정의될 수 있다. 또 다른 실시예에 따르면, 제3 좌표 변환 관계는 환자 마커(174)가 부착된 위치와 정위수술부(1)의 원점의 위치가 일정하다는 점을 이용한 기하학적 연산(기구학적 연산)을 통해 생성될 수 있다.The third coordinate transformation relationship for converting the coordinates from the third coordinate
이상과 같이, 제1 이미징 데이터의 제1 좌표계(1210) 상의 좌표를 환자 마커(174)의 제3 좌표계(1220) 상의 좌표, 정위수술부(1)의 제4 좌표계(1230) 상의 좌표 순으로 변환하면, 제1 이미징 데이터의 제1 좌표계(1210) 상의 좌표로 표현된 수술타겟의 위치(1110) 및 수술도구의 진입 위치(1130)가 정위수술부(1)의 제4 좌표계(1230) 상의 좌표로 변환될 수 있다. 한편, 환자(160)가 움직이면, 이상과 같은 좌표 변환 관계들이 변하므로, 환자(160)는 움직이지 않도록 고정되어야 하고, 환자(160)가 움직이면 제어부(140)는 위 좌표 변환 관계들을 다시 획득할 수 있어야 한다.As described above, the coordinates on the first coordinate
일 실시예에 따르면, 본 발명의 정위수술부(1)는 제1 이미징 데이터가 나타내는 3차원 이미지를 구성하는 2차원 단면 이미지에 표시된 수술타겟의 위치 및/또는 수술도구의 진입 위치에 기초하여 제어될 수 있다. 도 14 내지 16는 각각 수술 전에 촬영된 수술부위의 축평면(axial plane), 시상면(sagittal plane) 및 관상면(coronal plane) 상에서의 2차원 단면 이미지이다. 제어부(140)는 제1 이미징 데이터로부터 이와 같은 2차원 단면 이미지를 추출하고, 이를 사용자 인터페이스(150)를 통해 사용자에게 시각화할 수 있다.According to one embodiment, the orthopedic
사용자는 사용자 인터페이스(150)를 통해 시각화된 2차원 단면 이미지에 수술타겟의 위치(1410, 1412) 및 수술도구의 진입 위치(1430, 1432)를 표시할 수 있다. 제어부(140)는 2차원 단면 이미지의 제6 좌표계(1260) 상에 표시된 수술타겟의 위치(1410, 1412) 및/또는 수술도구의 진입 위치(1430, 1432)를 정위수술부(1)의 제4 좌표계(1230) 상의 위치들로 변환한 후, 변환된 수술타겟의 위치에 따라 이동부(10)를 이동시킬 수 있다. 또한, 제어부(140)는 수술도구가, 변환된 수술타겟의 위치 및 수술도구의 진입 위치에 기초하여 결정된 수술도구의 진입 자세를 갖도록, 수술도구가 부착된 회전부(40)를 회전시킬 수 있다.The user can display the
도 12에 도시된 바와 같이, 2차원 단면 이미지의 제6 좌표계(1260) 상에 표시된 좌표들을 정위수술부(1)의 제4 좌표계(1230) 상의 좌표들로 변환하기 위해서, 2차원 단면 이미지의 제6 좌표계(1260) 상의 좌표는 (i) 제1 이미징 데이터 상의 제1 좌표계(1210) 상의 좌표, (ii) 환자 마커(174)의 제3 좌표계(1220) 상의 좌표, (iii) 정위수술부(1)의 제4 좌표계(1230) 상의 좌표 순으로 각각 변환될 수 있다.12, in order to convert the coordinates displayed on the sixth coordinate
그런데, 제1 좌표계(1210)로부터 제3 좌표계로 좌표를 변환시키기 위한 제2 좌표 변환 관계 및 제3 좌표계로부터 제4 좌표계로 좌표를 변환시키기 위한 제3 좌표 변환 관계는 앞서 설명한 실시예들을 통해 미리 생성될 수 있다. 따라서, 만약 사용자가 사용자 인터페이스(150)에 표시된 2차원 단면 이미지를 통해 정위수술부(1)를 제어하고 싶다면, 단순히 2차원 단면 이미지의 제6 좌표계(1260)로부터 제1 이미징 데이터의 제1 좌표계(1210)로 좌표를 변환시키기 위한 좌표 변환 관계만 생성함으로써, 정위수술부(1)가 제어될 수 있다.The third coordinate transformation relation for transforming the coordinates from the first coordinate
일 실시예에 따르면, 2차원 단면 이미지는 제1 이미징 데이터로부터 생성될 수 있으므로, 이 생성 관계에 기초하여 2차원 단면 이미지의 제6 좌표계(1260)로부터 제1 이미징 데이터의 제1 좌표계(1210)로 좌표를 변환시킬 수 있는 좌표 변환 관계가 생성될 수 있다.According to one embodiment, a two-dimensional cross-sectional image may be generated from the first imaging data, so that a first coordinate
한편, 제어부(140)는 정위수술부(1)에 부착된 수술도구를 이동 및/또는 회전시키기에 앞서, 수술도구의 초기 위치 및 자세를 파악할 필요가 있다. 일 실시예에 따르면, 수술도구의 위치 및 자세를 파악하기 위해서, 정위수술부(1)의 회전부(40) 중 수술도구에 가까운 곳에 정위수술부 마커(172)가 부착되고, 트래킹부(130)에 의해 정위수술부 마커(172)의 위치 및 자세가 측정될 수 있다. 다만, 정위수술부 마커(172)의 위치 및 자세는 트래킹부(130)의 좌표계 상에서의 위치 및 자세이다. 따라서, 제어부(140)는 트래킹부(130)의 좌표계 상에서의 정위수술부 마커(172)의 위치 및 자세를 정위수술부(1)의 제4 좌표계(1230) 상의 위치 및 자세로 변환한 후, 변환된 위치 및 자세에 기초하여 수술도구의 초기 위치 및 자세를 파악할 수 있다.Meanwhile, the
이상 설명한 바와 같이, 본 발명의 정위수술부(1)의 제어는 수술 전에 촬영된 CT나 MRI 이미지의 좌표계로부터 촬상부(120)를 이용하여 얻은 촬상부 이미지의 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계(제1 좌표 변환 관계)의 생성에서부터 시작된다. 이때 이 좌표 변환 관계는 이 두 이미지들 간의 이미지 정합을 통해 간단히 생성될 수 있다. 그런데 정위수술 중에 환자(160)가 불가피하게 움직이거나, 정위수술부(1)의 수술부위고정부(90)와 같은 구성이 움직여서 수술부위가 움직이면, 정위수술부(1)의 제어를 위한 조건이 모두 변경될 수 있다. 이러한 경우, 제어부(140)는 앞서 설명한 좌표 변환 관계들을 다시 획득할 수 있어야 한다. 본 발명의 경우, 정위수술 중에 이와 같은 움직임이 있더라도, 촬상부(120)를 통해 이미징 데이터만 다시 생성하면, 이 이미징 데이터가 나타내는 이미지와 CT나 MRI 이미지 간의 이미지 정합을 이용하여, 정위수술부(1)를 제어하기 위한 좌표 변환 관계들이 간단히 다시 생성될 수 있다. 따라서, 정위수술 중에 환자(160) 등의 움직임이 있더라도, 짧은 시간 내에 정위수술이 재개될 수 있다.As described above, the control of the stereotactic
또한, 종래에는 정위수술용 수술로봇의 위치가 일정하지 않으며, 수술 도중에도 움직일 수도 있기 때문에, 수술로봇의 현재 위치를 기준으로 수술로봇의 동작을 제어하기 위해서 수술로봇의 위치가 정확히 파악될 수 있어야 했다. 이를 위해, 종래에는 수술로봇의 베이스에 추가적인 마커가 부착되었고, 이를 이용하여 수술로봇의 위치가 파악될 수 있었다. 그러나 본 발명의 정위수술부(1)는 수술대(110)에 고정되어 사용되므로, 정위수술부(1)와 수술부위와의 위치 관계가 항상 일정하게 유지될 수 있고, 정위수술부(1)의 위치는 변하지 않는다. 따라서, 정위수술부(1)의 제어를 위한 위치를 파악할 필요가 없으므로, 본 발명에 따른 수술로봇 시스템(100)에 의하면, 종래와 같은 추가적인 마커의 사용이 불필요하며, 이로써 제어를 위한 연산량도 줄일 수 있다.In addition, since the position of the surgical robot for stereotactic surgery is not constant and can be moved during surgery, the position of the surgical robot can be accurately determined in order to control the operation of the surgical robot based on the current position of the surgical robot did. To this end, an additional marker has been attached to the base of the surgical robot in the past, and the position of the surgical robot can be grasped using this marker. However, since the orthopedic
도 17은 본 발명의 일 실시예에 따라 정위수술용 수술로봇 시스템에서 수술도구를 적어도 5 자유도로 이동 및 회전시키는 정위수술부를 제어하는 방법을 나타내는 흐름도이다. 17 is a flowchart illustrating a method of controlling a stereotactic surgery unit that moves and rotates a surgical tool in at least five degrees of freedom in a surgical robot system for stereotactic surgery according to an embodiment of the present invention.
먼저, 단계 S1710에서, 제어부는 수술타켓을 포함하는 수술부위의 3차원 이미지를 나타내는 제1 이미징 데이터를 수신할 수 있다. 예를 들어, 도 2를 참조하면, 제어부(140)는 수술 전에 촬영된 수술부위에 관한 3차원 이미지를 나타내는 이미징 데이터를 저장장치(180)로부터 수신할 수 있다. 제1 이미징 데이터는, 사용자 인터페이스(150)를 통해 시각화됨으로써, 수술타겟의 위치 및 수술도구의 진입 위치를 판단할 수 있는 자료로써 이용될 수 있다. 사용자 인터페이스(150)를 통해, 수술타겟의 위치 및 수술도구의 진입 위치가 입력되면, 제어부(140)는 입력된 수술타겟의 위치 및 수술도구의 진입 위치에 기초하여 정위수술부(1)를 제어할 수 있다.First, in step S1710, the control unit may receive the first imaging data representing the three-dimensional image of the surgical site including the surgical target. For example, referring to FIG. 2, the
단계 S1710에서 제어부(140)가 제1 이미징 데이터를 수신한 후, 단계 S1720에서, 촬상부는 수술부위의 외부의 3차원 이미지를 나타내는 제2 이미징 데이터를 생성할 수 있다. 예를 들어, 촬상부(120)는 두개골을 통해 수술도구가 진입할 위치의 3차원 이미지를 나타내는 제2 이미징 데이터를 생성할 수 있다. 일 실시예에 따르면, 제2 이미징 데이터는 패턴광 등을 이용한 위상천이 방식에 의해 생성될 수 있다.After the
단계 S1710 및 S1720을 통해 제1 및 제2 이미징 데이터가 준비된 후, 단계 S1730에서, 트래킹부는 촬상부, 및 수술부위에 부착되거나 근접하여 배치된 적어도 하나의 마커의 위치 및 자세를 트래킹할 수 있다. 예를 들어, 도 2를 참조하면, 트래킹부(130)는 촬상부(120)에 부착된 마커(170)를 트래킹함으로써, 촬상부(120)의 위치 및 자세를 트래킹할 수 있다. 또한, 트래킹부(130)는 환자 마커(174)의 위치 및 자세를 트래킹할 수 있다. 한편, 단계 S1710 내지 S1730은 제어부(140)가 정위수술부(1)의 제어를 위한 데이터를 획득하기 위한 과정이므로, 단계의 순서는 변경될 수 있으며, 각 단계가 병렬적으로 진행될 수도 있다.After the first and second imaging data are prepared through steps S1710 and S1720, in step S1730, the tracking unit may track the position and posture of the imaging unit and at least one marker attached to or close to the surgical site. For example, referring to FIG. 2, the
이와 같이, 정위수술부(1)의 제어를 위한 데이터가 준비된 후, 단계 S1740에서, 제어부는 제1 이미징 데이터의 제1 좌표계로부터 제2 이미징 데이터의 제2 좌표계로 좌표를 변환시키기 위한 제1 좌표 변환 관계를 생성할 수 있다. 일 실시예에 따르면, 제어부(140)가 제1 좌표 변환 관계를 생성하는 단계는, 제1 이미징 데이터가 나타내는 3차원 이미지와 제2 이미징 데이터가 나타내는 3차원 이미지 간의 이미지 정합을 통해, 제어부(140)가 제1 좌표 변환 관계를 생성하는 단계를 포함할 수 있다. 일 실시예에 따르면, 제어부(140)는 제1 이미징 데이터가 나타내는 3차원 이미지와 제2 이미징 데이터가 나타내는 3차원 이미지에 공통적으로 포함된 수술부위의 적어도 일부분을 이용하여 이미지 정합을 수행할 수 있다.After the data for control of the stereotactic
단계 S1740을 통해 제1 좌표 변환 관계가 생성된 후, 단계 S1750에서, 제어부는 제1 좌표 변환 관계와 촬상부 및 적어도 하나의 환자 마커의 위치 및 자세를 이용하여, 제1 좌표계로부터 적어도 하나의 마커의 제3 좌표계로 좌표를 변환시키기 위한 제2 좌표 변환 관계, 및 제3 좌표계로부터 정위수술부의 제4 좌표계로 좌표를 변환시키기 위한 제3 좌표 변환 관계를 생성할 수 있다. 예를 들어, 도 12를 참조하면, 제어부(140)는 제1 이미징 데이터의 제1 좌표계(1210)로부터 환자 마커(174)의 제3 좌표계(1220)로 좌표를 변환시키기 위한 제2 좌표 변환 관계, 및 환자 마커(174)의 제3 좌표계(1220)로부터 정위수술부(1)의 제4 좌표계(1230)로 좌표를 변환시키기 위한 제3 좌표 변환 관계를 생성할 수 있다.After the first coordinate transformation relationship is created in step S1740, in step S1750, the control unit uses the first coordinate transformation relation and the position and posture of the imaging unit and the at least one patient marker to calculate, from the first coordinate system, at least one marker And a third coordinate transformation relationship for transforming the coordinates from the third coordinate system to the fourth coordinate system of the stereotactic surgery section. 12, the
일 실시예에 따르면, 제어부(140)는 촬상부(120)의 위치 및 자세에 기초하여 제2 좌표 변환 관계를 생성할 수 있다. 도 18을 참조하여 구체적으로 살펴보면, 단계 S1751에서, 제어부는 촬상부의 위치 및 자세에 기초하여, 제2 좌표계로부터 촬상부의 제5 좌표계로 좌표를 변환시키기 위한 제4 좌표 변환 관계, 및 제5 좌표계로부터 제3 좌표계로 좌표를 변환시키기 위한 제5 좌표 변환 관계를 생성할 수 있다. 예를 들어, 도 13을 참조하면, 제어부(140)는 촬상부(120)의 위치 및 자세에 기초하여, 제2 이미징 데이터의 제2 좌표계(1240)로부터 촬상부(120)의 제5 좌표계(1250)로 좌표를 변환시키기 위한 제4 좌표 변환 관계, 및 촬상부(120)의 제5 좌표계(1250)로부터 환자 마커(174)의 제3 좌표계(1220)로 좌표를 변환시키기 위한 제5 좌표 변환 관계를 생성할 수 있다.According to one embodiment, the
일 실시예에 따르면, 제4 좌표 변환 관계는, (i) 촬상부(120)의 광학계의 기준 좌표계로부터 촬상부(120)의 제5 좌표계(1250)로 좌표를 변환시키기 위한 좌표 변환 관계와, (ii) 제2 이미징 데이터의 제2 좌표계(1240)로부터 촬상부(120)의 광학계의 기준 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계를 이용하여 생성될 수 있다. 일 실시예에 따르면, 제5 좌표 변환 관계는, (i) 촬상부(120)의 제5 좌표계(1250)로부터 트래킹부(130)의 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계와, (ii) 환자 마커(174)의 제3 좌표계(1220)로부터 트래킹부(130)의 좌표계로 좌표를 변환시키기 위한 좌표 변환 관계를 이용하여 생성될 수 있다.According to one embodiment, the fourth coordinate transformation relation includes (i) a coordinate transformation relationship for transforming coordinates from the reference coordinate system of the optical system of the
제4 좌표 변환 관계 및 제5 좌표 변환 관계가 생성되면, 단계 S1752에서, 제어부(140)는 제1 좌표 변환 관계, 제4 좌표 변환 관계 및 제5 좌표 변환 관계에 기초하여, 제2 좌표 변환 관계를 생성할 수 있다. 일 실시예에 따르면, 이와 같은 좌표 변환 관계는 좌표 변환 매트릭스의 형태로 표현될 수 있다. 따라서, 제2 좌표 변환 관계는 생성된 제1 좌표 변환 관계를 나타내는 매트릭스, 제4 좌표 변환 관계를 나타내는 매트릭스 및 제5 좌표 변환 관계를 나타내는 매트릭스를 이용한 연산을 통해 생성될 수 있다.When the fourth coordinate transformation relation and the fifth coordinate transformation relation are generated, in step S1752, on the basis of the first coordinate transformation relation, the fourth coordinate transformation relation and the fifth coordinate transformation relation, the
일 실시예에 따르면, 제3 좌표 변환 관계는 트래킹부(130)를 이용하여 획득할 수 있는 (i) 정위수술부(1)의 원점에 둔 마커의 위치 및 자세와 (ii) 적어도 하나의 마커(환자 마커)의 위치 및 자세를 이용하여 생성될 수 있다. 또 다른 실시예에 따르면, 제3 좌표 변환 관계는 환자 마커(174)가 부착된 위치와 정위수술부(1)의 원점의 위치가 일정하다는 점을 이용한 기하학적 연산(기구학적 연산)을 통해 생성될 수 있다.According to one embodiment, the third coordinate transformation relationship can be obtained by using (i) the position and orientation of the marker placed at the origin of the stereotactic
이와 같이 제2 좌표 변환 관계 및 제3 좌표 변환 관계들이 생성된 후, 단계 S1760에서, 제어부는 제2 좌표 변환 관계 및 제3 좌표 변환 관계를 이용하여 정위수술부를 제어할 수 있다. 구체적으로, 이하에서는 도 19를 참조하여 설명한다. 단계 S1710 내지 S1750을 통해 제2 좌표 변환 관계 및 제3 좌표 변환 관계가 생성되면, 사용자가 수술타겟의 위치 및 수술도구의 진입 위치를 입력할 수 있도록, 제어부는, 단계 S1761에서, 사용자 인터페이스를 통해, 제1 이미징 데이터를 시각화할 수 있다. 예를 들어, 도 2를 참조하면, 제어부(140)는 사용자 인터페이스(150)를 통해, 수술타켓을 포함하는 수술부위의 3차원 이미지를 나타내는 제1 이미징 데이터를 시각화할 수 있다.After the second coordinate transformation relation and the third coordinate transformation relations are generated as described above, in step S1760, the control unit can control the stereotactic surgery unit using the second coordinate transformation relation and the third coordinate transformation relation. More specifically, the following description will be made with reference to Fig. When the second coordinate transformation relation and the third coordinate transformation relation are generated through steps S1710 to S1750, the control unit, at step S1761, controls the user to input the position of the surgical target and the entry position of the surgical tool , The first imaging data can be visualized. For example, referring to FIG. 2, the
단계 S1761을 통해 제1 이미징 데이터가 시각화 되면, 사용자 인터페이스(150)를 통해, 수술타겟의 위치 및 수술도구의 진입 위치가 입력되어, 시각화된 이미지 상에 표시될 수 있다. 제어부는, 단계 S1762에서, 사용자 인터페이스를 통해 사용자가 입력한 수술타겟의 위치 및 수술도구의 진입 위치를 제1 좌표계 상의 좌표들로 변환할 수 있다. 예를 들어, 도 2를 참조하면, 제어부(140)는 사용자 인터페이스(150)를 통해 사용자가 입력한 수술타겟의 위치 및 수술도구의 진입 위치를 제1 이미징 데이터의 제1 좌표계(1210) 상의 좌표들로 변환할 수 있다.If the first imaging data is visualized through step S1761, the position of the surgical target and the entry position of the surgical tool can be input through the
이와 같이 사용자 인터페이스(150)를 통해 입력된 수술타겟의 위치 및 수술도구의 진입 위치가 제1 좌표계(1210) 상의 좌표들로 변환되면, 단계 S1763에서, 제어부는 제2 좌표 변환 관계 및 제3 좌표 변환 관계를 이용하여, 변환된 제1 좌표계 상의 좌표들을 정위수술부의 제4 좌표계 상의 좌표들로 변환할 수 있다. 예를 들어, 도 12를 참조하면, 제어부(140)는 제2 좌표 변환 관계 및 제3 좌표 변환 관계를 이용하여, 제1 이미징 데이터의 제1 좌표계(1210) 상의 수술타켓의 좌표 및 수술도구의 진입 위치의 좌표를 정위수술부(1)의 제4 좌표계(1230) 상의 좌표들로 변환할 수 있다.When the position of the surgical target and the entry position of the surgical tool input through the
이와 같이 제1 이미징 데이터의 제1 좌표계(1210) 상의 수술타겟의 좌표와 수술도구의 진입 위치의 좌표가 정위수술부(1)의 제4 좌표계(1230) 상의 좌표들로 변환된 후, 단계 S1764에서, 제어부는 변환된 제4 좌표계 상의 좌표들에 기초하여 수술도구의 진입 자세를 결정할 수 있다. 예를 들어, 제어부(140)는 수술도구의 진입 위치로부터 수술타겟의 위치로 수술도구가 이동할 수 있도록, 수술도구의 진입 자세를 결정할 수 있다.After the coordinates of the surgical target on the first coordinate
이후, 단계 S1765에서, 제어부는 제3 좌표계 상에서 수술타겟의 위치에 대응하는 좌표가 회전부의 2개의 회전축의 교차점에 위치하도록 이동부를 통해 회전부를 이동시킬 수 있다. 예를 들어, 도 4 및 5를 참조하면, 제어부(140)는 정위수술부(1)의 제4 좌표계(1230) 상에서, 수술타겟의 위치에 대응하는 좌표가 회전부(40)의 2개의 회전축(43, 45)의 교차점에 위치하도록 이동부(10)를 통해 이동부(10)에 부착된 회전부(40)를 이동시킬 수 있다.Thereafter, in step S1765, the control unit may move the rotating unit through the moving unit so that the coordinates corresponding to the position of the surgical target on the third coordinate system are located at the intersections of the two rotational axes of the rotating unit. 4 and 5, the
또한, 제어부는, 단계 S1766에서, 수술도구가, 결정된 수술도구의 진입 자세를 갖도록 회전부를 통해 수술도구를 회전시킬 수 있다. 예를 들어, 도 5를 참조하면, 제어부(140)는 수술도구(50)가 결정된 수술도구(50)의 진입 자세를 갖도록, 회전부(40)를 통해 회전부(40)에 부착된 수술도구(50)를 회전시킬 수 있다. 이와 같이, 본 발명에서 제어부(140)는 이동부(10) 및 회전부(40)를 각각 독립적으로 제어할 수 있다.Further, in step S1766, the control unit may rotate the surgical tool through the rotating part so that the surgical tool has the determined attitude of the surgical tool. 5, the
상기 방법은 특정 실시예들을 통하여 설명되었지만, 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Although the method has been described through particular embodiments, the method may also be implemented as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the above embodiments can be easily deduced by programmers of the present invention.
본 명세서에서는 본 발명이 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 당업자가 이해할 수 있는 본 발명의 정신 및 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.Although the present invention has been described in connection with some embodiments thereof, it should be understood that various changes and modifications may be made therein without departing from the spirit and scope of the invention as understood by those skilled in the art. something to do. It is also contemplated that such variations and modifications are within the scope of the claims appended hereto.
1: 정위수술부
10: 이동부
11: 고정단
12: 제1 방향 구동부
14: 제2 방향 구동부
16: 제3 방향 구동부
40: 회전부
42: 제1 회전 구동부
43: 제1 회전축
44: 제2 회전 구동부
45: 제2 회전축
46: 홀더
50: 수술도구
70: 수술부위지지부
72: 연결부
73: 연결부재
74: 높이조절부
75: 각도조절부
78: 수술대고정부
79: 클램핑부
90: 수술부위고정부
92: 횡방향 수술부위고정프레임
93: 종방향 수술부위고정프레임
94: 수술부위고정핀
95: 절연수단
110: 수술대
120: 촬상부
130: 트래킹부
131: 제2 렌즈
132: 결상소자
140: 제어부
150: 사용자 인터페이스
170, 172, 174, 910: 마커
911: 패턴면
912: 제1 렌즈1: orthopedic surgery part 10: moving part
11: fixed end 12: first direction driver
14: second direction driver 16: third direction driver
40: rotation part 42: first rotation drive part
43: first rotating shaft 44: second rotating driving part
45: second rotating shaft 46: holder
50: surgical tool 70: surgical site support
72: connecting portion 73: connecting member
74: height adjusting portion 75: angle adjusting portion
78: surgical restraint 79: clamping part
90: Surgical site fixing part 92: Lateral surgical site fixing frame
93: longitudinal suture site fixation frame 94: surgical site fixation pin
95: insulating means 110: operating table
120: image pickup unit 130: tracking unit
131: second lens 132: imaging element
140: control unit 150: user interface
170, 172, 174, 910: Marker 911: pattern surface
912: first lens
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180102578A KR20180100514A (en) | 2018-08-30 | 2018-08-30 | Surgical robot system for stereotactic surgery |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180102578A KR20180100514A (en) | 2018-08-30 | 2018-08-30 | Surgical robot system for stereotactic surgery |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180039310A Division KR101895369B1 (en) | 2018-04-04 | 2018-04-04 | Surgical robot system for stereotactic surgery |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180100514A true KR20180100514A (en) | 2018-09-11 |
Family
ID=63596363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180102578A KR20180100514A (en) | 2018-08-30 | 2018-08-30 | Surgical robot system for stereotactic surgery |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180100514A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200132120A (en) * | 2019-05-15 | 2020-11-25 | 고려대학교 산학협력단 | System for creating model of anatomical structure and system for guiding medical tool comprising the same |
-
2018
- 2018-08-30 KR KR1020180102578A patent/KR20180100514A/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200132120A (en) * | 2019-05-15 | 2020-11-25 | 고려대학교 산학협력단 | System for creating model of anatomical structure and system for guiding medical tool comprising the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101848027B1 (en) | Surgical robot system for stereotactic surgery and method for controlling a stereotactic surgery robot | |
KR101861176B1 (en) | Surgical robot for stereotactic surgery and method for controlling a stereotactic surgery robot | |
JP4822634B2 (en) | A method for obtaining coordinate transformation for guidance of an object | |
US11737696B2 (en) | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices | |
CN113491578B (en) | Method of registering medical images to a ring-arc assembly | |
KR20160069180A (en) | CT-Robot Registration System for Interventional Robot | |
KR101895369B1 (en) | Surgical robot system for stereotactic surgery | |
JP7323489B2 (en) | Systems and associated methods and apparatus for robotic guidance of a guided biopsy needle trajectory | |
CN209826968U (en) | Surgical robot system | |
KR20180100514A (en) | Surgical robot system for stereotactic surgery | |
CN112237477B (en) | Fracture reduction closed operation positioning navigation device | |
Wörn | Computer-and robot-aided head surgery | |
KR20200039389A (en) | Surgical robot system for stereotactic surgery and method for controlling a stereotactic surgery robot | |
US20200297451A1 (en) | System for robotic trajectory guidance for navigated biopsy needle, and related methods and devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent |