[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20110047929A - Surgical robot system and motion restriction control method thereof - Google Patents

Surgical robot system and motion restriction control method thereof Download PDF

Info

Publication number
KR20110047929A
KR20110047929A KR1020090114651A KR20090114651A KR20110047929A KR 20110047929 A KR20110047929 A KR 20110047929A KR 1020090114651 A KR1020090114651 A KR 1020090114651A KR 20090114651 A KR20090114651 A KR 20090114651A KR 20110047929 A KR20110047929 A KR 20110047929A
Authority
KR
South Korea
Prior art keywords
image
information
manipulation
area
surgical robot
Prior art date
Application number
KR1020090114651A
Other languages
Korean (ko)
Other versions
KR101683057B1 (en
Inventor
최승욱
이민규
Original Assignee
주식회사 이턴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이턴 filed Critical 주식회사 이턴
Priority to KR1020090114651A priority Critical patent/KR101683057B1/en
Priority to PCT/KR2010/006662 priority patent/WO2011040769A2/en
Publication of KR20110047929A publication Critical patent/KR20110047929A/en
Application granted granted Critical
Publication of KR101683057B1 publication Critical patent/KR101683057B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/04Surgical instruments, devices or methods, e.g. tourniquets for suturing wounds; Holders or packages for needles or suture materials
    • A61B17/0469Suturing instruments for use in minimally invasive surgery, e.g. endoscopic surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1613Component parts
    • A61B17/1626Control means; Display units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/28Surgical forceps
    • A61B17/29Forceps for use in minimally invasive surgery
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00292Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery mounted on or guided by flexible, e.g. catheter-like, means
    • A61B2017/003Steerable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/28Surgical forceps
    • A61B17/29Forceps for use in minimally invasive surgery
    • A61B2017/2926Details of heads or jaws
    • A61B2017/2927Details of heads or jaws the angular position of the head being adjustable with respect to the shaft
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Graphics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE: A surgical robot system and a method for limiting the operation of the same are provided to secure the safety of a patient in an operation by preventing the mis-manipulation of robot arm and/or instruments. CONSTITUTION: A limiting section setting part(350) receives limiting section setting information with respect to the limiting section of the manipulation with respect to a target, and the coordinate information with respect to the limiting section is generated. An arm manipulating part(360) receives manipulating information for manipulating the target. A manipulation verifying part(370) verifies the contact of the coordinate information and the external surface of the target referring to the displacement information of the target.

Description

수술 로봇 시스템 및 그 동작 제한 방법{Surgical robot system and motion restriction control method thereof}Surgical robot system and motion restriction control method

본 발명은 수술에 관한 것으로서, 더욱 상세하게는 수술 로봇 시스템 및 그 동작 제한 방법에 관한 것이다.The present invention relates to surgery, and more particularly to a surgical robot system and a method of limiting its operation.

수술 로봇은 의사에 의해 시행되던 수술 행위를 대신할 수 있는 기능을 가지는 로봇을 말한다. 이러한 수술 로봇은 사람에 비하여 정확하고 정밀한 동작을 할 수 있으며 원격 수술이 가능하다는 장점을 가진다.A surgical robot refers to a robot having a function that can replace a surgical operation performed by a doctor. Such a surgical robot has the advantage of being capable of accurate and precise operation and remote surgery compared to humans.

현재 전세계적으로 개발되고 있는 수술 로봇은 뼈 수술 로봇, 복강경(復腔鏡) 수술 로봇, 정위 수술 로봇 등이 있다. 여기서 복강경 수술 로봇은 복강경과 소형 수술도구를 이용하여 최소 침습적 수술을 시행하는 로봇이다.Surgical robots currently being developed worldwide include bone surgery robots, laparoscopic surgery robots, and stereotactic surgery robots. The laparoscopic surgical robot is a robot that performs minimally invasive surgery using a laparoscope and a small surgical tool.

복강경 수술은 배꼽 부위에 1cm 정도의 구멍을 뚫고 배 안을 들여다보기 위한 내시경인 복강경을 집어넣은 후 수술하는 첨단 수술기법으로서 향후 많은 발전이 기대되는 분야이다.Laparoscopic surgery is an advanced surgical technique that involves surgery after inserting a laparoscope, which is an endoscope for looking into the belly with a hole about 1 cm in the navel area, and is expected to be developed in the future.

최근의 복강경은 컴퓨터칩이 장착되어 육안으로 보는 것보다도 더 선명하면 서도 확대된 영상을 얻을 수 있으며, 또 모니터를 통해 화면을 보면서 특별히 고안된 복강경용 수술 기구들을 사용하면 어떠한 수술도 가능할 정도로 발전되었다.Recent laparoscopic cameras are equipped with a computer chip to provide a clearer and enlarged image than can be seen with the naked eye, and by using a specially designed laparoscopic surgical instruments while viewing the screen through the monitor has been developed enough to be able to perform any operation.

더욱이 복강경 수술은 그 수술 범위가 개복 수술과 거의 같으면서도, 개복수술에 비해 합병증이 적고, 시술 후 훨씬 빠른 시간 안에 치료를 시작할 수 있으며, 수술 환자의 체력이나 면역기능을 유지시키는 능력이 우수한 이점이 있다. 이로 인해 미국과 유럽 등지에서는 대장암 치료 등에 있어서는 복강경 수술이 점차 표준 수술로 인식되어 가는 추세이다.Moreover, laparoscopic surgery has the same range of surgery as laparotomy, but has fewer complications than laparotomy, and can start treatment much faster after the procedure, and it has the advantage of maintaining the stamina or immune function of the patient. have. As a result, laparoscopic surgery is increasingly recognized as a standard surgery for treating colorectal cancer in the US and Europe.

수술 로봇 시스템은 일반적으로 마스터 로봇과 슬레이브 로봇으로 구성된다. 수술자가 마스터 로봇에 구비된 조종기(예를 들어 핸들)를 조작하면, 슬레이브 로봇의 로봇 암에 결합되거나 로봇 암이 파지하고 있는 수술도구가 조작되어 수술이 수행된다.The surgical robot system generally consists of a master robot and a slave robot. When the operator manipulates a manipulator (for example, a handle) provided in the master robot, a surgical tool coupled to the robot arm of the slave robot or held by the robot arm is operated to perform surgery.

즉, 수술 로봇 시스템에는 복수의 수술용 인스트루먼트가 장착되며, 수술 로봇 시스템에 대한 수술자의 조작에 따라 각 인스트루먼트가 수술에 필요한 동작을 하게 된다. 수술 과정에서 수술자가 조작하고 있는 인스트루먼트는 수술자의 조작에 의해 제어되지만, 수술자가 조작하고 있지 않은 인스트루먼트, 특히 사용자 조작 화면에 보이지 않는(즉, 가시외(可視外) 영역에 위치하는) 인스트루먼트의 경우, 수술자의 의도와 다른 조작에 의해 불필요한 동작이 수행될 가능성이 있다.That is, the surgical robot system is equipped with a plurality of surgical instruments, each instrument performs the operation necessary for the operation in accordance with the operator's operation on the surgical robot system. Instruments operated by the operator during the operation are controlled by the operator, but are not operated by the operator, especially those that are not visible on the user's operation screen (i.e., located in an out-of-visible area). However, there is a possibility that unnecessary operations may be performed by operations other than the intention of the operator.

이처럼, 수술자가 의도하지 않은 방식으로 인스트루먼트가 조작됨으로써, 로봇 본체나 인접한 인스트루먼트에 충돌하는 경우가 있을 수 있으며, 수술 중인 환자의 혈관이나 조직 등에 손상이나 상해를 입힐 가능성도 배제할 수 없다.As such, by operating the instrument in an unintended manner, the operator may collide with the robot body or an adjacent instrument, and the possibility of causing damage or injury to blood vessels or tissues of the patient under surgery cannot be excluded.

본 발명은 정상적인 수술이 이루어지도록 수술자가 의도하는 방식으로만 인스트루먼트가 제어되도록 하는 수술 로봇 시스템 및 그 동작 제한 방법을 제공하기 위한 것이다.It is an object of the present invention to provide a surgical robot system and an operation limiting method thereof in which an instrument is controlled only in a manner in which the operator intends to perform normal surgery.

또한 본 발명은 로봇 암 및/또는 인스트루먼트에 대한 오조작을 근본적으로 방지함으로써 수술중인 환자의 안전을 도모할 수 있는 수술 로봇 시스템 및 그 동작 제한 방법을 제공하기 위한 것이다.It is another object of the present invention to provide a surgical robot system and a method of limiting its operation, which can promote safety of a patient under surgery by fundamentally preventing misoperation of a robot arm and / or an instrument.

본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Technical problems other than the present invention will be easily understood through the following description.

본 발명의 일 측면에 따르면, 수술용 로봇으로서, 제어 대상 물체의 조작이 제한되는 구역에 대한 제한구역 설정 정보를 입력받아 제한구역 좌표 정보를 생성하여 저장하는 제한구역 설정부와, 제어 대상 물체의 조작을 위한 조작정보를 입력받는 암 조작부와, 조작정보에 따른 제어 대상 물체의 변위 정보를 참조하여 제어 대상 물체의 외부면이 제한구역 좌표 정보에 접촉되었는지 여부를 판단하는 조작 판단부를 포함하되, 여기서 제어 대상 물체는 로봇 암, 인스트루먼트 및 내시경 중 하나 이상인 것을 특징으로 하는 수술용 로봇이 제공된다.According to an aspect of the present invention, as a surgical robot, a restricted area setting unit for receiving the restricted area setting information for the area to which the operation of the controlled object is restricted and generating and storing the restricted area coordinate information, An arm operation unit for receiving operation information for the operation and an operation determination unit for determining whether the outer surface of the control object is in contact with the coordinate information of the restricted area by referring to the displacement information of the control object according to the operation information, wherein Surgical robot is provided, characterized in that the controlled object is at least one of a robot arm, an instrument and an endoscope.

제어 대상 물체의 외부면이 제한구역 좌표 정보에 접촉되는 경우, 제어 대상 물체가 조작 제한되도록 제어하고, 이에 상응하도록 반응정보가 출력되도록 제어하는 제어부가 더 포함될 수 있다. 여기서, 반응정보는 촉각정보, 시각정보 및 청각정보 중 하나 이상일 수 있다.When the outer surface of the object to be controlled is in contact with the coordinate information of the restricted area, the controller may further control to control the object to be controlled, and control to output the response information accordingly. Here, the reaction information may be one or more of tactile information, visual information, and auditory information.

제어부는, 제어 대상 물체의 외부면이 제한구역 좌표 정보에 접촉되는 경우 제어 대상 물체가 조작 제한되도록 할지 여부를 결정한 후, 제어 대상 물체가 조작 제한되도록 결정한 경우에만 제어 대상 물체가 조작 제한되도록 제어할 수 있다.The controller may determine whether to control the control object when the outer surface of the control object is in contact with the coordinate information of the restricted area, and then control the control object to be restricted only when the control object is determined to be restricted. Can be.

또한, 제한구역 설정무시 명령을 입력받기 위한 입력부가 더 포함되는 경우, 제어부는 제한구역 설정무시 명령이 입력되면, 제어 대상 물체의 조작이 허용되도록 처리할 수도 있다.In addition, when the input unit for receiving the command to ignore the restricted area setting is further included, the controller may process to allow the manipulation of the object to be controlled when the restricted area setting ignore command is input.

제한구역 좌표 정보는 영상 이미지가 표시되는 터치 감응 스크린을 이용하여 입력된 폐곡선에 상응하는 좌표 범위 정보일 수도 있다.The restricted area coordinate information may be coordinate range information corresponding to a closed curve input using a touch-sensitive screen on which a video image is displayed.

영상 이미지는 내시경에 의해 획득된 영상 이미지, CT 영상 이미지, MRI 영상 이미지 및 인체 모델링 영상 이미지 중 하나 이상일 수 있다.The image image may be one or more of an image image obtained by an endoscope, a CT image image, an MRI image image, and a human modeling image image.

제한구역 좌표 정보는 내시경에 의해 획득된 영상 이미지에 표시되지 않는 영역의 좌표 범위 정보일 수도 있다.The restricted area coordinate information may be coordinate range information of an area that is not displayed in the video image obtained by the endoscope.

내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상일 수 있다.The endoscope may be one or more of laparoscopic, thoracoscopic, arthroscopic, parenteral, bladder, rectal, duodenum, mediastinal, cardiac.

제한구역 좌표 정보는 암 조작부의 조작 정보에 의해 제어 대상 물체가 조작된 위치들 중 제한구역 설정정보로서 지정받은 위치들에 의해 형성되는 도형의 좌 표 범위 정보일 수도 있다.The restricted area coordinate information may be coordinate range information of a figure formed by positions designated as restricted area setting information among positions at which the object to be controlled is manipulated by the operation information of the arm operating unit.

제어 대상 물체는 3차원 공간상에서 조작되고, 지정받은 위치들은 각각 3차원 공간상에서 도형의 외곽선 또는 외곽면을 형성하도록 지정된 포인트일 수 있다.The object to be controlled is manipulated in three-dimensional space, and the designated positions may be points designated to form an outline or an outer surface of a figure in three-dimensional space, respectively.

수술용 로봇은, 암 조작부의 조작에 의해 각 제어 대상 물체의 조작 허용 여부에 대한 조작 설정 정보를 생성하여 저장하는 암 조작 설정부를 더 포함할 수도 있다. 여기서, 조작 판단부는 임의의 조작 대상 물체에 대한 조작정보가 유효한 조작정보인지 여부를 더 판단할 수 있다.The surgical robot may further include an arm manipulation setting unit configured to generate and store manipulation setting information on whether to allow manipulation of each control object by manipulation of the arm manipulation unit. Here, the manipulation determination unit may further determine whether the manipulation information for any manipulation object is valid manipulation information.

본 발명의 다른 측면에 따르면, 수술용 로봇의 동작 제한 방법으로서, 제어 대상 물체의 조작이 제한되는 구역에 대한 제한구역 설정 정보를 입력받아 제한구역 좌표 정보를 생성하여 저장하는 단계와, 제어 대상 물체의 조작을 위한 조작정보를 입력받는 단계와, 조작정보에 따른 제어 대상 물체의 변위 정보를 참조하여 제어 대상 물체의 외부면이 제한구역 좌표 정보에 접촉되었는지 여부를 판단하는 단계와, 제어 대상 물체의 외부면이 제한구역 좌표 정보에 접촉되는 경우 제어 대상 물체가 조작 제한되도록 제어하는 단계를 포함하되, 제어 대상 물체는 로봇 암, 인스트루먼트 및 내시경 중 하나 이상인 것을 특징으로 하는 수술용 로봇의 동작 제한 방법이 제공된다.According to another aspect of the present invention, a method for limiting the operation of a surgical robot, the method comprising: receiving and receiving restricted zone setting information for a zone in which manipulation of a controlled object is restricted, generating and storing restricted zone coordinate information, and a controlled object; Receiving operation information for the operation of the controller; determining whether the outer surface of the control object is in contact with the coordinate information of the restricted area by referring to the displacement information of the control object according to the operation information; And controlling the controlled object to be restricted in operation when the outer surface contacts the limited area coordinate information, wherein the controlled object is one or more of a robot arm, an instrument, and an endoscope. Is provided.

제어하는 단계는, 제어 대상 물체의 외부면이 제한구역 좌표 정보에 접촉되는 경우 제어 대상 물체가 조작 제한되도록 할지 여부를 결정하는 단계와, 제어 대상 물체가 조작 제한되도록 결정한 경우 제어 대상 물체가 조작 제한되도록 제어하 는 단계를 포함할 수 있다. The controlling may include determining whether to control the control object when the external surface of the control object is in contact with the restricted area coordinate information, and when the control object is determined to be restricted to control. The control may include a control step.

결정하는 단계는, 제한구역 설정무시 명령이 입력되었는지 여부를 판단하여 제어 대상 물체가 조작 제한되도록 할지 여부를 결정할 수 있다.In the determining step, it may be determined whether a command to ignore the restricted area setting is input or not to control the controlled object.

제어하는 단계는, 제어 대상 물체의 외부면이 제한구역 좌표 정보에 접촉되는 경우 반응정보가 출력되도록 제어하는 단계를 포함할 수 있다.The controlling may include controlling the response information to be output when the outer surface of the object to be controlled is in contact with the coordinate information of the restricted area.

수술용 로봇의 동작 제한 방법은, 암 조작부의 조작에 의해 각 제어 대상 물체의 조작 허용 여부에 대한 조작 설정 정보를 생성하여 저장하는 단계와, 임의의 조작 대상 물체에 대한 조작정보가 유효한 조작정보인지 여부를 판단하는 단계를 더 포함할 수도 있다.The operation limiting method of the surgical robot includes generating and storing operation setting information on whether to allow operation of each control target object by operation of the arm operating unit, and whether the operation information for any operation target object is valid operation information. The method may further include determining whether or not.

만일 조작정보가 유효하지 않은 조작정보인 경우, 반응정보가 출력되도록 제어하는 단계가 더 포함될 수도 있다.If the manipulation information is invalid manipulation information, the method may further include controlling the reaction information to be output.

본 발명의 또 다른 측면에 따르면, 수술용 로봇으로서, 내시경에 의해 획득되어 제공되는 영상 이미지를 디스플레이하는 표시부와, 제어 대상 물체의 조작을 위한 조작정보를 입력받는 암 조작부와, 제어 대상 물체가 이동된 위치들 중 포인트 지정 명령이 입력된 복수의 위치들을 외곽선에 포함하는 영역에 상응하는 영역 이미지가 영상 이미지에 오버레이되어 디스플레이되도록 제어하는 제어부를 포함하되, 제어 대상 물체는 로봇 암, 인스트루먼트 및 내시경 중 하나 이상인 것을 특징으로 하는 수술용 로봇이 제공된다.According to another aspect of the invention, as a surgical robot, a display unit for displaying an image image obtained and provided by the endoscope, an arm operation unit for receiving the operation information for the operation of the controlled object, the control object is moved It includes a control unit for controlling to display the area image corresponding to the area including the plurality of points of the point input command inputted in the outline to the image image is overlaid on the image image, the object to be controlled includes: robot arm, instrument and endoscope There is provided a surgical robot, characterized in that at least one.

영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 분할 명령의 입력에 의해, 영역 이미지는 둘 이상의 개별 영역들로 분할될 수 있다.By inputting a point designation command and a segmentation command for two or more positions defining a boundary line connected to segment the region image, the region image can be divided into two or more separate regions.

영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 접기 명령의 입력에 의해, 경계선을 기준으로 하나 이상의 개별 영역이 다른 하나 이상의 개별 영역쪽으로 회전 이동되어 중첩되도록 영역 이미지가 디스플레이될 수 있다.By inputting a point designation command and a folding command to two or more locations that define a boundary line that is connected to segment the area image, the area image is rotated and overlapped with respect to the other one or more individual areas by the input of a point designation command and a folding command. Can be displayed.

복원 명령의 입력에 의해 경계선을 기준으로 회전 이동되어 중첩 표시된 개별 영역이 원위치로 복귀된 영역 이미지가 디스플레이될 수 있다.The region image may be displayed by rotating and shifting the overlapping individual regions returned to their original positions by input of the restoration command.

영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 삭제 명령의 입력에 의해, 하나 이상의 개별 영역이 삭제 처리될 수 있다.One or more individual areas may be erased by inputting a point designation command and a delete command for two or more locations that define a boundary line connected to divide the area image.

영역 이미지의 외곽선 및 외곽면은 점들의 연속으로 인식되고, 어느 하나의 점에 대한 포인트 지정 및 이동 명령에 의해, 영역 이미지는 변형 처리될 수 있다.The outline and the outer surface of the area image are recognized as a series of points, and by the point designation and movement command for any one point, the area image can be transformed.

영역 이미지에 상응하도록 추출된 좌표 범위가 제한구역 또는 허용구역으로 설정될 수 있다.The coordinate range extracted to correspond to the area image may be set as a restricted area or allowed area.

영역 이미지에 상응하도록 추출된 좌표 범위가 제한구역으로 설정된 경우, 조작정보에 따른 제어 대상 물체의 변위 정보를 참조하여 제어 대상 물체의 외부면이 좌표 범위에 접촉되었는지 여부를 판단하는 조작 판단부가 더 포함될 수 있다.If the coordinate range extracted to correspond to the area image is set as the restricted area, an operation determination unit for determining whether the outer surface of the control object is in contact with the coordinate range by referring to the displacement information of the control object according to the operation information is further included. Can be.

제어부는 제어 대상 물체의 외부면이 좌표 범위에 접촉된 경우, 제어 대상 물체가 조작 제한되도록 제어하고, 이에 상응하도록 반응정보가 출력되도록 제어할 수 있다.When the external surface of the object to be controlled is in contact with the coordinate range, the controller may control the object to be controlled to be restricted, and may control the response information to be output accordingly.

암 조작부의 조작에 의해 각 제어 대상 물체의 조작 허용 여부에 대한 조작 설정 정보를 생성하여 저장하는 암 조작 설정부가 더 포함될 수 있고, 조작 판단부는 임의의 제어 대상 물체에 대한 조작정보가 유효한 조작정보인지 여부를 더 판단할 수 있다.The arm operation setting unit may further include an arm operation setting unit for generating and storing operation setting information on whether to allow operation of each control target object by an operation of the arm operation unit, and the operation determination unit may determine whether the operation information for any control target object is valid operation information. It can be further judged.

본 발명의 또 다른 측면에 따르면, 수술용 로봇의 영역 설정 방법으로서, 내시경에 의해 획득되어 제공되는 영상 이미지를 디스플레이하는 단계와, 제어 대상 물체의 조작을 위한 조작정보를 입력받는 단계와, 제어 대상 물체가 이동된 위치들 중 포인트 지정 명령이 입력된 복수의 위치들을 외곽선에 포함하는 영역에 상응하는 영역 이미지가 영상 이미지에 오버레이되어 디스플레이되도록 제어하는 단계를 포함하되, 제어 대상 물체는 로봇 암, 인스트루먼트 및 내시경 중 하나 이상이고, 영역 이미지에 상응하도록 추출된 좌표 범위가 제한구역 또는 허용구역으로 설정되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법이 제공된다.According to still another aspect of the present invention, there is provided a method for setting a region of a surgical robot, the method comprising: displaying an image image obtained and provided by an endoscope; receiving operation information for manipulation of a controlled object; And controlling a region image corresponding to a region including a plurality of positions where a point designation command is input among the positions to which the object is moved is overlaid on the video image to be displayed, wherein the object to be controlled includes a robot arm and an instrument. And at least one of endoscopes, and a coordinate range extracted to correspond to an area image is set to a restricted area or an allowable area.

본 발명의 또 다른 측면에 따르면, 수술용 로봇으로서, 내시경에 의해 획득되어 제공되는 영상 이미지를 디스플레이하는 표시부와, 인체 모델링 정보 및 이에 상응하는 모델링 데이터를 저장하는 저장부와, 획득된 하나 이상의 장기에 대한 장기 선택 정보에 상응하는 모델링 데이터를 추출하고, 모델링 데이터에 상응하는 영역 이미지가 영상 이미지에 오버레이되어 디스플레이되도록 제어하는 제어부를 포 함하되, 모델링 데이터는 장기의 색상, 형상, 크기 중 하나 이상의 정보를 포함하는 것을 특징으로 하는 수술용 로봇이 제공된다.According to another aspect of the present invention, a surgical robot, a display unit for displaying an image image obtained and provided by the endoscope, a storage unit for storing the human body modeling information and the corresponding modeling data, and obtained one or more organs And a control unit for extracting modeling data corresponding to organ selection information for and controlling an image of an area corresponding to the modeling data to be overlaid on the image image, wherein the modeling data includes at least one of color, shape, and size of the organ. A surgical robot is provided that includes information.

인체 모델링 정보 및 모델링 데이터는 CT 영상, MRI 영상 중 하나 이상인 참조 영상을 이용하여 생성될 수 있다.Human body modeling information and modeling data may be generated using a reference image that is one or more of a CT image and an MRI image.

장기 선택 정보는 모델링 데이터 중 영상 이미지에 대한 영상 인식에 의해 인식된 장기의 형상 및 색상 중 하나 이상에 상응하는 장기로 선택 지정될 수 있다.The organ selection information may be selectively designated as an organ corresponding to one or more of the shape and color of the organ recognized by the image recognition of the image image among the modeling data.

로봇 암, 인스트루먼트 및 내시경 중 하나 이상을 포함하는 제어 대상 물체의 조작을 위한 조작정보를 입력받는 암 조작부가 더 포함되는 경우, 조작정보에 의해 장기의 위치 변동, 모양 변화 중 하나 이상이 발생되면, 장기의 외곽선에 상응하도록 영역 이미지가 변형 처리될 수 있다.When the arm operation unit further receives operation information for manipulation of the controlled object including one or more of the robot arm, the instrument, and the endoscope, when one or more of the position change or shape change of the organ is generated by the operation information, The region image may be deformed to correspond to the outline of the organ.

본 발명의 또 다른 측면에 따르면, 수술용 로봇의 영역 설정 방법으로서, 인체 모델링 정보 및 이에 상응하는 모델링 데이터를 저장하는 단계와, 내시경에 의해 획득되어 제공되는 영상 이미지를 디스플레이하는 단계와, 획득된 하나 이상의 장기에 대한 장기 선택 정보에 상응하는 모델링 데이터를 추출하고, 모델링 데이터에 상응하는 영역 이미지가 영상 이미지에 오버레이되어 디스플레이되도록 제어하는 단계를 포함하되, 모델링 데이터는 장기의 색상, 형상, 크기 중 하나 이상의 정보를 포함하는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법이 제공된다.According to still another aspect of the present invention, there is provided a method for setting a region of a surgical robot, the method comprising: storing human modeling information and corresponding modeling data, displaying an image image obtained and provided by an endoscope, and Extracting modeling data corresponding to organ selection information for one or more organs, and controlling the area image corresponding to the modeling data to be overlaid and displayed on the image image, wherein the modeling data includes the color, shape, and size of the organs. There is provided a method for setting a region of a surgical robot comprising one or more information.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 정상적인 수술이 이루어지도록 수술자가 의도하는 방식으로만 인스트루먼트가 제어되도록 하는 효과가 있다.According to an embodiment of the present invention, there is an effect that the instrument is controlled only in the manner in which the operator intends to perform normal surgery.

또한 로봇 암 및/또는 인스트루먼트에 대한 오조작이 근본적으로 방지됨으로써 수술중인 환자의 안전을 도모할 수 있는 효과도 있다.In addition, there is an effect to prevent the operation of the robot arm and / or instrument fundamentally to ensure the safety of the patient under surgery.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated and described in the drawings. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것 으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

또한, 명세서에 기재될 수 있는 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, the terms "... unit", "... group", "module" and the like that can be described in the specification means a unit for processing at least one function or operation, which means hardware or software or hardware and It can be implemented in a combination of software.

이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the following description with reference to the accompanying drawings, the same or corresponding components are given the same reference numerals and redundant description thereof will be omitted. Shall be.

또한, 본 발명의 다양한 실시예들을 설명함에 있어, 각 실시예가 독립적으로 해석되거나 실시되어야 하는 것은 아니며, 각 실시예에서 설명되는 특징 요소 및/또는 기술적 사상들이 개별적으로 설명되는 다른 실시예에 조합되어 해석되거나 실시될 수 있는 것으로 이해되어야 한다.In addition, in describing various embodiments of the present invention, each embodiment should not be interpreted or implemented independently, and the feature elements and / or technical ideas described in each embodiment may be combined with other embodiments separately described. It is to be understood that it may be interpreted or practiced.

도 1은 본 발명의 일 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도이고, 도 2는 본 발명의 일 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도이다.1 is a plan view showing the overall structure of a surgical robot according to an embodiment of the present invention, Figure 2 is a conceptual diagram showing a master interface of a surgical robot according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 복강경 수술용 로봇 시스템은 수술대에 누워있는 환자에게 실제적으로 수술을 행하는 슬레이브 로봇(2)과, 슬레이브 로봇(2)을 수술자가 원격 조종하는 마스터 로봇(1)을 포함한다. 도 1에는 마스터 로봇(1)과 슬레이브 로봇(2)이 분리되어 구현된 경우가 예시되었으나, 마스터 로봇(1)과 슬레이브 로봇(2)은 물리적으로 독립된 별도의 장치로 반드시 분리되어야 하는 것은 아니며, 하나로 통합되어 일체형으로 구성될 수 있으며, 이 경우 마스터 인터페이스(4)는 예를 들어 일체형 로봇의 인터페이스 부분에 상응할 수 있다.1 and 2, a laparoscopic surgical robot system includes a slave robot 2 that actually performs surgery on a patient lying on an operating table, and a master robot 1 that remotely controls the slave robot 2. Include. 1 illustrates a case in which the master robot 1 and the slave robot 2 are separately implemented, but the master robot 1 and the slave robot 2 are not necessarily separated into physically independent devices. It can be integrated into one and configured in one piece, in which case the master interface 4 can correspond to, for example, the interface part of the one-piece robot.

마스터 로봇(1)의 마스터 인터페이스(4)는 모니터부(6) 및 마스터 조종기를 포함하고, 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함한다. 도시된 복강경(5)은 수술용 내시경의 일 실시예이며, 수술 유형에 따라 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 등 중 하나 이상으로 대체될 수도 있다.The master interface 4 of the master robot 1 comprises a monitor 6 and a master manipulator, and the slave robot 2 comprises a robot arm 3 and a laparoscope 5. The illustrated laparoscopic 5 is one embodiment of a surgical endoscope, and may be replaced with one or more of thoracoscopic, arthroscopic, parenteral, bladder, rectal, duodenum, mediastinal, cardiac, etc.

마스터 인터페이스(4)의 마스터 조종기는 수술자가 양손에 각각 파지하여 조작할 수 있도록 구현된다. 마스터 조종기는 도 1 및 2에 예시된 바와 같이 두 개의 핸들(10) 또는 그 이상의 수량의 핸들(10)로 구현될 수 있으며, 수술자의 핸들(10) 조작에 따른 조작신호가 슬레이브 로봇(2)으로 전송되어 로봇 암(3) 및/또는 인스트루먼트(도시되지 않음)가 제어된다. 수술자의 핸들(10) 조작에 의해 예를 들어 로봇 암(3)의 위치 이동, 회전, 절단 작업 등의 수술 동작이 수행될 수 있다. 마스터 조종기는 핸들(10)의 형상으로 제한되지 않으며, 네트워크를 통해 로봇 암(3)의 동작을 제어할 수 있는 형태이면 아무런 제한없이 적용될 수 있다.The master manipulator of the master interface 4 is embodied so that the operator can grip and manipulate each hand. As illustrated in FIGS. 1 and 2, the master controller may be implemented with two handles 10 or more handles 10, and an operation signal according to the operator's manipulation of the handle 10 may be controlled by the slave robot 2. Robot arm 3 and / or instruments (not shown) are controlled. By operation of the operator's handle 10, for example, a surgical operation such as position movement, rotation, and cutting of the robot arm 3 may be performed. The master controller is not limited to the shape of the handle 10 and may be applied without any limitation as long as it can control the operation of the robot arm 3 through a network.

예를 들어, 핸들(10)은 메인 핸들(main handle)과 서브 핸들(sub handle)을 포함하여 구성될 수 있다. 수술자는 메인 핸들만으로 슬레이브 로봇 암(3)이나 복강경(5) 등을 조작하거나, 서브 핸들을 조작하여 동시에 복수의 수술 장비가 실시간 조작되도록 할 수도 있다. 메인 핸들 및 서브 핸들은 그 조작방식에 따라 다양한 기구적 구성을 가질 수 있으며, 예를 들면, 조이스틱 형태, 키패드, 트랙볼, 터치스크린 등 슬레이브 로봇(2)의 로봇 암(3) 및/또는 기타 수술 장비를 작동시키기 위한 다양한 입력수단이 사용될 수 있다.For example, the handle 10 may be configured to include a main handle and a sub handle. The operator may operate the slave robot arm 3 or the laparoscope 5 or the like only by the main handle, or may operate the sub handles to simultaneously operate a plurality of surgical equipments in real time. The main handle and the sub handle may have various mechanical configurations depending on the operation method thereof. For example, the robot arm 3 and / or other surgery of the slave robot 2, such as a joystick type, a keypad, a trackball, and a touch screen, may be used. Various input means for operating the equipment can be used.

마스터 인터페이스(4)의 모니터부(6)에는 복강경(5)에 의해 입력되는 영상이 화상 이미지로 표시될 수 있다. 물론, 복강경(5)에 의해 입력되는 영상이 표시되는 방식은 모니터부(6)를 통해 표시하는 방식 외에도 다양할 수 있으나, 이는 본 발명의 요지와는 다소 거리감이 있으므로 이에 대한 설명은 생략한다.An image input by the laparoscope 5 may be displayed as an image image on the monitor unit 6 of the master interface 4. Of course, the manner in which the image input by the laparoscope 5 is displayed may be various in addition to the manner in which the image is displayed through the monitor 6, which is omitted from the description because it is somewhat distance from the gist of the present invention.

모니터부(6)는 하나 이상의 모니터들로 구성될 수 있으며, 각 모니터에 수술시 필요한 정보들이 개별적으로 표시되도록 할 수 있다. 도 1 및 2에는 모니터부(6)가 세 개의 모니터를 포함하는 경우가 예시되었으나, 모니터의 수량은 표시를 요하는 정보의 유형이나 종류 등에 따라 다양하게 결정될 수 있다.The monitor unit 6 may be composed of one or more monitors, and may display information necessary for surgery on each monitor separately. 1 and 2 illustrate a case in which the monitor unit 6 includes three monitors, the quantity of the monitors may be variously determined according to the type or type of information requiring display.

모니터부(6)는 환자에 대한 하나 이상의 생체 정보를 더 출력할 수도 있다. 이 경우, 모니터부(6)의 하나 이상의 모니터를 통해 환자의 상태를 나타내는 지표, 예를 들면, 체온, 맥박, 호흡 및 혈압 등과 같은 생체 정보가 하나 이상 출력될 수 있으며, 각 정보는 영역별로 나뉘어져 출력될 수도 있다. 이러한 생체 정보를 마스터 로봇(1)으로 제공하기 위해, 슬레이브 로봇(2)은 체온 측정 모듈, 맥박 측정 모 듈, 호흡 측정 모듈, 혈압 측정 모듈, 심전도 측정 모듈 등 중 하나 이상을 포함하는 생체 정보 측정 유닛을 포함할 수 있다. 각 모듈에 의해 측정된 생체 정보는 아날로그 신호 또는 디지털 신호의 형태로 슬레이브 로봇(2)에서 마스터 로봇(1)으로 전송될 수도 있으며, 마스터 로봇(1)은 수신된 생체 정보를 모니터부(6)를 통해 디스플레이할 수 있다.The monitor unit 6 may further output one or more biometric information about the patient. In this case, one or more indicators indicating a patient's condition, for example, body temperature, pulse rate, respiration, and blood pressure, may be output through one or more monitors of the monitor unit 6. It may be output. In order to provide such biometric information to the master robot 1, the slave robot 2 measures biometric information including at least one of a body temperature measuring module, a pulse measuring module, a respiratory measuring module, a blood pressure measuring module, an electrocardiogram measuring module, and the like. It may include a unit. The biometric information measured by each module may be transmitted from the slave robot 2 to the master robot 1 in the form of an analog signal or a digital signal, and the master robot 1 monitors the received biometric information. Can be displayed via

슬레이브 로봇(2)과 마스터 로봇(1)은 유선 통신망 또는 무선 통신망을 통해 상호 결합되어 조작신호, 복강경(5)을 통해 입력된 복강경 영상 등이 상대방으로 전송될 수 있다. 만일, 마스터 인터페이스(4)에 구비된 두 개의 핸들(10)에 의한 두 개의 조작신호 및/또는 복강경(5)의 위치 조정을 위한 조작신호가 동시에 및/또는 유사한 시점에서 전송될 필요가 있는 경우, 각 조작신호는 상호 독립적으로 슬레이브 로봇(2)으로 전송될 수 있다. 여기서 각 조작신호가 ‘독립적으로’ 전송된다는 것은, 조작신호 간에 서로 간섭을 주지 않으며, 어느 하나의 조작신호가 다른 하나의 신호에 영향을 미치지 않음을 의미한다. 이처럼, 복수의 조작신호가 서로 독립적으로 전송되도록 하기 위해서는, 각 조작신호의 생성 단계에서 각 조작신호에 대한 헤더 정보를 부가하여 전송시키거나, 각 조작신호가 그 생성 순서에 따라 전송되도록 하거나, 또는 각 조작신호의 전송 순서에 관하여 미리 우선순위를 정해 놓고 그에 따라 전송되도록 하는 등 다양한 방식이 이용될 수 있다. 이 경우, 각 조작신호가 전송되는 전송 경로가 독립적으로 구비되도록 함으로써 각 조작신호간에 간섭이 근본적으로 방지되도록 할 수도 있을 것이다.The slave robot 2 and the master robot 1 may be coupled to each other through a wired communication network or a wireless communication network so that an operation signal and a laparoscope image input through the laparoscope 5 may be transmitted to the counterpart. If two operation signals by the two handles 10 provided in the master interface 4 and / or operation signals for adjusting the position of the laparoscope 5 need to be transmitted at the same time and / or at a similar point in time. Each operation signal may be independently transmitted to the slave robot 2. Herein, when each operation signal is 'independently' transmitted, it means that the operation signals do not interfere with each other and one operation signal does not affect the other signal. As described above, in order to transmit the plurality of operation signals independently of each other, in the generation step of each operation signal, header information for each operation signal is added and transmitted, or each operation signal is transmitted in the generation order thereof, or Various methods may be used such as prioritizing each operation signal in advance and transmitting the operation signal accordingly. In this case, the transmission path through which each operation signal is transmitted may be provided independently so that interference between each operation signal may be fundamentally prevented.

슬레이브 로봇(2)의 로봇 암(3)은 다자유도를 가지며 구동되도록 구현될 수 있다. 로봇 암(3)은 예를 들어 환자의 수술 부위에 삽입되는 수술기구, 수술기구를 수술 위치에 따라 요(yaw)방향으로 회전시키는 요동 구동부, 요동 구동부의 회전 구동과 직교하는 피치(pitch) 방향으로 수술기구를 회전시키는 피치 구동부, 수술기구를 길이 방향으로 이동시키는 이송 구동부와, 수술기구를 회전시키는 회전 구동부, 수술기구의 끝단에 설치되어 수술 병변을 절개 또는 절단하는 수술기구 구동부를 포함하여 구성될 수 있다. 다만, 로봇 암(3)의 구성이 이에 제한되지 않으며, 이러한 예시가 본 발명의 권리범위를 제한하지 않는 것으로 이해되어야 한다. The robot arm 3 of the slave robot 2 can be implemented to be driven with multiple degrees of freedom. The robot arm 3 includes, for example, a surgical instrument inserted into a surgical site of a patient, a rocking drive unit for rotating the surgical instrument in the yaw direction according to the surgical position, and a pitch direction perpendicular to the rotational drive of the rocking drive unit. It comprises a pitch drive unit for rotating the surgical instruments, a transfer drive for moving the surgical instruments in the longitudinal direction, a rotation drive for rotating the surgical instruments, a surgical instrument drive unit installed on the end of the surgical instruments to cut or cut the surgical lesion Can be. However, the configuration of the robot arm 3 is not limited thereto, and it should be understood that this example does not limit the scope of the present invention.

슬레이브 로봇(2)은 환자를 수술하기 위하여 하나 이상으로 이용될 수 있으며, 수술 부위가 모니터부(6) 등을 통해 화상 이미지로 표시되도록 하기 위한 복강경(5)은 독립된 슬레이브 로봇(2)으로 구현될 수도 있다. 또한, 앞서 설명된 바와 같이, 본 발명의 실시예들은 복강경 이외의 다양한 수술용 내시경(예를 들어, 흉강경, 관절경, 비경 등)이 이용되는 수술들에 범용적으로 사용될 수 있다.One or more slave robots 2 may be used to operate the patient, and the laparoscope 5 for displaying the surgical site as an image image through the monitor unit 6 is implemented as an independent slave robot 2. May be In addition, as described above, embodiments of the present invention may be used universally in operations in which various surgical endoscopes (eg, thoracoscopic, arthroscopy, parenteral, etc.) other than laparoscopic are used.

도 3은 본 발명의 일 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도이고, 도 4a 내지 도 4l은 본 발명의 실시예들에 따른 영역 지정 방법을 나타낸 도면이다. 마스터 로봇(1)과 슬레이브 로봇(2)이 일체형으로 구현될 수도 있음은 앞서 설명한 바와 같다.3 is a block diagram schematically showing the configuration of a master robot and a slave robot according to an embodiment of the present invention, Figures 4a to 4l is a view showing a region designation method according to embodiments of the present invention. As described above, the master robot 1 and the slave robot 2 may be integrally implemented.

도 3을 참조하면, 마스터 로봇(1)은 영상 입력부(310), 화면 표시부(320), 암 조작 설정부(330), 저장부(340), 제한구역 설정부(350), 암 조작부(360), 조작 판단부(370), 반응정보 처리부(380) 및 제어부(390)를 포함할 수 있다. 도시되지는 않았으나, 마스터 로봇(1)은 수술자가 제어 명령을 입력하기 위한 입력부, 반응정보를 청각 정보(예를 들어, 경고 음향, 경고 음성 메시지 등)로서 출력하기 위한 스피커부, 반응정보를 시각 정보로 출력하기 위한 LED부 등 중 하나 이상을 더 포함할 수도 있다.Referring to FIG. 3, the master robot 1 includes an image input unit 310, a screen display unit 320, an arm operation setting unit 330, a storage unit 340, a restricted area setting unit 350, and an arm operation unit 360. ), An operation determination unit 370, a reaction information processing unit 380, and a control unit 390. Although not shown, the master robot 1 includes an input unit for the operator to input a control command, a speaker unit for outputting the reaction information as auditory information (for example, a warning sound or a warning voice message), and visualizes the response information. It may further include one or more of the LED unit for outputting the information.

슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함할 수 있다. 또한, 본 명세서에서 명시적으로 한정하지 않는 한 로봇 암(3)은 인스트루먼트를 포함하는 개념으로 해석될 수 있다. 도시되지는 않았으나, 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)의 위치 정보를 제공하는 위치 정보 제공 유닛, 환자에 대한 생체 정보를 측정하여 제공하기 위한 생체 정보 측정 유닛 등을 더 포함할 수 있다. 위치 정보 제공 유닛은 예를 들어 로봇 암(3)이나 복강경(5)이 기본 위치에서 어느 각도로 어느 정도 움직였는지에 대한 정보(예를 들어, 로봇 암 등의 구동 모터의 회전각 등)를 마스터 로봇(1)으로 제공하도록 구성될 수 있다.The slave robot 2 may comprise a robot arm 3 and a laparoscope 5. In addition, the robot arm 3 may be interpreted as a concept including an instrument unless explicitly limited herein. Although not shown, the slave robot 2 further includes a location information providing unit for providing location information of the robot arm 3 and the laparoscope 5, a biometric information measuring unit for measuring and providing biometric information about the patient. It may include. The position information providing unit masters, for example, information about how much the robot arm 3 or the laparoscope 5 has moved at an angle from the basic position (for example, the rotation angle of a driving motor such as a robot arm). It may be configured to provide to the robot 1.

영상 입력부(310)는 슬레이브 로봇(2)의 복강경(5)에 구비된 카메라를 통해 입력된 영상을 유선 또는 무선 통신망을 통해 수신한다.The image input unit 310 receives an image input through a camera provided in the laparoscope 5 of the slave robot 2 through a wired or wireless communication network.

화면 표시부(320)는 영상 입력부(310)를 통해 수신된 영상에 상응하는 화상 이미지를 시각(視覺)적 정보로 출력한다. 또한, 화면 표시부(320)는 반응정보를 시각 정보(예를 들어, 화면 점멸 등)로서 출력하거나, 슬레이브 로봇(2)으로부터 생체 정보가 입력되는 경우 이에 상응하는 정보를 더 출력할 수도 있다. 화면 표시부(320)는 예를 들어, 모니터부(6) 등의 형태로 구현될 수 있다.The screen display unit 320 outputs an image image corresponding to the image received through the image input unit 310 as visual information. In addition, the screen display unit 320 may output the response information as visual information (for example, screen flickering), or may further output corresponding information when biometric information is input from the slave robot 2. The screen display unit 320 may be implemented in the form of, for example, the monitor unit 6.

암 조작 설정부(330)는 수술자 또는 설정자로부터 암 조작 설정을 입력받아 이에 상응하도록 로봇 암(3) 및/또는 인스트루먼트가 수술자의 조작명령에 따라 조작되도록 할 것인지 여부에 대한 조작 설정정보를 생성한다. 암 조작 설정은 예를 들어, 복강경(5)에 의해 획득된 영상 이미지에서 보여지지 않는 가시외(可視外) 영역에 위치하는 로봇 암 및/또는 인스트루먼트가 조작되도록 할 것인지 여부에 대한 설정일 수 있다. The arm manipulation setting unit 330 receives the arm manipulation setting from the operator or the setter and generates manipulation setting information on whether the robot arm 3 and / or the instrument is to be manipulated according to the manipulation instruction of the operator. . The arm manipulation setting may be, for example, a setting of whether or not the robot arm and / or the instrument located in the out-of-visible region not visible in the video image acquired by the laparoscope 5 is to be manipulated.

수술자가 암 조작 설정을 수행하는 방법은 다양할 수 있다. 이중 몇가지 실시예만 제시하면 아래와 같다.The manner in which the operator performs cancer manipulation settings can vary. Only a few of these examples are presented below.

제1 실시예로서, 수술자가 복강경(5)을 통해 입력된 화상 이미지를 참조하여 화면상에 보여지는 로봇 암 및/또는 인스트루먼트에 대해서만 그 식별정보를 이용하여 조작 가능으로 설정하고, 그 이외의 로봇 암 및 인스트루먼트는 조작 불능으로 설정할 수 있다.As a first embodiment, the operator sets only the robot arm and / or instrument shown on the screen with reference to the image image input through the laparoscope 5 to be operable using the identification information, and other robots. Arms and instruments can be set inoperable.

제2 실시예로서, 마스터 로봇(1)이 슬레이브 로봇(2)으로부터 각 로봇 암 및/또는 인스트루먼트의 위치 정보와 복강경(5)의 위치 및 영상 입력 각도를 수신한 후, 복강경(5)이 어느 좌표 범위의 화상 이미지를 입력받고 있는지 연산한 후, 해당 좌표 범위 이내에 일부 또는 전체가 포함되도록 위치하는 로봇 암 및 인스트루먼트만 조작 가능하도록 설정할 수 있다. 복강경(5)에 의해 획득되는 화상 이미지로 표시되는 수술 부위의 좌표 범위를 연산하기 위해 복강경(5)에는 수술 부위의 표면까지의 거리를 센싱하기 위한 거리 감지 센서가 더 구비될 수도 있다. 물론, 수술 도중 사용할 로봇 암이나 인스트루먼트의 교체를 위해 그 좌표 범위 이외의 로봇 암 등도 조작되도록 설정될 수 있음은 당연하다.As a second embodiment, after the master robot 1 receives the position information of each robot arm and / or instrument, the position of the laparoscope 5 and the image input angle from the slave robot 2, After calculating whether or not the image image of the coordinate range is input, it can be set to be operable only the robot arm and the instrument positioned to include some or all within the coordinate range. The laparoscope 5 may further include a distance sensing sensor for sensing a distance to the surface of the surgical site to calculate a coordinate range of the surgical site represented by the image image obtained by the laparoscope 5. Of course, the robot arm outside the coordinate range for the replacement of the robot arm or instrument to be used during the operation can be set to be manipulated.

저장부(340)에는 암 조작 설정부(330)에 의해 생성된 로봇 암(3) 및/또는 인스트루먼트에 조작 설정정보, 제한구역 설정부(350)에 의해 설정된 제한구역 좌표 정보가 저정된다. 또한, 수술자에 의해 반응정보 처리 방식이 지정된다면 반응정보 처리 유형에 대한 정보(예를 들어, 촉각 정보 출력 방식, 청각 정보 출력 방식, 시각 정보 출력 방식 등 중 하나 이상)가 더 저장될 수도 있다. The storage unit 340 stores the operation setting information and the restricted area coordinate information set by the restricted area setting unit 350 in the robot arm 3 and / or the instrument generated by the arm operating setting unit 330. In addition, when the response information processing method is designated by the operator, information on the response information processing type (eg, one or more of tactile information output method, auditory information output method, visual information output method, etc.) may be further stored.

제어부(390)는 수술자에 의해 임의의 로봇 암(3)이나 인스트루먼트에 대한 조작정보가 입력되었을 때, 수술자의 암 조작부(360)를 이용한 조작이 지정된 제한구역에 해당되는 경우 반응정보 처리 유형에 대한 정보를 참조하여 반응정보 처리부(380)가 상응하는 처리를 수행하도록 제어할 수 있다. 제어부(390)는 이하에서 설명되는 조작 판단부(370)를 포함할 수도 있다.The control unit 390, when the operation information for any robot arm (3) or the instrument is input by the operator, when the operation using the operator's arm operation unit 360 corresponds to the specified restricted area for the response information processing type With reference to the information, the reaction information processor 380 may control to perform a corresponding process. The controller 390 may include an operation determination unit 370 described below.

제한구역 설정부(350)는 수술시 오조작 등의 원인에 의해 수술중인 환자의 신체 부위(예를 들어, 혈관, 장기 등)가 손상됨을 방지하기 위해, 로봇 암(3)이나 인스트루먼트가 접근하거나 조작될 수 없는 제한구역에 대한 좌표 정보를 생성하여 저장한다. 여기서, 제한구역은 수술 이전이나 수술 도중에 수술자에 의해 지정되거나 변경 지정될 수 있다.The restricted area setting unit 350 may approach the robot arm 3 or the instrument in order to prevent damage to a body part (eg, a blood vessel, an organ, etc.) of the patient under surgery due to a misoperation during operation. Create and store coordinate information for restricted areas that cannot be manipulated. Here, the restricted area may be designated or changed by the operator before or during the operation.

수술자가 제한구역을 지정하고 이에 상응하는 제한구역 좌표 정보가 생성되도록 하는 방법은 다양할 수 있다. 본 명세서에서는 수술자 등이 임의의 영역을 지정하는 등의 방법으로 제한구역을 설정하는 방법을 중심으로 설명하지만, 수술자 등이 지정하는 영역만이 허용구역으로 설정되고 그 이외의 영역은 제한구역으로 설정되는 방법도 적용될 수 있음은 당연하다.There may be a variety of ways for the operator to designate the restricted area and to generate corresponding restricted area coordinate information. In the present specification, a description will be given of a method of setting a restricted area by a method such as designating an arbitrary area by an operator, but only an area designated by an operator is set as an allowable area, and other areas are set as restricted areas. Naturally, the method can be applied.

수술자가 제한구역을 지정하는 다양한 실시예들 중 몇가지 실시예만 제시하면 아래와 같다. 하기와 같이 설정된 영역은 복강경(5)에 의해 획득된 화상 이미지 위에 오버레이되어 표시될 수 있다.The following is only a few examples of various embodiments in which an operator designates a restricted area. The area set as follows may be displayed overlaid on the image image obtained by the laparoscope 5.

제1 실시예로서, 수술자가 제한된 장기(예를 들어, 간 등)에 대한 수술을 진행하고자 하는 경우, 모니터부(6)에 표시되는 메뉴 항목을 이용하여 해당 장기를 선택하면, 마스터 로봇(1)은 복강경(5)에 의해 획득된 영상 이미지를 해석(예를 들어, 영상 이미지에 포함된 수술 부위의 색상 분석 등의 방식으로 선택된 장기의 존재 여부와 존재시 그 좌표 영역의 해석 등)함으로써 영역 좌표 정보(예를 들어, 제한구역 좌표 정보 또는 허용구역 좌표 정보)를 생성할 수 있다.As a first embodiment, when the operator wants to perform surgery on a limited organ (eg, liver, etc.), when the operator selects the organ using a menu item displayed on the monitor 6, the master robot 1 ) Analyzes the image image acquired by the laparoscope 5 (for example, the presence or absence of the selected organ by the color analysis of the surgical site included in the image image and the interpretation of its coordinate region, etc.). Coordinate information (eg, restricted area coordinate information or allowed area coordinate information) may be generated.

제2 실시예로서, 복강경(5)에 의해 획득되어 표시되는 화상 이미지에 상응하는 좌표 범위에 대해서만 허용구역으로 설정하고, 그 이외의 모든 영역은 제한구역으로 설정할 수도 있을 것이다. 이때, 허용구역에 일부 또는 전체가 위치하는 로봇 암(3)이나 인스트루먼트만이 수술자의 암 조작 등에 의해 조작될 것이다.As a second embodiment, the allowable area may be set only for the coordinate range corresponding to the image image obtained and displayed by the laparoscope 5, and all other areas may be set as the restricted area. At this time, only the robot arm 3 or the instrument, which is partially or entirely located in the allowable area, will be operated by the operator's arm operation or the like.

제3 실시예로서, 마스터 조종기 및 이의 조작에 따라 움직이는 제어 대상 물체(예를 들어, 로봇암, 인스트루먼트 및 내시경 중 하나 이상)를 이용하여 설정된 영역(즉, 제한구역 또는 허용구역)에 해당되는 3차원 좌표값이 설정되도록 할 수 있다. 이하 해당 영역이 제한구역으로 설정되는 경우에 대해 관련 도면을 참조하여 구체적으로 설명한다.In a third embodiment, 3 corresponding to an area (ie, a restricted area or an allowable area) set using a master controller and a controlled object moving according to its manipulation (eg, at least one of a robot arm, an instrument, and an endoscope). Dimensional coordinate values can be set. Hereinafter, a case in which the corresponding area is set as the restricted area will be described in detail with reference to the accompanying drawings.

예를 들어, 도 4a에 도시된 바와 같이 인스트루먼트 끝단을 3차원 마우스 커서로 인식하여 수술자가 복강경(5)에 의해 획득된 화상 이미지를 보면서 공간상에 점을 찍는(즉, 포인트 지정) 조작을 수행하면 찍힌 점들이 연결되어 제한구역으로 설정되도록 할 수 있다. For example, as shown in FIG. 4A, the end of the instrument is recognized as a three-dimensional mouse cursor, and the operator performs an operation of taking a point in space (that is, specifying a point) while viewing an image image acquired by the laparoscope 5. This allows the dots to be connected to be set as a restricted area.

즉, 수술자는 복강경(5)에 의해 획득되어 표시되는 화상 이미지(화상 이미지 내에는 S1, S2 및 S3와 같이 장기, 혈관 등이 포함됨) 상에서 S1을 영역 내에 포함하도록 하는 영역을 설정하기 위해, 인스트루먼트 끝단이 제1 꼭지점에 위치되도록 한 후 포인트 지정 명령을 입력한 후 제2 꼭지점으로 이동하여 포인트 지정 명령을 추가적으로 입력한다. 이와 같은 꼭지점 입력 동작을 반복하여 설정하고자 하는 영역이 획정되도록 한 후 영역 구획 명령을 입력하면 앞서 포인트 지정 명령에 의해 설정된 꼭지점들이 연결되는 영역이 설정된다. 각 꼭지점들은 직선으로 연결될 수도 있으나, 곡선 형태로 연결될 수도 있으며, 해당 영역은 평면 영역(예를 들어, 삼각형, 원 등) 또는 입체 영역(예를 들어, 다면체 형상 등)으로 설정될 수도 있다. 전술한 포인트 지정 명령, 영역 구획 명령 등은 마스터 인터페이스(4)에 구비된 마스터 조종기 등을 이용하여 입력될 수 있다.That is, the operator sets an area to include S1 in the area on the image image obtained and displayed by the laparoscope 5 (in the image image, organs, blood vessels such as S1, S2, and S3 are included). After the end is positioned at the first vertex, after inputting a point designation command, the user moves to the second vertex and additionally inputs a point designation command. After repeating the vertex input operation such that an area to be set is defined, and inputting an area partition command, an area to which vertices previously set by the point designation command are connected is set. Each vertex may be connected in a straight line, but may be connected in a curved form, and the corresponding area may be set as a planar region (for example, a triangle or a circle) or a three-dimensional region (for example, a polyhedron shape). The aforementioned point designation command, area section command, and the like may be input using a master controller provided in the master interface 4 or the like.

이러한 제한 구역 설정 방식은 도 4b에 도시된 바와 같이, 3차원 공간상에 꼭지점을 지정하여 입체적으로 제한 구역을 설정하는 방식으로 확장될 수도 있다. As shown in FIG. 4B, the restricted area setting method may be extended by designating a vertex on a three-dimensional space to three-dimensionally set the restricted area.

전술한 방법에 의해, 3차원 공간상에 꼭지점 등을 지정하는 방식으로 입체적인 제한 구역의 설정이 가능할 뿐 아니라, 벽을 만드는 것과 같은 평면적인 제한 구역의 설정도 가능할 수 있다.By the above-described method, not only the three-dimensional restriction zone can be set in a manner of designating a vertex or the like on the three-dimensional space, but also a planar restriction zone such as a wall can be set.

또한, 수술자에 의해 설정된 영역은 해당 영역의 외곽선 중 한 점에 인스트루먼트 끝단을 위치시킨 후 해당 점을 영역 외부로 이동하거나 내부로 이동하는 등 의 방식에 의해 변형될 수도 있다. 여기서, 지정된 꼭지점들에 의해 형성되는 해당 영역의 외곽선 및 외곽면들은 점들의 연결인 것으로 미리 해석되어 저장될 수 있다.In addition, the area set by the operator may be deformed by positioning the end of the instrument at one point of the outline of the area and moving the point out of the area or inward. Here, the outline and the outer surface of the region formed by the designated vertices may be interpreted and stored in advance as being the connection of the points.

즉, 수술자가 해당 영역이 S1뿐 아니라 S2를 더 포함하도록 하기 위해, 도 4c에 도시된 바와 같이, 인스트루먼트 끝단을 꼭지점 P4에 위치시킨 후 포인트 이동을 수행한다. 또한, 인스트루먼트 끝단을 꼭지점 P3과 P4를 연결하는 선분상에 위치시킨 후 포인트 이동을 수행한다. 이와 같은 포인트 이동들에 의해 S2가 해당 영역에 포함되도록 설정된 영역을 확장할 수 있다. That is, in order for the operator to further include S2 as well as S1, the operator performs the point movement after positioning the end of the instrument at the vertex P4 as shown in FIG. 4C. In addition, the end of the instrument is located on the line connecting the vertices P3 and P4 and then the point movement is performed. By such point movements, an area set to include S2 in the corresponding area may be extended.

전술한 설정된 영역의 변형은 평면상에서만 이루어지도록 제한되지 않으며, 도 4d에 도시된 바와 같이, 입체 영역이 설정된 경우에도 동일하게 수행될 수 있음은 당연하다. 또한 도 4에는 꼭지점을 이용한 포인트 이동 방식으로 영역이 변형되는 경우가 예시되었으나, 3차원 공간상에서 면, 모서리 등의 잡아끄는 방식으로 영역 변형이 가능함은 당연하다.The above-described deformation of the set area is not limited to be made only in a plane, and as shown in FIG. 4D, it is natural that the same can be performed even when the three-dimensional area is set. In addition, although the case in which the region is deformed by a point movement method using vertices is illustrated in FIG. 4, it is natural that the region may be deformed by pulling surfaces, edges, and the like in three-dimensional space.

또한, 수술자에 의해 설정된 영역은 복수의 영역으로 구획되어 개별 영역들로 분리될 수도 있다. 즉, 도 4e 및 도 4f에 도시된 바와 같이, 수술자는 S1과 S2를 포함하도록 설정된 영역을 S1만을 포함하는 제1 개별 영역과 S2만을 포함하는 제2 개별 영역으로 분리할 수도 있다. 이를 위해, 수술자는 분리를 원하는 지점에 둘 이상의 포인트(예를 들어, Q1 및 Q2)를 지정한 후, 분할 명령을 입력함으로써, 해당 영역이 둘 이상의 개별 영역들로 분리되도록 할 수 있다.In addition, the area set by the operator may be divided into a plurality of areas and separated into individual areas. That is, as shown in FIGS. 4E and 4F, the operator may divide a region set to include S1 and S2 into a first individual region including only S1 and a second individual region including only S2. To this end, the operator may designate two or more points (eg, Q1 and Q2) at a point to be separated, and then input a division command to separate the corresponding area into two or more separate areas.

또한, 수술자에 의해 설정된 영역이 복수의 영역으로 구획된 후 불필요한 영 역이 제거될 수도 있다. 즉, 도 4g 및 도 4h에 도시된 바와 같이, 수술자는 S1과 S2를 포함하도록 설정된 영역이 S2만을 포함하는 영역으로 축소되도록 할 수도 있다. 이를 위해, 수술자는 제거를 원하는 경계 지점에 둘 이상의 포인트(예를 들어, Q1 및 Q2)를 지정하고, 인스트루먼트 끝단이 분리된 영역들 중 제거를 원하는 영역에 위치되도록 한 후, 삭제 명령을 입력함으로써, 분리된 해당 영역이 삭제되도록 할 수 있다.In addition, after the area set by the operator is divided into a plurality of areas, unnecessary areas may be removed. That is, as shown in FIGS. 4G and 4H, the operator may allow the region set to include S1 and S2 to be reduced to the region including only S2. To do this, the operator assigns two or more points (e.g., Q1 and Q2) to the boundary point to be removed, allows the instrument end to be located in the area to be removed, and then enters a delete command. In this case, the separated area can be deleted.

또한, 수술자에 의해 설정된 영역은 복수의 영역으로 구획하는 경계 지점을 중심으로 접혀지거나 원위치로 복원되도록 조작될 수도 있다. 즉, 도 4i 및 도 4j에 도시된 바와 같이, 수술자는 S1과 S2를 포함하도록 설정된 영역을 S1만을 포함하는 제1 개별 영역과 S2만을 포함하는 제2 개별 영역으로 분리한 후, 각 개별 영역이 제한구역 또는 허용구역으로 기능하도록 접기 조작을 수행할 수 있다. 참고로, 도 4i는 평면적으로 설정된 영역을 평면적으로 접거나 복원함으로써 제한 구역을 평면적으로 변형하는 경우가 가정되어 있고, 도 4j는 평면적으로 설정된 영역을 접어 입체적인 제한 구역으로 변형하는 경우가 가정되어 있다. In addition, the area set by the operator may be manipulated to be folded around the boundary point partitioning into a plurality of areas or to be restored to its original position. That is, as shown in FIGS. 4I and 4J, the operator divides a region set to include S1 and S2 into a first individual region including only S1 and a second individual region including only S2, and then each individual region is Folding operations can be performed to act as a restricted or permitted area. For reference, FIG. 4I is assumed to deform the restricted area in a planar manner by folding or restoring a planarly set area in plan view, and FIG. 4J is assumed to deform a three-dimensional restricted area to fold in a planar area. .

도 4i를 참조하면, 수술자는 경계 지점으로 기능하도록 둘 이상의 포인트(예를 들어, Q1 및 Q2)를 지정하고 접기 명령을 입력하면, 인스트루먼트 끝단이 위치한 지점을 포함하는 개별 영역이 경계 지점을 중심으로 회전되어 접기 동작이 수행된다. 이로써, 해당 영역이 제한구역으로 설정된 경우라면 S2는 제한구역에서 해제된 상태에서 인스트루먼트 조작이 가능해지게 된다. 이후, 복원 명령에 의해 접혀진 영역들이 원상태로 복원되면 S2 역시 제한구역으로 재설정된다.Referring to FIG. 4I, when an operator specifies two or more points (eg, Q1 and Q2) to function as boundary points and enters a folding command, an individual area including the point where the instrument end is located is centered on the boundary point. Rotation is performed. As a result, when the corresponding area is set as the restricted area, the S2 is able to operate the instrument in a state in which it is released from the restricted area. Thereafter, when the areas folded by the restore command are restored to their original state, S2 is also reset to the restricted area.

마찬가지로 도 4j에 도시된 바와 같이, 수술자는 경계 지점으로 기능하는 복수의 포인트(예를 들어, Q1-Q2 및 Q3-Q4)를 지정하고 접기 명령을 입력하면, 일 방향(예를 들어 인스트루먼트 끝단의 위치에 상응하는 방향)으로 회전 및 접기 명령이 실행되어 입체 도형의 형상으로 제한 구역이 설정되어질 수 있다. 물론, 경계 지점을 중심으로 어느 위치의 개별 영역이 어느 각도만큼 회전될 것인지에 대해서는 미리 설정될 수 있을 것이다. 이외에도, 평면적으로 도시된 영역 이미지를 접기 명령에 의해 입체 도형화하는 방식은 다양할 수 있을 것이다.Similarly, as shown in FIG. 4J, the operator specifies a plurality of points (e.g., Q1-Q2 and Q3-Q4) that serve as boundary points, and enters a fold command, whereby one direction (e.g., The rotation and folding commands may be executed in the direction corresponding to the position so that the restricted area may be set in the shape of a three-dimensional figure. Of course, it may be set in advance as to what angle the individual regions at which positions are to be rotated around the boundary point. In addition, the three-dimensional shape of the area image shown in plan by the folding command may be various.

상술한 영역 설정 및 변형 등의 방법은 수술자가 인스트루먼트를 이용하여 영역 설정을 선행하는 방법 이외에도, 템플릿으로 미리 지정된 임의의 도형(예를 들어, 원, 삼각형, 사각형, 구, 육면체, 사면체 등 중 하나 이상)이나 장기의 형상이 공간상에 도시되도록 한 후, 3차원 마우스(또는 인스트루먼트 끝단)를 이용하여 변형, 분리 등이 가능함은 당연하다. 예를 들어, 도 4k에 도시된 바와 같이, 심장 영역을 제한 구역으로 설정하고자 하는 경우, 심장에 해당되는 템플릿을 선택하여 도시되도록 한 후 스케일을 지정하거나 외곽선이나 외곽면을 잡아끄는 등의 방법으로 해당 템플릿을 수술환자의 특성에 맞게 변형하여 적용할 수 있다. 이 경우, 수술자의 제어 대상 물체 조작에 의해 변형되는 실제 장기의 변화(예를 들어, 위치 이동, 모양 변화 등)를 추적하여 설정된 제한 구역이 상응하도록 변형되도록 제어될 수도 있다. 이를 위해, 예를 들어 실제 장기의 영상 이미지에 대해 외곽선 검출 등의 영상 해석 기법이 적용될 수 있다.The method of setting and modifying the above-described region is one of arbitrary shapes (for example, circles, triangles, squares, spheres, hexahedrons, tetrahedrons, etc.) designated as a template, in addition to the method in which the operator precedes the region setting using an instrument. After the shape of the organ or the organ is shown in space, it is natural that the three-dimensional mouse (or the end of the instrument) can be deformed or separated. For example, as shown in Figure 4k, if you want to set the cardiac region as a restricted area, by selecting a template corresponding to the heart to be shown, such as by specifying a scale or by pulling the outline or outline The template can be adapted to suit the characteristics of the surgical patient. In this case, the control may be controlled to track the change of the actual organ (for example, position shift, shape change, etc.) that is deformed by the operator's manipulation of the object to be controlled so that the set restricted area is deformed correspondingly. To this end, for example, an image analysis technique such as an edge detection may be applied to an image of an actual organ.

제4 실시예로서, 터치 감응 입력 장치로 구현된 모니터를 통해 표시되는 수 술 환자에 대한 참조 영상(예를 들어 복강경(5)에 의해 획득된 영상 이미지, 환자의 MRI 영상 등)이나 일반화되어 생성되는 인체 모델링 영상에서, 수술자가 손가락으로 폐곡선의 도형 형태로 일정 범위를 도시하면 해당 영역이 제한구역으로 설정되도록 할 수 있다. 이때, 수술자가 도시한 해당 범위의 좌표는 임의의 기준점(예를 들어, 특징적 장기의 위치, 복강경(5)의 위치 등)을 중심으로 수술 환자의 신체 내부의 장기나 혈관의 위치에 대응되도록 좌표 정보가 매핑 처리되며, 이러한 좌표 정보 매핑은 통상의 영상 해석에 의한 위치 인식 방법에 의해 처리될 수 있으므로 이에 대한 설명은 생략한다.As a fourth embodiment, a reference image (for example, an image image obtained by the laparoscope 5, an MRI image of a patient, etc.) of a surgical patient displayed through a monitor implemented as a touch sensitive input device is generated and generalized. In the human body modeling image, when the operator shows a certain range in the shape of a closed curve with a finger, the corresponding region may be set as a restricted area. In this case, the coordinates of the range shown by the operator are coordinated to correspond to the position of organs or blood vessels inside the body of the surgical patient based on an arbitrary reference point (for example, the position of the characteristic organs, the position of the laparoscope 5, etc.). The information is mapped and the coordinate information mapping may be processed by a position recognition method by conventional image analysis, and thus description thereof will be omitted.

제5 실시예로서, 수술 환자에 대한 참조 영상(예를 들어, CT 영상, MRI 영상 등)을 이용하여 생성한 인체 모델링 영상이나 일반적인 인체에 대해 생성된 인체 모델링 영상의 각 장기나 혈관 등에 관한 모델링 데이터를 이용하여 해당 영역을 자동 설정하도록 할 수도 있다.As a fifth embodiment, modeling of each organ or blood vessel of a human model image generated using a reference image (eg, CT image, MRI image, etc.) of a surgical patient or a human model image generated of a general human body You can also set the area automatically using the data.

도 4l을 참조하면, 단계 450에서 수술 환자에 대한 참조 영상(예를 들어, CT 영상, MRI 영상 등)을 이용하여 인체 모델링 영상이 생성되고, 단계 455에서 인체 모델링 영상에 상응하는 모델링 데이터(예를 들어, 각 장기 및 혈관의 색상, 형상, 크기 등)가 생성되고 저장된다. 일반적인 인체에 대해 생성된 인체 모델링 영상 및 모델링 데이터가 이용되는 경우 단계 450 및 단계 455는 생략될 수도 있다.Referring to FIG. 4L, a human modeling image is generated using a reference image (eg, a CT image, an MRI image, etc.) of a surgical patient in step 450, and modeling data corresponding to the human modeling image (for example, in step 455). For example, the color, shape, size, etc. of each organ and blood vessel) are generated and stored. When the human body modeling image and the modeling data generated for the general human body are used, steps 450 and 455 may be omitted.

단계 460에서 장기 선택 정보가 획득된다. 장기 선택 정보는 예를 들어 복강경(5)에 의해 획득되어 표시되는 화상 이미지 내의 장기나 혈관이 무엇인지 여부를 영상 해석 기법(예를 들어, 픽셀별 색상 분석, 장기의 외곽선 해석 등)을 이용하여 해석한 후 미리 저장된 모델링 데이터에 대비하여 자동 인식되도록 할 수도 있다. 물론, 수술자가 드롭다운 메뉴로 구성된 장기 리스트 또는 모니터부(6)를 통해 표시되는 인체 모델링 영상에서 임의의 장기를 선택하는 방법 등이 이용될 수도 있다. In step 460, long-term selection information is obtained. The organ selection information is obtained by using an image analysis technique (for example, pixel-by-pixel color analysis, organ outline analysis, etc.) to determine whether organs or blood vessels in the image image obtained and displayed by the laparoscope 5 are displayed, for example. After analysis, it can be automatically recognized against pre-stored modeling data. Of course, a method in which an operator selects an arbitrary organ from an organ list including a drop down menu or a human modeling image displayed through the monitor unit 6 may be used.

단계 465에서 모델링 데이터를 참조하여 상응하는 영역을 구획하고 수술자가 인식할 수 있도록 영역 이미지(도 4a 내지 도 4k 참조)로서 디스플레이한다. 마스터 로봇(1)은 수술환자의 키, 눕혀진 형태 및 인체 내에서의 장기의 일반적인 위치 등을 고려하여 장기 선택 정보에 상응하는 장기의 위치를 인식한 후, 모델링 데이터에 의해 규정된 형상의 영역이 설정되어 모니터부(6) 또는/및 복강경(5)에 의해 획득된 화상 이미지 내에 오버레이되어 표시되도록 처리한다. 예를 들어, 장기 선택 정보로서 심장이 선택된 경우, 심장의 형태에 상응하는 영역 이미지를 디스플레이하기 위해 모델링 데이터가 저장부(340) 등으로부터 추출되고, 추출된 모델링 데이터에 상응하는 영역 이미지가 실제 장기를 나타내는 영상 이미지 위에 오버레이되어 표시되도록 처리될 수 있다. In operation 465, the corresponding area is partitioned with reference to the modeling data and displayed as an area image (see FIGS. 4A to 4K) for the operator to recognize. The master robot 1 recognizes the position of the organ corresponding to the organ selection information in consideration of the height of the patient, the lying down shape and the general position of the organ in the human body, and then the area of the shape defined by the modeling data. This is set so as to be overlaid and displayed in the image image obtained by the monitor unit 6 and / or the laparoscope 5. For example, when the heart is selected as organ selection information, modeling data is extracted from the storage unit 340 or the like to display an area image corresponding to the shape of the heart, and the area image corresponding to the extracted modeling data is the actual organ. The image may be processed to be overlaid and displayed on the video image.

단계 470에서 수술자는 영상 이미지 위에 오버레이되어 표시되는 영역 이미지가 실제 장기의 영역에 부합하는지 여부를 확인한 후 부합하지 않는 경우 오버레이되어 표시되는 영역 이미지를 변형(도 4d 내지 도 4k 참조) 처리한다. 단계 470의 영역 이미지 변형은 전술한 바와 같이 수술자에 의해 처리될 수도 있지만, 복강경(5)에 의해 획득되어 표시되는 영상 이미지 내에 해당 장기가 존재하고 있다면 영상 해석 기법을 이용하여 해당 장기의 형상(크기 등을 포함함)을 해석한 후 영역 이미지가 해당 장기의 형상에 부합되도록 자동 변형 처리할 수도 있음은 당연하다.In operation 470, the operator checks whether the area image overlaid on the image image corresponds to the area of the actual organ, and if it does not match, deforms the area image overlaid (see FIGS. 4D to 4K). The region image deformation in step 470 may be processed by the operator as described above, but if the organ is present in the image image acquired and displayed by the laparoscope 5, the shape (size) of the organ is determined using an image analysis technique. And so on, the image may be automatically transformed to match the shape of the organ.

이외에도 제한구역을 사전에 설정하여 이용하는 방법 등도 적용될 수 있다. 예를 들어 CT, MRI 영상 등을 재구성하여 얻은 3차원 영상을 이용하는 방법으로서, 미리 사전에 3차원 영상에서 제한구역을 설정한 후에 이를 복강경(5)에 의해 획득된 화상 이미지(예를 들어, 실제 내시경 영상)와 정합하여 이용할 수도 있다. 물론, 3차원 영상과 실시간 화상 이미지에 대한 정합은 생략하고, 필요한 몇 개의 포인트만 매칭시키는 방법도 적용될 수 있을 것이다.In addition, a method of setting and using a restricted area in advance may also be applied. For example, a method of using a three-dimensional image obtained by reconstructing a CT, MRI image, etc., in which a restriction zone is set in advance in a three-dimensional image, and the image image obtained by the laparoscope 5 (for example, Endoscope images). Of course, the matching of the 3D image and the real-time image may be omitted, and a method of matching only a few points required may also be applied.

암 조작부(360)는 슬레이브 로봇(2)의 로봇 암(3)의 위치 및 기능 등을 수술자가 조작할 수 있도록 하는 수단이다. 암 조작부(330)는 도 2에 예시된 바와 같이 핸들(10)의 형상으로 형성될 수 있으나, 그 형상이 이에 제한되지 않으며 동일한 목적 달성을 위한 다양한 형상으로 변형 구현될 수 있다. 또한, 예를 들어 일부는 핸들 형상으로, 다른 일부는 클러치 버튼 등의 상이한 형상으로 형성될 수도 있으며, 수술도구의 조작을 용이하도록 하기 위해 수술자의 손가락을 삽입 고정할 수 있도록 하는 손가락 삽입관 또는 삽입 고리가 더 형성될 수도 있다. 또한, 영상을 입력받기 위한 복강경(5)이 특정 위치에 고정되지 않고, 그 위치 및/또는 영상 입력 각도가 수술자의 조정에 의해 이동되거나 변경될 수 있다면 클러치 버튼(14) 등은 복강경(5)의 위치 및/또는 영상 입력 각도의 조정을 위해 기능하도록 설정될 수도 있다.The arm manipulation unit 360 is a means for allowing the operator to manipulate the position and function of the robot arm 3 of the slave robot 2. The arm manipulation unit 330 may be formed in the shape of the handle 10 as illustrated in FIG. 2, but the shape is not limited thereto and may be modified in various shapes for achieving the same purpose. Further, for example, some may be formed in the shape of a handle, others may be formed in a different shape, such as a clutch button, finger insertion tube or insertion to enable the operator's fingers can be inserted and fixed to facilitate the operation of the surgical tool More rings may be formed. In addition, if the laparoscope 5 for receiving an image is not fixed at a specific position, and the position and / or the image input angle can be moved or changed by the operator's adjustment, the clutch button 14 or the like is used as the laparoscope 5. It may be set to function for the adjustment of the position and / or the image input angle of.

조작 판단부(370)는 수술자의 암 조작부(360) 조작에 의한 조작정보가 저장부(340)에 저장된 조작 설정정보 및 제한구역 좌표 정보 중 하나 이상을 참조하여 유효한 조작정보인지를 판단한다. The operation determination unit 370 determines whether the operation information by the operator's operation of the arm operation unit 360 is valid operation information by referring to at least one of the operation setting information and the restricted area coordinate information stored in the storage unit 340.

예를 들어, 조작 판단부(370)는 조작 설정정보를 참조하여 암 조작부(360) 조작에 따른 조작정보가 조작 불능으로 설정된 로봇 암인 경우 해당 조작정보가 유효하지 않은 것으로 판단할 수 있다. For example, the manipulation determination unit 370 may determine that the manipulation information is not valid when the manipulation information according to the manipulation of the arm manipulation unit 360 is a robot arm set to be inoperable with reference to the manipulation setting information.

또한, 조작 판단부(370)는 제한구역 좌표 정보를 참조하여 암 조작부(360) 조작에 따른 조작정보가 로봇 암(3)이 제한구역에 접촉되도록 하는 것인 경우 유효하지 않은 것으로 판단할 수 있다. 이를 위해, 조작 판단부(370)는 위치 정보 제공 유닛으로부터 수신되는 예를 들어 로봇 암(3)이나 인스트루먼트가 기본 위치에서 어느 각도로 어느 거리만큼 움직였는지에 대한 변위 정보(예를 들어, 로봇 암 등의 구동 모터의 회전각 등)를 참조할 수 있다.In addition, the manipulation determination unit 370 may determine that the manipulation information according to the manipulation of the arm manipulation unit 360 is invalid when the robot arm 3 contacts the restricted region with reference to the restricted region coordinate information. . To this end, the operation determining unit 370 is displacement information (for example, the robot arm 3) for which the robot arm 3 or the instrument received from the position information providing unit has moved at which angle and at what angle from the basic position. Rotation angle of a driving motor, etc.).

반응정보 처리부(380)는 조작 판단부(370)에 의해 수술자의 조작정보가 유효하지 않은 조작 정보인 것으로 판단된 경우 수술자 또는/및 설정자에 의해 지정된 반응정보의 처리를 수행한다. 반응정보의 처리는 핸들(10)에 포스 피드백(force feedback)을 가하여 수술자가 인지하도록 하는 촉각정보 출력, LED 점멸이나 복강경(5)에 의해 획득된 영상 이미지에 상응하여 경고 메시지 출력 등의 시각 정보 출력, 경고음향의 출력 등의 청각 정보 출력 등 중 하나 이상의 방식으로 처리될 수 있다.The response information processing unit 380 performs the processing of the response information specified by the operator or / or the setter when the operation determination unit 370 determines that the operator's operation information is invalid operation information. The processing of the response information includes visual information such as tactile information output for the operator to recognize force by applying force feedback to the handle 10 and outputting a warning message corresponding to the image image obtained by the blinking LED or the laparoscope 5. May be processed in one or more ways, such as output of auditory information, such as output of warning sounds.

제어부(390)는 상술한 기능이 수행될 수 있도록 각 구성 요소들의 동작을 제어한다. 제어부(390)는 영상 입력부(310)를 통해 입력되는 영상이 화면 표시부(320)를 통해 표시될 화상 이미지로 변환하는 기능을 수행할 수도 있다. The controller 390 controls the operation of each component so that the above-described function can be performed. The controller 390 may perform a function of converting an image input through the image input unit 310 into an image image to be displayed through the screen display unit 320.

도 5는 본 발명의 일 실시예에 따른 제한구역 설정 방법을 나타낸 순서도이다.5 is a flowchart illustrating a method for setting a restricted area according to an embodiment of the present invention.

이하에서 설명되는 본 실시예에서는 암 조작 설정정보의 생성 및 저장과 제한구역 설정정보의 생성 및 저장이 순차적인 단계로서 예시되었으나, 각 단계의 순서는 변경되거나 동시에 수행될 수도 있음은 당연하다.In the present embodiment described below, the generation and storage of the arm operation setting information and the generation and storage of the restricted area setting information are illustrated as sequential steps, but the order of each step may be changed or performed simultaneously.

도 5를 참조하면, 단계 510에서 마스터 로봇(1)은 수술자 또는 설정자로부터 가시외 영역에 위치하는 로봇 암(3) 및/또는 인스트루먼트가 조작되도록 할 것인지 여부에 대한 암 조작 설정을 입력받는다.Referring to FIG. 5, in operation 510, the master robot 1 receives an arm manipulation setting on whether to allow the robot arm 3 and / or the instrument located in the out-of-visible region to be manipulated by the operator or the setter.

단계 520에서 마스터 로봇(1)은 입력된 암 조작 설정에 상응하는 암 조작 설정정보를 생성하여 저장한다.In operation 520, the master robot 1 generates and stores arm operation setting information corresponding to the input arm operation setting.

단계 530에서 마스터 로봇(1)은 수술자 또는 설정자로부터 가시 영역 및 가시외 영역에 위치하는 로봇 암(3) 및/또는 인스트루먼트가 동작되는 과정에서 진입하지 않도록 제한되는 구역 지정을 위한 제한구역 설정을 입력받는다.In step 530, the master robot 1 inputs a restricted area setting for designating an area restricted from the operator or setter so that the robot arm 3 and / or the instruments located in the visible and non-visible areas are restricted from entering in the process of operating. Receive.

단계 540에서 마스터 로봇(1)은 입력된 제한구역 설정에 상응하는 제한구역 설정정보를 생성하여 저장한다.In step 540, the master robot 1 generates and stores the restricted zone setting information corresponding to the entered restricted zone setting.

이와 같이, 수술자 또는/및 설정자는 미리 획득된 영상 정보(예를 들어, CT, MRI 등과 같은 환자 영상, 일반화되도록 모델링된 가상 영상 등 중 하나 이상) 또는/및 드롭다운 메뉴의 클릭에 의해 표시되는 장기 항목 등을 이용하여 수술 이전 또는 수술 과정에서 제한구역을 설정할 수 있다. 제한구역으로 설정된 영역에 대해 서는 사용자의 조작에도 불구하고 로봇 암(3) 또는/및 인스트루먼트가 동작하지 않도록 제한되고, 제한구역으로의 접근이나 접촉이 반응정보로서 수술자에게 피드백됨으로써, 수술 과정에서 손상되어서는 안 되는 중요한 부위에 대하여 오동작으로 인한 의료사고의 발생이 방지될 수 있다. 반응정보는 촉각정보 형태, 시각정보 형태 및 청각정보 형태 등 중 하나 이상으로 수술자에게 출력될 수 있다.As such, the operator or / and setter may be displayed by pre-acquired image information (e.g., one or more of patient images such as CT, MRI, etc., virtual images modeled to be generalized, etc.) or / and clicked on a drop down menu. Long-term items can be used to establish restricted areas before or during surgery. In the area set as the restricted area, the robot arm 3 and / or the instrument is not operated in spite of the user's operation, and the access or contact to the restricted area is fed back to the operator as reaction information, thereby injuring the surgical procedure. The occurrence of medical accidents due to malfunctions can be prevented for important areas that should not be. The response information may be output to the operator in one or more of a tactile information type, a visual information type, and an auditory information type.

예를 들어, 수술 과정에서 수술자가 복강경(5)에 의해 획득되어 보여지는 영상 이미지에서 터치스크린이나 마우스 장치 등의 외부 입력장치를 이용하여 특정 영역을 지정하면, 그 지정된 영역이 제한구역으로 설정되도록 할 수 있다. For example, when a surgeon designates a specific area using an external input device such as a touch screen or a mouse device in an image image obtained and viewed by the laparoscope 5, the designated area is set as a restricted area. can do.

또는, 미리 촬영된 CT, MRI 등의 환자 영상 정보 또는 해당 환자 영상 정보로부터 재구성한 영상을 수술자가 보는 화면에 표시하고, 수술자는 화면에 표시된 영상에서 특정 영역을 지정하면 그 지정된 영역이 제한구역으로 설정되도록 할 수도 있다.Alternatively, the patient image information such as CT, MRI, or the like taken in advance or a reconstructed image from the patient image information is displayed on the operator's screen, and if the operator designates a specific region in the image displayed on the screen, the designated region becomes a restricted area. It can also be set.

이 경우, 전술한 바와 같이, 지정된 특정 영역의 좌표범위를 영상 해석 등의 방식으로 인식하는 과정이 수행될 수 있다.In this case, as described above, a process of recognizing the coordinate range of the designated specific region may be performed by image analysis or the like.

이와 같이 제한구역을 지정할 때, 수술자는 해당 영상이 표시되는 화면을 참조하여 지정할 수도 있고, 촬영한 영상에서 미리 지정되도록 할 수도 있으며, 이 외에도 다양한 방법으로 제한구역이 지정되도록 할 수 있다.As such, when the restricted area is designated, the operator may designate the restricted area by referring to the screen on which the corresponding image is displayed, may be specified in advance in the photographed image, and in addition, the restricted area may be specified in various ways.

도 6 및 도 7은 본 발명의 일 실시예에 따른 수술 로봇 시스템의 동작 제한 방법을 나타낸 순서도이고, 도 8은 본 발명의 일 실시예에 따른 동작 제한 방법을 설명하기 위한 화면 표시의 예시도이다.6 and 7 are flowcharts illustrating an operation limiting method of a surgical robot system according to an exemplary embodiment of the present invention, and FIG. 8 is an exemplary view of a screen display for explaining an operation limiting method according to an embodiment of the present invention. .

도 6을 참조하면, 단계 610에서 마스터 로봇(1)은 수술자로부터 암 조작부(360)의 조작에 따른 암 조작정보를 입력받는다.Referring to FIG. 6, in operation 610, the master robot 1 receives arm manipulation information according to manipulation of the arm manipulation unit 360 from an operator.

마스터 로봇(1)은 단계 520에서 입력된 암 조작정보가 가시외 영역에 위치하는 로봇 암(3) 또는/및 인스트루먼트에 대한 조작인지 여부를 판단한다. 예를 들어, 수술자의 오조작에 의해서, 또는 가시 영역 내에 위치하는 로봇 암(3)을 가시외 영역에 위치하는 로봇 암(3)으로 대체하여 조작하고자 하는 경우 등에서 가시외 영역에 위치하는 로봇 암(3) 조작이 명령될 수 있을 것이다. 전술한 바와 같이, 본 명세서에서 명시적으로 한정하지 않는 한 로봇 암(3)은 인스트루먼트를 포함하는 개념으로 해석될 수 있다.The master robot 1 determines whether the arm operation information input in step 520 is for the robot arm 3 and / or the instrument located in the out-of-visible region. For example, the robot arm positioned in the non-visible region may be manipulated by a misoperation of an operator or when the robot arm 3 positioned in the visible region is to be replaced with the robot arm 3 positioned in the non-visible region. (3) The operation may be commanded. As mentioned above, the robot arm 3 may be interpreted as a concept including an instrument, unless expressly limited herein.

단계 620의 판단 결과로, 가시외 영역(즉, 가시 영역)에 위치하는 로봇 암(3) 등에 대한 조작 명령이 아닌 경우에는 단계 630으로 진행하여, 마스터 로봇(1)은 암 조작명령을 생성하여 출력한다. 단계 630의 수행 이후 도 7에 도시된 단계 710이 후속된다. 도 8을 참조할 때, 가시 영역에 위치하는 로봇 암 또는 인스트루먼트는 830a 및 830b라 할 수 있고, 가시외 영역에 위치하는 로봇 암 또는 인스트루먼트는 850이라 할 수 있다.As a result of the determination in step 620, if it is not an operation command for the robot arm 3 or the like located in the out-of-visible region (i.e., the visible region), the process proceeds to step 630, whereby the master robot 1 generates an arm manipulation instruction. Output Step 710 shown in FIG. 7 is followed by execution of step 630. Referring to FIG. 8, robot arms or instruments positioned in the visible region may be referred to as 830a and 830b, and robot arms or instruments positioned in the non-visible region may be referred to as 850.

그러나 단계 620의 판단 결과로, 가시외 영역에 위치하는 로봇 암(3) 등에 대한 조작 명령인 경우에는 단계 640으로 진행하여, 마스터 로봇(1)은 가시외 영역에 위치하는 로봇 암(3) 등에 대한 조작이 허용되도록 하는 조작 설정정보가 저장되었는지 여부를 판단한다.However, as a result of the determination in step 620, if it is an operation command for the robot arm 3 or the like located in the non-visible region, the process proceeds to step 640, where the master robot 1 is located in the robot arm 3 or the like positioned in the non-visible region. It is determined whether the operation setting information for allowing the operation to be permitted is stored.

단계 640의 판단 결과로, 가시외 영역에 위치하는 로봇 암(3) 등에 대한 조작이 허용되도록 하는 조작 설정정보가 저장되었다면 단계 630으로 진행하여 마스터 로봇(1)은 암 조작명령을 생성하여 출력한다. 이 경우, 암 조작명령에 의해 가시 영역이나 가시외 영역에 위치하는 로봇 암(3) 등이 동일한 방식으로 이동이나 조작되도록 할 수도 있으나, 가시외 영역에 위치하는 로봇 암(3) 등의 이동이나 조작시 가시 영역에 위치하는 로봇 암(3) 등의 이동이나 조작 속도보다 느리게 처리되도록 하는 암 조작명령이 생성될 수도 있다.As a result of the determination in step 640, if operation setting information for allowing the operation of the robot arm 3 and the like located in the out-of-visible region is stored, the process proceeds to step 630 and the master robot 1 generates and outputs an arm operation command. . In this case, the robot arm 3 or the like located in the visible region or the non-visible region may be moved or manipulated in the same manner by the arm manipulation command. An arm operation instruction may be generated to allow the robot arm 3 or the like positioned in the visible area to be processed slower than the operation speed or the operation speed.

그러나 단계 640의 판단 결과로, 가시외 영역에 위치하는 로봇 암(3) 등에 대한 조작이 허용되지 않도록 하는 조작 설정정보가 저장되었다면 단계 650으로 진행하여 마스터 로봇(1)은 반응정보의 출력 처리를 수행하여 수술자가 이를 인식하도록 한다.However, as a result of the determination in step 640, if operation setting information is stored so that the operation on the robot arm 3, etc. located in the out-of-visible region is not allowed, the process proceeds to step 650, whereby the master robot 1 performs the output processing of the reaction information. To allow the operator to recognize it.

도 7을 참조하면, 단계 710에서 마스터 로봇(1)은 슬레이브 로봇(2)으로부터 암 조작상태 정보를 수신한다. 암 조작상태 정보는 예를 들어 로봇 암(3)이나 인스트루먼트가 기본 위치에서 어느 각도로 어느 정도 움직였는지에 대한 정보(예를 들어, 로봇 암 등의 구동 모터의 회전각 등)를 포함할 수 있으며, 해당 정보는 위치 정보 제공 유닛으로부터 제공될 수 있다.Referring to FIG. 7, in operation 710, the master robot 1 receives arm operation state information from the slave robot 2. The arm operation state information may include, for example, information about how much the robot arm 3 or the instrument has moved at an angle from the basic position (for example, the rotation angle of a driving motor such as the robot arm), The corresponding information may be provided from the location information providing unit.

단계 720에서 마스터 로봇(1)은 암 조작상태 정보를 참조하여 로봇 암(3)이나 인스트루먼트가 미리 설정된 제한구역에 접촉되었는지 여부를 판단한다.In operation 720, the master robot 1 determines whether the robot arm 3 or the instrument is in contact with a preset restricted area with reference to the arm operation state information.

전술한 바와 같이, 제한구역은 수술자가 해당 영상이 표시되는 화면을 참조하여 지정할 수도 있고, 촬영한 영상에서 미리 지정되도록 할 수도 있으며, 이 외 에도 다양한 방법에 의해 설정되도록 할 수 있다.As described above, the restricted area may be designated by the operator with reference to the screen on which the corresponding image is displayed, may be specified in advance in the captured image, or may be set by various methods.

상술한 과정에 의해 설정된 제한구역은 복강경(5) 등에 의해 획득된 실제 영상에 증강현실(augmented reality) 기법을 적용하여 빗금 처리 방식(도 8의 840 참조), 특정 색깔의 라인 처리 방식, 불투명 처리 방식 등 중 하나 이상으로 다양하게 처리할 수 있다. 이로써, 수술자는 지속적으로 해당 영역이 제한구역임을 알려줄 수 있다. 이러한 제한구역 표시 방식은 표시 화면의 이동 또는 확대 등의 경우에도 연동되어 처리되도록 할 수 있음은 당연하다.In the restricted area set by the above-described process, the augmented reality technique is applied to the real image acquired by the laparoscope 5, etc. (see 840 of FIG. 8), a line treatment method of a specific color, and an opacity process. It can be handled variously in one or more ways. As a result, the operator may continuously inform that the area is a restricted area. Naturally, the restricted zone display method may be processed in conjunction with the movement or enlargement of the display screen.

단계 720의 판단 결과로, 로봇 암(3)이나 인스트루먼트가 제한구역에 접촉되지 않았다면 단계 610으로 다시 진행한다.As a result of the determination of step 720, if the robot arm 3 or the instrument did not contact the restricted area, the process proceeds to step 610 again.

그러나 단계 720의 판단 결과로, 로봇 암(3)이나 인스트루먼트가 제한구역에 접촉되었다면, 단계 730으로 진행하여 마스터 로봇(1)은 로봇 암의 동작제한 제어를 수행하고, 또한 반응정보 출력 처리를 수행하여 이를 수술자가 인식하도록 한다.However, as a result of the determination in step 720, if the robot arm 3 or the instrument is in contact with the restricted area, the process proceeds to step 730 where the master robot 1 performs control of the operation limitation of the robot arm and also performs response information output processing. This allows the operator to recognize it.

제한구역에서의 로봇 암(3)의 동작 제한 제어는, 예를 들어 설정된 제한 구역이 마치 가상의 벽인 것처럼 인식되도록 할 수 있다. 즉, 로봇 수술 과정에서 인스트루먼트의 끝단 또는 중간 샤프트 일부 등이 제한 영역으로 진입하려고 할 때에, 가상의 벽에 걸려 인스트루먼트가 동작되지 않는 것처럼 인스트루먼트의 동작을 제한하고 이를 반응정보의 출력을 통해 수술자가 인식할 수 있도록 한다. Operation restriction control of the robot arm 3 in the restricted zone can, for example, allow the set restricted zone to be recognized as if it were a virtual wall. In other words, when the end of the instrument or part of the intermediate shaft tries to enter the restricted area during the robotic operation, the operator restricts the operation of the instrument as if the instrument is not operated by the virtual wall and recognizes it through the output of the response information. Do it.

물론, 제한 구역에 접촉된 경우 반드시 인스트루먼트가 동작되지 않도록 제한되어야 하는 것은 아니며, 수술자의 선택에 의해 동작 여부가 결정되도록 할 수 도 있다. 예를 들어, 수술자의 의도와 무관하게 제한 구역으로 설정된 영역(예를 들어, 혈관 등)에서 출혈이 발생된 경우, 인스트루먼트의 동작이 가능하도록 설정된다면 신속한 지혈이 가능할 수 있기 때문이다. 여기서, 제한 구역에 접촉된 경우, 제한구역에서 인스트루먼트 등이 조작될 수 있도록 하기 위한 제한구역 설정무시 명령은 예를 들어 수술자가 미리 설정된 임의의 버튼이나 페달(pedal) 등을 조작함으로써 입력될 수 있을 것이다. Of course, the contact with the restricted area is not necessarily limited to not operate the instrument, it is also possible to determine whether the operation by the operator's choice. For example, if bleeding occurs in a region (eg, a blood vessel) set as a restricted area irrespective of an operator's intention, rapid bleeding may be possible if the instrument is set to operate. Here, the command for ignoring the restricted area setting for allowing an instrument or the like to be operated in the restricted area when the contacted with the restricted area may be input by, for example, an operator operating a predetermined button or pedal. will be.

또한, 제한구역은 반드시 현재 화면에 표시된 영역(즉, 가시 영역(810)) 내에서만 설정되어야 하는 것은 아니며, 도 8에 예시된 바와 같이 화면에 표시되지 않는 영역(즉, 가시외 영역(820))에서도 제한구역(840)이 지정 및 설정될 수 있음은 당연하다. 즉, 제한구역(840)이 가시외 영역(820)에 설정된 경우에도, 인스트루먼트가 해당 제한구역에 접촉된다면 수술 환자의 안전에 심각한 위험이 초래될 수 있으므로, 이를 방지하게 위해 인스트루먼트의 움직임이 제한되도록 제어할 수 있다.Further, the restricted area is not necessarily set only within the area currently displayed on the screen (ie, the visible area 810), and is not displayed on the screen (ie, the non-visible area 820) as illustrated in FIG. 8. Of course, the restricted area 840 may be designated and set. That is, even when the restricted area 840 is set in the out-of-visible region 820, if the instrument is in contact with the restricted area may cause a serious risk to the safety of the surgical patient, the movement of the instrument is limited to prevent this Can be controlled.

인스트루먼트의 동작을 제한하는 제어방법은, 예를 들어 인스트루먼트가 동작하지 않도록 로킹(locking)하는 방법이 사용될 수 있으며, 더 나아가 로킹되는 인스트루먼트를 조작하는 사용자의 조작 핸들에 반력이 피드백되도록 함으로써, 인스트루먼트의 동작이 제한됨을 사용자에게 알려줄 수 있다. 이외에도 반응정보가 출력되는 방식이 다양할 수 있음은 앞서 설명한 바와 같다.As a control method for limiting the operation of the instrument, for example, a method of locking the instrument so as not to operate may be used, and further, by allowing reaction force to be fed back to the operation handle of the user who operates the locked instrument, The user may be informed that the operation is limited. In addition, the manner in which the reaction information is output may vary as described above.

상술한 수술 로봇 시스템의 동작 제한 방법은 소프트웨어 프로그램 등으로 구현될 수도 있다. 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.The operation limiting method of the above-described surgical robot system may be implemented by a software program or the like. Codes and code segments constituting a program can be easily inferred by a computer programmer in the art. The program is also stored in a computer readable media, and read and executed by a computer to implement the method. The information storage medium includes a magnetic recording medium, an optical recording medium and a carrier wave medium.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.

도 1은 본 발명의 일 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도.1 is a plan view showing the overall structure of a surgical robot according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나 타낸 개념도.Figure 2 is a conceptual diagram showing a master interface of the surgical robot according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도.Figure 3 is a block diagram schematically showing the configuration of a master robot and a slave robot according to an embodiment of the present invention.

도 4a 내지 도 4l는 본 발명의 실시예들에 따른 영역 지정 방법을 나타낸 도면.4A to 4L are diagrams illustrating a region designation method according to embodiments of the present invention.

도 5는 본 발명의 일 실시예에 따른 제한구역 설정 방법을 나타낸 순서도.5 is a flow chart showing a method for setting a restricted area according to an embodiment of the present invention.

도 6 및 도 7은 본 발명의 일 실시예에 따른 수술 로봇 시스템의 동작 제한 방법을 나타낸 순서도.6 and 7 is a flow chart illustrating a method of limiting the operation of the surgical robot system according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 동작 제한 방법을 설명하기 위한 화면 표시의 예시도.8 is an exemplary view of a screen display for explaining an operation restriction method according to an embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

1: 마스터 로봇 2: 슬레이브 로봇1: master robot 2: slave robot

3: 로봇 암 4: 마스터 인터페이스3: robot arm 4: master interface

5: 복강경 6: 모니터부5: Laparoscope 6: Monitor

10: 핸들 310: 영상 입력부10: handle 310: video input unit

320: 화면 표시부 330: 암 조작 설정부320: screen display unit 330: arm operation setting unit

340: 저장부 350: 제한구역 설정부340: storage unit 350: restricted area setting unit

360: 암 조작부 370: 조작 판단부360: arm operation unit 370: operation determination unit

380: 반응정보 처리부 390: 제어부380: reaction information processor 390: control unit

Claims (67)

수술용 로봇으로서,As a surgical robot, 제어 대상 물체의 조작이 제한되는 구역에 대한 제한구역 설정 정보를 입력받아 제한구역 좌표 정보를 생성하여 저장하는 제한구역 설정부;A restricted area setting unit configured to receive restricted area setting information about a zone in which manipulation of a control object is restricted and generate and store restricted area coordinate information; 상기 제어 대상 물체의 조작을 위한 조작정보를 입력받는 암 조작부; 및An arm manipulation unit which receives manipulation information for manipulation of the control object; And 상기 조작정보에 따른 상기 제어 대상 물체의 변위 정보를 참조하여 상기 제어 대상 물체의 외부면이 상기 제한구역 좌표 정보에 접촉되었는지 여부를 판단하는 조작 판단부를 포함하되,And an operation determination unit determining whether an outer surface of the control object is in contact with the coordinate information of the restricted area by referring to the displacement information of the control object according to the manipulation information. 상기 제어 대상 물체는 로봇 암, 인스트루먼트 및 내시경 중 하나 이상인 것 을 특징으로 하는 수술용 로봇.The control object is a surgical robot, characterized in that at least one of the robot arm, instrument and endoscope. 제1항에 있어서,The method of claim 1, 상기 제어 대상 물체의 외부면이 상기 제한구역 좌표 정보에 접촉되는 경우 상기 제어 대상 물체가 조작 제한되도록 제어하고, 이에 상응하도록 반응정보가 출력되도록 제어하는 제어부를 더 포함하는 수술용 로봇.And a controller configured to control the control target object to be restricted in operation when the outer surface of the control target object contacts the limited area coordinate information, and to output response information corresponding thereto. 제2항에 있어서,The method of claim 2, 상기 제어부는, The control unit, 상기 제어 대상 물체의 외부면이 상기 제한구역 좌표 정보에 접촉되는 경우 상기 제어 대상 물체가 조작 제한되도록 할지 여부를 결정한 후, 상기 제어 대상 물체가 조작 제한되도록 결정한 경우에만 상기 제어 대상 물체가 조작 제한되도록 제어하는 것을 특징으로 하는 수술용 로봇.When the external surface of the control object is in contact with the coordinate information of the restricted area, after determining whether to control the control object, the control object is limited to the operation only when the control object is determined to be restricted operation. Surgical robot, characterized in that for controlling. 제3항에 있어서,The method of claim 3, 제한구역 설정무시 명령을 입력받기 위한 입력부를 더 포함하되,Further including an input unit for receiving a command to ignore the restricted area setting, 상기 제어부는 상기 제한구역 설정무시 명령이 입력되면, 상기 제어 대상 물 체의 조작이 허용되도록 처리하는 것을 특징으로 하는 수술용 로봇.The control unit is a surgical robot, characterized in that the processing to allow the manipulation of the object to be controlled, if the command to ignore the restricted zone setting is input. 제2항에 있어서,The method of claim 2, 상기 반응정보는 촉각정보, 시각정보 및 청각정보 중 하나 이상인 것을 특징으로 하는 수술용 로봇.The reaction information is a surgical robot, characterized in that at least one of tactile information, visual information and auditory information. 제1항에 있어서,The method of claim 1, 상기 제한구역 좌표 정보는 영상 이미지가 표시되는 터치 감응 스크린을 이용하여 입력된 폐곡선에 상응하는 좌표 범위 정보인 것을 특징으로 하는 수술용 로봇.The limited area coordinate information is a surgical robot, characterized in that the coordinate range information corresponding to the closed curve input using the touch-sensitive screen on which the image image is displayed. 제6항에 있어서,The method of claim 6, 상기 영상 이미지는 내시경에 의해 획득된 영상 이미지, CT 영상 이미지, MRI 영상 이미지 및 인체 모델링 영상 이미지 중 하나 이상인 것을 특징으로 하는 수술용 로봇.The image image is a surgical robot, characterized in that at least one of the image image obtained by the endoscope, CT image, MRI image and human modeling image. 제1항에 있어서,The method of claim 1, 상기 제한구역 좌표 정보는 내시경에 의해 획득된 영상 이미지에 표시되지 않는 영역의 좌표 범위 정보인 것을 특징으로 하는 수술용 로봇.The limited area coordinate information is a surgical robot, characterized in that the coordinate range information of the area that is not displayed in the image image obtained by the endoscope. 제1항에 있어서,The method of claim 1, 상기 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상인 것을 특징으로 하는 수술용 로봇.The endoscope is a surgical robot, characterized in that at least one of the laparoscope, thoracoscopic, arthroscopy, parenteral, bladder, rectal, duodenum, mediastinoscope, cardiac. 제1항에 있어서,The method of claim 1, 상기 제한구역 좌표 정보는 상기 암 조작부의 조작 정보에 의해 상기 제어 대상 물체가 조작된 위치들 중 상기 제한구역 설정정보로서 지정받은 위치들에 의해 형성되는 도형의 좌표 범위 정보인 것을 특징으로 하는 수술용 로봇.Wherein the restricted area coordinate information is coordinate range information of a figure formed by positions designated as the restricted area setting information among positions at which the control object is manipulated by operation information of the arm manipulation unit; robot. 제10항에 있어서,The method of claim 10, 상기 제어 대상 물체는 3차원 공간상에서 조작되고, 상기 지정받은 위치들은 각각 3차원 공간상에서 도형의 외곽선 또는 외곽면을 형성하도록 지정된 포인트인 것을 특징으로 하는 수술용 로봇.And the controlled object is manipulated in three-dimensional space, and the designated positions are points designated to form an outline or an outer surface of a figure in three-dimensional space, respectively. 제1항에 있어서,The method of claim 1, 상기 암 조작부의 조작에 의해 각 제어 대상 물체의 조작 허용 여부에 대한 조작 설정 정보를 생성하여 저장하는 암 조작 설정부를 더 포함하되,The arm manipulation unit may further include an arm manipulation setting unit configured to generate and store manipulation setting information on whether to allow manipulation of each control target object by manipulation of the arm manipulation unit. 상기 조작 판단부는 임의의 제어 대상 물체에 대한 상기 조작정보가 유효한 조작정보인지 여부를 더 판단하는 것을 특징으로 하는 수술용 로봇.And the manipulation determining unit further determines whether the manipulation information for any control object is valid manipulation information. 수술용 로봇의 동작 제한 방법으로서,As a motion limiting method of a surgical robot, 제어 대상 물체의 조작이 제한되는 구역에 대한 제한구역 설정 정보를 입력받아 제한구역 좌표 정보를 생성하여 저장하는 단계;Receiving restricted zone setting information on a zone in which manipulation of a control object is restricted, generating and storing restricted zone coordinate information; 상기 제어 대상 물체의 조작을 위한 조작정보를 입력받는 단계; Receiving manipulation information for manipulation of the control object; 상기 조작정보에 따른 상기 제어 대상 물체의 변위 정보를 참조하여 상기 제어 대상 물체의 외부면이 상기 제한구역 좌표 정보에 접촉되었는지 여부를 판단하는 단계; 및Determining whether an outer surface of the controlled object is in contact with the limited area coordinate information by referring to the displacement information of the controlled object according to the manipulation information; And 상기 제어 대상 물체의 외부면이 상기 제한구역 좌표 정보에 접촉되는 경우 상기 제어 대상 물체가 조작 제한되도록 제어하는 단계를 포함하되,And controlling the controlled object to be restricted in operation when the outer surface of the controlled object is in contact with the limited area coordinate information. 상기 제어 대상 물체는 로봇 암, 인스트루먼트 및 내시경 중 하나 이상인 것을 특징으로 하는 수술용 로봇의 동작 제한 방법.The control object is a method of limiting the operation of the surgical robot, characterized in that at least one of the robot arm, instrument and endoscope. 제13항에 있어서,The method of claim 13, 상기 제어하는 단계는,The controlling step, 상기 제어 대상 물체의 외부면이 상기 제한구역 좌표 정보에 접촉되는 경우 상기 제어 대상 물체가 조작 제한되도록 할지 여부를 결정하는 단계; 및Determining whether the controlled object is controlled to be restricted when the outer surface of the controlled object is in contact with the restricted area coordinate information; And 상기 제어 대상 물체가 조작 제한되도록 결정한 경우 상기 제어 대상 물체가 조작 제한되도록 제어하는 단계를 포함하는 것을 특징으로 하는 수술용 로봇의 동작 제한 방법.And controlling the controlled object to be restricted in operation when the control target object is determined to be limited in operation. 제14항에 있어서,The method of claim 14, 상기 결정하는 단계는, 제한구역 설정무시 명령이 입력되었는지 여부를 판단하여 상기 제어 대상 물체가 조작 제한되도록 할지 여부를 결정하는 것을 특징으로 하는 수술용 로봇의 동작 제한 방법.The determining may include determining whether or not to control the object to be controlled by judging whether a restricted area setting ignore command has been input or not. 제13항에 있어서,The method of claim 13, 상기 제어하는 단계는,The controlling step, 상기 제어 대상 물체의 외부면이 상기 제한구역 좌표 정보에 접촉되는 경우 반응정보가 출력되도록 제어하는 단계를 포함하는 수술용 로봇의 동작 제한 방법.And controlling the reaction information to be output when the outer surface of the control object is in contact with the restriction area coordinate information. 제16항에 있어서,The method of claim 16, 상기 반응정보는 촉각정보, 시각정보 및 청각정보 중 하나 이상인 것을 특징으로 하는 수술용 로봇의 동작 제한 방법.The reaction information is a motion limiting method of the surgical robot, characterized in that at least one of the tactile information, visual information and auditory information. 제13항에 있어서,The method of claim 13, 상기 제한구역 좌표 정보는 영상 이미지가 표시되는 터치 감응 스크린을 이용하여 입력된 폐곡선에 상응하는 좌표 범위 정보인 것을 특징으로 하는 수술용 로봇의 동작 제한 방법.The limited area coordinate information is a motion limiting method of a surgical robot, characterized in that the coordinate range information corresponding to the closed curve input using the touch-sensitive screen on which the image image is displayed. 제18항에 있어서,The method of claim 18, 상기 영상 이미지는 내시경에 의해 획득된 영상 이미지, CT 영상 이미지, MRI 영상 이미지 및 인체 모델링 영상 이미지 중 하나 이상인 것을 특징으로 하는 수술용 로봇의 동작 제한 방법.The image image is a method of limiting the operation of the surgical robot, characterized in that at least one of the image image obtained by the endoscope, CT image, MRI image and human modeling image. 제13항에 있어서,The method of claim 13, 상기 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상인 것을 특징으로 하는 수술용 로봇의 동작 제한 방법.The endoscope is a method of limiting the operation of the surgical robot, characterized in that at least one of the laparoscope, thoracoscopic, arthroscopy, parenteral, bladder, rectal, duodenum, mediastinoscope, cardiac. 제13항에 있어서,The method of claim 13, 상기 제한구역 좌표 정보는 내시경에 의해 획득된 영상 이미지에 표시되지 않는 영역의 좌표 범위 정보인 것을 특징으로 하는 수술용 로봇의 동작 제한 방법.The restriction area coordinate information is a motion limiting method of a surgical robot, characterized in that the coordinate range information of the area that is not displayed in the image image obtained by the endoscope. 제13항에 있어서,The method of claim 13, 상기 제한구역 좌표 정보는 상기 암 조작부의 조작 정보에 의해 상기 제어 대상 물체가 조작된 위치들 중 상기 제한구역 설정정보로서 지정받은 위치들에 의해 형성되는 도형의 좌표 범위 정보인 것을 특징으로 하는 수술용 로봇의 동작 제한 방법.Wherein the restricted area coordinate information is coordinate range information of a figure formed by positions designated as the restricted area setting information among positions at which the control object is manipulated by operation information of the arm manipulation unit; How to limit robot's motion. 제22항에 있어서,The method of claim 22, 상기 제어 대상 물체는 3차원 공간상에서 조작되고, 상기 지정받은 위치들은 각각 3차원 공간상에서 도형의 외곽선 또는 외곽면을 형성하도록 지정된 포인트인 것을 특징으로 하는 수술용 로봇의 동작 제한 방법.And the control object is manipulated in three-dimensional space, and the designated positions are points designated to form an outline or an outer surface of a figure in three-dimensional space, respectively. 제13항에 있어서,The method of claim 13, 상기 암 조작부의 조작에 의해 각 제어 대상 물체의 조작 허용 여부에 대한 조작 설정 정보를 생성하여 저장하는 단계; 및Generating and storing manipulation setting information on whether to allow manipulation of each control object by manipulation of the arm manipulation unit; And 임의의 제어 대상 물체에 대한 상기 조작정보가 유효한 조작정보인지 여부를 판단하는 단계를 더 포함하는 수술용 로봇의 동작 제한 방법.And determining whether the manipulation information for any control object is valid manipulation information. 제24항에 있어서,The method of claim 24, 상기 조작정보가 유효하지 않은 조작정보인 경우, 반응정보가 출력되도록 제어하는 단계를 더 포함하는 수술용 로봇의 동작 제한 방법.If the manipulation information is invalid manipulation information, further comprising controlling the reaction information to be output. 제13항 내지 제25항 중 어느 하나에 기재된 수술용 로봇의 동작 제한 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체.A program of instructions that can be executed by a digital processing device is tangibly embodied and executed by the digital processing device in order to perform the motion limiting method of the surgical robot according to any one of claims 13 to 25. Recording medium. 수술용 로봇으로서,As a surgical robot, 내시경에 의해 획득되어 제공되는 영상 이미지를 디스플레이하는 표시부;A display unit for displaying a video image obtained and provided by an endoscope; 제어 대상 물체의 조작을 위한 조작정보를 입력받는 암 조작부; 및An arm manipulation unit which receives manipulation information for manipulation of the object to be controlled; And 상기 제어 대상 물체가 이동된 위치들 중 포인트 지정 명령이 입력된 복수의 위치들을 외곽선에 포함하는 영역에 상응하는 영역 이미지가 상기 영상 이미지에 오버레이되어 디스플레이되도록 제어하는 제어부를 포함하되,And a controller configured to control a region image corresponding to a region including a plurality of positions of which a point designation command is input from among the positions to which the control object is moved is overlaid on the image image and displayed. 상기 제어 대상 물체는 로봇 암, 인스트루먼트 및 상기 내시경 중 하나 이상인 것을 특징으로 하는 수술용 로봇.The control object is a surgical robot, characterized in that at least one of the robot arm, the instrument and the endoscope. 제27항에 있어서,The method of claim 27, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 분할 명령의 입력에 의해, 상기 영역 이미지는 둘 이상의 개별 영역들로 분할되는 것을 특징으로 하는 수술용 로봇.And by input of a point designation command and a segmentation command for two or more positions defining a boundary line connected to segment the region image, the region image is divided into two or more separate regions. 제27항에 있어서,The method of claim 27, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치 들에 대한 포인트 지정 명령 및 접기 명령의 입력에 의해, 상기 경계선을 기준으로 하나 이상의 개별 영역이 다른 하나 이상의 개별 영역쪽으로 회전 이동되도록 영역 이미지가 변형되는 것을 특징으로 하는 수술용 로봇.Area image so that, by input of a point designation command and a folding command for two or more positions defining a boundary line connected to segment the area image, one or more individual areas are rotated relative to the other one or more individual areas based on the boundary line. Surgical robot, characterized in that the deformation. 제29항에 있어서,30. The method of claim 29, 복원 명령의 입력에 의해 상기 경계선을 기준으로 회전 이동되어 중첩 표시된 개별 영역이 원위치로 복귀된 영역 이미지가 디스플레이되는 것을 특징으로 하는 수술용 로봇.And a region image in which the individual regions which are rotated and moved on the basis of the boundary line and returned to their original positions by the restoration command are displayed. 제27항에 있어서,The method of claim 27, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 삭제 명령의 입력에 의해, 하나 이상의 개별 영역이 삭제 처리되는 것을 특징으로 하는 수술용 로봇.And one or more individual regions are erased by inputting a point designation command and a deletion command for two or more positions defining a boundary line connected to segment the region image. 제27항에 있어서,The method of claim 27, 상기 영역 이미지의 외곽선 및 외곽면은 점들의 연속으로 인식되고, 어느 하나의 점에 대한 포인트 지정 및 이동 명령에 의해, 상기 영역 이미지는 변형 처리 되는 것을 특징으로 하는 수술용 로봇.The outline and the outer surface of the area image are recognized as a series of points, and by the point designation and movement command for any one point, the surgical robot, characterized in that the deformation process. 제27항에 있어서,The method of claim 27, 상기 영역 이미지에 상응하도록 추출된 좌표 범위가 제한구역 또는 허용구역으로 설정되는 것을 특징으로 하는 수술용 로봇.And a coordinate range extracted to correspond to the area image is set as a restricted area or an allowable area. 제33항에 있어서,34. The method of claim 33, 상기 영역 이미지에 상응하도록 추출된 좌표 범위가 제한구역으로 설정된 경우, 상기 조작정보에 따른 상기 제어 대상 물체의 변위 정보를 참조하여 상기 제어 대상 물체의 외부면이 상기 좌표 범위에 접촉되었는지 여부를 판단하는 조작 판단부를 더 포함하는 수술용 로봇.When the coordinate range extracted to correspond to the area image is set as the restricted area, it is determined whether the outer surface of the controlled object is in contact with the coordinate range by referring to the displacement information of the controlled object according to the manipulation information. Surgical robot further comprising an operation determination unit. 제34항에 있어서,The method of claim 34, wherein 상기 제어부는 상기 제어 대상 물체의 외부면이 상기 좌표 범위에 접촉된 경우, 상기 제어 대상 물체가 조작 제한되도록 제어하고, 이에 상응하도록 반응정보가 출력되도록 제어하는 것을 특징으로 하는 수술용 로봇.And the control unit controls the control target object to be restricted in operation when the outer surface of the control target object is in contact with the coordinate range, and controls to output response information corresponding thereto. 제35항에 있어서,36. The method of claim 35 wherein 상기 암 조작부의 조작에 의해 각 제어 대상 물체의 조작 허용 여부에 대한 조작 설정 정보를 생성하여 저장하는 암 조작 설정부를 더 포함하되,The arm manipulation unit may further include an arm manipulation setting unit configured to generate and store manipulation setting information on whether to allow manipulation of each control target object by manipulation of the arm manipulation unit. 상기 조작 판단부는 임의의 제어 대상 물체에 대한 상기 조작정보가 유효한 조작정보인지 여부를 더 판단하는 것을 특징으로 하는 수술용 로봇.And the manipulation determining unit further determines whether the manipulation information for any control object is valid manipulation information. 제27항에 있어서,The method of claim 27, 상기 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상인 것을 특징으로 하는 수술용 로봇.The endoscope is a surgical robot, characterized in that at least one of the laparoscope, thoracoscopic, arthroscopy, parenteral, bladder, rectal, duodenum, mediastinoscope, cardiac. 수술용 로봇의 영역 설정 방법으로서,As an area setting method of a surgical robot, 내시경에 의해 획득되어 제공되는 영상 이미지를 디스플레이하는 단계;Displaying a video image obtained and provided by the endoscope; 제어 대상 물체의 조작을 위한 조작정보를 입력받는 단계; 및Receiving manipulation information for manipulation of the object to be controlled; And 상기 제어 대상 물체가 이동된 위치들 중 포인트 지정 명령이 입력된 복수의 위치들을 외곽선에 포함하는 영역에 상응하는 영역 이미지가 상기 영상 이미지에 오버레이되어 디스플레이되도록 제어하는 단계를 포함하되,And controlling a region image corresponding to a region including a plurality of positions of which a point designation command is input among the positions to which the control object is moved is overlaid on the image image and displayed. 상기 제어 대상 물체는 로봇 암, 인스트루먼트 및 상기 내시경 중 하나 이상 이고, 상기 영역 이미지에 상응하도록 추출된 좌표 범위가 제한구역 또는 허용구역으로 설정되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.The object to be controlled is at least one of a robot arm, an instrument, and the endoscope, and a coordinate range extracted to correspond to the area image is set to a restricted area or an allowable area. 제38항에 있어서,39. The method of claim 38, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 분할 명령의 입력에 의해, 상기 영역 이미지는 둘 이상의 개별 영역들로 분할되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.The region image is divided into two or more separate regions by input of a point designation command and a segmentation command for two or more positions defining a boundary line connected to segment the region image; How to set up. 제38항에 있어서,39. The method of claim 38, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 접기 명령의 입력에 의해, 상기 경계선을 기준으로 하나 이상의 개별 영역이 다른 하나 이상의 개별 영역쪽으로 회전 이동되어 중첩되도록 영역 이미지가 디스플레이되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.By input of a point designation command and a folding command for two or more positions defining a boundary line connected to segment the region image, one or more individual regions are rotated and overlapped with respect to the one or more individual regions with respect to the boundary line. An area setting method of a surgical robot, characterized in that the area image is displayed. 제40항에 있어서,The method of claim 40, 복원 명령의 입력에 의해 상기 경계선을 기준으로 회전 이동되어 중첩 표시된 개별 영역이 원위치로 복귀된 영역 이미지가 디스플레이되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.The area setting method of the surgical robot, characterized in that for displaying the area image is rotated relative to the boundary line by the input of the restore command to return to the original position of the individual areas displayed superimposed. 제38항에 있어서,39. The method of claim 38, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 삭제 명령의 입력에 의해, 하나 이상의 개별 영역이 삭제 처리되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.And at least one individual area is deleted by inputting a point designating command and a deleting command for two or more locations defining a boundary line connected to divide the area image. 제38항에 있어서,39. The method of claim 38, 상기 영역 이미지에 상응하도록 추출된 좌표 범위가 제한구역으로 설정된 경우, 상기 조작정보에 따른 상기 제어 대상 물체의 변위 정보를 참조하여 상기 제어 대상 물체의 외부면이 상기 좌표 범위에 접촉되었는지 여부를 판단하는 단계를 더 포함하는 수술용 로봇의 영역 설정 방법.When the coordinate range extracted to correspond to the area image is set as the restricted area, it is determined whether the outer surface of the controlled object is in contact with the coordinate range by referring to the displacement information of the controlled object according to the manipulation information. Area setting method of the surgical robot further comprising the step. 제43항에 있어서,The method of claim 43, 상기 제어하는 단계에서,In the controlling step, 상기 제어 대상 물체의 외부면이 상기 좌표 범위에 접촉된 경우, 상기 제어 대상 물체가 조작 제한되도록 제어되고, 이에 상응하도록 반응정보가 출력되도록 제어되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.And when the external surface of the object to be controlled is in contact with the coordinate range, the object to be controlled is controlled to be controlled to be controlled, and the response information is controlled to output response information corresponding thereto. 제44항에 있어서,The method of claim 44, 각 제어 대상 물체의 조작 허용 여부에 대한 조작 설정 정보를 생성하여 저장하는 단계; 및Generating and storing manipulation setting information regarding whether to allow manipulation of each control object; And 임의의 조작 대상 물체에 대한 상기 조작정보가 유효한 조작정보인지 여부를 판단하는 단계를 더 포함하는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.And determining whether the manipulation information for any manipulation target object is valid manipulation information. 제38항에 있어서,39. The method of claim 38, 상기 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상인 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.The endoscope is a laparoscopic, thoracoscopic, arthroscopic, parenteral, bladder, rectal, duodenum, mediastinum, cardiac, the area setting method of the surgical robot, characterized in that one or more. 수술용 로봇으로서,As a surgical robot, 내시경에 의해 획득되어 제공되는 영상 이미지를 디스플레이하는 표시부;A display unit for displaying a video image obtained and provided by an endoscope; 인체 모델링 정보 및 이에 상응하는 모델링 데이터를 저장하는 저장부;A storage unit storing human modeling information and corresponding modeling data; 획득된 하나 이상의 장기에 대한 장기 선택 정보에 상응하는 모델링 데이터를 추출하고, 상기 모델링 데이터에 상응하는 영역 이미지가 상기 영상 이미지에 오버레이되어 디스플레이되도록 제어하는 제어부를 포함하되,And a controller configured to extract modeling data corresponding to the acquired organ selection information about one or more organs, and to control a region image corresponding to the modeling data to be overlaid and displayed on the image image. 상기 모델링 데이터는 장기의 색상, 형상, 크기 중 하나 이상의 정보를 포함하는 것을 특징으로 하는 수술용 로봇.The modeling data is a surgical robot, characterized in that it comprises one or more of the color, shape, size of the organ. 제47항에 있어서,49. The method of claim 47, 상기 인체 모델링 정보 및 상기 모델링 데이터는 CT 영상, MRI 영상 중 하나 이상인 참조 영상을 이용하여 생성되는 것을 특징으로 하는 수술용 로봇.The human body modeling information and the modeling data is a surgical robot, characterized in that generated using a reference image of at least one of the CT image, MRI image. 제48항에 있어서,The method of claim 48, 상기 장기 선택 정보는 상기 모델링 데이터 중 상기 영상 이미지에 대한 영상 인식에 의해 인식된 장기의 형상 및 색상 중 하나 이상에 상응하는 장기로 선택 지정되는 것을 특징으로 하는 수술용 로봇.And the organ selection information is selected and designated as an organ corresponding to one or more of the shape and color of the organ recognized by the image recognition of the image image among the modeling data. 제49항에 있어서,The method of claim 49, 상기 영역 이미지는 상기 영상 이미지에 대한 에지 검출에 의해 인식된 장기의 외곽선에 상응하는 외곽선을 가지도록 변형 처리되는 것을 특징으로 하는 수술용 로봇.And the area image is modified to have an outline corresponding to an outline of an organ recognized by edge detection of the image. 제50항에 있어서,51. The method of claim 50, 로봇 암, 인스트루먼트 및 내시경 중 하나 이상을 포함하는 제어 대상 물체의 조작을 위한 조작정보를 입력받는 암 조작부를 더 포함하되,Further comprising a arm operation unit for receiving operation information for the operation of the controlled object including at least one of the robot arm, the instrument and the endoscope, 상기 조작정보에 의해 상기 장기의 위치 변동, 모양 변화 중 하나 이상이 발생되면, 상기 장기의 외곽선에 상응하도록 상기 영역 이미지가 변형 처리되는 것을 특징으로 하는 수술용 로봇.And one or more of position change and shape change of the organ by the manipulation information, wherein the region image is deformed to correspond to the outline of the organ. 제47항에 있어서,49. The method of claim 47, 상기 영역 이미지의 외곽선 및 외곽면은 점들의 연속으로 인식되고, 어느 하나의 점에 대한 포인트 지정 및 이동 명령에 의해, 상기 영역 이미지는 변형 처리되는 것을 특징으로 하는 수술용 로봇.The outline and the outer surface of the area image are recognized as a series of points, and by the point designation and movement command for any one point, the surgical robot, characterized in that the deformation process. 제47항에 있어서,49. The method of claim 47, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 분할 명령의 입력에 의해, 상기 영역 이미지는 둘 이상의 개별 영역들로 분할되는 것을 특징으로 하는 수술용 로봇.And by input of a point designation command and a segmentation command for two or more positions defining a boundary line connected to segment the region image, the region image is divided into two or more separate regions. 제47항에 있어서,49. The method of claim 47, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 접기 명령의 입력에 의해, 상기 경계선을 기준으로 하나 이상의 개별 영역이 다른 하나 이상의 개별 영역쪽으로 회전 이동되어 중첩되도록 영역 이미지가 디스플레이되는 것을 특징으로 하는 수술용 로봇.By input of a point designation command and a folding command for two or more positions defining a boundary line connected to segment the region image, one or more individual regions are rotated and overlapped with respect to the one or more individual regions with respect to the boundary line. Surgical robot, characterized in that the area image is displayed. 제54항에 있어서,55. The method of claim 54, 복원 명령의 입력에 의해 상기 경계선을 기준으로 회전 이동되어 중첩 표시된 개별 영역이 원위치로 복귀된 영역 이미지가 디스플레이되는 것을 특징으로 하는 수술용 로봇.And a region image in which the individual regions which are rotated and moved on the basis of the boundary line and returned to their original positions by the restoration command are displayed. 제47항에 있어서,49. The method of claim 47, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치 들에 대한 포인트 지정 명령 및 삭제 명령의 입력에 의해, 하나 이상의 개별 영역이 삭제 처리되는 것을 특징으로 하는 수술용 로봇.And one or more individual regions are deleted by inputting a point designation command and a deletion command for two or more positions defining a boundary line connected to segment the region image. 수술용 로봇의 영역 설정 방법으로서,As an area setting method of a surgical robot, 인체 모델링 정보 및 이에 상응하는 모델링 데이터를 저장하는 단계;Storing human modeling information and corresponding modeling data; 내시경에 의해 획득되어 제공되는 영상 이미지를 디스플레이하는 단계; 및Displaying a video image obtained and provided by the endoscope; And 획득된 하나 이상의 장기에 대한 장기 선택 정보에 상응하는 모델링 데이터를 추출하고, 상기 모델링 데이터에 상응하는 영역 이미지가 상기 영상 이미지에 오버레이되어 디스플레이되도록 제어하는 단계를 포함하되,Extracting modeling data corresponding to the acquired organ selection information for one or more organs, and controlling an area image corresponding to the modeling data to be overlaid and displayed on the image image, 상기 모델링 데이터는 장기의 색상, 형상, 크기 중 하나 이상의 정보를 포함하는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.The modeling data, the area setting method of the surgical robot, characterized in that it comprises one or more of the color, shape, size of the organ. 제57항에 있어서,The method of claim 57, 상기 인체 모델링 정보 및 상기 모델링 데이터는 CT 영상, MRI 영상 중 하나 이상인 참조 영상을 이용하여 생성되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.The human modeling information and the modeling data is a region setting method of a surgical robot, characterized in that it is generated using a reference image that is one or more of the CT image, MRI image. 제58항에 있어서,59. The method of claim 58, 상기 장기 선택 정보는 상기 모델링 데이터 중 상기 영상 이미지에 대한 영상 인식에 의해 인식된 장기의 형상 및 색상 중 하나 이상에 상응하는 장기로 선택 지정되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.And the organ selection information is selected and designated as an organ corresponding to at least one of the shape and color of the organ recognized by the image recognition of the image image among the modeling data. 제59항에 있어서,The method of claim 59, 상기 영역 이미지는 상기 영상 이미지에 대한 에지 검출에 의해 인식된 장기의 외곽선에 상응하는 외곽선을 가지도록 변형 처리되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.And the area image is deformed to have an outline corresponding to an outline of an organ recognized by edge detection of the image image. 제60항에 있어서,The method of claim 60, 로봇 암, 인스트루먼트 및 내시경 중 하나 이상을 포함하는 제어 대상 물체의 조작을 위한 조작정보에 의해 상기 장기의 위치 변동, 모양 변화 중 하나 이상이 발생되면, 상기 장기의 외곽선에 상응하도록 상기 영역 이미지가 변형 처리되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.When one or more of position change or shape change of the organ is generated by operation information for manipulation of a controlled object including at least one of a robot arm, an instrument, and an endoscope, the region image is modified to correspond to the outline of the organ. Method for setting the area of the surgical robot, characterized in that the process. 제57항에 있어서,The method of claim 57, 상기 영역 이미지의 외곽선은 점들의 연속으로 인식되고, 어느 하나의 점에 대한 포인트 지정 및 이동 명령에 의해, 상기 영역 이미지는 변형 처리되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.The outline of the area image is recognized as a series of points, and the area image is deformed by a point designation and movement command for any one point. 제57항에 있어서,The method of claim 57, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 분할 명령의 입력에 의해, 상기 영역 이미지는 둘 이상의 개별 영역들로 분할되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.The region image is divided into two or more separate regions by input of a point designation command and a segmentation command for two or more positions defining a boundary line connected to segment the region image; How to set up. 제57항에 있어서,The method of claim 57, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 접기 명령의 입력에 의해, 상기 경계선을 기준으로 하나 이상의 개별 영역이 다른 하나 이상의 개별 영역쪽으로 회전 이동되어 중첩되도록 영역 이미지가 디스플레이되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.By input of a point designation command and a folding command for two or more positions defining a boundary line connected to segment the region image, one or more individual regions are rotated and overlapped with respect to the one or more individual regions with respect to the boundary line. An area setting method of a surgical robot, characterized in that the area image is displayed. 제64항에 있어서,65. The method of claim 64, 복원 명령의 입력에 의해 상기 경계선을 기준으로 회전 이동되어 중첩 표시된 개별 영역이 원위치로 복귀된 영역 이미지가 디스플레이되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.The area setting method of the surgical robot, characterized in that for displaying the area image is rotated relative to the boundary line by the input of the restore command to return to the original position of the individual areas displayed superimposed. 제57항에 있어서,The method of claim 57, 상기 영역 이미지를 분할하도록 연결되는 경계선을 규정하는 둘 이상의 위치들에 대한 포인트 지정 명령 및 삭제 명령의 입력에 의해, 하나 이상의 개별 영역이 삭제 처리되는 것을 특징으로 하는 수술용 로봇의 영역 설정 방법.And at least one individual area is deleted by inputting a point designating command and a deleting command for two or more locations defining a boundary line connected to divide the area image. 제38항 내지 제46항 및 제57항 내지 제66항 중 어느 하나에 기재된 수술용 로봇의 영역 설정 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체.67. A program of instructions that can be executed by a digital processing apparatus is tangibly implemented and digitally processed to perform the method for setting a region of a surgical robot according to any one of claims 38 to 46 and 57 to 66. Recording medium recording a program that can be read by the device.
KR1020090114651A 2009-10-01 2009-11-25 Surgical robot system and motion restriction control method thereof KR101683057B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090114651A KR101683057B1 (en) 2009-10-30 2009-11-25 Surgical robot system and motion restriction control method thereof
PCT/KR2010/006662 WO2011040769A2 (en) 2009-10-01 2010-09-30 Surgical image processing device, image-processing method, laparoscopic manipulation method, surgical robot system and an operation-limiting method therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20090104379 2009-10-30
KR1020090104379 2009-10-30
KR1020090114651A KR101683057B1 (en) 2009-10-30 2009-11-25 Surgical robot system and motion restriction control method thereof

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020110045994A Division KR101114232B1 (en) 2011-05-17 2011-05-17 Surgical robot system and motion restriction control method thereof
KR1020160108847A Division KR101715026B1 (en) 2016-08-26 2016-08-26 Surgical robot system and motion restriction control method thereof

Publications (2)

Publication Number Publication Date
KR20110047929A true KR20110047929A (en) 2011-05-09
KR101683057B1 KR101683057B1 (en) 2016-12-07

Family

ID=44239143

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090114651A KR101683057B1 (en) 2009-10-01 2009-11-25 Surgical robot system and motion restriction control method thereof

Country Status (1)

Country Link
KR (1) KR101683057B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140020071A (en) * 2012-08-07 2014-02-18 삼성전자주식회사 Surgical robot system and control method thereof
US9054631B2 (en) 2012-01-05 2015-06-09 Samsung Electronics Co., Ltd. Servo control apparatus and method for controlling the same
EP3705075A1 (en) * 2014-11-04 2020-09-09 CMR Surgical Limited Characterising motion constraints

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005312991A (en) * 2005-07-08 2005-11-10 Olympus Corp Medical manipulator system
KR20080068640A (en) * 2005-10-20 2008-07-23 인튜어티브 서지컬 인코포레이티드 Auxiliary image display and manipulation on a computer display in a medical robotic system
KR20090034813A (en) * 2006-06-29 2009-04-08 인튜어티브 서지컬 인코포레이티드 Surgical tool position and identification indicator displayed in a boundary area of a computer display screen
JP2009233240A (en) * 2008-03-28 2009-10-15 Univ Waseda Surgery supporting system, approaching state detection device and program thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005312991A (en) * 2005-07-08 2005-11-10 Olympus Corp Medical manipulator system
KR20080068640A (en) * 2005-10-20 2008-07-23 인튜어티브 서지컬 인코포레이티드 Auxiliary image display and manipulation on a computer display in a medical robotic system
KR20090034813A (en) * 2006-06-29 2009-04-08 인튜어티브 서지컬 인코포레이티드 Surgical tool position and identification indicator displayed in a boundary area of a computer display screen
JP2009233240A (en) * 2008-03-28 2009-10-15 Univ Waseda Surgery supporting system, approaching state detection device and program thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9054631B2 (en) 2012-01-05 2015-06-09 Samsung Electronics Co., Ltd. Servo control apparatus and method for controlling the same
KR20140020071A (en) * 2012-08-07 2014-02-18 삼성전자주식회사 Surgical robot system and control method thereof
EP3705075A1 (en) * 2014-11-04 2020-09-09 CMR Surgical Limited Characterising motion constraints

Also Published As

Publication number Publication date
KR101683057B1 (en) 2016-12-07

Similar Documents

Publication Publication Date Title
US11766308B2 (en) Systems and methods for presenting augmented reality in a display of a teleoperational system
KR101038417B1 (en) Surgical robot system and control method thereof
JP2022116155A (en) Systems and methods for onscreen identification of instruments in remote control medical system
EP3870021B1 (en) Mixed reality systems and methods for indicating an extent of a field of view of an imaging device
KR101598774B1 (en) Apparatus and Method for processing surgical image
KR101114232B1 (en) Surgical robot system and motion restriction control method thereof
US20210145523A1 (en) Robotic surgery depth detection and modeling
KR20230020504A (en) Remote Surgery Mentoring Using Augmented Reality
US20220280238A1 (en) Robot-assisted setup for a surgical robotic system
KR100962472B1 (en) Surgical robot system and control method thereof
KR101683057B1 (en) Surgical robot system and motion restriction control method thereof
EP3871193B1 (en) Mixed reality systems and methods for indicating an extent of a field of view of an imaging device
KR101114226B1 (en) Surgical robot system using history information and control method thereof
KR100956762B1 (en) Surgical robot system using history information and control method thereof
US12011236B2 (en) Systems and methods for rendering alerts in a display of a teleoperational system
Abdurahiman et al. Human-computer interfacing for control of angulated scopes in robotic scope assistant systems
KR101715026B1 (en) Surgical robot system and motion restriction control method thereof
WO2024006729A1 (en) Assisted port placement for minimally invasive or robotic assisted surgery
KR101114231B1 (en) Apparatus and Method for processing surgical image
EP4458280A1 (en) System to display clip positions
WO2024157113A1 (en) Surgical robotic system and method for assisted access port placement
KR101709911B1 (en) Surgical robot system and laparoscope handling method thereof
WO2023220108A1 (en) Systems and methods for content aware user interface overlays
EP4384984A1 (en) Systems and methods for a differentiated interaction environment
CN118891017A (en) System and method for remote guidance in a robotic-assisted medical system

Legal Events

Date Code Title Description
A107 Divisional application of patent
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20191209

Year of fee payment: 4