KR102520214B1 - 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 - Google Patents
선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 Download PDFInfo
- Publication number
- KR102520214B1 KR102520214B1 KR1020220169877A KR20220169877A KR102520214B1 KR 102520214 B1 KR102520214 B1 KR 102520214B1 KR 1020220169877 A KR1020220169877 A KR 1020220169877A KR 20220169877 A KR20220169877 A KR 20220169877A KR 102520214 B1 KR102520214 B1 KR 102520214B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- driving
- cooperative
- collaborative
- cooperative robot
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000004044 response Effects 0.000 title claims abstract description 16
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 238000003745 diagnosis Methods 0.000 claims abstract description 22
- 238000012937 correction Methods 0.000 claims abstract description 20
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000007519 figuring Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 14
- 239000003550 marker Substances 0.000 description 14
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000037152 sensory function Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
- B25J19/061—Safety devices with audible signals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
본 발명은 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다. 보다 자세하게는 협동 로봇이 작업을 실시하기 이전에 고장 진단 및 구동 보정을 하고, 또한 구동 시에는 협동 로봇이 주변 움직임을 피하여 구동될 수 있도록 한 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다.
Description
본 발명은 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다. 보다 자세하게는 협동 로봇이 작업을 실시하기 이전에 고장 진단 및 구동 보정을 하고, 또한 구동 시에는 협동 로봇이 주변 움직임을 피하여 구동될 수 있도록 한 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다.
많은 전문가들은 4차 산업 혁명과 첨단 기술의 발달로 인간과 로봇(Robot)이 공존하는 사회가 도래할 것이라고 전망하였다.
현재의 로봇 기술은 사람들이 할 수 있는 작업을 그대로 모방하거나 들어 올리고 옮기는 작업과 같은 단순 노동을 수행할 수 있음은 물론 공업, 농업, 서비스업 등과 같이 정밀함과 정확함을 요구하는 작업들을 수행할 수 있을 정도로 발전하였다.
로봇이 앞서 언급한 역할들을 수행할 수 있었던 것은 노동을 하게 되면 체력이 고갈되는 인간과 달리 입력된 데이터와 공급 에너지(예. 전기 에너지)만 있으면 구동 제어가 있을 때까지 주어진 작업을 완수하는 로봇의 특징 때문일 것이다.
또한, 로봇은 사소한 감정 또는 심리 상태에 의하여 작업 중에 실수를 할 수 있는 인간과 달리 입력된 데이터를 기반으로 구동을 실시하기 때문에 작업 중에 실수를 할 일이 없고, 최근에는 로봇에 인공지능 AI 기술이 탑재되어 입력된 구동 데이터들을 스스로 학습하거나 주변 객체들을 식별할 수 있게 되어 보다 정밀하고 정확한 작업을 수행할 수 있게 되었다.
다만, 로봇은 인간과 달리 감각 기능을 갖고 있지 않으며 예방 가능한 상황에 대한 선제적 대응이 불가능하다. 구체적인 예로, 로봇은 인간과 달리 작업을 시작하기 전에 본체가 작업에 대하여 준비가 되었는지 또는 현재 로봇의 상태가 불편한 점이 없는지 자체적으로 판단하거나 불편한 부분을 자체적으로 해결하기 어려우며, 작업 중에 발생되는 예방 가능한 돌발 상황(예. 다음 작업 공간에 누군가 방해 중인 상황)을 대처하기에는 어려움이 있었다.
본 발명은 이와 같은 문제점에 착안하여 도출된 것으로, 이상에서 살핀 기술적 문제점을 해소시킬 수 있음은 물론, 본 기술분야에서 통상의 지식을 가진 자가 용이하게 고안할 수 없는 추가적인 기술요소들을 제공하기 위해 발명되었다.
본 발명은 협동 로봇이 특정 작업을 실시하기 이전에 협동 로봇이 고장 났는지에 대하여 또는 특정 작업을 실시하기 위한 구동의 오차가 없는지에 대하여 판단하여, 고장 났거나 구동의 오차가 있는 경우 이를 보정하여 상기 특정 작업을 실시하도록 하는 방법 및 이를 위한 시스템을 제공하는 것을 목적한다.
또한, 본 발명은 협동 로봇이 특정 작업에 대하여 순차적으로 제1 구동과제2 구동을 실시할 때에 제2 구동을 실시하기 이전에, 제2 구동을 실시하기 위하여 이동해야 하는 경로 또는 제2 구동을 실시할 때의 협동 로봇의 움직임 반경에 장애물이 있는지 먼저 파악하여 선제적 대응 실시하는 방법 및 이를 위한 시스템을 제공하는 것을 목적으로 한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 (a) 협동 로봇이 고장 진단을 위한 구동을 실시할 때, 제1 위치 감지 센서가 실시간으로 상기 협동 로봇의 위치 정확도를 파악하는 단계, (b) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 상기 협동 로봇이 작업을 위한 제1 구동을 실시하도록 하는 단계, (c) 상기 협동 로봇이 작업을 위한 제2 구동을 실시하기 이전에, 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 주변 움직임을 감지하는 단계 및 (d) 상기 제2 위치 감지 센서에 의해 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임이 감지되지 않은 경우, 상기 협동 로봇이 제2 구동을 실시하는 단계를 포함할 수 있다.
또한, 상기 위치 정확도는 상기 협동 로봇이 작업을 수행할 때에 위치해야 하는 표준의 위치와 상기 협동 로봇이 고장 진단을 위한 구동을 실시할 때의 협동 로봇의 위치를 비교 분석하여 유사도를 산출한 것임을 특징으로 할 수 있다.
또한, 상기 제1 위치 감지 센서는 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 카메라인 것을 특징으로 할 수 있다.
또한, 상기 제2 위치 감지 센서는 3차원 Lidar 또는 Depth 카메라를 적어도 하나 이상 포함하는 장치로서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 카메라인 것을 특징으로 할 수 있다.
또한, 상기 (a) 단계 이후에, (a-1) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하는 경우, 상기 로봇 서버에 고장 정보- 상기 고장 정보는, 상기 협동 로봇의 식별 코드, 또는 오차 범위를 적어도 하나 이상 포함하는 정보임-를 송신하여 구동 보정을 요청하는 단계 및 상기 협동 로봇이 상기 로봇 서버로부터 구동 보정 정보를 수신한 경우, 상기 협동 로봇이 고장 진단을 위한 구동을 재실시하도록 하는 단계를 더 포함할 수 있다.
또한, 상기 (c) 단계 이후에, (c-1) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇의 음성 발화부가 경고 음성을 출력하도록 하는 단계를 더 포함할 수 있다.
또한, 상기 (c) 단계 이후에, (c-1′) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇이 축 변경이 가능한 협동 로봇인지에 대한 여부를 판단하는 단계. (c-2′) 상기 협동 로봇이 축 변경이 가능한 협동 로봇이라 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능한지에 대한 여부를 판단 하는 단계 및 (c-3′) 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능하다고 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동을 실시하도록 하는 단계를 더 포함할 수 있다.
한편, 위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 협동 로봇 구동 시스템은 로봇 서버와 데이터 교환이 가능하여 상기 로봇 서버에 고장 정보를 전송하는 통신부; 상기 협동 로봇의 위치 및 움직임을 감지하거나 상기 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 센서부; 상기 센서부로부터 생성된 센싱정보를 기반으로 물체 또는 사람을 인식하는 장애물 인식부; 상기 협동 로봇이 작업을 수행할 때에 필요한 상기 협동 로봇의 이동경로를 생성하는 경로 생성부; 상기 협동 로봇 또는 상기 협동 로봇에 구비된 로봇팔의 구동을 제어하는 구동 제어부; 및 경고 음성을 출력하는 음성 발화부; 를 포함하고, 외면에 적어도 하나 이상의 IR 마커가 부착된 협동 로봇, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 제1 위치 감지 센서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 제2 위치 감지 센서 및 상기 협동 로봇으로부터 상기 고장 정보를 수신하면, 상기 고장 정보를 분석하여 구동 보정 정보를 생성하고 상기 구동 보정 정보를 상기 협동 로봇에 전송하는 로봇 서버를 포함할 수 있다.
상기와 같은 본 발명에 따르면, 협동 로봇이 특정 작업을 실시하기 이전에 협동 로봇이 고장 진단 구동 실시하여 고장이 났거나 구동의 오차가 있는 것을 사전에 파악함으로써, 작업의 완성도를 향상시켜 양질의 작업 결과물을 만들어 낼 수 있는 효과가 있다.
또한, 협동 로봇이 제1 구동 이후 제2 구동을 실시하기 이전에 제2 구동을 실시하기 위하여 이동하는 경로 또는 제2 구동을 실시할 때의 협동 로봇의 움직임 반경에 장애물이 있는지 먼저 파악하고 이에 대한 선제적 대응을 실시함으로써, 작업 중에 발생될 수 있는 문제점(예. 사고, 고장, 결함)들을 사전에 방지할 수 있는 효과가 있으며, 나아가 협동 로봇과 사용자 간의 협동 작업을 수행할 수 있도록 하는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
도1은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템을 개념적으로 이해하기 위하여 나타낸 도면이다.
도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.
도3은 본 발명의 제1 실시 예에 따른 협동 로봇이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.
도4는 본 발명의 제1 실시 예 따른 협동 로봇을 사시도로 나타낸 도면이다.
도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템의 전체 구성을 간단한 모식도로 나타낸 도면이다.
도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.
도3은 본 발명의 제1 실시 예에 따른 협동 로봇이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.
도4는 본 발명의 제1 실시 예 따른 협동 로봇을 사시도로 나타낸 도면이다.
도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템의 전체 구성을 간단한 모식도로 나타낸 도면이다.
도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
본 명세서에서 사용되는 "포함한다 (Comprises)" 및/또는 "포함하는 (Comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
<제1 실시 예>
도1은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템을 개념적으로 이해하기 위하여 나타낸 도면이다.
도1을 참고하면, 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템(이하 협동 로봇 구동 시스템(10)이라 약칭함)은 협동 로봇(100)이 작업을 실시하기 이전에 고장 진단을 위한 구동을 실시하면(①), 협동 로봇(100)과 인접한 위치에 배치된 제1 위치 감지 센서(300)가 협동 로봇(100)의 위치 정확도를 파악하고(②), 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우 협동 로봇(100)이 상기 작업을 실시할 수 있는 제1 구동을 실시할 수 있도록 하며, 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당할 경우 로봇 서버(200)가 상기 오차 범위에 대한 구동을 보정할 수 있는 구동 보정 정보를 생성하여 협동 로봇(100)에 전송하고(③), 협동 로봇(100)이 보정된 구동을 실시하도록 하여(④) 협동 로봇(100)이 정확하고 정밀한 작업을 실시할 수 있도록 하는 시스템에 관한 것이다.
참고로, 본 발명에서 말하는 ‘선제적 대응’ 이란 본 발명의 협동 로봇(100)이 어느 특정 작업을 수행하고자 할 때에 구동의 오차 또는 장애물에 의한 문제적 상황 봉착에 따라 잘못된 구동이 실시될 것을 사전에 파악하거나 예측하여, 파악된 데이터를 기반으로 협동 로봇(100)의 구동을 보정함으로써 보다 정확하고 정밀할 구동을 실시할 수 있도록 하는 것을 말할 수 있다. 구체적으로, 특정 작업을 수행하는 종래의 로봇들은 사람이 할 수 없었던 정밀하고 정확한 구동으로 사용자들에게 편리함을 가져다 주었지만, 이러한 로봇들이 수행하는 구동은 사용자들이 입력한 데이터를 기반으로만 작동하였기 때문에 작업을 실시할 때에 발생하는 예기치 않은 문제(장애물 접촉, 구동 오차 발생 등)에 일일이 대처하기 어려웠으며, 예방 가능한 문제에 대한 선제적 대응을 하기에는 어려움이 있고, 상기 문제가 발생한 이후에 구동이 보정되는 작업이 일률적으로 이루어지지 않아 종래의 로봇들은 매우 수동적인 작업에만 활용되거나 사용자들과 협동을 통하여 이루어지는 작업을 제대로 수행하지 못하였기에, 본 발명은 이러한 종래의 로봇의 문제점을 해결하고자 협동 로봇(100)이 어느 한 특정 작업을 실시하고자 할 때에 발생하는 고장, 오류, 장애물에 의한 문제적 상황 봉착 등의 이벤트들을 선제적으로 대응할 수 있도록 하여 협동 로봇(100)이 보다 능동적으로 작업을 수행하거나 사용자들과 작업을 협동하여 실시할 수 있도록 한다.
이러한 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법과 이를 위한 시스템을 구체적으로 살펴보기 이전에 본 발명에서 자주 언급되는 용어들에 대하여 먼저 간략히 살펴보도록 한다.
도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.
본 발명의 제1 실시 예에 따른 협동 로봇 시스템(10)은 협동 로봇(100)이 어느 특정한 작업을 실시하기 이전에 상기 작업을 제대로 수행할 수 있는지에 대하여 점검하거나 협동 로봇(100)이 고장 나지 않았는지 진단하기 위하여 협동 로봇(100)이 고장 진단 구동을 실시 하도록 한다. 여기서 말하는 고장 진단 구동이란 실제 작업을 실시하기 이전에 협동 로봇(100) 작업을 수행하기 위한 구동을 미리 실시해보도록 하는 시뮬레이션 구동을 말할 수 있다.
도2를 참고하면, 협동 로봇(100)이 고장 진단 구동을 실시하면, 협동 로봇(100)에 인접한 위치에 배치된 제1 위치 감지 센서(300)는 협동 로봇(100) 외면에 부착된 IR 마커(103)를 인식하여 협동 로봇(100)의 모션 또는 자세를 감지함으로써 협동 로봇(100)의 위치 정확도를 파악하고, 이를 기반으로 고장 정보를 생성한다. 구체적으로, 협동 로봇(100)이 컵을 들어올리는 작업을 수행하기 위해서는 표준의 구동인 ‘A’ 구동을 수행해야 한다고 가정하였을 때에 협동 로봇(100)이 고장 진단 구동에 의하여 ‘B’ 구동을 실시하였다면, 제1 위치 감지 센서(300)가 협동 로봇(100)의 ‘B’ 구동을 인식할 뿐만 아니라 ‘B’구동과 상기 표준의 ‘A’구동을 비교 분석하여 고장 진단 구동에 대한 위치 정확도를 파악한다(①). 이 때, 제1 위치 감지 센서(300)가 협동 로봇(100) 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당한다고 판단한 경우 고장 정보를 생성한다.
여기서 말하는 위치 정확도란 협동 로봇(100)이 작업을 수행할 때에 위치해야 하는 표준의 위치 또는 자세(A)와 협동 로봇(100)이 고장 진단을 위한 구동을 실시할 때의 협동 로봇(100)의 위치 또는 자세(B)를 비교 분석하여 유사도를 산출한 것을 말할 수 있다.
한편, 여기서 말하는 고장 정보란 협동 로봇의 식별 코드(UUID), 오차 범위를 적어도 하나 이상 포함하는 정보를 말할 수 있다. 이러한 고장 정보에 협동 로봇(100)의 식별 코드(UUID)가 포함되어 있는 이유는 로봇 서버(200)가 해당 협동 로봇(100)의 고장을 신속히 진단할 수 있도록 하기 위함이다. 구체적으로, 복수 개의 협동 로봇(100) 각각에는 특정 작업을 수행하기 위한 구동 데이터가 입력되어 있거나 학습되어 있을 것이며, 로봇 서버(200)가 해당 협동 로봇(100)의 고장을 진단할 때에 복수 개의 협동 로봇(100)의 구동 데이터를 일일이 식별하는 것보다 협동 로봇(100) 그 자체를 식별하는 것이 해당 협동 로봇(100)의 고장을 신속히 진단할 수 있기 때문이다.
다시 도2를 참고하면, 고장 정보가 생성된 이후에, 제1 위치 감지 센서(300) 또는 제1 위치 감지 센서(300)로부터 생성된 고장 정보를 수신한 협동 로봇(100)은 고장 정보를 로봇 서버(200)에 전송하고, 로봇 서버(200)는 수신한 고장 정보를 토대로 구동 보정 정보를 생성하여 협동 로봇(100)에 전송한다(③).
여기서 말하는 구동 보정 정보란 로봇 서버(100)가 제1 감지 센서(300) 또는 협동 로봇(100)으로부터 고장 정보를 수신하였을 때, 로봇 서버(100)가 고장 정보를 분석하고 현재 협동 로봇(100)이 고장 난 이유(예. 전력 부족, 협동 로봇의 부품 결함 등)를 도출하여 고장 난 이유를 해결하기 위하여 생성한 정보 또는 구동 오차를 해결할 수 있는 정보를 말할 수 있다. 구체적인 예를 위해 도2를 참고하면, 컵을 옮기는 작업을 수행하는 협동 로봇(100)이 컵을 들어올리기 위해서는 ‘A’구동을 실시해야 하지만 고장 진단 구동에서 컵을 들어올리지 못하는 ‘B’구동을 실시하였다고 가정하였을 때, 로봇 서버(200)는 상기 ‘B’ 구동에 대한 고장 정보를 수신하여 협동 로봇(100)이 ‘A’ 구동을 실시할 수 있도록 ‘A’구동과 ‘B’ 구동의 오차 또는 협동 로봇(100)의 구성(로봇팔(102: 도4 참고), 축(101: 도4 참고) 등)의 문제점을 분석하여, ‘로봇팔(102)이 θ1 각도로 보정되어야 한다는 구동 보정 정보’ 또는 ‘협동 로봇(100)의 n번째 축(101)이 θ2 각도로 보정되어야 한다는 구동 보정 정보’등을 생성할 수 있다.
도3은 본 발명의 제1 실시 예에 따른 협동 로봇(100)이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.
본 발명의 제1 실시 예에 따른 협동 로봇 구동 시스템(10)은 협동 로봇(100)이 선제적 대응을 할 수 있도록 협동 로봇(100)이 특정한 작업을 실시할 때의 예상 작업 경로에 주변 움직임(예. 장애물의 움직임)이 감지되면 경고 음성을 출력할 수 있도록 한다.
도3을 참고하면, A 사이트에 있는 컵을 들어올리는 ‘제1 구동’과 들어올린 컵을 B사이트로 옮겨야 하는 ‘제2 구동’을 순차적으로 실시해야 하는 협동 로봇(100)이 ‘제1 구동’을 실시하였다고 가정하였을 때(①), 협동 로봇(100)과 연계된 제2 위치 감지부(400)가 ‘제2 구동'에 대응되는 협동 로봇(100) 이동경로에 주변 움직임(예. 사용자 신체)을 감지한 경우(②), 감지된 정보를 협동 로봇(100)에 전송하여 협동 로봇(100)이 "조심하세요"와 같은 경고 음성 출력할 수 있도록 한다(③).
이상 본 발명에서 자주 언급되는 용어들에 대하여 먼저 간략히 살펴보았다.
다음으로, 본 발명의 제1 실시 예에 따른 협동 로봇(100)의 개략적인 외관과 협동 로봇(100)에 포함된 전체 구성요소들에 대하여 살펴보도록 한다.
도4는 본 발명의 제1 실시 예 따른 협동 로봇(100)을 사시도로 나타낸 도면이다.
도 4를 참고하면, 본 발명의 제1 실시 예에 따른 협동 로봇(100)은 특정한 작업을 정밀하고 정확하게 수행하거나, 사용자와 협동하여 작업을 수행할 수 있도록 설계된 로봇이다.
협동 로봇(100)은 상기 역할들을 수행하기 위하여, 적어도 하나 이상의 축(101), 로봇팔(102) 및 IR 마커(103)를 포함할 수 있다.
축(101)은 복수 개로 마련되어 있으며, 이 복수 개의 축(101)이 서로 다른 구동(상/하/좌/우 구동, 회전 구동)이 가능하여, 협동 로봇(100)이 6자유도 운동(Six degrees of freedom, 6DOF)에 대한 구동을 실시할 수 있도록 한다.
또한, 종래 로봇암(미도시)의 축이 최대 6개로 구성되어 있는 것과 달리 본 발명의 협동 로봇(100)의 축(101)이 7개 이상으로 구성되어 있어 타겟이 된 위치에 보다 세밀하고 정교한 각도로 진입할 수 있도록 하며, 협동 로봇(100)이 장애물 회피 구동, 특정 포즈 취하기 등과 같은 보다 자유도 높은 구동을 할 수 있도록 한다.
로봇핸드(102)는 사용자 손과 비슷한 역할을 수행하는 구성요소이다. 구체적으로, 로봇핸드(102)는 물체를 그립(Grip)하거나, 당기거나 운반하는 구동을 실시할 수 있어 사용자 손과 비슷한 역할을 수행하여 사용자와 같이 협동의 작업을 수행 할 수도 있다.
로봇핸드(102)는 사용자와 협동하여 정밀함을 요하는 어려운 작업을 수행할 수 있다. 구체적으로, 로봇핸드(102)는 의료 시술, 조리, 조립 또는 가공과 같은 정밀함을 요하는 작업을 수행할 수 있어 이러한 작업을 사용자와 협동하여 실시할 수 있다.
로봇핸드(102)는 상기 작업들을 수행하기 위하여 수행하고자 하는 작업의 목적에 맞는 형상을 가질 수 있다. 예를 들면, 로봇핸드(102)가 의료 시술을 진행할 때에는 사용자의 손 형상이 아닌 절삭 가능한 수술도구, 생검 도구, 스크류 드라이버 등과 같은 의료기구 형상을 나타낼 수 있다.
IR 마커(103)는 내부에 포함되거나 외면에 부착된 반사체에 의하여 제1 위치 감지 센서(300)를 통하여 인식된다.
반사체는 특수한 파장의 빛이 조사되었을 때 특정 장치에 의해 인식 가능한 빛을 반사하는 성질을 가지고 있어 IR 마커(103)가 제1 위치 감지 센서(300)에 의하여 촬영될 때에 조사되는 빛을 반사하여 IR 마커(103)의 위치가 인식되도록 한다.
반사체는 IR 마커(103) 내부에 포함되는 구성으로 마련될 수 있지만, 사용자에 의하여 표면에 탈부착 가능하도록 구현될 수도 있다. 이 때, 사용자는 임의로 IR 마커(103) 표면에서의 반사체의 위치를 탈부착하여 조정할 수 있다.
도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템(10)의 전체 구성을 간단한 모식도로 나타낸 도면이다.
도5를 참고하면, 본 발명의 협동 구동 시스템(10)은 협동 로봇(100), 로봇 서버(200), 제1 위치 감지 센서(300) 및 제2 위치 감지 센서(400)를 포함할 수 있다.
협동 로봇(100)은 전술한 축(101), 로봇핸드(102) 및 IR 마커(103)를 포함할 뿐만 아니라 본 발명의 목적인 ‘선제적 대응 구동’을 실시하기 위하여 통신부(110), 센서부(120), 장애물 인식부(130), 경로 생성부(140), 구동 제어부(150) 및 음성 발화부(160)를 더 포함할 수 있다.
통신부(110)는 협동 로봇(100)이 사용자 단말(예. 사용자의 스마트폰, 데스크탑 등), 로봇 서버(200), 제1 위치 감지 센서(300) 또는 제2 위치 감지 센서(00)와 데이터 교환이 가능하도록 마련된 구성요소이다. 구체적으로, 통신부(110)는 사용자 단말(200)로부터 협동 로봇(100)이 특정한 구동을 실시할 수 있도록 하는 구동 데이터에 대한 정보를 수신하거나, 전원 On/Off와 같은 제어 정보를 수신할 수 있으며, 로봇 서버(200)로부터 고장 정보를 송신하거나 구동 보정 정보를 수신할 수 있고, 제1 및 제2 위치 감지 센서(300, 400)로부터 감지된 정보들을 수신할 수 있다.
센서부(120)는 전술한 제1 및 제2 위치 감지 센서(300, 400)와 마찬가지로 협동 로봇(100)의 위치 및 움직임을 감지하거나, 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 구성요소이다. 쉽게 말해, 제1 및 제2 위치 감지 센서(300, 400)가 협동 로봇(100)의 인접한 위치에 설치되는 것이 아니라 협동 로봇(100)의 하나의 구성으로서 마련될 수 있다.
장애물 인식부(130)는 협동 로봇(100)이 작업에 대한 구동을 실시할 때에 즉각적으로 출현/발생하는 장애물을 인식하여 장애물과의 충돌을 방지해주는 구성요소이다.
장애물 인식부(130)는 AI 객체 식별 알고리즘을 활용하여 장애물을 인식한다. 여기서, AI 객체 식별 알고리즘이란, 학습된 이미지 데이터들을 기반으로 객체를 구분 및 식별하여 식별한 객체가 장애물인지 아닌지 인식할 수 있는 알고리즘을 말할 수 있다. 쉬운 예로, 협동 로봇(100)이 컵을 들어올리는 구동을 실시해야 한다고 가정 하였을 때에 AI 객체 식별 알고리즘은 컵과 사용자의 신체(예. 손) 이미지 데이터에 대하여 학습하고, 구동 중에 컵과 사용자의 신체가 포착된다면 각각 작업 대상물과 장애물로서 구분하여 식별할 수 있다.
본 발명의 협동 구동 시스템(10)은 선제적 대응을 통하여 고장 또는 장애물 충돌을 사전에 예측하거나 방지할 수 있었다면, 협동 로봇(100)의 장애물 인식부(130)를 통하여 즉각적인 상황에 대한 장애물과의 충돌을 방지할 수 있다.
경로 생성부(140)는 센서부(120) 또는 협동 로봇(100)과 연계된 제2 위치 감지 센서(400)의 Lidar기술을 활용하여 현재 협동 로봇(100)의 위치, 자세에 대한 정보를 수신하고, 수신한 데이터를 기반으로 협동 로봇(100)이 특정한 작업을 수행하기 위하여 이동되어야 할 경로를 생성해주는 구성요소이다.
참고로, 경로 생성부(140)로부터 생성된 경로는 협동 로봇(100)이 로봇 서버(200)로부터 구동 보정 정보를 수신한 경우 실시간으로 갱신 및 업데이트될 수 있다.
구동 제어부(150)는 협동 로봇(100)이 특정한 작업을 수행하는 구동을 실시하기 위하여 학습된 구동 데이터 또는 로봇 서버(200)로부터 수신한 보정 구동 정보를 토대로 협동 로봇(100)의 구동을 제어하는 구성요소이다.
음성 발화부(160)는 TTS(Text to Speech: 음성합성)기술이 활용되는 구성요소이며, 특정 상황이 감지되면 특정 상황에 매칭된 텍스트 데이터를 음성 데이터로 변환하여 변환한 음성 데이터를 출력할 수 있다. 예를 들어, 협동 로봇(100)이 구동을 실시할 때에 제1 및 제2 위치 감지 센서(300, 400)가 구동 중 주변 움직임을 감지하면, 음성 발화부(160)는 해당 상황과 매칭되는 텍스트 데이터를 음성 데이터로 변환하여 “조심하세요”라는 내용의 음성을 출력할 수 있다.
로봇 서버(200)는 식별 가능한 적어도 하나 이상의 협동 로봇(100)을 총괄적으로 관제할 수 있는 서버이다.
로봇 서버(200)는 협동 로봇(100)이 특정 작업에 대한 구동을 실시할 때에 오차에 해당하는 구동을 실시하거나 구동 자체가 불완전할 때에 이러한 협동 로봇(100)의 구동을 보정하기 위한 정보를 협동 로봇(100)에 전송할 수 있다. 다시 말해, 로봇 서버(200)는 협동 로봇(100) 또는 제1 위치 감지 센서(300)로부터 고장 정보를 수신하면 상기 고장 정보를 기반으로 협동 로봇(100)의 구동을 보정하기 위한 구동 보정 정보를 생성하여 협동 로봇(100)에 전송할 수 있다.
제1 위치 감지 센서(300)는 협동 로봇(100)에 인접한 위치에 배치되어, 협동 로봇(100)의 모션 또는 위치를 실시간으로 감지할 수 있는 센서이다.
제1 위치 감지 센서(300)는 협동 로봇(100)의 모션 또는 위치를 감지하기 위하여 피사체의 이미지를 촬영하는 카메라, 협동 로봇(100) 외면에 부착된 IR 마커(103)를 감지할 수 있는 IR 카메라 및 협동 로봇(100) 자체의 모션을 감지할 수 있는 모션 트래킹 카메라를 포함할 수 있다.
제2 위치 감지 센서(400)는 협동 로봇(100)에 인접한 위치에 배치되어, 협동 로봇(100)이 특정 작업에 대한 구동을 실시할 때에 실시간으로 움직이는 사용자의 신체 또는 물체와 같은 장애물들을 감지하는 센서이다.
제2 위치 감지 센서(400)는 실시간으로 움직이는 장애물을 감지하기 위하여 3차원 공간 내의 객체의 움직임 또는 위치를 감지하는3차원 Lidar 센서 및/또는 Depth 카메라를 포함할 수 있다.
참고로, 제2 위치 감지 센서(400)는 단순히 협동 로봇(100)의 주변 장애물을 감지하는 것이 아니라 감지된 객체가 협동 로봇(100)인지, 장애물인지 또는 장애물 대상이 아닌 피사체(예. 사용자)인지에 대하여 식별하여 주변 움직임을 감지할 수 있다.
이상 본 발명의 제1 실시 예에 따른 협동 로봇(100)의 개략적인 외관과 협동 로봇(100)에 포함된 전체 구성요소들에 대하여 살펴보았다.
다음으로, 본 발명의 제1 내지 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 살펴보도록 한다.
도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도6을 참고하면, 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동하는 방법은 먼저 협동 로봇(100)이 고장 진단 구동을 실시하면, 제1 위치 감지 센서(300)가 협동 로봇의 위치 정확도를 파악하는 단계에서 시작한다(S101). 여기서, 위치 정확도란 협동 로봇(100)이 작업을 수행할 때에 위치해야 하는 표준의 위치 또는 자세와 협동 로봇(100)이 고장 진단을 위한 구동을 실시할 때의 협동 로봇(100)의 위치 또는 자세를 비교 분석하여 유사도를 산출한 것을 말할 수 있다.
이후에, 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 협동 로봇이 작업을 위한 제1 구동을 실시하도록 한다(S102). 여기서 오차 범위란 협동 로봇(100)이 어느 한 구동을 실시함에 있어서 상기 구동을 제대로 실시하지 못할 것 같거나 전체적인 작업 절차에 불안정을 주는 구동 범위를 말할 수 있으며, 기 설정된 오차 범위란 사용자(사용자) 본인 판단 하에 직접 설정한 오차범위이거나 또는 로봇 서버(100)가 AI 학습 알고리즘을 통하여 분석한 오차범위를 말할 수 있다.
S101 단계 및 S102 단계는 협동 로봇(100)이 실제로 작업을 실시하기 이전에 고장 진단 구동을 실시하도록 하여 실제 작업을 제대로 완수하고, 고장, 결함 또는 구동 오차에 대한 문제점을 사전에 방지해줄 수 있는 ‘제1 선제적 대응’ 단계라고 볼 수 있다.
다음으로, 협동 로봇(100)이 제2 구동을 실시하기 이전에, 제2 위치 감지 센서(400)가 제2 구동에 대응되는 이동경로에 주변 움직임을 감지한다(S103). 여기서 제2 구동이란 특정한 작업을 완료하기 위한 협동 로봇(100)이 전체 구동 중에서 S102 단계의 제1 구동 이후에 실시되는 구동을 말할 수 있다.
이후에, 제2 위치 감지 센서(400)에 의해 제2 구동에 대응되는 협동 로봇(100) 이동경로 상에서 주변 움직임이 감지되지 않은 경우, 협동 로봇이 제2 구동을 실시한다(S104).
S103 단계 및 S104 단계는 협동 로봇(100)이 제1 구동을 실시한 이후에 순차적으로 제2 구동을 실시하기 이전에 협동 로봇(100)이 제2 구동을 하기 위하여 진입해야 하는 이동경로 또는 제2 구동을 실시할 때의 움직임 반경에 주변 움직임을 감지하여 제2 구동을 제대로 완수하고, 제2 구동이 실시될 때 또는 제2 구동이 실시되기 전 이동 상황에서 장애물과 충돌하지 않도록 사전에 방지해줄 수 있는‘제2 선제적 대응’ 단계라고 볼 수 있다.
<제2 실시 예>
도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
전술한 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법이 협동 로봇 구동 시스템(10)을 주체로 설명한 선제적 대응이 가능한 협동 로봇 구동 방법이라면, 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 보다 확장된 범위로 본 발명의 선제적 대응이 가능한 협동 로봇 구동 방법을 설명하기 위하여 협동 로봇 구동 시스템(10) 내의 구성들을 또 다른 주체로 설명한 선제적 대응이 가능한 협동 로봇 구동 방법이다.
도7을 참고하면, 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 먼저, 협동 로봇(100)이 고장 진단 구동을 실시하고(S201) 제1 위치 감지 센서(300)가 고장 진단 구동을 실시하는 협동 로봇(100)의 위치 정확도를 파악하는 단계(S202)에서 시작한다.
S202 단계에서 제1 위치 감지 센서(300)는 모션 트래킹 카메라를 통하여 협동 로봇(100)의 움직임을 감지하거나, IR 카메라를 통하여 협동 로봇(100)에 부착된 IR 마커(103)를 인식하여 협동 로봇(100)의 움직임, 위치를 감지함으로써 협동 로봇(100)의 위치 정확도를 파악할 수 있다.
이후에, 협동 로봇(100)은 제1 위치 감지 센서(300)가 파악한 위치 정확도가 기 설정된 오차 범위에 포함되는지에 대하여 판단하고(S203), 위치 정확도가 기 설정된 오차 범위에 포함되지 않으면 제1 구동을 실시한다(S204).
한편, 협동 로봇(100)이 제1 위치 감지 센서(300)가 파악한 위치 정확도가 기 설정된 오차 범위에 포함되는 지에 대하여 판단하였을 때(S203), 위치 정확도가 기 설정된 오차 범위에 포함되면, 협동 로봇(100)은 고장 정보를 생성하여 로봇 서버(200)에 전송하며(S203-1), 로봇 서버(200)는 수신한 고장 정보를 기반으로 구동 보정 정보를 생성하여(S203-2) 협동 로봇(100)이 보정된 구동을 실시 할 수 있도록 구동 보정 정보를 협동 로봇(100)에 전송한다(S203-3).
S204 단계 이후에, 제2 위치 감지 센서(400)는 제1 구동 이후에 실시되는 제2 구동에 대응되는 이동경로에 주변 움직임을 감지되는지에 대하여 모니터링한다(S205).
다음으로 협동 로봇(100)은 제2 위치 감지 센서(400)로부터 주변 움직임이 감지되었는지에 대하여 판단한다(S206).
이후에, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신하지 않은 경우, 제2 구동을 실시한다(S207).
한편, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신한 경우, 협동 로봇(100)은 경고 음성을 출력하여(S206-1) 협동 로봇(100)이 주변 움직임(예. 장애물)과 충돌하지 못하도록 방지하고, 이후에 제2 위치 감지 센서(400) 다시 S205 단계로 회귀하여 제2 구동에 대응되는 이동경로에 주변 움직임이 감지되는지에 대하여 모니터링한다.
<제3 실시 예>
도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 전술한 S205 단계 이후에 제2 위치 감지 센서(400)가 제2 구동에 대응되는 이동경로에 주변 움직임을 감지하였을 때, 협동 로봇(100)이 경고 음성을 출력하여 주변 움직임과의 충돌을 방지하는 방법과 더불어 협동 로봇(100)이 특정 조건이 갖추어져 있다면 협동 로봇(100)이 회피 구동을 실시하여 주변 움직임과의 충돌을 방지할 수 있도록 하는 방법에 관한 것이다.
도8을 참고하면, 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 S205 단계 이후에 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임이 감지되었는지에 대하여 판단하는 단계(S301)에서 시작한다.
다음으로, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실이 수신되지 않은 경우에는 제2 구동을 실시하지만(S304), 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신한 경우에는 협동 로봇(100)은 자체적으로 축(101) 변경이 가능한지 판단한다(S302).
S302 단계는 협동 로봇(100)이 감지된 장애물에 대한 회피 구동을 실시 할 수 있는 지 판단하는 첫 번째 단계로서, 협동 로봇(100)이 자체적으로 축(101) 변경이 가능한 로봇인지 판단하는 단계이거나 로봇 서버(200)가 협동 로봇(100)으로부터 식별 번호(UUID)를 수신하여 해당 협동 로봇(100)의 축(101)이 변경 가능한지를 판단하는 단계일 수도 있다.
S302 단계 이후에, 협동 로봇(100) 자체가 축(101) 변경이 가능한 로봇이라면, 협동 로봇(100)이 축(101) 변경을 통하여 회피 구동이 가능한지 에 대한 판단하고(S303), 협동 로봇(100) 자체가 축(101) 변경이 불가능한 로봇이라면, 경고 음성을 출력한다(S302-1).
S303 단계는 협동 로봇(100)이 감지된 장애물에 대한 회피 구동을 실시 할 수 있는 지 판단하는 두 번째 단계로서, 협동 로봇(100)이 축(101)을 변경할 수 있는 로봇이라도 특정 상황(협소한 공간)때문에 회피 구동을 실시할 수 없을 것을 고려하여 실시되는 단계이다. 아울러 S303 단계는 S302 단계와 마찬가지로 협동 로봇(100)이 자체적으로 현재 회피 구동이 가능한지 판단하는 단계이거나 로봇 서버(200)가 협동 로봇(100)으로부터 식별 번호(UUID)를 수신하여 해당 협동 로봇(100)이 현재 회피 구동이 가능한지에 대하여 판단하는 단계일 수도 있다.
S303 단계 이후에, 협동 로봇(100)은 현재 회피 구동이 가능하다면 제2 구동을 실시하고(S304), 협동 로봇(100)은 현재 회피 구동이 불가능하다면 경고 음성을 출력한다(S302-1).
이상 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 대한 실시 예를 모두 살펴보았다.
본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.
10: 협동 로봇 구동 시스템
100: 협동 로봇
101: 축
102: 로봇핸드
103: IR 마커
110: 통신부
120: 센서부
130: 장애물 인식부
140: 경로 생성부
150: 구동 제어부
160: 음성 발화부
200: 로봇 서버
300: 제1 위치 감지 센서
400: 제2 위치 감지 센서
100: 협동 로봇
101: 축
102: 로봇핸드
103: IR 마커
110: 통신부
120: 센서부
130: 장애물 인식부
140: 경로 생성부
150: 구동 제어부
160: 음성 발화부
200: 로봇 서버
300: 제1 위치 감지 센서
400: 제2 위치 감지 센서
Claims (8)
- 협동 로봇 구동 시스템이 선제적 대응이 가능한 협동 로봇을 구동하는 방법에 있어서,
(a) 협동 로봇이 고장 진단을 위한 구동을 실시할 때, 제1 위치 감지 센서가 실시간으로 상기 협동 로봇의 위치 정확도 - 상기 위치 정확도는, 상기 협동 로봇이 작업을 수행할 때에 위치해야 하는 표준의 위치와 상기 협동 로봇이 고장 진단을 위한 구동을 실시할 때의 협동 로봇의 위치를 비교 분석하여 유사도를 산출한 것임 - 를 파악하는 단계;
(a-1) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하는 경우, 로봇 서버에 고장 정보 - 상기 고장 정보는, 상기 협동 로봇의 식별 코드(UUID) 및 오차 범위를 포함하는 정보임 - 를 송신하여 구동 보정을 요청하는 단계;
(a-2) 상기 협동 로봇이 상기 로봇 서버로부터 구동 보정 정보를 수신한 경우, 상기 협동 로봇이 고장 진단을 위한 구동을 재실시하도록 하는 단계;
(b) 고장 진단을 위한 구동을 재실시한 결과 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 상기 협동 로봇이 작업을 위한 제1 구동을 실시하도록 하는 단계;
(c) 상기 협동 로봇이 작업을 위한 제2 구동을 실시하기 이전에, 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 주변 움직임을 감지하는 단계;
(c-1′) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇이 축 변경이 가능한 협동 로봇인지에 대한 여부를 판단하는 단계;
(c-2′) 상기 협동 로봇이 축 변경이 가능한 협동 로봇이라 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능한지에 대한 여부를 판단하는 단계;
(c-3′) 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능하다고 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동을 실시하도록 하는 단계;
(d) 회피 구동을 실시한 이후, 상기 제2 위치 감지 센서에 의해 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임이 감지되지 않은 경우, 상기 협동 로봇이 제2 구동을 실시하는 단계;를 포함하고,
상기 제1 위치 감지 센서는, 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 상기 협동 로봇에 부착된 적어도 복수 개의 IR 마커 - 상기 IR 마커는 외면에 반사체가 부착된 것으로서, 상기 반사체는 상기 제1 위치 감지 센서에 의해 조사된 특정 파장의 빛을 반사시켜 상기 제1 위치 감지 센서에 의해 인식되는 것임 - 들을 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 카메라이고,
상기 제2 위치 감지 센서는, 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 Lidar 센서이고,
상기 제2 구동에 대응되는 협동 로봇 이동경로는, 현재 협동 로봇의 위치 및 자세 정보를 기반으로 생성된 것으로서, 상기 로봇 서버로부터 수신된 구동 보정 정보에 따라 실시간으로 갱신되는 것을 특징으로 하는,
선제적 대응이 가능한 협동 로봇 구동 방법.
- 삭제
- 삭제
- 삭제
- 삭제
- 제1 항에 있어서,
상기 (c) 단계 이후에,
(c-1) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇의 음성 발화부가 경고 음성을 출력하도록 하는 단계;
를 더 포함하는,
선제적 대응이 가능한 협동 로봇 구동 방법.
- 삭제
- 제1항의 선제적 대응이 가능한 협동 로봇 구동 방법을 실행하는 협동 로봇 구동 시스템.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220169877A KR102520214B1 (ko) | 2022-12-07 | 2022-12-07 | 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 |
PCT/KR2023/009293 WO2024122777A1 (ko) | 2022-12-07 | 2023-07-03 | 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220169877A KR102520214B1 (ko) | 2022-12-07 | 2022-12-07 | 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102520214B1 true KR102520214B1 (ko) | 2023-04-11 |
Family
ID=85976671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220169877A KR102520214B1 (ko) | 2022-12-07 | 2022-12-07 | 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102520214B1 (ko) |
WO (1) | WO2024122777A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024122777A1 (ko) * | 2022-12-07 | 2024-06-13 | 주식회사 유에이로보틱스 | 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03228589A (ja) * | 1990-02-01 | 1991-10-09 | Kawasaki Heavy Ind Ltd | ワークの位置決め方法 |
JP2004050356A (ja) * | 2002-07-19 | 2004-02-19 | Kawasaki Heavy Ind Ltd | 可動体の位置および姿勢検出装置 |
JP2012086333A (ja) * | 2010-10-22 | 2012-05-10 | Canon Inc | ロボットセル |
JP2017071033A (ja) * | 2015-10-09 | 2017-04-13 | キヤノン株式会社 | 作業用基準物体、作業用基準物体の製造方法、ロボットアームの調整方法、ビジョンシステム、ロボット装置、及び指標用部材 |
JP2020511325A (ja) * | 2017-02-07 | 2020-04-16 | ヴェオ ロボティクス, インコーポレイテッド | 作業空間安全監視および機器制御 |
KR20210064041A (ko) * | 2019-11-25 | 2021-06-02 | 재단법인대구경북과학기술원 | 로봇 시스템 및 그 보정 방법 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101484920B1 (ko) * | 2013-04-16 | 2015-01-23 | 고등기술연구원연구조합 | 로봇손 조립오차 보정 장치 |
EP4082466A1 (en) * | 2014-10-27 | 2022-11-02 | Intuitive Surgical Operations, Inc. | System and method for instrument disturbance compensation |
KR102520214B1 (ko) * | 2022-12-07 | 2023-04-11 | 주식회사 유에이로보틱스 | 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 |
-
2022
- 2022-12-07 KR KR1020220169877A patent/KR102520214B1/ko active IP Right Grant
-
2023
- 2023-07-03 WO PCT/KR2023/009293 patent/WO2024122777A1/ko unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03228589A (ja) * | 1990-02-01 | 1991-10-09 | Kawasaki Heavy Ind Ltd | ワークの位置決め方法 |
JP2004050356A (ja) * | 2002-07-19 | 2004-02-19 | Kawasaki Heavy Ind Ltd | 可動体の位置および姿勢検出装置 |
JP2012086333A (ja) * | 2010-10-22 | 2012-05-10 | Canon Inc | ロボットセル |
JP2017071033A (ja) * | 2015-10-09 | 2017-04-13 | キヤノン株式会社 | 作業用基準物体、作業用基準物体の製造方法、ロボットアームの調整方法、ビジョンシステム、ロボット装置、及び指標用部材 |
JP2020511325A (ja) * | 2017-02-07 | 2020-04-16 | ヴェオ ロボティクス, インコーポレイテッド | 作業空間安全監視および機器制御 |
KR20210064041A (ko) * | 2019-11-25 | 2021-06-02 | 재단법인대구경북과학기술원 | 로봇 시스템 및 그 보정 방법 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024122777A1 (ko) * | 2022-12-07 | 2024-06-13 | 주식회사 유에이로보틱스 | 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 |
Also Published As
Publication number | Publication date |
---|---|
WO2024122777A1 (ko) | 2024-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
El Zaatari et al. | Cobot programming for collaborative industrial tasks: An overview | |
US11039895B2 (en) | Industrial remote control robot system | |
JP7076184B2 (ja) | 人間運動センサを使用して油圧ロボットの近くにいるときの動きを検出すること | |
US20190321977A1 (en) | Architecture and methods for robotic mobile manipluation system | |
JPWO2008047872A1 (ja) | マニピュレータ | |
CN110856932B (zh) | 干涉回避装置以及机器人系统 | |
CN114347037B (zh) | 基于复合标识的机器人系统故障检测处理方法及机器人系统 | |
KR102520214B1 (ko) | 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 | |
Kirschner et al. | YuMi, come and play with Me! A collaborative robot for piecing together a tangram puzzle | |
JP2020189367A (ja) | ロボットシステム | |
JP4572497B2 (ja) | ロボット制御装置 | |
Zhang et al. | QR code-based self-calibration for a fault-tolerant industrial robot arm | |
US10007837B2 (en) | Determining the robot axis angle and selection of a robot with the aid of a camera | |
Miura et al. | Development of a personal service robot with user-friendly interfaces | |
JP2020529932A (ja) | 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム | |
Lim et al. | Enhancing Human-Robot Collaborative Assembly in Manufacturing Systems Using Large Language Models | |
JP2020163511A (ja) | 遠隔操作ロボットの作業支援システム及び作業支援方法 | |
CN114536402A (zh) | 基于关联标识的机器人系统故障检测处理方法及机器人系统 | |
Antonelli et al. | FREE: flexible and safe interactive human-robot environment for small batch exacting applications | |
JP2016221602A (ja) | ロボット、制御装置およびプログラム | |
CN114536401B (zh) | 基于多个位姿标识的机器人系统故障检测处理方法及机器人系统 | |
US20230330847A1 (en) | Method and System for Training a Robot | |
CN111399518A (zh) | 一种基于多传感的协作机器人避障系统及其控制方法 | |
US20220203531A1 (en) | Robot, transmission method, and transmission estimation method | |
Müller et al. | Evaluating the Reliability of a Machine Vision System for Collaborative Robots: An Experimental Study in the Industry 4.0 Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |