[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101378752B1 - 전시용 로봇 및 그 제어 방법 - Google Patents

전시용 로봇 및 그 제어 방법 Download PDF

Info

Publication number
KR101378752B1
KR101378752B1 KR1020100110359A KR20100110359A KR101378752B1 KR 101378752 B1 KR101378752 B1 KR 101378752B1 KR 1020100110359 A KR1020100110359 A KR 1020100110359A KR 20100110359 A KR20100110359 A KR 20100110359A KR 101378752 B1 KR101378752 B1 KR 101378752B1
Authority
KR
South Korea
Prior art keywords
robot
information
posture
sensor
motion
Prior art date
Application number
KR1020100110359A
Other languages
English (en)
Other versions
KR20120048900A (ko
Inventor
권태범
강성철
양기훈
진문섭
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020100110359A priority Critical patent/KR101378752B1/ko
Publication of KR20120048900A publication Critical patent/KR20120048900A/ko
Application granted granted Critical
Publication of KR101378752B1 publication Critical patent/KR101378752B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/06Programme-controlled manipulators characterised by multi-articulated arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 전시용 로봇 및 그 제어 방법에 관한 것으로, 더 상세하게는, 로봇에 센서를 부착하여 별도의 조종 장치 없이도 직관적으로 로봇의 동작 교시를 수행할 수 있는 전시용 로봇 및 그 제어 방법에 관한 것이다. 본 발명의 일 실시예에 따른 전시용 로봇은 사람과 유사한 형태를 갖는 것으로서, 복수의 다관절 바(bar); 감지 영역 내에 위치하는 사람의 동작을 감지하여 3D 정보와 영상 정보를 동시에 출력하는 센서; 및 상기 센서에서 출력된 3D 정보와 영상 정보를 기반으로 상기 사람의 동작에 상응하여 상기 복수의 다관절 바가 움직이도록 제어하는 제어부를 포함한다.

Description

전시용 로봇 및 그 제어 방법 {MANNEQUIN ROBOT AND CONTROL METHOD THEREOF}
본 발명은 전시용 로봇 및 그 제어 방법에 관한 것으로, 더 상세하게는, 로봇에 센서를 부착하여 별도의 조종 장치 없이도 직관적으로 로봇의 동작 교시를 수행할 수 있는 전시용 로봇 및 그 제어 방법에 관한 것이다.
전시용 로봇이나 휴머노이드 로봇과 같은 다관절 로봇이 원하는 기능을 수행할 수 있도록 동작이나 자세를 설정하는 작업이 교시(teaching)이다. 상기 교시 작업을 원활히 수행하고, 로봇의 동작을 안정적으로 제어하기 위한 다양한 연구가 진행되고 있다.
기존 전시용 로봇에서, 한국등록특허 제0956176호는 마네킹 팔을 상하로 스윙하는 단순한 구조의 로봇을 개시하고 있다. 따라서, 이러한 로봇은 교시가 필요 없고, 단순한 동작만 반복해서 수행한다.
그러나, 최근에는 다관절 전시용 로봇이나 휴머노이드 로봇과 같은 복잡한 동작을 갖는 로봇이 개발되고 있는 추세이다. 이러한 복잡한 다관절 로봇을 활용하기 위해서는 전문적인 지식을 필요로 하므로, 비전문가는 이런 로봇을 사용하기 매우 어렵다는 문제가 발생한다. 상기와 같은 로봇을 로봇 비전문가도 쉽게 활용하기 위해서는 로봇이 원하는 기능을 수행할 수 있도록 동작이나 자세를 가르치는 교시 작업을 쉽게 할 수 있어야 한다.
이러한 작업의 일환으로, 한국등록특허 제0907906호는 로봇을 교시하기 위해 로봇의 링크에 직접 버튼 형식의 터치 센서를 부가하는 구성을 개시한다. 사용자는 상기 터치 센서를 이용하여 링크를 원하는 방향으로 움직이면서 교시한다. 그러나, 이 방법은 사용자가 로봇과 직접 접촉을 해야 하므로, 교시 작업 중에 안전 사고가 발생할 위험을 안고 있으며, 여러 개의 링크를 동시에 조절하면서 교시하는데 적합하지 않다는 단점이 있다.
좀 더 직관적이며 간편한 교시를 위해 논문 "교시자 관점에서의 모션 캡쳐 및 로봇 교시에의 적용(Motion Capture from Demonstrator's Viewpoint and its Application to Robot Teaching)," IEEE ICRA 2002 회의(Proceedings of IEEE ICRA 2002), pp. 1551-1558 와 "비모수(非母數) 신뢰 확산을 이용한 시각적 손 추적(Visual Hand Tracking Using Nonparametric Belief Propagation)," 비젼 기반 생성 모델 IEEE 워크샵(IEEE Workshop on Generative Model based Vision ), pp. 189-197 는 영상 센서를 사용하는 방법을 개시한다. 그러나 이러한 방법은 조명상태, 카메라와의 거리, 표식 부착 등 여러가지 면에서 제약 사항이 있다.
또한, 특수한 장치를 이용하여 사용자의 모션을 캡처하여 교시 작업을 수행하는 방법도 있다. 이는 사용자가 다수의 센서가 부착된 옷을 입거나, 신체의 주요 부위에 센서를 부착하여 사용자의 움직임을 인식하는 방법인데, 정확한 인식이 가능한 장점이 있는 반면, 부가적인 장치가 많이 필요하다는 단점을 갖는다. 한편, 영상 센서를 이용하여 비접촉식으로 교시하는 방법도 다수 개발되었다. 가장 흔한 방법은 추적하고자 하는 위치인 손, 팔꿈치, 어깨, 목 등에 인식하기 용이한 특정 표식을 부착하여 사용자의 움직임을 인식하고 교시하는 방법이다. 그러나, 이 방법은 별도의 표식을 부착해야 한다는 단점을 갖는다.
따라서, 로봇 비전문가도 실제 사용 환경에서 전시용 로봇과 같은 다관절 로봇을 쉽게 교시하면서 동작을 제어할 수 있는 교시 방법 및 장치의 개발이 요구되고 있는 실정이다.
본 발명의 목적은 별도의 조종기 없이 로봇에 부착된 센서에 의해 직관적인 동작 교시를 수행하면서, 로봇과 접촉하지 않아 안전하게 교시를 수행할 수 있는 전시용 로봇 및 그 제어 방법을 제공하는 것이다.
또한, 본 발명의 목적은 사용자의 신체에 별도의 표식 등을 부착하지 않으면서, 실제 사용환경에서 로봇 비전문가도 쉽게 교시를 수행할 수 있는 전시용 로봇 및 그 제어 방법을 제공하는 것이다.
전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 전시용 로봇은 사람과 유사한 형태를 갖는 것으로서, 복수의 다관절 바(bar); 감지 영역 내에 위치하는 사람의 동작을 감지하여 3D 정보와 영상 정보를 동시에 출력하는 센서; 및 상기 센서에서 출력된 3D 정보와 영상 정보를 기반으로 상기 사람의 동작에 상응하여 상기 복수의 다관절 바가 움직이도록 제어하는 제어부를 포함한다.
상기 전시용 로봇은, 상기 3D 정보와 영상 정보를 분석하여 가상의 좌표계를 바탕으로 상기 사람이 움직인 위치를 추출하는 정보 분석부를 더 포함할 수 있다.
상기 전시용 로봇은, 상기 사람의 동작에 상응하여 움직이는 상기 복수의 다관절 바의 순간적인 자세를 저장하는 자세 저장부를 더 포함할 수 있다.
상기 전시용 로봇은, 상기 복수의 다관절 바의 순간적인 자세를 상기 자세 저장부로 저장하도록 개시 신호를 발생시키는 페달을 더 포함할 수 있다.
상기 전시용 로봇은, 상기 자세 저장부에 저장된 상기 복수의 다관절 바의 불연속적인 자세 정보를 변환하여 연속적인 자세 정보로 산출하는 동작 생성부를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 전시용 로봇의 제어 방법은, 복수의 다관절 바(bar)와, 센서와, 상기 복수의 다관절 바가 움직이도록 제어하는 제어부를 포함하는 전시용 로봇의 제어 방법으로서, 감지 영역 내에 위치하는 사람의 동작을 센서에서 감지하여, 상기 센서에서 출력된 3D 정보와 영상 정보를 기반으로 상기 사람의 동작에 상응하여 복수의 다관절 바가 움직이도록 제어하는 단계; 및 상기 사람의 동작에 상응하여 움직이는 상기 복수의 다관절 바의 순간적인 자세를 저장하는 단계를 포함한다.
상기 전시용 로봇의 제어 방법은, 상기 전시용 로봇에 유선 또는 무선으로 연결된 페달을 통해 상기 복수의 다관절 바의 자세를 자세 저장부로 저장하기 위한 개시 신호를 입력하는 단계를 더 포함할 수 있다.
상기 사람의 동작을 센서에서 감지하는 단계는, 상기 3D 정보를 기반으로 상기 센서로부터 가장 근접한 신체 부위를 탐지하는 단계; 상기 탐지된 신체 부위를 중심으로 소정 크기의 영역을 추출하는 단계; 및 상기 추출된 영역 내의 영상 정보가 미리 저장된 신체 부위의 정보와 유사한지 여부를 판단하는 단계를 포함할 수 있다.
상기 센서는, 상기 감지 영역을 소정 크기의 격자로 분할하여, 각각의 격자 내에서 감지되는 상기 3D 정보와 영상 정보를 기반으로 사람의 동작을 감지할 수 있다.
상기 전시용 로봇의 제어 방법은, 상기 복수의 다관절 바의 불연속적인 자세 정보를 변환하여 연속적인 자세 정보로 산출하는 단계; 및 상기 산출된 연속적인 자세 정보를 기반으로 상기 전시용 로봇의 동작을 연속적으로 구현하는 단계를 더 포함할 수 있다.
상기 전시용 로봇의 제어 방법은, 상기 저장된 복수의 다관절 바의 순간적인 자세 정보를 이동식 저장 매체에 저장하거나 통신을 통해 다른 전시용 로봇 또는 PC와 공유하는 단계; 상기 PC를 통해 상기 복수의 다관절 바의 순간적인 자세 정보를 수정하거나 상기 순간적인 자세 정보를 기반으로 새로운 자세 정보를 생성하는 단계; 및 상기 생성된 자세 정보를 저장 매체에 저장하는 단계를 더 포함할 수 있다.
본 발명의 전시용 로봇 및 그 제어 방법은 로봇에 부착된 센서의 감지 영역 내에서 사용자가 자연스럽게 움직이면 로봇이 그 동작을 따라하는 방식이므로, 로봇 비전문가도 직관적이면서 쉬운 방법으로 교시 작업을 수행할 수 있는 효과가 있다.
또한, 본 발명의 전시용 로봇 및 그 제어 방법은 다관절 로봇에 대해 다양한 동작을 쉽게 적용할 수 있으므로, 로봇의 활용도를 크게 향상시킬 수 있으며, 예를 들어, 의류매장에서 매장 직원들이 쉽게 전시용 로봇의 동작을 교시하여, 판매하는 옷에 적합한 마네킹의 동작을 매장 직원이 직접 만들 수 있고, 이를 통해 전시용 로봇이 생동감 있게 움직이면서 옷을 홍보하는 효과를 얻을 수 있다.
도 1은 본 발명의 일 실시예에 따른 전시용 로봇의 구성을 개략적으로 도시한 블록도이다.
도 2 및 도 3은 본 발명의 전시용 로봇에 사용자가 교시 작업을 수행하는 방법을 설명하기 위한 도면들이다.
도 4a 및 4b는 본 발명의 전시용 로봇에 부착된 센서에서 사용자의 손을 감지했을 때 획득되는 3D 정보와 영상 정보를 도시하는 도면들이다.
도 5는 본 발명의 전시용 로봇에 부착된 센서의 감지 영역을 소정 크기의 격자로 분할하여 사용자의 동작을 감지하기 위한 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 전시용 로봇의 제어 방법의 순서도이다.
이하에서는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예들에 따른 전시용 로봇 및 그 제어 방법에 대하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 전시용 로봇의 구성을 개략적으로 도시한 블록도이며, 도 2 및 도 3은 본 발명의 전시용 로봇에 사용자가 교시 작업을 수행하는 방법을 설명하기 위한 도면들이다.
도 1 내지 3을 참조하면, 본 발명의 전시용 로봇(200)은 센서(10), 제어부(20), 복수의 다관절 바(30)를 포함하며, 선택적으로 정보 분석부(40), 자세 저장부(50) 또는 동작 생성부(60)를 더 포함한다.
센서(10)는 감지 영역 내에 위치하는 사람(100)의 동작을 감지하여 3D 정보와 영상 정보를 동시에 출력한다. 센서(10)는 감지 영역을 소정 크기의 격자로 분할하여, 각각의 격자 내에서 감지되는 상기 3D 정보와 영상 정보를 기반으로 사람(100)의 동작을 감지할 수도 있다.
센서(10)는 사람(100)의 신체 부위 중에서도 추적하고자 하는 위치인 손, 팔꿈치, 어깨, 목, 발 등을 더 집중적으로 감지하도록 설정될 수 있다. 본 발명의 예시에서는, 설명의 편의를 위해 사람의 손(112a, 112b)을 중심으로 설명하나, 센서(10)가 감지하는 신체 부위는 손(112a, 112b)에 한정되지 않는다.
정보 분석부(40)는 센서(10)에서 감지한 상기 3D 정보와 영상 정보를 분석하여 가상의 좌표계를 바탕으로 손(112a, 112b)이 움직인 위치를 추출한다.
제어부(20)는 센서(10)에서 감지한 3D 정보 및 영상 정보와, 정보 분석부(40)에서 추출한 손(112a, 112b)의 위치를 기반으로 사람의 손 동작에 상응하는 위치로 복수의 다관절 바(30)가 움직이도록 전시용 로봇(200)을 제어한다.
자세 저장부(50)는 앞서의 사람(100)의 손 동작에 상응하여 움직이는 복수의 다관절 바(30)의 순간적인 자세를 저장한다. 여기서, 사람(100)은 전시용 로봇(200)이 자신이 의도한 자세로 제대로 따라했는지 확인한 후에, 제대로 따라한 경우 그 자세를 자세 저장부(50)에 저장하도록 신호를 입력할 수 있다. 이를 위해, 전시용 로봇(200)의 전방에서 교시를 수행하고 있는 사람(100)은 도 2와 같은 페달(70)을 밟음으로써, 복수의 다관절 바(30)의 순간적인 자세를 상기 자세 저장부(50)로 저장하도록 개시 신호를 발생시킬 수 있다.
페달(70)은 전시용 로봇(200)과 유/무선으로 연결되어, 사람(100)이 페달(70)을 밟는 순간마다 전시용 로봇(200)의 자세가 순차적으로 저장된다. 이를 통해 사람(100)은 교시하려는 전체 동작의 중요한 중간 자세 위주로 교시하여 자세 정보를 저장할 수 있으며, 환경 조건의 변화, 센서의 오차 등으로 인하여 센서(10) 내지 정보 분석부(40)에서 가끔 오인식 내지 오작동이 발생하는 경우에도 전체 교시에는 영향을 주지 않고 사람(100)이 의도한 대로 교시 작업을 완료할 수 있다.
상기와 같은 과정을 통해 전시용 로봇(200)의 일련의 자세들을 자세 저장부(50)에 저장하여, 교시 작업이 완료된다.
본 발명의 전시용 로봇(200)은 자세 저장부(50)에 저장된 복수의 다관절 바(30)의 불연속적인 자세 정보를 변환하여 연속적인 자세 정보로 산출하는 동작 생성부(60)를 더 포함할 수 있다. 교시가 완료된 후, 자세 저장부(50)에 저장된 일련의 자세들은 순차적으로 전시용 로봇(200)을 통해 재생되는데, 자세 저장부(50)에 저장된 자세들은 사람(100)이 불연속적으로 저장한 자세 정보들이다. 따라서, 동작 생성부(60)는 자세 저장부(50)에 저장되어 있는 자세와 자세 사이에 연속적인 동작을 위한 자세 정보들을 별도로 생성하며, 전시용 로봇(200)의 기구적 특성을 고려하여 자세 정보들을 산출한다.
상기와 같이 생성된 연속적인 자세 정보들은 제어부(20)를 통해 전시용 로봇(200)의 명령 신호로 입력되고, 전시용 로봇(200)의 다관절 바(bar)(210a, 210b)는 부드럽고 자연스러운 동작을 하게 된다.
도 2에서, 다관절 바(210a, 210b)는 하나 이상의 관절부(212a, 212b, 214a, 214b)가 연결되며, 다관절 바(210a, 210b)의 움직임의 자유도를 높이기 위해 더 많은 관절부가 연결될 수 있다.
도 3에서, 센서(10)는 전시용 로봇(200)의 안면부나 몸통에 부착되며, 사람 손(112a, 112b)의 3D 정보와 영상 정보를 동시에 감지한다. 센서(10)의 감지 영역 내에서 사람(100)이 팔(110a, 110b)을 움직여서 전시용 로봇(200) 쪽으로 뻗은 경우에, 센서(10)로부터 가장 근접한 부분이 사람(100)의 손(112a, 112b)이 되는데, 이를 이용하여 센서(10)에서 감지한 3D 정보로부터 손 부분을 추출할 수 있다.
도 4a 및 4b는 본 발명의 전시용 로봇에 부착된 센서에서 사용자의 손을 감지했을 때 획득되는 3D 정보와 영상 정보를 도시하는 도면이다.
도 4a 및 4b를 참조하면, 정보 분석부(40)는 센서(10)에서 감지된 3D 정보를 기반으로 센서(10)로부터 가장 근접한 신체 부위, 여기서는 손(112a, 112b)을 탐지하며, 탐지된 손(112a, 112b)을 중심으로 소정 크기의 영역을 추출한다. 구체적으로, 센서(10)에 고정된 가상의 좌표계를 기준으로 사람(100)의 팔(110a, 110b)에 대한 3D 정보가 얻어지는 부분 중 센서(10)로부터 가장 근접한 거리(Xmin)로부터 대략적인 손(112a, 112b)의 크기를 반영한 거리(dhand) 이내의 부분을 손(112a, 112b)에 대한 후보 영역으로 추출한다.
이후, 추출된 손(112a, 112b) 후보 영역의 색상을 분석하고, 정보 분석부(40)에 미리 저장되어 있는 손 피부색과 대비하여, 손의 피부색과 유사한 경우, 탐지된 부분이 손(112a, 112b)이라고 최종 판단하며, 피부색과 유사하지 않은 경우, 센서 오차 등의 원인으로 인해 손(112a, 112b) 후보 영역이 잘못 추출되었거나 감지 영역 내에 손(112a, 112b)이 없는 것으로 판단한다.
도 5는 본 발명의 전시용 로봇에 부착된 센서의 감지 영역을 소정 크기의 격자로 분할하여 사용자의 동작을 감지하기 위한 방법을 설명하기 위한 도면이다.
도 5를 참조하면, 센서(10)의 감지 영역(12)을 소정 크기의 격자로 분할하여, 각 격자에서 개별적으로 전술한 바와 같은 손(112a, 112b) 후보 영역의 추출, 대비 및 판단 과정을 수행한다. 이를 통해, 센서(10) 및 정보 분석부(40)는 2개의 손(112a, 112b)을 동시에 인식할 수 있다.
제어부(20)는 상기 인식된 양손(112a, 112b)의 위치에 상응하는 위치로 전시용 로봇(200)의 다관절 바(210a, 210b)가 움직이도록 제어한다. 여기서, 손 인식 오차, 전시용 로봇(200)의 기구적 특성으로 인하여 전시용 로봇(200)이 사용자가 의도한 자세를 정확히 취하지 않을 수도 있다. 따라서, 사용자는 전시용 로봇(200)의 자세를 관찰하면서, 전시용 로봇(200)이 정확한 자세를 취한 경우에만 자세 정보를 자세 저장부(50)에 저장한다. 사용자의 양손(112a, 112b)이 교시 작업에 사용되고 있는 경우, 도 2와 같이 교시 작업에 사용되지 않는 발로 페달(70)을 밟아 저장 작업을 수행할 수 있다.
이하에서는 상기와 같은 구성을 갖는 전시용 로봇(200)의 제어 방법에 대해서 상술한다.
도 6은 본 발명의 일 실시예에 따른 전시용 로봇의 제어 방법의 순서도이다.
도 6을 참조하면, 복수의 다관절 바(30)와, 센서(10)와, 복수의 다관절 바(30)가 움직이도록 제어하는 제어부(20)를 포함하는 전시용 로봇(200)의 제어 방법으로서, 우선, 감지 영역(12) 내에 위치하는 사람(100)의 동작을 센서(10)에서 감지한다(S10).
정보 분석부(40)는 센서(10)에서 감지한 3D 정보를 기반으로 상기 센서(10)로부터 가장 근접한 신체 부위를 탐지하며, 상기 탐지된 신체 부위를 중심으로 소정 크기의 영역을 추출하고, 상기 추출된 영역 내의 영상 정보가 미리 저장된 신체 부위의 정보와 유사한지 여부를 판단한다.
상기 영상 정보 및 미리 저장된 신체 부위, 예를 들어, 손에 대한 정보의 대비 결과, 영상 정보가 손의 피부색과 유사한 경우, 탐지된 부분이 손(112a, 112b)이라고 최종 판단하며, 피부색과 유사하지 않은 경우, 센서 오차 등의 원인으로 인해 손(112a, 112b) 후보 영역이 잘못 추출되었거나 감지 영역 내에 손(112a, 112b)이 없는 것으로 판단한다.
계속하여, 제어부(20)는 센서(10)에서 출력된 3D 정보와 영상 정보를 기반으로 사람(100)의 동작에 상응하여 다관절 바(210a, 210b)가 움직이도록 제어한다(S20).
다음으로, 자세 저장부(50)는 상기 사람(100)의 동작에 상응하여 움직이는 다관절 바(210a, 210b)의 순간적인 자세를 저장한다(S30). 여기서, 전시용 로봇(200)에 유선 또는 무선으로 연결된 페달(70)을 통해 다관절 바(210a, 210b)의 자세를 자세 저장부(50)로 저장하기 위한 개시 신호가 입력될 수 있다.
계속하여, 동작 생성부(60)는 다관절 바(210a, 210b)의 불연속적인 자세 정보를 변환하여 연속적인 자세 정보로 산출하며(S40), 상기 산출된 연속적인 자세 정보를 기반으로 전시용 로봇(마네킹 로봇)(200)의 동작을 연속적으로 구현한다(S50).
한편, 사용자의 교시를 통해 자세 저장부(50)에 저장된 다관절 바(210a, 210b)의 순간적인 자세 정보는 이동식 저장 매체에 저장하거나 통신을 통해 다른 전시용 로봇 또는 PC와 공유될 수 있다. 나아가, 상기 PC를 통해 다관절 바의 순간적인 자세 정보를 수정하거나 상기 순간적인 자세 정보를 기반으로 새로운 자세 정보를 생성할 수 있으며, 상기 생성된 자세 정보를 저장 매체에 저장할 수 있다.
또한, 새롭게 생성된 자세 정보는 다시 이동식 저장 매체 또는 통신을 통해 다른 전시용 로봇 또는 PC와 공유될 수 있으며, 인터넷을 통해 교시 동작을 여러 사람이 공유하거나 거래할 수도 있다.
상기한 본 발명의 바람직한 실시예는 단지 예시의 목적을 위해 개시된 것이고, 본 발명에 대한 통상의 지식을 가지는 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.
10: 센서
12: 감지영역
20: 제어부
30: 복수의 다관절 바
40: 정보 분석부
50: 자세 저장부
60: 동작 생성부
100: 사람
110a, 110b: 팔
112a, 112b: 손
200: 전시용 로봇
210a, 210b: 다관절 바
212a, 212b, 214a, 214b: 관절부

Claims (11)

  1. 머리, 몸통, 두 팔 및 두 다리를 구비하는 전시용 로봇으로서,
    상기 두 팔 또는 두 다리를 구성하는 복수의 다관절 바(bar);
    상기 머리 또는 몸통에 부착되며, 감지 영역 내에 위치하는 사람의 동작을 감지하여 3D 정보 및 영상 정보를 동시에 출력하는 센서;
    상기 센서에서 출력된 3D 정보 및 영상 정보를 분석하여 가상의 좌표계를 바탕으로 상기 사람의 신체 부위 중에서 손과 팔꿈치와 어깨와 목과 발이 움직인 위치를 추출하는 정보 분석부;
    상기 센서에서 출력된 3D 정보 및 영상 정보와 상기 정보 분석부에서 추출된 신체 부위의 위치를 기반으로 상기 사람의 동작에 상응하여 상기 복수의 다관절 바가 움직이도록 제어하는 제어부;
    상기 제어부에 유선 또는 무선으로 연결되어 상기 복수의 다관절 바의 순간적인 자세들을 저장하기 위한 개시 신호를 발생시키는 페달;
    상기 페달에서 발생되는 개시 신호에 따라 상기 사람의 동작에 상응하여 움직이는 상기 복수의 다관절 바의 순간적인 자세들을 순차적으로 저장하는 자세 저장부;
    상기 자세 저장부에 순차적으로 저장된 상기 복수의 다관절 바의 순간적인 자세들을 변환하여 연속적인 자세 정보로 산출하는 동작 생성부를 포함하되,
    상기 제어부는 상기 동작 생성부에서 산출된 연속적인 자세 정보가 상기 전시용 로봇의 명령 신호로 입력됨에 따라 상기 복수의 다관절 바가 움직이도록 제어하는 것을 특징으로 하는 전시용 로봇.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제 1 항에 있어서,
    상기 동작 생성부는,
    상기 자세 저장부에 순차적으로 저장된 상기 복수의 다관절 바의 순간적인 자세들에서 자세와 자세 사이에 연속적인 동작을 위한 별도의 자세를 더 생성하여 상기 연속적인 자세 정보를 산출하는 것을 특징으로 하는 전시용 로봇.
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제 1 항에 있어서,
    상기 센서는,
    상기 감지 영역을 소정 크기의 격자로 분할하여, 각각의 격자 내에서 감지되는 상기 3D 정보 및 영상 정보를 기반으로 상기 사람의 동작을 감지하는 것을 특징으로 하는 전시용 로봇.
  10. 제 1 항에 있어서,
    상기 제어부는,
    상기 명령 신호에 따라 상기 복수의 다관절 바가 움직이도록 제어하여 상기 전시용 로봇의 동작을 연속적으로 구현하는 것을 특징으로 하는 전시용 로봇.
  11. 삭제
KR1020100110359A 2010-11-08 2010-11-08 전시용 로봇 및 그 제어 방법 KR101378752B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100110359A KR101378752B1 (ko) 2010-11-08 2010-11-08 전시용 로봇 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100110359A KR101378752B1 (ko) 2010-11-08 2010-11-08 전시용 로봇 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20120048900A KR20120048900A (ko) 2012-05-16
KR101378752B1 true KR101378752B1 (ko) 2014-03-28

Family

ID=46266986

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100110359A KR101378752B1 (ko) 2010-11-08 2010-11-08 전시용 로봇 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR101378752B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210106775A (ko) 2020-02-21 2021-08-31 주식회사 에스에프이음 착용형 작동 대형 로봇

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030007841A (ko) * 2001-04-03 2003-01-23 소니 가부시끼 가이샤 각식 이동 로봇 및 그 운동교시 방법, 및 기억매체
KR20050082559A (ko) * 2004-02-19 2005-08-24 주식회사 소니컴퓨터 엔터테인먼트 코리아 댄스 학습 시스템, 이를 이용한 인터넷 커뮤니티 서비스시스템과 인터넷 커뮤니티 서비스 방법, 댄스 학습 방법및 상기 방법들을 실행하는 프로그램을 기록한 컴퓨터로읽을 수 있는 기록매체

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030007841A (ko) * 2001-04-03 2003-01-23 소니 가부시끼 가이샤 각식 이동 로봇 및 그 운동교시 방법, 및 기억매체
KR20050082559A (ko) * 2004-02-19 2005-08-24 주식회사 소니컴퓨터 엔터테인먼트 코리아 댄스 학습 시스템, 이를 이용한 인터넷 커뮤니티 서비스시스템과 인터넷 커뮤니티 서비스 방법, 댄스 학습 방법및 상기 방법들을 실행하는 프로그램을 기록한 컴퓨터로읽을 수 있는 기록매체

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210106775A (ko) 2020-02-21 2021-08-31 주식회사 에스에프이음 착용형 작동 대형 로봇

Also Published As

Publication number Publication date
KR20120048900A (ko) 2012-05-16

Similar Documents

Publication Publication Date Title
US11498216B2 (en) Remote control manipulator system and control device
Sato et al. Real-time input of 3D pose and gestures of a user's hand and its applications for HCI
JP7067816B1 (ja) 画像分割及び表面筋電図に基づくロボットの教示システム及び方法
CN106313049B (zh) 一种仿人机械臂体感控制系统及控制方法
JP6526098B2 (ja) ロボットを操作するための操作装置、ロボットシステム、および操作方法
Almetwally et al. Real-time tele-operation and tele-walking of humanoid Robot Nao using Kinect Depth Camera
CN107122048A (zh) 一种动作评估系统
WO2011065034A1 (ja) ロボットの動作を制御する方法およびロボットシステム
CN105252532A (zh) 动作捕捉机器人协同柔性姿态控制的方法
KR20120025582A (ko) 로봇의 교시 데이터를 작성하는 방법 및 로봇 교시 시스템
CN110549353B (zh) 力觉视觉化装置、机器人以及存储力觉视觉化程序的计算机可读介质
US20130202212A1 (en) Information processing apparatus, information processing method, and computer program
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
JP2018015863A (ja) ロボットシステム、教示データ生成システム及び教示データ生成方法
Pan et al. Robot teaching system based on hand-robot contact state detection and motion intention recognition
KR101378752B1 (ko) 전시용 로봇 및 그 제어 방법
Amatya et al. Real time kinect based robotic arm manipulation with five degree of freedom
Wang et al. Design and implementation of humanoid robot behavior imitation system based on skeleton tracking
Lathuiliere et al. Visual hand posture tracking in a gripper guiding application
WO2022209638A1 (ja) 作業指示システム
JP4997419B2 (ja) ロボット用動作変換システム
Jayasurya et al. Gesture controlled AI-robot using Kinect
Ma et al. A framework for interactive work design based on digital work analysis and simulation
TWI826189B (zh) 具六自由度之控制器追蹤系統及方法
Deshmukh et al. iOS Based Pose Estimation and Gesture Recognition for Robot Manipulation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170309

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180316

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190226

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200302

Year of fee payment: 7