[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20140139394A - Augmented reality implementation apparatus and method for interacting with robot for education - Google Patents

Augmented reality implementation apparatus and method for interacting with robot for education Download PDF

Info

Publication number
KR20140139394A
KR20140139394A KR1020130060003A KR20130060003A KR20140139394A KR 20140139394 A KR20140139394 A KR 20140139394A KR 1020130060003 A KR1020130060003 A KR 1020130060003A KR 20130060003 A KR20130060003 A KR 20130060003A KR 20140139394 A KR20140139394 A KR 20140139394A
Authority
KR
South Korea
Prior art keywords
educational robot
robot
metadata
virtual object
educational
Prior art date
Application number
KR1020130060003A
Other languages
Korean (ko)
Other versions
KR102069366B1 (en
Inventor
정순기
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020130060003A priority Critical patent/KR102069366B1/en
Publication of KR20140139394A publication Critical patent/KR20140139394A/en
Application granted granted Critical
Publication of KR102069366B1 publication Critical patent/KR102069366B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

An augmented reality implementing apparatus is disclosed. The augmented reality implementing apparatus comprises: a camera module which takes an image of an educational robot to generate image data, wherein a marker is attached to the educational robot; a metadata extracting unit which extracts first metadata recorded on the marker; a transceiving unit which connects to a content server using the first metadata and requests second metadata from the content server; a generating unit which generates at least one virtual object and an educational scenario for interacting with the educational robot based on the second metadata, when the second metadata is received from the content server; and a display unit which visualizes the at least one virtual object according to the education scenario, augments the image data by using the at least one virtual object, and displays the result.

Description

교육용 로봇과 상호 작용하는 증강 현실 구현 장치 및 그 방법 {AUGMENTED REALITY IMPLEMENTATION APPARATUS AND METHOD FOR INTERACTING WITH ROBOT FOR EDUCATION}[0001] The present invention relates to an apparatus and method for realizing an augmented reality interacting with an educational robot,

본 발명은 교육용 로봇과 상호 작용하는 증강 현실 구현 장치 및 그 방법에 관한 것으로, 교육용 로봇과의 상호 작용이 가능하고, 최신의 콘텐츠 이용이 가능한 증강 현실 구현 장치 및 그 방법에 관한 것이다. The present invention relates to an augmented reality realizing device and method for interacting with an educational robot, and more particularly, to an augmenting reality realizing device capable of interacting with an educational robot and using the latest contents.

증강현실이란 사용자의 현실 세계에 컴퓨터로 만든 가상 물체 및 정보를 융합 또는 보완해주는 기술을 말한다. 현실 세계에 실시간으로 부가정보를 갖는 가상 세계를 더해 하나의 영상으로 보여주므로 혼합현실(MR, mixed reality)라고도 한다. Augmented reality refers to a technology that fuses or replaces computer-generated virtual objects and information in the user's real world. It is also referred to as mixed reality (MR) because a virtual world with additional information in real time is added to the real world and displayed as a single image.

증강현실 기술에 대한 연구가 시작된 이후로 다양한 분야에서 이 기술을 응용하려는 연구가 이어져 왔으며, 교육 분야에서도 증강현실 기술을 접목시키는 연구가 이루어지고 있다. Since the start of research on augmented reality technology, studies have been carried out to apply this technology in various fields, and researches have been carried out in the field of education to incorporate augmented reality technology.

한편, 증강현실 기술을 구현하기 위하여 마커 인식을 이용하는 것이 일반적이다. 구체적으로, 카메라를 통해 마커를 인식하고, 인식된 마커에 대응하는 가상 객체를 실제 영상에 혼합하는 것이다. 이 경우, 가상 객체와 관련된 콘텐츠가 마커에 프로그래밍 된다. 콘텐츠 크기가 작은 경우에는 마커에 프로그래밍될 수 있으나, 콘텐츠 크기가 큰 경우에는 마커에 프로그래밍하는데 한계가 있다. On the other hand, it is common to use marker recognition in order to realize the augmented reality technology. Specifically, a marker is recognized through a camera, and a virtual object corresponding to the recognized marker is mixed with an actual image. In this case, the content associated with the virtual object is programmed into the marker. If the content size is small, it can be programmed to the marker, but if the content size is large, programming to the marker is limited.

특히, 교육 분야에서 사용하는 콘텐츠는 그 크기가 크며, 다양한 교육 시나리오를 갖기 때문에, 마커 인식을 통해 증강 현실을 구현하는 것이 어렵다. 또한, 마커에 한번 프로그래밍된 콘텐츠는 업데이트가 어려워 콘텐츠의 유지 관리 역시 어렵다.In particular, since the contents used in the education field are large in size and have various educational scenarios, it is difficult to realize an augmented reality through marker recognition. Also, it is difficult to maintain contents once programmed into the markers is difficult to update.

실시예는 상술한 문제점을 해결하기 위한 것으로, 교육용 로봇과 상호 작용할 가상 객체 및 교육 시나리오를 생성하여 증강함으로써, 학습자에게 스마트한 교육 환경을 제공하여 학습자의 몰입도 및 집중력을 향상시킬 수 있는 증강 현실 구현 장치 및 그 방법을 제공하기 위한 것이다. In order to solve the above-described problems, an embodiment of the present invention provides a smart learning environment for a learner by creating and enhancing virtual objects and educational scenarios to interact with the educational robot, thereby providing augmented reality And a method for implementing the same.

또한, 본 발명의 다른 목적은 콘텐츠 서버에 저장된 메타데이터를 이용하여 가상 객체 및 교육 시나리오를 생성하는 것으로, 콘텐츠 서버에서 관리되는 최신의 콘텐츠를 이용할 수 있는 증강 현실 구현 장치 및 그 방법을 제공하기 위한 것이다. Another object of the present invention is to provide an apparatus and method for realizing an augmented reality in which a virtual object and a training scenario are generated by using metadata stored in a content server, will be.

이상과 같은 과제를 달성하기 위한 본 발명의 일 실시예에 따른 증강 현실 구현 장치는, 마커가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성하는 카메라 모듈, 상기 영상 데이터로부터 상기 마커를 인식하고, 상기 인식된 마커에 기록된 제1 메타데이터를 추출하는 메타데이터 추출부, 상기 제1 메타데이터를 이용하여 콘텐츠 서버에 접속하고, 상기 콘텐츠 서버에 제2 메타데이터를 요청하는 송수신부, 상기 콘텐츠 서버로부터 상기 제2 메타데이터가 수신될 경우, 상기 제2 메타데이터에 기반하여 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 생성부 및 상기 교육 시나리오에 따라 상기 적어도 하나의 가상 객체를 가시화하고, 상기 가시화된 적어도 하나의 가상 객체를 상기 영상 데이터에 증강하여 디스플레이하는 디스플레이부를 포함한다. According to another aspect of the present invention, there is provided an apparatus for realizing an augmented reality according to an embodiment of the present invention. The apparatus includes a camera module for photographing an educational robot with a marker and generating image data, A metadata extraction unit for extracting first metadata recorded in the recognized marker, a transmission / reception unit for accessing the content server using the first metadata and requesting the second metadata to the content server, A generating unit for generating at least one virtual object and an educational scenario for interaction with the educational robot based on the second metadata when the second metadata is received, Visualizing a virtual object, and enhancing the visualized at least one virtual object to the image data It includes a display for display over.

여기서, 본 증강 현실 구현 장치는 상기 영상 데이터로부터 마커를 검출하여 상기 카메라 모듈의 자세를 추정하는 제1 추정부, 상기 영상 데이터로부터 상기 교육용 로봇을 검출하여 상기 교육용 로봇의 자세를 추정하는 제2 추정부 및 상기 카메라 모듈의 자세와 상기 교육용 로봇의 자세를 추정하도록 상기 제1 추정부 및 상기 제2 추정부를 제어하고, 상기 추정된 카메라 모듈의 자세와 상기 추정된 교육용 로봇의 자세에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터 상에 적응적으로 증강하도록 상기 디스플레이부를 제어하는 제어부를 더 포함할 수 있다. Here, the augmented reality implementing apparatus includes a first estimator for detecting a marker from the image data and estimating a posture of the camera module, a second estimator for estimating a posture of the educational robot by detecting the educational robot from the image data, Wherein the control unit controls the first estimating unit and the second estimating unit to estimate the attitude of the camera module and the attitude of the educational robot based on the attitude of the camera module and the estimated attitude of the educational robot, And a control unit for controlling the display unit to adaptively increase the virtual object of the image data on the image data.

한편, 상기 제어부는 상기 영상 데이터 상에 상기 가상 객체를 증강한 후, 상기 영상 데이터 상에서 상기 교육용 로봇과 상기 가상 객체와의 이격 거리를 산출하고, 상기 이격 거리가 기 설정된 기준값 이하인 경우, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트를 발생시키며, X3D(Extensible 3D)를 이용하여 상기 충돌 이벤트를 가시화할 수 있다. Meanwhile, the controller may increase the virtual object on the image data, and then calculate a distance between the educational robot and the virtual object on the image data. If the distance is less than a preset reference value, A collision event is generated between the virtual object and the virtual object, and the collision event can be visualized using X3D (Extensible 3D).

본 증강 현실 구현 장치는 상기 교육용 로봇과 블루투스 통신하는 블루투스 통신부를 더 포함할 수 있다. The apparatus for realizing an augmented reality may further include a Bluetooth communication unit for performing Bluetooth communication with the educational robot.

한편, 상기 제어부는 사용자 입력부를 통해 상기 교육용 로봇의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 상기 사용자 입력 신호를 상기 교육용 로봇에 전송하도록 상기 블루투스 통신부를 제어할 수 있다. The controller may control the Bluetooth communication unit to transmit the user input signal to the educational robot when a user input signal for controlling the operation of the educational robot is inputted through the user input unit.

한편, 상기 제어부는 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, 상기 충돌 이벤트를 처리하기 위하여 상기 교육용 로봇에 대한 제어 신호를 생성하고, 상기 생성된 제어 신호를 상기 교육용 로봇에 전송하도록 상기 블루투스 통신부를 제어할 수 있다. Meanwhile, when a collision event occurs between the training robot and the virtual object, the control unit generates a control signal for the training robot to process the collision event, and transmits the generated control signal to the training robot The Bluetooth communication unit can be controlled.

한편, 상기 제어부는, 상기 사용자 입력 신호에 따라 상기 교육용 로봇이 제어되는 동안 기 설정된 특정 영역에 상기 교육용 로봇이 위치할 경우, 상기 사용자 입력 신호에 따른 교육용 로봇의 제어보다, 이벤트 정보를 이용한 상기 교육용 로봇의 자동 제어를 우선으로 하고, 상기 교육용 로봇을 제어하기 위한 상기 이벤트 정보를 상기 교육용 로봇에 전송하도록 상기 블루투스 통신부를 제어할 수 있다.Meanwhile, when the educational robot is located in a predetermined area while the educational robot is controlled according to the user input signal, the controller may control the learning robot based on the user information input signal, It is possible to control the Bluetooth communication unit such that the automatic control of the robot is prioritized and the event information for controlling the educational robot is transmitted to the educational robot.

한편, 상기 제1 메타데이터는 상기 제2 메타데이터의 저장 위치 정보를 포함하는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터이고, 상기 제2 메타데이터는 증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠, 상기 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 어느 하나를 포함할 수 있다. The first meta data is content meta data including content server information and content related information including storage location information of the second meta data, and the second meta data includes detailed meta data for realizing an augmented reality Information on storage locations of media files used to execute the contents, information on three-dimensional geometry of the educational robot, interaction information with the educational robot in the virtual environment, education scenario information, And specification specification information for enhancement.

한편, 상기 생성부는 상기 제2 메타데이터를 이용하여 상기 콘텐츠, 상기 미디어파일들, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 하나를 획득하고, 상기 교육 시나리오 및 상기 가상 객체를 생성할 수 있다.Meanwhile, the generation unit may generate the content, the media files, the educational robot extension module, the three-dimensional geometric information of the educational robot, the interaction information with the educational robot in the virtual environment, Information and specification description information for the enhancement, and generate the training scenario and the virtual object.

한편, 상기 마커는 QR 코드이고, 상기 QR 코드는 상기 제1 메타데이터가 기록된 데이터 영역, 위치 검출 패턴, 방향 검출 패턴 및 상기 QR 코드의 외곽을 따라 형성된 사각형 패턴을 포함할 수 있다. The marker may be a QR code, and the QR code may include a data area in which the first meta data is recorded, a position detection pattern, a direction detection pattern, and a rectangular pattern formed along an outer periphery of the QR code.

본 발명의 일 실시예에 따른 교육용 로봇과의 상호 작용을 위한 증강 현실 구현 방법은 마커가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성하는 단계, 상기 영상 데이터로부터 상기 마커를 인식하고 상기 인식된 마커에 기록된 제1 메타데이터를 추출하는 단계, 상기 제1 메타데이터를 이용하여 콘텐츠 서버에 접속하고 상기 콘텐츠 서버에 제2 메타데이터를 요청하는 단계, 상기 콘텐츠 서버로부터 상기 제2 메타데이터가 수신될 경우, 상기 제2 메타데이터에 기반하여 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 단계 및 상기 교육 시나리오에 따라 상기 적어도 하나의 가상 객체를 가시화하고, 상기 가시화된 적어도 하나의 가상 객체를 상기 영상 데이터에 증강하여 디스플레이하는 단계를 포함한다. A method for realizing an augmented reality for interaction with an educational robot according to an embodiment of the present invention includes the steps of generating image data by photographing an educational robot to which a marker is attached, recognizing the marker from the image data, Accessing a content server using the first metadata and requesting the second metadata from the content server, receiving the second metadata from the content server Generating at least one virtual object and an educational scenario for interaction with the educational robot based on the second metadata and visualizing the at least one virtual object according to the educational scenario, Augmenting and displaying at least one virtual object on the image data, The.

여기서, 본 증강 현실 구현 방법은 상기 영상 데이터로부터 마커를 검출하여 상기 카메라 모듈의 자세를 추정하는 단계 및 상기 영상 데이터로부터 상기 교육용 로봇을 검출하여 상기 교육용 로봇의 자세를 추정하는 단계를 더 포함하고, 상기 가시화된 적어도 하나의 가상 객체를 상기 영상 데이터에 증강하여 디스플레이하는 단계는 상기 추정된 상기 카메라 모듈의 자세와 상기 교육용 로봇의 자세에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터 상에 적응적으로 증강시켜 디스플레이할 수 있다. Here, the method for realizing an augmented reality may further include estimating a posture of the camera module by detecting a marker from the image data, and estimating a posture of the educational robot by detecting the educational robot from the image data, Wherein the step of enhancing and displaying at least one virtual object visualized on the image data includes adaptively arranging the at least one virtual object on the image data according to the estimated attitude of the camera module and the attitude of the educational robot The display can be enhanced.

한편, 본 증강 현실 구현 방법은 상기 영상 데이터 상에 상기 가상 객체를 증강한 후, 상기 영상 데이터 상에서 상기 교육용 로봇과 상기 가상 객체와의 이격 거리를 산출하는 단계 및 상기 이격 거리가 기 설정된 기준값 이하인 경우, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트를 발생시키며, X3D(Extensible 3D)를 이용하여 상기 충돌 이벤트를 가시화하는 단계를 더 포함할 수 있다. The method for realizing the augmented reality includes the steps of augmenting the virtual object on the image data, and then calculating a separation distance between the training robot and the virtual object on the image data, and when the distance is less than a preset reference value , Generating a collision event between the training robot and the virtual object, and visualizing the collision event using X3D (Extensible 3D).

한편, 본 증강 현실 구현 방법은 사용자 입력 수단을 통해 상기 교육용 로봇의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 블루투스 통신을 이용하여 상기 사용자 입력 신호를 상기 교육용 로봇에 전송하는 단계를 더 포함할 수도 있다. The method for realizing the augmented reality further includes transmitting the user input signal to the educational robot using Bluetooth communication when a user input signal for controlling the operation of the educational robot is inputted through the user input means You may.

한편, 본 증강 현실 구현 방법은 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, 상기 충돌 이벤트를 처리하기 위하여 상기 교육용 로봇에 대한 제어 신호를 생성하고, 블루투스 통신을 이용하여 상기 생성된 제어 신호를 상기 교육용 로봇에 전송하는 단계를 더 포함할 수 있다. The method for realizing the augmented reality includes generating a control signal for the training robot to process the collision event when a collision event occurs between the training robot and the virtual object, And transmitting a signal to the educational robot.

한편, 본 증강 현실 구현 방법은 상기 사용자 입력 신호에 따라 상기 교육용 로봇이 제어되는 동안 기 설정된 특정 영역에 상기 교육용 로봇이 위치할 경우, 상기 사용자 입력 신호에 따른 교육용 로봇의 제어보다, 이벤트 정보를 이용한 상기 교육용 로봇의 자동 제어를 우선으로 하여 상기 교육용 로봇을 제어하기 위한 상기 이벤트 정보를 상기 블루투스 통신을 이용하여 상기 교육용 로봇에 전송하는 단계를 더 포함할 수 있다. Meanwhile, the method of realizing the augmented reality may further include the step of, when the training robot is positioned in a predetermined area while the training robot is controlled according to the user input signal, And transmitting the event information for controlling the educational robot to the educational robot using the Bluetooth communication with priority given to automatic control of the educational robot.

한편, 상기 제1 메타데이터는 상기 제2 메타데이터의 저장 위치 정보를 포함하는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터이고, 상기 제2 메타데이터는 증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠, 상기 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 어느 하나를 포함할 수 있다. The first meta data is content meta data including content server information and content related information including storage location information of the second meta data, and the second meta data includes detailed meta data for realizing an augmented reality Information on storage locations of media files used to execute the contents, information on three-dimensional geometry of the educational robot, interaction information with the educational robot in the virtual environment, education scenario information, And specification specification information for enhancement.

한편, 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 단계는, 상기 제2 메타데이터를 이용하여 상기 콘텐츠, 상기 미디어파일들, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 하나를 획득하고, 상기 교육 시나리오 및 상기 가상 객체를 생성할 수 있다.
Meanwhile, the step of generating at least one virtual object and a training scenario for interaction with the educational robot may further include the steps of: using the second metadata, the content, the media files, the educational robot extension module, Dimensional geometry information of the educational robot, interaction information with the educational robot in the virtual environment, education scenario information, and specification description information for the enhancement, and generate the education scenario and the virtual object.

실시예에 따른 증강 현실 구현 장치 및 그 방법은 교육용 로봇과 상호 작용할 가상 객체 및 교육 시나리오를 생성하여 증강하는 것으로 교육 분야에서의 활용도를 높일 수 있다. The apparatus and method for realizing the augmented reality according to the embodiment can increase the utilization in the education field by creating and enhancing virtual objects and training scenarios to interact with the educational robot.

또한, 마커 인식을 통해 콘텐츠 서버에 접속하여 메타데이터를 수신하기 때문에 콘텐츠 업데이트와 관련된 유지 관리를 고려할 필요가 없고, 항상 최신의 콘텐츠를 이용할 수 있으며, 메타데이터로부터 교육용 로봇과 상호 작용할 가상 객체 및 교육 시나리오를 생성하기 때문에 마커의 크기를 최소화할 수 있다. In addition, since the metadata is received by accessing the content server through the marker recognition, there is no need to consider the maintenance related to updating of the content, the latest contents can be always used, and the virtual objects and education Since the scenario is created, the size of the marker can be minimized.

도 1은 본 발명의 일 실시예에 따른 증강 현실 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 구현 장치의 구성을 나타내는 블록도이다.
도 3a 및 도 3b는 본 발명의 일 실시예에 따른 QR 코드를 이용한 카메라 자세 추정 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 증강 현실 구현 방법을 설명하기 위한 흐름도이다.
도 5 내지 도 7은 본 발명의 다양한 실시예에 따른 증강 현실 구현 예를 나타내는 도면이다.
1 is a diagram illustrating an augmented reality system according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of an augmented reality realization apparatus according to an embodiment of the present invention.
3A and 3B are views for explaining a camera position estimation method using a QR code according to an embodiment of the present invention.
4 is a flowchart illustrating a method for implementing an augmented reality according to an embodiment of the present invention.
5 to 7 are views showing an embodiment of an augmented reality according to various embodiments of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시 예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 각 도면에 제시된 동일한 참조 부호는 동일한 구성을 나타낸다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. Also, terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the user, intent of the operator, or custom in the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification. Like reference numerals in the drawings denote like elements.

도 1은 실시예에 따른 증강 현실 시스템을 나타내는 도면이다. 1 is a diagram illustrating an augmented reality system according to an embodiment.

도 1을 참조하면, 증강 현실 시스템(1000)은 증강 현실 구현 장치(100), 콘텐츠 서버(200) 및 교육용 로봇(300)을 포함한다. Referring to FIG. 1, an augmented reality system 1000 includes an augmented reality implementation apparatus 100, a content server 200, and an educational robot 300.

증강 현실 구현 장치(100)는 증강 현실 기술을 이용하여 교육용 로봇(300)과 상호 작용하는 장치로, TV 또는 모니터와 같은 디스플레이 기기가 될 수 있으며, 사용자가 휴대할 수 있는 노트북, 태블릿 PC 또는 스마트폰 등이 될 수도 있다. 또한, 2차원 또는 3차원 디스플레이 기능을 구비 또는 겸비한 디스플레이 기기가 될 수 있다. 그러나, 증강 현실 구현 장치(100)는 이에 한정되지 않으며, 디스플레이 구성을 통해 증강 현실 기술을 제공할 수 있는 다른 기기들이 될 수도 있다.The augmented reality realization device 100 interacts with the educational robot 300 using an augmented reality technology, and can be a display device such as a TV or a monitor. A laptop, a tablet PC, or a smart Phone or the like. Further, the display device can be a display device having or having a two-dimensional or three-dimensional display function. However, the augmented reality realization device 100 is not limited thereto, and may be other devices capable of providing augmented reality technology through a display configuration.

증강 현실 구현 장치(100)는 교육용 로봇(300)을 촬영하기 위한 카메라 모듈(110)을 포함할 수 있다. 만약, 증강 현실 구현 장치(100)가 카메라 모듈을 포함하지 않는 경우에는, 카메라(10)를 연결하여 사용할 수 있다. The augmented reality realization device 100 may include a camera module 110 for photographing the educational robot 300. If the augmented reality realization device 100 does not include a camera module, the camera 10 may be connected to the augmented reality realization device 100.

교육용 로봇(300)은 학습에 이용하기 위한 로봇이 될 수 있다. 이 교육용 로봇(300)은 학습시, 학생들의 교육적 체험 효과를 높이고 흥미를 유발시키기 위해서 가상물체에 해당하는 로봇을 실제로 제작한 로봇이다. The educational robot 300 may be a robot for use in learning. This educational robot 300 is a robot that actually produced a robot corresponding to a virtual object in order to enhance the educational experience of students and to generate interest in learning.

교육용 로봇(300)은 일 부위에 마커(310)가 부착되어 있을 수 있다. 일 예로, 이 마커(310)는 QR 코드가 될 수 있으며, 이 마커(310)에는 제1 메타데이터가 기록되어 있을 수 있다. The educational robot 300 may have a marker 310 attached thereto. For example, the marker 310 may be a QR code, and the marker 310 may be recorded with the first metadata.

한편, 카메라 모듈(110)은 마커(310)가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성할 수 있다. Meanwhile, the camera module 110 can photograph the education robot with the marker 310 attached thereto to generate image data.

증강 현실 구현 장치(100)는 카메라 모듈(110)에 의해 생성된 영상 데이터로부터 마커(310)를 인식하고, 마커(310)에 기록된 제1 메타데이터를 추출할 수 있다. The augmented reality implementing apparatus 100 can recognize the marker 310 from the image data generated by the camera module 110 and extract the first metadata recorded in the marker 310. [

여기서, 제1 메타데이터란 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터일 수 있다. 콘텐츠 서버 정보란, 제2 메타데이터가 저장된 콘텐츠 서버(200)에 대한 IP 주소 정보 또는 URL 정보, 즉, 제2 메타데이터의 저장 위치 정보가 될 수 있다. 또한, 콘텐츠 관련 정보란 콘텐츠 종류, 콘텐츠명, 제1 메타데이터 생성일, 콘텐츠 저작자 등을 포함할 수 있다.Here, the first metadata may be content metadata including content server information and content related information. The content server information may be IP address information or URL information of the content server 200 in which the second meta data is stored, that is, storage location information of the second meta data. The content-related information may include a content type, a content name, a first meta data creation date, a content author, and the like.

증강 현실 구현 장치(100)는 추출된 제1 메타데이터를 이용하여 콘텐츠 서버(200)에 접속하고, 콘텐츠 서버(200)에 제2 메타데이터를 요청할 수 있다. 이는 제1 메타데이터에 포함된 콘텐츠 서버 정보를 이용하여 수행할 수 있다. The augmented reality implementing apparatus 100 can access the content server 200 using the extracted first meta data and request the content server 200 for the second meta data. This can be performed using the content server information included in the first meta data.

제2 메타데이터란 증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠를 포함하고 있으며, 이 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보를 포함할 수 있다. 또한, 제2 메타데이터는 교육용 로봇 확장 모듈, 교육용 로봇의 3차원 기하 정보, 가상 환경에서 교육용 로봇과의 상호 작용 정보, 교육 시나리오 정보 및 증강을 위한 명세 기술 정보 등을 더 포함할 수 있다. The second meta data is detailed meta data for implementing the augmented reality, and may include content, and may include storage location information of media files used to execute the content. In addition, the second metadata may further include an educational robot extension module, three-dimensional geometric information of the educational robot, interaction information with the educational robot in the virtual environment, educational scenario information, and specification technical information for the enhancement.

증강 현실 구현 장치(100)는 제2 메타데이터를 이용하여 교육용 로봇(300)과 상호 작용할 가상 객체 및 교육 시나리오를 생성할 수 있다. The augmented reality implementing apparatus 100 can generate a virtual object and a training scenario to interact with the educational robot 300 using the second metadata.

증강 현실 구현 장치(100)는 교육 시나리오에 따라 가상 객체를 구현하고, 가상 객체를 영상 데이터에 증강하여 디스플레이할 수 있다. 이 과정에서 증강 현실 구현 장치(100)는 카메라(10)의 자세 및 교육용 로봇(300)의 자세를 추정하여 카메라(10)의 자세와 교육용 로봇(300)의 자세에 따라 가상 객체를 영상 데이터 상에 적응적으로 증강할 수 있다. The augmented reality implementing apparatus 100 can implement a virtual object according to an educational scenario, and display the augmented virtual object on the image data. The augmented reality implementing apparatus 100 estimates the attitude of the camera 10 and the attitude of the educational robot 300 and estimates the attitude of the educational robot 300 based on the attitude of the camera 10 and the attitude of the educational robot 300, As shown in FIG.

또한, 증강 현실 구현 장치(100)는 사용자 요청에 따라 가상 객체를 어떠한 순서, 화면, 방식 등으로 증강시킬 것인를 나타내는 교육 시나리오를 디스플레이 할 수 있다. 따라서, 사용자 또는 학습자 등이 교육 시나리오를 확인하여 교육용 로봇(300)의 자세를 제어하거나, 가상 객체의 증강을 제어할 수 있다. In addition, the augmented reality implementing apparatus 100 can display a training scenario indicating that a virtual object is to be augmented in a certain order, a screen, a method, etc. according to a user's request. Accordingly, a user or a learner can check the training scenario to control the attitude of the educational robot 300 or to control the reinforcement of virtual objects.

이상과 같은 본 실시예에 따른 증강 현실 시스템(1000)는 마커(310)에 기록된 제1 메타데이터를 이용하여 콘텐츠 서버(200)에 접속하는 것으로, 실제 콘텐츠가 마커(310)에 기록되어 있지 않아 마커(310)의 크기를 소형화시킬 수 있다. The augmented reality system 1000 according to the present embodiment as described above connects to the content server 200 using the first metadata recorded in the marker 310. When the actual content is not recorded in the marker 310 The size of the non-markers 310 can be reduced.

또한, 증강 현실 시스템(1000)은 콘텐츠 서버(200)에 접속하여 제2 메타데이터를 수신하고, 이 제2 메타데이터를 이용하여 증강 현실에 필요한 교육 시나리오 및 가상 객체를 생성하기 때문에, 최신의 콘텐츠를 이용할 수 있으며, 사용자가 직접 콘텐츠를 관리할 필요가 없다. In addition, the augmented reality system 1000 accesses the content server 200 to receive the second meta data, and uses the second meta data to generate training scenarios and virtual objects necessary for the augmented reality, And it is not necessary for the user to directly manage the content.

여기서는, 증강 현실 구현 장치(100)가 제2 메타데이터를 이용하여 교육 시나리오 및 가상 객체를 생성하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 구체적으로, 콘텐츠 서버(200)는 제2 메타데이터를 이용하여 생성된 교육 시나리오 및 가상 객체를 저장 및 관리하고 있을 수 있다. 따라서, 증강 현실 구현 장치(100)가 콘텐츠 서버(200)에 접속하여 제2 메타데이터를 요청하고, 이 제2 메타데이터와 관련된 교육 시나리오 및 가상 객체와 관련된 정보를 획득할 수도 있다. 이 경우, 제2 메타데이터, 교육 시나리오, 가상 객체 등은 콘텐츠 서버(200)의 관리자에 의해 주기적으로 업데이트 되는 정보가 될 수 있다. 따라서, 증강 현실 구현 장치(100)는 항상 최신의 정보들을 이용하여 증강 현실을 구현할 있다. Here, the augmented reality implementing apparatus 100 generates the training scenario and the virtual object using the second meta data, but the present invention is not limited thereto. Specifically, the content server 200 may store and manage training scenarios and virtual objects created using the second metadata. Accordingly, the augmented reality implementing apparatus 100 may access the content server 200 to request the second metadata, and acquire information related to the training scenario and the virtual object related to the second metadata. In this case, the second metadata, the educational scenario, the virtual object, and the like may be information periodically updated by the administrator of the content server 200. Therefore, the augmented reality implementing apparatus 100 can always implement the augmented reality using the latest information.

한편, 증강 현실 시스템(1000)은 교육용 로봇(300)과 상호 작용하는 형태로 가상 객체를 증강하기 때문에, 학습자의 몰입감 및 집중력을 향상시킬 수 있으며, 스마트한 교육 환경을 제공할 수 있다.
Meanwhile, since the augmented reality system 1000 enhances virtual objects in a form interacting with the educational robot 300, it can improve the immersion and concentration of the learners and provide a smart educational environment.

도 2는 본 발명의 일 실시예에 따른 증강 현실 구현 장치의 구성을 나타내는 블록도이다. 도 1에 도시된 증강 현실 구현 장치(100)의 구성을 구체화한 것으로, 증강 현실 구현 장치(100)는 사용자 입력부(101), 카메라 모듈(110), 메타데이터 추출부(120), 송수신부(130), 생성부(140), 제1 추정부(150), 제2 추정부(160), 디스플레이부(170), 블루투스 통신부(180) 및 제어부(190)를 포함한다. 2 is a block diagram illustrating a configuration of an augmented reality realization apparatus according to an embodiment of the present invention. 1, the augmented reality realization apparatus 100 includes a user input unit 101, a camera module 110, a metadata extraction unit 120, a transmission / reception unit (not shown) A first estimator 150, a second estimator 160, a display unit 170, a Bluetooth communication unit 180, and a controller 190. The first estimator 150, the second estimator 160,

사용자 입력부(101)는 사용자 입력을 위한 구성으로, 키보드, 키패드, 마우스, 터치 스크린 등이 될 수 있다. 예를 들어, 사용자가 마우스를 이용하여 어떠한 입력을 실행할 경우, 사용자 입력부(101)는 그 입력에 대응하는 사용자 입력 신호를 생성할 수 있다. The user input unit 101 may be a keyboard, a keypad, a mouse, a touch screen, or the like for user input. For example, when a user performs an input using a mouse, the user input unit 101 may generate a user input signal corresponding to the input.

카메라 모듈(110)은 마커(310)가 부착된 교육용 로봇(300)을 촬영하여 영상 데이터를 생성한다. The camera module 110 photographs the educational robot 300 to which the marker 310 is attached and generates image data.

메타데이터 추출부(120)는 영상 데이터로부터 마커(310)를 인식하고, 인식된 마커(310)에 기록된 제1 메타데이터를 추출할 수 있다.The metadata extraction unit 120 can recognize the marker 310 from the image data and extract the first metadata recorded in the recognized marker 310. [

제1 메타데이터는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터로, 작은 데이터 용량을 가질 수 있다. 따라서, 프로그래밍 또는 기록된 데이터의 용량 및 복잡도에 비례하여 마커(310)의 크기가 커지는 것을 고려할 때, 제1 메타데이터를 기록하고 있는 마커(310)는 상대적으로 작은 크기를 가질 수 있다. 특히, 마커(310)는 사물에 부착되는 것을 고려할 때, 마커(310)의 크기가 작을 수록 작은 사물에 부착 가능하기 때문에, 그 이용 범위가 증대될 수 있다. The first metadata may be content metadata including content server information and content related information, and may have a small data capacity. Therefore, considering that the size of the marker 310 is increased in proportion to the capacity and complexity of the programmed or recorded data, the marker 310 recording the first metadata may have a relatively small size. In particular, considering the fact that the marker 310 is attached to an object, the smaller the size of the marker 310, the more the range of use can be increased since the marker 310 can be attached to a small object.

또한, 제1 메타데이터는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터일 수 있다. 콘텐츠 서버 정보란, 제2 메타데이터가 저장된 콘텐츠 서버(200)에 대한 IP 주소 정보 또는 URL 정보, 즉, 제2 메타데이터의 저장 위치 정보가 될 수 있다. 또한, 콘텐츠 관련 정보란 콘텐츠 종류, 콘텐츠명, 제1 메타데이터 생성일, 콘텐츠 저작자 등을 포함할 수 있다.In addition, the first metadata may be content metadata including content server information and content related information. The content server information may be IP address information or URL information of the content server 200 in which the second meta data is stored, that is, storage location information of the second meta data. The content-related information may include a content type, a content name, a first meta data creation date, a content author, and the like.

제1 메타데이터는 XML(Extensible Markup Language) 구조를 가지며, 아래 표 1로 나타낼 수 있다. The first metadata has an XML (Extensible Markup Language) structure, and can be represented in Table 1 below.

TAGTAG ATTRIBUTEATTRIBUTE DESCRIPTIONDESCRIPTION <?xml version="1.2" encoding="utf-8"?><? xml version = "1.2" encoding = "utf-8"?> XML 메타데이터 버전XML metadata version INFORMATIONINFORMATION 시작/종료Start / End SUBJECTSUBJECT 3D MODEL3D MODEL 콘텐츠 종류Content type URLURL http://vr.knu.ac.kr/~jppark/Contents/Information/butterfly.txt</URL>http://vr.knu.ac.kr/~jppark/Contents/Information/butterfly.txt </ URL> 제2 메타데이터가 저장된 콘텐츠 서버의 URLThe URL of the content server in which the second metadata is stored NAMENAME BUTTERFLYBUTTERFLY 콘텐츠명Content name DATEDATE 2013-03-012013-03-01 제1 메타데이터 생성일Date of first metadata generation FROMFROM JPPARKJPPARK 콘텐츠 저작자Content author

송수신부(130)는 제1 메타데이터를 이용하여 콘텐츠 서버(200)에 접속하고, 콘텐츠 서버(200)에 제2 메타데이터를 요청 및 수신할 수 있다. The transceiver 130 may access the content server 200 using the first meta data and request and receive the second meta data to the content server 200. [

생성부(140)는 콘텐츠 서버(200)로부터 제2 메타데이터가 수신될 경우, 기존의 콘텐츠를 제2 메타데이터로 갱신하고, 제2 메타 데이터에 기반하여 교육용 로봇(300)과의 상호 작용을 위한 가상 객체 및 교육 시나리오를 생성할 수 있다. 이 같이 생성된 가상 객체 및 교육 시나리오는 메모리(미도시)에 저장될 수 있다. When the second metadata is received from the content server 200, the generation unit 140 updates the existing content with the second metadata, and generates the interaction with the educational robot 300 based on the second metadata A virtual object and a training scenario can be generated. The generated virtual object and the training scenario may be stored in a memory (not shown).

제2 메타데이터란 증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠를 포함하고 있으며, 이 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보를 포함할 수 있다. 예를 들어, 제2 메타데이터가 "나비"와 관련된 콘텐츠 및 "나비"와 관련된 미디어파일들의 저장 위치 정보를 포함할 경우, 제2 메타데이터는 아래 표 2로 나타낼 수 있다. The second meta data is detailed meta data for implementing the augmented reality, and may include content, and may include storage location information of media files used to execute the content. For example, if the second metadata includes content related to "butterfly" and storage location information of media files associated with "butterfly "

{
"Model":"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/butterfly.3ds",
"MarkerName": [
"tree1.patt"
"tree2.patt"
],
"MarkerResources": [
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree1.3ds“
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree2.3ds“
],
"MarkerTexture": [
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree1.png“
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree2.png“
],
"Material":"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/butterfly.material",
"Animation":"false"
}
{
"Model": "http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/butterfly.3ds",
"MarkerName": [
"tree1.patt"
"tree2.patt"
],
"MarkerResources": [
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree1.3ds"
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree2.3ds"
],
"MarkerTexture": [
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree1.png"
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree2.png"
],
"Material": "http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/butterfly.material",
"Animation": "false"
}

"나비"와 관련된 콘텐츠를 증강시켜 교육용 로봇과 상호 작용하도록 구현하기 위해서는, "나비"와 관련된 콘텐츠를 가상 객체로 생성하는 것이 필요하다. In order to enhance the content related to the "butterfly " and to implement it to interact with the educational robot, it is necessary to create content related to the" butterfly " as a virtual object.

따라서, 생성부(140)는 제2 메타데이터에 포함된 모델(Model), 마커리소스(MarkerResource), 마커텍스쳐(MarkerTexture), 매터리얼(Material) 및 애니메이션 태그를 이용하여 가상 객체를 생성할 수 있다. Accordingly, the generating unit 140 may generate a virtual object using a model, a marker resource, a marker texture, a material, and an animation tag included in the second metadata .

예를 들어, 제2 메타데이터로부터 "나비"의 사진, "나비"의 성장 과정, "나비"의 일상 생활 등에 대한 콘텐츠들이 획득될 경우, 이 콘텐츠들을 통해 구성 가능한 교육 시나리오 및 가상 객체를 생성할 수 있다. For example, if the contents of the second metadata are acquired from the photographs of the "butterfly", the growth process of the "butterfly", the everyday life of the "butterfly", and the like, a training scenario and a virtual object .

또한, 제2 메타데이터는 교육용 로봇 확장 모듈, 교육용 로봇의 3차원 기하 정보, 가상 환경에서 교육용 로봇과의 상호 작용 정보, 교육 시나리오 정보 및 증강을 위한 명세 기술 정보 등을 더 포함할 수 있다. In addition, the second metadata may further include an educational robot extension module, three-dimensional geometric information of the educational robot, interaction information with the educational robot in the virtual environment, educational scenario information, and specification technical information for the enhancement.

한편, 영상 데이터 상에 가상 객체를 증강할 경우, 3차원 지형정보에 정확히 정렬된 형태로 증강해야 하므로, 카메라(10)의 자세를 고려해야 한다. 또한, 교육용 로봇(300)이 포함된 영상 데이터에 가상 객체를 정확하게 증강하기 위하여 교육용 로봇(300)의 자세를 고려해야 한다. 여기서, 자세란, 위치 및 방향을 모두 고려한 것일 수 있다. On the other hand, when a virtual object is augmented on the image data, the posture of the camera 10 must be considered because it must be accurately aligned with the three-dimensional topographic information. In addition, the posture of the educational robot 300 must be considered in order to accurately enhance the virtual objects in the image data including the educational robot 300. [ Here, the posture may be one in which both the position and the direction are considered.

제1 추정부(150)는 영상 데이터로부터 마커(310)를 검출하여 카메라 모듈(110)의 자세를 추정할 수 있다.The first estimator 150 may estimate the posture of the camera module 110 by detecting the marker 310 from the image data.

앞서 설명한 바와 같이, 마커(310)에 해당하는 QR 코드는 제1 메타데이터가 기록된 데이터 영역, 위치 검출 패턴, 방향 검출 패턴 및 사각형 패턴을 포함할 수 있다. 따라서, 제1 추정부(150)는 QR 코드에서 위치 검출 패턴, 방향 검출 패턴 및 사각형 패턴의 검출 여부에 따라 다른 방식을 이용하여 카메라 모듈(110)의 자세를 추정할 수 있다. As described above, the QR code corresponding to the marker 310 may include a data area in which the first meta data is recorded, a position detection pattern, a direction detection pattern, and a rectangular pattern. Accordingly, the first estimating unit 150 can estimate the attitude of the camera module 110 using another method depending on whether the position detection pattern, the direction detection pattern, and the square pattern are detected in the QR code.

구체적으로, 제1 추정부(150)는 QR 코드에서 위치 검출 패턴 및 방향 검출 패턴이 검출될 경우, 위치 검출 패턴 및 방향 검출 패턴을 이용하여 사각형 패턴의 방향을 결정하고, 이 사각형 패턴의 방향에 따라 QR 코드의 방향을 결정할 수 있다. 그리고, 기 측정된 3차원 공간 상의 QR 코드의 위치 및 크기를 이용하여 QR 코드가 위치하는 3차원 평면과 영상 데이터의 첫 번째 영상 프레임 간의 제1 호모그래피를 산출할 수 있다. Specifically, when the position detection pattern and the direction detection pattern are detected in the QR code, the first estimation unit 150 determines the direction of the rectangular pattern using the position detection pattern and the direction detection pattern, Therefore, the direction of the QR code can be determined. The first homography between the 3-dimensional plane where the QR code is located and the first image frame of the image data can be calculated using the position and the size of the QR code on the measured 3-dimensional space.

이 제1 호모그래피로부터 카메라 모듈(110)의 초기 자세를 추정할 수 있으며, 영상데이터의 두 번째 영상 프레임으로부터 카메라 모듈(110)의 움직임에 따른 자세를 추정할 수 있다. The initial posture of the camera module 110 can be estimated from the first homography, and the posture according to the movement of the camera module 110 can be estimated from the second image frame of the image data.

반면, 제1 추정부(150)는QR 코드에서 위치 검출 패턴 및 방향 검출 패턴이 미검출될 경우, 특징점을 기반으로 하여 카메라 모듈(110)의 자세를 추정할 수 있다. On the other hand, when the position detection pattern and the direction detection pattern are not detected in the QR code, the first estimation unit 150 can estimate the posture of the camera module 110 based on the feature points.

QR 코드에 포함된 다양한 패턴을 이용할 경우, 카메라 모듈(110)의 자세를 빠르고 정확하게 추정할 수 있다. 그러나, 카메라 모듈(110)과 QR 코드 간의 거리가 멀거나, QR 코드의 일 부부 또는 전체가 영상 데이터에서 손상될 경우, 영상 데이터에서 위치 검출 패턴, 방향 검출 패턴 및 사각형 패턴 등이 검출되지 않을 수 있다. 따라서, 이 경우에는 영상데이터를 구성하는 영상 프레임들로부터 특징점을 검출하여 카메라 모듈(110)의 자세를 추정할 수 있다. When various patterns included in the QR code are used, the posture of the camera module 110 can be estimated quickly and accurately. However, if the distance between the camera module 110 and the QR code is too long, or if some or all of the QR code is damaged in the image data, the position detection pattern, the direction detection pattern, the square pattern, have. Accordingly, in this case, the posture of the camera module 110 can be estimated by detecting the feature points from the image frames constituting the image data.

구체적으로, 제1 추정부(150)는 영상데이터를 구성하는 영상 프레임들에서, 서로 연속하는 두 영상 프레임들 상에서 특징점들을 검출하고, 이 특징점들을 매칭시킬 수 있다. Specifically, the first estimator 150 may detect the feature points on two consecutive image frames in the image frames constituting the image data, and may match the feature points.

제1 추정부(150)는 FAST(Feature from Accelerated Segment Test) 검출기를 이용하여 특징점들을 검출하고, SSD(Sum of Squared Difference) 알고리즘을 이용하여 특징점들을 매칭시킬 수 있다. The first estimator 150 may detect feature points using a Feature-Accelerated Segment Test (FAST) detector, and may match the feature points using a sum of squared difference (SSD) algorithm.

제1 추정부(150)는 서로 연속하는 두 영상 프레임들 간에 매칭된 특징점들을 이용하여 제2 호모그래피를 산출할 수 있으며, 제2 호모그래피로부터 카메라 모듈(110)의 자세를 추정할 수 있다.The first estimator 150 may calculate the second homography using the matching feature points between two consecutive image frames and estimate the attitude of the camera module 110 from the second homography.

제2 추정부(160)는 영상 데이터로부터 교육용 로봇(300)을 검출하여 교육용 로봇(300)의 자세를 추정할 수 있다. 구체적으로, 제2 추정부(160)는 영상 데이터를 구성하는 각 영상 프레임들에서 교육용 로봇(300)을 검출하고, 서로 연속하는 두 영상 프레임들 상에서 교육용 로봇(300)의 위치 및 방향을 탐색하여 교육용 로봇(300)의 자세를 추정할 수 있다. The second estimator 160 may detect the training robot 300 from the image data and estimate the posture of the training robot 300. [ Specifically, the second estimator 160 detects the educational robot 300 in each of the image frames constituting the image data, searches for the position and direction of the educational robot 300 on two consecutive image frames, The attitude of the educational robot 300 can be estimated.

각 영상 프레임들에서 교육용 로봇(300)을 검출은 경계선 검출(edge detection) 방식을 이용할 수 있으며, 이 외에 공지된 다른 검출 방식을 이용할 수도 있다. The detection of the educational robot 300 in each of the image frames may use an edge detection method or other known detection methods.

블루투스 통신부(180)는 교육용 로봇(300)과 블루투스 통신할 수 있다. The Bluetooth communication unit 180 can communicate with the educational robot 300 through Bluetooth communication.

제어부(190)는 증강 현실 구현 장치(100)의 전반적인 동작을 제어한다. The controller 190 controls the overall operation of the augmented reality implementing apparatus 100. [

제어부(190)는 영상 데이터를 구성하는 매 영상 프레임을 확인하여 카메라 모듈(110)의 자세와 교육용 로봇(300)의 자세를 추정하도록 제1 추정부(150) 및 제2 추정부(160)를 제어할 수 있다. 카메라 모듈(110)의 자세와 교육용 로봇(300)의 자세는 기 설정된 시간 주기 또는 실시간으로 추정될 수 있다. The control unit 190 checks each image frame constituting the image data and outputs the first estimation unit 150 and the second estimation unit 160 to estimate the attitude of the camera module 110 and the attitude of the educational robot 300 Can be controlled. The posture of the camera module 110 and the posture of the education robot 300 can be estimated in a predetermined time period or in real time.

또한, 제어부(190)는 추정된 카메라 모듈(110)의 자세와 교육용 로봇(300)에 따라 가상 객체를 가시화하여 영상데이터 상에 증강시켜 디스플레이하도록 디스플레이부(170)를 제어할 수 있다. 이 경우, 제어부(190)는 영상데이터 상에서 교육용 로봇(300)의 움직임에 따라 가상 객체를 적응적으로 증강할 수 있다. 따라서, 디스플레이부(170)는 가상 객체를 교육용 로봇(300)과 상호 작용하는 형태로 증강하여 디스플레이할 수 있다. The control unit 190 may control the display unit 170 to visualize the virtual object according to the estimated posture of the camera module 110 and the education robot 300, to enhance the virtual object on the image data, and display the virtual object. In this case, the control unit 190 can adaptively increase the virtual object according to the motion of the educational robot 300 on the image data. Accordingly, the display unit 170 can enhance and display the virtual object in a form interacting with the educational robot 300. [

제어부(190)는 사용자 입력부(101)를 통해 교육용 로봇(300)의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 사용자 입력 신호를 교육용 로봇(300)에 전송하도록 블루투스 통신부(180)를 제어할 수 있다. 따라서, 사용자가 교육용 로봇(300)을 제어할 수 있게 된다. The control unit 190 controls the Bluetooth communication unit 180 to transmit the user input signal to the training robot 300 when a user input signal for controlling the operation of the educational robot 300 is inputted through the user input unit 101 can do. Therefore, the user can control the educational robot 300.

또한, 제어부(190)는 영상 데이터 상에 가상 객체를 증강한 후, 영상 데이터 상에서 교육용 로봇(300)과 가상 객체와의 이격 거리를 산출할 수 있다. 그리고, 제어부(190)는 이격 거리가 기 설정된 기준값 이하인 경우, 교육용 로봇(300)과 가상 객체 간에 충돌 이벤트를 발생시키며, X3D(Extensible 3D)를 이용하여 충돌 이벤트를 디스플레이부(170)를 통해 가시화시킬 수 있다. 여기서, 교육용 로봇(300)과 가상 객체와의 이격 거리란 2차원 거리 또는 3차원 거리가 될 수 있다. In addition, the controller 190 may calculate the distance between the training robot 300 and the virtual object on the image data after the virtual object is augmented on the image data. The control unit 190 generates a collision event between the educational robot 300 and the virtual object when the separation distance is equal to or less than a predetermined reference value and displays the collision event through the display unit 170 using X3D (Extensible 3D) . Here, the distance between the educational robot 300 and the virtual object may be a two-dimensional distance or a three-dimensional distance.

예를 들어, 디스플레이부(170)가 2차원 디스플레이 기능을 제공하는 경우, 교육용 로봇(300)과 가상 객체 간의 이격 거리는 2차원 거리가 될 수 있으며, 디스플레이부(170)가 3차원 디스플레이 기능을 제공하는 경우, 교육용 로봇(300)과 가상 객체 간의 이격 거리는 3차원 거리가 될 수 있다. For example, when the display unit 170 provides a two-dimensional display function, the distance between the educational robot 300 and the virtual object may be a two-dimensional distance, and the display unit 170 may provide a three- The distance between the educational robot 300 and the virtual object may be a three-dimensional distance.

또한, 제어부(190)는 교육용 로봇(300)과 가상 객체 간에 충돌 이벤트가 발생될 경우, 충돌 이벤트를 처리하기 위하여 교육용 로봇(300)에 대한 제어 신호를 생성하고, 이 제어 신호를 교육용 로봇(300)에 전송하도록 블루투스 통신부(180)를 제어할 수 있다. 따라서, 교육용 로봇(300)은 수신된 제어 신호에 따라 자세를 변경함으로써 가상 객체와의 충돌 이벤트를 처리할 수 있다. When a collision event occurs between the training robot 300 and the virtual object, the control unit 190 generates a control signal for the training robot 300 to process the collision event and transmits the control signal to the training robot 300 The Bluetooth communication unit 180 can be controlled to transmit the data to the Bluetooth communication unit 180. [ Accordingly, the educational robot 300 can process the collision event with the virtual object by changing the posture according to the received control signal.

한편, 제어부(190)는 사용자 입력 신호에 따라 교육용 로봇(300)이 제어되는 동안 기 설정된 특정 영역에 교육용 로봇(300)이 위치할 경우, 사용자 입력 신호에 따른 교육용 로봇(300)의 제어보다, 이벤트 정보를 이용한 교육용 로봇(300)의 제어를 우선으로 할 수 있다. 여기서, 이벤트 정보란 증강 현실 구현 장치(100)에서 자체적으로 교육용 로봇(300)을 제어하기 위한 이벤트를 발생시키는 것으로, 그 이벤트에 해당하는 정보가 될 수 있다. If the training robot 300 is positioned in a predetermined area while the training robot 300 is controlled according to a user input signal, the controller 190 controls the robot 300 according to the user input signal, The control of the educational robot 300 using the event information can be given priority. Here, the event information is generated by the augmented reality implementing apparatus 100 itself to control the educational robot 300, and may be information corresponding to the event.

그리고, 제어부(190)는 교육용 로봇(300)을 제어하기 위한 이벤트 정보를 교육용 로봇(300)에 전송하도록 블루투스 통신부(180)을 제어함으로써, 교육용 로봇(300)의 동작을 자동 제어할 수 있다. The control unit 190 can automatically control the operation of the educational robot 300 by controlling the Bluetooth communication unit 180 to transmit event information for controlling the educational robot 300 to the educational robot 300. [

이상과 같은 본 실시예에 따른 증강 현실 구현 장치(100)는 교육용 로봇(300)과 상호 작용하는 형태로 가상 객체를 증강하기 때문에, 학습자의 몰입감 및 집중력을 향상시킬 수 있으며, 스마트한 교육 환경을 제공할 수 있다.
Since the augmented reality implementing apparatus 100 according to the present embodiment enhances virtual objects in a form interacting with the educational robot 300, it can improve the immersion feeling and concentration of the learners, .

도 3a 및 도 3b는 실시예에 따른 QR 코드를 이용한 카메라 자세 추정 방법을 설명하기 위한 도면이다. 이 카메라 자세 추정 방법은 도 1 및 2에 도시된 증강 현실 구현 장치(100)에 의해 수행될 수 있다.3A and 3B are views for explaining a camera position estimation method using a QR code according to an embodiment. The camera posture estimation method may be performed by the augmented reality realization apparatus 100 shown in Figs.

도 3a에 도시된 바와 같이, 본 발명에서 이용하는 마커(310)는 QR 코드일 수 있다. QR 코드(310)는 범용성을 위하여 가로 20㎜, 세로 20㎜의 크기를 가질 수 있으며, 제1 메타데이터가 기록된 데이터 영역, 위치 검출 패턴, 방향 검출 패턴 및 QR 코드(310)의 외곽을 따라 형성된 사각형 패턴을 포함할 수 있다. As shown in FIG. 3A, the marker 310 used in the present invention may be a QR code. The QR code 310 may have a size of 20 mm in width and 20 mm in length for general purpose. The QR code 310 may include a data area in which the first metadata is recorded, a position detection pattern, a direction detection pattern, And may include a formed square pattern.

QR 코드(310)의 외곽을 따라 형성된 사각형 패턴은 QR 코드(310)를 효율적으로 인식하기 위한 것이며, QR 코드(310) 인식을 위한 6 픽셀 공간을 확보할 수 있다. The square pattern formed along the outer periphery of the QR code 310 is for efficiently recognizing the QR code 310 and can secure 6 pixel spaces for the QR code 310 recognition.

영상 데이터 상에 가상 객체를 증강할 경우, 3차원 지형정보에 정확히 정렬된 형태로 증강해야 하므로, 증강 현실 구현 장치(100)에 포함된 카메라 모듈(110)의 자세를 고려해야 한다. 따라서, 카메라 모듈(110)의 자세를 추정하는 과정을 수행할 수 있다. When a virtual object is augmented on the image data, it must be accurately aligned with the 3D terrain information. Therefore, the attitude of the camera module 110 included in the augmented reality implementing apparatus 100 must be considered. Accordingly, it is possible to perform the process of estimating the posture of the camera module 110.

QR 코드(310)에서 위치 검출 패턴, 방향 검출 패턴 및 사각형 패턴이 모두 검출될 경우, 증강 현실 구현 장치(100)는 QR 코드(310)에 기반하여 카메라 모듈(110)의 자세를 추정할 수 있다. When both the position detection pattern, the direction detection pattern and the rectangular pattern are detected in the QR code 310, the augmented reality implementing apparatus 100 can estimate the posture of the camera module 110 based on the QR code 310 .

구체적으로, 증강 현실 구현 장치(100)는 위치 검출 패턴 및 방향 검출 패턴을 이용하여 사각형 패턴의 방향을 결정하고, 이 사각형 패턴의 방향에 따라 QR 코드의 방향을 결정할 수 있다. Specifically, the augmented reality implementing apparatus 100 can determine the direction of the rectangular pattern using the position detection pattern and the direction detection pattern, and determine the direction of the QR code according to the direction of the rectangular pattern.

기 측정된 3차원 공간상의 QR 코드(310)의 위치 및 크기를 이용하여 QR 코드(310)가 위치하는 3차원 평면과 영상 데이터의 첫 번째 영상 프레임 간의 제1 호모그래피를 산출할 수 있다. 이 제1 호모그래피로부터 카메라 모듈(110)의 초기 자세를 추정할 수 있으며, 영상데이터의 두 번째 영상 프레임으로부터 카메라 모듈(110)의 움직임에 따른 자세를 추정할 수 있다. The first homography between the 3-dimensional plane where the QR code 310 is located and the first image frame of the image data can be calculated using the position and size of the QR code 310 on the measured three-dimensional space. The initial posture of the camera module 110 can be estimated from the first homography, and the posture according to the movement of the camera module 110 can be estimated from the second image frame of the image data.

이 경우, 카메라 모듈(110)의 자세는 QR 코드(310)가 위치하는 3차원 공간이 평면이라는 가정하에 제1 호모그래피를 이용하여 추정할 수 있다. 구체적으로, 아래의 수학식 1을 이용하여 추정할 수 있다. In this case, the attitude of the camera module 110 can be estimated using the first homography under the assumption that the three-dimensional space in which the QR code 310 is located is flat. Specifically, it can be estimated using the following equation (1).

Figure pat00001
Figure pat00001

수학식 1에서, H는 호모그래피, K는 카메라 모듈(110)의 내부 파라미터, E는 카메라의 외부 파라미터, r1과 r2는 X축 및 Y축에 대한 회전 변환 벡터이고, t는 이동 변환 벡터이다. (1) where H is the homography, K is the internal parameter of the camera module 110, E is the external parameter of the camera, r 1 and r 2 are rotational transformation vectors for the X and Y axes, It is a vector.

앞서 설명한 바와 같이, QR 코드(310)가 위치하는 3차원 공간이 평면이라고 가정하고 있으므로, 제1 호모그래피를 통해 알 수 없는 Z축에 대한 회전은 X축 및 Y축의 회전을 외적하여 산출할 수 있다. 구체적으로, 아래의 수학식 2를 이용하여 산출할 수 있다. As described above, since it is assumed that the three-dimensional space in which the QR code 310 is located is a plane, the rotation about the Z axis, which is unknown through the first homography, can be calculated externally of the X and Y axis rotations have. Specifically, it can be calculated using the following equation (2).

Figure pat00002
Figure pat00002

수학식 2에서, P는 3×4의 투영 변환 행렬을 의미하며, 이 투영 변환 행렬을 이용하여 QR 코드(310) 상에서의 사각형 집합들을 검출할 수 있다. 이 결과를 도 3b에 도시하였다. In Equation (2), P denotes a 3x4 projection transformation matrix, and the projection transformation matrix can be used to detect rectangle sets on the QR code 310. [ This result is shown in Fig. 3B.

반면, QR 코드(310)에서 위치 검출 패턴, 방향 검출 패턴 및 사각형 패턴 중 적어도 어느 하나가 미검출될 경우, 증강 현실 구현 장치(100)는 특징점에 기반하여 카메라 모듈(110)의 자세를 추정할 수 있다.On the other hand, when at least one of the position detection pattern, the direction detection pattern, and the rectangular pattern is not detected in the QR code 310, the augmented reality implementing apparatus 100 estimates the posture of the camera module 110 based on the feature points .

증강 현실 구현 장치(100)는 영상데이터를 구성하는 영상 프레임들에서, 서로 연속하는 두 영상 프레임들 상에서 특징점들을 검출하고, 이 특징점들을 매칭시킬 수 있다. 특징점이란 영상 프레임들에서 특징이 되는 점들로, 영상 프레임 내에 포함된 물체의 모서리, 접점, 점 등이 될 수 있다. The augmented reality implementing apparatus 100 can detect the feature points on two consecutive image frames in the image frames constituting the image data and match the feature points. A feature point is a point featured in image frames, and may be an edge, a contact, a point, or the like of an object included in an image frame.

증강 현실 구현 장치(100)는 서로 연속하는 두 영상 프레임들 간에 매칭된 특징점들을 이용하여 제2 호모그래피를 산출할 수 있으며, 제2 호모그래피로부터 카메라 모듈(110)의 자세를 추정할 수 있다.The augmented reality implementing apparatus 100 can calculate the second homography using the matching feature points between two consecutive image frames and estimate the posture of the camera module 110 from the second homography.

한편, 특징점 추출 및 특징점 매칭에 많은 계산량이 동반되므로, 계산량 감소를 위하여 영상 피라미드(image pyramid)를 생성할 수 있다. 구체적으로, 원본 영상 프레임에 대하여 25% 크기로 축소된 영상 피라미드에서 특징점을 추출할 수 있다. 이 과정에서, 서로 연속하는 영상 프레임들 간의 특징점을 매칭하기 위하여 영상 프레임의 전체 영역을 격자 방식으로 구분하고, 전체 영역에 대한 모션을 추적할 수 있다. 이때, 영상 프레임의 전체 영역 중 모션을 대표하는 지점의 주변 영역에서 특징점을 추출할 수 있다. 이는 매칭 대상이 되는 특징점을 일정 개수 이하로 선정하기 위한 것으로, 특징점 추출 및 특징점 매칭의 계산량을 감소시킬 뿐 아니라, 계산에 따른 소요 시간을 감소시킬 수 있다. On the other hand, since the feature point extraction and the feature point matching are accompanied by a large amount of computation, an image pyramid can be generated to reduce the calculation amount. Specifically, the feature points can be extracted from the image pyramid reduced to 25% of the original image frame. In this process, in order to match feature points between successive image frames, the entire area of the image frame can be divided into a grid pattern and the motion for the entire area can be tracked. At this time, feature points can be extracted from the surrounding region of the motion representative point in the entire region of the image frame. This is for selecting the number of matching points to be matched to a certain number or less, and it is possible not only to reduce the calculation amount of the minutiae point extraction and the minutia matching, but also to reduce the time required for the calculation.

증강 현실 구현 장치(100)는 서로 연속하는 두 영상 프레임들 간에 매칭된 특징점들을 이용하여 제2 호모그래피를 산출하고, 제2 호모그래피를 수학식 1 및 2에 적용하여 카메라 모듈(110)의 자세를 산출할 수 있다. 이 과정에서, RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 매칭된 특징점들 중 이상치(outlier)를 제거할 수 있다. 이상치 제거를 통해 보다 강인한 제2 호모그래피를 산출할 수 있다. The augmented reality implementing apparatus 100 calculates a second homography using matching feature points between two consecutive image frames and applies a second homography to Equations 1 and 2 to determine a posture of the camera module 110 Can be calculated. In this process, an outlier among the matched minutiae points can be removed by using the RANSAC algorithm (RANdom SAmple Consensus). The second homography can be more robust by removing the outlier.

이상과 같은 본 실시예에 따른 카메라 모듈(110)의 자세 추정 방법에 따르면, 카메라 모듈(110)의 자세를 보다 정확하게 추정할 수 있으며, QR 코드에 포함된 다양한 패턴들이 미검출되는 경우에도 카메라 모듈(110)의 자세를 보다 정확하게 추정할 수 있다.
According to the above-described method of estimating the posture of the camera module 110 according to the present embodiment, the posture of the camera module 110 can be more accurately estimated, and even when various patterns included in the QR code are not detected, It is possible to more accurately estimate the posture of the body 110.

도 4는 본 발명의 일 실시예에 따른 증강 현실 구현 방법을 설명하기 위한 흐름도이다. 도 4에 도시된 증강 현실 구현 방법은 도 1 및 도 2에 도시된 증강 현실 구현 장치에 의해 실행될 수 있다. 4 is a flowchart illustrating a method for implementing an augmented reality according to an embodiment of the present invention. The method of implementing an augmented reality shown in Fig. 4 can be implemented by the augmented reality implementation apparatus shown in Figs.

증강 현실 구현 장치(100)는 QR 코드와 같은 마커(310)가 부착된 교육용 로봇(300)을 촬영하여 영상 데이터를 생성한다(410 단계). The augmented reality implementing apparatus 100 photographs an educational robot 300 having a marker 310 such as a QR code and generates image data in operation 410.

이후, 증강 현실 구현 장치(100)는 영상 데이터로부터 마커(310)를 인식하고(420 단계), 인식된 마커(310)에 기록된 제1 메타데이터를 추출한다(430 단계). After that, the augmented reality implementing apparatus 100 recognizes the marker 310 from the image data (step 420), and extracts the first metadata recorded in the recognized marker 310 (step 430).

한편, 증강 현실 구현 장치(100)는 제1 메타데이터를 이용하여 콘텐츠 서버(200)에 접속하고 제2 메타데이터를 요청한 후(440 단계), 콘텐츠 서버(200)로부터 제2 메타데이터를 수신한다(450 단계). Meanwhile, the augmented reality implementing apparatus 100 accesses the content server 200 using the first meta data and requests the second meta data (step 440), and receives the second meta data from the content server 200 (Step 450).

증강 현실 구현 장치(100)는 제2 메타데이터에 기반하여 교육용 로봇(300)과의 상호 작용을 위한 가상 객체 및 교육 시나리오를 생성하고(460 단계), 교육 시나리오에 따라 가상 객체를 가시화한다(470 단계). 구체적으로, 제2 메타데이터를 이용하여 다양한 콘텐츠 및 미디어파일들을 획득할 수 있으며, The augmented reality implementing apparatus 100 generates a virtual object and a training scenario for interaction with the educational robot 300 based on the second metadata 460 and visualizes the virtual object according to the training scenario 470 step). In particular, the second metadata may be used to obtain various content and media files,

제2 메타데이터란 증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠를 포함하고 있으며, 이 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보를 포함할 수 있다. 또한, 제2 메타데이터는 교육용 로봇 확장 모듈, 교육용 로봇의 3차원 기하 정보, 가상 환경에서 교육용 로봇과의 상호 작용 정보, 교육 시나리오 정보 및 증강을 위한 명세 기술 정보 등을 더 포함할 수 있다. 이 콘텐츠 및 미디어파일들과, 그 외 정보들을 통해 구성 가능한 교육 시나리오 및 가상 객체를 생성할 수 있다. 또한, 이 가상 객체가 교육 시나리오에 따라 구현될 수 있도록 가시화할 수 있다. The second meta data is detailed meta data for implementing the augmented reality, and may include content, and may include storage location information of media files used to execute the content. In addition, the second metadata may further include an educational robot extension module, three-dimensional geometric information of the educational robot, interaction information with the educational robot in the virtual environment, educational scenario information, and specification technical information for the enhancement. The educational scenarios and virtual objects configurable through the contents and media files and other information can be generated. In addition, this virtual object can be visualized so that it can be implemented in accordance with a training scenario.

이후, 증강 현실 구현 장치(100)는 가상 객체의 보다 정확한 증강을 위하여 카메라 모듈(110)의 자세 및 교육용 로봇(300)의 자세를 추정한다(480 단계). 카메라 모듈(110)의 자세 및 교육용 로봇(300)의 자세는 기 설정된 시간 주기 또는 실시간으로 추정될 수 있다. Then, the augmented reality implementing apparatus 100 estimates the attitude of the camera module 110 and the attitude of the education robot 300 for more accurate reinforcement of the virtual object (step 480). The posture of the camera module 110 and the posture of the educational robot 300 can be estimated in a predetermined time period or in real time.

증강 현실 구현 장치(100)는 카메라 모듈(110)의 자세와 교육용 로봇(300)의 자세에 따라 가상 객체를 영상 데이터 상에 적응적으로 증강하여 디스플레이 한다(490 단계). The augmented reality implementing apparatus 100 adaptively increases and displays the virtual object on the image data according to the posture of the camera module 110 and the posture of the education robot 300 in operation 490.

구체적으로, 증강 현실 구현 장치(100)는 데이터 상에서 교육용 로봇(300)과 가상 객체와의 이격 거리가 기 설정된 기준값 이하인 것으로 판단되면, 교육용 로봇(300)과 가상 객체 간에 충돌 이벤트를 발생시키며, X3D(Extensible 3D)를 이용하여 충돌 이벤트를 가시화할 수 있다. Specifically, the augmented reality implementing apparatus 100 generates a collision event between the training robot 300 and the virtual object when it is determined that the distance between the training robot 300 and the virtual object is equal to or less than a preset reference value, (Extensible 3D) can be used to visualize collision events.

또한, 증강 현실 구현 장치(100)는 교육용 로봇(300)과 가상 객체 간에 충돌 이벤트가 발생될 경우, 교육용 로봇(300)에 대한 제어 신호를 생성하고, 이 제어 신호를 블루투스 통신을 이용하여 교육용 로봇(300)에 전송할 수 있다. 따라서, 교육용 로봇(300)의 자세를 변경시켜 가상 객체와의 충돌을 처리할 수 있도록 할 수 있다.When a collision event occurs between the training robot 300 and the virtual object, the augmented reality implementing apparatus 100 generates a control signal for the training robot 300 and transmits the control signal to the training robot 300 via the Bluetooth communication. (300). Therefore, it is possible to change the posture of the educational robot 300 so as to process the collision with the virtual object.

이외에, 다른 이유로, 교육용 로봇(300)의 자세를 변경시키고자 할 경우, 사용자는 증강 현실 구현 장치(100)에 구비된 사용자 입력 수단을 조작할 수 있다. 이에 따라, 사용자 입력 수단에 의해 사용자 입력 신호가 생성되면, 이 사용자 입력 신호를 블루투스 통신을 이용하여 교육용 로봇(300)에 전송할 수 있다. In addition, for other reasons, when the attitude of the educational robot 300 is to be changed, the user can operate the user input means provided in the augmented reality implementing apparatus 100. [ Accordingly, when a user input signal is generated by the user input means, the user input signal can be transmitted to the educational robot 300 using the Bluetooth communication.

이상과 같은 본 실시예에 따르면, 마커(310)에 기록된 제1 메타데이터를 이용하여 콘텐츠 서버(200)에 접속하고, 콘텐츠 서버(200)로부터 제2 메타데이터를 수신할 수 있어, 콘텐츠 서버(200)에서 관리되는 최신의 제2 메타데이터를 이용할 수 있다. 따라서, 별도로 컨텐츠의 관리(예를 들어, 업데이트)를 사용자가 직접 수행할 필요가 없다. 또한, 교육용 로봇(300)과 가상 객체 간의 상호 작용이 가능하도록 가상 객체를 증강함으로써, 학습자의 몰입도 및 집중력을 향상시킬 수 있다. According to the present embodiment as described above, the first metadata recorded in the marker 310 can be used to connect to the content server 200, receive the second metadata from the content server 200, It is possible to use the latest second metadata managed by the management server 200. Therefore, there is no need for the user to directly perform management (e.g., update) of the content. In addition, the virtual object is augmented so that the interaction between the educational robot 300 and the virtual object can be enhanced, thereby improving the learner's concentration and concentration.

상술한 바와 같은 증강 현실 구현 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램으로 구현될 수 있고, 상기 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. The augmented reality implementation method as described above may be implemented as a program including an executable algorithm that can be executed in a computer, and the program may be stored in a non-transitory computer readable medium .

여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.
Here, the non-transitory readable recording medium is not a medium for storing data for a short time such as a register, a cache, a memory, etc., but means a medium that semi-permanently stores data and can be read by a device. Specifically, the above-described programs can be stored in non-volatile readable recording media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

도 5 내지 도 7은 본 발명의 다양한 실시예에 따른 증강 현실 구현 예를 나타내는 도면으로, 교육용 로봇과 가상 객체 간의 상호 작용을 이용한 증강 현실 구현 형태를 나타내는 것이다. 5 to 7 are views showing an embodiment of an augmented reality according to various embodiments of the present invention, illustrating an augmented reality implementation mode using an interaction between a training robot and a virtual object.

도 5는 장수풍뎅이의 성장 과정에 대한 증강 현실 구현 예로, 마커(510)의 위치에 따라 장수풍뎅이의 성장 과정에 대응하는 가상 객체를 증강시키는 교육 시나리오를 구현한 것이다. 여기서, 마커(510)는 교육용 로봇(미도시)에 부착될 수 있으므로, 마커(510)의 위치는 교육용 로봇의 위치가 될 수 있다. FIG. 5 is an implementation example of an augmented reality for the growth process of a long beetle, and implements a training scenario for augmenting a virtual object corresponding to the growth process of the beetle according to the position of the marker 510. FIG. Here, since the marker 510 can be attached to an educational robot (not shown), the position of the marker 510 can be the position of the educational robot.

도 5를 참조하면, "알"에 해당하는 사진 및 설명이 제1 가상 객체(521), "애벌레"에 해당하는 사진 및 설명이 제2 가상 객체(522), "번데기"에 해당하는 사진 및 설명이 제3 가상 객체(523), 그리고, "성충"에 해당하는 사진 및 설명이 제4 가상 객체(524)가 될 수 있다. Referring to FIG. 5, a photograph and description corresponding to "egg " correspond to a first virtual object 521, a photograph corresponding to" larvae " and a description corresponding to a second virtual object 522, The description corresponding to the third virtual object 523 and the picture and description corresponding to the "adult" may be the fourth virtual object 524.

또한, 교육 시나리오는 마커(510)가 제1 위치(P1)에서 인식되면 제1 가상 객체(521)를 증강시키고, 제2 위치(P2)에서 인식되면 제2 가상 객체(522)를 증강시키며, 제3 위치(P3)에서 인식되면 제3 가상 객체(523)를 증강시키고, 제4 위치(P4)에서 인식되면 제4 가장 객체(524)를 증강시키도록 하는 시나리오를 포함할 수 있다. The training scenario also augments the first virtual object 521 when the marker 510 is recognized at the first position P1 and augments the second virtual object 522 when it is recognized at the second position P2, The third virtual object 523 is recognized at the third position P3 and the fourth most object 524 is recognized at the fourth position P4.

이 같은 교육 시나리오에 따라 제1 내지 제4 가상 객체(521~524)를 증강시킴으로써, 장수풍뎅이가 알, 애벌레, 번데기, 성충으로 성장하는 과정을 증강 현실 구현 장치의 디스플레이 화면(500) 상에 디스플레이 할 수 있다.
The first to fourth virtual objects 521 to 524 are augmented according to the educational scenario to display the process of growing the long beetle into egg, caterpillar, pupa and adult on the display screen 500 of the augmented reality realization device can do.

도 6은 나비의 일상 생활에 대한 증강 현실 구현 예로, 교육용 로봇(610)의 위치에 따라 나비의 일상 생활에 해당하는 가상 객체를 증강시키는 교육 시나리오를 구현한 것이다. FIG. 6 is an implementation example of an augmented reality for everyday life of a butterfly, which implements a training scenario in which a virtual object corresponding to the daily life of a butterfly is augmented according to the position of the educational robot 610. FIG.

도 6을 참조하면, 나비의 일상 생활에 해당하는 가상 객체는 "나비"에 해당하는 제1 가상 객체(621), "주변 나비"에 해당하는 제2 가상 객체(622), "제1 꽃밭"에 해당하는 제3 가상 객체(623), "제1 나무"에 해당하는 제4 가상 객체(624), "제2 나무"에 해당하는 제5 가상 객체(625), "무당벌레"에 해당하는 제6 가상 객체(626), "제2 꽃밭"에 해당하는 제7 가상 객체(627), "제3 나무"에 해당하는 제8 가상 객체(628) 등이 있을 수 있다. 6, a virtual object corresponding to the everyday life of a butterfly includes a first virtual object 621 corresponding to a "butterfly", a second virtual object 622 corresponding to a "peripheral butterfly", a "first flower field" A fourth virtual object 624 corresponding to the "first tree ", a fifth virtual object 625 corresponding to the" second tree ", a third virtual object 623 corresponding to the " A sixth virtual object 626, a seventh virtual object 627 corresponding to the "second flower field " and an eighth virtual object 628 corresponding to the" third tree ".

또한, 교육 시나리오는 "나비"에 해당하는 제1 가상 객체(621)를 교육용 로봇(610)에 매칭하여 증강시키고, 제2 내지 제8 가상 객체(622~628)를 정해진 위치에 증강시키며, 교육용 로봇(610)이 제2 내지 제8 가상 객체(622~628) 중 적어도 어느 하나에 근접하면 제1 가상 객체(621)가 어떻게 반응 또는 행동하는지를 증강시키는 시나리오가 될 수 있다. In addition, the training scenario may include a first virtual object 621 corresponding to a "butterfly " to match the training robot 610 to augment the second virtual object 622 to a second virtual object 628 at a predetermined position, The scenario may be a scenario in which the first virtual object 621 reacts or acts when the robot 610 approaches at least one of the second through eighth virtual objects 622 628.

부가적으로, 교육 시나리오는 시각적인 가상 객체 외에, 청각적인 가상 객체를 증강시키는 시나리오를 더 포함할 수도 있다. 예를 들어, 교육용 로봇(610)이 "제1 꽃밭"에 해당하는 제3 가상 객체(623)으로 이동할 경우, 날아가는 소리와 함께 꿀을 빨아 먹는 등의 청각적인 가상 객체를 증강시키도록 하는 시나리오를 더 포함할 수도 있다.Additionally, the training scenario may further include scenarios that augment auditory virtual objects in addition to visual virtual objects. For example, when the educational robot 610 moves to the third virtual object 623 corresponding to the "first flower field ", a scenario in which an auditory virtual object such as a swallowing of honey is picked up .

이 같은 교육 시나리오에 따라 제1 내지 제8 가상 객체(621~628)를 증강시킴으로써, 증강 현실 구현 장치의 디스플레이 화면(600) 상에 나비의 일상 생활을 디스플레이 할 수 있다.
By enhancing the first to eighth virtual objects 621 to 628 in accordance with the training scenario, it is possible to display the everyday life of the butterfly on the display screen 600 of the augmented reality implementing apparatus.

도 7은 나비의 일상 생활에 대한 증강 현실 구현 예로, 교육용 로봇(710)과 가상 객체 간의 충돌 이벤트 발생을 구현한 것이다. 7 is an implementation example of an augmented reality for everyday life of a butterfly, which implements the occurrence of a collision event between the educational robot 710 and a virtual object.

나비의 일상 생활에 해당하는 가상 객체는 "주변 나비"에 해당하는 제1 가상 객체(721), "제1 나무"에 해당하는 제2 가상 객체(722), "무당벌레"에 해당하는 제3 가상 객체(723), "제2 나무"에 해당하는 제4 가상 객체(724) 등이 있을 수 있다. The virtual object corresponding to the everyday life of the butterfly is composed of a first virtual object 721 corresponding to "a peripheral butterfly", a second virtual object 722 corresponding to "first tree", a third virtual object 722 corresponding to " A virtual object 723, a fourth virtual object 724 corresponding to the "second tree ", and the like.

도 7을 참조하면, 나비의 일상 생활과 관련된 교육 시나리오는 도 6과 유사할 수 있다. 즉, 교육 시나리오는 "나비"에 해당하는 가상 객체는 교육용 로봇(710)에 매칭하여 증강시키고, 제1 내지 제4 가상 객체(721~724)를 정해진 위치에 증강시키며, 교육용 로봇(710)이 제1 내지 제4 가상 객체(721~724) 중 적어도 어느 하나에 근접하면 교육용 로봇(710)에 증강된 "나비"가 어떻게 반응 또는 행동하는지를 증강시키는 시나리오가 될 수 있다. Referring to Fig. 7, the educational scenarios related to the everyday life of the butterfly can be similar to Fig. That is, in the training scenario, the virtual object corresponding to the "butterfly " is augmented to match the educational robot 710, the first to fourth virtual objects 721 to 724 are augmented to a predetermined position, and the educational robot 710 Approaching at least one of the first to fourth virtual objects 721 to 724 can be a scenario for enhancing how the "butterfly" augmented with the educational robot 710 reacts or behaves.

이 같은 교육 시나리오에 따라 제1 내지 제4 가상 객체(721~724)를 증강시켜 나비의 일상 생활을 디스플레이하는 중에, 교육용 로봇(710)과 제1 내지 제4 가상 객체(721~724) 간에 충돌 이벤트(730)가 발생될 수 있다. During the display of the everyday life of the butterfly by enhancing the first to fourth virtual objects 721 to 724 in accordance with the educational scenarios described above, a collision between the educational robot 710 and the first to fourth virtual objects 721 to 724 An event 730 may be generated.

예를 들어, 증강 현실 구현 장치의 디스플레이 화면(700) 상에 교육용 로봇(710)과 제1 내지 제4 가상 객체(721~724)와의 이격 거리를 산출할 수 있다. 이 중 교육용 로봇(710)과 제3 가상 객체(723) 간의 이격 거리가 기 설정된 기준값 이하인 경우, 충돌 이벤트(730)가 발생될 수 있다. 이 경우, 충돌 이벤트(730)는 X3D(Extensible 3D)를 이용하여 가시화될 수 있다. For example, the distance between the educational robot 710 and the first to fourth virtual objects 721 to 724 can be calculated on the display screen 700 of the augmented reality implementing apparatus. If the distance between the educational robot 710 and the third virtual object 723 is less than a preset reference value, a collision event 730 may be generated. In this case, the collision event 730 may be visualized using X3D (Extensible 3D).

이 같이, 충돌 이벤트(730)가 발생될 경우, 증강 현실 구현 장치는 충돌 이벤트(730)를 처리하기 위하여 교육용 로봇(710)에 대한 제어 신호를 생성하고, 이 제어 신호를 교육용 로봇(710)에 전송할 수 있다. When a collision event 730 occurs, the augmented reality implementing device generates a control signal for the training robot 710 to process the collision event 730, and transmits the control signal to the training robot 710 Lt; / RTI &gt;

또는, 충돌 이벤트(730)가 발생될 경우, 증강 현실 구현 장치는 교육용 로봇(710)의 동작을 제어하기 위한 사용자 입력 신호를 입력받을 수 있으며, 이 사용자 입력 신호를 교육용 로봇(710)에 전송할 수 있다. Alternatively, when a collision event 730 occurs, the augmented reality implementing device may receive a user input signal for controlling the operation of the educational robot 710, and may transmit the user input signal to the training robot 710 have.

따라서, 교육용 로봇(710)은 제어 신호 또는 사용자 입력 신호에 따라 제3 가상 객체(723)와의 이격 거리를 기 설정된 기준값 이상이 되도록 이동함으로써, 충돌 이벤트(730)를 처리할 수 있다. Accordingly, the educational robot 710 can process the collision event 730 by moving the distance between the educational robot 710 and the third virtual object 723 according to the control signal or the user input signal to be equal to or greater than a preset reference value.

한편, 도면을 통해 도시하고 있지는 않으나, 교육용 로봇(710)은 일반적인 상황에서는 증강 현실 구현 장치에서 전송하는 사용자 입력 신호에 따라 동작이 제어될 수 있다. 그러나, 교육용 로봇(710)이 사용자 입력 신호에 따라 제어되는 동안 기 설정된 특정 영역에 교육용 로봇(710)이 위치할 경우, 증강 현실 구현 장치는 사용자 입력 신호에 따른 제어보다, 증강 현실 구현 장치 자체의 자동 제어를 우선으로 구현할 수 있다. 이 경우, 증강 현실 구현 장치는 교육용 로봇(710)의 자동 제어를 위한 이벤트 정보를 독출하여 교육용 로봇(710)에 전송할 수 있다. Meanwhile, although not shown in the drawings, the training robot 710 can be controlled in operation in accordance with a user input signal transmitted from the augmented reality implementing device in a general situation. However, if the educational robot 710 is located in a predetermined area while the educational robot 710 is controlled according to the user input signal, the augmented reality realizing device can not control the augmented reality realizing device itself Automatic control can be implemented first. In this case, the augmented reality implementing apparatus can read event information for automatic control of the educational robot 710 and transmit it to the education robot 710. [

예를 들어, 도 7에 도시된 바와 같이, 기 설정된 제1 영역(a)으로 교육용 로봇(710)이 이동할 경우, 증강 현실 구현 장치는 교육용 로봇(710)을 제1 영역(a) 밖으로 이동시키기 위한 이벤트 정보를 교육용 로봇(710)에 전송함으로써, 교육용 로봇(710)을 자체적으로 자동 제어할 수 있다. 7, when the educational robot 710 moves to a predetermined first region a, the augmented reality implementing apparatus moves the educational robot 710 out of the first region a, for example, The training robot 710 can automatically control the robot 710 itself.

교육용 로봇(710)의 기 설정된 영역에 따른 이벤트 정보는 미리 설정되어 증강 현실 구현 장치에 저장될 수 있으며, 교육용 로봇(710)의 위치를 감지함에 따라 이벤트 정보가 추출될 수 있다. Event information according to a predetermined area of the educational robot 710 may be preset and stored in the augmented reality realizing device, and event information may be extracted as the position of the educational robot 710 is sensed.

이상과 같은 본 발명에 따른 증강 현실 구현 장치는 교육용 로봇(710)의 이동에 따라 가상 객체를 적응적으로 증강하고, 교육용 로봇(710)과 가상 객체 간의 상호 작용을 구현할 수 있다.
The apparatus for realizing an augmented reality according to the present invention can adaptively increase a virtual object according to the movement of the educational robot 710 and implement the interaction between the educational robot 710 and the virtual object.

이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

110: 카메라 모듈 120: 메타데이터 추출부
130: 송수신부 140: 생성부
150: 제1 추정부 160: 제2 추정부
170: 디스플레이부 180: 블루투스 통신부
190: 제어부
110: camera module 120: metadata extraction unit
130: Transmitting / receiving unit 140:
150: first estimating unit 160: second estimating unit
170: display unit 180: Bluetooth communication unit
190:

Claims (17)

교육용 로봇과의 상호 작용을 위한 증강 현실 구현 장치에 있어서,
마커가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성하는 카메라 모듈;
상기 영상 데이터로부터 상기 마커를 인식하고, 상기 인식된 마커에 기록된 제1 메타데이터를 추출하는 메타데이터 추출부;
상기 제1 메타데이터에 대응되는 제2 메타 데이터를 콘텐츠 서버로부터 수신하고, 상기 수신된 제2 메타데이터에 기반하여 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 생성부; 및
상기 생성된 교육 시나리오에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 제어부;를 포함하는 증강 현실 구현 장치.
An apparatus for realizing an augmented reality for interaction with an educational robot,
A camera module for photographing an educational robot with a marker and generating image data;
A metadata extracting unit that recognizes the marker from the image data and extracts first metadata recorded in the recognized marker;
Generating from the content server second metadata corresponding to the first metadata and generating at least one virtual object and an educational scenario for interaction with the educational robot based on the received second metadata, part; And
And a controller for enhancing the at least one virtual object to the image data according to the generated training scenario.
제1항에 있어서,
상기 영상 데이터로부터 마커를 검출하여 상기 카메라 모듈의 자세를 추정하는 제1 추정부;
상기 영상 데이터로부터 상기 교육용 로봇을 검출하여 상기 교육용 로봇의 자세를 추정하는 제2 추정부; 및
디스플레이부;를 더 포함하고,
상기 제어부는,
상기 카메라 모듈의 자세와 상기 교육용 로봇의 자세를 추정하도록 상기 제1 추정부 및 상기 제2 추정부를 제어하고, 상기 추정된 카메라 모듈의 자세와 상기 추정된 교육용 로봇의 자세에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터 상에 적응적으로 증강시켜 상기 디스플레이부를 통해 디스플레이하는 것을 특징으로 하는 증강 현실 구현 장치.
The method according to claim 1,
A first estimator for detecting a marker from the image data and estimating a posture of the camera module;
A second estimator for detecting the educational robot from the image data and estimating a posture of the educational robot; And
And a display unit,
Wherein,
Wherein the control unit controls the first estimating unit and the second estimating unit to estimate the attitude of the camera module and the attitude of the educational robot and calculates at least one of the at least one virtual camera and the at least one virtual camera based on the estimated attitude of the camera module and the estimated attitude of the educational robot. Wherein the object is adaptively enhanced on the image data and displayed through the display unit.
제1항에 있어서,
상기 제어부는,
상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, 상기 충돌 이벤트를 처리하기 위한 제어 신호를 생성하여 상기 교육용 로봇에 전송하는 것을 특징으로 하는 증강 현실 구현 장치.
The method according to claim 1,
Wherein,
And generates a control signal for processing the collision event and transmits the control signal to the educational robot when a collision event occurs between the educational robot and the virtual object.
제3항에 있어서,
상기 제어부는,
상기 영상 데이터 상에 상기 가상 객체를 증강한 후, 상기 영상 데이터 상에서 상기 교육용 로봇과 상기 가상 객체와의 이격 거리를 산출하고, 상기 이격 거리가 기 설정된 기준값 이하인 경우, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트를 발생시키는 것을 특징으로 하는 증강 현식 구현 장치.
The method of claim 3,
Wherein,
A distance between the educational robot and the virtual object is calculated on the image data after the virtual object is augmented on the image data, and when the distance is less than a preset reference value, And generates a collision event.
제3항에 있어서,
상기 제어부는,
상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, X3D(Extensible 3D)를 이용하여 상기 충돌 이벤트를 가시화하는 것을 특징으로 하는 증강 현실 구현 장치.
The method of claim 3,
Wherein,
Wherein when the collision event occurs between the training robot and the virtual object, the collision event is visualized using X3D (Extensible 3D).
제1항에 있어서,
상기 교육용 로봇과 블루투스 통신하는 블루투스 통신부; 및
상기 콘텐츠 서버에 접속하여 상기 제2 메타 데이터를 수신하는 송수신부;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 장치.
The method according to claim 1,
A Bluetooth communication unit for Bluetooth communication with the educational robot; And
And a transmission / reception unit connected to the content server and receiving the second meta data.
제1항에 있어서,
상기 제어부는,
상기 교육용 로봇의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 상기 사용자 입력 신호를 상기 교육용 로봇에 전송하여 상기 교육용 로봇을 제어하는 것을 특징으로 하는 증강 현실 구현 장치.
The method according to claim 1,
Wherein,
Wherein the training robot is controlled by transmitting the user input signal to the training robot when a user input signal for controlling the operation of the training robot is inputted.
제7항에 있어서,
상기 제어부는,
상기 사용자 입력 신호에 따라 상기 교육용 로봇이 제어되는 동안 기 설정된 특정 영역에 상기 교육용 로봇이 위치할 경우, 상기 교육용 로봇을 제어하기 위한 이벤트 정보를 상기 교육용 로봇에 전송하는 것을 특징으로 하는 증강 현실 구현 장치.
8. The method of claim 7,
Wherein,
And transmits the event information for controlling the educational robot to the educational robot when the educational robot is positioned in a predetermined area while the educational robot is controlled according to the user input signal. .
제1항에 있어서,
상기 제1 메타데이터는,
상기 제2 메타데이터의 저장 위치 정보를 포함하는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터이고,
상기 제2 메타데이터는,
증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠, 상기 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 증강 현실 구현 장치.
The method according to claim 1,
Wherein the first metadata includes:
Content metadata including content-server information and content-related information including storage location information of the second metadata,
Wherein the second metadata includes:
A detailed description of the contents of the metadata, storage location information of media files used to execute the contents, information about the educational robot extension module, three-dimensional geometric information of the educational robot, The interaction information, the training scenario information, and the specification description information for the enhancement.
제1항에 있어서,
상기 마커는 QR 코드이고,
상기 QR 코드는,
상기 제1 메타데이터가 기록된 데이터 영역, 위치 검출 패턴, 방향 검출 패턴 및 상기 QR 코드의 외곽을 따라 형성된 사각형 패턴을 포함하는 것을 특징으로 하는 증강 현실 구현 장치.
The method according to claim 1,
The marker is a QR code,
The QR code includes:
A data pattern in which the first metadata is recorded, a position detection pattern, a direction detection pattern, and a rectangular pattern formed along an outer periphery of the QR code.
교육용 로봇과의 상호 작용을 위한 증강 현실 구현 방법에 있어서,
카메라 모듈을 통해 마커가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성하는 단계;
상기 영상 데이터로부터 상기 마커를 인식하고 상기 인식된 마커에 기록된 제1 메타데이터를 추출하는 단계;
상기 제1 메타데이터에 대응되는 제2 메타 데이터를 콘텐츠 서버로부터 수신하는 단계;
상기 수신된 제2 메타데이터에 기반하여 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 단계; 및
상기 생성된 교육 시나리오에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 단계;를 포함하는 증강 현실 구현 방법.
A method for implementing an augmented reality for interaction with an educational robot,
Capturing an educational robot having a marker attached thereto through a camera module to generate image data;
Recognizing the marker from the image data and extracting first metadata recorded in the recognized marker;
Receiving second metadata corresponding to the first metadata from a content server;
Generating at least one virtual object and a training scenario for interaction with the educational robot based on the received second metadata; And
And augmenting the at least one virtual object to the image data according to the generated training scenario.
제11항에 있어서,
상기 영상 데이터로부터 마커를 검출하여 상기 카메라 모듈의 자세를 추정하는 단계; 및
상기 영상 데이터로부터 상기 교육용 로봇을 검출하여 상기 교육용 로봇의 자세를 추정하는 단계;를 더 포함하고,
상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 단계는,
상기 추정된 카메라 모듈의 자세와 상기 추정된 교육용 로봇의 자세에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터 상에 적응적으로 증강시켜 디스플레이하는 것을 특징으로 하는 증강 현실 구현 방법.
12. The method of claim 11,
Detecting a marker from the image data and estimating a posture of the camera module; And
Further comprising the step of estimating a posture of the educational robot by detecting the educational robot from the image data,
Wherein the step of enhancing the at least one virtual object to the image data comprises:
Wherein the at least one virtual object is adaptively enhanced and displayed on the image data according to the estimated camera module posture and the estimated posture of the educational robot.
제11항에 있어서,
상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, 상기 충돌 이벤트를 처리하기 위한 제어 신호를 생성하여 상기 교육용 로봇에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 방법.
12. The method of claim 11,
Further comprising: generating a control signal for processing the collision event when the collision event occurs between the training robot and the virtual object, and transmitting the control signal to the training robot.
제13항에 있어서,
상기 교육용 로봇에 대한 제어 신호를 생성하여 상기 교육용 로봇에 전송하는 단계는,
상기 영상 데이터 상에 상기 가상 객체를 증강한 후, 상기 영상 데이터 상에서 상기 교육용 로봇과 상기 가상 객체와의 이격 거리를 산출하는 단계;
상기 이격 거리가 기 설정된 기준값 이하인 경우, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트를 발생시키는 단계; 및
X3D(Extensible 3D)를 이용하여 상기 충돌 이벤트를 가시화하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 방법.
14. The method of claim 13,
Generating a control signal for the education robot and transmitting the control signal to the education robot,
Augmenting the virtual object on the image data, and calculating a distance between the educational robot and the virtual object on the image data;
Generating a collision event between the educational robot and the virtual object when the distance is less than a preset reference value; And
Further comprising: visualizing the collision event using X3D (Extensible 3D).
제11항에 있어서,
상기 교육용 로봇의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 상기 교육용 로봇을 제어하도록 상기 사용자 입력 신호를 상기 교육용 로봇에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 방법.
12. The method of claim 11,
And transmitting the user input signal to the educational robot to control the educational robot when a user input signal for controlling the operation of the educational robot is inputted.
제15항에 있어서,
상기 사용자 입력 신호에 따라 상기 교육용 로봇이 제어되는 동안 기 설정된 특정 영역에 상기 교육용 로봇이 위치할 경우, 상기 교육용 로봇을 제어하기 위한 이벤트 정보를 상기 교육용 로봇에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 방법.
16. The method of claim 15,
And transmitting event information for controlling the educational robot to the educational robot when the educational robot is positioned in a predetermined area while the educational robot is controlled according to the user input signal Augmented reality.
제11항에 있어서,
상기 제1 메타데이터는,
상기 제2 메타데이터의 저장 위치 정보를 포함하는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터이고,
상기 제2 메타데이터는,
증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠, 상기 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보, 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 증강 현실 구현 방법.

12. The method of claim 11,
Wherein the first metadata includes:
Content metadata including content-server information and content-related information including storage location information of the second metadata,
Wherein the second metadata includes:
A detailed description of the contents of the metadata, storage location information of media files used to execute the contents, information about the educational robot extension module, three-dimensional geometric information of the educational robot, The interaction information, the training scenario information, and the specification description information for the enhancement.

KR1020130060003A 2013-05-27 2013-05-27 Augmented reality implementation apparatus and method for interacting with robot for education KR102069366B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130060003A KR102069366B1 (en) 2013-05-27 2013-05-27 Augmented reality implementation apparatus and method for interacting with robot for education

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130060003A KR102069366B1 (en) 2013-05-27 2013-05-27 Augmented reality implementation apparatus and method for interacting with robot for education

Publications (2)

Publication Number Publication Date
KR20140139394A true KR20140139394A (en) 2014-12-05
KR102069366B1 KR102069366B1 (en) 2020-01-23

Family

ID=52459421

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130060003A KR102069366B1 (en) 2013-05-27 2013-05-27 Augmented reality implementation apparatus and method for interacting with robot for education

Country Status (1)

Country Link
KR (1) KR102069366B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017069396A1 (en) * 2015-10-23 2017-04-27 오철환 Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects
KR20200029208A (en) * 2018-09-10 2020-03-18 경북대학교 산학협력단 Projection based mobile robot control system and method using code block
KR20200041384A (en) * 2017-09-08 2020-04-21 나이앤틱, 인크. Collision detection, estimation and avoidance
KR20200041084A (en) 2018-10-11 2020-04-21 김은규 A mathematical figure education system using augmented reality
KR20200071407A (en) * 2018-12-11 2020-06-19 최재영 Method for providing augmented reality contents using play item and server using the same
KR102497558B1 (en) * 2022-10-13 2023-02-08 주식회사 에이아이컨트롤 Method, device and system for educating fourth industrial technology using educational subsidiary materials

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110023227A (en) 2009-08-31 2011-03-08 가톨릭대학교 산학협력단 Robot game system relating virtual space to real space
KR20120079918A (en) 2011-01-06 2012-07-16 (주)비상교과서 Learning services providing method and system
KR101239284B1 (en) 2011-05-31 2013-03-06 삼성에스디에스 주식회사 Control terminal and server for managing target devices using Augmented Reality Contents

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110023227A (en) 2009-08-31 2011-03-08 가톨릭대학교 산학협력단 Robot game system relating virtual space to real space
KR20120079918A (en) 2011-01-06 2012-07-16 (주)비상교과서 Learning services providing method and system
KR101239284B1 (en) 2011-05-31 2013-03-06 삼성에스디에스 주식회사 Control terminal and server for managing target devices using Augmented Reality Contents

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
증강현실 장난감. 네이버 블로그, [online], 2011.10.12., [2019.03.13. 검색], 인터넷 https://blog.naver.com/creators_sk/100140448165* *
증강현실 장난감. 네이버 블로그, [online], 2011.10.12., 인터넷 https://blog.naver.com/creators_sk/100140448165
최윤석. 호모그래피기반의 카메라 추적기술을 이용한 텔레프레즌스 시스템. 중앙대학교 첨단영상대학원 석사학위논문. 2012년. *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017069396A1 (en) * 2015-10-23 2017-04-27 오철환 Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects
US10532271B2 (en) 2015-10-23 2020-01-14 Chol Whan OH Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects
KR20200041384A (en) * 2017-09-08 2020-04-21 나이앤틱, 인크. Collision detection, estimation and avoidance
KR20200029208A (en) * 2018-09-10 2020-03-18 경북대학교 산학협력단 Projection based mobile robot control system and method using code block
KR20200041084A (en) 2018-10-11 2020-04-21 김은규 A mathematical figure education system using augmented reality
KR20200071407A (en) * 2018-12-11 2020-06-19 최재영 Method for providing augmented reality contents using play item and server using the same
KR102497558B1 (en) * 2022-10-13 2023-02-08 주식회사 에이아이컨트롤 Method, device and system for educating fourth industrial technology using educational subsidiary materials

Also Published As

Publication number Publication date
KR102069366B1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
US11222471B2 (en) Implementing three-dimensional augmented reality in smart glasses based on two-dimensional data
US9224237B2 (en) Simulating three-dimensional views using planes of content
US11842514B1 (en) Determining a pose of an object from rgb-d images
US9437038B1 (en) Simulating three-dimensional views using depth relationships among planes of content
US9591295B2 (en) Approaches for simulating three-dimensional views
US9904664B2 (en) Apparatus and method providing augmented reality contents based on web information structure
EP4307233A1 (en) Data processing method and apparatus, and electronic device and computer-readable storage medium
JP6458371B2 (en) Method for obtaining texture data for a three-dimensional model, portable electronic device, and program
CN109084746A (en) Monocular mode for the autonomous platform guidance system with aiding sensors
KR102069366B1 (en) Augmented reality implementation apparatus and method for interacting with robot for education
CN109887003A (en) A kind of method and apparatus initialized for carrying out three-dimensional tracking
CN108062776A (en) Camera Attitude Tracking method and apparatus
CN107430686A (en) Mass-rent for the zone profiles of positioning of mobile equipment creates and renewal
CN104574267A (en) Guiding method and information processing apparatus
JP7548835B2 (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects - Patents.com
US20160210761A1 (en) 3d reconstruction
Barandiaran et al. Real-time optical markerless tracking for augmented reality applications
US11373329B2 (en) Method of generating 3-dimensional model data
CN112733641B (en) Object size measuring method, device, equipment and storage medium
Huang et al. Network algorithm real-time depth image 3D human recognition for augmented reality
CN109858402B (en) Image detection method, device, terminal and storage medium
CN109710054B (en) Virtual object presenting method and device for head-mounted display equipment
KR20100006736A (en) System and apparatus for implementing augmented reality, and method of implementing augmented reality using the said system or the said apparatus
KR101909994B1 (en) Method for providing 3d animating ar contents service using nano unit block
McClean An Augmented Reality System for Urban Environments using a Planar Building Fa cade Model

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant