KR20140139394A - Augmented reality implementation apparatus and method for interacting with robot for education - Google Patents
Augmented reality implementation apparatus and method for interacting with robot for education Download PDFInfo
- Publication number
- KR20140139394A KR20140139394A KR1020130060003A KR20130060003A KR20140139394A KR 20140139394 A KR20140139394 A KR 20140139394A KR 1020130060003 A KR1020130060003 A KR 1020130060003A KR 20130060003 A KR20130060003 A KR 20130060003A KR 20140139394 A KR20140139394 A KR 20140139394A
- Authority
- KR
- South Korea
- Prior art keywords
- educational robot
- robot
- metadata
- virtual object
- educational
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims description 52
- 239000003550 marker Substances 0.000 claims abstract description 56
- 239000000284 extract Substances 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 65
- 238000001514 detection method Methods 0.000 claims description 26
- 230000003993 interaction Effects 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 19
- 230000002708 enhancing effect Effects 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 14
- 230000003203 everyday effect Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 241000254173 Coleoptera Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000007654 immersion Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241000382353 Pupa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 235000012907 honey Nutrition 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000009747 swallowing Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39451—Augmented reality for robot programming
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Marketing (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Educational Technology (AREA)
- General Engineering & Computer Science (AREA)
- Educational Administration (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 교육용 로봇과 상호 작용하는 증강 현실 구현 장치 및 그 방법에 관한 것으로, 교육용 로봇과의 상호 작용이 가능하고, 최신의 콘텐츠 이용이 가능한 증강 현실 구현 장치 및 그 방법에 관한 것이다. The present invention relates to an augmented reality realizing device and method for interacting with an educational robot, and more particularly, to an augmenting reality realizing device capable of interacting with an educational robot and using the latest contents.
증강현실이란 사용자의 현실 세계에 컴퓨터로 만든 가상 물체 및 정보를 융합 또는 보완해주는 기술을 말한다. 현실 세계에 실시간으로 부가정보를 갖는 가상 세계를 더해 하나의 영상으로 보여주므로 혼합현실(MR, mixed reality)라고도 한다. Augmented reality refers to a technology that fuses or replaces computer-generated virtual objects and information in the user's real world. It is also referred to as mixed reality (MR) because a virtual world with additional information in real time is added to the real world and displayed as a single image.
증강현실 기술에 대한 연구가 시작된 이후로 다양한 분야에서 이 기술을 응용하려는 연구가 이어져 왔으며, 교육 분야에서도 증강현실 기술을 접목시키는 연구가 이루어지고 있다. Since the start of research on augmented reality technology, studies have been carried out to apply this technology in various fields, and researches have been carried out in the field of education to incorporate augmented reality technology.
한편, 증강현실 기술을 구현하기 위하여 마커 인식을 이용하는 것이 일반적이다. 구체적으로, 카메라를 통해 마커를 인식하고, 인식된 마커에 대응하는 가상 객체를 실제 영상에 혼합하는 것이다. 이 경우, 가상 객체와 관련된 콘텐츠가 마커에 프로그래밍 된다. 콘텐츠 크기가 작은 경우에는 마커에 프로그래밍될 수 있으나, 콘텐츠 크기가 큰 경우에는 마커에 프로그래밍하는데 한계가 있다. On the other hand, it is common to use marker recognition in order to realize the augmented reality technology. Specifically, a marker is recognized through a camera, and a virtual object corresponding to the recognized marker is mixed with an actual image. In this case, the content associated with the virtual object is programmed into the marker. If the content size is small, it can be programmed to the marker, but if the content size is large, programming to the marker is limited.
특히, 교육 분야에서 사용하는 콘텐츠는 그 크기가 크며, 다양한 교육 시나리오를 갖기 때문에, 마커 인식을 통해 증강 현실을 구현하는 것이 어렵다. 또한, 마커에 한번 프로그래밍된 콘텐츠는 업데이트가 어려워 콘텐츠의 유지 관리 역시 어렵다.In particular, since the contents used in the education field are large in size and have various educational scenarios, it is difficult to realize an augmented reality through marker recognition. Also, it is difficult to maintain contents once programmed into the markers is difficult to update.
실시예는 상술한 문제점을 해결하기 위한 것으로, 교육용 로봇과 상호 작용할 가상 객체 및 교육 시나리오를 생성하여 증강함으로써, 학습자에게 스마트한 교육 환경을 제공하여 학습자의 몰입도 및 집중력을 향상시킬 수 있는 증강 현실 구현 장치 및 그 방법을 제공하기 위한 것이다. In order to solve the above-described problems, an embodiment of the present invention provides a smart learning environment for a learner by creating and enhancing virtual objects and educational scenarios to interact with the educational robot, thereby providing augmented reality And a method for implementing the same.
또한, 본 발명의 다른 목적은 콘텐츠 서버에 저장된 메타데이터를 이용하여 가상 객체 및 교육 시나리오를 생성하는 것으로, 콘텐츠 서버에서 관리되는 최신의 콘텐츠를 이용할 수 있는 증강 현실 구현 장치 및 그 방법을 제공하기 위한 것이다. Another object of the present invention is to provide an apparatus and method for realizing an augmented reality in which a virtual object and a training scenario are generated by using metadata stored in a content server, will be.
이상과 같은 과제를 달성하기 위한 본 발명의 일 실시예에 따른 증강 현실 구현 장치는, 마커가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성하는 카메라 모듈, 상기 영상 데이터로부터 상기 마커를 인식하고, 상기 인식된 마커에 기록된 제1 메타데이터를 추출하는 메타데이터 추출부, 상기 제1 메타데이터를 이용하여 콘텐츠 서버에 접속하고, 상기 콘텐츠 서버에 제2 메타데이터를 요청하는 송수신부, 상기 콘텐츠 서버로부터 상기 제2 메타데이터가 수신될 경우, 상기 제2 메타데이터에 기반하여 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 생성부 및 상기 교육 시나리오에 따라 상기 적어도 하나의 가상 객체를 가시화하고, 상기 가시화된 적어도 하나의 가상 객체를 상기 영상 데이터에 증강하여 디스플레이하는 디스플레이부를 포함한다. According to another aspect of the present invention, there is provided an apparatus for realizing an augmented reality according to an embodiment of the present invention. The apparatus includes a camera module for photographing an educational robot with a marker and generating image data, A metadata extraction unit for extracting first metadata recorded in the recognized marker, a transmission / reception unit for accessing the content server using the first metadata and requesting the second metadata to the content server, A generating unit for generating at least one virtual object and an educational scenario for interaction with the educational robot based on the second metadata when the second metadata is received, Visualizing a virtual object, and enhancing the visualized at least one virtual object to the image data It includes a display for display over.
여기서, 본 증강 현실 구현 장치는 상기 영상 데이터로부터 마커를 검출하여 상기 카메라 모듈의 자세를 추정하는 제1 추정부, 상기 영상 데이터로부터 상기 교육용 로봇을 검출하여 상기 교육용 로봇의 자세를 추정하는 제2 추정부 및 상기 카메라 모듈의 자세와 상기 교육용 로봇의 자세를 추정하도록 상기 제1 추정부 및 상기 제2 추정부를 제어하고, 상기 추정된 카메라 모듈의 자세와 상기 추정된 교육용 로봇의 자세에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터 상에 적응적으로 증강하도록 상기 디스플레이부를 제어하는 제어부를 더 포함할 수 있다. Here, the augmented reality implementing apparatus includes a first estimator for detecting a marker from the image data and estimating a posture of the camera module, a second estimator for estimating a posture of the educational robot by detecting the educational robot from the image data, Wherein the control unit controls the first estimating unit and the second estimating unit to estimate the attitude of the camera module and the attitude of the educational robot based on the attitude of the camera module and the estimated attitude of the educational robot, And a control unit for controlling the display unit to adaptively increase the virtual object of the image data on the image data.
한편, 상기 제어부는 상기 영상 데이터 상에 상기 가상 객체를 증강한 후, 상기 영상 데이터 상에서 상기 교육용 로봇과 상기 가상 객체와의 이격 거리를 산출하고, 상기 이격 거리가 기 설정된 기준값 이하인 경우, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트를 발생시키며, X3D(Extensible 3D)를 이용하여 상기 충돌 이벤트를 가시화할 수 있다. Meanwhile, the controller may increase the virtual object on the image data, and then calculate a distance between the educational robot and the virtual object on the image data. If the distance is less than a preset reference value, A collision event is generated between the virtual object and the virtual object, and the collision event can be visualized using X3D (Extensible 3D).
본 증강 현실 구현 장치는 상기 교육용 로봇과 블루투스 통신하는 블루투스 통신부를 더 포함할 수 있다. The apparatus for realizing an augmented reality may further include a Bluetooth communication unit for performing Bluetooth communication with the educational robot.
한편, 상기 제어부는 사용자 입력부를 통해 상기 교육용 로봇의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 상기 사용자 입력 신호를 상기 교육용 로봇에 전송하도록 상기 블루투스 통신부를 제어할 수 있다. The controller may control the Bluetooth communication unit to transmit the user input signal to the educational robot when a user input signal for controlling the operation of the educational robot is inputted through the user input unit.
한편, 상기 제어부는 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, 상기 충돌 이벤트를 처리하기 위하여 상기 교육용 로봇에 대한 제어 신호를 생성하고, 상기 생성된 제어 신호를 상기 교육용 로봇에 전송하도록 상기 블루투스 통신부를 제어할 수 있다. Meanwhile, when a collision event occurs between the training robot and the virtual object, the control unit generates a control signal for the training robot to process the collision event, and transmits the generated control signal to the training robot The Bluetooth communication unit can be controlled.
한편, 상기 제어부는, 상기 사용자 입력 신호에 따라 상기 교육용 로봇이 제어되는 동안 기 설정된 특정 영역에 상기 교육용 로봇이 위치할 경우, 상기 사용자 입력 신호에 따른 교육용 로봇의 제어보다, 이벤트 정보를 이용한 상기 교육용 로봇의 자동 제어를 우선으로 하고, 상기 교육용 로봇을 제어하기 위한 상기 이벤트 정보를 상기 교육용 로봇에 전송하도록 상기 블루투스 통신부를 제어할 수 있다.Meanwhile, when the educational robot is located in a predetermined area while the educational robot is controlled according to the user input signal, the controller may control the learning robot based on the user information input signal, It is possible to control the Bluetooth communication unit such that the automatic control of the robot is prioritized and the event information for controlling the educational robot is transmitted to the educational robot.
한편, 상기 제1 메타데이터는 상기 제2 메타데이터의 저장 위치 정보를 포함하는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터이고, 상기 제2 메타데이터는 증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠, 상기 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 어느 하나를 포함할 수 있다. The first meta data is content meta data including content server information and content related information including storage location information of the second meta data, and the second meta data includes detailed meta data for realizing an augmented reality Information on storage locations of media files used to execute the contents, information on three-dimensional geometry of the educational robot, interaction information with the educational robot in the virtual environment, education scenario information, And specification specification information for enhancement.
한편, 상기 생성부는 상기 제2 메타데이터를 이용하여 상기 콘텐츠, 상기 미디어파일들, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 하나를 획득하고, 상기 교육 시나리오 및 상기 가상 객체를 생성할 수 있다.Meanwhile, the generation unit may generate the content, the media files, the educational robot extension module, the three-dimensional geometric information of the educational robot, the interaction information with the educational robot in the virtual environment, Information and specification description information for the enhancement, and generate the training scenario and the virtual object.
한편, 상기 마커는 QR 코드이고, 상기 QR 코드는 상기 제1 메타데이터가 기록된 데이터 영역, 위치 검출 패턴, 방향 검출 패턴 및 상기 QR 코드의 외곽을 따라 형성된 사각형 패턴을 포함할 수 있다. The marker may be a QR code, and the QR code may include a data area in which the first meta data is recorded, a position detection pattern, a direction detection pattern, and a rectangular pattern formed along an outer periphery of the QR code.
본 발명의 일 실시예에 따른 교육용 로봇과의 상호 작용을 위한 증강 현실 구현 방법은 마커가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성하는 단계, 상기 영상 데이터로부터 상기 마커를 인식하고 상기 인식된 마커에 기록된 제1 메타데이터를 추출하는 단계, 상기 제1 메타데이터를 이용하여 콘텐츠 서버에 접속하고 상기 콘텐츠 서버에 제2 메타데이터를 요청하는 단계, 상기 콘텐츠 서버로부터 상기 제2 메타데이터가 수신될 경우, 상기 제2 메타데이터에 기반하여 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 단계 및 상기 교육 시나리오에 따라 상기 적어도 하나의 가상 객체를 가시화하고, 상기 가시화된 적어도 하나의 가상 객체를 상기 영상 데이터에 증강하여 디스플레이하는 단계를 포함한다. A method for realizing an augmented reality for interaction with an educational robot according to an embodiment of the present invention includes the steps of generating image data by photographing an educational robot to which a marker is attached, recognizing the marker from the image data, Accessing a content server using the first metadata and requesting the second metadata from the content server, receiving the second metadata from the content server Generating at least one virtual object and an educational scenario for interaction with the educational robot based on the second metadata and visualizing the at least one virtual object according to the educational scenario, Augmenting and displaying at least one virtual object on the image data, The.
여기서, 본 증강 현실 구현 방법은 상기 영상 데이터로부터 마커를 검출하여 상기 카메라 모듈의 자세를 추정하는 단계 및 상기 영상 데이터로부터 상기 교육용 로봇을 검출하여 상기 교육용 로봇의 자세를 추정하는 단계를 더 포함하고, 상기 가시화된 적어도 하나의 가상 객체를 상기 영상 데이터에 증강하여 디스플레이하는 단계는 상기 추정된 상기 카메라 모듈의 자세와 상기 교육용 로봇의 자세에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터 상에 적응적으로 증강시켜 디스플레이할 수 있다. Here, the method for realizing an augmented reality may further include estimating a posture of the camera module by detecting a marker from the image data, and estimating a posture of the educational robot by detecting the educational robot from the image data, Wherein the step of enhancing and displaying at least one virtual object visualized on the image data includes adaptively arranging the at least one virtual object on the image data according to the estimated attitude of the camera module and the attitude of the educational robot The display can be enhanced.
한편, 본 증강 현실 구현 방법은 상기 영상 데이터 상에 상기 가상 객체를 증강한 후, 상기 영상 데이터 상에서 상기 교육용 로봇과 상기 가상 객체와의 이격 거리를 산출하는 단계 및 상기 이격 거리가 기 설정된 기준값 이하인 경우, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트를 발생시키며, X3D(Extensible 3D)를 이용하여 상기 충돌 이벤트를 가시화하는 단계를 더 포함할 수 있다. The method for realizing the augmented reality includes the steps of augmenting the virtual object on the image data, and then calculating a separation distance between the training robot and the virtual object on the image data, and when the distance is less than a preset reference value , Generating a collision event between the training robot and the virtual object, and visualizing the collision event using X3D (Extensible 3D).
한편, 본 증강 현실 구현 방법은 사용자 입력 수단을 통해 상기 교육용 로봇의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 블루투스 통신을 이용하여 상기 사용자 입력 신호를 상기 교육용 로봇에 전송하는 단계를 더 포함할 수도 있다. The method for realizing the augmented reality further includes transmitting the user input signal to the educational robot using Bluetooth communication when a user input signal for controlling the operation of the educational robot is inputted through the user input means You may.
한편, 본 증강 현실 구현 방법은 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, 상기 충돌 이벤트를 처리하기 위하여 상기 교육용 로봇에 대한 제어 신호를 생성하고, 블루투스 통신을 이용하여 상기 생성된 제어 신호를 상기 교육용 로봇에 전송하는 단계를 더 포함할 수 있다. The method for realizing the augmented reality includes generating a control signal for the training robot to process the collision event when a collision event occurs between the training robot and the virtual object, And transmitting a signal to the educational robot.
한편, 본 증강 현실 구현 방법은 상기 사용자 입력 신호에 따라 상기 교육용 로봇이 제어되는 동안 기 설정된 특정 영역에 상기 교육용 로봇이 위치할 경우, 상기 사용자 입력 신호에 따른 교육용 로봇의 제어보다, 이벤트 정보를 이용한 상기 교육용 로봇의 자동 제어를 우선으로 하여 상기 교육용 로봇을 제어하기 위한 상기 이벤트 정보를 상기 블루투스 통신을 이용하여 상기 교육용 로봇에 전송하는 단계를 더 포함할 수 있다. Meanwhile, the method of realizing the augmented reality may further include the step of, when the training robot is positioned in a predetermined area while the training robot is controlled according to the user input signal, And transmitting the event information for controlling the educational robot to the educational robot using the Bluetooth communication with priority given to automatic control of the educational robot.
한편, 상기 제1 메타데이터는 상기 제2 메타데이터의 저장 위치 정보를 포함하는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터이고, 상기 제2 메타데이터는 증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠, 상기 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 어느 하나를 포함할 수 있다. The first meta data is content meta data including content server information and content related information including storage location information of the second meta data, and the second meta data includes detailed meta data for realizing an augmented reality Information on storage locations of media files used to execute the contents, information on three-dimensional geometry of the educational robot, interaction information with the educational robot in the virtual environment, education scenario information, And specification specification information for enhancement.
한편, 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 단계는, 상기 제2 메타데이터를 이용하여 상기 콘텐츠, 상기 미디어파일들, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 하나를 획득하고, 상기 교육 시나리오 및 상기 가상 객체를 생성할 수 있다.
Meanwhile, the step of generating at least one virtual object and a training scenario for interaction with the educational robot may further include the steps of: using the second metadata, the content, the media files, the educational robot extension module, Dimensional geometry information of the educational robot, interaction information with the educational robot in the virtual environment, education scenario information, and specification description information for the enhancement, and generate the education scenario and the virtual object.
실시예에 따른 증강 현실 구현 장치 및 그 방법은 교육용 로봇과 상호 작용할 가상 객체 및 교육 시나리오를 생성하여 증강하는 것으로 교육 분야에서의 활용도를 높일 수 있다. The apparatus and method for realizing the augmented reality according to the embodiment can increase the utilization in the education field by creating and enhancing virtual objects and training scenarios to interact with the educational robot.
또한, 마커 인식을 통해 콘텐츠 서버에 접속하여 메타데이터를 수신하기 때문에 콘텐츠 업데이트와 관련된 유지 관리를 고려할 필요가 없고, 항상 최신의 콘텐츠를 이용할 수 있으며, 메타데이터로부터 교육용 로봇과 상호 작용할 가상 객체 및 교육 시나리오를 생성하기 때문에 마커의 크기를 최소화할 수 있다. In addition, since the metadata is received by accessing the content server through the marker recognition, there is no need to consider the maintenance related to updating of the content, the latest contents can be always used, and the virtual objects and education Since the scenario is created, the size of the marker can be minimized.
도 1은 본 발명의 일 실시예에 따른 증강 현실 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 구현 장치의 구성을 나타내는 블록도이다.
도 3a 및 도 3b는 본 발명의 일 실시예에 따른 QR 코드를 이용한 카메라 자세 추정 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 증강 현실 구현 방법을 설명하기 위한 흐름도이다.
도 5 내지 도 7은 본 발명의 다양한 실시예에 따른 증강 현실 구현 예를 나타내는 도면이다. 1 is a diagram illustrating an augmented reality system according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of an augmented reality realization apparatus according to an embodiment of the present invention.
3A and 3B are views for explaining a camera position estimation method using a QR code according to an embodiment of the present invention.
4 is a flowchart illustrating a method for implementing an augmented reality according to an embodiment of the present invention.
5 to 7 are views showing an embodiment of an augmented reality according to various embodiments of the present invention.
이하 첨부된 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시 예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 각 도면에 제시된 동일한 참조 부호는 동일한 구성을 나타낸다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. Also, terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the user, intent of the operator, or custom in the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification. Like reference numerals in the drawings denote like elements.
도 1은 실시예에 따른 증강 현실 시스템을 나타내는 도면이다. 1 is a diagram illustrating an augmented reality system according to an embodiment.
도 1을 참조하면, 증강 현실 시스템(1000)은 증강 현실 구현 장치(100), 콘텐츠 서버(200) 및 교육용 로봇(300)을 포함한다. Referring to FIG. 1, an augmented
증강 현실 구현 장치(100)는 증강 현실 기술을 이용하여 교육용 로봇(300)과 상호 작용하는 장치로, TV 또는 모니터와 같은 디스플레이 기기가 될 수 있으며, 사용자가 휴대할 수 있는 노트북, 태블릿 PC 또는 스마트폰 등이 될 수도 있다. 또한, 2차원 또는 3차원 디스플레이 기능을 구비 또는 겸비한 디스플레이 기기가 될 수 있다. 그러나, 증강 현실 구현 장치(100)는 이에 한정되지 않으며, 디스플레이 구성을 통해 증강 현실 기술을 제공할 수 있는 다른 기기들이 될 수도 있다.The augmented
증강 현실 구현 장치(100)는 교육용 로봇(300)을 촬영하기 위한 카메라 모듈(110)을 포함할 수 있다. 만약, 증강 현실 구현 장치(100)가 카메라 모듈을 포함하지 않는 경우에는, 카메라(10)를 연결하여 사용할 수 있다. The augmented
교육용 로봇(300)은 학습에 이용하기 위한 로봇이 될 수 있다. 이 교육용 로봇(300)은 학습시, 학생들의 교육적 체험 효과를 높이고 흥미를 유발시키기 위해서 가상물체에 해당하는 로봇을 실제로 제작한 로봇이다. The
교육용 로봇(300)은 일 부위에 마커(310)가 부착되어 있을 수 있다. 일 예로, 이 마커(310)는 QR 코드가 될 수 있으며, 이 마커(310)에는 제1 메타데이터가 기록되어 있을 수 있다. The
한편, 카메라 모듈(110)은 마커(310)가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성할 수 있다. Meanwhile, the
증강 현실 구현 장치(100)는 카메라 모듈(110)에 의해 생성된 영상 데이터로부터 마커(310)를 인식하고, 마커(310)에 기록된 제1 메타데이터를 추출할 수 있다. The augmented
여기서, 제1 메타데이터란 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터일 수 있다. 콘텐츠 서버 정보란, 제2 메타데이터가 저장된 콘텐츠 서버(200)에 대한 IP 주소 정보 또는 URL 정보, 즉, 제2 메타데이터의 저장 위치 정보가 될 수 있다. 또한, 콘텐츠 관련 정보란 콘텐츠 종류, 콘텐츠명, 제1 메타데이터 생성일, 콘텐츠 저작자 등을 포함할 수 있다.Here, the first metadata may be content metadata including content server information and content related information. The content server information may be IP address information or URL information of the
증강 현실 구현 장치(100)는 추출된 제1 메타데이터를 이용하여 콘텐츠 서버(200)에 접속하고, 콘텐츠 서버(200)에 제2 메타데이터를 요청할 수 있다. 이는 제1 메타데이터에 포함된 콘텐츠 서버 정보를 이용하여 수행할 수 있다. The augmented
제2 메타데이터란 증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠를 포함하고 있으며, 이 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보를 포함할 수 있다. 또한, 제2 메타데이터는 교육용 로봇 확장 모듈, 교육용 로봇의 3차원 기하 정보, 가상 환경에서 교육용 로봇과의 상호 작용 정보, 교육 시나리오 정보 및 증강을 위한 명세 기술 정보 등을 더 포함할 수 있다. The second meta data is detailed meta data for implementing the augmented reality, and may include content, and may include storage location information of media files used to execute the content. In addition, the second metadata may further include an educational robot extension module, three-dimensional geometric information of the educational robot, interaction information with the educational robot in the virtual environment, educational scenario information, and specification technical information for the enhancement.
증강 현실 구현 장치(100)는 제2 메타데이터를 이용하여 교육용 로봇(300)과 상호 작용할 가상 객체 및 교육 시나리오를 생성할 수 있다. The augmented
증강 현실 구현 장치(100)는 교육 시나리오에 따라 가상 객체를 구현하고, 가상 객체를 영상 데이터에 증강하여 디스플레이할 수 있다. 이 과정에서 증강 현실 구현 장치(100)는 카메라(10)의 자세 및 교육용 로봇(300)의 자세를 추정하여 카메라(10)의 자세와 교육용 로봇(300)의 자세에 따라 가상 객체를 영상 데이터 상에 적응적으로 증강할 수 있다. The augmented
또한, 증강 현실 구현 장치(100)는 사용자 요청에 따라 가상 객체를 어떠한 순서, 화면, 방식 등으로 증강시킬 것인를 나타내는 교육 시나리오를 디스플레이 할 수 있다. 따라서, 사용자 또는 학습자 등이 교육 시나리오를 확인하여 교육용 로봇(300)의 자세를 제어하거나, 가상 객체의 증강을 제어할 수 있다. In addition, the augmented
이상과 같은 본 실시예에 따른 증강 현실 시스템(1000)는 마커(310)에 기록된 제1 메타데이터를 이용하여 콘텐츠 서버(200)에 접속하는 것으로, 실제 콘텐츠가 마커(310)에 기록되어 있지 않아 마커(310)의 크기를 소형화시킬 수 있다. The
또한, 증강 현실 시스템(1000)은 콘텐츠 서버(200)에 접속하여 제2 메타데이터를 수신하고, 이 제2 메타데이터를 이용하여 증강 현실에 필요한 교육 시나리오 및 가상 객체를 생성하기 때문에, 최신의 콘텐츠를 이용할 수 있으며, 사용자가 직접 콘텐츠를 관리할 필요가 없다. In addition, the
여기서는, 증강 현실 구현 장치(100)가 제2 메타데이터를 이용하여 교육 시나리오 및 가상 객체를 생성하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 구체적으로, 콘텐츠 서버(200)는 제2 메타데이터를 이용하여 생성된 교육 시나리오 및 가상 객체를 저장 및 관리하고 있을 수 있다. 따라서, 증강 현실 구현 장치(100)가 콘텐츠 서버(200)에 접속하여 제2 메타데이터를 요청하고, 이 제2 메타데이터와 관련된 교육 시나리오 및 가상 객체와 관련된 정보를 획득할 수도 있다. 이 경우, 제2 메타데이터, 교육 시나리오, 가상 객체 등은 콘텐츠 서버(200)의 관리자에 의해 주기적으로 업데이트 되는 정보가 될 수 있다. 따라서, 증강 현실 구현 장치(100)는 항상 최신의 정보들을 이용하여 증강 현실을 구현할 있다. Here, the augmented
한편, 증강 현실 시스템(1000)은 교육용 로봇(300)과 상호 작용하는 형태로 가상 객체를 증강하기 때문에, 학습자의 몰입감 및 집중력을 향상시킬 수 있으며, 스마트한 교육 환경을 제공할 수 있다.
Meanwhile, since the
도 2는 본 발명의 일 실시예에 따른 증강 현실 구현 장치의 구성을 나타내는 블록도이다. 도 1에 도시된 증강 현실 구현 장치(100)의 구성을 구체화한 것으로, 증강 현실 구현 장치(100)는 사용자 입력부(101), 카메라 모듈(110), 메타데이터 추출부(120), 송수신부(130), 생성부(140), 제1 추정부(150), 제2 추정부(160), 디스플레이부(170), 블루투스 통신부(180) 및 제어부(190)를 포함한다. 2 is a block diagram illustrating a configuration of an augmented reality realization apparatus according to an embodiment of the present invention. 1, the augmented
사용자 입력부(101)는 사용자 입력을 위한 구성으로, 키보드, 키패드, 마우스, 터치 스크린 등이 될 수 있다. 예를 들어, 사용자가 마우스를 이용하여 어떠한 입력을 실행할 경우, 사용자 입력부(101)는 그 입력에 대응하는 사용자 입력 신호를 생성할 수 있다. The user input unit 101 may be a keyboard, a keypad, a mouse, a touch screen, or the like for user input. For example, when a user performs an input using a mouse, the user input unit 101 may generate a user input signal corresponding to the input.
카메라 모듈(110)은 마커(310)가 부착된 교육용 로봇(300)을 촬영하여 영상 데이터를 생성한다. The
메타데이터 추출부(120)는 영상 데이터로부터 마커(310)를 인식하고, 인식된 마커(310)에 기록된 제1 메타데이터를 추출할 수 있다.The
제1 메타데이터는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터로, 작은 데이터 용량을 가질 수 있다. 따라서, 프로그래밍 또는 기록된 데이터의 용량 및 복잡도에 비례하여 마커(310)의 크기가 커지는 것을 고려할 때, 제1 메타데이터를 기록하고 있는 마커(310)는 상대적으로 작은 크기를 가질 수 있다. 특히, 마커(310)는 사물에 부착되는 것을 고려할 때, 마커(310)의 크기가 작을 수록 작은 사물에 부착 가능하기 때문에, 그 이용 범위가 증대될 수 있다. The first metadata may be content metadata including content server information and content related information, and may have a small data capacity. Therefore, considering that the size of the
또한, 제1 메타데이터는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터일 수 있다. 콘텐츠 서버 정보란, 제2 메타데이터가 저장된 콘텐츠 서버(200)에 대한 IP 주소 정보 또는 URL 정보, 즉, 제2 메타데이터의 저장 위치 정보가 될 수 있다. 또한, 콘텐츠 관련 정보란 콘텐츠 종류, 콘텐츠명, 제1 메타데이터 생성일, 콘텐츠 저작자 등을 포함할 수 있다.In addition, the first metadata may be content metadata including content server information and content related information. The content server information may be IP address information or URL information of the
제1 메타데이터는 XML(Extensible Markup Language) 구조를 가지며, 아래 표 1로 나타낼 수 있다. The first metadata has an XML (Extensible Markup Language) structure, and can be represented in Table 1 below.
송수신부(130)는 제1 메타데이터를 이용하여 콘텐츠 서버(200)에 접속하고, 콘텐츠 서버(200)에 제2 메타데이터를 요청 및 수신할 수 있다. The
생성부(140)는 콘텐츠 서버(200)로부터 제2 메타데이터가 수신될 경우, 기존의 콘텐츠를 제2 메타데이터로 갱신하고, 제2 메타 데이터에 기반하여 교육용 로봇(300)과의 상호 작용을 위한 가상 객체 및 교육 시나리오를 생성할 수 있다. 이 같이 생성된 가상 객체 및 교육 시나리오는 메모리(미도시)에 저장될 수 있다. When the second metadata is received from the
제2 메타데이터란 증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠를 포함하고 있으며, 이 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보를 포함할 수 있다. 예를 들어, 제2 메타데이터가 "나비"와 관련된 콘텐츠 및 "나비"와 관련된 미디어파일들의 저장 위치 정보를 포함할 경우, 제2 메타데이터는 아래 표 2로 나타낼 수 있다. The second meta data is detailed meta data for implementing the augmented reality, and may include content, and may include storage location information of media files used to execute the content. For example, if the second metadata includes content related to "butterfly" and storage location information of media files associated with "butterfly "
"Model":"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/butterfly.3ds",
"MarkerName": [
"tree1.patt"
"tree2.patt"
],
"MarkerResources": [
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree1.3ds“
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree2.3ds“
],
"MarkerTexture": [
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree1.png“
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree2.png“
],
"Material":"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/butterfly.material",
"Animation":"false"
}{
"Model": "http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/butterfly.3ds",
"MarkerName": [
"tree1.patt"
"tree2.patt"
],
"MarkerResources": [
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree1.3ds"
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree2.3ds"
],
"MarkerTexture": [
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree1.png"
"http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/tree2.png"
],
"Material": "http://vr.knu.ac.kr/~jppark/Contents/3DModel/butterfly/butterfly.material",
"Animation": "false"
}
"나비"와 관련된 콘텐츠를 증강시켜 교육용 로봇과 상호 작용하도록 구현하기 위해서는, "나비"와 관련된 콘텐츠를 가상 객체로 생성하는 것이 필요하다. In order to enhance the content related to the "butterfly " and to implement it to interact with the educational robot, it is necessary to create content related to the" butterfly " as a virtual object.
따라서, 생성부(140)는 제2 메타데이터에 포함된 모델(Model), 마커리소스(MarkerResource), 마커텍스쳐(MarkerTexture), 매터리얼(Material) 및 애니메이션 태그를 이용하여 가상 객체를 생성할 수 있다. Accordingly, the generating unit 140 may generate a virtual object using a model, a marker resource, a marker texture, a material, and an animation tag included in the second metadata .
예를 들어, 제2 메타데이터로부터 "나비"의 사진, "나비"의 성장 과정, "나비"의 일상 생활 등에 대한 콘텐츠들이 획득될 경우, 이 콘텐츠들을 통해 구성 가능한 교육 시나리오 및 가상 객체를 생성할 수 있다. For example, if the contents of the second metadata are acquired from the photographs of the "butterfly", the growth process of the "butterfly", the everyday life of the "butterfly", and the like, a training scenario and a virtual object .
또한, 제2 메타데이터는 교육용 로봇 확장 모듈, 교육용 로봇의 3차원 기하 정보, 가상 환경에서 교육용 로봇과의 상호 작용 정보, 교육 시나리오 정보 및 증강을 위한 명세 기술 정보 등을 더 포함할 수 있다. In addition, the second metadata may further include an educational robot extension module, three-dimensional geometric information of the educational robot, interaction information with the educational robot in the virtual environment, educational scenario information, and specification technical information for the enhancement.
한편, 영상 데이터 상에 가상 객체를 증강할 경우, 3차원 지형정보에 정확히 정렬된 형태로 증강해야 하므로, 카메라(10)의 자세를 고려해야 한다. 또한, 교육용 로봇(300)이 포함된 영상 데이터에 가상 객체를 정확하게 증강하기 위하여 교육용 로봇(300)의 자세를 고려해야 한다. 여기서, 자세란, 위치 및 방향을 모두 고려한 것일 수 있다. On the other hand, when a virtual object is augmented on the image data, the posture of the
제1 추정부(150)는 영상 데이터로부터 마커(310)를 검출하여 카메라 모듈(110)의 자세를 추정할 수 있다.The
앞서 설명한 바와 같이, 마커(310)에 해당하는 QR 코드는 제1 메타데이터가 기록된 데이터 영역, 위치 검출 패턴, 방향 검출 패턴 및 사각형 패턴을 포함할 수 있다. 따라서, 제1 추정부(150)는 QR 코드에서 위치 검출 패턴, 방향 검출 패턴 및 사각형 패턴의 검출 여부에 따라 다른 방식을 이용하여 카메라 모듈(110)의 자세를 추정할 수 있다. As described above, the QR code corresponding to the
구체적으로, 제1 추정부(150)는 QR 코드에서 위치 검출 패턴 및 방향 검출 패턴이 검출될 경우, 위치 검출 패턴 및 방향 검출 패턴을 이용하여 사각형 패턴의 방향을 결정하고, 이 사각형 패턴의 방향에 따라 QR 코드의 방향을 결정할 수 있다. 그리고, 기 측정된 3차원 공간 상의 QR 코드의 위치 및 크기를 이용하여 QR 코드가 위치하는 3차원 평면과 영상 데이터의 첫 번째 영상 프레임 간의 제1 호모그래피를 산출할 수 있다. Specifically, when the position detection pattern and the direction detection pattern are detected in the QR code, the
이 제1 호모그래피로부터 카메라 모듈(110)의 초기 자세를 추정할 수 있으며, 영상데이터의 두 번째 영상 프레임으로부터 카메라 모듈(110)의 움직임에 따른 자세를 추정할 수 있다. The initial posture of the
반면, 제1 추정부(150)는QR 코드에서 위치 검출 패턴 및 방향 검출 패턴이 미검출될 경우, 특징점을 기반으로 하여 카메라 모듈(110)의 자세를 추정할 수 있다. On the other hand, when the position detection pattern and the direction detection pattern are not detected in the QR code, the
QR 코드에 포함된 다양한 패턴을 이용할 경우, 카메라 모듈(110)의 자세를 빠르고 정확하게 추정할 수 있다. 그러나, 카메라 모듈(110)과 QR 코드 간의 거리가 멀거나, QR 코드의 일 부부 또는 전체가 영상 데이터에서 손상될 경우, 영상 데이터에서 위치 검출 패턴, 방향 검출 패턴 및 사각형 패턴 등이 검출되지 않을 수 있다. 따라서, 이 경우에는 영상데이터를 구성하는 영상 프레임들로부터 특징점을 검출하여 카메라 모듈(110)의 자세를 추정할 수 있다. When various patterns included in the QR code are used, the posture of the
구체적으로, 제1 추정부(150)는 영상데이터를 구성하는 영상 프레임들에서, 서로 연속하는 두 영상 프레임들 상에서 특징점들을 검출하고, 이 특징점들을 매칭시킬 수 있다. Specifically, the
제1 추정부(150)는 FAST(Feature from Accelerated Segment Test) 검출기를 이용하여 특징점들을 검출하고, SSD(Sum of Squared Difference) 알고리즘을 이용하여 특징점들을 매칭시킬 수 있다. The
제1 추정부(150)는 서로 연속하는 두 영상 프레임들 간에 매칭된 특징점들을 이용하여 제2 호모그래피를 산출할 수 있으며, 제2 호모그래피로부터 카메라 모듈(110)의 자세를 추정할 수 있다.The
제2 추정부(160)는 영상 데이터로부터 교육용 로봇(300)을 검출하여 교육용 로봇(300)의 자세를 추정할 수 있다. 구체적으로, 제2 추정부(160)는 영상 데이터를 구성하는 각 영상 프레임들에서 교육용 로봇(300)을 검출하고, 서로 연속하는 두 영상 프레임들 상에서 교육용 로봇(300)의 위치 및 방향을 탐색하여 교육용 로봇(300)의 자세를 추정할 수 있다. The second estimator 160 may detect the
각 영상 프레임들에서 교육용 로봇(300)을 검출은 경계선 검출(edge detection) 방식을 이용할 수 있으며, 이 외에 공지된 다른 검출 방식을 이용할 수도 있다. The detection of the
블루투스 통신부(180)는 교육용 로봇(300)과 블루투스 통신할 수 있다. The
제어부(190)는 증강 현실 구현 장치(100)의 전반적인 동작을 제어한다. The
제어부(190)는 영상 데이터를 구성하는 매 영상 프레임을 확인하여 카메라 모듈(110)의 자세와 교육용 로봇(300)의 자세를 추정하도록 제1 추정부(150) 및 제2 추정부(160)를 제어할 수 있다. 카메라 모듈(110)의 자세와 교육용 로봇(300)의 자세는 기 설정된 시간 주기 또는 실시간으로 추정될 수 있다. The
또한, 제어부(190)는 추정된 카메라 모듈(110)의 자세와 교육용 로봇(300)에 따라 가상 객체를 가시화하여 영상데이터 상에 증강시켜 디스플레이하도록 디스플레이부(170)를 제어할 수 있다. 이 경우, 제어부(190)는 영상데이터 상에서 교육용 로봇(300)의 움직임에 따라 가상 객체를 적응적으로 증강할 수 있다. 따라서, 디스플레이부(170)는 가상 객체를 교육용 로봇(300)과 상호 작용하는 형태로 증강하여 디스플레이할 수 있다. The
제어부(190)는 사용자 입력부(101)를 통해 교육용 로봇(300)의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 사용자 입력 신호를 교육용 로봇(300)에 전송하도록 블루투스 통신부(180)를 제어할 수 있다. 따라서, 사용자가 교육용 로봇(300)을 제어할 수 있게 된다. The
또한, 제어부(190)는 영상 데이터 상에 가상 객체를 증강한 후, 영상 데이터 상에서 교육용 로봇(300)과 가상 객체와의 이격 거리를 산출할 수 있다. 그리고, 제어부(190)는 이격 거리가 기 설정된 기준값 이하인 경우, 교육용 로봇(300)과 가상 객체 간에 충돌 이벤트를 발생시키며, X3D(Extensible 3D)를 이용하여 충돌 이벤트를 디스플레이부(170)를 통해 가시화시킬 수 있다. 여기서, 교육용 로봇(300)과 가상 객체와의 이격 거리란 2차원 거리 또는 3차원 거리가 될 수 있다. In addition, the
예를 들어, 디스플레이부(170)가 2차원 디스플레이 기능을 제공하는 경우, 교육용 로봇(300)과 가상 객체 간의 이격 거리는 2차원 거리가 될 수 있으며, 디스플레이부(170)가 3차원 디스플레이 기능을 제공하는 경우, 교육용 로봇(300)과 가상 객체 간의 이격 거리는 3차원 거리가 될 수 있다. For example, when the display unit 170 provides a two-dimensional display function, the distance between the
또한, 제어부(190)는 교육용 로봇(300)과 가상 객체 간에 충돌 이벤트가 발생될 경우, 충돌 이벤트를 처리하기 위하여 교육용 로봇(300)에 대한 제어 신호를 생성하고, 이 제어 신호를 교육용 로봇(300)에 전송하도록 블루투스 통신부(180)를 제어할 수 있다. 따라서, 교육용 로봇(300)은 수신된 제어 신호에 따라 자세를 변경함으로써 가상 객체와의 충돌 이벤트를 처리할 수 있다. When a collision event occurs between the
한편, 제어부(190)는 사용자 입력 신호에 따라 교육용 로봇(300)이 제어되는 동안 기 설정된 특정 영역에 교육용 로봇(300)이 위치할 경우, 사용자 입력 신호에 따른 교육용 로봇(300)의 제어보다, 이벤트 정보를 이용한 교육용 로봇(300)의 제어를 우선으로 할 수 있다. 여기서, 이벤트 정보란 증강 현실 구현 장치(100)에서 자체적으로 교육용 로봇(300)을 제어하기 위한 이벤트를 발생시키는 것으로, 그 이벤트에 해당하는 정보가 될 수 있다. If the
그리고, 제어부(190)는 교육용 로봇(300)을 제어하기 위한 이벤트 정보를 교육용 로봇(300)에 전송하도록 블루투스 통신부(180)을 제어함으로써, 교육용 로봇(300)의 동작을 자동 제어할 수 있다. The
이상과 같은 본 실시예에 따른 증강 현실 구현 장치(100)는 교육용 로봇(300)과 상호 작용하는 형태로 가상 객체를 증강하기 때문에, 학습자의 몰입감 및 집중력을 향상시킬 수 있으며, 스마트한 교육 환경을 제공할 수 있다.
Since the augmented
도 3a 및 도 3b는 실시예에 따른 QR 코드를 이용한 카메라 자세 추정 방법을 설명하기 위한 도면이다. 이 카메라 자세 추정 방법은 도 1 및 2에 도시된 증강 현실 구현 장치(100)에 의해 수행될 수 있다.3A and 3B are views for explaining a camera position estimation method using a QR code according to an embodiment. The camera posture estimation method may be performed by the augmented
도 3a에 도시된 바와 같이, 본 발명에서 이용하는 마커(310)는 QR 코드일 수 있다. QR 코드(310)는 범용성을 위하여 가로 20㎜, 세로 20㎜의 크기를 가질 수 있으며, 제1 메타데이터가 기록된 데이터 영역, 위치 검출 패턴, 방향 검출 패턴 및 QR 코드(310)의 외곽을 따라 형성된 사각형 패턴을 포함할 수 있다. As shown in FIG. 3A, the
QR 코드(310)의 외곽을 따라 형성된 사각형 패턴은 QR 코드(310)를 효율적으로 인식하기 위한 것이며, QR 코드(310) 인식을 위한 6 픽셀 공간을 확보할 수 있다. The square pattern formed along the outer periphery of the
영상 데이터 상에 가상 객체를 증강할 경우, 3차원 지형정보에 정확히 정렬된 형태로 증강해야 하므로, 증강 현실 구현 장치(100)에 포함된 카메라 모듈(110)의 자세를 고려해야 한다. 따라서, 카메라 모듈(110)의 자세를 추정하는 과정을 수행할 수 있다. When a virtual object is augmented on the image data, it must be accurately aligned with the 3D terrain information. Therefore, the attitude of the
QR 코드(310)에서 위치 검출 패턴, 방향 검출 패턴 및 사각형 패턴이 모두 검출될 경우, 증강 현실 구현 장치(100)는 QR 코드(310)에 기반하여 카메라 모듈(110)의 자세를 추정할 수 있다. When both the position detection pattern, the direction detection pattern and the rectangular pattern are detected in the
구체적으로, 증강 현실 구현 장치(100)는 위치 검출 패턴 및 방향 검출 패턴을 이용하여 사각형 패턴의 방향을 결정하고, 이 사각형 패턴의 방향에 따라 QR 코드의 방향을 결정할 수 있다. Specifically, the augmented
기 측정된 3차원 공간상의 QR 코드(310)의 위치 및 크기를 이용하여 QR 코드(310)가 위치하는 3차원 평면과 영상 데이터의 첫 번째 영상 프레임 간의 제1 호모그래피를 산출할 수 있다. 이 제1 호모그래피로부터 카메라 모듈(110)의 초기 자세를 추정할 수 있으며, 영상데이터의 두 번째 영상 프레임으로부터 카메라 모듈(110)의 움직임에 따른 자세를 추정할 수 있다. The first homography between the 3-dimensional plane where the
이 경우, 카메라 모듈(110)의 자세는 QR 코드(310)가 위치하는 3차원 공간이 평면이라는 가정하에 제1 호모그래피를 이용하여 추정할 수 있다. 구체적으로, 아래의 수학식 1을 이용하여 추정할 수 있다. In this case, the attitude of the
수학식 1에서, H는 호모그래피, K는 카메라 모듈(110)의 내부 파라미터, E는 카메라의 외부 파라미터, r1과 r2는 X축 및 Y축에 대한 회전 변환 벡터이고, t는 이동 변환 벡터이다. (1) where H is the homography, K is the internal parameter of the
앞서 설명한 바와 같이, QR 코드(310)가 위치하는 3차원 공간이 평면이라고 가정하고 있으므로, 제1 호모그래피를 통해 알 수 없는 Z축에 대한 회전은 X축 및 Y축의 회전을 외적하여 산출할 수 있다. 구체적으로, 아래의 수학식 2를 이용하여 산출할 수 있다. As described above, since it is assumed that the three-dimensional space in which the
수학식 2에서, P는 3×4의 투영 변환 행렬을 의미하며, 이 투영 변환 행렬을 이용하여 QR 코드(310) 상에서의 사각형 집합들을 검출할 수 있다. 이 결과를 도 3b에 도시하였다. In Equation (2), P denotes a 3x4 projection transformation matrix, and the projection transformation matrix can be used to detect rectangle sets on the
반면, QR 코드(310)에서 위치 검출 패턴, 방향 검출 패턴 및 사각형 패턴 중 적어도 어느 하나가 미검출될 경우, 증강 현실 구현 장치(100)는 특징점에 기반하여 카메라 모듈(110)의 자세를 추정할 수 있다.On the other hand, when at least one of the position detection pattern, the direction detection pattern, and the rectangular pattern is not detected in the
증강 현실 구현 장치(100)는 영상데이터를 구성하는 영상 프레임들에서, 서로 연속하는 두 영상 프레임들 상에서 특징점들을 검출하고, 이 특징점들을 매칭시킬 수 있다. 특징점이란 영상 프레임들에서 특징이 되는 점들로, 영상 프레임 내에 포함된 물체의 모서리, 접점, 점 등이 될 수 있다. The augmented
증강 현실 구현 장치(100)는 서로 연속하는 두 영상 프레임들 간에 매칭된 특징점들을 이용하여 제2 호모그래피를 산출할 수 있으며, 제2 호모그래피로부터 카메라 모듈(110)의 자세를 추정할 수 있다.The augmented
한편, 특징점 추출 및 특징점 매칭에 많은 계산량이 동반되므로, 계산량 감소를 위하여 영상 피라미드(image pyramid)를 생성할 수 있다. 구체적으로, 원본 영상 프레임에 대하여 25% 크기로 축소된 영상 피라미드에서 특징점을 추출할 수 있다. 이 과정에서, 서로 연속하는 영상 프레임들 간의 특징점을 매칭하기 위하여 영상 프레임의 전체 영역을 격자 방식으로 구분하고, 전체 영역에 대한 모션을 추적할 수 있다. 이때, 영상 프레임의 전체 영역 중 모션을 대표하는 지점의 주변 영역에서 특징점을 추출할 수 있다. 이는 매칭 대상이 되는 특징점을 일정 개수 이하로 선정하기 위한 것으로, 특징점 추출 및 특징점 매칭의 계산량을 감소시킬 뿐 아니라, 계산에 따른 소요 시간을 감소시킬 수 있다. On the other hand, since the feature point extraction and the feature point matching are accompanied by a large amount of computation, an image pyramid can be generated to reduce the calculation amount. Specifically, the feature points can be extracted from the image pyramid reduced to 25% of the original image frame. In this process, in order to match feature points between successive image frames, the entire area of the image frame can be divided into a grid pattern and the motion for the entire area can be tracked. At this time, feature points can be extracted from the surrounding region of the motion representative point in the entire region of the image frame. This is for selecting the number of matching points to be matched to a certain number or less, and it is possible not only to reduce the calculation amount of the minutiae point extraction and the minutia matching, but also to reduce the time required for the calculation.
증강 현실 구현 장치(100)는 서로 연속하는 두 영상 프레임들 간에 매칭된 특징점들을 이용하여 제2 호모그래피를 산출하고, 제2 호모그래피를 수학식 1 및 2에 적용하여 카메라 모듈(110)의 자세를 산출할 수 있다. 이 과정에서, RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 매칭된 특징점들 중 이상치(outlier)를 제거할 수 있다. 이상치 제거를 통해 보다 강인한 제2 호모그래피를 산출할 수 있다. The augmented
이상과 같은 본 실시예에 따른 카메라 모듈(110)의 자세 추정 방법에 따르면, 카메라 모듈(110)의 자세를 보다 정확하게 추정할 수 있으며, QR 코드에 포함된 다양한 패턴들이 미검출되는 경우에도 카메라 모듈(110)의 자세를 보다 정확하게 추정할 수 있다.
According to the above-described method of estimating the posture of the
도 4는 본 발명의 일 실시예에 따른 증강 현실 구현 방법을 설명하기 위한 흐름도이다. 도 4에 도시된 증강 현실 구현 방법은 도 1 및 도 2에 도시된 증강 현실 구현 장치에 의해 실행될 수 있다. 4 is a flowchart illustrating a method for implementing an augmented reality according to an embodiment of the present invention. The method of implementing an augmented reality shown in Fig. 4 can be implemented by the augmented reality implementation apparatus shown in Figs.
증강 현실 구현 장치(100)는 QR 코드와 같은 마커(310)가 부착된 교육용 로봇(300)을 촬영하여 영상 데이터를 생성한다(410 단계). The augmented
이후, 증강 현실 구현 장치(100)는 영상 데이터로부터 마커(310)를 인식하고(420 단계), 인식된 마커(310)에 기록된 제1 메타데이터를 추출한다(430 단계). After that, the augmented
한편, 증강 현실 구현 장치(100)는 제1 메타데이터를 이용하여 콘텐츠 서버(200)에 접속하고 제2 메타데이터를 요청한 후(440 단계), 콘텐츠 서버(200)로부터 제2 메타데이터를 수신한다(450 단계). Meanwhile, the augmented
증강 현실 구현 장치(100)는 제2 메타데이터에 기반하여 교육용 로봇(300)과의 상호 작용을 위한 가상 객체 및 교육 시나리오를 생성하고(460 단계), 교육 시나리오에 따라 가상 객체를 가시화한다(470 단계). 구체적으로, 제2 메타데이터를 이용하여 다양한 콘텐츠 및 미디어파일들을 획득할 수 있으며, The augmented
제2 메타데이터란 증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠를 포함하고 있으며, 이 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보를 포함할 수 있다. 또한, 제2 메타데이터는 교육용 로봇 확장 모듈, 교육용 로봇의 3차원 기하 정보, 가상 환경에서 교육용 로봇과의 상호 작용 정보, 교육 시나리오 정보 및 증강을 위한 명세 기술 정보 등을 더 포함할 수 있다. 이 콘텐츠 및 미디어파일들과, 그 외 정보들을 통해 구성 가능한 교육 시나리오 및 가상 객체를 생성할 수 있다. 또한, 이 가상 객체가 교육 시나리오에 따라 구현될 수 있도록 가시화할 수 있다. The second meta data is detailed meta data for implementing the augmented reality, and may include content, and may include storage location information of media files used to execute the content. In addition, the second metadata may further include an educational robot extension module, three-dimensional geometric information of the educational robot, interaction information with the educational robot in the virtual environment, educational scenario information, and specification technical information for the enhancement. The educational scenarios and virtual objects configurable through the contents and media files and other information can be generated. In addition, this virtual object can be visualized so that it can be implemented in accordance with a training scenario.
이후, 증강 현실 구현 장치(100)는 가상 객체의 보다 정확한 증강을 위하여 카메라 모듈(110)의 자세 및 교육용 로봇(300)의 자세를 추정한다(480 단계). 카메라 모듈(110)의 자세 및 교육용 로봇(300)의 자세는 기 설정된 시간 주기 또는 실시간으로 추정될 수 있다. Then, the augmented
증강 현실 구현 장치(100)는 카메라 모듈(110)의 자세와 교육용 로봇(300)의 자세에 따라 가상 객체를 영상 데이터 상에 적응적으로 증강하여 디스플레이 한다(490 단계). The augmented
구체적으로, 증강 현실 구현 장치(100)는 데이터 상에서 교육용 로봇(300)과 가상 객체와의 이격 거리가 기 설정된 기준값 이하인 것으로 판단되면, 교육용 로봇(300)과 가상 객체 간에 충돌 이벤트를 발생시키며, X3D(Extensible 3D)를 이용하여 충돌 이벤트를 가시화할 수 있다. Specifically, the augmented
또한, 증강 현실 구현 장치(100)는 교육용 로봇(300)과 가상 객체 간에 충돌 이벤트가 발생될 경우, 교육용 로봇(300)에 대한 제어 신호를 생성하고, 이 제어 신호를 블루투스 통신을 이용하여 교육용 로봇(300)에 전송할 수 있다. 따라서, 교육용 로봇(300)의 자세를 변경시켜 가상 객체와의 충돌을 처리할 수 있도록 할 수 있다.When a collision event occurs between the
이외에, 다른 이유로, 교육용 로봇(300)의 자세를 변경시키고자 할 경우, 사용자는 증강 현실 구현 장치(100)에 구비된 사용자 입력 수단을 조작할 수 있다. 이에 따라, 사용자 입력 수단에 의해 사용자 입력 신호가 생성되면, 이 사용자 입력 신호를 블루투스 통신을 이용하여 교육용 로봇(300)에 전송할 수 있다. In addition, for other reasons, when the attitude of the
이상과 같은 본 실시예에 따르면, 마커(310)에 기록된 제1 메타데이터를 이용하여 콘텐츠 서버(200)에 접속하고, 콘텐츠 서버(200)로부터 제2 메타데이터를 수신할 수 있어, 콘텐츠 서버(200)에서 관리되는 최신의 제2 메타데이터를 이용할 수 있다. 따라서, 별도로 컨텐츠의 관리(예를 들어, 업데이트)를 사용자가 직접 수행할 필요가 없다. 또한, 교육용 로봇(300)과 가상 객체 간의 상호 작용이 가능하도록 가상 객체를 증강함으로써, 학습자의 몰입도 및 집중력을 향상시킬 수 있다. According to the present embodiment as described above, the first metadata recorded in the
상술한 바와 같은 증강 현실 구현 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램으로 구현될 수 있고, 상기 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. The augmented reality implementation method as described above may be implemented as a program including an executable algorithm that can be executed in a computer, and the program may be stored in a non-transitory computer readable medium .
여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.
Here, the non-transitory readable recording medium is not a medium for storing data for a short time such as a register, a cache, a memory, etc., but means a medium that semi-permanently stores data and can be read by a device. Specifically, the above-described programs can be stored in non-volatile readable recording media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
도 5 내지 도 7은 본 발명의 다양한 실시예에 따른 증강 현실 구현 예를 나타내는 도면으로, 교육용 로봇과 가상 객체 간의 상호 작용을 이용한 증강 현실 구현 형태를 나타내는 것이다. 5 to 7 are views showing an embodiment of an augmented reality according to various embodiments of the present invention, illustrating an augmented reality implementation mode using an interaction between a training robot and a virtual object.
도 5는 장수풍뎅이의 성장 과정에 대한 증강 현실 구현 예로, 마커(510)의 위치에 따라 장수풍뎅이의 성장 과정에 대응하는 가상 객체를 증강시키는 교육 시나리오를 구현한 것이다. 여기서, 마커(510)는 교육용 로봇(미도시)에 부착될 수 있으므로, 마커(510)의 위치는 교육용 로봇의 위치가 될 수 있다. FIG. 5 is an implementation example of an augmented reality for the growth process of a long beetle, and implements a training scenario for augmenting a virtual object corresponding to the growth process of the beetle according to the position of the
도 5를 참조하면, "알"에 해당하는 사진 및 설명이 제1 가상 객체(521), "애벌레"에 해당하는 사진 및 설명이 제2 가상 객체(522), "번데기"에 해당하는 사진 및 설명이 제3 가상 객체(523), 그리고, "성충"에 해당하는 사진 및 설명이 제4 가상 객체(524)가 될 수 있다. Referring to FIG. 5, a photograph and description corresponding to "egg " correspond to a first
또한, 교육 시나리오는 마커(510)가 제1 위치(P1)에서 인식되면 제1 가상 객체(521)를 증강시키고, 제2 위치(P2)에서 인식되면 제2 가상 객체(522)를 증강시키며, 제3 위치(P3)에서 인식되면 제3 가상 객체(523)를 증강시키고, 제4 위치(P4)에서 인식되면 제4 가장 객체(524)를 증강시키도록 하는 시나리오를 포함할 수 있다. The training scenario also augments the first
이 같은 교육 시나리오에 따라 제1 내지 제4 가상 객체(521~524)를 증강시킴으로써, 장수풍뎅이가 알, 애벌레, 번데기, 성충으로 성장하는 과정을 증강 현실 구현 장치의 디스플레이 화면(500) 상에 디스플레이 할 수 있다.
The first to fourth
도 6은 나비의 일상 생활에 대한 증강 현실 구현 예로, 교육용 로봇(610)의 위치에 따라 나비의 일상 생활에 해당하는 가상 객체를 증강시키는 교육 시나리오를 구현한 것이다. FIG. 6 is an implementation example of an augmented reality for everyday life of a butterfly, which implements a training scenario in which a virtual object corresponding to the daily life of a butterfly is augmented according to the position of the
도 6을 참조하면, 나비의 일상 생활에 해당하는 가상 객체는 "나비"에 해당하는 제1 가상 객체(621), "주변 나비"에 해당하는 제2 가상 객체(622), "제1 꽃밭"에 해당하는 제3 가상 객체(623), "제1 나무"에 해당하는 제4 가상 객체(624), "제2 나무"에 해당하는 제5 가상 객체(625), "무당벌레"에 해당하는 제6 가상 객체(626), "제2 꽃밭"에 해당하는 제7 가상 객체(627), "제3 나무"에 해당하는 제8 가상 객체(628) 등이 있을 수 있다. 6, a virtual object corresponding to the everyday life of a butterfly includes a first
또한, 교육 시나리오는 "나비"에 해당하는 제1 가상 객체(621)를 교육용 로봇(610)에 매칭하여 증강시키고, 제2 내지 제8 가상 객체(622~628)를 정해진 위치에 증강시키며, 교육용 로봇(610)이 제2 내지 제8 가상 객체(622~628) 중 적어도 어느 하나에 근접하면 제1 가상 객체(621)가 어떻게 반응 또는 행동하는지를 증강시키는 시나리오가 될 수 있다. In addition, the training scenario may include a first
부가적으로, 교육 시나리오는 시각적인 가상 객체 외에, 청각적인 가상 객체를 증강시키는 시나리오를 더 포함할 수도 있다. 예를 들어, 교육용 로봇(610)이 "제1 꽃밭"에 해당하는 제3 가상 객체(623)으로 이동할 경우, 날아가는 소리와 함께 꿀을 빨아 먹는 등의 청각적인 가상 객체를 증강시키도록 하는 시나리오를 더 포함할 수도 있다.Additionally, the training scenario may further include scenarios that augment auditory virtual objects in addition to visual virtual objects. For example, when the
이 같은 교육 시나리오에 따라 제1 내지 제8 가상 객체(621~628)를 증강시킴으로써, 증강 현실 구현 장치의 디스플레이 화면(600) 상에 나비의 일상 생활을 디스플레이 할 수 있다.
By enhancing the first to eighth
도 7은 나비의 일상 생활에 대한 증강 현실 구현 예로, 교육용 로봇(710)과 가상 객체 간의 충돌 이벤트 발생을 구현한 것이다. 7 is an implementation example of an augmented reality for everyday life of a butterfly, which implements the occurrence of a collision event between the
나비의 일상 생활에 해당하는 가상 객체는 "주변 나비"에 해당하는 제1 가상 객체(721), "제1 나무"에 해당하는 제2 가상 객체(722), "무당벌레"에 해당하는 제3 가상 객체(723), "제2 나무"에 해당하는 제4 가상 객체(724) 등이 있을 수 있다. The virtual object corresponding to the everyday life of the butterfly is composed of a first
도 7을 참조하면, 나비의 일상 생활과 관련된 교육 시나리오는 도 6과 유사할 수 있다. 즉, 교육 시나리오는 "나비"에 해당하는 가상 객체는 교육용 로봇(710)에 매칭하여 증강시키고, 제1 내지 제4 가상 객체(721~724)를 정해진 위치에 증강시키며, 교육용 로봇(710)이 제1 내지 제4 가상 객체(721~724) 중 적어도 어느 하나에 근접하면 교육용 로봇(710)에 증강된 "나비"가 어떻게 반응 또는 행동하는지를 증강시키는 시나리오가 될 수 있다. Referring to Fig. 7, the educational scenarios related to the everyday life of the butterfly can be similar to Fig. That is, in the training scenario, the virtual object corresponding to the "butterfly " is augmented to match the
이 같은 교육 시나리오에 따라 제1 내지 제4 가상 객체(721~724)를 증강시켜 나비의 일상 생활을 디스플레이하는 중에, 교육용 로봇(710)과 제1 내지 제4 가상 객체(721~724) 간에 충돌 이벤트(730)가 발생될 수 있다. During the display of the everyday life of the butterfly by enhancing the first to fourth
예를 들어, 증강 현실 구현 장치의 디스플레이 화면(700) 상에 교육용 로봇(710)과 제1 내지 제4 가상 객체(721~724)와의 이격 거리를 산출할 수 있다. 이 중 교육용 로봇(710)과 제3 가상 객체(723) 간의 이격 거리가 기 설정된 기준값 이하인 경우, 충돌 이벤트(730)가 발생될 수 있다. 이 경우, 충돌 이벤트(730)는 X3D(Extensible 3D)를 이용하여 가시화될 수 있다. For example, the distance between the
이 같이, 충돌 이벤트(730)가 발생될 경우, 증강 현실 구현 장치는 충돌 이벤트(730)를 처리하기 위하여 교육용 로봇(710)에 대한 제어 신호를 생성하고, 이 제어 신호를 교육용 로봇(710)에 전송할 수 있다. When a
또는, 충돌 이벤트(730)가 발생될 경우, 증강 현실 구현 장치는 교육용 로봇(710)의 동작을 제어하기 위한 사용자 입력 신호를 입력받을 수 있으며, 이 사용자 입력 신호를 교육용 로봇(710)에 전송할 수 있다. Alternatively, when a
따라서, 교육용 로봇(710)은 제어 신호 또는 사용자 입력 신호에 따라 제3 가상 객체(723)와의 이격 거리를 기 설정된 기준값 이상이 되도록 이동함으로써, 충돌 이벤트(730)를 처리할 수 있다. Accordingly, the
한편, 도면을 통해 도시하고 있지는 않으나, 교육용 로봇(710)은 일반적인 상황에서는 증강 현실 구현 장치에서 전송하는 사용자 입력 신호에 따라 동작이 제어될 수 있다. 그러나, 교육용 로봇(710)이 사용자 입력 신호에 따라 제어되는 동안 기 설정된 특정 영역에 교육용 로봇(710)이 위치할 경우, 증강 현실 구현 장치는 사용자 입력 신호에 따른 제어보다, 증강 현실 구현 장치 자체의 자동 제어를 우선으로 구현할 수 있다. 이 경우, 증강 현실 구현 장치는 교육용 로봇(710)의 자동 제어를 위한 이벤트 정보를 독출하여 교육용 로봇(710)에 전송할 수 있다. Meanwhile, although not shown in the drawings, the
예를 들어, 도 7에 도시된 바와 같이, 기 설정된 제1 영역(a)으로 교육용 로봇(710)이 이동할 경우, 증강 현실 구현 장치는 교육용 로봇(710)을 제1 영역(a) 밖으로 이동시키기 위한 이벤트 정보를 교육용 로봇(710)에 전송함으로써, 교육용 로봇(710)을 자체적으로 자동 제어할 수 있다. 7, when the
교육용 로봇(710)의 기 설정된 영역에 따른 이벤트 정보는 미리 설정되어 증강 현실 구현 장치에 저장될 수 있으며, 교육용 로봇(710)의 위치를 감지함에 따라 이벤트 정보가 추출될 수 있다. Event information according to a predetermined area of the
이상과 같은 본 발명에 따른 증강 현실 구현 장치는 교육용 로봇(710)의 이동에 따라 가상 객체를 적응적으로 증강하고, 교육용 로봇(710)과 가상 객체 간의 상호 작용을 구현할 수 있다.
The apparatus for realizing an augmented reality according to the present invention can adaptively increase a virtual object according to the movement of the
이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.
110: 카메라 모듈 120: 메타데이터 추출부
130: 송수신부 140: 생성부
150: 제1 추정부 160: 제2 추정부
170: 디스플레이부 180: 블루투스 통신부
190: 제어부
110: camera module 120: metadata extraction unit
130: Transmitting / receiving unit 140:
150: first estimating unit 160: second estimating unit
170: display unit 180: Bluetooth communication unit
190:
Claims (17)
마커가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성하는 카메라 모듈;
상기 영상 데이터로부터 상기 마커를 인식하고, 상기 인식된 마커에 기록된 제1 메타데이터를 추출하는 메타데이터 추출부;
상기 제1 메타데이터에 대응되는 제2 메타 데이터를 콘텐츠 서버로부터 수신하고, 상기 수신된 제2 메타데이터에 기반하여 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 생성부; 및
상기 생성된 교육 시나리오에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 제어부;를 포함하는 증강 현실 구현 장치. An apparatus for realizing an augmented reality for interaction with an educational robot,
A camera module for photographing an educational robot with a marker and generating image data;
A metadata extracting unit that recognizes the marker from the image data and extracts first metadata recorded in the recognized marker;
Generating from the content server second metadata corresponding to the first metadata and generating at least one virtual object and an educational scenario for interaction with the educational robot based on the received second metadata, part; And
And a controller for enhancing the at least one virtual object to the image data according to the generated training scenario.
상기 영상 데이터로부터 마커를 검출하여 상기 카메라 모듈의 자세를 추정하는 제1 추정부;
상기 영상 데이터로부터 상기 교육용 로봇을 검출하여 상기 교육용 로봇의 자세를 추정하는 제2 추정부; 및
디스플레이부;를 더 포함하고,
상기 제어부는,
상기 카메라 모듈의 자세와 상기 교육용 로봇의 자세를 추정하도록 상기 제1 추정부 및 상기 제2 추정부를 제어하고, 상기 추정된 카메라 모듈의 자세와 상기 추정된 교육용 로봇의 자세에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터 상에 적응적으로 증강시켜 상기 디스플레이부를 통해 디스플레이하는 것을 특징으로 하는 증강 현실 구현 장치. The method according to claim 1,
A first estimator for detecting a marker from the image data and estimating a posture of the camera module;
A second estimator for detecting the educational robot from the image data and estimating a posture of the educational robot; And
And a display unit,
Wherein,
Wherein the control unit controls the first estimating unit and the second estimating unit to estimate the attitude of the camera module and the attitude of the educational robot and calculates at least one of the at least one virtual camera and the at least one virtual camera based on the estimated attitude of the camera module and the estimated attitude of the educational robot. Wherein the object is adaptively enhanced on the image data and displayed through the display unit.
상기 제어부는,
상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, 상기 충돌 이벤트를 처리하기 위한 제어 신호를 생성하여 상기 교육용 로봇에 전송하는 것을 특징으로 하는 증강 현실 구현 장치.The method according to claim 1,
Wherein,
And generates a control signal for processing the collision event and transmits the control signal to the educational robot when a collision event occurs between the educational robot and the virtual object.
상기 제어부는,
상기 영상 데이터 상에 상기 가상 객체를 증강한 후, 상기 영상 데이터 상에서 상기 교육용 로봇과 상기 가상 객체와의 이격 거리를 산출하고, 상기 이격 거리가 기 설정된 기준값 이하인 경우, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트를 발생시키는 것을 특징으로 하는 증강 현식 구현 장치.The method of claim 3,
Wherein,
A distance between the educational robot and the virtual object is calculated on the image data after the virtual object is augmented on the image data, and when the distance is less than a preset reference value, And generates a collision event.
상기 제어부는,
상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, X3D(Extensible 3D)를 이용하여 상기 충돌 이벤트를 가시화하는 것을 특징으로 하는 증강 현실 구현 장치.The method of claim 3,
Wherein,
Wherein when the collision event occurs between the training robot and the virtual object, the collision event is visualized using X3D (Extensible 3D).
상기 교육용 로봇과 블루투스 통신하는 블루투스 통신부; 및
상기 콘텐츠 서버에 접속하여 상기 제2 메타 데이터를 수신하는 송수신부;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 장치. The method according to claim 1,
A Bluetooth communication unit for Bluetooth communication with the educational robot; And
And a transmission / reception unit connected to the content server and receiving the second meta data.
상기 제어부는,
상기 교육용 로봇의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 상기 사용자 입력 신호를 상기 교육용 로봇에 전송하여 상기 교육용 로봇을 제어하는 것을 특징으로 하는 증강 현실 구현 장치. The method according to claim 1,
Wherein,
Wherein the training robot is controlled by transmitting the user input signal to the training robot when a user input signal for controlling the operation of the training robot is inputted.
상기 제어부는,
상기 사용자 입력 신호에 따라 상기 교육용 로봇이 제어되는 동안 기 설정된 특정 영역에 상기 교육용 로봇이 위치할 경우, 상기 교육용 로봇을 제어하기 위한 이벤트 정보를 상기 교육용 로봇에 전송하는 것을 특징으로 하는 증강 현실 구현 장치. 8. The method of claim 7,
Wherein,
And transmits the event information for controlling the educational robot to the educational robot when the educational robot is positioned in a predetermined area while the educational robot is controlled according to the user input signal. .
상기 제1 메타데이터는,
상기 제2 메타데이터의 저장 위치 정보를 포함하는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터이고,
상기 제2 메타데이터는,
증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠, 상기 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 증강 현실 구현 장치. The method according to claim 1,
Wherein the first metadata includes:
Content metadata including content-server information and content-related information including storage location information of the second metadata,
Wherein the second metadata includes:
A detailed description of the contents of the metadata, storage location information of media files used to execute the contents, information about the educational robot extension module, three-dimensional geometric information of the educational robot, The interaction information, the training scenario information, and the specification description information for the enhancement.
상기 마커는 QR 코드이고,
상기 QR 코드는,
상기 제1 메타데이터가 기록된 데이터 영역, 위치 검출 패턴, 방향 검출 패턴 및 상기 QR 코드의 외곽을 따라 형성된 사각형 패턴을 포함하는 것을 특징으로 하는 증강 현실 구현 장치.The method according to claim 1,
The marker is a QR code,
The QR code includes:
A data pattern in which the first metadata is recorded, a position detection pattern, a direction detection pattern, and a rectangular pattern formed along an outer periphery of the QR code.
카메라 모듈을 통해 마커가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성하는 단계;
상기 영상 데이터로부터 상기 마커를 인식하고 상기 인식된 마커에 기록된 제1 메타데이터를 추출하는 단계;
상기 제1 메타데이터에 대응되는 제2 메타 데이터를 콘텐츠 서버로부터 수신하는 단계;
상기 수신된 제2 메타데이터에 기반하여 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 단계; 및
상기 생성된 교육 시나리오에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 단계;를 포함하는 증강 현실 구현 방법.A method for implementing an augmented reality for interaction with an educational robot,
Capturing an educational robot having a marker attached thereto through a camera module to generate image data;
Recognizing the marker from the image data and extracting first metadata recorded in the recognized marker;
Receiving second metadata corresponding to the first metadata from a content server;
Generating at least one virtual object and a training scenario for interaction with the educational robot based on the received second metadata; And
And augmenting the at least one virtual object to the image data according to the generated training scenario.
상기 영상 데이터로부터 마커를 검출하여 상기 카메라 모듈의 자세를 추정하는 단계; 및
상기 영상 데이터로부터 상기 교육용 로봇을 검출하여 상기 교육용 로봇의 자세를 추정하는 단계;를 더 포함하고,
상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 단계는,
상기 추정된 카메라 모듈의 자세와 상기 추정된 교육용 로봇의 자세에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터 상에 적응적으로 증강시켜 디스플레이하는 것을 특징으로 하는 증강 현실 구현 방법. 12. The method of claim 11,
Detecting a marker from the image data and estimating a posture of the camera module; And
Further comprising the step of estimating a posture of the educational robot by detecting the educational robot from the image data,
Wherein the step of enhancing the at least one virtual object to the image data comprises:
Wherein the at least one virtual object is adaptively enhanced and displayed on the image data according to the estimated camera module posture and the estimated posture of the educational robot.
상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, 상기 충돌 이벤트를 처리하기 위한 제어 신호를 생성하여 상기 교육용 로봇에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 방법.12. The method of claim 11,
Further comprising: generating a control signal for processing the collision event when the collision event occurs between the training robot and the virtual object, and transmitting the control signal to the training robot.
상기 교육용 로봇에 대한 제어 신호를 생성하여 상기 교육용 로봇에 전송하는 단계는,
상기 영상 데이터 상에 상기 가상 객체를 증강한 후, 상기 영상 데이터 상에서 상기 교육용 로봇과 상기 가상 객체와의 이격 거리를 산출하는 단계;
상기 이격 거리가 기 설정된 기준값 이하인 경우, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트를 발생시키는 단계; 및
X3D(Extensible 3D)를 이용하여 상기 충돌 이벤트를 가시화하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 방법.14. The method of claim 13,
Generating a control signal for the education robot and transmitting the control signal to the education robot,
Augmenting the virtual object on the image data, and calculating a distance between the educational robot and the virtual object on the image data;
Generating a collision event between the educational robot and the virtual object when the distance is less than a preset reference value; And
Further comprising: visualizing the collision event using X3D (Extensible 3D).
상기 교육용 로봇의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 상기 교육용 로봇을 제어하도록 상기 사용자 입력 신호를 상기 교육용 로봇에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 방법.12. The method of claim 11,
And transmitting the user input signal to the educational robot to control the educational robot when a user input signal for controlling the operation of the educational robot is inputted.
상기 사용자 입력 신호에 따라 상기 교육용 로봇이 제어되는 동안 기 설정된 특정 영역에 상기 교육용 로봇이 위치할 경우, 상기 교육용 로봇을 제어하기 위한 이벤트 정보를 상기 교육용 로봇에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 방법.16. The method of claim 15,
And transmitting event information for controlling the educational robot to the educational robot when the educational robot is positioned in a predetermined area while the educational robot is controlled according to the user input signal Augmented reality.
상기 제1 메타데이터는,
상기 제2 메타데이터의 저장 위치 정보를 포함하는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터이고,
상기 제2 메타데이터는,
증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠, 상기 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보, 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 증강 현실 구현 방법.
12. The method of claim 11,
Wherein the first metadata includes:
Content metadata including content-server information and content-related information including storage location information of the second metadata,
Wherein the second metadata includes:
A detailed description of the contents of the metadata, storage location information of media files used to execute the contents, information about the educational robot extension module, three-dimensional geometric information of the educational robot, The interaction information, the training scenario information, and the specification description information for the enhancement.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130060003A KR102069366B1 (en) | 2013-05-27 | 2013-05-27 | Augmented reality implementation apparatus and method for interacting with robot for education |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130060003A KR102069366B1 (en) | 2013-05-27 | 2013-05-27 | Augmented reality implementation apparatus and method for interacting with robot for education |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140139394A true KR20140139394A (en) | 2014-12-05 |
KR102069366B1 KR102069366B1 (en) | 2020-01-23 |
Family
ID=52459421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130060003A KR102069366B1 (en) | 2013-05-27 | 2013-05-27 | Augmented reality implementation apparatus and method for interacting with robot for education |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102069366B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017069396A1 (en) * | 2015-10-23 | 2017-04-27 | 오철환 | Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects |
KR20200029208A (en) * | 2018-09-10 | 2020-03-18 | 경북대학교 산학협력단 | Projection based mobile robot control system and method using code block |
KR20200041384A (en) * | 2017-09-08 | 2020-04-21 | 나이앤틱, 인크. | Collision detection, estimation and avoidance |
KR20200041084A (en) | 2018-10-11 | 2020-04-21 | 김은규 | A mathematical figure education system using augmented reality |
KR20200071407A (en) * | 2018-12-11 | 2020-06-19 | 최재영 | Method for providing augmented reality contents using play item and server using the same |
KR102497558B1 (en) * | 2022-10-13 | 2023-02-08 | 주식회사 에이아이컨트롤 | Method, device and system for educating fourth industrial technology using educational subsidiary materials |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110023227A (en) | 2009-08-31 | 2011-03-08 | 가톨릭대학교 산학협력단 | Robot game system relating virtual space to real space |
KR20120079918A (en) | 2011-01-06 | 2012-07-16 | (주)비상교과서 | Learning services providing method and system |
KR101239284B1 (en) | 2011-05-31 | 2013-03-06 | 삼성에스디에스 주식회사 | Control terminal and server for managing target devices using Augmented Reality Contents |
-
2013
- 2013-05-27 KR KR1020130060003A patent/KR102069366B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110023227A (en) | 2009-08-31 | 2011-03-08 | 가톨릭대학교 산학협력단 | Robot game system relating virtual space to real space |
KR20120079918A (en) | 2011-01-06 | 2012-07-16 | (주)비상교과서 | Learning services providing method and system |
KR101239284B1 (en) | 2011-05-31 | 2013-03-06 | 삼성에스디에스 주식회사 | Control terminal and server for managing target devices using Augmented Reality Contents |
Non-Patent Citations (3)
Title |
---|
증강현실 장난감. 네이버 블로그, [online], 2011.10.12., [2019.03.13. 검색], 인터넷 https://blog.naver.com/creators_sk/100140448165* * |
증강현실 장난감. 네이버 블로그, [online], 2011.10.12., 인터넷 https://blog.naver.com/creators_sk/100140448165 |
최윤석. 호모그래피기반의 카메라 추적기술을 이용한 텔레프레즌스 시스템. 중앙대학교 첨단영상대학원 석사학위논문. 2012년. * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017069396A1 (en) * | 2015-10-23 | 2017-04-27 | 오철환 | Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects |
US10532271B2 (en) | 2015-10-23 | 2020-01-14 | Chol Whan OH | Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects |
KR20200041384A (en) * | 2017-09-08 | 2020-04-21 | 나이앤틱, 인크. | Collision detection, estimation and avoidance |
KR20200029208A (en) * | 2018-09-10 | 2020-03-18 | 경북대학교 산학협력단 | Projection based mobile robot control system and method using code block |
KR20200041084A (en) | 2018-10-11 | 2020-04-21 | 김은규 | A mathematical figure education system using augmented reality |
KR20200071407A (en) * | 2018-12-11 | 2020-06-19 | 최재영 | Method for providing augmented reality contents using play item and server using the same |
KR102497558B1 (en) * | 2022-10-13 | 2023-02-08 | 주식회사 에이아이컨트롤 | Method, device and system for educating fourth industrial technology using educational subsidiary materials |
Also Published As
Publication number | Publication date |
---|---|
KR102069366B1 (en) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11222471B2 (en) | Implementing three-dimensional augmented reality in smart glasses based on two-dimensional data | |
US9224237B2 (en) | Simulating three-dimensional views using planes of content | |
US11842514B1 (en) | Determining a pose of an object from rgb-d images | |
US9437038B1 (en) | Simulating three-dimensional views using depth relationships among planes of content | |
US9591295B2 (en) | Approaches for simulating three-dimensional views | |
US9904664B2 (en) | Apparatus and method providing augmented reality contents based on web information structure | |
EP4307233A1 (en) | Data processing method and apparatus, and electronic device and computer-readable storage medium | |
JP6458371B2 (en) | Method for obtaining texture data for a three-dimensional model, portable electronic device, and program | |
CN109084746A (en) | Monocular mode for the autonomous platform guidance system with aiding sensors | |
KR102069366B1 (en) | Augmented reality implementation apparatus and method for interacting with robot for education | |
CN109887003A (en) | A kind of method and apparatus initialized for carrying out three-dimensional tracking | |
CN108062776A (en) | Camera Attitude Tracking method and apparatus | |
CN107430686A (en) | Mass-rent for the zone profiles of positioning of mobile equipment creates and renewal | |
CN104574267A (en) | Guiding method and information processing apparatus | |
JP7548835B2 (en) | Augmented reality system using visual object recognition and stored geometry to create and render virtual objects - Patents.com | |
US20160210761A1 (en) | 3d reconstruction | |
Barandiaran et al. | Real-time optical markerless tracking for augmented reality applications | |
US11373329B2 (en) | Method of generating 3-dimensional model data | |
CN112733641B (en) | Object size measuring method, device, equipment and storage medium | |
Huang et al. | Network algorithm real-time depth image 3D human recognition for augmented reality | |
CN109858402B (en) | Image detection method, device, terminal and storage medium | |
CN109710054B (en) | Virtual object presenting method and device for head-mounted display equipment | |
KR20100006736A (en) | System and apparatus for implementing augmented reality, and method of implementing augmented reality using the said system or the said apparatus | |
KR101909994B1 (en) | Method for providing 3d animating ar contents service using nano unit block | |
McClean | An Augmented Reality System for Urban Environments using a Planar Building Fa cade Model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |