KR101842210B1 - Contents providing method through eye tracking and apparatus thereof - Google Patents
Contents providing method through eye tracking and apparatus thereof Download PDFInfo
- Publication number
- KR101842210B1 KR101842210B1 KR1020170027354A KR20170027354A KR101842210B1 KR 101842210 B1 KR101842210 B1 KR 101842210B1 KR 1020170027354 A KR1020170027354 A KR 1020170027354A KR 20170027354 A KR20170027354 A KR 20170027354A KR 101842210 B1 KR101842210 B1 KR 101842210B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- interest
- wearable device
- roi
- designated
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 7
- 230000003213 activating effect Effects 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H04N5/23219—
-
- H04N5/23238—
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 시선 추적 기반 콘텐츠 제공 방법 및 장치에 관한 것으로, 보다 상세하게는 웨어러블 디바이스의 센서로부터 사용자의 시선을 추적하여 관심 영역을 획득하고, 획득한 관심 영역에 대한 콘텐츠를 제공하는 방법 및 장치에 관한 것이다.More particularly, the present invention relates to a method and apparatus for acquiring a region of interest by tracking a user's gaze from a sensor of a wearable device and providing content for the region of interest .
시선 추적 기술은 동공의 움직임 및 크기 변화 분석을 통해 현대인이 생활하는 데 더욱 편리하도록 활용되고 있다. 시선은 오감 중에서 가장 민감하고 반응이 빠른 감각기관이기 때문에 정보기기와의 상호작용하는데 가장 효과적인 수단으로써, 자동차, 의료, 시장조사 및 사용성 분석, 게임, 운동 등 다양한 분야에서 활용될 뿐 아니라 타켓 대상별로 사용자 분석을 통해 정보 전달 효과가 높은 콘텐츠 제공도 가능하다.Eye tracking technology is being used to make life easier for modern people by analyzing pupil movement and size change. Since gaze is the most sensitive and responsive sensory organ of the five senses, it is the most effective means of interacting with information devices. It is used not only in various fields such as automobile, medical, market research and usability analysis, game, exercise, It is also possible to provide contents with high information transmission effect through user analysis.
본 발명 기술에 대한 배경기술은 대한민국 공개특허공보 제10-2013-0043366호에 게시된 바 있다.Background Art of the present invention is disclosed in Korean Patent Laid-Open Publication No. 10-2013-0043366.
본 발명은 시선 추적 기술을 기반으로 웨어러블 디바이스에 구비된 카메라를 자동 제어하여 사용자의 관심 영역을 획득하고, 획득한 관심 영역에 대한 콘텐츠를 제공하는 것이다. The present invention automatically acquires a region of interest of a user by automatically controlling a camera provided in a wearable device based on a line-of-sight tracking technology, and provides content for the region of interest.
본 발명의 일 측면에 따르면, 단일 웨어러블 디바이스를 통해 시선 추적 기반 콘텐츠 제공 방법에 있어서, 웨어러블 디바이스로부터 사용자의 위치, 움직임 방향 및 시선 방향을 추적하는 단계, 상기 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하는 단계, 상기 이동한 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재 추적하는 단계, 상기 시선 방향이 정면에서 상기 지정된 관심 영역으로 이동하면, 상기 웨어러블 디바이스의 카메라를 연속 촬영 모드로 활성화하는 단계, 상기 지정된 관심 영역에서 상기 시선 방향이 정면을 향할 때까지 상기 사용자의 시야 범위를 연속 촬영하고, 연속 촬영된 이미지를 콘텐츠 제공 모듈로 전송하는 단계, 상기 콘텐츠 제공 모듈이 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 웨어러블 디바이스와 연동된 단말기로 전송하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of providing a line-tracking-based content through a single wearable device, the method comprising: tracking a user's position, movement direction and gaze direction from a wearable device; Or moving to the right, acquiring a field of view to which the user is to gaze; designating the field of view as an area of interest when the moved line of sight is maintained for a predetermined period of time; The method comprising the steps of: retracing a viewing direction; activating the camera of the wearable device in a continuous shooting mode when the viewing direction moves from the front to the designated region of interest, until the viewing direction in the designated region of interest faces the front Continuously photographing the visual range of the user, And transmitting the generated panoramic image to a terminal associated with the wearable device, the method comprising the steps of: transmitting the photographed image to a content providing module; generating a panoramic image by combining the continuously shot images with the content providing module; .
본 발명의 일 측면에 따르면, 다중 웨어러블 디바이스를 통해 복수의 사용자의 시선 추적 기반 콘텐츠 제공 방법에 있어서, 제1 웨어러블 디바이스와 제2 웨어러블 디바이스 각각으로부터 사용자의 위치, 움직임 방향 및 시선 방향을 추적하는 단계, 상기 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하는 단계, 상기 이동한 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 상기 제1 관심 영역과 제2 관심 영역으로 지정하고, 상기 제1 관심 영역과 제2 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적하는 단계, 상기 시선 방향이 정면에서 상기 제1 관심 영역과 제2 관심 영역으로 이동하지 않으면, 상기 제1 관심 영역과 제2 관심 영역으로 콘텐츠 제공 모듈로 전송하는 단계, 상기 콘텐츠 제공 모듈이 상기 제1 관심 영역과 제2 관심 영역이 지정된 시점에서 위치 정보 및 시선 방향이 유사하면, 상기 제1 관심 영역과 제2 관심 영역을 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 제1 웨어러블 디바이스 및 제2 웨어러블 디바이스와 각각 연동된 제1 단말기 및 제2 단말기로 전송하는 단계를 포함하는 콘텐츠 제공 방법을 포함할 수 있다.According to an aspect of the present invention, there is provided a method of providing a content of a plurality of users' eyesight tracking through a multiple wearable device, the method comprising: tracking a position, a movement direction and a gaze direction of a user from each of a first wearable device and a second wearable device, Acquiring a field of view in which the user gazes when the visual direction moves to the left or right with reference to the direction of movement; if the moved visual direction is maintained for a predetermined time, Region and a second region of interest, and retraining the direction of the user's gaze at a point in time when the first region of interest and the second region of interest are designated, wherein the gaze direction is the first region of interest and the second region of interest If the content is not moved to the area, Wherein the content providing module generates a panoramic image by combining the first ROI and the second ROI if the first ROI and the second ROI are similar at a point in time when the location information and the viewing direction are similar, And transmitting the generated panoramic image to the first terminal and the second terminal respectively associated with the first wearable device and the second wearable device.
본 발명의 일 측면에 따르면, 콘텐츠 제공 장치는 적어도 하나의 웨어러블 디바이스 또는 단말기와 네트워크 연결을 수행하는 통신부, 사용자의 위치 정보를 획득하는 위치 정보 획득부, 사용자의 움직임 방향 및 시선 방향을 추적하는 센서부, 상기 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하고, 상기 이동한 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적하여, 상기 시선 방향이 정면에서 상기 지정된 관심 영역으로 이동하면, 카메라의 연속 촬영 모드를 활성화하는 제어부, 상기 지정된 관심 영역에서 상기 시선 방향이 정면을 향할 때까지 상기 사용자의 시야 범위를 연속 촬영하고, 연속 촬영된 이미지를 메모리부로 저장하는 촬영부, 상기 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하여 상기 통신부와 연동된 웨어러블 디바이스 또는 단말기로 전송하는 영상 생성부를 포함할 수 있다.According to an aspect of the present invention, a content providing apparatus includes a communication unit that performs a network connection with at least one wearable device or a terminal, a position information obtaining unit that obtains position information of the user, a sensor that tracks a movement direction and a gaze direction of the user, A visual field range in which the user gazes is obtained when the visual direction moves to the left or right relative to the movement direction, and when the moved visual direction is maintained for a predetermined time, the visual range is designated as a region of interest A control unit for activating a continuous shooting mode of the camera when the gaze direction of the user is retraced at a point in time when the gaze region is moved and the gaze direction moves from the front to the designated gaze region, Of the user ' s viewing range until the < RTI ID = 0.0 > direction < / RTI > It may include shooting and continuous shooting an image taking portion for storing parts of the memory, to generate a panoramic image by combining the images continuously photographed image generation unit for transmitting to the terminal or a wearable device, in conjunction with the communication unit.
본 발명은 야외 트레킹 또는 두 손이 자유롭지 못한 상황에서도 별도의 조작없이 시선 추적을 통해서 시선이 머무는 곳의 콘텐츠 제공할 수 있다.The present invention can provide the contents of the place where the gaze stays through the gaze tracking without any special operation even when the outdoor trekking or both hands are not free.
또한, 본 발명은 다중 웨어러블 디바이스의 연동을 통해 복수의 사용자가 동일하게 지정한 관심 영역을 기반으로 해당 지역에 관심을 가진 사람들의 명 수, 시간의 통계 데이터를 추출할 수 있고, 이를 통해 해당 지역에 대한 관련 콘텐츠를 생산 또는 갱신할 수 있다.Further, the present invention can extract statistical data on the number of persons and time of people who are interested in the area based on the same interest area designated by a plurality of users through interlocking of multiple wearable devices, The related contents can be produced or updated.
도 1은 본 발명의 일 실시예에 따른 웨어러블 디바이스의 구성을 개략적으로 설명하기 위한 예시도.
도 2 및 도 3은 본 발명의 일 실시예에 따라 단일 웨어러블 디바이스를 통해 개인 주행시 사용자의 시선 추적 기반 콘텐츠 제공 방법을 설명하기 위한 흐름도.
도 4 및 도 5는 본 발명의 일 실시예에 따라 다중 웨어러블 디바이스를 통해 단체 주행 시 복수의 사용자의 시선 추적 기반 콘텐츠 제공 방법을 설명하기 위한 흐름도.
도 6은 본 발명의 일 실시예에 따른 콘텐츠 제공 장치를 설명하기 위한 블록도.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an exemplary view schematically illustrating a configuration of a wearable device according to an embodiment of the present invention; FIG.
FIG. 2 and FIG. 3 are flowcharts for explaining a method for providing a user's gaze-tracking-based content in a personal running through a single wearable device according to an embodiment of the present invention.
FIG. 4 and FIG. 5 are flowcharts for explaining a method of providing gaze-tracking-based content for a plurality of users during a group travel through a multi-wearable device according to an embodiment of the present invention;
6 is a block diagram for explaining a content providing apparatus according to an embodiment of the present invention;
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
도 1은 본 발명의 일 실시예에 따른 웨어러블 장치의 구성을 개략적으로 설명하기 위한 예시도이다. FIG. 1 is an exemplary view schematically illustrating a configuration of a wearable device according to an embodiment of the present invention.
웨어러블 장치는, 스마트글라스, HMD 또는 시쓰루 디스플레이(see through display) 등의 다양한 용어로 일컬어질 수 있다.A wearable device may be referred to as various terms such as a smart glass, an HMD or a see through display.
웨어러블 장치는, 사용자의 머리 부위에 밀착 가능한 형태로 이루어질 수 있으며, 디스플레이를 통하여 사용자에게 다양한 정보를 제공할 수 있는 구조로 이루어질 수 있다.The wearable device may be in a form that can be closely attached to the head of the user, and may be configured to provide various information to the user through the display.
웨어러블 장치는, 카메라(120) 및 센서(160)를 포함할 수 있으며, 카메라(120) 및 센서(160)에서 생성된 촬영 이미지 및 센싱 정보를 기반으로 콘텐츠를 제공할 수 있다.The wearable device may include a
웨어러블 장치는, 사용자 인터페이스(180)를 통하여 사용자로부터 동작을 제어하는데 이용되는 입력을 수신할 수 있다. The wearable device may receive inputs that are used to control operations from the user via the
웨어러블 장치는, 콘텐츠 제공 모듈(10)을 통해 단말기 또는 적어도 하나의 타사용자의 웨어러블 디바이스와 연동되어 콘텐츠를 공유하는데 필요한 각종 구성 요소들을 포함할 수 있다. The wearable device may include various components necessary for interoperating with the wearable device of the terminal or at least one other user through the
도 2 및 도 3은 본 발명의 일 실시예에 따라 단일 웨어러블 디바이스를 통해 개인 주행시 사용자의 시선 추적 기반 콘텐츠 제공 방법을 설명하기 위한 흐름도이다. 실시 예에 따라, 도 2에 도시된 단계들 중 적어도 하나는 생략될 수 있고, 도시된 단계들의 순서는 달라질 수 있다. FIG. 2 and FIG. 3 are flowcharts for explaining a method of providing a user's gaze-tracking-based content in a personal running through a single wearable device according to an embodiment of the present invention. Depending on the embodiment, at least one of the steps shown in FIG. 2 may be omitted, and the order of the steps shown may vary.
단계 210에서, 콘텐츠 제공 장치는 단일 웨어러블 디바이스의 센서(160)를 통해 사용자의 위치, 움직임 방향 및 시선 방향을 추적한다.In step 210, the content providing device tracks the user's position, movement direction, and gaze direction through the
단계 220에서, 콘텐츠 제공 장치는 단계 210에서 추적한 시선 방향이 사용자의 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 사용자가 응시하는 시야 범위를 획득한다.In step 220, the content providing apparatus obtains a viewing range in which the user gazes when the gaze direction tracked in step 210 moves leftward or rightward with respect to the direction of the user's movement.
단계 230에서, 콘텐츠 제공 장치는 단계 220에서 이동한 시선 방향이 소정 시간 동안 유지되면, 시야 범위를 관심 영역으로 지정한다.In step 230, the content providing apparatus designates the field of view as a region of interest if the direction of the line of sight moved in Step 220 is maintained for a predetermined time.
단계 240에서, 콘텐츠 제공 장치는 관심 영역이 지정된 시점에서 사용자의 시선 방향을 소정 시간 동안 재추적한다.In step 240, the content providing apparatus retraces the user ' s gaze direction for a predetermined time at the point in time when the region of interest is specified.
단계 250에서, 콘텐츠 제공 장치는 단계 240에서 재추적한 시선 방향이 정면에서 지정된 관심 영역으로 이동하면, 카메라(120)를 연속 촬영 모드로 활성화한다. In step 250, the content providing apparatus activates the
단계 260에서, 콘텐츠 제공 장치는 단계 250에서 지정된 관심 영역에서 시선 방향이 정면을 향할 때까지 상기 사용자의 시야 범위를 연속 촬영하고, 연속 촬영된 이미지를 콘텐츠 제공 모듈(10)로 전송한다. In step 260, the content providing apparatus consecutively photographs the user's field of view until the gaze direction is directed to the front in the designated area of interest in step 250, and transmits the successively photographed image to the
단계 270에서, 콘텐츠 제공 장치는 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하여 콘텐츠 제공 장치와 연동한 단말기로 전송한다. 이때, 콘텐츠 제공 장치는 파노라마 이미지에 해당하는 지역 정보를 콘텐츠 제공 장치와 연동된 단말기로 전송한다.In step 270, the content providing apparatus combines the consecutively captured images to generate a panoramic image and transmits the panoramic image to a terminal linked to the content providing apparatus. At this time, the content providing apparatus transmits the local information corresponding to the panoramic image to the terminal interlocked with the content providing apparatus.
도 3을 참조하면, 콘텐츠 제공 장치는 도 3의 301과 같이 사용자의 움직임 방향을 기준으로 사용자의 시선 방향이 좌측 또는 우측으로 이동하면, 이동한 시선 방향에서 사용자의 시야 범위를 획득한다. 이때, 이동한 시선 방향이 소정 시간 동안 유지되면, 시야 범위를 관심 영역으로 지정한다. Referring to FIG. 3, when the user's gaze direction moves to the left or right with reference to the user's movement direction, the content providing apparatus obtains the user's view range in the moved gaze direction, as shown in 301 of FIG. At this time, if the moved line of sight is maintained for a predetermined time, the field of view is designated as a region of interest.
콘텐츠 제공 장치는 관심 영역이 지정되면, 관심 영역이 지정된 시점에서 사용자의 시선 방향을 소정 시간 동안 재추적한다. 도 3의 302와 같이 재추적한 사용자의 시선 방향이 관심 영역으로 이동하면, 도 3의 303과 같이 사용자의 시선 방향이 정면을 향할 때까지, 즉 움직임 방향과 일치할 때까지 사용자의 시야 범위를 연속 촬영한다. 최종적으로 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성할 수 있다.When the region of interest is designated, the content providing apparatus retraces the direction of the line of sight of the user for a predetermined time at a point of time when the region of interest is designated. 3, if the direction of the user's eyes retraced is moved to the region of interest, the user's viewing range is changed until the user's gaze direction is directed to the front, that is, Continuous shooting. Finally, the panoramic image can be generated by combining the continuously shot images.
도 4 및 도 5는 본 발명의 일 실시예에 따라 다중 웨어러블 디바이스를 통해 단체 주행 시 복수의 사용자의 시선 추적 기반 콘텐츠 제공 방법을 설명하기 위한 흐름도이다. 실시 예에 따라, 도 4에 도시된 단계들 중 적어도 하나는 생략될 수 있고, 도시된 단계들의 순서는 달라질 수 있다.FIG. 4 and FIG. 5 are flowcharts for explaining a method for providing a plurality of user's gaze-tracking-based contents in a group driving through a multi-wearable device according to an embodiment of the present invention. Depending on the embodiment, at least one of the steps shown in FIG. 4 may be omitted, and the order of the steps shown may vary.
도 4를 참조하여 설명하는 실시 예에서, 적어도 한 명의 타 사용자들이 소지하는 웨어러블 디바이스들과 사용자 그룹을 형성한 경우를 가정한다. 사용자 그룹의 형성은 무선 광역 네트워크를 통하여 연결된 서버와의 인증 절차를 통해서 이루어질 수 있다. 이러한 사용자 그룹의 형성은, 종래의 다양한 방법을 이용할 수 있다. In the embodiment described with reference to FIG. 4, it is assumed that wearable devices possessed by at least one other user and a user group are formed. The formation of the user group can be performed through an authentication procedure with a server connected through a wireless wide area network. The formation of such a user group can use various conventional methods.
단계 410에서, 콘텐츠 제공 장치는 제1 웨어러블 디바이스와 제2 웨어러블 디바이스 각각으로부터 사용자의 위치, 움직임 방향 및 시선 방향을 추적한다. In step 410, the content providing device tracks the user's position, movement direction, and gaze direction from each of the first wearable device and the second wearable device.
단계 420에서, 콘텐츠 제공 장치는 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 사용자가 응시하는 시야 범위를 획득한다. In step 420, the content providing apparatus obtains a viewing range in which the user gazes when the gaze direction moves leftward or rightward with respect to the movement direction.
단계 430에서, 콘텐츠 제공 장치는 이동한 시선 방향이 소정 시간 동안 유지되면, 시야 범위를 제1 관심 영역과 제2 관심 영역으로 지정한다. In step 430, the content providing apparatus designates the field of view range as the first ROI and the second ROI if the moved line of sight is maintained for a predetermined time.
단계 440에서, 콘텐츠 제공 장치는 관심 영역이 지정된 시점에서 사용자의 시선 방향을 재추적한다. In step 440, the content providing apparatus retrains the direction of the user's gaze at a point in time when the region of interest is specified.
단계 450에서, 콘텐츠 제공 장치는 시선 방향이 정면에서 제1 관심 영역과 제2 관심 영역으로 이동하지 않으면, 제1 관심 영역과 제2 관심 영역을 콘텐츠 제공 모듈로 전송한다. In step 450, the content providing device transmits the first ROI and the second ROI to the content providing module if the gaze direction does not move from the front to the first ROI and the second ROI.
단계 460에서, 콘텐츠 제공 장치는 상기 제1 관심 영역과 제2 관심 영역이 지정된 시점에서 위치 정보 및 시선 방향이 유사하면, 상기 제1 관심 영역과 제2 관심 영역을 결합하여 파노라마 이미지를 생성한다. In step 460, the content providing device generates the panoramic image by combining the first ROI and the second ROI if the first ROI and the second ROI are similar to each other at the designated time.
단계 470에서, 콘텐츠 제공 장치는 생성된 파노라마 이미지를 상기 제1 웨어러블 디바이스 및 제2 웨어러블 디바이스와 각각 연동한 제1 단말기 및 제2 단말기로 전송한다.In step 470, the content providing apparatus transmits the generated panoramic image to the first terminal and the second terminal, respectively, associated with the first wearable device and the second wearable device.
본 발명의 일 실시예에 따른 콘텐츠 제공 장치는 상기 단계 410 내지 단계 470을 수행함에 있어서, 제1 웨어러블 디바이스로부터 제1 관심 영역을 지정하는 것과, 제2 웨어러블 디바이스로부터 제2 관심 영역을 지정하는 것은 병렬로 이루어진다. 또한, 콘텐츠 제공 장치는 파노라마 이미지뿐만 아니라, 파노라마 이미지에 해당하는 위치 정보를 기반으로 해당 지역 정보를 제공할 수 있다.In performing the steps 410 to 470, the content providing apparatus according to an exemplary embodiment of the present invention may specify the first region of interest from the first wearable device and designate the second region of interest from the second wearable device In parallel. In addition, the content providing apparatus can provide the local information based on the panorama image as well as the location information corresponding to the panorama image.
상술한 바와 같이 본 발명의 일 실시 예에 따른 콘텐츠 제공 장치는 별도의 웨어러블 디바이스를 조작하지 않아도, 시선 추적을 통한 관심 영역 추출 및 저장할 수 있다. 또한, 단체 주행이 종료되면, 라이딩 경로에서 개별 사용자의 관심 영역 데이터를 취득할 수 있고, 복수의 사용자의 관심 영역 데이터를 취득할 수 있다. As described above, the content providing apparatus according to an exemplary embodiment of the present invention can extract and store a region of interest through line-of-sight tracking without operating a separate wearable device. In addition, when the group driving is finished, the ROI data of the individual users can be acquired in the riding route, and the ROI data of a plurality of users can be acquired.
도 5를 참조하면, 콘텐츠 제공 장치는 복수의 사용자의 시선 추적을 기반으로 도 5의 501과 같이 제1 사용자의 움직임 방향을 기준으로 시선 방향이 좌측 또는 우측으로 이동하면, 이동한 시선 방향에서 사용자의 시야 범위를 획득한다. 이때, 이동한 시선 방향이 소정 시간 동안 유지되면, 시야 범위를 관심 영역으로 지정한다. 이와 동일한 방법으로 도 5의 502와 같이 제2 사용자의 시야 범위, 도 5의 503과 같이 제3 사용자의 시야 범위를 획득할 수 있다. 상술한 도 5의 501 내지 503의 시야 범위는 동일한 사용자가 반복적으로 응시한 영역은 아니지만, 복수의 사용자가 유사한 시점에서 응시한 영역이므로, 해당 영역을 관심 영역으로 지정하여 파노라마 이미지를 생성한다. 생성한 파노라마 이미지는 위치 정보를 기반으로 해당 지역 정보가 존재할 경우, 해당 지역 정보를 사용자에게 제공할 수 있다. 만약 해당 지역 정보가 존재하지 않을 경우, 해당 지역의 정보를 갱신할 수 있다.Referring to FIG. 5, if the gaze direction moves to the left or the right with reference to the movement direction of the first user, as shown in 501 of FIG. 5 based on the gaze tracking of a plurality of users, Of the field of view. At this time, if the moved line of sight is maintained for a predetermined time, the field of view is designated as a region of interest. In the same manner, the field of view of the second user as shown in 502 of FIG. 5 and the field of view of the third user as shown in 503 of FIG. 5 can be obtained. The view range of 501 to 503 in FIG. 5 is not an area in which the same user repeatedly gazed but is a region in which a plurality of users gazed at a similar point of view. Therefore, a panorama image is generated by designating the region as a region of interest. The generated panoramic image can provide the local information to the user when the local information exists based on the location information. If the local information does not exist, the information of the corresponding region can be updated.
도 6은 본 발명의 일 실시예에 따른 콘텐츠 제공 장치를 설명하기 위한 블록도이다. 실시 예에 따라, 도 6에 도시된 구성 요소들 중 적어도 하나는 생략될 수 있다. 6 is a block diagram illustrating a content providing apparatus according to an embodiment of the present invention. Depending on the embodiment, at least one of the components shown in Fig. 6 may be omitted.
콘텐츠 제공 장치는, 사용자 입출력 인터페이스(610), 촬영부(620), 센서부(630), 위치 정보 획득부(640), 통신부(650), 제어부(660), 메모리부(670) 및 영상 생성부(680)를 포함하며, 이들은 버스(BUS)를 통하여 서로 연결될 수 있다. The content providing apparatus includes a user input /
사용자 입출력 인터페이스(610)는, 사용자로부터 입력을 수신하고 각종 정보들을 디스플레이할 수 있다. The user input /
촬영부(620)는, 사용자의 입력이 있거나 설정된 이벤트가 발생하는 경우 촬영을 수행하여 촬영 이미지를 생성할 수 있다. 생성된 촬영 이미지는 콘텐츠 제공 모듈(10) 또는 사용자 단말기로 제공될 수 있다. The photographing
센서부(630)는, 사용자의 움직임 방향 및 시선 방향을 추적한다. 예를 들면, 자이로센서, 가속도센서로부터 사용자의 움직임 방향 및 시선 방향을 추적할 수 있다.The
위치 정보 획득부(640)는, GPS 신호를 통해 사용자의 위치 정보를 획득한다.The location
통신부(650)는, 적어도 하나의 웨어러블 디바이스와 적어도 하나의 단말기를 네트워크를 통해 연결을 수행하고, 연결 상태에서 데이터 교환을 수행할 수 있다. The
제어부(660)는, 센서부(630) 및 위치 정보 획득부(640)로부터 사용자의 시선 방향이 사용자가 움직이는 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득한다.The
제어부(660)는, 사용자의 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적한다. The
제어부(660)는, 시선 방향이 정면에서 상기 지정된 관심 영역으로 이동하면, 카메라의 연속 촬영 모드를 활성화한다. The
제어부(660)는, 메모리부(670)에 저장된 파노라마 이미지의 위치 정보와 일치하는 지역 정보를 제공할 수 있다. The
메모리부(670)는, 제어부(660)의 제어에 따른 사용자의 관심 영역, 파노라마 이미지, 지도 데이터, 건물 및 장소에 대한 지역 정보 중 적어도 하나를 저장한다.The
영상 생성부(680)는, 촬영부(620)가 촬영한 연속 이미지를 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 메모리부(670)에 저장한다. 이때, 파노라마 이미지는 이미지가 결합되기 관심 영역으로 지정되는 시점의 위치 정보와 시간 정보를 포함한다. 상술한 파노라마 이미지는 통신부(650)를 통해 웨어러블 디바이스와 연동된 단말기로 전송할 수 있다. The
이제까지 본 발명에 대하여 그 실시 예를 중심으로 살펴보았다. 전술한 실시 예 외의 많은 실시 예들이 본 발명의 특허청구범위 내에 존재한다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. The present invention has been described above with reference to the embodiments thereof. Many embodiments other than the above-described embodiments are within the scope of the claims of the present invention. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. The disclosed embodiments should, therefore, be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
10: 콘텐츠 제공 모듈
120: 카메라
140: 영상 표시부
160: 센서
180: 사용자 인터페이스 10: Content providing module
120: camera
140:
160: Sensor
180: User interface
Claims (8)
웨어러블 디바이스로부터 사용자의 위치, 움직임 방향 및 시선 방향을 추적하는 단계;
상기 시선 방향이 상기 움직임 방향을 기준으로 상기 사용자가 응시하는 시야 범위를 획득하는 단계;
상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적하는 단계;
상기 시선 방향이 정면에서 상기 지정된 관심 영역으로 이동하면, 상기 웨어러블 디바이스의 카메라를 연속 촬영 모드로 활성화하는 단계;
상기 지정된 관심 영역에서 상기 시선 방향이 정면을 향할 때까지 상기 사용자의 시야 범위를 연속 촬영하고, 연속 촬영된 이미지를 콘텐츠 제공 모듈로 전송하는 단계; 및
상기 콘텐츠 제공 모듈이 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 웨어러블 디바이스와 연동된 단말기로 전송하는 단계를 포함하는 콘텐츠 제공 방법.
A method for providing a gaze tracking-based content through a single wearable device,
Tracking the user's position, movement direction and gaze direction from the wearable device;
Obtaining a visual range in which the gaze direction is based on the movement direction;
Designating the field of view as an area of interest and re-tracing the direction of the user's line of sight at the point of time when the area of interest is designated;
Activating the camera of the wearable device in a continuous shooting mode when the viewing direction moves from the front to the designated ROI;
Continuously photographing the user's field of view until the gaze direction is directed to the front of the designated area of interest, and transmitting the continuously photographed image to the content providing module; And
Generating a panoramic image by combining the continuously photographed images with the content providing module, and transmitting the generated panoramic image to a terminal interlocked with the wearable device.
상기 시선 방향이 상기 움직임 방향을 기준으로 상기 사용자가 응시하는 시야 범위를 획득하는 단계는,
상기 움직임 방향을 정면으로 지정하고, 사용자의 시선 방향이 정면으로부터 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하는 콘텐츠 제공 방법.
The method of claim 1,
Wherein the step of acquiring the field of view in which the gaze direction is based on the movement direction,
The moving direction is set as a front face, and when the viewing direction of the user moves from the front side to the left side or right side, the viewing range to be gazed by the user is obtained.
상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적하는 단계는
사용자의 시선 방향이 정면에서 좌측 또는 우측으로 이동 후, 소정 시간 동안 이동된 방향이 유지되면, 상기 시야 범위를 관심 영역으로 지정하는 콘텐츠 제공 방법.
The method of claim 1,
Wherein the step of designating the field of view as a region of interest and re-tracing the direction of the user's line of sight at the point of time the region of interest is designated
Wherein the visual field is designated as a region of interest if the direction of the user's gaze is moved from the front to the left or right and the direction moved for a predetermined time is maintained.
상기 콘텐츠 제공 모듈이 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 웨어러블 디바이스와 연동된 단말기로 전송하는 단계는,
관심 영역이 지정되는 시점의 위치 정보와 시간 정보를 포함하는 파노라마 이미지를 통해서 파노라마 이미지와 함께 해당 지역 정보를 상기 단말기로 전송하는 콘텐츠 제공 방법.
The method of claim 1,
Wherein the content providing module generates a panoramic image by combining the continuously photographed images and transmitting the generated panoramic image to the terminal associated with the wearable device,
And transmitting the local information together with the panoramic image to the terminal through the panoramic image including the position information and the time information at the point of time when the region of interest is designated.
제1 웨어러블 디바이스와 제2 웨어러블 디바이스 각각으로부터 사용자의 위치, 움직임 방향 및 시선 방향을 추적하는 단계;
상기 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하는 단계;
상기 이동한 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 제1 관심 영역과 제2 관심 영역으로 지정하고, 상기 제1 관심 영역과 제2 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적하는 단계;
상기 시선 방향이 정면에서 상기 제1 관심 영역과 제2 관심 영역으로 이동하지 않으면, 상기 제1 관심 영역과 제2 관심 영역을 콘텐츠 제공 모듈로 전송하는 단계; 및
상기 제1 관심 영역과 제2 관심 영역을 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 제1 웨어러블 디바이스 및 제2 웨어러블 디바이스와 각각 연동된 제1 단말기 및 제2 단말기로 전송하는 단계를 포함하는 콘텐츠 제공 방법.
A method for providing a content based on eye-tracking of a plurality of users through a multi-wearable device,
Tracking the user's position, movement direction and gaze direction from each of the first wearable device and the second wearable device;
Acquiring a field of view in which the user gazes when the gaze direction moves leftward or rightward with respect to the movement direction;
The visual range is designated as a first area of interest and a second area of interest when the moved direction of sight is maintained for a predetermined period of time and the visual direction of the user is designated at a designated time of the first area of interest and the area of interest, Tracking;
Transmitting the first ROI and the second ROI to the content providing module if the viewing direction does not move from the front to the first ROI and the second ROI; And
Generating a panoramic image by combining the first ROI and the second ROI, and transmitting the generated panoramic image to a first terminal and a second terminal interlocked with the first wearable device and the second wearable device, respectively, / RTI >
상기 제1 관심 영역과 제2 관심 영역을 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 제1 웨어러블 디바이스 및 제2 웨어러블 디바이스와 각각 연동된 제1 단말기 및 제2 단말기로 전송하는 단계는,
상기 콘텐츠 제공 모듈이 상기 제1 관심 영역과 제2 관심 영역이 지정된 시점에서 위치 정보 및 시선 방향이 유사할 경우 상기 제1 관심 영역과 제2 관심 영역을 결합하는 콘텐츠 제공 방법.
The method of claim 5,
Generating a panoramic image by combining the first ROI and the second ROI, and transmitting the generated panoramic image to a first terminal and a second terminal interlocked with the first wearable device and the second wearable device, respectively, ,
Wherein the content providing module combines the first ROI and the second ROI when the first ROI and the second ROI are similar to each other at a specified time point.
사용자의 위치 정보를 획득하는 위치 정보 획득부;
사용자의 움직임 방향 및 시선 방향을 추적하는 센서부;
상기 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하고, 상기 이동한 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재 추적하여, 상기 시선 방향이 정면에서 상기 지정된 관심 영역으로 이동하면, 카메라의 연속 촬영 모드를 활성화하는 제어부; 및
상기 지정된 관심 영역에서 상기 시선 방향이 정면을 향할 때까지 상기 사용자의 시야 범위를 연속 촬영하고, 연속 촬영된 이미지를 메모리부로 저장하는 촬영부를 포함하는 콘텐츠 제공 장치.
A communication unit for performing a network connection with at least one wearable device or terminal;
A location information acquisition unit for acquiring location information of a user;
A sensor unit for tracking a movement direction and a viewing direction of the user;
Acquiring a field of view in which the user gazes when the gaze direction moves leftward or rightward with respect to the movement direction and designates the field of view as an area of interest when the moved gaze direction is maintained for a predetermined time, A control unit for retracing the direction of the user's gaze at a point in time when the point of interest is designated and activating a continuous shooting mode of the camera when the point of sight moves from the front to the designated point of interest; And
And a photographing unit for continuously photographing the user's field of view until the gaze direction is directed to the front of the designated area of interest, and storing the continuously photographed image as a memory unit.
상기 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하여 상기 통신부와 연동된 웨어러블 디바이스 또는 단말기로 전송하는 영상 생성부; 및
상기 연속 촬영된 이미지, 상기 파노라마 이미지, 지도 데이터, 건물 및 장소에 대한 지역 정보를 저장하는 메모리부를 더 포함하는 콘텐츠 제공 장치.
8. The method of claim 7,
An image generating unit for generating a panoramic image by combining the continuously photographed images and transmitting the panoramic image to a wearable device or a terminal connected to the communication unit; And
Further comprising a memory unit for storing the continuously photographed image, the panorama image, the map data, and the local information about the building and the place.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170027354A KR101842210B1 (en) | 2017-03-02 | 2017-03-02 | Contents providing method through eye tracking and apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170027354A KR101842210B1 (en) | 2017-03-02 | 2017-03-02 | Contents providing method through eye tracking and apparatus thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101842210B1 true KR101842210B1 (en) | 2018-03-27 |
Family
ID=61874567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170027354A KR101842210B1 (en) | 2017-03-02 | 2017-03-02 | Contents providing method through eye tracking and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101842210B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537159A (en) * | 2018-04-03 | 2018-09-14 | 重庆房地产职业学院 | Data analysis system and method for the people to artistic work degree of recognition in public space |
CN112633128A (en) * | 2020-12-18 | 2021-04-09 | 上海影创信息科技有限公司 | Method and system for pushing information of interested object in afterglow area |
KR20210116934A (en) * | 2020-03-18 | 2021-09-28 | 한국과학기술연구원 | Apparatus and method for providing object and environment information using wearable device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003085690A (en) | 2001-09-13 | 2003-03-20 | Alpine Electronics Inc | Live view device and live view system |
-
2017
- 2017-03-02 KR KR1020170027354A patent/KR101842210B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003085690A (en) | 2001-09-13 | 2003-03-20 | Alpine Electronics Inc | Live view device and live view system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537159A (en) * | 2018-04-03 | 2018-09-14 | 重庆房地产职业学院 | Data analysis system and method for the people to artistic work degree of recognition in public space |
KR20210116934A (en) * | 2020-03-18 | 2021-09-28 | 한국과학기술연구원 | Apparatus and method for providing object and environment information using wearable device |
KR102327578B1 (en) | 2020-03-18 | 2021-11-17 | 한국과학기술연구원 | Apparatus and method for providing object and environment information using wearable device |
CN112633128A (en) * | 2020-12-18 | 2021-04-09 | 上海影创信息科技有限公司 | Method and system for pushing information of interested object in afterglow area |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106873778B (en) | Application operation control method and device and virtual reality equipment | |
US10169923B2 (en) | Wearable display system that displays a workout guide | |
KR102246310B1 (en) | Systems and methods for gaze-based media selection and editing | |
US9268406B2 (en) | Virtual spectator experience with a personal audio/visual apparatus | |
US8717447B2 (en) | Remote telepresence gaze direction | |
WO2019142560A1 (en) | Information processing device for guiding gaze | |
US20060009702A1 (en) | User support apparatus | |
CN103513421A (en) | Image processing device, image processing method, and image processing system | |
WO2013185714A1 (en) | Method, system, and computer for identifying object in augmented reality | |
JP2014140097A (en) | Image display device and image display method | |
US20160171780A1 (en) | Computer device in form of wearable glasses and user interface thereof | |
US20210278671A1 (en) | Head wearable device with adjustable image sensing modules and its system | |
KR20170062439A (en) | Control device, control method, and program | |
KR101842210B1 (en) | Contents providing method through eye tracking and apparatus thereof | |
JP2011203984A (en) | Navigation device, navigation image generation method, and program | |
WO2018216402A1 (en) | Information processing apparatus, information processing method, and program | |
CN109844600B (en) | Information processing apparatus, information processing method, and program | |
CN108028906A (en) | Information processing system and information processing method | |
JP6822413B2 (en) | Server equipment, information processing methods, and computer programs | |
WO2015095507A1 (en) | Location-based system for sharing augmented reality content | |
JP2018163461A (en) | Information processing apparatus, information processing method, and program | |
JP2021093577A (en) | Image processing device, display system, program, and image processing method | |
US20190121515A1 (en) | Information processing device and information processing method | |
JPWO2017056632A1 (en) | Information processing apparatus and information processing method | |
WO2019044135A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |