[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101842210B1 - Contents providing method through eye tracking and apparatus thereof - Google Patents

Contents providing method through eye tracking and apparatus thereof Download PDF

Info

Publication number
KR101842210B1
KR101842210B1 KR1020170027354A KR20170027354A KR101842210B1 KR 101842210 B1 KR101842210 B1 KR 101842210B1 KR 1020170027354 A KR1020170027354 A KR 1020170027354A KR 20170027354 A KR20170027354 A KR 20170027354A KR 101842210 B1 KR101842210 B1 KR 101842210B1
Authority
KR
South Korea
Prior art keywords
user
interest
wearable device
roi
designated
Prior art date
Application number
KR1020170027354A
Other languages
Korean (ko)
Inventor
최재현
김선미
배성수
Original Assignee
(주)유투 시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)유투 시스템 filed Critical (주)유투 시스템
Priority to KR1020170027354A priority Critical patent/KR101842210B1/en
Application granted granted Critical
Publication of KR101842210B1 publication Critical patent/KR101842210B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • H04N5/23219
    • H04N5/23238

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a method and an apparatus for providing content based on eye tracking. More specifically, the present invention relates to a method and an apparatus for obtaining a region of interest by tracking an eye of a user from a sensor of a wearable apparatus, and providing content on the obtained region of interest. According to the present invention, the content of a place where the eye of the user remains can be provided through eye tracking without an additional control even in outdoor trekking or a situation where both hands of the user are not free.

Description

시선 추적 기반 콘텐츠 제공 방법 및 장치{CONTENTS PROVIDING METHOD THROUGH EYE TRACKING AND APPARATUS THEREOF} BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a content tracking method,

본 발명은 시선 추적 기반 콘텐츠 제공 방법 및 장치에 관한 것으로, 보다 상세하게는 웨어러블 디바이스의 센서로부터 사용자의 시선을 추적하여 관심 영역을 획득하고, 획득한 관심 영역에 대한 콘텐츠를 제공하는 방법 및 장치에 관한 것이다.More particularly, the present invention relates to a method and apparatus for acquiring a region of interest by tracking a user's gaze from a sensor of a wearable device and providing content for the region of interest .

시선 추적 기술은 동공의 움직임 및 크기 변화 분석을 통해 현대인이 생활하는 데 더욱 편리하도록 활용되고 있다. 시선은 오감 중에서 가장 민감하고 반응이 빠른 감각기관이기 때문에 정보기기와의 상호작용하는데 가장 효과적인 수단으로써, 자동차, 의료, 시장조사 및 사용성 분석, 게임, 운동 등 다양한 분야에서 활용될 뿐 아니라 타켓 대상별로 사용자 분석을 통해 정보 전달 효과가 높은 콘텐츠 제공도 가능하다.Eye tracking technology is being used to make life easier for modern people by analyzing pupil movement and size change. Since gaze is the most sensitive and responsive sensory organ of the five senses, it is the most effective means of interacting with information devices. It is used not only in various fields such as automobile, medical, market research and usability analysis, game, exercise, It is also possible to provide contents with high information transmission effect through user analysis.

본 발명 기술에 대한 배경기술은 대한민국 공개특허공보 제10-2013-0043366호에 게시된 바 있다.Background Art of the present invention is disclosed in Korean Patent Laid-Open Publication No. 10-2013-0043366.

본 발명은 시선 추적 기술을 기반으로 웨어러블 디바이스에 구비된 카메라를 자동 제어하여 사용자의 관심 영역을 획득하고, 획득한 관심 영역에 대한 콘텐츠를 제공하는 것이다. The present invention automatically acquires a region of interest of a user by automatically controlling a camera provided in a wearable device based on a line-of-sight tracking technology, and provides content for the region of interest.

본 발명의 일 측면에 따르면, 단일 웨어러블 디바이스를 통해 시선 추적 기반 콘텐츠 제공 방법에 있어서, 웨어러블 디바이스로부터 사용자의 위치, 움직임 방향 및 시선 방향을 추적하는 단계, 상기 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하는 단계, 상기 이동한 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재 추적하는 단계, 상기 시선 방향이 정면에서 상기 지정된 관심 영역으로 이동하면, 상기 웨어러블 디바이스의 카메라를 연속 촬영 모드로 활성화하는 단계, 상기 지정된 관심 영역에서 상기 시선 방향이 정면을 향할 때까지 상기 사용자의 시야 범위를 연속 촬영하고, 연속 촬영된 이미지를 콘텐츠 제공 모듈로 전송하는 단계, 상기 콘텐츠 제공 모듈이 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 웨어러블 디바이스와 연동된 단말기로 전송하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of providing a line-tracking-based content through a single wearable device, the method comprising: tracking a user's position, movement direction and gaze direction from a wearable device; Or moving to the right, acquiring a field of view to which the user is to gaze; designating the field of view as an area of interest when the moved line of sight is maintained for a predetermined period of time; The method comprising the steps of: retracing a viewing direction; activating the camera of the wearable device in a continuous shooting mode when the viewing direction moves from the front to the designated region of interest, until the viewing direction in the designated region of interest faces the front Continuously photographing the visual range of the user, And transmitting the generated panoramic image to a terminal associated with the wearable device, the method comprising the steps of: transmitting the photographed image to a content providing module; generating a panoramic image by combining the continuously shot images with the content providing module; .

본 발명의 일 측면에 따르면, 다중 웨어러블 디바이스를 통해 복수의 사용자의 시선 추적 기반 콘텐츠 제공 방법에 있어서, 제1 웨어러블 디바이스와 제2 웨어러블 디바이스 각각으로부터 사용자의 위치, 움직임 방향 및 시선 방향을 추적하는 단계, 상기 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하는 단계, 상기 이동한 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 상기 제1 관심 영역과 제2 관심 영역으로 지정하고, 상기 제1 관심 영역과 제2 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적하는 단계, 상기 시선 방향이 정면에서 상기 제1 관심 영역과 제2 관심 영역으로 이동하지 않으면, 상기 제1 관심 영역과 제2 관심 영역으로 콘텐츠 제공 모듈로 전송하는 단계, 상기 콘텐츠 제공 모듈이 상기 제1 관심 영역과 제2 관심 영역이 지정된 시점에서 위치 정보 및 시선 방향이 유사하면, 상기 제1 관심 영역과 제2 관심 영역을 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 제1 웨어러블 디바이스 및 제2 웨어러블 디바이스와 각각 연동된 제1 단말기 및 제2 단말기로 전송하는 단계를 포함하는 콘텐츠 제공 방법을 포함할 수 있다.According to an aspect of the present invention, there is provided a method of providing a content of a plurality of users' eyesight tracking through a multiple wearable device, the method comprising: tracking a position, a movement direction and a gaze direction of a user from each of a first wearable device and a second wearable device, Acquiring a field of view in which the user gazes when the visual direction moves to the left or right with reference to the direction of movement; if the moved visual direction is maintained for a predetermined time, Region and a second region of interest, and retraining the direction of the user's gaze at a point in time when the first region of interest and the second region of interest are designated, wherein the gaze direction is the first region of interest and the second region of interest If the content is not moved to the area, Wherein the content providing module generates a panoramic image by combining the first ROI and the second ROI if the first ROI and the second ROI are similar at a point in time when the location information and the viewing direction are similar, And transmitting the generated panoramic image to the first terminal and the second terminal respectively associated with the first wearable device and the second wearable device.

본 발명의 일 측면에 따르면, 콘텐츠 제공 장치는 적어도 하나의 웨어러블 디바이스 또는 단말기와 네트워크 연결을 수행하는 통신부, 사용자의 위치 정보를 획득하는 위치 정보 획득부, 사용자의 움직임 방향 및 시선 방향을 추적하는 센서부, 상기 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하고, 상기 이동한 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적하여, 상기 시선 방향이 정면에서 상기 지정된 관심 영역으로 이동하면, 카메라의 연속 촬영 모드를 활성화하는 제어부, 상기 지정된 관심 영역에서 상기 시선 방향이 정면을 향할 때까지 상기 사용자의 시야 범위를 연속 촬영하고, 연속 촬영된 이미지를 메모리부로 저장하는 촬영부, 상기 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하여 상기 통신부와 연동된 웨어러블 디바이스 또는 단말기로 전송하는 영상 생성부를 포함할 수 있다.According to an aspect of the present invention, a content providing apparatus includes a communication unit that performs a network connection with at least one wearable device or a terminal, a position information obtaining unit that obtains position information of the user, a sensor that tracks a movement direction and a gaze direction of the user, A visual field range in which the user gazes is obtained when the visual direction moves to the left or right relative to the movement direction, and when the moved visual direction is maintained for a predetermined time, the visual range is designated as a region of interest A control unit for activating a continuous shooting mode of the camera when the gaze direction of the user is retraced at a point in time when the gaze region is moved and the gaze direction moves from the front to the designated gaze region, Of the user ' s viewing range until the < RTI ID = 0.0 > direction < / RTI > It may include shooting and continuous shooting an image taking portion for storing parts of the memory, to generate a panoramic image by combining the images continuously photographed image generation unit for transmitting to the terminal or a wearable device, in conjunction with the communication unit.

본 발명은 야외 트레킹 또는 두 손이 자유롭지 못한 상황에서도 별도의 조작없이 시선 추적을 통해서 시선이 머무는 곳의 콘텐츠 제공할 수 있다.The present invention can provide the contents of the place where the gaze stays through the gaze tracking without any special operation even when the outdoor trekking or both hands are not free.

또한, 본 발명은 다중 웨어러블 디바이스의 연동을 통해 복수의 사용자가 동일하게 지정한 관심 영역을 기반으로 해당 지역에 관심을 가진 사람들의 명 수, 시간의 통계 데이터를 추출할 수 있고, 이를 통해 해당 지역에 대한 관련 콘텐츠를 생산 또는 갱신할 수 있다.Further, the present invention can extract statistical data on the number of persons and time of people who are interested in the area based on the same interest area designated by a plurality of users through interlocking of multiple wearable devices, The related contents can be produced or updated.

도 1은 본 발명의 일 실시예에 따른 웨어러블 디바이스의 구성을 개략적으로 설명하기 위한 예시도.
도 2 및 도 3은 본 발명의 일 실시예에 따라 단일 웨어러블 디바이스를 통해 개인 주행시 사용자의 시선 추적 기반 콘텐츠 제공 방법을 설명하기 위한 흐름도.
도 4 및 도 5는 본 발명의 일 실시예에 따라 다중 웨어러블 디바이스를 통해 단체 주행 시 복수의 사용자의 시선 추적 기반 콘텐츠 제공 방법을 설명하기 위한 흐름도.
도 6은 본 발명의 일 실시예에 따른 콘텐츠 제공 장치를 설명하기 위한 블록도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an exemplary view schematically illustrating a configuration of a wearable device according to an embodiment of the present invention; FIG.
FIG. 2 and FIG. 3 are flowcharts for explaining a method for providing a user's gaze-tracking-based content in a personal running through a single wearable device according to an embodiment of the present invention.
FIG. 4 and FIG. 5 are flowcharts for explaining a method of providing gaze-tracking-based content for a plurality of users during a group travel through a multi-wearable device according to an embodiment of the present invention;
6 is a block diagram for explaining a content providing apparatus according to an embodiment of the present invention;

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

도 1은 본 발명의 일 실시예에 따른 웨어러블 장치의 구성을 개략적으로 설명하기 위한 예시도이다. FIG. 1 is an exemplary view schematically illustrating a configuration of a wearable device according to an embodiment of the present invention.

웨어러블 장치는, 스마트글라스, HMD 또는 시쓰루 디스플레이(see through display) 등의 다양한 용어로 일컬어질 수 있다.A wearable device may be referred to as various terms such as a smart glass, an HMD or a see through display.

웨어러블 장치는, 사용자의 머리 부위에 밀착 가능한 형태로 이루어질 수 있으며, 디스플레이를 통하여 사용자에게 다양한 정보를 제공할 수 있는 구조로 이루어질 수 있다.The wearable device may be in a form that can be closely attached to the head of the user, and may be configured to provide various information to the user through the display.

웨어러블 장치는, 카메라(120) 및 센서(160)를 포함할 수 있으며, 카메라(120) 및 센서(160)에서 생성된 촬영 이미지 및 센싱 정보를 기반으로 콘텐츠를 제공할 수 있다.The wearable device may include a camera 120 and a sensor 160 and may provide content based on the captured image and sensing information generated by the camera 120 and the sensor 160. [

웨어러블 장치는, 사용자 인터페이스(180)를 통하여 사용자로부터 동작을 제어하는데 이용되는 입력을 수신할 수 있다. The wearable device may receive inputs that are used to control operations from the user via the user interface 180.

웨어러블 장치는, 콘텐츠 제공 모듈(10)을 통해 단말기 또는 적어도 하나의 타사용자의 웨어러블 디바이스와 연동되어 콘텐츠를 공유하는데 필요한 각종 구성 요소들을 포함할 수 있다. The wearable device may include various components necessary for interoperating with the wearable device of the terminal or at least one other user through the content providing module 10 to share the content.

도 2 및 도 3은 본 발명의 일 실시예에 따라 단일 웨어러블 디바이스를 통해 개인 주행시 사용자의 시선 추적 기반 콘텐츠 제공 방법을 설명하기 위한 흐름도이다. 실시 예에 따라, 도 2에 도시된 단계들 중 적어도 하나는 생략될 수 있고, 도시된 단계들의 순서는 달라질 수 있다. FIG. 2 and FIG. 3 are flowcharts for explaining a method of providing a user's gaze-tracking-based content in a personal running through a single wearable device according to an embodiment of the present invention. Depending on the embodiment, at least one of the steps shown in FIG. 2 may be omitted, and the order of the steps shown may vary.

단계 210에서, 콘텐츠 제공 장치는 단일 웨어러블 디바이스의 센서(160)를 통해 사용자의 위치, 움직임 방향 및 시선 방향을 추적한다.In step 210, the content providing device tracks the user's position, movement direction, and gaze direction through the sensor 160 of a single wearable device.

단계 220에서, 콘텐츠 제공 장치는 단계 210에서 추적한 시선 방향이 사용자의 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 사용자가 응시하는 시야 범위를 획득한다.In step 220, the content providing apparatus obtains a viewing range in which the user gazes when the gaze direction tracked in step 210 moves leftward or rightward with respect to the direction of the user's movement.

단계 230에서, 콘텐츠 제공 장치는 단계 220에서 이동한 시선 방향이 소정 시간 동안 유지되면, 시야 범위를 관심 영역으로 지정한다.In step 230, the content providing apparatus designates the field of view as a region of interest if the direction of the line of sight moved in Step 220 is maintained for a predetermined time.

단계 240에서, 콘텐츠 제공 장치는 관심 영역이 지정된 시점에서 사용자의 시선 방향을 소정 시간 동안 재추적한다.In step 240, the content providing apparatus retraces the user ' s gaze direction for a predetermined time at the point in time when the region of interest is specified.

단계 250에서, 콘텐츠 제공 장치는 단계 240에서 재추적한 시선 방향이 정면에서 지정된 관심 영역으로 이동하면, 카메라(120)를 연속 촬영 모드로 활성화한다. In step 250, the content providing apparatus activates the camera 120 in the continuous shooting mode when the retraced direction of the eyes is moved from the front to the designated attention area in step 240.

단계 260에서, 콘텐츠 제공 장치는 단계 250에서 지정된 관심 영역에서 시선 방향이 정면을 향할 때까지 상기 사용자의 시야 범위를 연속 촬영하고, 연속 촬영된 이미지를 콘텐츠 제공 모듈(10)로 전송한다. In step 260, the content providing apparatus consecutively photographs the user's field of view until the gaze direction is directed to the front in the designated area of interest in step 250, and transmits the successively photographed image to the content providing module 10.

단계 270에서, 콘텐츠 제공 장치는 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하여 콘텐츠 제공 장치와 연동한 단말기로 전송한다. 이때, 콘텐츠 제공 장치는 파노라마 이미지에 해당하는 지역 정보를 콘텐츠 제공 장치와 연동된 단말기로 전송한다.In step 270, the content providing apparatus combines the consecutively captured images to generate a panoramic image and transmits the panoramic image to a terminal linked to the content providing apparatus. At this time, the content providing apparatus transmits the local information corresponding to the panoramic image to the terminal interlocked with the content providing apparatus.

도 3을 참조하면, 콘텐츠 제공 장치는 도 3의 301과 같이 사용자의 움직임 방향을 기준으로 사용자의 시선 방향이 좌측 또는 우측으로 이동하면, 이동한 시선 방향에서 사용자의 시야 범위를 획득한다. 이때, 이동한 시선 방향이 소정 시간 동안 유지되면, 시야 범위를 관심 영역으로 지정한다. Referring to FIG. 3, when the user's gaze direction moves to the left or right with reference to the user's movement direction, the content providing apparatus obtains the user's view range in the moved gaze direction, as shown in 301 of FIG. At this time, if the moved line of sight is maintained for a predetermined time, the field of view is designated as a region of interest.

콘텐츠 제공 장치는 관심 영역이 지정되면, 관심 영역이 지정된 시점에서 사용자의 시선 방향을 소정 시간 동안 재추적한다. 도 3의 302와 같이 재추적한 사용자의 시선 방향이 관심 영역으로 이동하면, 도 3의 303과 같이 사용자의 시선 방향이 정면을 향할 때까지, 즉 움직임 방향과 일치할 때까지 사용자의 시야 범위를 연속 촬영한다. 최종적으로 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성할 수 있다.When the region of interest is designated, the content providing apparatus retraces the direction of the line of sight of the user for a predetermined time at a point of time when the region of interest is designated. 3, if the direction of the user's eyes retraced is moved to the region of interest, the user's viewing range is changed until the user's gaze direction is directed to the front, that is, Continuous shooting. Finally, the panoramic image can be generated by combining the continuously shot images.

도 4 및 도 5는 본 발명의 일 실시예에 따라 다중 웨어러블 디바이스를 통해 단체 주행 시 복수의 사용자의 시선 추적 기반 콘텐츠 제공 방법을 설명하기 위한 흐름도이다. 실시 예에 따라, 도 4에 도시된 단계들 중 적어도 하나는 생략될 수 있고, 도시된 단계들의 순서는 달라질 수 있다.FIG. 4 and FIG. 5 are flowcharts for explaining a method for providing a plurality of user's gaze-tracking-based contents in a group driving through a multi-wearable device according to an embodiment of the present invention. Depending on the embodiment, at least one of the steps shown in FIG. 4 may be omitted, and the order of the steps shown may vary.

도 4를 참조하여 설명하는 실시 예에서, 적어도 한 명의 타 사용자들이 소지하는 웨어러블 디바이스들과 사용자 그룹을 형성한 경우를 가정한다. 사용자 그룹의 형성은 무선 광역 네트워크를 통하여 연결된 서버와의 인증 절차를 통해서 이루어질 수 있다. 이러한 사용자 그룹의 형성은, 종래의 다양한 방법을 이용할 수 있다. In the embodiment described with reference to FIG. 4, it is assumed that wearable devices possessed by at least one other user and a user group are formed. The formation of the user group can be performed through an authentication procedure with a server connected through a wireless wide area network. The formation of such a user group can use various conventional methods.

단계 410에서, 콘텐츠 제공 장치는 제1 웨어러블 디바이스와 제2 웨어러블 디바이스 각각으로부터 사용자의 위치, 움직임 방향 및 시선 방향을 추적한다. In step 410, the content providing device tracks the user's position, movement direction, and gaze direction from each of the first wearable device and the second wearable device.

단계 420에서, 콘텐츠 제공 장치는 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 사용자가 응시하는 시야 범위를 획득한다. In step 420, the content providing apparatus obtains a viewing range in which the user gazes when the gaze direction moves leftward or rightward with respect to the movement direction.

단계 430에서, 콘텐츠 제공 장치는 이동한 시선 방향이 소정 시간 동안 유지되면, 시야 범위를 제1 관심 영역과 제2 관심 영역으로 지정한다. In step 430, the content providing apparatus designates the field of view range as the first ROI and the second ROI if the moved line of sight is maintained for a predetermined time.

단계 440에서, 콘텐츠 제공 장치는 관심 영역이 지정된 시점에서 사용자의 시선 방향을 재추적한다. In step 440, the content providing apparatus retrains the direction of the user's gaze at a point in time when the region of interest is specified.

단계 450에서, 콘텐츠 제공 장치는 시선 방향이 정면에서 제1 관심 영역과 제2 관심 영역으로 이동하지 않으면, 제1 관심 영역과 제2 관심 영역을 콘텐츠 제공 모듈로 전송한다. In step 450, the content providing device transmits the first ROI and the second ROI to the content providing module if the gaze direction does not move from the front to the first ROI and the second ROI.

단계 460에서, 콘텐츠 제공 장치는 상기 제1 관심 영역과 제2 관심 영역이 지정된 시점에서 위치 정보 및 시선 방향이 유사하면, 상기 제1 관심 영역과 제2 관심 영역을 결합하여 파노라마 이미지를 생성한다. In step 460, the content providing device generates the panoramic image by combining the first ROI and the second ROI if the first ROI and the second ROI are similar to each other at the designated time.

단계 470에서, 콘텐츠 제공 장치는 생성된 파노라마 이미지를 상기 제1 웨어러블 디바이스 및 제2 웨어러블 디바이스와 각각 연동한 제1 단말기 및 제2 단말기로 전송한다.In step 470, the content providing apparatus transmits the generated panoramic image to the first terminal and the second terminal, respectively, associated with the first wearable device and the second wearable device.

본 발명의 일 실시예에 따른 콘텐츠 제공 장치는 상기 단계 410 내지 단계 470을 수행함에 있어서, 제1 웨어러블 디바이스로부터 제1 관심 영역을 지정하는 것과, 제2 웨어러블 디바이스로부터 제2 관심 영역을 지정하는 것은 병렬로 이루어진다. 또한, 콘텐츠 제공 장치는 파노라마 이미지뿐만 아니라, 파노라마 이미지에 해당하는 위치 정보를 기반으로 해당 지역 정보를 제공할 수 있다.In performing the steps 410 to 470, the content providing apparatus according to an exemplary embodiment of the present invention may specify the first region of interest from the first wearable device and designate the second region of interest from the second wearable device In parallel. In addition, the content providing apparatus can provide the local information based on the panorama image as well as the location information corresponding to the panorama image.

상술한 바와 같이 본 발명의 일 실시 예에 따른 콘텐츠 제공 장치는 별도의 웨어러블 디바이스를 조작하지 않아도, 시선 추적을 통한 관심 영역 추출 및 저장할 수 있다. 또한, 단체 주행이 종료되면, 라이딩 경로에서 개별 사용자의 관심 영역 데이터를 취득할 수 있고, 복수의 사용자의 관심 영역 데이터를 취득할 수 있다. As described above, the content providing apparatus according to an exemplary embodiment of the present invention can extract and store a region of interest through line-of-sight tracking without operating a separate wearable device. In addition, when the group driving is finished, the ROI data of the individual users can be acquired in the riding route, and the ROI data of a plurality of users can be acquired.

도 5를 참조하면, 콘텐츠 제공 장치는 복수의 사용자의 시선 추적을 기반으로 도 5의 501과 같이 제1 사용자의 움직임 방향을 기준으로 시선 방향이 좌측 또는 우측으로 이동하면, 이동한 시선 방향에서 사용자의 시야 범위를 획득한다. 이때, 이동한 시선 방향이 소정 시간 동안 유지되면, 시야 범위를 관심 영역으로 지정한다. 이와 동일한 방법으로 도 5의 502와 같이 제2 사용자의 시야 범위, 도 5의 503과 같이 제3 사용자의 시야 범위를 획득할 수 있다. 상술한 도 5의 501 내지 503의 시야 범위는 동일한 사용자가 반복적으로 응시한 영역은 아니지만, 복수의 사용자가 유사한 시점에서 응시한 영역이므로, 해당 영역을 관심 영역으로 지정하여 파노라마 이미지를 생성한다. 생성한 파노라마 이미지는 위치 정보를 기반으로 해당 지역 정보가 존재할 경우, 해당 지역 정보를 사용자에게 제공할 수 있다. 만약 해당 지역 정보가 존재하지 않을 경우, 해당 지역의 정보를 갱신할 수 있다.Referring to FIG. 5, if the gaze direction moves to the left or the right with reference to the movement direction of the first user, as shown in 501 of FIG. 5 based on the gaze tracking of a plurality of users, Of the field of view. At this time, if the moved line of sight is maintained for a predetermined time, the field of view is designated as a region of interest. In the same manner, the field of view of the second user as shown in 502 of FIG. 5 and the field of view of the third user as shown in 503 of FIG. 5 can be obtained. The view range of 501 to 503 in FIG. 5 is not an area in which the same user repeatedly gazed but is a region in which a plurality of users gazed at a similar point of view. Therefore, a panorama image is generated by designating the region as a region of interest. The generated panoramic image can provide the local information to the user when the local information exists based on the location information. If the local information does not exist, the information of the corresponding region can be updated.

도 6은 본 발명의 일 실시예에 따른 콘텐츠 제공 장치를 설명하기 위한 블록도이다. 실시 예에 따라, 도 6에 도시된 구성 요소들 중 적어도 하나는 생략될 수 있다. 6 is a block diagram illustrating a content providing apparatus according to an embodiment of the present invention. Depending on the embodiment, at least one of the components shown in Fig. 6 may be omitted.

콘텐츠 제공 장치는, 사용자 입출력 인터페이스(610), 촬영부(620), 센서부(630), 위치 정보 획득부(640), 통신부(650), 제어부(660), 메모리부(670) 및 영상 생성부(680)를 포함하며, 이들은 버스(BUS)를 통하여 서로 연결될 수 있다. The content providing apparatus includes a user input / output interface 610, a photographing section 620, a sensor section 630, a position information obtaining section 640, a communication section 650, a control section 660, a memory section 670, (680), which may be connected to each other via a bus (BUS).

사용자 입출력 인터페이스(610)는, 사용자로부터 입력을 수신하고 각종 정보들을 디스플레이할 수 있다. The user input / output interface 610 may receive input from a user and display various information.

촬영부(620)는, 사용자의 입력이 있거나 설정된 이벤트가 발생하는 경우 촬영을 수행하여 촬영 이미지를 생성할 수 있다. 생성된 촬영 이미지는 콘텐츠 제공 모듈(10) 또는 사용자 단말기로 제공될 수 있다. The photographing unit 620 can perform photographing when a user has input or an event that is set, thereby generating a photographing image. The generated photographed image may be provided to the content providing module 10 or the user terminal.

센서부(630)는, 사용자의 움직임 방향 및 시선 방향을 추적한다. 예를 들면, 자이로센서, 가속도센서로부터 사용자의 움직임 방향 및 시선 방향을 추적할 수 있다.The sensor unit 630 tracks the movement direction and the viewing direction of the user. For example, it is possible to track the user's movement direction and gaze direction from the gyro sensor and the acceleration sensor.

위치 정보 획득부(640)는, GPS 신호를 통해 사용자의 위치 정보를 획득한다.The location information obtaining unit 640 obtains the location information of the user through the GPS signal.

통신부(650)는, 적어도 하나의 웨어러블 디바이스와 적어도 하나의 단말기를 네트워크를 통해 연결을 수행하고, 연결 상태에서 데이터 교환을 수행할 수 있다. The communication unit 650 can connect at least one wearable device to at least one terminal through a network, and exchange data in a connected state.

제어부(660)는, 센서부(630) 및 위치 정보 획득부(640)로부터 사용자의 시선 방향이 사용자가 움직이는 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득한다.The control unit 660 obtains a field of view in which the user gazes when the direction of the user's gaze moves left or right based on the direction in which the user moves from the sensor unit 630 and the position information obtaining unit 640. [

제어부(660)는, 사용자의 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적한다. The controller 660 designates the field of view as an area of interest when the user's line of sight is maintained for a predetermined time, and retraces the line of sight of the user at the point of time when the area of interest is designated.

제어부(660)는, 시선 방향이 정면에서 상기 지정된 관심 영역으로 이동하면, 카메라의 연속 촬영 모드를 활성화한다. The control unit 660 activates the continuous shooting mode of the camera when the viewing direction moves from the front to the designated ROI.

제어부(660)는, 메모리부(670)에 저장된 파노라마 이미지의 위치 정보와 일치하는 지역 정보를 제공할 수 있다. The control unit 660 can provide the local information that coincides with the location information of the panoramic image stored in the memory unit 670.

메모리부(670)는, 제어부(660)의 제어에 따른 사용자의 관심 영역, 파노라마 이미지, 지도 데이터, 건물 및 장소에 대한 지역 정보 중 적어도 하나를 저장한다.The memory unit 670 stores at least one of a user's interest area, a panorama image, map data, and local information on a building and a place under the control of the control unit 660.

영상 생성부(680)는, 촬영부(620)가 촬영한 연속 이미지를 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 메모리부(670)에 저장한다. 이때, 파노라마 이미지는 이미지가 결합되기 관심 영역으로 지정되는 시점의 위치 정보와 시간 정보를 포함한다. 상술한 파노라마 이미지는 통신부(650)를 통해 웨어러블 디바이스와 연동된 단말기로 전송할 수 있다. The image generating unit 680 combines the continuous images captured by the photographing unit 620 to generate a panoramic image, and stores the generated panoramic image in the memory unit 670. At this time, the panoramic image includes positional information and time information at a time point when the panoramic image is designated as an area of interest to be combined. The panoramic image described above can be transmitted to the terminal interlocked with the wearable device through the communication unit 650.

이제까지 본 발명에 대하여 그 실시 예를 중심으로 살펴보았다. 전술한 실시 예 외의 많은 실시 예들이 본 발명의 특허청구범위 내에 존재한다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. The present invention has been described above with reference to the embodiments thereof. Many embodiments other than the above-described embodiments are within the scope of the claims of the present invention. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. The disclosed embodiments should, therefore, be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

10: 콘텐츠 제공 모듈
120: 카메라
140: 영상 표시부
160: 센서
180: 사용자 인터페이스
10: Content providing module
120: camera
140:
160: Sensor
180: User interface

Claims (8)

단일 웨어러블 디바이스를 통해 시선 추적 기반 콘텐츠 제공 방법에 있어서,
웨어러블 디바이스로부터 사용자의 위치, 움직임 방향 및 시선 방향을 추적하는 단계;
상기 시선 방향이 상기 움직임 방향을 기준으로 상기 사용자가 응시하는 시야 범위를 획득하는 단계;
상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적하는 단계;
상기 시선 방향이 정면에서 상기 지정된 관심 영역으로 이동하면, 상기 웨어러블 디바이스의 카메라를 연속 촬영 모드로 활성화하는 단계;
상기 지정된 관심 영역에서 상기 시선 방향이 정면을 향할 때까지 상기 사용자의 시야 범위를 연속 촬영하고, 연속 촬영된 이미지를 콘텐츠 제공 모듈로 전송하는 단계; 및
상기 콘텐츠 제공 모듈이 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 웨어러블 디바이스와 연동된 단말기로 전송하는 단계를 포함하는 콘텐츠 제공 방법.
A method for providing a gaze tracking-based content through a single wearable device,
Tracking the user's position, movement direction and gaze direction from the wearable device;
Obtaining a visual range in which the gaze direction is based on the movement direction;
Designating the field of view as an area of interest and re-tracing the direction of the user's line of sight at the point of time when the area of interest is designated;
Activating the camera of the wearable device in a continuous shooting mode when the viewing direction moves from the front to the designated ROI;
Continuously photographing the user's field of view until the gaze direction is directed to the front of the designated area of interest, and transmitting the continuously photographed image to the content providing module; And
Generating a panoramic image by combining the continuously photographed images with the content providing module, and transmitting the generated panoramic image to a terminal interlocked with the wearable device.
제1항에서,
상기 시선 방향이 상기 움직임 방향을 기준으로 상기 사용자가 응시하는 시야 범위를 획득하는 단계는,
상기 움직임 방향을 정면으로 지정하고, 사용자의 시선 방향이 정면으로부터 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하는 콘텐츠 제공 방법.
The method of claim 1,
Wherein the step of acquiring the field of view in which the gaze direction is based on the movement direction,
The moving direction is set as a front face, and when the viewing direction of the user moves from the front side to the left side or right side, the viewing range to be gazed by the user is obtained.
제1항에서,
상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적하는 단계는
사용자의 시선 방향이 정면에서 좌측 또는 우측으로 이동 후, 소정 시간 동안 이동된 방향이 유지되면, 상기 시야 범위를 관심 영역으로 지정하는 콘텐츠 제공 방법.
The method of claim 1,
Wherein the step of designating the field of view as a region of interest and re-tracing the direction of the user's line of sight at the point of time the region of interest is designated
Wherein the visual field is designated as a region of interest if the direction of the user's gaze is moved from the front to the left or right and the direction moved for a predetermined time is maintained.
제1항에서,
상기 콘텐츠 제공 모듈이 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 웨어러블 디바이스와 연동된 단말기로 전송하는 단계는,
관심 영역이 지정되는 시점의 위치 정보와 시간 정보를 포함하는 파노라마 이미지를 통해서 파노라마 이미지와 함께 해당 지역 정보를 상기 단말기로 전송하는 콘텐츠 제공 방법.
The method of claim 1,
Wherein the content providing module generates a panoramic image by combining the continuously photographed images and transmitting the generated panoramic image to the terminal associated with the wearable device,
And transmitting the local information together with the panoramic image to the terminal through the panoramic image including the position information and the time information at the point of time when the region of interest is designated.
다중 웨어러블 디바이스를 통해 복수의 사용자의 시선 추적 기반 콘텐츠 제공 방법에 있어서,
제1 웨어러블 디바이스와 제2 웨어러블 디바이스 각각으로부터 사용자의 위치, 움직임 방향 및 시선 방향을 추적하는 단계;
상기 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하는 단계;
상기 이동한 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 제1 관심 영역과 제2 관심 영역으로 지정하고, 상기 제1 관심 영역과 제2 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재추적하는 단계;
상기 시선 방향이 정면에서 상기 제1 관심 영역과 제2 관심 영역으로 이동하지 않으면, 상기 제1 관심 영역과 제2 관심 영역을 콘텐츠 제공 모듈로 전송하는 단계; 및
상기 제1 관심 영역과 제2 관심 영역을 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 제1 웨어러블 디바이스 및 제2 웨어러블 디바이스와 각각 연동된 제1 단말기 및 제2 단말기로 전송하는 단계를 포함하는 콘텐츠 제공 방법.
A method for providing a content based on eye-tracking of a plurality of users through a multi-wearable device,
Tracking the user's position, movement direction and gaze direction from each of the first wearable device and the second wearable device;
Acquiring a field of view in which the user gazes when the gaze direction moves leftward or rightward with respect to the movement direction;
The visual range is designated as a first area of interest and a second area of interest when the moved direction of sight is maintained for a predetermined period of time and the visual direction of the user is designated at a designated time of the first area of interest and the area of interest, Tracking;
Transmitting the first ROI and the second ROI to the content providing module if the viewing direction does not move from the front to the first ROI and the second ROI; And
Generating a panoramic image by combining the first ROI and the second ROI, and transmitting the generated panoramic image to a first terminal and a second terminal interlocked with the first wearable device and the second wearable device, respectively, / RTI >
제5항에서,
상기 제1 관심 영역과 제2 관심 영역을 결합하여 파노라마 이미지를 생성하고, 생성된 파노라마 이미지를 상기 제1 웨어러블 디바이스 및 제2 웨어러블 디바이스와 각각 연동된 제1 단말기 및 제2 단말기로 전송하는 단계는,
상기 콘텐츠 제공 모듈이 상기 제1 관심 영역과 제2 관심 영역이 지정된 시점에서 위치 정보 및 시선 방향이 유사할 경우 상기 제1 관심 영역과 제2 관심 영역을 결합하는 콘텐츠 제공 방법.
The method of claim 5,
Generating a panoramic image by combining the first ROI and the second ROI, and transmitting the generated panoramic image to a first terminal and a second terminal interlocked with the first wearable device and the second wearable device, respectively, ,
Wherein the content providing module combines the first ROI and the second ROI when the first ROI and the second ROI are similar to each other at a specified time point.
적어도 하나의 웨어러블 디바이스 또는 단말기와 네트워크 연결을 수행하는 통신부;
사용자의 위치 정보를 획득하는 위치 정보 획득부;
사용자의 움직임 방향 및 시선 방향을 추적하는 센서부;
상기 시선 방향이 상기 움직임 방향을 기준으로 좌측 또는 우측으로 이동하면, 상기 사용자가 응시하는 시야 범위를 획득하고, 상기 이동한 시선 방향이 소정 시간 동안 유지되면, 상기 시야 범위를 관심 영역으로 지정하고, 상기 관심 영역이 지정된 시점에서 상기 사용자의 시선 방향을 재 추적하여, 상기 시선 방향이 정면에서 상기 지정된 관심 영역으로 이동하면, 카메라의 연속 촬영 모드를 활성화하는 제어부; 및
상기 지정된 관심 영역에서 상기 시선 방향이 정면을 향할 때까지 상기 사용자의 시야 범위를 연속 촬영하고, 연속 촬영된 이미지를 메모리부로 저장하는 촬영부를 포함하는 콘텐츠 제공 장치.
A communication unit for performing a network connection with at least one wearable device or terminal;
A location information acquisition unit for acquiring location information of a user;
A sensor unit for tracking a movement direction and a viewing direction of the user;
Acquiring a field of view in which the user gazes when the gaze direction moves leftward or rightward with respect to the movement direction and designates the field of view as an area of interest when the moved gaze direction is maintained for a predetermined time, A control unit for retracing the direction of the user's gaze at a point in time when the point of interest is designated and activating a continuous shooting mode of the camera when the point of sight moves from the front to the designated point of interest; And
And a photographing unit for continuously photographing the user's field of view until the gaze direction is directed to the front of the designated area of interest, and storing the continuously photographed image as a memory unit.
제7항에서,
상기 연속 촬영된 이미지를 결합하여 파노라마 이미지를 생성하여 상기 통신부와 연동된 웨어러블 디바이스 또는 단말기로 전송하는 영상 생성부; 및
상기 연속 촬영된 이미지, 상기 파노라마 이미지, 지도 데이터, 건물 및 장소에 대한 지역 정보를 저장하는 메모리부를 더 포함하는 콘텐츠 제공 장치.
8. The method of claim 7,
An image generating unit for generating a panoramic image by combining the continuously photographed images and transmitting the panoramic image to a wearable device or a terminal connected to the communication unit; And
Further comprising a memory unit for storing the continuously photographed image, the panorama image, the map data, and the local information about the building and the place.
KR1020170027354A 2017-03-02 2017-03-02 Contents providing method through eye tracking and apparatus thereof KR101842210B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170027354A KR101842210B1 (en) 2017-03-02 2017-03-02 Contents providing method through eye tracking and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170027354A KR101842210B1 (en) 2017-03-02 2017-03-02 Contents providing method through eye tracking and apparatus thereof

Publications (1)

Publication Number Publication Date
KR101842210B1 true KR101842210B1 (en) 2018-03-27

Family

ID=61874567

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170027354A KR101842210B1 (en) 2017-03-02 2017-03-02 Contents providing method through eye tracking and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101842210B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537159A (en) * 2018-04-03 2018-09-14 重庆房地产职业学院 Data analysis system and method for the people to artistic work degree of recognition in public space
CN112633128A (en) * 2020-12-18 2021-04-09 上海影创信息科技有限公司 Method and system for pushing information of interested object in afterglow area
KR20210116934A (en) * 2020-03-18 2021-09-28 한국과학기술연구원 Apparatus and method for providing object and environment information using wearable device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085690A (en) 2001-09-13 2003-03-20 Alpine Electronics Inc Live view device and live view system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085690A (en) 2001-09-13 2003-03-20 Alpine Electronics Inc Live view device and live view system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537159A (en) * 2018-04-03 2018-09-14 重庆房地产职业学院 Data analysis system and method for the people to artistic work degree of recognition in public space
KR20210116934A (en) * 2020-03-18 2021-09-28 한국과학기술연구원 Apparatus and method for providing object and environment information using wearable device
KR102327578B1 (en) 2020-03-18 2021-11-17 한국과학기술연구원 Apparatus and method for providing object and environment information using wearable device
CN112633128A (en) * 2020-12-18 2021-04-09 上海影创信息科技有限公司 Method and system for pushing information of interested object in afterglow area

Similar Documents

Publication Publication Date Title
CN106873778B (en) Application operation control method and device and virtual reality equipment
US10169923B2 (en) Wearable display system that displays a workout guide
KR102246310B1 (en) Systems and methods for gaze-based media selection and editing
US9268406B2 (en) Virtual spectator experience with a personal audio/visual apparatus
US8717447B2 (en) Remote telepresence gaze direction
WO2019142560A1 (en) Information processing device for guiding gaze
US20060009702A1 (en) User support apparatus
CN103513421A (en) Image processing device, image processing method, and image processing system
WO2013185714A1 (en) Method, system, and computer for identifying object in augmented reality
JP2014140097A (en) Image display device and image display method
US20160171780A1 (en) Computer device in form of wearable glasses and user interface thereof
US20210278671A1 (en) Head wearable device with adjustable image sensing modules and its system
KR20170062439A (en) Control device, control method, and program
KR101842210B1 (en) Contents providing method through eye tracking and apparatus thereof
JP2011203984A (en) Navigation device, navigation image generation method, and program
WO2018216402A1 (en) Information processing apparatus, information processing method, and program
CN109844600B (en) Information processing apparatus, information processing method, and program
CN108028906A (en) Information processing system and information processing method
JP6822413B2 (en) Server equipment, information processing methods, and computer programs
WO2015095507A1 (en) Location-based system for sharing augmented reality content
JP2018163461A (en) Information processing apparatus, information processing method, and program
JP2021093577A (en) Image processing device, display system, program, and image processing method
US20190121515A1 (en) Information processing device and information processing method
JPWO2017056632A1 (en) Information processing apparatus and information processing method
WO2019044135A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant