[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102539045B1 - Dashboard control apparatus and method for wearable augmented reality device - Google Patents

Dashboard control apparatus and method for wearable augmented reality device Download PDF

Info

Publication number
KR102539045B1
KR102539045B1 KR1020210104214A KR20210104214A KR102539045B1 KR 102539045 B1 KR102539045 B1 KR 102539045B1 KR 1020210104214 A KR1020210104214 A KR 1020210104214A KR 20210104214 A KR20210104214 A KR 20210104214A KR 102539045 B1 KR102539045 B1 KR 102539045B1
Authority
KR
South Korea
Prior art keywords
hand
augmented reality
dashboard
pui
wearer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020210104214A
Other languages
Korean (ko)
Other versions
KR20230022065A (en
Inventor
최치원
정채현
서준영
Original Assignee
주식회사 피앤씨솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피앤씨솔루션 filed Critical 주식회사 피앤씨솔루션
Priority to KR1020210104214A priority Critical patent/KR102539045B1/en
Publication of KR20230022065A publication Critical patent/KR20230022065A/en
Application granted granted Critical
Publication of KR102539045B1 publication Critical patent/KR102539045B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 착용형 증강현실 장치를 위한 대시보드 제어 장치에 관한 것으로서, 보다 구체적으로는 착용형 증강현실 장치를 위한 대시보드 제어 장치로서, 상기 착용형 증강현실 장치의 카메라로부터 획득한 착용자의 손 영상으로부터 상기 착용자의 제1 손의 주먹 쥔 측면 모습을 PUI(Physical User Interface)로 인식하는 손 인식부; 상기 손 인식부에서 상기 PUI 인식이 완료되면, 대시보드 메뉴를 상기 인식된 PUI 주변에 증강현실 영상으로 표시하여 제공하는 메뉴 표시부; 및 착용자의 제2 손에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손의 손동작 인식에 따른 인터랙션을 수행하는 제어부를 포함하는 것을 그 구성상의 특징으로 한다.
또한, 본 발명은 착용형 증강현실 장치를 위한 대시보드 제어 방법에 관한 것으로서, 보다 구체적으로는 착용형 증강현실 장치를 위한 대시보드 제어 방법으로서, 착용자의 양손 중 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하며, 상기 PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손의 손동작을 인식하는 손 인식부를 포함하는 상기 착용형 증강현실 장치에 의해 각 단계가 수행되며, (1) 상기 착용형 증강현실 장치의 카메라로부터 착용자의 손 영상을 획득하는 단계; (2) 상기 손 인식부에서 상기 손 영상으로부터 상기 착용자의 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하는 단계; (3) 상기 단계 (2)에서 상기 PUI의 인식이 완료되면, 대시보드 메뉴를 상기 PUI 주변에 증강현실 영상으로 표시하여 제공하는 단계; 및 (4) 착용자의 제2 손에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손의 손동작 인식에 따른 인터랙션을 수행하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법에 따르면, 착용자의 제1 손의 주먹 쥔 측면 모습을 인식하고, 제1 손의 주먹 주변에 대시보드 메뉴를 증강현실 영상으로 표시해 제공함으로써, 일반적으로 사용하지 않는 형상의 제스처면서도 신체 구조상 편안하게 모션을 취해 사용할 수 있고, 액세서리나 의복의 영향 없이 대시보드 메뉴를 불러올 수 있어 인식 오류를 최소화할 수 있다.
The present invention relates to a dashboard control device for a wearable augmented reality device, and more particularly, to a dashboard control device for a wearable augmented reality device, wherein an image of a wearer's hand obtained from a camera of the wearable augmented reality device is provided. a hand recognition unit recognizing a side view of the wearer's first hand clenched into a fist from the physical user interface (PUI); a menu display unit displaying and providing a dashboard menu as an augmented reality image around the recognized PUI when the recognition of the PUI by the hand recognition unit is completed; and a control unit that performs an interaction according to selection of the dashboard menu by a wearer's second hand and recognition of a hand gesture of the second hand.
In addition, the present invention relates to a dashboard control method for a wearable augmented reality device, and more specifically, as a dashboard control method for a wearable augmented reality device, the side view of the first hand clenched into a fist of both hands of the wearer Each step is performed by the wearable augmented reality device including a hand recognition unit that recognizes a PUI and recognizes a hand gesture of a second hand for selecting a dashboard menu displayed as an augmented reality image around the PUI, (1) acquiring a hand image of the wearer from a camera of the wearable augmented reality device; (2) recognizing a side view of the wearer's first hand clenched into a fist from the hand image by the hand recognition unit as a PUI; (3) if the recognition of the PUI is completed in step (2), displaying and providing a dashboard menu as an augmented reality image around the PUI; and (4) selecting the dashboard menu by the wearer's second hand and performing an interaction according to hand motion recognition of the second hand.
According to the dashboard control device and dashboard control method for a wearable augmented reality device proposed in the present invention, a side view of a wearer's first hand clenched into a fist is recognized, and a dashboard menu is displayed around the fist of the first hand. By displaying and providing an augmented reality image, it is possible to comfortably use motions in terms of body structure even though it is a gesture of a shape that is not normally used, and it is possible to minimize recognition errors by calling up the dashboard menu without the influence of accessories or clothing.

Description

착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법{DASHBOARD CONTROL APPARATUS AND METHOD FOR WEARABLE AUGMENTED REALITY DEVICE}Dashboard control device and dashboard control method for wearable augmented reality device {DASHBOARD CONTROL APPARATUS AND METHOD FOR WEARABLE AUGMENTED REALITY DEVICE}

본 발명은 착용형 증강현실 장치에 관한 것으로서, 보다 구체적으로는 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법에 관한 것이다.The present invention relates to a wearable augmented reality device, and more particularly, to a dashboard control device and dashboard control method for a wearable augmented reality device.

디지털 디바이스의 경량화 및 소형화 추세에 따라 다양한 웨어러블 디바이스(wearable device)들이 개발되고 있다. 이러한 웨어러블 디바이스의 일종인 헤드 마운티드 디스플레이(Head Mounted Display)는 사용자가 머리에 착용하여 멀티미디어 컨텐츠 등을 제공받을 수 있는 각종 디바이스를 의미한다. 여기서 헤드 마운티드 디스플레이(HMD)는 사용자의 신체에 착용 되어 사용자가 이동함에 따라서 다양한 환경에서 사용자에게 영상을 제공하게 된다. 이러한 헤드 마운티드 디스플레이(HMD)는 투과(see-through)형과 밀폐(see-closed)형으로 구분되고 있으며, 투과형은 주로 증강현실(Augmented Reality, AR)용으로 사용되고, 밀폐형은 주로 가상현실(Virtual Reality, VR)용으로 사용되고 있다.Various wearable devices are being developed according to the trend of light weight and miniaturization of digital devices. A head mounted display, which is a kind of wearable device, refers to various devices that can be worn on a user's head to receive multimedia contents and the like. Here, the head mounted display (HMD) is worn on the user's body and provides images to the user in various environments as the user moves. Head-mounted displays (HMDs) are classified into see-through and see-closed types. The see-through type is mainly used for Augmented Reality (AR), and the closed type is mainly used for virtual reality (VR). reality, VR).

헤드 마운티드 디스플레이는 기존의 터치스크린과 같은 입력 방식을 사용하기 어려우므로, 사용자 상호작용을 위한 최적화된 입력 방식이 필요하다. 헤드 마운티드 디스플레이의 증강현실에서 사용할 수 있는 입력 방식으로, HMD에 구비된 버튼이나 HMD와 연결된 별도의 입력 장치, 제스처 인식, 음성인식 등이 있을 수 있다.Since it is difficult to use an input method such as a conventional touch screen in a head-mounted display, an input method optimized for user interaction is required. As an input method that can be used in the augmented reality of the head-mounted display, there may be buttons provided in the HMD, a separate input device connected to the HMD, gesture recognition, voice recognition, and the like.

그러나 기존의 증강현실을 위한 헤드 마운티드 디스플레이의 유저 인터페이스(User Interface, UI)에서, 제스처 인식은 보통 손가락의 인식에 기반을 두고 있으므로, 대시보드를 출력하는 명령을 입력하는 특별한 방안이 요구되고 있다.However, since gesture recognition is usually based on finger recognition in the existing user interface (UI) of a head-mounted display for augmented reality, a special method for inputting a command to output a dashboard is required.

한편, 본 발명과 관련된 선행기술로서, 등록특허 제10-1700569호(발명의 명칭: 제스처 기반의 사용자 인증이 가능한 HMD 장치 및 상기 HMD 장치의 제스처 기반의 사용자 인증 방법, 등록일자: 2017년 01월 23일) 등이 개시된 바 있다.On the other hand, as a prior art related to the present invention, Patent Registration No. 10-1700569 (Title of Invention: HMD device capable of gesture-based user authentication and gesture-based user authentication method of the HMD device, registration date: January 2017 23), etc. have been disclosed.

본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 착용자의 제1 손의 주먹 쥔 측면 모습을 인식하고, 제1 손의 주먹 주변에 대시보드 메뉴를 증강현실 영상으로 표시해 제공함으로써, 일반적으로 사용하지 않는 형상의 제스처면서도 신체 구조상 편안하게 모션을 취해 사용할 수 있고, 액세서리나 의복의 영향 없이 대시보드 메뉴를 불러올 수 있어 인식 오류를 최소화할 수 있는, 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법을 제공하는 것을 그 목적으로 한다.The present invention has been proposed to solve the above problems of the previously proposed methods, recognizing the side view of the wearer's first hand clenched into a fist, and displaying a dashboard menu around the fist of the first hand as an augmented reality image. A wearable augmented reality device that can be used by displaying and providing gestures of shapes that are not normally used, but can be used by taking motion comfortably due to the body structure, and can minimize recognition errors by calling up the dashboard menu without the influence of accessories or clothing Its purpose is to provide a dashboard control device and dashboard control method for

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치는,Dashboard control device for a wearable augmented reality device according to the features of the present invention for achieving the above object,

착용형 증강현실 장치를 위한 대시보드 제어 장치로서,As a dashboard control device for a wearable augmented reality device,

상기 착용형 증강현실 장치의 카메라로부터 획득한 착용자의 손 영상으로부터 상기 착용자의 제1 손의 주먹 쥔 측면 모습을 PUI(Physical User Interface)로 인식하는 손 인식부;a hand recognition unit recognizing a side view of the wearer's first hand clenched into a fist from the image of the wearer's hand acquired from the camera of the wearable augmented reality device as a Physical User Interface (PUI);

상기 손 인식부에서 상기 PUI 인식이 완료되면, 대시보드 메뉴를 상기 인식된 PUI 주변에 증강현실 영상으로 표시하여 제공하는 메뉴 표시부; 및a menu display unit displaying and providing a dashboard menu as an augmented reality image around the recognized PUI when the recognition of the PUI by the hand recognition unit is completed; and

착용자의 제2 손에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손의 손동작 인식에 따른 인터랙션을 수행하는 제어부를 포함하는 것을 그 구성상의 특징으로 한다.It is characterized in that it includes a control unit that performs interaction according to selection of the dashboard menu by the wearer's second hand and recognition of the hand gesture of the second hand.

바람직하게는, 상기 손 인식부는,Preferably, the hand recognition unit,

상기 착용형 증강현실 장치의 적외선 이미지 카메라로부터 적외선 손 영상을 사용할 수 있다.An infrared hand image may be used from an infrared image camera of the wearable augmented reality device.

바람직하게는, 상기 손 인식부는,Preferably, the hand recognition unit,

상기 착용자의 양손 중 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하며, 상기 PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손의 손동작을 인식할 수 있다.A side view of the wearer's first hand clenched into a fist may be recognized as a PUI, and a hand gesture of the second hand for selecting a dashboard menu displayed as an augmented reality image around the PUI may be recognized.

바람직하게는, 상기 손 인식부는,Preferably, the hand recognition unit,

상기 손 영상으로부터 착용자의 제1 손의 형상 또는 특징점을 추출해, 상기 PUI를 인식할 수 있다.The PUI may be recognized by extracting a shape or feature point of the first hand of the wearer from the hand image.

바람직하게는, 상기 메뉴 표시부는,Preferably, the menu display unit,

상기 손 인식부와 연동하며, 상기 손 인식부의 상기 PUI의 인식 상태를 나타내는 로딩 이미지를 상기 착용자의 제1 손의 주먹 쥔 측면 모습 위에 증강현실 영상으로 표시하여 제공할 수 있다.It may interwork with the hand recognition unit, and display and provide a loading image representing a recognition state of the PUI by the hand recognition unit as an augmented reality image on a side view of the wearer's first hand making a fist.

바람직하게는, 상기 손 인식부는,Preferably, the hand recognition unit,

상기 착용자의 제1 손이 미리 정해진 시간 동안 주먹 쥔 측면 모습을 유지하면, 상기 PUI의 인식 완료를 상기 메뉴 표시부에 전달할 수 있다.When the first hand of the wearer maintains a side view with a clenched fist for a predetermined time, completion of recognizing the PUI may be transmitted to the menu display unit.

바람직하게는,Preferably,

착용자의 시선을 추적하는 시선 추적부를 더 포함하며,Further comprising a gaze tracking unit for tracking the wearer's gaze,

상기 손 인식부는,The hand recognition unit,

상기 시선 추적부에서 추적된 착용자의 시선이, 상기 착용자의 제1 손의 주먹 쥔 측면 모습을 미리 정해진 시간 동안 응시하면, 상기 PUI의 인식 완료를 상기 메뉴 표시부에 전달할 수 있다.When the wearer's gaze tracked by the gaze tracking unit gazes at a side view of the wearer's first hand clenched into a fist for a predetermined time, completion of PUI recognition may be transmitted to the menu display unit.

또한, 상기한 목적을 달성하기 위한 본 발명의 특징에 따른 착용형 증강현실 장치를 위한 대시보드 제어 방법은,In addition, the dashboard control method for the wearable augmented reality device according to the features of the present invention for achieving the above object,

착용형 증강현실 장치를 위한 대시보드 제어 방법으로서,A dashboard control method for a wearable augmented reality device,

착용자의 양손 중 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하며, 상기 PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손의 손동작을 인식하는 손 인식부를 포함하는 상기 착용형 증강현실 장치에 의해 각 단계가 수행되며,The wearable augmentation including a hand recognition unit recognizing a side view of a first hand clenched into a fist among both hands of the wearer as a PUI and recognizing a hand gesture of a second hand for selecting a dashboard menu displayed as an augmented reality image around the PUI. Each step is performed by a reality device,

(1) 상기 착용형 증강현실 장치의 카메라로부터 착용자의 손 영상을 획득하는 단계;(1) acquiring a hand image of the wearer from the camera of the wearable augmented reality device;

(2) 상기 손 인식부에서 상기 손 영상으로부터 상기 착용자의 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하는 단계;(2) recognizing a side view of the wearer's first hand clenched into a fist from the hand image by the hand recognition unit as a PUI;

(3) 상기 단계 (2)에서 상기 PUI의 인식이 완료되면, 대시보드 메뉴를 상기 PUI 주변에 증강현실 영상으로 표시하여 제공하는 단계; 및(3) if the recognition of the PUI is completed in step (2), displaying and providing a dashboard menu as an augmented reality image around the PUI; and

(4) 착용자의 제2 손에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손의 손동작 인식에 따른 인터랙션을 수행하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.(4) Selecting the dashboard menu by the wearer's second hand and performing an interaction according to hand gesture recognition of the second hand is a feature of the configuration.

본 발명에서 제안하고 있는 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법에 따르면, 착용자의 제1 손의 주먹 쥔 측면 모습을 인식하고, 제1 손의 주먹 주변에 대시보드 메뉴를 증강현실 영상으로 표시해 제공함으로써, 일반적으로 사용하지 않는 형상의 제스처면서도 신체 구조상 편안하게 모션을 취해 사용할 수 있고, 액세서리나 의복의 영향 없이 대시보드 메뉴를 불러올 수 있어 인식 오류를 최소화할 수 있다.According to the dashboard control device and dashboard control method for a wearable augmented reality device proposed in the present invention, a side view of a wearer's first hand clenched into a fist is recognized, and a dashboard menu is displayed around the fist of the first hand. By displaying and providing an augmented reality image, it is possible to comfortably use motions in terms of body structure even though it is a gesture of a shape that is not normally used, and it is possible to minimize recognition errors by calling up the dashboard menu without the influence of accessories or clothing.

도 1은 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치의 구성을 도시한 도면.
도 2는 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치에서 대시보드가 제공된 모습을 예를 들어 도시한 도면.
도 3 및 도 4는 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치에서, 손 인식부의 인식 방식을 예를 들어 도시한 도면.
도 5는 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치에서, 로딩 이미지가 표시된 모습을 예를 들어 도시한 도면.
도 6은 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치에서, 대시보드 메뉴가 표시된 모습을 예를 들어 도시한 도면.
도 7은 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치에서, 제2 손동작에 따른 인터랙션이 수행되는 모습을 예를 들어 도시한 도면.
도 8은 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치를 포함하는 착용형 증강현실 장치의 전체적인 구성을 도시한 도면.
도 9는 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 방법의 흐름을 도시한 도면.
1 is a diagram showing the configuration of a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
2 is a diagram showing, for example, a state in which a dashboard is provided in a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
3 and 4 are diagrams showing, for example, a recognition method of a hand recognition unit in a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
5 is a view showing, for example, a state in which a loading image is displayed in a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
6 is a diagram showing, for example, a dashboard menu displayed in a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
7 is a view showing, for example, how an interaction according to a second hand gesture is performed in a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
8 is a view showing the overall configuration of a wearable augmented reality device including a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
9 is a flowchart illustrating a dashboard control method for a wearable augmented reality device according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing a preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and actions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’ 되어 있다고 할 때, 이는 ‘직접적으로 연결’ 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’ 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’ 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In addition, throughout the specification, when a part is said to be 'connected' to another part, this is not only the case where it is 'directly connected', but also the case where it is 'indirectly connected' with another element in between. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components unless otherwise specified.

도 1은 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 구성을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)는, 손 인식부(110), 메뉴 표시부(120) 및 제어부(130)를 포함하여 구성될 수 있으며, 시선 추적부(140)를 더 포함하여 구성될 수 있다.1 is a diagram showing the configuration of a dashboard control device 100 for a wearable augmented reality device 10 according to an embodiment of the present invention. As shown in FIG. 1, the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention includes a hand recognition unit 110, a menu display unit 120, and a control unit ( 130), and may further include a gaze tracking unit 140.

즉, 대시보드 제어 장치(100)는 착용형 증강현실 장치(10)의 대시보드 인터페이스를 증강현실 기반으로 제공할 수 있다. 보다 구체적으로, 착용형 증강현실 장치(10)는, 손 인식부(110), 메뉴 표시부(120) 및 제어부(130)를 포함하여 구성되는 대시보드 제어 장치(100)를 포함하며, 대시보드 제어 장치(100)는 착용형 증강현실 장치(10)의 구성요소 중 하나로서, 카메라부(600)에서 수집된 손 영상을 이용해 대시보드 메뉴를 제공하며, 대시보드 제어 장치(100)에 의해 제공되는 대시보드를 통해 제어부(400)가 각종 입력 신호를 수신하고 착용형 증강현실 장치(10)의 기능을 수행할 수 있다.That is, the dashboard control device 100 may provide a dashboard interface of the wearable augmented reality device 10 based on augmented reality. More specifically, the wearable augmented reality device 10 includes a dashboard control device 100 including a hand recognition unit 110, a menu display unit 120, and a control unit 130, and controls the dashboard. The device 100 is one of the components of the wearable augmented reality device 10, and provides a dashboard menu using hand images collected by the camera unit 600, provided by the dashboard control device 100 Through the dashboard, the controller 400 may receive various input signals and perform functions of the wearable augmented reality device 10 .

여기서, 대시보드(dashboard)는, 한 화면에서 다양한 정보를 중앙 집중적으로 관리하고 찾을 수 있도록 하는 사용자 인터페이스(UI) 기능으로, 여러 종류의 콘텐츠를 재사용할 수 있도록 구성하고, 문서, 웹 페이지, 메시징, 미디어 파일 등 다양한 콘텐츠를 한 화면에서 관리할 수 있다. 예를 들어, 설정, 기본 런처, 홈 화면 등이 대시보드일 수 있으며, 대시보드에서 사용자가 원하는 기능을 선택하는 것으로 인터랙션 할 수 있다.Here, the dashboard is a user interface (UI) function that allows centralized management and finding of various information on one screen. , media files, etc. can be managed on one screen. For example, settings, default launcher, home screen, etc. can be dashboards, and users can interact with them by selecting desired functions on the dashboard.

한편, 착용형 증강현실 장치(10)는 사용자의 머리 또는 두부에 착용 되며, 착용형 증강현실 장치(10)를 착용한 사용자가 광학계를 통해 투과되어 보이는 현실 세계와 디스플레이에서 출력되어 광학계를 통해 착용자의 동공으로 전달되는 영상 정보를 함께 제공받아 증강현실을 경험할 수 있도록 하는 장치일 수 있다. 여기서, 착용형 증강현실 장치(10)는 글라스형, 고글형 등 다양할 수 있으며, 사용자의 신체에 착용 되어 착용자의 시야를 통한 증강현실을 경험할 수 있도록 한다면 그 구체적인 형태나 종류와 관계없이 본 발명의 착용형 증강현실 장치(10)의 역할을 할 수 있다.On the other hand, the wearable augmented reality device 10 is worn on the head or head of the user, and the real world and the display in which the user wearing the wearable augmented reality device 10 is transmitted through the optical system are output to the wearer through the optical system. It may be a device that allows users to experience augmented reality by receiving image information delivered to the pupil of the child. Here, the wearable augmented reality device 10 may be of various types such as glass type and goggle type, and if it is worn on the user's body to experience augmented reality through the wearer's field of view, the present invention regardless of its specific form or type It can serve as a wearable augmented reality device 10 of.

도 2는 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)에서 대시보드가 제공된 모습을 예를 들어 도시한 도면이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)는, 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하여, 제1 손(1)의 주먹 주변으로 대시보드 메뉴를 증강현실 영상으로 표시해 인터페이스를 제공할 수 있다. 착용자는 양손 중에서 대시보드 메뉴 표시를 위한 PUI로 사용된 제1 손(1)과 다른 손 즉, 제2 손(2)을 사용해 표시된 대시보드 메뉴 중 어느 하나를 선택할 수 있고(도 2에서는 카메라 기능 선택), 제어부(130)는 선택된 기능을 실행하는 등 제2 손(2)의 손동작에 따른 인터랙션을 수행할 수 있다.FIG. 2 is a view showing, for example, a state in which a dashboard is provided in the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention. As shown in FIG. 2 , the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention displays a side view of the wearer's first hand 1 clenched into a fist through a PUI , it is possible to provide an interface by displaying the dashboard menu as an augmented reality image around the fist of the first hand (1). The wearer can select one of the displayed dashboard menus using the first hand (1) used as a PUI for displaying the dashboard menu and the other hand, that is, the second hand (2) among both hands (in FIG. 2, the camera function selection), the controller 130 may perform an interaction according to the hand motion of the second hand 2, such as executing the selected function.

AR 글래스와 같은 착용형 증강현실 장치(10)에서 작동 제어는 대부분 손가락 인식이 PUI(Physical User Interface, 물리적 사용자 입력부)로 사용되므로, 손가락 제스처를 대시보드 불러오기에 활용하기는 어렵다. 따라서 일반적으로는 사용하지 않는 범위의 손 형상, 손 모습을 특정해 대시보드 제어를 위한 PUI로 사용할 수 있다. 예를 들어, 마이크로소프트사의 홀로렌즈는, 손목 부위의 인식을 통해 설정 화면 불러오기를 한다. 그러나 손목 부위는 시계, 팔찌 등 액세서리의 착용, 또는 손목을 덮도록 디자인된 옷이나 소매가 긴 옷 등 착용한 의복에 따라 그 인식 과정에 오류가 발생할 수 있다.In the wearable augmented reality device 10 such as AR glasses, since finger recognition is mostly used as a physical user interface (PUI) for operation control, it is difficult to utilize finger gestures to call a dashboard. Therefore, it can be used as a PUI for dashboard control by specifying the hand shape and hand shape of the range that is not generally used. For example, Microsoft's HoloLens calls up the settings screen through recognition of the wrist. However, errors may occur in the recognition process of the wrist part depending on the wearing of accessories such as watches and bracelets, or worn clothes such as clothes designed to cover the wrist or long sleeved clothes.

도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)는, 제1 손(1)을 주먹 쥔 상태에서 엄지와 검지 쪽의 측면이 보이도록 하는 모습을 PUI로 사용함으로써, 일반적으로 작동 제어를 위해 사용하는 손가락 인식과는 다른 손동작이면서도, 신체 구조상 편안한 동작에 해당하므로 동작의 편의성과 인식 정확성을 모두 높일 수 있고, 손목과는 달리 액세서리나 의복의 영향이 없는 손동작을 사용하기 때문에 인식 오류를 최소화할 수 있다.As shown in FIG. 2 , in the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention, in a state where the first hand 1 is clenched into a fist, the thumb and index finger side By using the side view of the PUI as a PUI, it is a hand motion that is different from finger recognition generally used for operation control, but corresponds to a comfortable motion in terms of the body structure, so both the convenience of motion and recognition accuracy can be increased. Unlike , recognition errors can be minimized because hand gestures that are not influenced by accessories or clothing are used.

한편, 도 2에는 왼손이 제1 손(1), 오른손이 제2 손(2)의 역할을 하는 것으로 도시되었으나, 제1 손(1)은 대시보드 메뉴 표시를 위한 PUI로 사용되는 손이고 제2 손(2)은 표시된 메뉴 아이콘 등을 선택해 입력을 수행하는 손으로 상황에 따라 제1 손(1)과 제2 손(2)은 변경될 수 있으며, 오른손 주먹 주변에 대시보드 메뉴가 표시되고(제1 손(1)) 왼손으로 메뉴를 선택할 수도 있다(제2 손(2)).Meanwhile, FIG. 2 shows that the left hand serves as the first hand 1 and the right hand serves as the second hand 2, but the first hand 1 is a hand used as a PUI for displaying the dashboard menu and The second hand (2) is a hand that performs input by selecting the displayed menu icon, etc. The first hand (1) and the second hand (2) can be changed depending on the situation, and the dashboard menu is displayed around the fist of the right hand. (First hand (1)) It is also possible to select a menu with the left hand (second hand (2)).

이하에서는, 도 1 및 도 2를 참조하여 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 각 구성에 대해 상세히 설명하도록 한다.Hereinafter, each component of the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 and 2 .

손 인식부(110)는, 착용형 증강현실 장치(10)의 카메라로부터 획득한 착용자의 손 영상으로부터 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 PUI(Physical User Interface)로 인식할 수 있다. 보다 구체적으로, 손 인식부(110)는, 착용자의 양손 중 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하며, PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손(2)의 손동작을 인식할 수 있다.The hand recognizer 110 may recognize a side view of the wearer's first hand 1 clenched into a fist from the wearer's hand image obtained from the camera of the wearable augmented reality device 10 as a Physical User Interface (PUI). there is. More specifically, the hand recognition unit 110 recognizes a side view of the first hand 1 of the wearer's hands making a fist as a PUI, and the second hand selecting a dashboard menu displayed as an augmented reality image around the PUI The hand gesture of (2) can be recognized.

도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)는, 착용형 증강현실 장치(10)의 카메라부(600)에서 촬영된 손 영상을 전달받아, 손 영상으로부터 착용자의 제1 손(1) 및 제2 손(2)의 손 모습 및 손동작을 인식할 수 있다. 즉, 손 인식부(110)는 영상 처리, 인공지능 등을 기반으로 하는 비전 인식 기술을 사용해 손 형상이나 특징점 등을 추정할 수 있으며, 추정된 손 형상이나 특징점을 사용해 손 모습과 손동작을 인식할 수 있다.As shown in FIG. 1 , in the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention, the camera unit 600 of the wearable augmented reality device 10 The captured hand image is received, and hand shapes and hand gestures of the first hand 1 and the second hand 2 of the wearer may be recognized from the hand image. That is, the hand recognizer 110 may estimate the shape or feature point of the hand using vision recognition technology based on image processing and artificial intelligence, and recognize the shape and motion of the hand using the estimated hand shape or feature point. can

도 3 및 도 4는 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)에서, 손 인식부(110)의 인식 방식을 예를 들어 도시한 도면이다. 도 3 및 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 손 인식부(110)는, 손 영상으로부터 착용자의 제1 손(1)의 형상 또는 특징점을 추출해, PUI를 인식할 수 있다. 즉, 도 3에 도시된 바와 같이 제1 손(1)의 엄지와 검지 손가락의 구부러진 형상을 인식하거나, 도 4에 도시된 바와 같이 손 영상에서 특징점을 추출해 특징점들 사이의 위치 관계를 기초로 제1 손(1)의 주먹 쥔 측면 모습을 인식할 수 있다.3 and 4 are diagrams showing, for example, a recognition method of the hand recognizer 110 in the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention. . 3 and 4, the hand recognition unit 110 of the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention, The PUI can be recognized by extracting the shape or feature point of the first hand 1 . That is, as shown in FIG. 3, the bent shapes of the thumb and index finger of the first hand 1 are recognized, or as shown in FIG. 4, feature points are extracted from the hand image and determined based on the positional relationship between feature points. 1 The side view of the hand (1) clenched into a fist can be recognized.

실시예에 따라서, 손 인식부(110)는, 착용형 증강현실 장치(10)의 RGB 카메라, 적외선 이미지 카메라, 깊이 센서 등에서 획득한 손 영상을 사용할 수 있다. 보다 구체적으로, 손 인식부(110)는, 착용형 증강현실 장치(10)의 적외선 이미지 카메라로부터 획득한 적외선 손 영상을 사용할 수 있다.Depending on the embodiment, the hand recognizer 110 may use a hand image obtained from an RGB camera, an infrared image camera, a depth sensor, or the like of the wearable augmented reality device 10 . More specifically, the hand recognizer 110 may use an infrared hand image obtained from an infrared image camera of the wearable augmented reality device 10 .

적외선 영상은 단일채널 이미지로, 적외선 손 영상을 사용해 손 인식을 하면 이미지 처리에 사용되는 계산 비용을 줄일 수 있으므로, 착용형 증강현실 장치(10)의 임베디드 환경에서도 손 인식을 효과적으로 수행할 수 있다. 특히, 머리에 착용하는 착용형 증강현실 장치(10)는 무게가 무거우면 목과 어깨에 부담이 되고 머리 움직임이 제한되어 장시간 착용이 어려우므로, 경량화 및 소형화가 중요하다. 따라서 착용형 증강현실 장치(10)에 많은 계산 자원을 탑재할 수 없으므로, 단일채널 이미지인 적외선 영상을 사용해 임베디드 환경에서 사용할 수 있도록 계산 비용을 줄일 수 있다.The infrared image is a single-channel image, and hand recognition using the infrared hand image can reduce computational costs used in image processing, so hand recognition can be effectively performed even in the embedded environment of the wearable augmented reality device 10 . In particular, when the weight of the wearable augmented reality device 10 worn on the head is heavy, it is difficult to wear it for a long time because the neck and shoulders are burdened and the head movement is restricted, so it is important to reduce the weight and size. Therefore, since many calculation resources cannot be loaded into the wearable augmented reality device 10, calculation cost can be reduced so that it can be used in an embedded environment using an infrared image, which is a single-channel image.

메뉴 표시부(120)는, 손 인식부(110)에서 PUI 인식이 완료되면, 대시보드 메뉴를 인식된 PUI 주변에 증강현실 영상으로 표시하여 제공할 수 있다. 즉, 도 2에 도시된 바와 같이, 메뉴 표시부(120)는, 인식된 PUI의 주변에 대시보드 메뉴를 증강현실로 표시하여 사용자 인터페이스를 제공할 수 있다.When PUI recognition is completed in the hand recognition unit 110, the menu display unit 120 may display and provide the dashboard menu as an augmented reality image around the recognized PUI. That is, as shown in FIG. 2 , the menu display unit 120 may provide a user interface by displaying a dashboard menu in augmented reality around the recognized PUI.

한편, 메뉴 표시부(120)는, 손 인식부(110)와 연동하며, 손 인식부(110)의 PUI의 인식 상태를 나타내는 로딩 이미지를, 착용자의 제1 손(1)의 주먹 쥔 측면 모습 위에 증강현실 영상으로 표시하여 제공할 수 있다.Meanwhile, the menu display unit 120 interlocks with the hand recognition unit 110, and displays a loading image representing the PUI recognition state of the hand recognition unit 110 on the side of the wearer's first hand 1 clenched into a fist. It can be displayed and provided as an augmented reality image.

도 5는 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)에서, 로딩 이미지가 표시된 모습을 예를 들어 도시한 도면이다. 도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 메뉴 표시부(120)는, 인식 완료를 알려주는 로딩 이미지를 제1 손(1) 위에 표시해 PUI가 인식되었음을 알려줄 수 있다. 이때, 로딩 이미지는 주먹 쥔 측면 모습에서 검지의 끝 위치를 중심으로 표시될 수 있으며, 주먹의 중앙에 표시될 수도 있다.FIG. 5 is a diagram showing, for example, a state in which a loading image is displayed in the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention. As shown in FIG. 5 , the menu display unit 120 of the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention provides a loading image indicating completion of recognition. 1 It can indicate that the PUI has been recognized by displaying it on the hand (1). At this time, the loading image may be displayed centering on the tip of the index finger in the side view of the clenched fist, or may be displayed at the center of the fist.

여기서, 로딩 이미지는 인식 중, 인식 완료 등의 인식 상태를 나타낼 수 있으며, 인식 상태에 따라 변화하는 이미지일 수도 있다. 또한, 로딩 이미지는 애니메이트 이미지일 수 있고, 색상, 밝기 등이 변경될 수 있는데, 인식 상태에 따라 애니메니트되거나 색상, 밝기 등이 변경될 수 있다.Here, the loading image may indicate a recognition state such as recognition in progress or recognition completion, and may be an image that changes according to the recognition state. In addition, the loading image may be an animated image, and its color, brightness, etc. may be changed. It may be animated or its color, brightness, etc. may be changed according to a recognition state.

도 6은 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)에서, 대시보드 메뉴가 표시된 모습을 예를 들어 도시한 도면이다. 도 6에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 메뉴 표시부(120)는, 제1 손(1)의 주먹 쥔 측면 모습의 인식이 완료되고 표시할 대시보드 메뉴의 생성이 완료되면, 로딩 이미지를 제거하고 대시보드 메뉴를 증강현실로 표시하여 제공할 수 있다.FIG. 6 is a view showing, for example, a dashboard menu displayed in the dashboard control device 100 for the wearable augmented reality device 10 according to one embodiment of the present invention. As shown in FIG. 6 , the menu display unit 120 of the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention is When the recognition of the side view is completed and the creation of the dashboard menu to be displayed is completed, the loading image may be removed and the dashboard menu may be displayed in augmented reality.

대시보드 메뉴는 복수의 항목을 포함할 수 있으며, 각 항목은 아이콘 등으로 표시될 수 있다. 이때, 대시보드 메뉴는 주먹의 중앙 위치를 중심으로 미리 정해진 거리에 표시될 수 있다. 도 6에는 주먹을 중심으로 반원형 호 위에 아이콘이 배치된 형태로 대시보드 메뉴가 표시되었으나, 실시예에 따라서 원형으로 아이콘이 배치되거나, 중심이 같거나 다른 여러 개의 호 또는 원형상에 아이콘을 배치해 대시보드 메뉴를 제공할 수도 있다.The dashboard menu may include a plurality of items, and each item may be displayed as an icon or the like. In this case, the dashboard menu may be displayed at a predetermined distance from the center of the fist. 6, the dashboard menu is displayed in the form of icons arranged on a semicircular arc centered on a fist, but according to the embodiment, icons are arranged in a circle, or icons are arranged on several arcs or circles with the same or different centers. You can also provide a dashboard menu.

손 인식부(110)는, 착용자의 제1 손(1)이 미리 정해진 시간 동안 주먹 쥔 측면 모습을 유지하면, PUI의 인식 완료를 메뉴 표시부(120)에 전달할 수 있다. 메뉴 표시부(120)는 인식 완료 신호를 수신하여, 도 5에 도시된 바와 같은 모습에서 도 6에 도시된 바와 같은 모습으로 대시보드 메뉴가 증강현실 영상으로 표시되도록 제어할 수 있다. 여기서, 미리 정해진 시간은 1.5초 이상일 수 있으며, 착용자 또는 사용자에 의해 미리 정해진 시간이 설정될 수도 있다.The hand recognition unit 110 may transmit PUI recognition completion to the menu display unit 120 when the wearer's first hand 1 maintains a cleaved fist for a predetermined time. The menu display unit 120 may receive the recognition completion signal and control the dashboard menu to be displayed as an augmented reality image from the shape shown in FIG. 5 to the shape shown in FIG. 6 . Here, the predetermined time may be 1.5 seconds or more, and the predetermined time may be set by the wearer or the user.

시선 추적부(140)는, 착용자의 시선을 추적할 수 있다. 시선 추적부(140)는, 착용형 증강현실 장치(10)에서 착용자의 동공 영상으로부터 동공 위치를 검출하고, 이를 기초로 시선을 추적할 수 있다. 손 인식부(110)는, 시선 추적부(140)에서 추적된 착용자의 시선이, 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 미리 정해진 시간 동안 응시하면, PUI의 인식 완료를 메뉴 표시부(120)에 전달할 수 있다. 여기서, 미리 정해진 시간은 1.5초 이상일 수 있으나, 착용자 또는 사용자에 의해 미리 정해진 시간이 설정될 수 있다.The gaze tracking unit 140 may track the wearer's gaze. The gaze tracker 140 may detect a pupil position from the pupil image of the wearer in the wearable augmented reality device 10 and track the gaze based on the detected pupil position. The hand recognition unit 110, when the wearer's gaze tracked by the gaze tracking unit 140 gazes at the side of the wearer's first hand 1 clenched into a fist for a predetermined time, completes PUI recognition through the menu display unit (120). Here, the predetermined time may be 1.5 seconds or more, but the predetermined time may be set by the wearer or the user.

즉, 착용자가 제1 손(1)의 주먹 쥔 측면 모습의 자세를 미리 정해진 시간 동안 뷰 필드(view field) 내에서 유지하거나, 착용자가 제1 손(1)의 주먹 쥔 측면 모습을 유지하면서 미리 정해진 시간 동안 응시하면, 손 인식부(110)가 제1 손(1)의 모습을 PUI로 인식하게 되고, 인식이 완료되면 메뉴 표시부(120)가 대시보드 메뉴를 증강현실 영상으로 출력할 수 있다.That is, the wearer maintains the posture of the fisted side view of the first hand 1 within the field of view for a predetermined time, or the wearer maintains the fisted side view of the first hand 1 in advance. If you gaze for a predetermined time, the hand recognition unit 110 recognizes the shape of the first hand 1 as a PUI, and when the recognition is completed, the menu display unit 120 can output the dashboard menu as an augmented reality image. .

제어부(130)는, 착용자의 제2 손(2)에 의한 대시보드 메뉴의 선택 및 제2 손(2)의 손동작 인식에 따른 인터랙션을 수행할 수 있다. 여기서, 제2 손(2)의 손동작은, 손가락으로 표시된 대시보드 메뉴를 선택하는 동작일 수 있다.The controller 130 may perform interaction according to selection of a dashboard menu by the wearer's second hand 2 and recognition of a hand gesture of the second hand 2 . Here, the hand gesture of the second hand 2 may be an action of selecting a dashboard menu displayed with a finger.

도 7은 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)에서, 제2 손(2)동작에 따른 인터랙션이 수행되는 모습을 예를 들어 도시한 도면이다. 도 7에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 제어부(130)는, 제2 손(2)의 손가락으로 카메라 기능을 선택할 수 있으며, 선택 정보는 착용형 증강현실 장치(10)의 제어부(400)에 전달되어 카메라 기능이 활성화될 수 있다.FIG. 7 illustrates, for example, a state in which an interaction according to a motion of a second hand 2 is performed in the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention. it is a drawing As shown in FIG. 7 , the control unit 130 of the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention uses the fingers of the second hand 2 to camera A function may be selected, and the selection information may be transmitted to the control unit 400 of the wearable augmented reality device 10 and the camera function may be activated.

한편, 제어부(130)는 제2 손(2)의 손동작을 통해 대시보드 메뉴를 제어하는 인터랙션을 수행할 수 있다. 예를 들어, 제2 손(2)이 반원형으로 표시된 대시보드 메뉴를 시계방향이나 반시계방향 등으로 스크롤 하는 손동작을 통해, 대시보드 메뉴가 스크롤되는 인터랙션이 수행될 수 있다. 또한, 특정 아이콘을 드래그 앤드 드롭 하는 제2 손(2)의 손동작을 통해 아이콘을 이동시킬 수도 있다.Meanwhile, the controller 130 may perform an interaction for controlling the dashboard menu through a hand motion of the second hand 2 . For example, an interaction in which the dashboard menu is scrolled may be performed through a hand motion in which the second hand 2 scrolls the dashboard menu displayed in a semicircular shape clockwise or counterclockwise. In addition, the icon may be moved through a hand motion of the second hand 2 of dragging and dropping a specific icon.

도 8은 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)를 포함하는 착용형 증강현실 장치(10)의 전체적인 구성을 도시한 도면이다. 도 8에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)를 포함하는 착용형 증강현실 장치(10)는, 대시보드 제어 장치(100) 및 제어부(400)를 포함하여 구성될 수 있으며, HMD 프레임(200), 광학 디스플레이부(300), GPS 모듈(500), 카메라부(600), 센서부(700) 및 통신부(800)를 더 포함하여 구성될 수 있다.8 is a diagram showing the overall configuration of the wearable augmented reality device 10 including the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention. As shown in FIG. 8 , the wearable augmented reality device 10 including the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention is a dashboard control device. 100 and a control unit 400, and may include an HMD frame 200, an optical display unit 300, a GPS module 500, a camera unit 600, a sensor unit 700, and a communication unit 800. ) may be further included.

HMD 프레임(200)은, 사용자가 머리나 두부에 착용할 수 있는 착용형 증강현실 장치(10)의 프레임 구성이다. 이러한 HMD 프레임(200)은, 사용자가 머리에 착용한 상태에서 빛이 들어올 수 있는 프레임 구조를 갖는 헬멧(helmet) 형태 또는 고글(goggles) 형태로 구성될 수 있다. 여기서, HMD 프레임(200)이 헬멧 형태로 이루어지는 경우, 사용자의 머리에 착용되는 헬멧(미도시)과 헬멧의 전방에 배치되는 디스플레이 프레임(미도시) 구조로 구성될 수 있다. 또한, HMD 프레임(200)이 고글 형태로 구성되는 경우, 사용자의 머리에 착용될 수 있는 밴드 프레임(미도시)과, 밴드 프레임에 체결 고정되는 고글 프레임(미도시) 구조로 구성될 수 있다.The HMD frame 200 is a frame configuration of the wearable augmented reality device 10 that can be worn on the head or head by the user. The HMD frame 200 may be configured in the form of a helmet or goggles having a frame structure through which light may enter while worn on the head by a user. Here, when the HMD frame 200 is formed in the form of a helmet, it may be composed of a helmet (not shown) worn on the user's head and a display frame (not shown) disposed in front of the helmet. In addition, when the HMD frame 200 is configured in the form of goggles, it may be configured with a band frame (not shown) that can be worn on the user's head and a goggle frame (not shown) fastened and fixed to the band frame.

광학 디스플레이부(300)는, 착용자의 양안의 전방에 배치되어 착용자에게 증강현실 또는 혼합현실을 제공할 수 있다. 즉, 광학 디스플레이부(300)는 착용형 증강현실 장치(10)의 AR, VR 또는 MR 글라스에 해당하는 구성으로서, 영상 정보가 착용자에게 제공될 수 있도록 영상 광을 출력하는 OLED 등의 디스플레이 및 착용형 증강현실 장치(10)를 착용한 착용자의 양안의 전방에 배치되어 실제 세계의 광과 영상 광의 결합에 의한 증강현실을 제공하는 광학계를 포함하여 구성될 수 있다. 또한, 광학계는 복수의 렌즈와 미러 등으로 구성되며 다양한 방식으로 구현될 수 있는데, 예를 들어 광학 회절 방식, 빔 스플리터 방식, 핀 미러 방식 등으로 구현될 수 있다.The optical display unit 300 may be disposed in front of both eyes of the wearer to provide augmented reality or mixed reality to the wearer. That is, the optical display unit 300 is a component corresponding to the AR, VR or MR glasses of the wearable augmented reality device 10, and displays and wears an OLED that outputs image light so that image information can be provided to the wearer. It may be configured to include an optical system that is disposed in front of both eyes of the wearer wearing the type augmented reality device 10 and provides augmented reality by combining real world light and image light. In addition, the optical system is composed of a plurality of lenses and mirrors and may be implemented in various ways, such as an optical diffraction method, a beam splitter method, a pin mirror method, and the like.

GPS 모듈(500)은 착용자의 위치 정보를 제공하고, 카메라부(600)는 착용자가 바라보는 시선 방향의 영상을 촬영할 수 있다. 특히, 카메라부(600)는 손 영상을 촬영해 손 인식부(110)에 전달하여 비전 인식 기반으로 손동작과 손 마디를 인식할 수 있다.The GPS module 500 may provide location information of the wearer, and the camera unit 600 may capture an image in the direction of the wearer's gaze. In particular, the camera unit 600 may capture a hand image and transmit it to the hand recognizing unit 110 to recognize a hand motion and hand knuckles based on vision recognition.

제어부(400)는, GPS 모듈(500), 카메라부(600), 그 외 각종 센서에서 수집한 정보에 기초하여, 착용자에게 제공할 영상 정보를 생성해 디스플레이로 전송되도록 제어함으로써, 착용자가 증강현실을 통해 외부 환경에 대한 추가 정보 등을 최적화된 화면으로 전달받도록 할 수 있다.The control unit 400 generates image information to be provided to the wearer based on information collected by the GPS module 500, the camera unit 600, and other various sensors, and controls the image information to be transmitted to the display, so that the wearer can enjoy augmented reality. Through this, it is possible to receive additional information about the external environment through an optimized screen.

센서부(700)는, 적어도 하나 이상의 센서를 포함할 수 있으며, 보다 구체적으로 홍채 인식 센서 등을 포함할 수 있다. 실시예에 따라서, 착용자가 착용형 증강현실 장치(10)를 착용하고 사용자 인증을 하면, 제어부(400)는 각 착용자에 따라 저장된 조도, IPD(Inter-Pupillary Distance), 인터페이스 등 여러 가지 사용자별 설정 내용을 자동으로 적용할 수도 있다. 이때, 사용자 인증은 센서부(700)에 포함된 홍채 인식 센서 등을 사용할 수 있다.The sensor unit 700 may include at least one or more sensors, and more specifically, an iris recognition sensor or the like. According to the embodiment, when the wearer wears the wearable augmented reality device 10 and authenticates the user, the control unit 400 sets various user-specific settings such as illumination, IPD (Inter-Pupillary Distance), and interface stored according to each wearer. Content can be applied automatically. In this case, user authentication may use an iris recognition sensor included in the sensor unit 700 .

통신부(800)는, 착용형 증강현실 장치(10)의 일측에 설치되며, 다른 착용형 증강현실 장치(10)나 서버 등과 각종 신호 및 데이터를 송수신할 수 있다. 여기서, 통신부(800)가 사용하는 네트워크는, 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network), 위성 통신망, 블루투스(Bluetooth), Wibro(Wireless Broadband Internet), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution), 3/4/5G(3/4/5th Generation Mobile Telecommunication) 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The communication unit 800 is installed on one side of the wearable augmented reality device 10 and can transmit and receive various signals and data to and from other wearable augmented reality devices 10 or servers. Here, the network used by the communication unit 800 is a wired network or a mobile communication network such as a Local Area Network (LAN), a Wide Area Network (WAN), or a Value Added Network (VAN). radio communication network), satellite communication network, Bluetooth, Wibro (Wireless Broadband Internet), HSDPA (High Speed Downlink Packet Access), LTE (Long Term Evolution), 3/4/5G (3/4/5th Generation Mobile Telecommunication ) can be implemented in all types of wireless networks, such as

도 9는 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 방법의 흐름을 도시한 도면이다. 도 9에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 방법은, 착용자의 양손 중 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하며, PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손(2)의 손동작을 인식하는 손 인식부(110)를 포함하는 착용형 증강현실 장치(10)에 의해 각 단계가 수행되며, 착용자의 손 영상을 획득하는 단계(S110), 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하는 단계(S120), 대시보드 메뉴를 PUI 주변에 증강현실 영상으로 표시하여 제공하는 단계(S130), 착용자의 제2 손(2)에 의한 대시보드 메뉴의 선택 및 제2 손(2)의 손동작 인식에 따른 인터랙션을 수행하는 단계(S140)를 포함하여 구현될 수 있다.9 is a flow diagram illustrating a dashboard control method for the wearable augmented reality device 10 according to an embodiment of the present invention. As shown in FIG. 9 , in the dashboard control method for the wearable augmented reality device 10 according to an embodiment of the present invention, the side view of the first hand 1 of the wearer's both hands clenched into a fist is converted into a PUI. Each step is performed by the wearable augmented reality device 10 including the hand recognizer 110 that recognizes the hand motion of the second hand 2 for selecting the dashboard menu displayed as an augmented reality image around the PUI. Acquiring an image of the wearer's hand (S110), recognizing the side view of the wearer's first hand (1) clenched into a fist as a PUI (S120), displaying the dashboard menu as an augmented reality image around the PUI and providing (S130), selecting a dashboard menu by the second hand (2) of the wearer and performing an interaction according to hand gesture recognition of the second hand (2) (S140). .

각각의 단계들과 관련된 상세한 내용들은, 앞서 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)와 관련하여 충분히 설명되었으므로, 상세한 설명은 생략하기로 한다.Since the details related to each step have been sufficiently described in relation to the dashboard control device 100 for the wearable augmented reality device 10 according to an embodiment of the present invention, detailed descriptions will be omitted. .

전술한 바와 같이, 본 발명에서 제안하고 있는 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100) 및 대시보드 제어 방법에 따르면, 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 인식하고, 제1 손(1)의 주먹 주변에 대시보드 메뉴를 증강현실 영상으로 표시해 제공함으로써, 일반적으로 사용하지 않는 형상의 제스처면서도 신체 구조상 편안하게 모션을 취해 사용할 수 있고, 액세서리나 의복의 영향 없이 대시보드 메뉴를 불러올 수 있어 인식 오류를 최소화할 수 있다.As described above, according to the dashboard control device 100 and the dashboard control method for the wearable augmented reality device 10 proposed in the present invention, the side view of the wearer's first hand 1 clenched into a fist By recognizing and providing the dashboard menu displayed as an augmented reality image around the fist of the first hand (1), it is possible to use it comfortably by taking a motion due to the body structure even though it is a gesture of a shape that is not generally used, and the influence of accessories or clothing Since the dashboard menu can be called up without the need, recognition errors can be minimized.

한편, 본 발명은 다양한 통신 단말기로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터에서 판독 가능한 매체를 포함할 수 있다. 예를 들어, 컴퓨터에서 판독 가능한 매체는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD_ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.Meanwhile, the present invention may include a computer-readable medium including program instructions for performing operations implemented in various communication terminals. For example, computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD_ROMs and DVDs, and floptical disks. It may include hardware devices specially configured to store and execute program instructions, such as magneto-optical media and ROM, RAM, flash memory, and the like.

이와 같은 컴퓨터에서 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이때, 컴퓨터에서 판독 가능한 매체에 기록되는 프로그램 명령은 본 발명을 구현하기 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예를 들어, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Such computer-readable media may include program instructions, data files, data structures, etc. alone or in combination. At this time, program instructions recorded on a computer-readable medium may be specially designed and configured to implement the present invention, or may be known and usable to those skilled in computer software. For example, it may include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes generated by a compiler.

이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention described above can be variously modified or applied by those skilled in the art to which the present invention belongs, and the scope of the technical idea according to the present invention should be defined by the claims below.

1: 제1 손
2: 제2 손
10: 착용형 증강현실 장치
100: 대시보드 제어 장치
110: 손 인식부
120: 메뉴 표시부
130: 제어부
140: 시선 추적부
200: HMD 프레임
300: 광학 디스플레이부
400: 제어부
500: GPS 모듈
600: 카메라부
700: 센서부
800: 통신부
S110: 착용자의 손 영상을 획득하는 단계
S120: 착용자의 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하는 단계
S130: 대시보드 메뉴를 PUI 주변에 증강현실 영상으로 표시하여 제공하는 단계
S140: 착용자의 제2 손에 의한 대시보드 메뉴의 선택 및 제2 손의 손동작 인식에 따른 인터랙션을 수행하는 단계
1: first hand
2: second hand
10: wearable augmented reality device
100: dashboard control device
110: hand recognition unit
120: menu display unit
130: control unit
140: gaze tracking unit
200: HMD frame
300: optical display unit
400: control unit
500: GPS module
600: camera unit
700: sensor unit
800: communication department
S110: Acquiring an image of the wearer's hand
S120: Recognizing a side view of the wearer's first hand clenched into a fist as PUI
S130: Step of displaying and providing the dashboard menu as an augmented reality image around the PUI
S140: Performing an interaction according to the selection of the dashboard menu by the wearer's second hand and recognition of the gesture of the second hand

Claims (8)

착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)로서,
상기 착용형 증강현실 장치(10)의 카메라로부터 획득한 착용자의 손 영상으로부터 상기 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 PUI(Physical User Interface)로 인식하는 손 인식부(110);
상기 손 인식부(110)에서 상기 PUI 인식이 완료되면, 대시보드 메뉴를 상기 인식된 PUI 주변에 증강현실 영상으로 표시하여 제공하는 메뉴 표시부(120); 및
착용자의 제2 손(2)에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손(2)의 손동작 인식에 따른 인터랙션을 수행하는 제어부(130)를 포함하며,
상기 대시보드 메뉴는,
상기 인식된 PUI인 상기 제1 손(1)의 주먹의 중앙 위치를 중심으로 미리 정해진 거리에 반원형 호 또는 원형으로 표시되는 복수의 항목으로 구성되며,
상기 제어부(130)는,
상기 제2 손(2)이 상기 대시보드 메뉴를 시계방향이나 반시계방향으로 스크롤하는 손동작을 통해, 상기 대시보드 메뉴가 스크롤되는 인터랙션을 수행하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
As a dashboard control device 100 for a wearable augmented reality device 10,
a hand recognizer 110 recognizing a side view of the wearer's first hand 1 clenched into a fist from the wearer's hand image acquired from the camera of the wearable augmented reality device 10 as a Physical User Interface (PUI);
When the hand recognition unit 110 completes recognizing the PUI, a menu display unit 120 that displays and provides a dashboard menu as an augmented reality image around the recognized PUI; and
It includes a controller 130 that performs an interaction according to the selection of the dashboard menu by the second hand 2 of the wearer and the recognition of the hand gesture of the second hand 2,
The dashboard menu,
It consists of a plurality of items displayed in a semicircular arc or circle at a predetermined distance around the central position of the fist of the first hand 1, which is the recognized PUI,
The controller 130,
The wearable augmented reality device (10), characterized in that the second hand (2) performs an interaction in which the dashboard menu is scrolled through a hand motion of scrolling the dashboard menu clockwise or counterclockwise. Dashboard control device (100) for.
제1항에 있어서, 상기 손 인식부(110)는,
상기 착용형 증강현실 장치(10)의 적외선 이미지 카메라로부터 적외선 손 영상을 사용하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
The method of claim 1, wherein the hand recognition unit 110,
The dashboard control device 100 for the wearable augmented reality device 10, characterized in that using an infrared hand image from the infrared image camera of the wearable augmented reality device 10.
제1항에 있어서, 상기 손 인식부(110)는,
상기 착용자의 양손 중 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하며, 상기 PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손(2)의 손동작을 인식하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
The method of claim 1, wherein the hand recognition unit 110,
Recognizes a side view of the first hand (1) of the wearer's hands (1) clenched into a fist as a PUI, and recognizes a hand gesture of the second hand (2) for selecting a dashboard menu displayed as an augmented reality image around the PUI. To, the dashboard control device 100 for the wearable augmented reality device 10.
제1항에 있어서, 상기 손 인식부(110)는,
상기 손 영상으로부터 착용자의 제1 손(1)의 형상 또는 특징점을 추출해, 상기 PUI를 인식하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
The method of claim 1, wherein the hand recognition unit 110,
The dashboard control device 100 for the wearable augmented reality device 10, characterized in that the PUI is recognized by extracting the shape or feature point of the first hand 1 of the wearer from the hand image.
제1항에 있어서, 상기 메뉴 표시부(120)는,
상기 손 인식부(110)와 연동하며, 상기 손 인식부(110)의 상기 PUI의 인식 상태를 나타내는 로딩 이미지를 상기 착용자의 제1 손(1)의 주먹 쥔 측면 모습 위에 증강현실 영상으로 표시하여 제공하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
The method of claim 1, wherein the menu display unit 120,
It interworks with the hand recognition unit 110, and displays a loading image representing the PUI recognition state of the hand recognition unit 110 as an augmented reality image on the side of the wearer's first hand 1 clenched into a fist. Characterized in that it provides, the dashboard control device 100 for the wearable augmented reality device 10.
제1항에 있어서, 상기 손 인식부(110)는,
상기 착용자의 제1 손(1)이 미리 정해진 시간 동안 주먹 쥔 측면 모습을 유지하면, 상기 PUI의 인식 완료를 상기 메뉴 표시부(120)에 전달하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
The method of claim 1, wherein the hand recognition unit 110,
When the wearer's first hand (1) maintains a fist-clenched side view for a predetermined time, the PUI recognition completion is transmitted to the menu display unit (120), wearable augmented reality device (10) Dashboard control device (100) for.
제1항에 있어서,
착용자의 시선을 추적하는 시선 추적부(140)를 더 포함하며,
상기 손 인식부(110)는,
상기 시선 추적부(140)에서 추적된 착용자의 시선이, 상기 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 미리 정해진 시간 동안 응시하면, 상기 PUI의 인식 완료를 상기 메뉴 표시부(120)에 전달하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
According to claim 1,
It further includes a gaze tracking unit 140 that tracks the wearer's gaze,
The hand recognition unit 110,
When the wearer's gaze tracked by the gaze tracking unit 140 gazes at the side of the wearer's first hand 1 making a fist for a predetermined time, completion of PUI recognition is displayed on the menu display unit 120. Dashboard control device 100 for the wearable augmented reality device 10, characterized in that it transmits.
착용형 증강현실 장치(10)를 위한 대시보드 제어 방법으로서,
착용자의 양손 중 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하며, 상기 PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손(2)의 손동작을 인식하는 손 인식부(110)를 포함하는 상기 착용형 증강현실 장치(10)에 의해 각 단계가 수행되며,
(1) 상기 착용형 증강현실 장치(10)의 카메라로부터 착용자의 손 영상을 획득하는 단계;
(2) 상기 손 인식부(110)에서 상기 손 영상으로부터 상기 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하는 단계;
(3) 상기 단계 (2)에서 상기 PUI의 인식이 완료되면, 대시보드 메뉴를 상기 PUI 주변에 증강현실 영상으로 표시하여 제공하는 단계; 및
(4) 착용자의 제2 손(2)에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손(2)의 손동작 인식에 따른 인터랙션을 수행하는 단계를 포함하며,
상기 대시보드 메뉴는,
상기 인식된 PUI인 상기 제1 손(1)의 주먹의 중앙 위치를 중심으로 미리 정해진 거리에 반원형 호 또는 원형으로 표시되는 복수의 항목으로 구성되며,
상기 단계 (4)에서는,
상기 제2 손(2)이 상기 대시보드 메뉴를 시계방향이나 반시계방향으로 스크롤하는 손동작을 통해, 상기 대시보드 메뉴가 스크롤되는 인터랙션을 수행하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 방법.
As a dashboard control method for the wearable augmented reality device 10,
A hand recognition unit that recognizes a side view of the first hand (1) of the wearer's hands (1) clenched into a fist as a PUI, and recognizes a hand gesture of the second hand (2) selecting a dashboard menu displayed as an augmented reality image around the PUI Each step is performed by the wearable augmented reality device 10 including 110,
(1) acquiring a hand image of the wearer from the camera of the wearable augmented reality device 10;
(2) recognizing, in the hand recognition unit 110, a side view of the wearer's first hand 1 clenched into a fist from the hand image as a PUI;
(3) if the recognition of the PUI is completed in step (2), displaying and providing a dashboard menu as an augmented reality image around the PUI; and
(4) selecting the dashboard menu by the wearer's second hand 2 and performing an interaction according to hand gesture recognition of the second hand 2;
The dashboard menu,
It consists of a plurality of items displayed in a semicircular arc or circle at a predetermined distance around the central position of the fist of the first hand 1, which is the recognized PUI,
In the step (4),
The wearable augmented reality device (10), characterized in that the second hand (2) performs an interaction in which the dashboard menu is scrolled through a hand motion of scrolling the dashboard menu clockwise or counterclockwise. Dashboard control method for .
KR1020210104214A 2021-08-06 2021-08-06 Dashboard control apparatus and method for wearable augmented reality device Active KR102539045B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210104214A KR102539045B1 (en) 2021-08-06 2021-08-06 Dashboard control apparatus and method for wearable augmented reality device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210104214A KR102539045B1 (en) 2021-08-06 2021-08-06 Dashboard control apparatus and method for wearable augmented reality device

Publications (2)

Publication Number Publication Date
KR20230022065A KR20230022065A (en) 2023-02-14
KR102539045B1 true KR102539045B1 (en) 2023-06-02

Family

ID=85220895

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210104214A Active KR102539045B1 (en) 2021-08-06 2021-08-06 Dashboard control apparatus and method for wearable augmented reality device

Country Status (1)

Country Link
KR (1) KR102539045B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101708455B1 (en) 2015-09-08 2017-02-21 엠더블유엔테크 주식회사 Hand Float Menu System
KR101812227B1 (en) * 2016-05-26 2017-12-27 (주)인시그널 Smart glass based on gesture recognition
KR102286018B1 (en) 2020-09-09 2021-08-05 주식회사 피앤씨솔루션 Wearable augmented reality device that inputs mouse events using hand gesture and method of mouse event input for wearable augmented reality device using hand gesture

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112651288B (en) * 2014-06-14 2022-09-20 奇跃公司 Method and system for generating virtual and augmented reality
KR101815973B1 (en) * 2016-06-10 2018-01-08 재단법인 실감교류인체감응솔루션연구단 Menu sharing system in 3-dimensional shared space and method thereof
US20190324549A1 (en) * 2018-04-20 2019-10-24 Immersion Corporation Systems, devices, and methods for providing immersive reality interface modes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101708455B1 (en) 2015-09-08 2017-02-21 엠더블유엔테크 주식회사 Hand Float Menu System
KR101812227B1 (en) * 2016-05-26 2017-12-27 (주)인시그널 Smart glass based on gesture recognition
KR102286018B1 (en) 2020-09-09 2021-08-05 주식회사 피앤씨솔루션 Wearable augmented reality device that inputs mouse events using hand gesture and method of mouse event input for wearable augmented reality device using hand gesture

Also Published As

Publication number Publication date
KR20230022065A (en) 2023-02-14

Similar Documents

Publication Publication Date Title
US12174378B2 (en) External user interface for head worn computing
US9939934B2 (en) External user interface for head worn computing
KR102788907B1 (en) Electronic device for operating various functions in augmented reality environment and operating method thereof
US20160025977A1 (en) External user interface for head worn computing
CN103827780A (en) Methods and systems for a virtual input device
US20240103716A1 (en) Methods for interacting with user interfaces based on attention
KR20160137253A (en) Augmented Reality Device, User Interaction Apparatus and Method for the Augmented Reality Device
US20240103678A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
JP2023138856A (en) Display control method
US20250199623A1 (en) Devices, methods, and graphical user interfaces for using a cursor to interact with three-dimensional environments
US20240126377A1 (en) Personalized calibration of user interfaces
KR102539045B1 (en) Dashboard control apparatus and method for wearable augmented reality device
KR102522142B1 (en) Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture
JP2023020731A (en) Equipment and programs
KR102633495B1 (en) Method of operating an app library through recognition of wrist and trigger gesture and head-mounted display apparatus in which the app library operates
KR102636996B1 (en) Method for providing a virtual menu based on hand recognition for ar glasses apparatus and ar glasses system for providing a virtual menu based on hand recognition
KR102585343B1 (en) Wearable augmented reality device that provides an interface using hand koint recognition and method of providing an interface of a wearable augmented reality device using hand joint recognition
US12105926B2 (en) XR manipulation feature with smart watch
US20240220097A1 (en) Virtual mouse with tactile feedback provided via keyboard keys
JP7560591B2 (en) Method, computing system, and computer-readable storage medium for controlling a user interface - Patents.com
KR102633493B1 (en) Confirmation event handling method and apparatus for head-mounted display apparatus
CN115877942A (en) Electronic device and method of controlling the same by detecting state of user's eyes

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20210806

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230220

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20230522

PG1601 Publication of registration