KR102539045B1 - Dashboard control apparatus and method for wearable augmented reality device - Google Patents
Dashboard control apparatus and method for wearable augmented reality device Download PDFInfo
- Publication number
- KR102539045B1 KR102539045B1 KR1020210104214A KR20210104214A KR102539045B1 KR 102539045 B1 KR102539045 B1 KR 102539045B1 KR 1020210104214 A KR1020210104214 A KR 1020210104214A KR 20210104214 A KR20210104214 A KR 20210104214A KR 102539045 B1 KR102539045 B1 KR 102539045B1
- Authority
- KR
- South Korea
- Prior art keywords
- hand
- augmented reality
- dashboard
- pui
- wearer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 착용형 증강현실 장치를 위한 대시보드 제어 장치에 관한 것으로서, 보다 구체적으로는 착용형 증강현실 장치를 위한 대시보드 제어 장치로서, 상기 착용형 증강현실 장치의 카메라로부터 획득한 착용자의 손 영상으로부터 상기 착용자의 제1 손의 주먹 쥔 측면 모습을 PUI(Physical User Interface)로 인식하는 손 인식부; 상기 손 인식부에서 상기 PUI 인식이 완료되면, 대시보드 메뉴를 상기 인식된 PUI 주변에 증강현실 영상으로 표시하여 제공하는 메뉴 표시부; 및 착용자의 제2 손에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손의 손동작 인식에 따른 인터랙션을 수행하는 제어부를 포함하는 것을 그 구성상의 특징으로 한다.
또한, 본 발명은 착용형 증강현실 장치를 위한 대시보드 제어 방법에 관한 것으로서, 보다 구체적으로는 착용형 증강현실 장치를 위한 대시보드 제어 방법으로서, 착용자의 양손 중 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하며, 상기 PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손의 손동작을 인식하는 손 인식부를 포함하는 상기 착용형 증강현실 장치에 의해 각 단계가 수행되며, (1) 상기 착용형 증강현실 장치의 카메라로부터 착용자의 손 영상을 획득하는 단계; (2) 상기 손 인식부에서 상기 손 영상으로부터 상기 착용자의 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하는 단계; (3) 상기 단계 (2)에서 상기 PUI의 인식이 완료되면, 대시보드 메뉴를 상기 PUI 주변에 증강현실 영상으로 표시하여 제공하는 단계; 및 (4) 착용자의 제2 손에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손의 손동작 인식에 따른 인터랙션을 수행하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법에 따르면, 착용자의 제1 손의 주먹 쥔 측면 모습을 인식하고, 제1 손의 주먹 주변에 대시보드 메뉴를 증강현실 영상으로 표시해 제공함으로써, 일반적으로 사용하지 않는 형상의 제스처면서도 신체 구조상 편안하게 모션을 취해 사용할 수 있고, 액세서리나 의복의 영향 없이 대시보드 메뉴를 불러올 수 있어 인식 오류를 최소화할 수 있다.The present invention relates to a dashboard control device for a wearable augmented reality device, and more particularly, to a dashboard control device for a wearable augmented reality device, wherein an image of a wearer's hand obtained from a camera of the wearable augmented reality device is provided. a hand recognition unit recognizing a side view of the wearer's first hand clenched into a fist from the physical user interface (PUI); a menu display unit displaying and providing a dashboard menu as an augmented reality image around the recognized PUI when the recognition of the PUI by the hand recognition unit is completed; and a control unit that performs an interaction according to selection of the dashboard menu by a wearer's second hand and recognition of a hand gesture of the second hand.
In addition, the present invention relates to a dashboard control method for a wearable augmented reality device, and more specifically, as a dashboard control method for a wearable augmented reality device, the side view of the first hand clenched into a fist of both hands of the wearer Each step is performed by the wearable augmented reality device including a hand recognition unit that recognizes a PUI and recognizes a hand gesture of a second hand for selecting a dashboard menu displayed as an augmented reality image around the PUI, (1) acquiring a hand image of the wearer from a camera of the wearable augmented reality device; (2) recognizing a side view of the wearer's first hand clenched into a fist from the hand image by the hand recognition unit as a PUI; (3) if the recognition of the PUI is completed in step (2), displaying and providing a dashboard menu as an augmented reality image around the PUI; and (4) selecting the dashboard menu by the wearer's second hand and performing an interaction according to hand motion recognition of the second hand.
According to the dashboard control device and dashboard control method for a wearable augmented reality device proposed in the present invention, a side view of a wearer's first hand clenched into a fist is recognized, and a dashboard menu is displayed around the fist of the first hand. By displaying and providing an augmented reality image, it is possible to comfortably use motions in terms of body structure even though it is a gesture of a shape that is not normally used, and it is possible to minimize recognition errors by calling up the dashboard menu without the influence of accessories or clothing.
Description
본 발명은 착용형 증강현실 장치에 관한 것으로서, 보다 구체적으로는 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법에 관한 것이다.The present invention relates to a wearable augmented reality device, and more particularly, to a dashboard control device and dashboard control method for a wearable augmented reality device.
디지털 디바이스의 경량화 및 소형화 추세에 따라 다양한 웨어러블 디바이스(wearable device)들이 개발되고 있다. 이러한 웨어러블 디바이스의 일종인 헤드 마운티드 디스플레이(Head Mounted Display)는 사용자가 머리에 착용하여 멀티미디어 컨텐츠 등을 제공받을 수 있는 각종 디바이스를 의미한다. 여기서 헤드 마운티드 디스플레이(HMD)는 사용자의 신체에 착용 되어 사용자가 이동함에 따라서 다양한 환경에서 사용자에게 영상을 제공하게 된다. 이러한 헤드 마운티드 디스플레이(HMD)는 투과(see-through)형과 밀폐(see-closed)형으로 구분되고 있으며, 투과형은 주로 증강현실(Augmented Reality, AR)용으로 사용되고, 밀폐형은 주로 가상현실(Virtual Reality, VR)용으로 사용되고 있다.Various wearable devices are being developed according to the trend of light weight and miniaturization of digital devices. A head mounted display, which is a kind of wearable device, refers to various devices that can be worn on a user's head to receive multimedia contents and the like. Here, the head mounted display (HMD) is worn on the user's body and provides images to the user in various environments as the user moves. Head-mounted displays (HMDs) are classified into see-through and see-closed types. The see-through type is mainly used for Augmented Reality (AR), and the closed type is mainly used for virtual reality (VR). reality, VR).
헤드 마운티드 디스플레이는 기존의 터치스크린과 같은 입력 방식을 사용하기 어려우므로, 사용자 상호작용을 위한 최적화된 입력 방식이 필요하다. 헤드 마운티드 디스플레이의 증강현실에서 사용할 수 있는 입력 방식으로, HMD에 구비된 버튼이나 HMD와 연결된 별도의 입력 장치, 제스처 인식, 음성인식 등이 있을 수 있다.Since it is difficult to use an input method such as a conventional touch screen in a head-mounted display, an input method optimized for user interaction is required. As an input method that can be used in the augmented reality of the head-mounted display, there may be buttons provided in the HMD, a separate input device connected to the HMD, gesture recognition, voice recognition, and the like.
그러나 기존의 증강현실을 위한 헤드 마운티드 디스플레이의 유저 인터페이스(User Interface, UI)에서, 제스처 인식은 보통 손가락의 인식에 기반을 두고 있으므로, 대시보드를 출력하는 명령을 입력하는 특별한 방안이 요구되고 있다.However, since gesture recognition is usually based on finger recognition in the existing user interface (UI) of a head-mounted display for augmented reality, a special method for inputting a command to output a dashboard is required.
한편, 본 발명과 관련된 선행기술로서, 등록특허 제10-1700569호(발명의 명칭: 제스처 기반의 사용자 인증이 가능한 HMD 장치 및 상기 HMD 장치의 제스처 기반의 사용자 인증 방법, 등록일자: 2017년 01월 23일) 등이 개시된 바 있다.On the other hand, as a prior art related to the present invention, Patent Registration No. 10-1700569 (Title of Invention: HMD device capable of gesture-based user authentication and gesture-based user authentication method of the HMD device, registration date: January 2017 23), etc. have been disclosed.
본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 착용자의 제1 손의 주먹 쥔 측면 모습을 인식하고, 제1 손의 주먹 주변에 대시보드 메뉴를 증강현실 영상으로 표시해 제공함으로써, 일반적으로 사용하지 않는 형상의 제스처면서도 신체 구조상 편안하게 모션을 취해 사용할 수 있고, 액세서리나 의복의 영향 없이 대시보드 메뉴를 불러올 수 있어 인식 오류를 최소화할 수 있는, 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법을 제공하는 것을 그 목적으로 한다.The present invention has been proposed to solve the above problems of the previously proposed methods, recognizing the side view of the wearer's first hand clenched into a fist, and displaying a dashboard menu around the fist of the first hand as an augmented reality image. A wearable augmented reality device that can be used by displaying and providing gestures of shapes that are not normally used, but can be used by taking motion comfortably due to the body structure, and can minimize recognition errors by calling up the dashboard menu without the influence of accessories or clothing Its purpose is to provide a dashboard control device and dashboard control method for
상기한 목적을 달성하기 위한 본 발명의 특징에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치는,Dashboard control device for a wearable augmented reality device according to the features of the present invention for achieving the above object,
착용형 증강현실 장치를 위한 대시보드 제어 장치로서,As a dashboard control device for a wearable augmented reality device,
상기 착용형 증강현실 장치의 카메라로부터 획득한 착용자의 손 영상으로부터 상기 착용자의 제1 손의 주먹 쥔 측면 모습을 PUI(Physical User Interface)로 인식하는 손 인식부;a hand recognition unit recognizing a side view of the wearer's first hand clenched into a fist from the image of the wearer's hand acquired from the camera of the wearable augmented reality device as a Physical User Interface (PUI);
상기 손 인식부에서 상기 PUI 인식이 완료되면, 대시보드 메뉴를 상기 인식된 PUI 주변에 증강현실 영상으로 표시하여 제공하는 메뉴 표시부; 및a menu display unit displaying and providing a dashboard menu as an augmented reality image around the recognized PUI when the recognition of the PUI by the hand recognition unit is completed; and
착용자의 제2 손에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손의 손동작 인식에 따른 인터랙션을 수행하는 제어부를 포함하는 것을 그 구성상의 특징으로 한다.It is characterized in that it includes a control unit that performs interaction according to selection of the dashboard menu by the wearer's second hand and recognition of the hand gesture of the second hand.
바람직하게는, 상기 손 인식부는,Preferably, the hand recognition unit,
상기 착용형 증강현실 장치의 적외선 이미지 카메라로부터 적외선 손 영상을 사용할 수 있다.An infrared hand image may be used from an infrared image camera of the wearable augmented reality device.
바람직하게는, 상기 손 인식부는,Preferably, the hand recognition unit,
상기 착용자의 양손 중 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하며, 상기 PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손의 손동작을 인식할 수 있다.A side view of the wearer's first hand clenched into a fist may be recognized as a PUI, and a hand gesture of the second hand for selecting a dashboard menu displayed as an augmented reality image around the PUI may be recognized.
바람직하게는, 상기 손 인식부는,Preferably, the hand recognition unit,
상기 손 영상으로부터 착용자의 제1 손의 형상 또는 특징점을 추출해, 상기 PUI를 인식할 수 있다.The PUI may be recognized by extracting a shape or feature point of the first hand of the wearer from the hand image.
바람직하게는, 상기 메뉴 표시부는,Preferably, the menu display unit,
상기 손 인식부와 연동하며, 상기 손 인식부의 상기 PUI의 인식 상태를 나타내는 로딩 이미지를 상기 착용자의 제1 손의 주먹 쥔 측면 모습 위에 증강현실 영상으로 표시하여 제공할 수 있다.It may interwork with the hand recognition unit, and display and provide a loading image representing a recognition state of the PUI by the hand recognition unit as an augmented reality image on a side view of the wearer's first hand making a fist.
바람직하게는, 상기 손 인식부는,Preferably, the hand recognition unit,
상기 착용자의 제1 손이 미리 정해진 시간 동안 주먹 쥔 측면 모습을 유지하면, 상기 PUI의 인식 완료를 상기 메뉴 표시부에 전달할 수 있다.When the first hand of the wearer maintains a side view with a clenched fist for a predetermined time, completion of recognizing the PUI may be transmitted to the menu display unit.
바람직하게는,Preferably,
착용자의 시선을 추적하는 시선 추적부를 더 포함하며,Further comprising a gaze tracking unit for tracking the wearer's gaze,
상기 손 인식부는,The hand recognition unit,
상기 시선 추적부에서 추적된 착용자의 시선이, 상기 착용자의 제1 손의 주먹 쥔 측면 모습을 미리 정해진 시간 동안 응시하면, 상기 PUI의 인식 완료를 상기 메뉴 표시부에 전달할 수 있다.When the wearer's gaze tracked by the gaze tracking unit gazes at a side view of the wearer's first hand clenched into a fist for a predetermined time, completion of PUI recognition may be transmitted to the menu display unit.
또한, 상기한 목적을 달성하기 위한 본 발명의 특징에 따른 착용형 증강현실 장치를 위한 대시보드 제어 방법은,In addition, the dashboard control method for the wearable augmented reality device according to the features of the present invention for achieving the above object,
착용형 증강현실 장치를 위한 대시보드 제어 방법으로서,A dashboard control method for a wearable augmented reality device,
착용자의 양손 중 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하며, 상기 PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손의 손동작을 인식하는 손 인식부를 포함하는 상기 착용형 증강현실 장치에 의해 각 단계가 수행되며,The wearable augmentation including a hand recognition unit recognizing a side view of a first hand clenched into a fist among both hands of the wearer as a PUI and recognizing a hand gesture of a second hand for selecting a dashboard menu displayed as an augmented reality image around the PUI. Each step is performed by a reality device,
(1) 상기 착용형 증강현실 장치의 카메라로부터 착용자의 손 영상을 획득하는 단계;(1) acquiring a hand image of the wearer from the camera of the wearable augmented reality device;
(2) 상기 손 인식부에서 상기 손 영상으로부터 상기 착용자의 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하는 단계;(2) recognizing a side view of the wearer's first hand clenched into a fist from the hand image by the hand recognition unit as a PUI;
(3) 상기 단계 (2)에서 상기 PUI의 인식이 완료되면, 대시보드 메뉴를 상기 PUI 주변에 증강현실 영상으로 표시하여 제공하는 단계; 및(3) if the recognition of the PUI is completed in step (2), displaying and providing a dashboard menu as an augmented reality image around the PUI; and
(4) 착용자의 제2 손에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손의 손동작 인식에 따른 인터랙션을 수행하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.(4) Selecting the dashboard menu by the wearer's second hand and performing an interaction according to hand gesture recognition of the second hand is a feature of the configuration.
본 발명에서 제안하고 있는 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법에 따르면, 착용자의 제1 손의 주먹 쥔 측면 모습을 인식하고, 제1 손의 주먹 주변에 대시보드 메뉴를 증강현실 영상으로 표시해 제공함으로써, 일반적으로 사용하지 않는 형상의 제스처면서도 신체 구조상 편안하게 모션을 취해 사용할 수 있고, 액세서리나 의복의 영향 없이 대시보드 메뉴를 불러올 수 있어 인식 오류를 최소화할 수 있다.According to the dashboard control device and dashboard control method for a wearable augmented reality device proposed in the present invention, a side view of a wearer's first hand clenched into a fist is recognized, and a dashboard menu is displayed around the fist of the first hand. By displaying and providing an augmented reality image, it is possible to comfortably use motions in terms of body structure even though it is a gesture of a shape that is not normally used, and it is possible to minimize recognition errors by calling up the dashboard menu without the influence of accessories or clothing.
도 1은 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치의 구성을 도시한 도면.
도 2는 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치에서 대시보드가 제공된 모습을 예를 들어 도시한 도면.
도 3 및 도 4는 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치에서, 손 인식부의 인식 방식을 예를 들어 도시한 도면.
도 5는 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치에서, 로딩 이미지가 표시된 모습을 예를 들어 도시한 도면.
도 6은 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치에서, 대시보드 메뉴가 표시된 모습을 예를 들어 도시한 도면.
도 7은 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치에서, 제2 손동작에 따른 인터랙션이 수행되는 모습을 예를 들어 도시한 도면.
도 8은 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 장치를 포함하는 착용형 증강현실 장치의 전체적인 구성을 도시한 도면.
도 9는 본 발명의 일실시예에 따른 착용형 증강현실 장치를 위한 대시보드 제어 방법의 흐름을 도시한 도면.1 is a diagram showing the configuration of a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
2 is a diagram showing, for example, a state in which a dashboard is provided in a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
3 and 4 are diagrams showing, for example, a recognition method of a hand recognition unit in a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
5 is a view showing, for example, a state in which a loading image is displayed in a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
6 is a diagram showing, for example, a dashboard menu displayed in a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
7 is a view showing, for example, how an interaction according to a second hand gesture is performed in a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
8 is a view showing the overall configuration of a wearable augmented reality device including a dashboard control device for a wearable augmented reality device according to an embodiment of the present invention.
9 is a flowchart illustrating a dashboard control method for a wearable augmented reality device according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing a preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and actions.
덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’ 되어 있다고 할 때, 이는 ‘직접적으로 연결’ 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’ 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’ 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In addition, throughout the specification, when a part is said to be 'connected' to another part, this is not only the case where it is 'directly connected', but also the case where it is 'indirectly connected' with another element in between. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components unless otherwise specified.
도 1은 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 구성을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)는, 손 인식부(110), 메뉴 표시부(120) 및 제어부(130)를 포함하여 구성될 수 있으며, 시선 추적부(140)를 더 포함하여 구성될 수 있다.1 is a diagram showing the configuration of a
즉, 대시보드 제어 장치(100)는 착용형 증강현실 장치(10)의 대시보드 인터페이스를 증강현실 기반으로 제공할 수 있다. 보다 구체적으로, 착용형 증강현실 장치(10)는, 손 인식부(110), 메뉴 표시부(120) 및 제어부(130)를 포함하여 구성되는 대시보드 제어 장치(100)를 포함하며, 대시보드 제어 장치(100)는 착용형 증강현실 장치(10)의 구성요소 중 하나로서, 카메라부(600)에서 수집된 손 영상을 이용해 대시보드 메뉴를 제공하며, 대시보드 제어 장치(100)에 의해 제공되는 대시보드를 통해 제어부(400)가 각종 입력 신호를 수신하고 착용형 증강현실 장치(10)의 기능을 수행할 수 있다.That is, the
여기서, 대시보드(dashboard)는, 한 화면에서 다양한 정보를 중앙 집중적으로 관리하고 찾을 수 있도록 하는 사용자 인터페이스(UI) 기능으로, 여러 종류의 콘텐츠를 재사용할 수 있도록 구성하고, 문서, 웹 페이지, 메시징, 미디어 파일 등 다양한 콘텐츠를 한 화면에서 관리할 수 있다. 예를 들어, 설정, 기본 런처, 홈 화면 등이 대시보드일 수 있으며, 대시보드에서 사용자가 원하는 기능을 선택하는 것으로 인터랙션 할 수 있다.Here, the dashboard is a user interface (UI) function that allows centralized management and finding of various information on one screen. , media files, etc. can be managed on one screen. For example, settings, default launcher, home screen, etc. can be dashboards, and users can interact with them by selecting desired functions on the dashboard.
한편, 착용형 증강현실 장치(10)는 사용자의 머리 또는 두부에 착용 되며, 착용형 증강현실 장치(10)를 착용한 사용자가 광학계를 통해 투과되어 보이는 현실 세계와 디스플레이에서 출력되어 광학계를 통해 착용자의 동공으로 전달되는 영상 정보를 함께 제공받아 증강현실을 경험할 수 있도록 하는 장치일 수 있다. 여기서, 착용형 증강현실 장치(10)는 글라스형, 고글형 등 다양할 수 있으며, 사용자의 신체에 착용 되어 착용자의 시야를 통한 증강현실을 경험할 수 있도록 한다면 그 구체적인 형태나 종류와 관계없이 본 발명의 착용형 증강현실 장치(10)의 역할을 할 수 있다.On the other hand, the wearable augmented
도 2는 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)에서 대시보드가 제공된 모습을 예를 들어 도시한 도면이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)는, 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하여, 제1 손(1)의 주먹 주변으로 대시보드 메뉴를 증강현실 영상으로 표시해 인터페이스를 제공할 수 있다. 착용자는 양손 중에서 대시보드 메뉴 표시를 위한 PUI로 사용된 제1 손(1)과 다른 손 즉, 제2 손(2)을 사용해 표시된 대시보드 메뉴 중 어느 하나를 선택할 수 있고(도 2에서는 카메라 기능 선택), 제어부(130)는 선택된 기능을 실행하는 등 제2 손(2)의 손동작에 따른 인터랙션을 수행할 수 있다.FIG. 2 is a view showing, for example, a state in which a dashboard is provided in the
AR 글래스와 같은 착용형 증강현실 장치(10)에서 작동 제어는 대부분 손가락 인식이 PUI(Physical User Interface, 물리적 사용자 입력부)로 사용되므로, 손가락 제스처를 대시보드 불러오기에 활용하기는 어렵다. 따라서 일반적으로는 사용하지 않는 범위의 손 형상, 손 모습을 특정해 대시보드 제어를 위한 PUI로 사용할 수 있다. 예를 들어, 마이크로소프트사의 홀로렌즈는, 손목 부위의 인식을 통해 설정 화면 불러오기를 한다. 그러나 손목 부위는 시계, 팔찌 등 액세서리의 착용, 또는 손목을 덮도록 디자인된 옷이나 소매가 긴 옷 등 착용한 의복에 따라 그 인식 과정에 오류가 발생할 수 있다.In the wearable
도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)는, 제1 손(1)을 주먹 쥔 상태에서 엄지와 검지 쪽의 측면이 보이도록 하는 모습을 PUI로 사용함으로써, 일반적으로 작동 제어를 위해 사용하는 손가락 인식과는 다른 손동작이면서도, 신체 구조상 편안한 동작에 해당하므로 동작의 편의성과 인식 정확성을 모두 높일 수 있고, 손목과는 달리 액세서리나 의복의 영향이 없는 손동작을 사용하기 때문에 인식 오류를 최소화할 수 있다.As shown in FIG. 2 , in the
한편, 도 2에는 왼손이 제1 손(1), 오른손이 제2 손(2)의 역할을 하는 것으로 도시되었으나, 제1 손(1)은 대시보드 메뉴 표시를 위한 PUI로 사용되는 손이고 제2 손(2)은 표시된 메뉴 아이콘 등을 선택해 입력을 수행하는 손으로 상황에 따라 제1 손(1)과 제2 손(2)은 변경될 수 있으며, 오른손 주먹 주변에 대시보드 메뉴가 표시되고(제1 손(1)) 왼손으로 메뉴를 선택할 수도 있다(제2 손(2)).Meanwhile, FIG. 2 shows that the left hand serves as the
이하에서는, 도 1 및 도 2를 참조하여 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 각 구성에 대해 상세히 설명하도록 한다.Hereinafter, each component of the
손 인식부(110)는, 착용형 증강현실 장치(10)의 카메라로부터 획득한 착용자의 손 영상으로부터 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 PUI(Physical User Interface)로 인식할 수 있다. 보다 구체적으로, 손 인식부(110)는, 착용자의 양손 중 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하며, PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손(2)의 손동작을 인식할 수 있다.The
도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)는, 착용형 증강현실 장치(10)의 카메라부(600)에서 촬영된 손 영상을 전달받아, 손 영상으로부터 착용자의 제1 손(1) 및 제2 손(2)의 손 모습 및 손동작을 인식할 수 있다. 즉, 손 인식부(110)는 영상 처리, 인공지능 등을 기반으로 하는 비전 인식 기술을 사용해 손 형상이나 특징점 등을 추정할 수 있으며, 추정된 손 형상이나 특징점을 사용해 손 모습과 손동작을 인식할 수 있다.As shown in FIG. 1 , in the
도 3 및 도 4는 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)에서, 손 인식부(110)의 인식 방식을 예를 들어 도시한 도면이다. 도 3 및 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 손 인식부(110)는, 손 영상으로부터 착용자의 제1 손(1)의 형상 또는 특징점을 추출해, PUI를 인식할 수 있다. 즉, 도 3에 도시된 바와 같이 제1 손(1)의 엄지와 검지 손가락의 구부러진 형상을 인식하거나, 도 4에 도시된 바와 같이 손 영상에서 특징점을 추출해 특징점들 사이의 위치 관계를 기초로 제1 손(1)의 주먹 쥔 측면 모습을 인식할 수 있다.3 and 4 are diagrams showing, for example, a recognition method of the
실시예에 따라서, 손 인식부(110)는, 착용형 증강현실 장치(10)의 RGB 카메라, 적외선 이미지 카메라, 깊이 센서 등에서 획득한 손 영상을 사용할 수 있다. 보다 구체적으로, 손 인식부(110)는, 착용형 증강현실 장치(10)의 적외선 이미지 카메라로부터 획득한 적외선 손 영상을 사용할 수 있다.Depending on the embodiment, the
적외선 영상은 단일채널 이미지로, 적외선 손 영상을 사용해 손 인식을 하면 이미지 처리에 사용되는 계산 비용을 줄일 수 있으므로, 착용형 증강현실 장치(10)의 임베디드 환경에서도 손 인식을 효과적으로 수행할 수 있다. 특히, 머리에 착용하는 착용형 증강현실 장치(10)는 무게가 무거우면 목과 어깨에 부담이 되고 머리 움직임이 제한되어 장시간 착용이 어려우므로, 경량화 및 소형화가 중요하다. 따라서 착용형 증강현실 장치(10)에 많은 계산 자원을 탑재할 수 없으므로, 단일채널 이미지인 적외선 영상을 사용해 임베디드 환경에서 사용할 수 있도록 계산 비용을 줄일 수 있다.The infrared image is a single-channel image, and hand recognition using the infrared hand image can reduce computational costs used in image processing, so hand recognition can be effectively performed even in the embedded environment of the wearable
메뉴 표시부(120)는, 손 인식부(110)에서 PUI 인식이 완료되면, 대시보드 메뉴를 인식된 PUI 주변에 증강현실 영상으로 표시하여 제공할 수 있다. 즉, 도 2에 도시된 바와 같이, 메뉴 표시부(120)는, 인식된 PUI의 주변에 대시보드 메뉴를 증강현실로 표시하여 사용자 인터페이스를 제공할 수 있다.When PUI recognition is completed in the
한편, 메뉴 표시부(120)는, 손 인식부(110)와 연동하며, 손 인식부(110)의 PUI의 인식 상태를 나타내는 로딩 이미지를, 착용자의 제1 손(1)의 주먹 쥔 측면 모습 위에 증강현실 영상으로 표시하여 제공할 수 있다.Meanwhile, the
도 5는 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)에서, 로딩 이미지가 표시된 모습을 예를 들어 도시한 도면이다. 도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 메뉴 표시부(120)는, 인식 완료를 알려주는 로딩 이미지를 제1 손(1) 위에 표시해 PUI가 인식되었음을 알려줄 수 있다. 이때, 로딩 이미지는 주먹 쥔 측면 모습에서 검지의 끝 위치를 중심으로 표시될 수 있으며, 주먹의 중앙에 표시될 수도 있다.FIG. 5 is a diagram showing, for example, a state in which a loading image is displayed in the
여기서, 로딩 이미지는 인식 중, 인식 완료 등의 인식 상태를 나타낼 수 있으며, 인식 상태에 따라 변화하는 이미지일 수도 있다. 또한, 로딩 이미지는 애니메이트 이미지일 수 있고, 색상, 밝기 등이 변경될 수 있는데, 인식 상태에 따라 애니메니트되거나 색상, 밝기 등이 변경될 수 있다.Here, the loading image may indicate a recognition state such as recognition in progress or recognition completion, and may be an image that changes according to the recognition state. In addition, the loading image may be an animated image, and its color, brightness, etc. may be changed. It may be animated or its color, brightness, etc. may be changed according to a recognition state.
도 6은 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)에서, 대시보드 메뉴가 표시된 모습을 예를 들어 도시한 도면이다. 도 6에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 메뉴 표시부(120)는, 제1 손(1)의 주먹 쥔 측면 모습의 인식이 완료되고 표시할 대시보드 메뉴의 생성이 완료되면, 로딩 이미지를 제거하고 대시보드 메뉴를 증강현실로 표시하여 제공할 수 있다.FIG. 6 is a view showing, for example, a dashboard menu displayed in the
대시보드 메뉴는 복수의 항목을 포함할 수 있으며, 각 항목은 아이콘 등으로 표시될 수 있다. 이때, 대시보드 메뉴는 주먹의 중앙 위치를 중심으로 미리 정해진 거리에 표시될 수 있다. 도 6에는 주먹을 중심으로 반원형 호 위에 아이콘이 배치된 형태로 대시보드 메뉴가 표시되었으나, 실시예에 따라서 원형으로 아이콘이 배치되거나, 중심이 같거나 다른 여러 개의 호 또는 원형상에 아이콘을 배치해 대시보드 메뉴를 제공할 수도 있다.The dashboard menu may include a plurality of items, and each item may be displayed as an icon or the like. In this case, the dashboard menu may be displayed at a predetermined distance from the center of the fist. 6, the dashboard menu is displayed in the form of icons arranged on a semicircular arc centered on a fist, but according to the embodiment, icons are arranged in a circle, or icons are arranged on several arcs or circles with the same or different centers. You can also provide a dashboard menu.
손 인식부(110)는, 착용자의 제1 손(1)이 미리 정해진 시간 동안 주먹 쥔 측면 모습을 유지하면, PUI의 인식 완료를 메뉴 표시부(120)에 전달할 수 있다. 메뉴 표시부(120)는 인식 완료 신호를 수신하여, 도 5에 도시된 바와 같은 모습에서 도 6에 도시된 바와 같은 모습으로 대시보드 메뉴가 증강현실 영상으로 표시되도록 제어할 수 있다. 여기서, 미리 정해진 시간은 1.5초 이상일 수 있으며, 착용자 또는 사용자에 의해 미리 정해진 시간이 설정될 수도 있다.The
시선 추적부(140)는, 착용자의 시선을 추적할 수 있다. 시선 추적부(140)는, 착용형 증강현실 장치(10)에서 착용자의 동공 영상으로부터 동공 위치를 검출하고, 이를 기초로 시선을 추적할 수 있다. 손 인식부(110)는, 시선 추적부(140)에서 추적된 착용자의 시선이, 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 미리 정해진 시간 동안 응시하면, PUI의 인식 완료를 메뉴 표시부(120)에 전달할 수 있다. 여기서, 미리 정해진 시간은 1.5초 이상일 수 있으나, 착용자 또는 사용자에 의해 미리 정해진 시간이 설정될 수 있다.The
즉, 착용자가 제1 손(1)의 주먹 쥔 측면 모습의 자세를 미리 정해진 시간 동안 뷰 필드(view field) 내에서 유지하거나, 착용자가 제1 손(1)의 주먹 쥔 측면 모습을 유지하면서 미리 정해진 시간 동안 응시하면, 손 인식부(110)가 제1 손(1)의 모습을 PUI로 인식하게 되고, 인식이 완료되면 메뉴 표시부(120)가 대시보드 메뉴를 증강현실 영상으로 출력할 수 있다.That is, the wearer maintains the posture of the fisted side view of the
제어부(130)는, 착용자의 제2 손(2)에 의한 대시보드 메뉴의 선택 및 제2 손(2)의 손동작 인식에 따른 인터랙션을 수행할 수 있다. 여기서, 제2 손(2)의 손동작은, 손가락으로 표시된 대시보드 메뉴를 선택하는 동작일 수 있다.The
도 7은 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)에서, 제2 손(2)동작에 따른 인터랙션이 수행되는 모습을 예를 들어 도시한 도면이다. 도 7에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)의 제어부(130)는, 제2 손(2)의 손가락으로 카메라 기능을 선택할 수 있으며, 선택 정보는 착용형 증강현실 장치(10)의 제어부(400)에 전달되어 카메라 기능이 활성화될 수 있다.FIG. 7 illustrates, for example, a state in which an interaction according to a motion of a
한편, 제어부(130)는 제2 손(2)의 손동작을 통해 대시보드 메뉴를 제어하는 인터랙션을 수행할 수 있다. 예를 들어, 제2 손(2)이 반원형으로 표시된 대시보드 메뉴를 시계방향이나 반시계방향 등으로 스크롤 하는 손동작을 통해, 대시보드 메뉴가 스크롤되는 인터랙션이 수행될 수 있다. 또한, 특정 아이콘을 드래그 앤드 드롭 하는 제2 손(2)의 손동작을 통해 아이콘을 이동시킬 수도 있다.Meanwhile, the
도 8은 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)를 포함하는 착용형 증강현실 장치(10)의 전체적인 구성을 도시한 도면이다. 도 8에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)를 포함하는 착용형 증강현실 장치(10)는, 대시보드 제어 장치(100) 및 제어부(400)를 포함하여 구성될 수 있으며, HMD 프레임(200), 광학 디스플레이부(300), GPS 모듈(500), 카메라부(600), 센서부(700) 및 통신부(800)를 더 포함하여 구성될 수 있다.8 is a diagram showing the overall configuration of the wearable
HMD 프레임(200)은, 사용자가 머리나 두부에 착용할 수 있는 착용형 증강현실 장치(10)의 프레임 구성이다. 이러한 HMD 프레임(200)은, 사용자가 머리에 착용한 상태에서 빛이 들어올 수 있는 프레임 구조를 갖는 헬멧(helmet) 형태 또는 고글(goggles) 형태로 구성될 수 있다. 여기서, HMD 프레임(200)이 헬멧 형태로 이루어지는 경우, 사용자의 머리에 착용되는 헬멧(미도시)과 헬멧의 전방에 배치되는 디스플레이 프레임(미도시) 구조로 구성될 수 있다. 또한, HMD 프레임(200)이 고글 형태로 구성되는 경우, 사용자의 머리에 착용될 수 있는 밴드 프레임(미도시)과, 밴드 프레임에 체결 고정되는 고글 프레임(미도시) 구조로 구성될 수 있다.The
광학 디스플레이부(300)는, 착용자의 양안의 전방에 배치되어 착용자에게 증강현실 또는 혼합현실을 제공할 수 있다. 즉, 광학 디스플레이부(300)는 착용형 증강현실 장치(10)의 AR, VR 또는 MR 글라스에 해당하는 구성으로서, 영상 정보가 착용자에게 제공될 수 있도록 영상 광을 출력하는 OLED 등의 디스플레이 및 착용형 증강현실 장치(10)를 착용한 착용자의 양안의 전방에 배치되어 실제 세계의 광과 영상 광의 결합에 의한 증강현실을 제공하는 광학계를 포함하여 구성될 수 있다. 또한, 광학계는 복수의 렌즈와 미러 등으로 구성되며 다양한 방식으로 구현될 수 있는데, 예를 들어 광학 회절 방식, 빔 스플리터 방식, 핀 미러 방식 등으로 구현될 수 있다.The optical display unit 300 may be disposed in front of both eyes of the wearer to provide augmented reality or mixed reality to the wearer. That is, the optical display unit 300 is a component corresponding to the AR, VR or MR glasses of the wearable
GPS 모듈(500)은 착용자의 위치 정보를 제공하고, 카메라부(600)는 착용자가 바라보는 시선 방향의 영상을 촬영할 수 있다. 특히, 카메라부(600)는 손 영상을 촬영해 손 인식부(110)에 전달하여 비전 인식 기반으로 손동작과 손 마디를 인식할 수 있다.The
제어부(400)는, GPS 모듈(500), 카메라부(600), 그 외 각종 센서에서 수집한 정보에 기초하여, 착용자에게 제공할 영상 정보를 생성해 디스플레이로 전송되도록 제어함으로써, 착용자가 증강현실을 통해 외부 환경에 대한 추가 정보 등을 최적화된 화면으로 전달받도록 할 수 있다.The
센서부(700)는, 적어도 하나 이상의 센서를 포함할 수 있으며, 보다 구체적으로 홍채 인식 센서 등을 포함할 수 있다. 실시예에 따라서, 착용자가 착용형 증강현실 장치(10)를 착용하고 사용자 인증을 하면, 제어부(400)는 각 착용자에 따라 저장된 조도, IPD(Inter-Pupillary Distance), 인터페이스 등 여러 가지 사용자별 설정 내용을 자동으로 적용할 수도 있다. 이때, 사용자 인증은 센서부(700)에 포함된 홍채 인식 센서 등을 사용할 수 있다.The
통신부(800)는, 착용형 증강현실 장치(10)의 일측에 설치되며, 다른 착용형 증강현실 장치(10)나 서버 등과 각종 신호 및 데이터를 송수신할 수 있다. 여기서, 통신부(800)가 사용하는 네트워크는, 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network), 위성 통신망, 블루투스(Bluetooth), Wibro(Wireless Broadband Internet), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution), 3/4/5G(3/4/5th Generation Mobile Telecommunication) 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The
도 9는 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 방법의 흐름을 도시한 도면이다. 도 9에 도시된 바와 같이, 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 방법은, 착용자의 양손 중 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하며, PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손(2)의 손동작을 인식하는 손 인식부(110)를 포함하는 착용형 증강현실 장치(10)에 의해 각 단계가 수행되며, 착용자의 손 영상을 획득하는 단계(S110), 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하는 단계(S120), 대시보드 메뉴를 PUI 주변에 증강현실 영상으로 표시하여 제공하는 단계(S130), 착용자의 제2 손(2)에 의한 대시보드 메뉴의 선택 및 제2 손(2)의 손동작 인식에 따른 인터랙션을 수행하는 단계(S140)를 포함하여 구현될 수 있다.9 is a flow diagram illustrating a dashboard control method for the wearable
각각의 단계들과 관련된 상세한 내용들은, 앞서 본 발명의 일실시예에 따른 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100)와 관련하여 충분히 설명되었으므로, 상세한 설명은 생략하기로 한다.Since the details related to each step have been sufficiently described in relation to the
전술한 바와 같이, 본 발명에서 제안하고 있는 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100) 및 대시보드 제어 방법에 따르면, 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 인식하고, 제1 손(1)의 주먹 주변에 대시보드 메뉴를 증강현실 영상으로 표시해 제공함으로써, 일반적으로 사용하지 않는 형상의 제스처면서도 신체 구조상 편안하게 모션을 취해 사용할 수 있고, 액세서리나 의복의 영향 없이 대시보드 메뉴를 불러올 수 있어 인식 오류를 최소화할 수 있다.As described above, according to the
한편, 본 발명은 다양한 통신 단말기로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터에서 판독 가능한 매체를 포함할 수 있다. 예를 들어, 컴퓨터에서 판독 가능한 매체는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD_ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.Meanwhile, the present invention may include a computer-readable medium including program instructions for performing operations implemented in various communication terminals. For example, computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD_ROMs and DVDs, and floptical disks. It may include hardware devices specially configured to store and execute program instructions, such as magneto-optical media and ROM, RAM, flash memory, and the like.
이와 같은 컴퓨터에서 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이때, 컴퓨터에서 판독 가능한 매체에 기록되는 프로그램 명령은 본 발명을 구현하기 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예를 들어, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Such computer-readable media may include program instructions, data files, data structures, etc. alone or in combination. At this time, program instructions recorded on a computer-readable medium may be specially designed and configured to implement the present invention, or may be known and usable to those skilled in computer software. For example, it may include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes generated by a compiler.
이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention described above can be variously modified or applied by those skilled in the art to which the present invention belongs, and the scope of the technical idea according to the present invention should be defined by the claims below.
1: 제1 손
2: 제2 손
10: 착용형 증강현실 장치
100: 대시보드 제어 장치
110: 손 인식부
120: 메뉴 표시부
130: 제어부
140: 시선 추적부
200: HMD 프레임
300: 광학 디스플레이부
400: 제어부
500: GPS 모듈
600: 카메라부
700: 센서부
800: 통신부
S110: 착용자의 손 영상을 획득하는 단계
S120: 착용자의 제1 손의 주먹 쥔 측면 모습을 PUI로 인식하는 단계
S130: 대시보드 메뉴를 PUI 주변에 증강현실 영상으로 표시하여 제공하는 단계
S140: 착용자의 제2 손에 의한 대시보드 메뉴의 선택 및 제2 손의 손동작 인식에 따른 인터랙션을 수행하는 단계1: first hand
2: second hand
10: wearable augmented reality device
100: dashboard control device
110: hand recognition unit
120: menu display unit
130: control unit
140: gaze tracking unit
200: HMD frame
300: optical display unit
400: control unit
500: GPS module
600: camera unit
700: sensor unit
800: communication department
S110: Acquiring an image of the wearer's hand
S120: Recognizing a side view of the wearer's first hand clenched into a fist as PUI
S130: Step of displaying and providing the dashboard menu as an augmented reality image around the PUI
S140: Performing an interaction according to the selection of the dashboard menu by the wearer's second hand and recognition of the gesture of the second hand
Claims (8)
상기 착용형 증강현실 장치(10)의 카메라로부터 획득한 착용자의 손 영상으로부터 상기 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 PUI(Physical User Interface)로 인식하는 손 인식부(110);
상기 손 인식부(110)에서 상기 PUI 인식이 완료되면, 대시보드 메뉴를 상기 인식된 PUI 주변에 증강현실 영상으로 표시하여 제공하는 메뉴 표시부(120); 및
착용자의 제2 손(2)에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손(2)의 손동작 인식에 따른 인터랙션을 수행하는 제어부(130)를 포함하며,
상기 대시보드 메뉴는,
상기 인식된 PUI인 상기 제1 손(1)의 주먹의 중앙 위치를 중심으로 미리 정해진 거리에 반원형 호 또는 원형으로 표시되는 복수의 항목으로 구성되며,
상기 제어부(130)는,
상기 제2 손(2)이 상기 대시보드 메뉴를 시계방향이나 반시계방향으로 스크롤하는 손동작을 통해, 상기 대시보드 메뉴가 스크롤되는 인터랙션을 수행하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
As a dashboard control device 100 for a wearable augmented reality device 10,
a hand recognizer 110 recognizing a side view of the wearer's first hand 1 clenched into a fist from the wearer's hand image acquired from the camera of the wearable augmented reality device 10 as a Physical User Interface (PUI);
When the hand recognition unit 110 completes recognizing the PUI, a menu display unit 120 that displays and provides a dashboard menu as an augmented reality image around the recognized PUI; and
It includes a controller 130 that performs an interaction according to the selection of the dashboard menu by the second hand 2 of the wearer and the recognition of the hand gesture of the second hand 2,
The dashboard menu,
It consists of a plurality of items displayed in a semicircular arc or circle at a predetermined distance around the central position of the fist of the first hand 1, which is the recognized PUI,
The controller 130,
The wearable augmented reality device (10), characterized in that the second hand (2) performs an interaction in which the dashboard menu is scrolled through a hand motion of scrolling the dashboard menu clockwise or counterclockwise. Dashboard control device (100) for.
상기 착용형 증강현실 장치(10)의 적외선 이미지 카메라로부터 적외선 손 영상을 사용하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
The method of claim 1, wherein the hand recognition unit 110,
The dashboard control device 100 for the wearable augmented reality device 10, characterized in that using an infrared hand image from the infrared image camera of the wearable augmented reality device 10.
상기 착용자의 양손 중 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하며, 상기 PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손(2)의 손동작을 인식하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
The method of claim 1, wherein the hand recognition unit 110,
Recognizes a side view of the first hand (1) of the wearer's hands (1) clenched into a fist as a PUI, and recognizes a hand gesture of the second hand (2) for selecting a dashboard menu displayed as an augmented reality image around the PUI. To, the dashboard control device 100 for the wearable augmented reality device 10.
상기 손 영상으로부터 착용자의 제1 손(1)의 형상 또는 특징점을 추출해, 상기 PUI를 인식하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
The method of claim 1, wherein the hand recognition unit 110,
The dashboard control device 100 for the wearable augmented reality device 10, characterized in that the PUI is recognized by extracting the shape or feature point of the first hand 1 of the wearer from the hand image.
상기 손 인식부(110)와 연동하며, 상기 손 인식부(110)의 상기 PUI의 인식 상태를 나타내는 로딩 이미지를 상기 착용자의 제1 손(1)의 주먹 쥔 측면 모습 위에 증강현실 영상으로 표시하여 제공하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
The method of claim 1, wherein the menu display unit 120,
It interworks with the hand recognition unit 110, and displays a loading image representing the PUI recognition state of the hand recognition unit 110 as an augmented reality image on the side of the wearer's first hand 1 clenched into a fist. Characterized in that it provides, the dashboard control device 100 for the wearable augmented reality device 10.
상기 착용자의 제1 손(1)이 미리 정해진 시간 동안 주먹 쥔 측면 모습을 유지하면, 상기 PUI의 인식 완료를 상기 메뉴 표시부(120)에 전달하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
The method of claim 1, wherein the hand recognition unit 110,
When the wearer's first hand (1) maintains a fist-clenched side view for a predetermined time, the PUI recognition completion is transmitted to the menu display unit (120), wearable augmented reality device (10) Dashboard control device (100) for.
착용자의 시선을 추적하는 시선 추적부(140)를 더 포함하며,
상기 손 인식부(110)는,
상기 시선 추적부(140)에서 추적된 착용자의 시선이, 상기 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 미리 정해진 시간 동안 응시하면, 상기 PUI의 인식 완료를 상기 메뉴 표시부(120)에 전달하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 장치(100).
According to claim 1,
It further includes a gaze tracking unit 140 that tracks the wearer's gaze,
The hand recognition unit 110,
When the wearer's gaze tracked by the gaze tracking unit 140 gazes at the side of the wearer's first hand 1 making a fist for a predetermined time, completion of PUI recognition is displayed on the menu display unit 120. Dashboard control device 100 for the wearable augmented reality device 10, characterized in that it transmits.
착용자의 양손 중 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하며, 상기 PUI 주변에 증강현실 영상으로 표시된 대시보드 메뉴를 선택하는 제2 손(2)의 손동작을 인식하는 손 인식부(110)를 포함하는 상기 착용형 증강현실 장치(10)에 의해 각 단계가 수행되며,
(1) 상기 착용형 증강현실 장치(10)의 카메라로부터 착용자의 손 영상을 획득하는 단계;
(2) 상기 손 인식부(110)에서 상기 손 영상으로부터 상기 착용자의 제1 손(1)의 주먹 쥔 측면 모습을 PUI로 인식하는 단계;
(3) 상기 단계 (2)에서 상기 PUI의 인식이 완료되면, 대시보드 메뉴를 상기 PUI 주변에 증강현실 영상으로 표시하여 제공하는 단계; 및
(4) 착용자의 제2 손(2)에 의한 상기 대시보드 메뉴의 선택 및 상기 제2 손(2)의 손동작 인식에 따른 인터랙션을 수행하는 단계를 포함하며,
상기 대시보드 메뉴는,
상기 인식된 PUI인 상기 제1 손(1)의 주먹의 중앙 위치를 중심으로 미리 정해진 거리에 반원형 호 또는 원형으로 표시되는 복수의 항목으로 구성되며,
상기 단계 (4)에서는,
상기 제2 손(2)이 상기 대시보드 메뉴를 시계방향이나 반시계방향으로 스크롤하는 손동작을 통해, 상기 대시보드 메뉴가 스크롤되는 인터랙션을 수행하는 것을 특징으로 하는, 착용형 증강현실 장치(10)를 위한 대시보드 제어 방법.As a dashboard control method for the wearable augmented reality device 10,
A hand recognition unit that recognizes a side view of the first hand (1) of the wearer's hands (1) clenched into a fist as a PUI, and recognizes a hand gesture of the second hand (2) selecting a dashboard menu displayed as an augmented reality image around the PUI Each step is performed by the wearable augmented reality device 10 including 110,
(1) acquiring a hand image of the wearer from the camera of the wearable augmented reality device 10;
(2) recognizing, in the hand recognition unit 110, a side view of the wearer's first hand 1 clenched into a fist from the hand image as a PUI;
(3) if the recognition of the PUI is completed in step (2), displaying and providing a dashboard menu as an augmented reality image around the PUI; and
(4) selecting the dashboard menu by the wearer's second hand 2 and performing an interaction according to hand gesture recognition of the second hand 2;
The dashboard menu,
It consists of a plurality of items displayed in a semicircular arc or circle at a predetermined distance around the central position of the fist of the first hand 1, which is the recognized PUI,
In the step (4),
The wearable augmented reality device (10), characterized in that the second hand (2) performs an interaction in which the dashboard menu is scrolled through a hand motion of scrolling the dashboard menu clockwise or counterclockwise. Dashboard control method for .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210104214A KR102539045B1 (en) | 2021-08-06 | 2021-08-06 | Dashboard control apparatus and method for wearable augmented reality device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210104214A KR102539045B1 (en) | 2021-08-06 | 2021-08-06 | Dashboard control apparatus and method for wearable augmented reality device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230022065A KR20230022065A (en) | 2023-02-14 |
KR102539045B1 true KR102539045B1 (en) | 2023-06-02 |
Family
ID=85220895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210104214A Active KR102539045B1 (en) | 2021-08-06 | 2021-08-06 | Dashboard control apparatus and method for wearable augmented reality device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102539045B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101708455B1 (en) | 2015-09-08 | 2017-02-21 | 엠더블유엔테크 주식회사 | Hand Float Menu System |
KR101812227B1 (en) * | 2016-05-26 | 2017-12-27 | (주)인시그널 | Smart glass based on gesture recognition |
KR102286018B1 (en) | 2020-09-09 | 2021-08-05 | 주식회사 피앤씨솔루션 | Wearable augmented reality device that inputs mouse events using hand gesture and method of mouse event input for wearable augmented reality device using hand gesture |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651288B (en) * | 2014-06-14 | 2022-09-20 | 奇跃公司 | Method and system for generating virtual and augmented reality |
KR101815973B1 (en) * | 2016-06-10 | 2018-01-08 | 재단법인 실감교류인체감응솔루션연구단 | Menu sharing system in 3-dimensional shared space and method thereof |
US20190324549A1 (en) * | 2018-04-20 | 2019-10-24 | Immersion Corporation | Systems, devices, and methods for providing immersive reality interface modes |
-
2021
- 2021-08-06 KR KR1020210104214A patent/KR102539045B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101708455B1 (en) | 2015-09-08 | 2017-02-21 | 엠더블유엔테크 주식회사 | Hand Float Menu System |
KR101812227B1 (en) * | 2016-05-26 | 2017-12-27 | (주)인시그널 | Smart glass based on gesture recognition |
KR102286018B1 (en) | 2020-09-09 | 2021-08-05 | 주식회사 피앤씨솔루션 | Wearable augmented reality device that inputs mouse events using hand gesture and method of mouse event input for wearable augmented reality device using hand gesture |
Also Published As
Publication number | Publication date |
---|---|
KR20230022065A (en) | 2023-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12174378B2 (en) | External user interface for head worn computing | |
US9939934B2 (en) | External user interface for head worn computing | |
KR102788907B1 (en) | Electronic device for operating various functions in augmented reality environment and operating method thereof | |
US20160025977A1 (en) | External user interface for head worn computing | |
CN103827780A (en) | Methods and systems for a virtual input device | |
US20240103716A1 (en) | Methods for interacting with user interfaces based on attention | |
KR20160137253A (en) | Augmented Reality Device, User Interaction Apparatus and Method for the Augmented Reality Device | |
US20240103678A1 (en) | Devices, methods, and graphical user interfaces for interacting with extended reality experiences | |
JP2023138856A (en) | Display control method | |
US20250199623A1 (en) | Devices, methods, and graphical user interfaces for using a cursor to interact with three-dimensional environments | |
US20240126377A1 (en) | Personalized calibration of user interfaces | |
KR102539045B1 (en) | Dashboard control apparatus and method for wearable augmented reality device | |
KR102522142B1 (en) | Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture | |
JP2023020731A (en) | Equipment and programs | |
KR102633495B1 (en) | Method of operating an app library through recognition of wrist and trigger gesture and head-mounted display apparatus in which the app library operates | |
KR102636996B1 (en) | Method for providing a virtual menu based on hand recognition for ar glasses apparatus and ar glasses system for providing a virtual menu based on hand recognition | |
KR102585343B1 (en) | Wearable augmented reality device that provides an interface using hand koint recognition and method of providing an interface of a wearable augmented reality device using hand joint recognition | |
US12105926B2 (en) | XR manipulation feature with smart watch | |
US20240220097A1 (en) | Virtual mouse with tactile feedback provided via keyboard keys | |
JP7560591B2 (en) | Method, computing system, and computer-readable storage medium for controlling a user interface - Patents.com | |
KR102633493B1 (en) | Confirmation event handling method and apparatus for head-mounted display apparatus | |
CN115877942A (en) | Electronic device and method of controlling the same by detecting state of user's eyes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20210806 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230220 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230522 |
|
PG1601 | Publication of registration |