[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016033763A - Display device, method for controlling display device, and program - Google Patents

Display device, method for controlling display device, and program Download PDF

Info

Publication number
JP2016033763A
JP2016033763A JP2014156697A JP2014156697A JP2016033763A JP 2016033763 A JP2016033763 A JP 2016033763A JP 2014156697 A JP2014156697 A JP 2014156697A JP 2014156697 A JP2014156697 A JP 2014156697A JP 2016033763 A JP2016033763 A JP 2016033763A
Authority
JP
Japan
Prior art keywords
image
display
unit
user
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014156697A
Other languages
Japanese (ja)
Inventor
薫 千代
Kaoru Sendai
薫 千代
津田 敦也
Atsuya Tsuda
敦也 津田
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014156697A priority Critical patent/JP2016033763A/en
Priority to US14/719,985 priority patent/US9959591B2/en
Priority to CN201510295746.4A priority patent/CN105319714B/en
Publication of JP2016033763A publication Critical patent/JP2016033763A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device that can effectively combine an environment visible for a user with display contents, a method for controlling display device, and a program.SOLUTION: A head-mounted display device 100 is to be used by mounting on a user's body; and includes an image display unit 20 that transmits outside scenery and displays an image to be visible together with the scenery, and a camera 61 that captures scenery in a visual line of the user. A control unit 140 of the head-mounted display device 100 includes: an image generation unit 177 that generates an image for display from the image captured by the camera 61; and an image display control unit 176 that controls the image display unit 20 to display the image for display generated by the image generation unit 177.SELECTED DRAWING: Figure 2

Description

本発明は、表示装置、表示装置の制御方法、および、プログラムに関する。   The present invention relates to a display device, a display device control method, and a program.

従来、ウェアラブル表示装置において、外界視野と重畳して表示を行うものが知られている(例えば、特許文献1参照)。特許文献1記載の装置は、外界視野と文字を重畳して表示する構成を有し、表示する一部の文字又は単語について、フォントサイズや文字の色等の表示属性を変更して、例えば文章の一部の文字を識別しやすくする。   2. Description of the Related Art Conventionally, wearable display devices are known that perform display while being superimposed on an external field of view (see, for example, Patent Document 1). The device described in Patent Document 1 has a configuration in which characters are superimposed on an external field of view, and the display attributes such as font size and character color are changed for some characters or words to be displayed. Makes it easy to identify some characters.

特開2014−56217号公報JP 2014-56217 A

特許文献1では、ウェアラブル表示装置を使用する使用者が、表示装置が表示する文字か外界視野かのいずれかを見る場合の表示方法について記載されている。これに対し、使用者が外界とともに視認することを考慮した表示方法についての提案は、従来無かった。
本発明は、上述した事情に鑑みてなされたものであり、使用者に見える外界と表示内容とを効果的に組み合わせることが可能な表示装置、表示装置の制御方法、および、プログラムを提供することを目的とする。
Patent Document 1 describes a display method when a user who uses a wearable display device sees either a character displayed on the display device or an external field of view. On the other hand, there has been no proposal for a display method that considers that the user visually recognizes with the outside world.
The present invention has been made in view of the above-described circumstances, and provides a display device, a display device control method, and a program capable of effectively combining an external world visible to a user and display contents. With the goal.

上記目的を達成するために、本発明の表示装置は、使用者の身体に装着して使用される表示装置であって、外景を透過し、前記外景とともに視認できるように画像を表示する表示部と、前記使用者の視線方向を撮像する撮像部と、前記撮像部の撮像画像から表示用画像を生成する画像生成部と、前記画像生成部が生成した表示用画像を前記表示部に表示させる画像表示制御部と、を備えることを特徴とする。
本発明によれば、使用者の視線方向を撮像した撮像画像に基づく表示用画像を、外景として見える対象物に重なるように画像を表示できる。このため、使用者が見ている外景の見え方を、この外景を撮像した撮像画像に基づき補ったり、別の見方を提示したりするなど、表示装置外部の外景と、表示内容とを効果的に組み合わせて、表示装置による表示の新たな活用方法を提供できる。
In order to achieve the above object, a display device according to the present invention is a display device that is used by being worn on a user's body, and displays an image so that the image can be seen through the outside scene and visible together with the outside scene. An imaging unit that captures the direction of the user's line of sight, an image generation unit that generates a display image from a captured image of the imaging unit, and a display image generated by the image generation unit is displayed on the display unit And an image display control unit.
ADVANTAGE OF THE INVENTION According to this invention, an image for a display based on the picked-up image which imaged the user's gaze direction can be displayed so that it may overlap with the target object seen as an outside scene. For this reason, the external scene outside the display device and the display contents can be effectively improved by supplementing the appearance of the external scene viewed by the user based on a captured image obtained by capturing the external scene, or presenting another view. In combination, it is possible to provide a new method for utilizing display by a display device.

また、本発明は、上記表示装置において、前記画像生成部は、前記撮像部の撮像画像の一部を抽出して処理することにより、前記表示用画像を生成すること、を特徴とする。
本発明によれば、使用者の視線方向を撮像した撮像画像を利用して表示するので、使用者に、外景とともに、外景の一部を処理した画像を見せることができる。
In the display device according to the present invention, the image generation unit generates the display image by extracting and processing a part of the captured image of the imaging unit.
According to the present invention, since a captured image obtained by capturing the user's line-of-sight direction is used for display, the user can be shown an image obtained by processing a part of the outside scene together with the outside scene.

また、本発明は、上記表示装置において、前記画像生成部は、前記撮像部の撮像画像の一部を切り出して拡大することにより、前記表示用画像を生成すること、を特徴とする。
本発明によれば、使用者の視線方向を撮像した撮像画像の一部を拡大して表示するので使用者は、外景を見ながら、視線方向を拡大して見ることができる。
In the display device according to the present invention, the image generation unit generates the display image by cutting out and enlarging a part of a captured image of the imaging unit.
According to the present invention, since a part of the captured image obtained by capturing the user's line-of-sight direction is enlarged and displayed, the user can view the line-of-sight direction while viewing the outside scene.

また、本発明は、上記表示装置において、前記画像生成部は、前記撮像部の撮像画像において予め設定された条件に該当する領域を切り出すことにより、前記表示用画像を生成すること、を特徴とする。
本発明によれば、予め設定された条件に該当する撮像画像を表示することができる。このため、例えば使用者の嗜好や興味に該当するような撮像画像が撮像された場合に、この撮像画像を表示部により表示して使用者に見せることができる。
Further, the present invention is characterized in that, in the display device, the image generation unit generates the display image by cutting out a region corresponding to a preset condition in a captured image of the imaging unit. To do.
According to the present invention, a captured image corresponding to a preset condition can be displayed. For this reason, for example, when a captured image corresponding to the user's preference or interest is captured, the captured image can be displayed on the display unit and shown to the user.

また、本発明は、上記表示装置において、前記撮像部の撮像画像から前記使用者の視線方向の対象物を検出する対象検出部を備え、前記画像生成部は、前記撮像部の撮像画像から、前記対象検出部が検出した前記対象物の画像を含む領域を抽出して処理し、前記表示用画像を生成すること、を特徴とする。
本発明によれば、使用者の視線方向に対象物がある場合に、この対象物の画像を使用者に見せることができる。
In the display device, the present invention further includes an object detection unit that detects an object in the user's line-of-sight direction from a captured image of the imaging unit, and the image generation unit A region including an image of the object detected by the object detection unit is extracted and processed to generate the display image.
According to the present invention, when there is an object in the user's line-of-sight direction, an image of the object can be shown to the user.

また、本発明は、上記表示装置において、前記対象物の画像の特徴量を記憶する記憶部を備え、前記対象検出部は、前記撮像部の撮像画像から、前記記憶部が記憶する特徴量に適合する画像を検出することにより、前記対象物を検出すること、を特徴とする。
本発明によれば、撮像画像に基づいて対象物を容易に検出できる。
The display device may further include a storage unit that stores the feature amount of the image of the object, and the target detection unit may convert the captured image of the imaging unit into a feature amount stored by the storage unit. The object is detected by detecting a suitable image.
According to the present invention, an object can be easily detected based on a captured image.

また、本発明は、上記表示装置において、前記記憶部が記憶する前記特徴量は、特定の前記対象物の画像の特徴量、及び、類似する複数種類の対象物に対応する汎用的な特徴量のいずれかを含むこと、を特徴とする。
本発明によれば、記憶される特徴量に基づき、特定の対象物を検出する処理、或いは、類似する複数の対象物のいずれかを検出する処理を実行できる。
Further, according to the present invention, in the display device, the feature quantity stored in the storage unit is a feature quantity of an image of a specific object and a general-purpose feature quantity corresponding to a plurality of similar objects. Any one of these is included.
According to the present invention, a process for detecting a specific object or a process for detecting any one of a plurality of similar objects can be executed based on the stored feature amount.

また、本発明は、上記表示装置において、前記対象検出部により検出された前記対象物と前記使用者との距離を検出する距離検出部を備え、前記画像表示制御部は、前記距離検出部が検出した距離に応じた拡大率で前記撮像部の撮像画像の一部を拡大し、前記表示用画像を生成すること、を特徴とする。
本発明によれば、使用者の視線方向の対象物との距離に合わせた拡大率で、対象物の画像を使用者に見せることができる。
The display device may further include a distance detection unit that detects a distance between the object detected by the target detection unit and the user, and the image display control unit includes the distance detection unit. The display image is generated by enlarging a part of the captured image of the imaging unit with an enlargement ratio corresponding to the detected distance.
ADVANTAGE OF THE INVENTION According to this invention, the image of a target object can be shown to a user with the expansion ratio matched with the distance with the target object of a user's gaze direction.

また、本発明は、上記表示装置において、前記画像生成部は、前記撮像部により異なるときに撮像された複数の撮像画像を取得し、これら複数の撮像画像において予め設定された条件に該当する領域を特定することにより、前記表示用画像を生成すること、を特徴とする。
本発明によれば、複数の撮影画像について、より複雑な条件を設定し、この条件に該当する撮像画像をもとに画像を使用者に見せることができる。
According to the present invention, in the display device, the image generation unit acquires a plurality of captured images captured when different by the imaging unit, and an area corresponding to a preset condition in the plurality of captured images. The display image is generated by specifying.
According to the present invention, more complicated conditions can be set for a plurality of captured images, and images can be shown to the user based on the captured images corresponding to the conditions.

また、本発明は、上記表示装置において、前記画像生成部は、前記撮像部により異なるときに撮像された複数の撮像画像を取得し、これら複数の撮像画像の画像間の差分が予め設定された条件に該当する場合に、取得した撮像画像を切り出して前記表示用画像を生成すること、を特徴とする。
本発明によれば、複数の撮影画像の差分をもとに表示用画像を生成して表示できるので、例えば連続する複数の画像からなる動画像について、画像の変化に基づき表示用画像を生成して表示できる。
Further, according to the present invention, in the display device, the image generation unit acquires a plurality of captured images captured at different times by the imaging unit, and a difference between the images of the plurality of captured images is preset. When the condition is met, the acquired captured image is cut out to generate the display image.
According to the present invention, since a display image can be generated and displayed based on a difference between a plurality of captured images, for example, a display image is generated based on a change in the image for a moving image including a plurality of continuous images. Can be displayed.

また、上記目的を達成するために、本発明は、外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備え、使用者の身体に装着して使用される表示装置の制御方法であって、前記使用者の視線方向を撮像し、撮像画像の一部を切り出して拡大することにより、表示用画像を生成し、生成した表示用画像を前記表示部に表示させることを特徴とする。
本発明によれば、使用者の視線方向を撮像した撮像画像に基づく表示用画像を、外景として見える対象物に重なるように画像を表示できる。このため、使用者が見ている外景の見え方を、この外景を撮像した撮像画像に基づき補ったり、別の見方を提示したりするなど、表示装置外部の外景と、表示内容とを効果的に組み合わせて、表示装置による表示の新たな活用方法を提供できる。
In order to achieve the above object, the present invention includes a display unit that transmits an outside scene and displays an image so as to be visible together with the outside scene, and controls a display device that is used by being worn on a user's body. A method of capturing a user's line-of-sight direction, cutting out a part of the captured image and enlarging the generated image for display, and displaying the generated display image on the display unit. And
ADVANTAGE OF THE INVENTION According to this invention, an image for a display based on the picked-up image which imaged the user's gaze direction can be displayed so that it may overlap with the target object seen as an outside scene. For this reason, the external scene outside the display device and the display contents can be effectively improved by supplementing the appearance of the external scene viewed by the user based on a captured image obtained by capturing the external scene, or presenting another view. In combination, it is possible to provide a new method for utilizing display by a display device.

また、上記目的を達成するために、本発明は、外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備え、使用者の身体に装着して使用される表示装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターを、前記使用者の視線方向を撮像した撮像画像の一部を切り出して拡大することにより、表示用画像を生成する画像生成部と、前記画像生成部が生成した画像を前記表示部に表示させる画像表示制御部と、して機能させるためのプログラムである。
本発明によれば、使用者の視線方向を撮像した撮像画像に基づく表示用画像を、外景として見える対象物に重なるように画像を表示できる。このため、使用者が見ている外景の見え方を、この外景を撮像した撮像画像に基づき補ったり、別の見方を提示したりするなど、表示装置外部の外景と、表示内容とを効果的に組み合わせて、表示装置による表示の新たな活用方法を提供できる。
In order to achieve the above object, the present invention includes a display unit that transmits an outside scene and displays an image so that the outside scene can be viewed with the outside scene, and controls a display device that is used by being worn on the user's body. An image generation unit that generates a display image by cutting out and enlarging a part of a captured image obtained by capturing the user's line-of-sight direction. It is a program for functioning as an image display control unit that displays an image generated by a generation unit on the display unit.
ADVANTAGE OF THE INVENTION According to this invention, an image for a display based on the picked-up image which imaged the user's gaze direction can be displayed so that it may overlap with the target object seen as an outside scene. For this reason, the external scene outside the display device and the display contents can be effectively improved by supplementing the appearance of the external scene viewed by the user based on a captured image obtained by capturing the external scene, or presenting another view. In combination, it is possible to provide a new method for utilizing display by a display device.

頭部装着型表示装置の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of a head mounted type display apparatus. 頭部装着型表示装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a head mounted display apparatus. 記憶部に記憶されるデータの例を示す説明図である。It is explanatory drawing which shows the example of the data memorize | stored in a memory | storage part. 頭部装着型表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a head mounting type display apparatus. 頭部装着型表示装置の典型的な適用例を示す説明図であり、(A)は使用者の視野の例を示し、(B)及び(C)は撮像画像から切り出される画像の例を示し、(D)は表示用画像を表示した場合の使用者の視野の例を示す。It is explanatory drawing which shows the typical example of application of a head-mounted display apparatus, (A) shows the example of a user's visual field, (B) and (C) show the example of the image cut out from a captured image , (D) shows an example of the visual field of the user when the display image is displayed.

図1は、頭部装着型表示装置100の外観構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態の頭部装着型表示装置100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、頭部装着型表示装置100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。   FIG. 1 is an explanatory diagram showing an external configuration of the head-mounted display device 100. The head-mounted display device 100 is a display device that is mounted on the head, and is also referred to as a head mounted display (HMD). The head-mounted display device 100 of the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. In this specification, a virtual image visually recognized by the user with the head-mounted display device 100 is also referred to as a “display image” for convenience. Moreover, emitting image light generated based on image data is also referred to as “displaying an image”.

頭部装着型表示装置100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者が頭部装着型表示装置100を操作するためのコントローラーとしても機能する。画像表示部20は、単に「表示部」とも呼ぶ。   The head-mounted display device 100 includes an image display unit 20 that allows a user to visually recognize a virtual image when mounted on the user's head, and a control device 10 that controls the image display unit 20. The control device 10 also functions as a controller for the user to operate the head-mounted display device 100. The image display unit 20 is also simply referred to as a “display unit”.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61(撮像部)と、マイク63と、を備える。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. (Imaging unit) and a microphone 63. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)と調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板20Aは、光透過性がほぼゼロのもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰または反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26および左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、頭部装着型表示装置100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは右導光板261、左導光板262を保護し、右導光板261、左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは右光学像表示部26および左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
The display drive units 22 and 24 include liquid crystal displays 241 and 242 (Liquid Crystal Display, hereinafter also referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 (see FIG. 2). Details of the configuration of the display driving units 22 and 24 will be described later. The optical image display units 26 and 28 as optical members include light guide plates 261 and 262 (see FIG. 2) and a light control plate 20A. The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display driving units 22 and 24 to the user's eyes. The dimming plate 20A is a thin plate-like optical element, and is arranged so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. As the light control plate 20A, various ones such as one having almost no light transmission, one having near transparency, one having a light amount attenuated to transmit light, one having a specific wavelength attenuated or reflected, and the like are used. Can do. By appropriately selecting the optical characteristics (light transmittance, etc.) of the light control plate 20A, the external light amount incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside is adjusted to visually recognize the virtual image. You can adjust the ease. In the present embodiment, a case will be described in which at least a light control plate 20A having such a light transmittance that a user wearing the head-mounted display device 100 can visually recognize an outside scene is used. The light control plate 20A protects the right light guide plate 261 and the left light guide plate 262, and suppresses damage to the right light guide plate 261 and the left light guide plate 262, adhesion of dirt, and the like.
The light control plate 20A may be detachable with respect to the right optical image display unit 26 and the left optical image display unit 28, and a plurality of types of light control plates 20A may be exchanged and may be omitted.

カメラ61は、右光学像表示部26の他端である端部ERに配置される。カメラ61は、使用者の眼の側とは反対側方向の外部の景色である外景を撮像し、外景画像を取得する。図1に示す本実施形態のカメラ61は、単眼カメラであるが、ステレオカメラであってもよい。
カメラ61の撮影方向すなわち画角は、頭部装着型表示装置100の表側方向、換言すれば、頭部装着型表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮影する方向である。また、カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界(外景)を含む範囲であることが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮影できるようにカメラ61の撮像範囲が設定されていると、より好ましい。
The camera 61 is disposed at the end ER that is the other end of the right optical image display unit 26. The camera 61 captures an outside scene that is an external scenery in a direction opposite to the user's eye side, and acquires an outside scene image. The camera 61 of this embodiment shown in FIG. 1 is a monocular camera, but may be a stereo camera.
The shooting direction of the camera 61, that is, the angle of view, is taken from the front side direction of the head-mounted display device 100, in other words, at least a part of the outside view in the user's viewing direction when the head-mounted display device 100 is worn Direction. In addition, although the angle of view of the camera 61 can be set as appropriate, the imaging range of the camera 61 includes the outside world (outside scene) that the user visually recognizes through the right optical image display unit 26 and the left optical image display unit 28. A range is preferable. Furthermore, it is more preferable that the imaging range of the camera 61 is set so that the entire field of view of the user through the light control plate 20A can be captured.

画像表示部20は、さらに、画像表示部20を制御装置10に接続するための接続部40を有している。接続部40は、制御装置10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を備える。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control device 10. The connection unit 40 includes a main body cord 48 connected to the control device 10, a right cord 42, a left cord 44, and a connecting member 46. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24.

連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。イヤホンプラグ30の近傍にはマイク63が設けられている。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がっている。   The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A microphone 63 is provided in the vicinity of the earphone plug 30. The earphone plug 30 to the microphone 63 are combined into one cord, and the cord branches from the microphone 63 and is connected to each of the right earphone 32 and the left earphone 34.

マイク63の具体的な仕様は任意であり、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。指向性を有するマイクとしては、例えば単一指向性(Cardioid)、狭指向性(Super cardioid)、鋭指向性(Hypercardioid)、超指向性(Ultra Cardioid)等が挙げられる。マイク63が指向性を有する場合、頭部装着型表示装置100を装着した使用者の視線方向からの音声を特に良好に集音し、検出する構成とすればよい。この場合、マイク63の指向性を確保するため、マイク63またはマイク63を収容する部品に構造的な特徴を持たせてもよい。例えば図1の例において、使用者が右イヤホン32及び左イヤホン34を装着した状態で、マイク63の集音部が、使用者の視線方向を向くように、マイク63及び連結部材46が設計されていればよい。或いは、マイク63を、右保持部21または左保持部23に埋込設置してもよい。この場合、右保持部21または左保持部23の前面側、すなわち右光学像表示部26、左光学像表示部28に並ぶ面に集音用の穴を穿設すれば、使用者の視線方向に対応する指向性を持たせることができる。使用者の視線方向とは、例えば、右光学像表示部26及び左光学像表示部28が面する方向、使用者が右光学像表示部26及び左光学像表示部28越しに見る視界の中心を向く方向、カメラ61の撮影方向等と言い換えることができる。なお、マイク63の指向性の方向を可変としてもよい。この場合、使用者の視線方向を検出して、その方向を向くようにマイク63の視線方向を調整する構成としてもよい。   The specific specifications of the microphone 63 are arbitrary, and may be a directional microphone or an omnidirectional microphone. Examples of directional microphones include unidirectionality (Cardioid), narrow directivity (Super cardioid), sharp directivity (Hypercardioid), and superdirectivity (Ultra Cardioid). In the case where the microphone 63 has directivity, the sound from the line of sight of the user wearing the head-mounted display device 100 may be particularly well collected and detected. In this case, in order to ensure the directivity of the microphone 63, the microphone 63 or a part that accommodates the microphone 63 may have a structural feature. For example, in the example of FIG. 1, the microphone 63 and the connecting member 46 are designed so that the sound collection unit of the microphone 63 faces the user's line-of-sight direction with the user wearing the right earphone 32 and the left earphone 34. It only has to be. Alternatively, the microphone 63 may be embedded in the right holding unit 21 or the left holding unit 23. In this case, if a sound collecting hole is formed in the front side of the right holding unit 21 or the left holding unit 23, that is, the surface aligned with the right optical image display unit 26 and the left optical image display unit 28, the direction of the user's line of sight The directivity corresponding to can be given. The line-of-sight direction of the user is, for example, the direction that the right optical image display unit 26 and the left optical image display unit 28 face, and the center of the field of view that the user sees through the right optical image display unit 26 and the left optical image display unit 28. In other words, the shooting direction of the camera 61, and the like. Note that the direction of directivity of the microphone 63 may be variable. In this case, it may be configured to detect the user's line-of-sight direction and adjust the line-of-sight direction of the microphone 63 so as to face the direction.

なお、右コード42と左コード44とを一本のコードにまとめることも可能である。具体的には、右コード42の内部の導線を、画像表示部20の本体内部を通して左保持部23側に引き込み、左コード44内部の導線とともに樹脂で被覆して、一本のコードにまとめてもよい。   It is also possible to combine the right code 42 and the left code 44 into one code. Specifically, the lead wire inside the right cord 42 is drawn into the left holding portion 23 side through the inside of the main body of the image display unit 20, and is covered with a resin together with the lead wire inside the left cord 44 to be combined into one cord. Also good.

画像表示部20と制御装置10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御装置10と、のそれぞれには、互いに嵌合するコネクター(図示略)が設けられている。本体コード48のコネクターと制御装置10のコネクターとの嵌合/嵌合解除により、制御装置10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。   The image display unit 20 and the control device 10 transmit various signals via the connection unit 40. A connector (not shown) that fits each other is provided at each of the end of the main body cord 48 opposite to the connecting member 46 and the control device 10. By fitting / releasing the connector of the main body cord 48 and the connector of the control device 10, the control device 10 and the image display unit 20 are connected or disconnected. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御装置10は、頭部装着型表示装置100を制御するための装置である。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が指によりタッチ操作するトラックパッド14を備える。   The control device 10 is a device for controlling the head-mounted display device 100. The control device 10 includes switches including an enter key 11, a lighting unit 12, a display switching key 13, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. In addition, the control device 10 includes a track pad 14 that is touched by a user with a finger.

決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、頭部装着型表示装置100の動作状態を、その発光状態によって通知する。頭部装着型表示装置100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LED(Light Emitting Diode)が用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとを切り替える信号を出力する。   The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control device 10. The lighting unit 12 notifies the operation state of the head-mounted display device 100 by its light emission state. Examples of the operating state of the head-mounted display device 100 include power ON / OFF. As the lighting unit 12, for example, an LED (Light Emitting Diode) is used. The display switching key 13 detects a pressing operation and outputs a signal for switching the display mode of the content moving image between 3D and 2D, for example.

トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、頭部装着型表示装置100の電源投入状態を切り替える。   The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the head-mounted display device 100 by detecting a slide operation of the switch.

図2は、実施形態に係る表示システム1を構成する各部の機能ブロック図である。
図2に示すように、表示システム1は、外部機器OAと、頭部装着型表示装置100とを備える。外部機器OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置として用いられる。
FIG. 2 is a functional block diagram of each unit constituting the display system 1 according to the embodiment.
As shown in FIG. 2, the display system 1 includes an external device OA and a head-mounted display device 100. Examples of the external device OA include a personal computer (PC), a mobile phone terminal, and a game terminal. The external device OA is used as an image supply device that supplies an image to the head-mounted display device 100.

頭部装着型表示装置100の制御装置10は、制御部140と、操作部135と、入力情報取得部110と、記憶部120と、電源130と、インターフェイス180と、送信部(Tx)51および送信部(Tx)52と、を有している。
操作部135は、使用者による操作を検出する。操作部135は、図1に示した決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18の各部を備える。
The control device 10 of the head-mounted display device 100 includes a control unit 140, an operation unit 135, an input information acquisition unit 110, a storage unit 120, a power supply 130, an interface 180, a transmission unit (Tx) 51, and And a transmission unit (Tx) 52.
The operation unit 135 detects an operation by the user. The operation unit 135 includes the determination key 11, the display switching key 13, the track pad 14, the luminance switching key 15, the direction key 16, the menu key 17, and the power switch 18 shown in FIG.

入力情報取得部110は、使用者による操作入力に応じた信号を取得する。操作入力に応じた信号としては、例えば、トラックパッド14、方向キー16、電源スイッチ18、に対する操作入力がある。
電源130は、頭部装着型表示装置100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。
The input information acquisition unit 110 acquires a signal corresponding to an operation input by the user. As a signal corresponding to the operation input, for example, there is an operation input to the track pad 14, the direction key 16, and the power switch 18.
The power supply 130 supplies power to each part of the head-mounted display device 100. As the power supply 130, for example, a secondary battery can be used.

記憶部120は、種々のコンピュータープログラムを格納している。記憶部120は、ROMやRAM等によって構成されている。記憶部120には、頭部装着型表示装置100の画像表示部20に表示する画像データが格納されていても良い。
記憶部120は、後述する対象検出部171が参照する検出特徴データ124、及び、画像表示制御部176が処理する入替画像データ125を記憶する。
The storage unit 120 stores various computer programs. The storage unit 120 is configured by a ROM, a RAM, or the like. The storage unit 120 may store image data to be displayed on the image display unit 20 of the head-mounted display device 100.
The storage unit 120 stores detection feature data 124 referred to by a target detection unit 171 described later, and replacement image data 125 processed by the image display control unit 176.

インターフェイス180は、制御装置10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control device 10. As the interface 180, for example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, or a memory card interface can be used.

制御部140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、各部の機能を実現する。すなわち、制御部140は、オペレーティングシステム(OS)150、画像処理部160、音声処理部170、対象検出部171、距離検出部173、画像表示制御部176、画像生成部177、及び、表示制御部190として機能する。
制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、3軸センサー113の検出値を制御部140が取得可能である。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置10の制御部140が計時する時刻を修正させる機能を備えていてもよい。
The control unit 140 reads out and executes the computer program stored in the storage unit 120, thereby realizing the function of each unit. That is, the control unit 140 includes an operating system (OS) 150, an image processing unit 160, an audio processing unit 170, an object detection unit 171, a distance detection unit 173, an image display control unit 176, an image generation unit 177, and a display control unit. It functions as 190.
A three-axis sensor 113, a GPS 115, and a communication unit 117 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 can acquire the detection value of the triaxial sensor 113. The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and obtains the current position of the control device 10. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. Further, the GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140 of the control device 10.

通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合には、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示するための制御を行う。一方、外部機器OAが、インターフェイス180に有線接続された場合には、制御部140は、コンテンツデータをインターフェイス180より取得して、画像表示部20に画像を表示するための制御を行う。よって、通信部117、及び、インターフェイス180を、以下総称してデータ取得部DAと呼ぶ。
データ取得部DAは、外部機器OAから、頭部装着型表示装置100により表示するコンテンツデータを取得する。コンテンツデータは後述する画像データを含む。
The communication unit 117 executes wireless data communication conforming to a standard such as a wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), or Bluetooth (registered trademark).
When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires content data from the communication unit 117 and performs control for displaying an image on the image display unit 20. On the other hand, when the external device OA is wired to the interface 180, the control unit 140 acquires content data from the interface 180 and performs control for displaying an image on the image display unit 20. Therefore, the communication unit 117 and the interface 180 are hereinafter collectively referred to as a data acquisition unit DA.
The data acquisition unit DA acquires content data to be displayed by the head-mounted display device 100 from the external device OA. The content data includes image data to be described later.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに記憶部120内のDRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). Thereafter, the image processing unit 160 stores the converted digital image signal in the DRAM in the storage unit 120 frame by frame as image data (Data in the figure) of the target image. This image data is, for example, RGB data.
Note that the image processing unit 160 may execute image processing such as various tone correction processing such as resolution conversion processing, brightness and saturation adjustment, and keystone correction processing on the image data as necessary. .

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データData、のそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御装置10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. To do. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control device 10 and the image display unit 20.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 controls driving of the right LCD 241 by the right LCD control unit 211, driving ON / OFF of the right backlight 221 by the right backlight control unit 201, and left LCD control unit according to control signals. The left LCD 242 driving ON / OFF by 212, the left backlight 222 driving ON / OFF by the left backlight control unit 202, and the like are individually controlled. Thus, the display control unit 190 controls the generation and emission of image light by the right display driving unit 22 and the left display driving unit 24, respectively. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light.

表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。   The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、振動センサー65と、9軸センサー66と、を備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. And a vibration sensor 65 and a nine-axis sensor 66.

振動センサー65は、加速度センサーを利用して構成され、図1に示すように画像表示部20の内部に配置される。図1の例では右保持部21において、右光学像表示部26の端部ERの近傍に内蔵される。振動センサー65は、使用者が端部ERを叩く操作(ノック操作)を行った場合に、この操作による振動を検出して、検出結果を制御部140に出力する。この振動センサー65の検出結果により、制御部140は、使用者によるノック操作を検出する。   The vibration sensor 65 is configured using an acceleration sensor, and is arranged inside the image display unit 20 as shown in FIG. In the example of FIG. 1, the right holding unit 21 is built in the vicinity of the end ER of the right optical image display unit 26. When the user performs an operation of hitting the end ER (knock operation), the vibration sensor 65 detects vibration caused by this operation and outputs the detection result to the control unit 140. Based on the detection result of the vibration sensor 65, the control unit 140 detects a knocking operation by the user.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)、を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された使用者の頭部の動きから画像表示部20の向きがわかるため、制御部140は、使用者の視線方向を推定できる。   The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of the user's head is detected. Since the orientation of the image display unit 20 is known from the detected movement of the user's head, the control unit 140 can estimate the user's line-of-sight direction.

右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を備える。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, a right LCD control unit 211 that functions as a display element, and a right An LCD 241 and a right projection optical system 251 are provided. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as display elements. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as “image light generation unit”.

受信部53は、制御装置10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データData1と、に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control device 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input through the reception unit 53. . The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The right projection optical system 251 and the right light guide plate 261 are collectively referred to as “light guide unit”.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を備える。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, a left LCD control unit 212 and a left that function as a display element. An LCD 242 and a left projection optical system 252 are provided. The left backlight control unit 202 and the left backlight 222 function as a light source. The left LCD control unit 212 and the left LCD 242 function as display elements. The left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are also collectively referred to as “image light generation unit”. The left projection optical system 252 is configured by a collimating lens that converts the image light emitted from the left LCD 242 into a light beam in a parallel state. The left light guide plate 262 as the left optical image display unit 28 guides the image light output from the left projection optical system 252 to the left eye LE of the user while reflecting the image light along a predetermined optical path. The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”.

頭部装着型表示装置100は、使用者が右光学像表示部26及び左光学像表示部28を透過して外景を見ている場合に、この外景に重なるように画像データに基づく画像を表示する。
対象検出部171は、カメラ61に撮像を実行させる制御を行い、撮像画像を取得する。この撮像画像はカラー画像データまたはモノクロ画像データとしてカメラ61から出力されるが、カメラ61が画像信号を出力して、対象検出部171が画像信号から所定のファイルフォーマットに適合する画像データを生成してもよい。
対象検出部171は、取得した撮像画像データを解析し、撮像画像データに写っている対象物を検出する。対象物とは、カメラ61の撮像方向すなわち使用者の視線方向に存在する物体または人である。
The head-mounted display device 100 displays an image based on image data so as to overlap the outside scene when the user views the outside scene through the right optical image display unit 26 and the left optical image display unit 28. To do.
The target detection unit 171 performs control for causing the camera 61 to perform imaging, and acquires a captured image. The captured image is output from the camera 61 as color image data or monochrome image data. The camera 61 outputs an image signal, and the target detection unit 171 generates image data that conforms to a predetermined file format from the image signal. May be.
The object detection unit 171 analyzes the acquired captured image data and detects an object reflected in the captured image data. The target object is an object or a person that exists in the imaging direction of the camera 61, that is, the user's line-of-sight direction.

対象検出部171は、撮像画像において検出特徴データ124に適合する画像を検索し、適合する画像を対象物の画像として検出する。
図3は、記憶部120に記憶される検出特徴データ124及び入替画像データ125の構成例を示す図である。
検出特徴データ124は、撮像画像から検出する画像の特徴量のデータである。本実施形態では、検出特徴データ124は、単一画像用特徴データ124a、及び、動画像用特徴データ124bを含む。単一画像用特徴データ124aは、1つの撮像画像に対して適用される特徴量のデータである。対象検出部171は、単一画像用特徴データ124aを使用する場合、1つの撮像画像について単一画像用特徴データ124aに適合する部分を検出するマッチング処理を行う。
The target detection unit 171 searches the captured image for an image that matches the detection feature data 124 and detects the matching image as an image of the target object.
FIG. 3 is a diagram illustrating a configuration example of the detection feature data 124 and the replacement image data 125 stored in the storage unit 120.
The detected feature data 124 is data of the feature amount of the image detected from the captured image. In the present embodiment, the detected feature data 124 includes single image feature data 124a and moving image feature data 124b. The single image feature data 124a is feature amount data applied to one captured image. When the single image feature data 124a is used, the target detection unit 171 performs matching processing for detecting a portion that matches the single image feature data 124a for one captured image.

動画像用特徴データ124bは、複数の撮像画像について適用される特徴量のデータである。対象検出部171は、動画像用特徴データ124bを使用する場合、カメラ61の撮像画像を複数回取り込み、取り込んだ複数の撮像画像の差分を求める。カメラ61は、所定の時間間隔で撮像を行って、撮像を行う毎に撮像画像データを出力することが可能である。すなわち、カメラ61は、上記時間間隔に対応するフレームレートで撮像を行う動画像カメラとして機能する。この場合、対象検出部171は、カメラ61が異なるタイミングで撮像した複数の撮像画像の差分を求めることで、動画像の変化を求めることができる。動画像用特徴データ124bは、動画像の変化に対して適用される特徴量のデータということができる。対象検出部171は、撮像画像の差分において動画像用特徴データ124bに適合する部分を検出するマッチング処理を行う。   The moving image feature data 124b is feature amount data applied to a plurality of captured images. When the moving image feature data 124b is used, the target detection unit 171 takes a captured image of the camera 61 a plurality of times, and obtains a difference between the captured plurality of captured images. The camera 61 can capture images at predetermined time intervals, and can output captured image data every time it captures images. That is, the camera 61 functions as a moving image camera that captures images at a frame rate corresponding to the time interval. In this case, the target detection unit 171 can obtain a change in the moving image by obtaining a difference between a plurality of captured images captured by the camera 61 at different timings. The moving image feature data 124b can be referred to as feature amount data applied to changes in moving images. The target detection unit 171 performs matching processing for detecting a portion that matches the moving image feature data 124b in the difference between the captured images.

本実施形態では、対象検出部171が使用する検出特徴データ124が単一画像用特徴データ124aか動画像用特徴データ124bかは、事前に設定される。対象検出部171は、単一画像用特徴データ124aを使用するよう設定されている場合は、カメラ61の1つの撮像画像を取得してマッチング処理を行う。これに対し、動画像用特徴データ124bを使用するよう設定されている場合、対象検出部171は、カメラ61の撮像画像を取得する毎に記憶部120に一時的に記憶する。そして、対象検出部171は、記憶部120に記憶した複数の撮像画像を取得して差分を求め、この差分に対し動画像用特徴データ124bに基づくマッチング処理を行う。   In the present embodiment, whether the detection feature data 124 used by the target detection unit 171 is the single image feature data 124a or the moving image feature data 124b is set in advance. When the target detection unit 171 is set to use the single image feature data 124a, the target detection unit 171 acquires one captured image of the camera 61 and performs matching processing. On the other hand, when the moving image feature data 124b is set to be used, the target detection unit 171 temporarily stores the captured image of the camera 61 in the storage unit 120 every time it acquires the captured image. Then, the target detection unit 171 obtains a plurality of captured images stored in the storage unit 120, obtains a difference, and performs a matching process based on the moving image feature data 124b for the difference.

対象検出部171は、マッチング処理により、カメラ61が撮像した撮像画像に写る対象物を特定する。すなわち、対象検出部171は、撮像画像において単一画像用特徴データ124aに適合する領域、または、撮像画像の差分において動画像用特徴データ124bに適合する領域を検出した場合、検出した領域に写っている被写体を対象物とする。   The object detection unit 171 identifies an object that appears in the captured image captured by the camera 61 through matching processing. That is, when the target detection unit 171 detects a region that matches the single image feature data 124a in the captured image or a region that matches the moving image feature data 124b in the difference between the captured images, the target detection unit 171 reflects the detected region. The subject is the target.

距離検出部173は、対象検出部171が検出した対象物までの距離を求める。例えば、距離検出部173は、カメラ61の撮像画像において対象検出部171が検出した対象物の画像のサイズに基づき、対象物までの距離を求める。
また、頭部装着型表示装置100は、レーザー光または超音波を利用して対象物までの距離を検出する距離計を備えていてもよい。この距離計は、例えば、レーザー光の光源と、この光源が発したレーザー光の反射光を受光する受光部とを備え、レーザー光の受光状態に基づき対象物までの距離を検出する。また、距離計は、例えば、超音波式の距離計としてもよい。すなわち、超音波を発する音源と、対象物に反射した超音波を検出する検出部とを備え、反射した超音波に基づき対象物までの距離を検出する距離計を用いてもよい。さらに、この距離計は、レーザー光を利用する距離計と超音波を用いる距離計とを合わせた構成とすることもできる。このような距離計は、画像表示部20の右保持部21または右表示駆動部22に設けることが好ましく、例えば、調光板20Aと並ぶ面に、前方を向いて設置するとよい。この距離計が距離を測定する方向は、カメラ61の撮像方向と同様に、使用者の視線方向であることが望ましい。
距離検出部173は、カメラ61または距離計から対象物までの距離を検出するが、この距離は、頭部装着型表示装置100の使用者から対象物までの距離と見なすことができる。
また、対象検出部171が検出する対象物が特定の物体でない場合、距離検出部173は、例えば撮像画像の中央を仮想の対象物として、この対象物までの距離を検出する。
The distance detection unit 173 obtains the distance to the object detected by the object detection unit 171. For example, the distance detection unit 173 obtains the distance to the object based on the size of the image of the object detected by the object detection unit 171 in the captured image of the camera 61.
The head-mounted display device 100 may include a distance meter that detects the distance to the object using laser light or ultrasonic waves. For example, the distance meter includes a light source of laser light and a light receiving unit that receives reflected light of the laser light emitted from the light source, and detects a distance to an object based on a light receiving state of the laser light. The distance meter may be an ultrasonic distance meter, for example. That is, a distance meter that includes a sound source that emits ultrasonic waves and a detection unit that detects ultrasonic waves reflected on the object, and detects the distance to the object based on the reflected ultrasonic waves may be used. Further, the distance meter can be configured by combining a distance meter using laser light and a distance meter using ultrasonic waves. Such a distance meter is preferably provided in the right holding unit 21 or the right display driving unit 22 of the image display unit 20, and may be installed, for example, facing the front side on the surface aligned with the light control plate 20A. The direction in which the distance meter measures the distance is preferably the user's line-of-sight direction, similar to the imaging direction of the camera 61.
The distance detection unit 173 detects the distance from the camera 61 or the distance meter to the object, and this distance can be regarded as the distance from the user of the head-mounted display device 100 to the object.
When the target detected by the target detection unit 171 is not a specific object, the distance detection unit 173 detects the distance to this target, for example, using the center of the captured image as a virtual target.

画像生成部177は、カメラ61の撮像画像の一部を抽出して処理することにより、表示用画像を生成する。本実施形態では、画像生成部177は、対象検出部171が検出した特徴物を含む所定サイズの領域を、撮像画像から切り出して、表示用画像を生成する。対象検出部171が動画像用特徴データ124bを使用して、複数の撮像画像から対象物を検出した場合、画像生成部177は、最新の撮像画像において対象検出部171が検出した対象物を含む領域を切り出す。
画像生成部177が生成する表示用画像は、画像表示制御部176の制御により、画像表示部20の表示可能領域に表示される。表示用画像を表示するサイズは予め設定されており、例えば、使用者が外景を見る際の支障にならない程度である。このため、画像生成部177は、表示用画像の表示サイズに合わせたサイズで撮像画像を切り出す。
The image generation unit 177 generates a display image by extracting and processing a part of the captured image of the camera 61. In the present embodiment, the image generation unit 177 generates a display image by cutting out an area of a predetermined size including the feature detected by the target detection unit 171 from the captured image. When the object detection unit 171 detects an object from a plurality of captured images using the moving image feature data 124b, the image generation unit 177 includes the object detected by the object detection unit 171 in the latest captured image. Cut out the area.
The display image generated by the image generation unit 177 is displayed in the displayable area of the image display unit 20 under the control of the image display control unit 176. The display size of the display image is set in advance, and is, for example, a level that does not hinder the user when viewing the outside scene. Therefore, the image generation unit 177 cuts out the captured image with a size that matches the display size of the display image.

画像生成部177は、対象検出部171が検出した特徴物を含む撮像画像の一部が、より見やすく表示されるように、表示用画像を生成する。従って、上記のように、画像生成部177が実行する処理は、撮像画像から抽出する領域を拡大する処理に限定されない。例えば、撮像画像から抽出する領域のうち対象物の周囲を円や矩形等の枠で囲んで、表示用画像としてもよい。また、例えば、対象物に、吹き出しや矢印等の装飾を付与して対象物を認識しやすい表示用画像を生成してもよい。この場合の装飾は、予め装飾用に記憶される画像であり、補助画像、強調用画像と呼ぶことができる。また、対象物を含む領域の輝度や色調を変化させてもよく、例えば対象物及びその周囲を高輝度の画像としてもよい。
また、単一画像用特徴データ124aや動画像用特徴データ124bに基づき検出される対象物に装飾を付与する場合、この装飾に関するデータを、単一画像用特徴データ124a、動画像用特徴データ124bに含めてもよい。
The image generation unit 177 generates a display image so that a part of the captured image including the feature detected by the target detection unit 171 is displayed more easily. Therefore, as described above, the process executed by the image generation unit 177 is not limited to the process of enlarging the area extracted from the captured image. For example, a display image may be obtained by surrounding the object in a region extracted from the captured image with a frame such as a circle or a rectangle. In addition, for example, a decoration image such as a balloon or an arrow may be given to the object to generate a display image that can easily recognize the object. The decoration in this case is an image stored in advance for decoration, and can be called an auxiliary image or an enhancement image. Further, the luminance and color tone of the region including the object may be changed. For example, the object and its surroundings may be a high-luminance image.
Further, when a decoration is given to an object detected based on the single image feature data 124a or the moving image feature data 124b, the data related to the decoration is used as the single image feature data 124a and the moving image feature data 124b. May be included.

また、画像生成部177は、対象検出部171が検出する対象物を含む画像を切り出す際に、対象物及びその周辺の画像を切り出してもよい。この場合、撮像画像の一部を拡大した画像であることが明らかに分かるので、使用者は、例えば遠方の見づらい部分を拡大して見ることができる。また、画像生成部177は、対象物の画像の輪郭に沿って切り出しを行ってもよく、この場合、切り出す画像を、他の背景画像と合成して表示することや、切り出した画像を3D(立体)画像として画像表示部20に表示する処理することが、可能となる。   Further, the image generation unit 177 may cut out the target object and its surrounding images when cutting out an image including the target object detected by the target detection unit 171. In this case, it can be clearly seen that the image is an enlarged image of a part of the captured image, so that the user can enlarge and view a portion that is difficult to see, for example. In addition, the image generation unit 177 may cut out the image along the contour of the image of the object. In this case, the image to be cut out is combined with another background image and displayed, or the cut out image is displayed in 3D ( It is possible to display the image on the image display unit 20 as a (stereo) image.

さらに、画像生成部177は、距離検出部173が検出した距離に基づき、拡大率を決定する。画像生成部177は、撮像画像から切り出した一部の画像が画像表示制御部176の制御により表示されるときに、使用者に、拡大して見えるようにする。このため、画像生成部177は、画像表示部20の表示可能領域において表示用画像を表示するサイズ(解像度、或いは画像ドット数)と、拡大率とに基づき、撮像画像から切り出す画像のサイズを決定する。そして、画像生成部177は、切り出した画像のサイズを、表示するサイズに合わせて変換する拡大処理(或いは解像度変換処理)を実行する。これにより、撮像画像から切り出された画像は拡大された状態となるので、使用者は拡大画像を見ることができる。   Furthermore, the image generation unit 177 determines the enlargement ratio based on the distance detected by the distance detection unit 173. The image generation unit 177 makes the user see an enlarged image when a part of the image cut out from the captured image is displayed under the control of the image display control unit 176. Therefore, the image generation unit 177 determines the size of the image to be cut out from the captured image based on the size (resolution or the number of image dots) for displaying the display image in the displayable area of the image display unit 20 and the enlargement ratio. To do. Then, the image generation unit 177 executes enlargement processing (or resolution conversion processing) for converting the size of the cut-out image according to the display size. Thereby, since the image cut out from the captured image is in an enlarged state, the user can see the enlarged image.

画像生成部177が拡大した表示用画像が使用者に視認されるサイズは、画像表示部20の仕様に影響される。画像生成部177が撮像画像から切り出した画像を拡大する拡大率を適切に管理、調整するため、例えば、撮像画像から切り出した画像を、使用者の視野における外景と同じサイズとする場合(すなわち、拡大率が1倍)の画像のサイズを予め設定するとよい。つまり、使用者が拡大も縮小もしないサイズで表示用画像を視認する場合の、画像生成部177が切り出す画像のサイズが予め設定される。このサイズを基準として、画像生成部177は、目標の拡大率に合わせて画像を切り出して拡大する。   The size at which the display image enlarged by the image generation unit 177 is visually recognized by the user is affected by the specifications of the image display unit 20. In order to appropriately manage and adjust the enlargement ratio at which the image generation unit 177 enlarges the image cut out from the captured image, for example, when the image cut out from the captured image has the same size as the outside scene in the user's field of view (that is, It is preferable to set the size of an image with an enlargement ratio of 1) in advance. That is, the size of the image cut out by the image generation unit 177 when the user visually recognizes the display image with a size that is neither enlarged nor reduced is set in advance. With this size as a reference, the image generation unit 177 cuts out and enlarges the image in accordance with the target enlargement ratio.

画像生成部177が画像を拡大する処理における拡大率は、例えば、距離検出部173が検出した距離に対応して決定するとよい。
図3には、記憶部120に記憶される表示設定データ126に、距離検出部173が検出した対象物までの距離と拡大率とを対応付ける拡大率設定データ126aを含む例を示す。拡大率設定データ126aは、距離検出部173が検出した距離と拡大率とを定めるデータであり、例えば、拡大率を段階的に求めるテーブル、或いは、距離から拡大率を算出する演算式やパラメーターを含む。この拡大率設定データ126aにより、画像生成部177は、距離検出部173が検出した距離から拡大率を求めることができる。また、拡大率設定データ126aに、画像生成部177が拡大をしないケースについて設定してもよく、画像生成部177が表示用画像を生成しないケースを設定してもよい。例えば、距離検出部173が検出した対象物までの距離が設定された距離よりも近い場合に、表示用画像の生成および表示を行わないよう設定することができる。画像生成部177が表示用画像のデータを生成および出力しない場合、画像表示制御部176は表示用画像の表示を行わない。
表示設定データ126は、拡大率設定データ126aの他、画像表示部20におけるデフォルトの表示サイズに関する設定値のデータ、表示色の調整に関する設定値のデータなど、画像の表示に関して予め設定されたデータを含んでも良い。
The enlargement ratio in the process of enlarging the image by the image generation unit 177 may be determined according to the distance detected by the distance detection unit 173, for example.
FIG. 3 shows an example in which the display setting data 126 stored in the storage unit 120 includes enlargement ratio setting data 126 a that associates the distance to the object detected by the distance detection unit 173 and the enlargement ratio. The enlargement ratio setting data 126a is data for determining the distance and the enlargement ratio detected by the distance detection unit 173. For example, a table for obtaining the enlargement ratio step by step, or an arithmetic expression or parameter for calculating the enlargement ratio from the distance. Including. Based on the enlargement factor setting data 126a, the image generation unit 177 can obtain the enlargement factor from the distance detected by the distance detector 173. Further, the case where the image generation unit 177 does not enlarge may be set in the enlargement ratio setting data 126a, or the case where the image generation unit 177 does not generate a display image may be set. For example, when the distance to the object detected by the distance detection unit 173 is closer than the set distance, it can be set not to generate and display the display image. When the image generation unit 177 does not generate and output display image data, the image display control unit 176 does not display the display image.
The display setting data 126 includes, in addition to the enlargement ratio setting data 126a, data set in advance with respect to image display, such as setting value data relating to the default display size in the image display unit 20, and setting value data relating to display color adjustment. May be included.

画像表示制御部176は、表示制御部190を制御して、画像生成部177が生成した表示用画像のデータに基づき、画像表示部20によって、画像を表示させる。   The image display control unit 176 controls the display control unit 190 to cause the image display unit 20 to display an image based on the display image data generated by the image generation unit 177.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示略)および左イヤホン34内のスピーカー(図示略)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれから、例えば周波数等が変えられた異なる音が出力される。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker in the left earphone 34 (not shown) connected to the connecting member 46. (Not shown). For example, when the Dolby (registered trademark) system is adopted, processing is performed on the audio signal, and different sounds with different frequencies or the like are output from each of the right earphone 32 and the left earphone 34, for example.

また、音声処理部170は、マイク63により集音される音声を取得してディジタル音声データに変換し、音声に係る処理を行う。例えば、音声処理部170は、取得した音声から特徴を抽出してモデル化することで、複数の人の声を別々に認識して、声ごとに話している人を特定する話者認識を行ってもよい。   In addition, the sound processing unit 170 acquires sound collected by the microphone 63, converts it into digital sound data, and performs processing related to sound. For example, the speech processing unit 170 performs speaker recognition that identifies a person who speaks for each voice by recognizing voices of a plurality of persons separately by extracting and modeling features from the acquired speech. May be.

制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得して、制御装置10の動き及び動きの方向を検出可能である。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置10の制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))やBluetooth(登録商標)規格に準じた無線データ通信を実行する。
A three-axis sensor 113, a GPS 115, and a communication unit 117 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 can detect the detection value of the triaxial sensor 113 and detect the movement and the direction of movement of the control device 10.
The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and obtains the current position of the control device 10. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. Further, the GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140 of the control device 10.
The communication unit 117 performs wireless data communication conforming to a wireless LAN (WiFi (registered trademark)) or Bluetooth (registered trademark) standard.

インターフェイス180は、制御装置10に対して、コンテンツの供給元となる種々の画像供給装置OAを接続するためのインターフェイスである。画像供給装置OAが供給するコンテンツは、静止画像または動画像を含み、音声を含んでもよい。画像供給装置OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を利用できる。
ここで、画像供給装置OAを無線通信回線により制御装置10に接続することも可能である。この場合、画像供給装置OAは、通信部117と無線通信を実行して、コンテンツのデータをMiracast(登録商標)等の無線通信技術により送信する。
The interface 180 is an interface for connecting various image supply apparatuses OA that are content supply sources to the control apparatus 10. The content supplied by the image supply device OA includes a still image or a moving image, and may include sound. Examples of the image supply device OA include a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.
Here, it is also possible to connect the image supply device OA to the control device 10 by a wireless communication line. In this case, the image supply device OA performs wireless communication with the communication unit 117 and transmits content data using a wireless communication technique such as Miracast (registered trademark).

図4は、頭部装着型表示装置100の動作を示すフローチャートである。この動作では、使用者が右光学像表示部26及び左光学像表示部28を通して外景を見ているときに、その外景を撮像した撮像画像の一部を、画像表示部20により表示する。
また、図5は、図4に示す動作により頭部装着型表示装置100が画像を表示する様子を示す説明図である。図5(A)は使用者の視野VRの例を示し、図5(B)及び(C)は撮像画像から切り出される画像の例を示し、図5(D)は表示用画像を表示した場合の使用者の視野VRの例を示す。
FIG. 4 is a flowchart showing the operation of the head-mounted display device 100. In this operation, when the user views the outside scene through the right optical image display unit 26 and the left optical image display unit 28, a part of the captured image obtained by capturing the outside scene is displayed by the image display unit 20.
FIG. 5 is an explanatory diagram showing how the head-mounted display device 100 displays an image by the operation shown in FIG. 5A shows an example of the user's visual field VR, FIGS. 5B and 5C show examples of images cut out from the captured image, and FIG. 5D shows a case where a display image is displayed. An example of the visual field VR of the user is shown.

頭部装着型表示装置100の制御部140では、対象検出部171は、カメラ61に撮像を実行させ(ステップS11)、撮像画像を取得する(ステップS12)。対象検出部171は、記憶部120から単一画像用特徴データ124aまたは動画像用特徴データ124bを取得し(ステップS13)、取得した検出特徴データの対象が単一の撮像画像か複数の撮像画像かを判定する(ステップS14)。この判定は、使用する検出特徴データとして単一画像用特徴データ124aが指定されているか、動画像用特徴データ124bが指定されているかに基づき行うことができる。   In the control unit 140 of the head-mounted display device 100, the target detection unit 171 causes the camera 61 to perform imaging (step S11) and obtains a captured image (step S12). The target detection unit 171 acquires the single image feature data 124a or the moving image feature data 124b from the storage unit 120 (step S13), and the acquired detection feature data target is a single captured image or a plurality of captured images. Is determined (step S14). This determination can be made based on whether the single image feature data 124a or the moving image feature data 124b is designated as the detection feature data to be used.

単一の撮像画像を処理する場合(ステップS14;YES)、対象検出部171は、ステップS12で取得した撮像画像に対して、単一画像用特徴データ124aを用いてマッチング処理を行い(ステップS15)、ステップS18に移行する。
また、複数の撮像画像を処理する場合(ステップS14;NO)、対象検出部171は、ステップS12で取得した撮像画像と、過去に取得して記憶部120に一時的に記憶した撮像画像との差分を求める(ステップS16)。対象検出部171は、求めた差分に対して動画像用特徴データ124bに基づくマッチング処理を実行し(ステップS17)、ステップS18に移行する。
When processing a single captured image (step S14; YES), the target detection unit 171 performs matching processing on the captured image acquired in step S12 using the single image feature data 124a (step S15). ), The process proceeds to step S18.
When processing a plurality of captured images (step S14; NO), the target detection unit 171 includes the captured image acquired in step S12 and the captured image acquired in the past and temporarily stored in the storage unit 120. The difference is obtained (step S16). The target detection unit 171 executes matching processing based on the moving image feature data 124b for the obtained difference (step S17), and proceeds to step S18.

ステップS18では、対象検出部171が、撮像画像から切り出す領域を決定する。ここで決定される領域は、対象検出部171が検出した対象物を含む領域であるが、詳細な切り出し範囲は後述するステップS21で画像生成部177が決定する。従って、ステップS18で決定される領域は、仮の領域であり、例えば、切り出す領域の中心の位置、或いは、対象物の輪郭等とするとよい。   In step S18, the target detection unit 171 determines an area to be cut out from the captured image. The region determined here is a region including the object detected by the object detection unit 171, but the detailed cutout range is determined by the image generation unit 177 in step S <b> 21 described later. Therefore, the region determined in step S18 is a temporary region, and may be, for example, the center position of the region to be cut out or the contour of the object.

図5(A)に示す例は、使用者がサッカーの試合を観客席から見ている例を示す。この例では、サッカーのフィールドF、及び、フィールドFでプレーする複数のプレイヤーFPが見えている。一人のプレイヤーFPがボールBを持っている様子が見えている。この例では使用者はフィールドFから遠く離れた位置にいるため、視野VRにおけるプレイヤーP及びボールBは小さく見える。   The example shown in FIG. 5A shows an example where the user is watching a soccer game from the audience seat. In this example, a soccer field F and a plurality of players FP playing in the field F are visible. It can be seen that one player FP has the ball B. In this example, since the user is far away from the field F, the player P and the ball B in the field of view VR appear small.

カメラ61の撮像範囲(画角)は、例えば視野VRと同じ範囲であり、撮像画像には、フィールドF、プレイヤーFP及びボールBが写る。
対象検出部171は、単一画像用特徴データ124aに基づき撮像画像に対しマッチング処理を行い、ボールBの画像を対象物として検出するものとする。この場合、対象検出部171は、ステップS15でボールBを検出し、ステップS18ではボールBを含む領域が切り出し領域として決定される。
The imaging range (view angle) of the camera 61 is, for example, the same range as the visual field VR, and the field F, the player FP, and the ball B are captured in the captured image.
The object detection unit 171 performs matching processing on the captured image based on the single image feature data 124a, and detects the image of the ball B as the object. In this case, the target detection unit 171 detects the ball B in step S15, and in step S18, an area including the ball B is determined as a cut-out area.

続いて、距離検出部173が、ステップS18で対象検出部171が決定した領域に含まれる対象物までの距離を検出する(ステップS19)。
そして、画像生成部177が、距離検出部173により検出された距離と、記憶部120に記憶された拡大率設定データ126aとに基づき拡大率を決定する(ステップS20)。画像生成部177は、決定した拡大率に基づき、撮像画像から画像を切り出すサイズ及び位置を決定して、画像の切り出しを実行し、切り出した画像を表示用画像として出力する(ステップS21)。ステップS21において、画像生成部177は、上述したサイズ変換、或いは解像度変換処理等を実行してもよい。また、画像生成部177は、距離検出部173が検出した距離に対応する拡大率設定データ126aの設定が、表示をしない設定であった場合は、表示用画像を出力しない。
Subsequently, the distance detection unit 173 detects the distance to the target object included in the region determined by the target detection unit 171 in step S18 (step S19).
Then, the image generation unit 177 determines the enlargement rate based on the distance detected by the distance detection unit 173 and the enlargement rate setting data 126a stored in the storage unit 120 (step S20). Based on the determined enlargement factor, the image generation unit 177 determines the size and position of the image to be cut out from the captured image, cuts out the image, and outputs the cut out image as a display image (step S21). In step S21, the image generation unit 177 may perform the above-described size conversion or resolution conversion processing. The image generation unit 177 does not output a display image when the setting of the enlargement ratio setting data 126a corresponding to the distance detected by the distance detection unit 173 is a setting for not displaying.

図5(B)及び(C)には画像生成部177が出力する表示用画像の例を示す。画像生成部177は、画像の切り出しに関して予め設定された内容に従い、撮像画像から、ボールBの画像を含む領域を切り出す。画像の切り出しに関して予め設定された内容とは、切り出す画像のアスペクト比や、拡大率が1倍の場合の画像のサイズである。図5(B)の例ではボールB、及び、ボールBを持つプレイヤーFPの全身が写った領域が切り出され、表示用画像として出力される。また、図5(C)の例では、ボールB、及び、ボールBを含む所定サイズの領域が切り出され、表示用画像として出力されている。図5(C)の例ではボールBを持つプレイヤーFPの身体は、一部のみが含まれる。単一画像用特徴データ124aが、ボールBを検出するための特徴量のデータである場合、画像生成部177が切り出す画像にプレイヤーFPの全身が含まれるか身体の一部が含まれるかは、拡大率等の設定により決まる。   5B and 5C show examples of display images output from the image generation unit 177. FIG. The image generation unit 177 cuts out an area including the image of the ball B from the captured image in accordance with contents set in advance with respect to the cutout of the image. The contents set in advance for image cropping are the aspect ratio of the clipped image and the size of the image when the enlargement ratio is 1. In the example of FIG. 5B, an area in which the whole body of the ball B and the player FP having the ball B is shown is cut out and output as a display image. In the example of FIG. 5C, the ball B and a region of a predetermined size including the ball B are cut out and output as a display image. In the example of FIG. 5C, only part of the body of the player FP having the ball B is included. When the single image feature data 124a is feature amount data for detecting the ball B, whether the whole body of the player FP or a part of the body is included in the image cut out by the image generation unit 177 is: It depends on the setting such as magnification.

画像表示制御部176は、画像生成部177が出力した表示用画像を記憶部120に記憶する(ステップS22)。記憶部120には、表示用画像が時系列に沿って記憶される。従って、図4のステップS11〜S24に示す処理を繰り返し実行すると、記憶部120には、時系列順に複数の表示用画像が記憶される。これら複数の表示用画像は連続して表示することで動画像として再生できる。例えば、操作部135に対する指示操作に従って、制御部140は、記憶部120に記憶した表示用画像を再生表示できる。   The image display control unit 176 stores the display image output from the image generation unit 177 in the storage unit 120 (step S22). The storage unit 120 stores display images in time series. Therefore, when the process shown in steps S11 to S24 in FIG. 4 is repeatedly executed, a plurality of display images are stored in the storage unit 120 in chronological order. The plurality of display images can be reproduced as moving images by displaying them continuously. For example, in accordance with an instruction operation on the operation unit 135, the control unit 140 can reproduce and display the display image stored in the storage unit 120.

画像表示制御部176は、ステップS21で画像生成部177が出力した表示用画像を、表示制御部190に出力し、画像表示部20により表示する(ステップS23)。
その後、制御部140は表示を終了するか否かを判定する(ステップS24)。表示を継続する場合(ステップS24;NO)、制御部140はステップS1に戻る。また、操作部135が検出した操作等に従って表示を終了する場合(ステップS24;YES)、制御部140は表示制御部190による表示を停止させて本処理を終了する。
The image display control unit 176 outputs the display image output from the image generation unit 177 in step S21 to the display control unit 190 and displays it on the image display unit 20 (step S23).
Thereafter, the control unit 140 determines whether or not to end the display (step S24). When the display is continued (step S24; NO), the control unit 140 returns to step S1. When the display is terminated according to the operation detected by the operation unit 135 (step S24; YES), the control unit 140 stops the display by the display control unit 190 and ends the present process.

図5(D)には表示用画像が画像表示部20により表示される状態を示す。視野VRには、図5(A)と同様に、外景としてフィールドFが見えているが、視野VRの一部に重畳するように、画像IVが表示される。この画像IVは画像表示部20が表示する表示用画像である。画像IVは外景の一部を拡大した画像となっているので、使用者は、画像表示部20を通して見る外景と、この外景の一部とを同時に見ることができる。   FIG. 5D shows a state in which a display image is displayed by the image display unit 20. In the field of view VR, as in FIG. 5A, the field F is seen as an outside scene, but the image IV is displayed so as to be superimposed on a part of the field of view VR. This image IV is a display image displayed by the image display unit 20. Since the image IV is an image obtained by enlarging a part of the outside scene, the user can view the outside scene viewed through the image display unit 20 and a part of the outside scene at the same time.

なお、対象検出部171は、図4のステップS11〜S17の処理を繰り返し実行する場合、いったん検出した対象物を追跡する処理を行ってもよい。すなわち、対象検出部171は、単一画像用特徴データ124aまたは動画像用特徴データ124bに基づき対象物を検出した後に、カメラ61の撮像画像の変化を監視し、検出済みの対象物の動きを追跡する。これにより、対象検出部171は、ステップS15、S17のマッチング処理を行わなくても、検出対象の撮像画像から対象物を検出できる。このような手法は、例えば、カメラ61により所定のフレームレート(例えば、30フレーム/秒)で動画像を撮影し、各フレームに対して対象検出部171が対象物を検出する場合に、処理負荷を軽減でき、効果的である。   In addition, the object detection part 171 may perform the process which tracks the target once detected, when performing the process of FIG.4 S11-S17 repeatedly. That is, the target detection unit 171 detects a target object based on the single image feature data 124a or the moving image feature data 124b, and then monitors the change in the captured image of the camera 61 to detect the movement of the detected target object. Chase. Thereby, the target detection unit 171 can detect the target object from the captured image of the detection target without performing the matching processing in steps S15 and S17. Such a method is, for example, processing load when a moving image is captured by the camera 61 at a predetermined frame rate (for example, 30 frames / second), and the object detection unit 171 detects an object for each frame. Can be mitigated and effective.

また、単一画像用特徴データ124a及び動画像用特徴データ124bは、特定の対象物を検出するための特徴量に限定されない。例えば、単一画像用特徴データ124aは、特定の特徴を含む撮像画像を検出する特徴量とすることができ、動画像用特徴データ124bは、特定の変化をする動画像を検出する特徴量とすることができる。この場合、対象検出部171は、単一画像用特徴データ124aまたは動画像用特徴データ124bに適合する特徴を、撮像画像において検出した場合に、その特徴を有する部分を対象物とする。この場合、対象物は特定の物体ではなく、撮像画像の一部となる。画像生成部177は、対象検出部171が対象物として検出した撮像画像の一部を切り出して表示用画像とすればよい。   Further, the single image feature data 124a and the moving image feature data 124b are not limited to feature amounts for detecting a specific object. For example, the single image feature data 124a can be a feature amount for detecting a captured image including a specific feature, and the moving image feature data 124b is a feature amount for detecting a moving image having a specific change. can do. In this case, when a feature that matches the single image feature data 124a or the moving image feature data 124b is detected in the captured image, the target detection unit 171 sets a portion having the feature as a target. In this case, the target is not a specific object but a part of the captured image. The image generation unit 177 may cut out a part of the captured image detected as the target by the target detection unit 171 and use it as a display image.

また、単一画像用特徴データ124a及び動画像用特徴データ124bは、特定の1つまたは少ない数の対象物を検出する特定対象物用の特徴量のデータを含んでもよいし、類似する複数種類の対象物を検出できる汎用的な特徴量のデータを含んでもよい。
例えば、図5(B)、(C)の例では、対象検出部171は、単一画像用特徴データ124aに基づきボールを検出する。この単一画像用特徴データ124aは、特定の図柄(色及び柄の形状を含む)のボールを検出する特定対象物用の特徴量のデータであってもよいし、球体を検出する汎用的な特徴量のデータであってもよい。汎用的な特徴量のデータである場合、例えば、形状のみを特定する特徴量、形状と色を特定する特徴量とすることもできるし、複数の色のいずれかであることを特定する特徴量であってもよい。また、特徴量のデータとともに、許容される特徴量との差異の範囲を定めるデータを、単一画像用特徴データ124aに含んでもよい。動画像用特徴データ124bについても同様である。
具体的には、特定の人の顔、髪型、衣服(ユニフォーム、靴、帽子、ビブス等)の差異を許容する汎用的な特徴量のデータとすれば、複数の対象物を検出できるだけでなく、日照や照明の状態、環境の明るさ、日光による撮像画像中の色の変化に対応できる。また、対象検出部171は、対象物を検出した後、続けて撮像される撮像画像データにおいて、対象物を追跡してもよい。この場合、対象物を追跡する間に撮像画像データにおける対象物の画像が特徴量に該当しなくなったときに、特徴量を衡正(キャリブレーション)してもよい。これにより、特定対象用の特徴量のデータを利用する場合、及び、汎用的な特徴量のデータを使用する場合であって日照等の要因により撮像画像における対象物の色や形状が特徴量から逸脱する場合であっても、対象物を検出でき、対象物を継続して検出できる。
The single image feature data 124a and the moving image feature data 124b may include feature amount data for a specific object for detecting one specific object or a small number of objects, or a plurality of similar types of data. General-purpose feature amount data that can detect the target object may be included.
For example, in the example of FIGS. 5B and 5C, the target detection unit 171 detects the ball based on the single image feature data 124a. The single image feature data 124a may be feature amount data for a specific object for detecting a ball of a specific design (including a color and a shape of the design), or a general-purpose data for detecting a sphere. It may be feature amount data. In the case of general-purpose feature amount data, for example, a feature amount that identifies only a shape, a feature amount that identifies a shape and a color, or a feature amount that identifies one of a plurality of colors It may be. In addition to the feature amount data, the single image feature data 124a may include data defining a range of difference from the allowable feature amount. The same applies to the moving image feature data 124b.
Specifically, if the data of general-purpose features that allow for differences in a specific person's face, hairstyle, clothes (uniforms, shoes, hats, bibs, etc.), not only can multiple objects be detected, It is possible to cope with changes in color in captured images due to sunlight, lighting conditions, environmental brightness, and sunlight. In addition, the target detection unit 171 may track the target in the captured image data that is continuously captured after the target is detected. In this case, when the object image in the captured image data no longer corresponds to the feature amount while tracking the target object, the feature amount may be calibrated (calibrated). As a result, when using feature amount data for a specific object and when using general-purpose feature amount data, the color and shape of the object in the captured image can be determined from the feature amount due to factors such as sunlight. Even if the vehicle deviates, the object can be detected and the object can be detected continuously.

以上説明したように、本発明を適用した実施形態に係る頭部装着型表示装置100は、使用者の身体に装着して使用される表示装置であって、外景を透過し、外景とともに視認できるように画像を表示する画像表示部20と、使用者の視線方向を撮像するカメラ61とを備える。頭部装着型表示装置100の制御部140は、カメラ61の撮像画像から表示用画像を生成する画像生成部177と、画像生成部177が生成した表示用画像を画像表示部20に表示させる画像表示制御部176とを備える。これにより、使用者の視線方向を撮像した撮像画像に基づく表示用画像を、外景として見える対象物に重なるように画像を表示できる。このため、使用者が見ている外景の見え方を、この外景を撮像した撮像画像に基づき補ったり、別の見方を提示したりするなど、表示装置外部の外景と、表示内容とを効果的に組み合わせて、表示装置による表示の新たな活用方法を提供できる。   As described above, the head-mounted display device 100 according to the embodiment to which the present invention is applied is a display device that is used while being worn on a user's body, and can be seen through the outside scene and together with the outside scene. Thus, the image display unit 20 that displays an image and the camera 61 that captures the user's line-of-sight direction are provided. The control unit 140 of the head-mounted display device 100 generates an image for display from an image captured by the camera 61 and an image for causing the image display unit 20 to display the display image generated by the image generation unit 177. A display control unit 176. As a result, the display image based on the captured image obtained by capturing the user's line-of-sight direction can be displayed so as to overlap the object that appears as an outside scene. For this reason, the external scene outside the display device and the display contents can be effectively improved by supplementing the appearance of the external scene viewed by the user based on a captured image obtained by capturing the external scene, or presenting another view. In combination, it is possible to provide a new method for utilizing the display by the display device.

また、画像生成部177は、カメラ61の撮像画像の一部を切り出して拡大することにより、表示用画像を生成するので、使用者の視線方向を撮像した撮像画像を拡大して表示できる。このため、使用者は、外景を見ながら、視線方向を拡大して見ることができる。
また、画像生成部177は、カメラ61の撮像画像において予め設定された条件に該当する領域を切り出すことにより、表示用画像を生成するので、予め設定された条件に該当する撮像画像を表示できる。例えば、使用者の嗜好や興味に該当するような撮像画像が撮像された場合に、この撮像画像を画像表示部20により表示して使用者に見せることができる。
Moreover, since the image generation unit 177 generates a display image by cutting out and enlarging a part of the captured image of the camera 61, the captured image obtained by capturing the user's line-of-sight direction can be enlarged and displayed. For this reason, the user can enlarge the line of sight while viewing the outside scene.
In addition, the image generation unit 177 generates a display image by cutting out a region corresponding to a preset condition in the captured image of the camera 61, and thus can display a captured image corresponding to the preset condition. For example, when a captured image corresponding to the user's preference or interest is captured, the captured image can be displayed by the image display unit 20 and shown to the user.

また、頭部装着型表示装置100は、カメラ61の撮像画像から使用者の視線方向の対象物を検出する対象検出部171を備える。画像生成部177は、カメラ61の撮像画像から、対象検出部171が検出した対象物の画像を含む領域を切り出すことにより、表示用画像を生成する。これにより、使用者の視線方向に対象物がある場合に、この対象物の画像を使用者に見せることができる。
また、頭部装着型表示装置100は、対象検出部171により検出された対象物と使用者との距離を検出する距離検出部173を備える。画像生成部177は、距離検出部173が検出した距離に応じた拡大率でカメラ61の撮像画像の一部を拡大し、表示用画像を生成する。これにより、使用者の視線方向の対象物との距離に合わせた拡大率で、対象物の画像を使用者に見せることができる。
また、画像生成部177は、カメラ61により異なるときに撮像された複数の撮像画像を取得し、これら複数の撮像画像において予め設定された条件に該当する領域を特定することにより、表示用画像を生成する。これにより、複数の撮影画像について、より複雑な条件を設定し、この条件に該当する撮像画像をもとに画像を使用者に見せることができる。
The head-mounted display device 100 includes a target detection unit 171 that detects an object in the direction of the user's line of sight from an image captured by the camera 61. The image generation unit 177 generates a display image by cutting out a region including the image of the target detected by the target detection unit 171 from the captured image of the camera 61. Thereby, when there is an object in the direction of the user's line of sight, the image of the object can be shown to the user.
The head-mounted display device 100 includes a distance detection unit 173 that detects the distance between the object detected by the object detection unit 171 and the user. The image generation unit 177 enlarges a part of the captured image of the camera 61 at an enlargement rate corresponding to the distance detected by the distance detection unit 173, and generates a display image. Thereby, the image of the object can be shown to the user at an enlargement rate that matches the distance from the object in the direction of the user's line of sight.
In addition, the image generation unit 177 acquires a plurality of captured images captured at different times by the camera 61, and specifies a region corresponding to a preset condition in the plurality of captured images, thereby generating a display image. Generate. Thereby, more complicated conditions can be set for a plurality of captured images, and images can be shown to the user based on the captured images corresponding to the conditions.

また、画像生成部177は、カメラ61により異なるときに撮像された複数の撮像画像を取得し、これら複数の撮像画像の画像間の差分が予め設定された条件に該当する場合に、取得した撮像画像を切り出して表示用画像を生成する。これにより、複数の撮影画像の差分をもとに表示用画像を生成して表示できるので、例えば連続する複数の画像からなる動画像について、画像の変化に基づき表示用画像を生成して表示できる。   In addition, the image generation unit 177 acquires a plurality of captured images captured at different times by the camera 61, and when the difference between the images of the plurality of captured images satisfies a preset condition, the acquired imaging A display image is generated by cutting out the image. Accordingly, since a display image can be generated and displayed based on a difference between a plurality of captured images, for example, a display image can be generated and displayed based on a change in image for a moving image including a plurality of continuous images. .

また、画像表示制御部176は、画像生成部177により生成された表示用画像を時系列に従って記憶部120に記憶し、操作部135により再生を指示する操作を検出した場合に、記憶部120に記憶した表示用画像を再生表示する。ここで、画像表示制御部176は、時系列に従って記憶した複数の表示用画像を、所定のフレームレートで順に再生することで、動画像を表示できる。この場合、使用者は、視線方向を拡大した画像を録画した動画像を見ることができる。ここで、画像表示制御部176は、記憶部120に記憶した表示用画像を再生表示する場合に、この表示用画像の拡大倍率を変更できるものとしてもよい。例えば、操作部135によって拡大率を指定する操作を検出した場合に、この操作に従って拡大率を変更してもよい。さらに、図5(D)では視野VRの一部に重なるように表示用画像を表示したが、記憶部120に記憶した表示用画像を再生表示する場合は、画像表示部20の表示可能領域全体に表示用画像を表示してもよい。
また、画像生成部177は、画像IVの透明度を調整してもよい。図5(D)の例では透明度がゼロであり、画像IVに重なる部分では外景が見えないが、画像IVに重なる外景の明るさ、画像IVの輝度等に基づき、画像生成部177が透明度を調整してもよい。
In addition, the image display control unit 176 stores the display image generated by the image generation unit 177 in the storage unit 120 in time series, and when the operation unit 135 detects an operation instructing reproduction, the image display control unit 176 stores the display image in the storage unit 120. The stored display image is reproduced and displayed. Here, the image display control unit 176 can display a moving image by sequentially reproducing a plurality of display images stored in time series at a predetermined frame rate. In this case, the user can see a moving image in which an image with an enlarged line-of-sight direction is recorded. Here, when the display image stored in the storage unit 120 is reproduced and displayed, the image display control unit 176 may change the magnification of the display image. For example, when an operation for designating an enlargement ratio is detected by the operation unit 135, the enlargement ratio may be changed according to this operation. Further, in FIG. 5D, the display image is displayed so as to overlap a part of the visual field VR. However, when the display image stored in the storage unit 120 is reproduced and displayed, the entire displayable area of the image display unit 20 is displayed. A display image may be displayed on the screen.
Further, the image generation unit 177 may adjust the transparency of the image IV. In the example of FIG. 5D, the transparency is zero, and the outside scene is not visible in the portion overlapping the image IV, but the image generation unit 177 sets the transparency based on the brightness of the outside scene overlapping the image IV, the brightness of the image IV, and the like. You may adjust.

上記実施形態では、対象検出部171が、記憶部120が記憶する単一画像用特徴データ124a及び動画像用特徴データ124bを使用して対象物を認識する場合を説明した。単一画像用特徴データ124aは、予め記憶部120が記憶するだけでなく、頭部装着型表示装置100の使用中に、使用者の操作により生成、或いは変更できる構成としてもよい。例えば、頭部装着型表示装置100が、カメラ61の撮像画像を画像表示部20で表示する表示中に、トラックパッド14の操作により表示画像の一部を選択する操作が可能な構成が考えられる。この構成で、使用者が表示画像の一部を選択することで、対象検出部171が、選択された部分から人や物の画像を検出し、検出した画像から単一画像用特徴データ124aや動画像用特徴データ124bを生成してもよい。或いは、頭部装着型表示装置100が、音声コマンドによる操作が可能な構成としてもよい。この場合、制御部140は、マイク63で使用者の音声を検出し、検出した音声を音声処理部170で解析し、音声コマンドを認識する。頭部装着型表示装置100がカメラ61の撮像画像を画像表示部20で表示する表示中に、使用者が音声コマンドで表示画像の一部を選択するよう指示した場合に、対象検出部171が、選択された部分から人や物の画像を検出し、検出した画像から単一画像用特徴データ124aや動画像用特徴データ124bを生成してもよい。具体的には、図5(A)に示したようにサッカーのゲームを撮影して表示する場合に、使用者が、「背番号11番を追跡」と音声コマンドで指示した場合に、対象検出部171が、カメラ61の撮像画像から数字の「11」を検出し、検出した数字を含む部分を抽出して特徴量を求め、単一画像用特徴データ124a、動画像用特徴データ124bを生成してもよい。   In the above embodiment, the case has been described in which the object detection unit 171 recognizes an object using the single image feature data 124a and the moving image feature data 124b stored in the storage unit 120. The single image feature data 124a is not only stored in the storage unit 120 in advance, but may be configured to be generated or changed by a user operation while the head-mounted display device 100 is in use. For example, a configuration in which the head-mounted display device 100 can perform an operation of selecting a part of the display image by operating the track pad 14 while displaying the captured image of the camera 61 on the image display unit 20 is conceivable. . With this configuration, when the user selects a part of the display image, the target detection unit 171 detects an image of a person or an object from the selected part, and the single image feature data 124a or the like is detected from the detected image. The moving image feature data 124b may be generated. Alternatively, the head-mounted display device 100 may be configured to be operable by a voice command. In this case, the control unit 140 detects the user's voice with the microphone 63, analyzes the detected voice with the voice processing unit 170, and recognizes the voice command. When the head-mounted display device 100 displays a captured image of the camera 61 on the image display unit 20, when the user instructs to select a part of the display image with a voice command, the target detection unit 171 Alternatively, an image of a person or an object may be detected from the selected portion, and single image feature data 124a or moving image feature data 124b may be generated from the detected image. Specifically, when a soccer game is shot and displayed as shown in FIG. 5A, the object is detected when the user instructs “Track No. 11” with a voice command. The unit 171 detects the number “11” from the captured image of the camera 61, extracts a portion including the detected number, obtains a feature amount, and generates single image feature data 124 a and moving image feature data 124 b. May be.

なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
上記実施形態においては、画像生成部177が、カメラ61の撮像画像から予め設定された条件に該当する領域を切り出す一例として、対象検出部171がマッチング処理を行って対象物を検出した領域を切り出す例を説明した。本発明はこれに限定されず、例えば、撮像画像において予め設定された条件に該当する領域を画像生成部177が検出して切り出し、表示用画像を生成してもよい。例えば、画像生成部177に対し、撮像画像から切り出す領域の条件として、領域の位置およびサイズが設定されている場合、画像生成部177は、対象検出部171の検出結果によらず、撮像画像において設定された位置及びサイズの領域を切り出す。また、切り出す領域の条件は、撮像画像における色や輝度を定める条件であってもよく、対象検出部171による処理を必須とするものではない。
また、画像生成部177が撮像画像から表示用画像を生成する場合に行う処理は、撮像画像の一部を切り出して拡大する処理に限定されない。例えば、撮像画像の全部、そのまま、或いは解像度変換して表示用画像としてもよい。また、例えば、画像生成部177が撮像画像から複数の領域を切り出して複数の表示用画像を生成し、視野VRに同時に複数の画像IVを表示してもよい。また、表示用画像を表示する位置についても、画像生成部177または画像表示制御部176が適宜に変更あるいは調整してもよい。
In addition, this invention is not restricted to the structure of the said embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
In the above-described embodiment, as an example in which the image generation unit 177 cuts out a region corresponding to a preset condition from the captured image of the camera 61, the target detection unit 171 cuts out a region where the target is detected by performing a matching process. An example was explained. The present invention is not limited to this. For example, the image generation unit 177 may detect and cut out a region corresponding to a preset condition in the captured image to generate a display image. For example, when the position and size of the region are set as the conditions for the region to be cut out from the captured image with respect to the image generation unit 177, the image generation unit 177 does not depend on the detection result of the target detection unit 171. Cut out the area of the set position and size. In addition, the condition of the region to be cut out may be a condition for determining a color or luminance in the captured image, and does not necessarily require processing by the target detection unit 171.
Further, the process performed when the image generation unit 177 generates a display image from the captured image is not limited to the process of cutting out and enlarging a part of the captured image. For example, the entire captured image may be used as it is or as a display image after resolution conversion. Further, for example, the image generation unit 177 may cut out a plurality of regions from the captured image to generate a plurality of display images, and simultaneously display the plurality of images IV in the visual field VR. Also, the position where the display image is displayed may be changed or adjusted as appropriate by the image generation unit 177 or the image display control unit 176.

さらに、画像表示制御部176は、画像表示部20が表示する画像の動きを制御してもよい。例えば、画像表示制御部176は、9軸センサー66及び/又はGPS115の検出値から検出できる画像表示部20の動きに基づき、画像表示部20に表示する画像を制御してもよい。画像表示制御部176は、カメラ61の撮像画像から生成される画像を表示する間に、画像表示部20の動きの加速度または速度が閾値以上となった場合に、画像表示部20に表示する画像の動きを抑制し、或いは、画像表示部20の移動とは逆方向に表示する画像をシフトさせてもよい。この場合、画像表示制御部176は、画像生成部177が生成する表示用画像を変化させてもよいし、表示用画像の一部を表示してもよい。この構成によれば、頭部装着型表示装置100を装着する使用者の頭の動きが速く、表示画像の変化が激しくなる場合に、画像表示部20が表示する画像の動きを抑制して、使用者の不快感を軽減できる。この機能は、対象検出部171が検出する対象物の、撮像画像における移動の速度が速い場合にも適用できる。例えば、図5(A)〜(C)に例示したようにボールを対象物として検出する場合に、撮像画像におけるボールの位置の変化から移動速度を求め、その加速度または速度が閾値以上の場合に、表示する画像の変化、或いは、画像表示部20の表示可能位置におけるボールの移動を抑制してもよい。或いは、撮像画像におけるボールの位置の変化から求める移動速度、または加速度が閾値以上の場合に、画像生成部177が対象物の画像を抽出して表示用画像を生成する処理を一時停止してもよい。また、画像生成部177が、抽出した画像の拡大率を低下させたり、カメラ61の撮像の画角を変化させたり、カメラ61がズーム機構やデジタルズーム機能を有する場合にズーム倍率を低下させてもよい。このように、画像表示部20が表示する対象物の画像の表示サイズを小さくすることで、対象物の移動速度が速い場合であっても対象物が見やすいという効果が期待できる。   Further, the image display control unit 176 may control the movement of the image displayed by the image display unit 20. For example, the image display control unit 176 may control the image displayed on the image display unit 20 based on the movement of the image display unit 20 that can be detected from the detection values of the 9-axis sensor 66 and / or the GPS 115. The image display control unit 176 displays an image to be displayed on the image display unit 20 when the acceleration or speed of the movement of the image display unit 20 exceeds a threshold value while displaying an image generated from the captured image of the camera 61. The image displayed in the direction opposite to the movement of the image display unit 20 may be shifted. In this case, the image display control unit 176 may change the display image generated by the image generation unit 177 or may display a part of the display image. According to this configuration, when the movement of the head of the user wearing the head-mounted display device 100 is fast and the change in the display image becomes severe, the movement of the image displayed by the image display unit 20 is suppressed, User discomfort can be reduced. This function can also be applied when the object detected by the object detection unit 171 moves at a high speed in the captured image. For example, when a ball is detected as an object as illustrated in FIGS. 5A to 5C, a moving speed is obtained from a change in the position of the ball in the captured image, and the acceleration or speed is equal to or greater than a threshold value. The change of the image to be displayed or the movement of the ball at the displayable position of the image display unit 20 may be suppressed. Alternatively, even when the moving speed or acceleration obtained from the change in the position of the ball in the captured image is greater than or equal to the threshold value, the image generation unit 177 may temporarily stop the process of extracting the target image and generating the display image. Good. Further, even if the image generation unit 177 decreases the enlargement ratio of the extracted image, changes the angle of view of the camera 61, or reduces the zoom magnification when the camera 61 has a zoom mechanism or a digital zoom function. Good. Thus, by reducing the display size of the image of the object displayed by the image display unit 20, an effect that the object can be easily seen even when the moving speed of the object is fast can be expected.

また、例えば、上記実施形態では、画像生成部177が拡大率を決定し、この拡大率に従って撮像画像を切り出す例について説明した。本発明はこれに限定されず、例えば、カメラ61がズーム機能を有する構成とし、画像生成部177が、カメラ61のズーム倍率を制御する構成としてもよい。この場合、画像生成部177が指定したズーム倍率で撮像された撮像画像を画像生成部177が取得して、画像を切り出して表示用画像としてもよい。   Further, for example, in the above-described embodiment, the example in which the image generation unit 177 determines the enlargement ratio and cuts out the captured image according to the enlargement ratio has been described. For example, the camera 61 may have a zoom function, and the image generation unit 177 may control the zoom magnification of the camera 61. In this case, the image generation unit 177 may acquire a captured image captured at a zoom magnification specified by the image generation unit 177, and the image may be cut out to be a display image.

また、画像表示部として、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよいし、自動車のフロントガラスに用いられるヘッドアップディスプレイ(Head-up Display;HUD)であってもよい。さらにまた、使用者の両眼の眼球(例えば、角膜上)に装着して使用する、いわゆるコンタクトレンズ型ディスプレイや、眼球内に埋め込まれるインプラント型ディスプレイなど、使用者の眼球において網膜に結像させるディスプレイを、画像表示部20としてもよい。   Further, as the image display unit, instead of the image display unit 20, another type of image display unit such as an image display unit worn like a hat may be adopted, corresponding to the left eye of the user. What is necessary is just to provide the display part which displays an image, and the display part which displays an image corresponding to a user's right eye. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Moreover, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet, or may be a head-up display (HUD) used for a windshield of an automobile. Furthermore, the user's eyeball forms an image on the retina such as a so-called contact lens type display that is worn on the user's eyes (for example, on the cornea) and an implant type display that is embedded in the eyeball. The display may be the image display unit 20.

また、本願発明は使用者の身体に装着されるものであればよく、他の手法による支持を必要とするか否かは問わず適用可能である。例えば、使用者が両手に持って使用する双眼鏡型のハンドヘルドディスプレイ(Hand Held Display)を、本願の画像表示部20として採用してもよい。この種のディスプレイは、使用者に装着された状態を保持するために使用者が手に持つ必要があるが、使用者がディスプレイの表示を見る場合に使用者の頭部もしくは顔に添えられることから、本発明の表示装置に含まれる。さらに、支持脚等により床面や壁面に固定される表示装置であっても、使用者がディスプレイの表示を見る場合に使用者の頭部もしくは顔に添えられるものであれば、本発明の表示装置に含まれる。
さらに、画像表示部20、または、画像表示部20において画像の表示に係る構成を含む表示部のみが使用者の身体に装着され、この表示部以外の制御装置10、或いは制御装置10と制御部140を含む制御系を、物理的に別体として構成してもよい。例えば、画像表示部20または画像表示部20の一部からなる表示部に、他の制御系を備えた装置を無線接続して、頭部装着型表示装置100と同様に表示装置としてもよい。この制御系を備えた装置としては、スマートフォン、携帯型電話機、タブレット型コンピューター、他の形状のパーソナルコンピューター等、従来からある電子機器を用いることができる。この種の表示装置も本願を適用可能であることは勿論である。
In addition, the present invention may be applied to the user's body, and can be applied regardless of whether support by another method is required. For example, a binocular-type hand held display (Hand Held Display) that the user uses with both hands may be adopted as the image display unit 20 of the present application. This type of display needs to be held by the user in order to keep it attached to the user, but should be attached to the user's head or face when the user looks at the display. Therefore, it is included in the display device of the present invention. Furthermore, even if the display device is fixed to the floor or wall surface by a support leg or the like, as long as it can be attached to the user's head or face when the user views the display on the display, the display of the present invention Included in the device.
Further, only the image display unit 20 or a display unit including a configuration related to image display in the image display unit 20 is mounted on the user's body, and the control device 10 other than the display unit, or the control device 10 and the control unit. The control system including 140 may be physically configured as a separate body. For example, an image display unit 20 or a display unit that is a part of the image display unit 20 may be wirelessly connected to a device having another control system, and the display device may be similar to the head-mounted display device 100. As an apparatus provided with this control system, a conventional electronic device such as a smartphone, a mobile phone, a tablet computer, or a personal computer of another shape can be used. Of course, this type of display device can also be applied.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10と画像表示部20とが、より長いケーブルまたは無線通信回線により接続され、制御装置10として、ノート型コンピューター、タブレット型コンピューターまたはデスクトップ型コンピューター、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
Furthermore, in the above embodiment, the image display unit 20 and the control device 10 are separated and connected by way of the connection unit 40, but the control device 10 and the image display unit 20 are integrated. It is also possible to be configured to be mounted on the user's head.
In addition, the control device 10 and the image display unit 20 are connected by a longer cable or a wireless communication line. As the control device 10, a notebook computer, a tablet computer or a desktop computer, a game machine, a portable phone, a smartphone, A portable electronic device including a portable media player, other dedicated devices, or the like may be used.

また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよいし、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、画像生成部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。レーザー網膜投影型のヘッドマウントディスプレイを採用する場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。   Further, for example, as a configuration for generating image light in the image display unit 20, a configuration including an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be used, or an LCOS (Liquid crystal) may be provided. On silicon and LCoS are registered trademarks), and digital micromirror devices can also be used. Further, for example, the present invention can be applied to a laser retinal projection type head mounted display. That is, the image generation unit includes a laser light source and an optical system that guides the laser light source to the user's eye, makes the laser light enter the user's eye, scans the retina, and forms an image on the retina. A configuration that allows the user to visually recognize an image may be employed. When a laser retina projection type head-mounted display is employed, the “image light emitting area in the image light generation unit” can be defined as an image area recognized by the user's eyes.

画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。   As an optical system that guides image light to the user's eyes, an optical member that transmits external light that is incident from the outside toward the apparatus and that enters the user's eyes together with the image light can be employed. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field. Further, a scanning optical system that scans a laser beam or the like to obtain image light may be employed. Further, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes.

また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、画像表示素子として、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。   Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses MEMS display technology. That is, as an image display element, a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system May be provided. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. .

また、本発明の表示装置は頭部装着型の表示装置に限定されず、フラットパネルディスプレイやプロジェクター等の各種の表示装置に適用できる。本発明の表示装置は、外光とともに画像光により画像を視認させるものであればよく、例えば、外光を透過させる光学部材により画像光による画像を視認させる構成が挙げられる。具体的には、上記のヘッドマウントディスプレイにおいて外光を透過する光学部材を備えた構成の他、使用者から離れた位置に固定的にまたは可動に設置された透光性の平面や曲面(ガラスや透明なプラスチック等)に、画像光を投射する表示装置にも適用可能である。一例としては、車両の窓ガラスに画像光を投射し、乗車している使用者や車両の外にいる使用者に、画像光による画像とともに、車両内外の景色を視認させる表示装置の構成が挙げられる。また、例えば、建物の窓ガラスなど固定的に設置された透明また半透明、或いは有色透明な表示面に画像光を投射し、表示面の周囲にいる使用者に、画像光による画像とともに、表示面を透かして景色を視認させる表示装置の構成が挙げられる。   The display device of the present invention is not limited to a head-mounted display device, and can be applied to various display devices such as a flat panel display and a projector. The display device of the present invention may be any device that allows an image to be visually recognized by external light and image light. For example, a configuration in which an image by image light is visually recognized by an optical member that transmits external light is exemplified. Specifically, the above-described head-mounted display includes an optical member that transmits external light, and a light-transmitting plane or curved surface (glass) that is fixedly or movably installed at a position away from the user. It is also applicable to a display device that projects image light onto a transparent plastic or the like. As an example, a configuration of a display device that projects image light onto a window glass of a vehicle and allows a user who is on board or a user outside the vehicle to visually recognize the scenery inside and outside the vehicle together with an image by the image light. It is done. In addition, for example, image light is projected onto a transparent, semi-transparent, or colored transparent display surface that is fixedly installed such as a window glass of a building, and is displayed together with an image by the image light to a user around the display surface. A configuration of a display device that visually recognizes a scene through the surface can be given.

また、図2に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図2に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117またはインターフェイス180を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成の内、操作部135のみが単独の使用者インターフェース(UI)として形成されてもよいし、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示す制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。   In addition, at least a part of each functional block shown in FIG. 2 may be realized by hardware, or may be realized by cooperation of hardware and software, as shown in FIG. It is not limited to a configuration in which independent hardware resources are arranged. The program executed by the control unit 140 may be stored in the storage unit 120 or the storage device in the control device 10, or the program stored in an external device is acquired via the communication unit 117 or the interface 180. It is good also as a structure to execute. Of the configurations formed in the control device 10, only the operation unit 135 may be formed as a single user interface (UI), or the power source 130 in the above embodiment is formed independently and is replaceable. It may be a configuration. Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, the control unit 140 illustrated in FIG. 2 may be formed in both the control device 10 and the image display unit 20, or the control unit 140 formed in the control device 10 and the CPU formed in the image display unit 20. It is good also as a structure by which the function to perform is divided | segmented separately.

10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、61…カメラ(撮像部)、63…マイク、100…頭部装着型表示装置(表示装置)、117…通信部、120…記憶部、140…制御部、150…オペレーティングシステム、160…画像処理部、170…音声処理部、171…対象検出部、173…距離検出部、176…画像表示制御部、177…画像生成部、180…インターフェイス、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板、DA…データ取得部。   DESCRIPTION OF SYMBOLS 10 ... Control apparatus, 20 ... Image display part (display part), 21 ... Right holding part, 22 ... Right display drive part, 23 ... Left holding part, 24 ... Left display drive part, 26 ... Right optical image display part, 28 ... Left optical image display unit, 61 ... Camera (imaging unit), 63 ... Microphone, 100 ... Head-mounted display device (display device), 117 ... Communication unit, 120 ... Storage unit, 140 ... Control unit, 150 ... Operating System ... 160 ... Image processing unit 170 ... Audio processing unit 171 ... Target detection unit 173 ... Distance detection unit 176 ... Image display control unit 177 ... Image generation unit 180 ... Interface 190 ... Display control unit 201 ... right backlight control unit, 202 ... left backlight control unit, 211 ... right LCD control unit, 212 ... left LCD control unit, 221 ... right backlight, 222 ... left backlight, 241 ... right LCD, 2 2 ... Left LCD, 251 ... right projection optical system, 252 ... left projection optical system, 261 ... Migishirubekoban, 262 ... Hidarishirubekoban, DA ... data acquisition unit.

Claims (12)

使用者の身体に装着して使用される表示装置であって、
外景を透過し、前記外景とともに視認できるように画像を表示する表示部と、
前記使用者の視線方向を撮像する撮像部と、
前記撮像部の撮像画像から表示用画像を生成する画像生成部と、
前記画像生成部が生成した表示用画像を前記表示部に表示させる画像表示制御部と、
を備えることを特徴とする表示装置。
A display device used by being worn on a user's body,
A display unit that displays an image so that it can be seen through the outside scene together with the outside scene;
An imaging unit that images the user's line-of-sight direction;
An image generation unit that generates a display image from a captured image of the imaging unit;
An image display control unit that causes the display unit to display the display image generated by the image generation unit;
A display device comprising:
前記画像生成部は、前記撮像部の撮像画像の一部を抽出して処理することにより、前記表示用画像を生成すること、
を特徴とする請求項1記載の表示装置。
The image generation unit generates the display image by extracting and processing a part of the captured image of the imaging unit;
The display device according to claim 1.
前記画像生成部は、前記撮像部の撮像画像の一部を切り出して拡大することにより、前記表示用画像を生成すること、
を特徴とする請求項2記載の表示装置。
The image generation unit generates the display image by cutting out and enlarging a part of the captured image of the imaging unit;
The display device according to claim 2.
前記画像生成部は、前記撮像部の撮像画像において予め設定された条件に該当する領域を切り出すことにより、前記表示用画像を生成すること、
を特徴とする請求項2または3記載の表示装置。
The image generation unit generates the display image by cutting out a region corresponding to a preset condition in the captured image of the imaging unit;
The display device according to claim 2, wherein:
前記撮像部の撮像画像から前記使用者の視線方向の対象物を検出する対象検出部を備え、
前記画像生成部は、前記撮像部の撮像画像から、前記対象検出部が検出した前記対象物の画像を含む領域を抽出して処理し、前記表示用画像を生成すること、
を特徴とする請求項2から4のいずれかに記載の表示装置。
An object detection unit for detecting an object in the direction of the user's line of sight from a captured image of the imaging unit;
The image generation unit extracts and processes a region including an image of the object detected by the target detection unit from a captured image of the imaging unit, and generates the display image;
The display device according to claim 2, wherein:
前記対象物の画像の特徴量を記憶する記憶部を備え、
前記対象検出部は、前記撮像部の撮像画像から、前記記憶部が記憶する特徴量に適合する画像を検出することにより、前記対象物を検出すること、
を特徴とする請求項5記載の表示装置。
A storage unit for storing the feature amount of the image of the object;
The target detection unit detects the target object by detecting an image suitable for a feature amount stored in the storage unit from a captured image of the imaging unit;
The display device according to claim 5.
前記記憶部が記憶する前記特徴量は、特定の前記対象物の画像の特徴量、及び、類似する複数種類の対象物に対応する汎用的な特徴量のいずれかを含むこと、
を特徴とする請求項6記載の表示装置。
The feature quantity stored in the storage unit includes any one of a feature quantity of an image of the specific object and general-purpose feature quantities corresponding to a plurality of similar objects.
The display device according to claim 6.
前記対象検出部により検出された前記対象物と前記使用者との距離を検出する距離検出部を備え、
前記画像表示制御部は、前記距離検出部が検出した距離に応じた拡大率で前記撮像部の撮像画像の一部を拡大し、前記表示用画像を生成すること、
を特徴とする請求項5から7のいずれかに記載の表示装置。
A distance detection unit for detecting a distance between the object detected by the object detection unit and the user;
The image display control unit generates a display image by enlarging a part of the captured image of the imaging unit at an enlargement rate according to the distance detected by the distance detection unit;
The display device according to claim 5, wherein:
前記画像生成部は、前記撮像部により異なるときに撮像された複数の撮像画像を取得し、これら複数の撮像画像において予め設定された条件に該当する領域を特定することにより、前記表示用画像を生成すること、
を特徴とする請求項1から8のいずれかに記載の表示装置。
The image generation unit acquires a plurality of captured images captured at different times by the imaging unit, and identifies the region corresponding to a preset condition in the plurality of captured images, thereby obtaining the display image. Generating,
The display device according to claim 1, wherein:
前記画像生成部は、前記撮像部により異なるときに撮像された複数の撮像画像を取得し、これら複数の撮像画像の画像間の差分が予め設定された条件に該当する場合に、取得した撮像画像を切り出して前記表示用画像を生成すること、
を特徴とする請求項9記載の表示装置。
The image generation unit acquires a plurality of captured images captured at different times by the imaging unit, and when the difference between the images of the plurality of captured images satisfies a preset condition, the acquired captured image And generating the display image,
The display device according to claim 9.
外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備え、使用者の身体に装着して使用される表示装置の制御方法であって、
前記使用者の視線方向を撮像し、
撮像画像の一部を切り出して拡大することにより、表示用画像を生成し、
生成した表示用画像を前記表示部に表示させること、
を特徴とする表示装置の制御方法。
A control method for a display device that includes a display unit that transmits an outside scene and displays an image so that the outside scene can be visually recognized, and is used by being worn on the user's body,
Image the user's line of sight,
Generate a display image by cutting out and enlarging part of the captured image,
Displaying the generated display image on the display unit;
A control method of a display device characterized by the above.
外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備え、使用者の身体に装着して使用される表示装置を制御するコンピューターが実行可能なプログラムであって、
前記コンピューターを、
前記使用者の視線方向を撮像した撮像画像の一部を切り出して拡大することにより、表示用画像を生成する画像生成部と、
前記画像生成部が生成した画像を前記表示部に表示させる画像表示制御部と、
して機能させるためのプログラム。
A program that can be executed by a computer that controls a display device that is mounted on a user's body and includes a display unit that transmits an outside scene and displays an image so as to be visible together with the outside scene.
The computer,
An image generation unit that generates a display image by cutting out and enlarging a part of the captured image obtained by capturing the user's line-of-sight direction;
An image display control unit that causes the display unit to display an image generated by the image generation unit;
Program to make it function.
JP2014156697A 2014-07-31 2014-07-31 Display device, method for controlling display device, and program Pending JP2016033763A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014156697A JP2016033763A (en) 2014-07-31 2014-07-31 Display device, method for controlling display device, and program
US14/719,985 US9959591B2 (en) 2014-07-31 2015-05-22 Display apparatus, method for controlling display apparatus, and program
CN201510295746.4A CN105319714B (en) 2014-07-31 2015-06-02 Display device, the control method of display device and computer storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014156697A JP2016033763A (en) 2014-07-31 2014-07-31 Display device, method for controlling display device, and program

Publications (1)

Publication Number Publication Date
JP2016033763A true JP2016033763A (en) 2016-03-10

Family

ID=55452622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014156697A Pending JP2016033763A (en) 2014-07-31 2014-07-31 Display device, method for controlling display device, and program

Country Status (1)

Country Link
JP (1) JP2016033763A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055279A (en) * 2016-09-27 2018-04-05 キヤノン株式会社 Image processing system, image processing method and program
WO2018066705A1 (en) * 2016-10-09 2018-04-12 神山好則 Smartphone
JP2020017202A (en) * 2018-07-27 2020-01-30 日本電信電話株式会社 Video operation device, video operation method, and video operation program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
JP2007214964A (en) * 2006-02-10 2007-08-23 Konica Minolta Photo Imaging Inc Video display device
JP2008096867A (en) * 2006-10-16 2008-04-24 Sony Corp Display device, and display method
US20140055324A1 (en) * 2012-08-27 2014-02-27 Kabushiki Kaisha Toshiba Display device, display method, and readable medium
WO2014110437A1 (en) * 2013-01-13 2014-07-17 Qualcomm Incorporated Apparatus and method for controlling an augmented reality device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
JP2007214964A (en) * 2006-02-10 2007-08-23 Konica Minolta Photo Imaging Inc Video display device
JP2008096867A (en) * 2006-10-16 2008-04-24 Sony Corp Display device, and display method
US20140055324A1 (en) * 2012-08-27 2014-02-27 Kabushiki Kaisha Toshiba Display device, display method, and readable medium
WO2014110437A1 (en) * 2013-01-13 2014-07-17 Qualcomm Incorporated Apparatus and method for controlling an augmented reality device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055279A (en) * 2016-09-27 2018-04-05 キヤノン株式会社 Image processing system, image processing method and program
WO2018066705A1 (en) * 2016-10-09 2018-04-12 神山好則 Smartphone
JP2020017202A (en) * 2018-07-27 2020-01-30 日本電信電話株式会社 Video operation device, video operation method, and video operation program

Similar Documents

Publication Publication Date Title
US9959591B2 (en) Display apparatus, method for controlling display apparatus, and program
US9898868B2 (en) Display device, method of controlling the same, and program
US9411160B2 (en) Head mounted display, control method for head mounted display, and image display system
JP6344125B2 (en) Display device, display device control method, and program
JP6155622B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
CN105739095B (en) Display device and control method of display device
JP6492531B2 (en) Display device and control method of display device
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6432197B2 (en) Display device, display device control method, and program
JP6094305B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2016033757A (en) Display device, method for controlling display device, and program
JP2016004340A (en) Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program
US20160035137A1 (en) Display device, method of controlling display device, and program
JP6364735B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
JP2016024208A (en) Display device, method for controlling display device, and program
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6135162B2 (en) Head-mounted display device, head-mounted display device control method, and image display system
JP6428024B2 (en) Display device, display device control method, and program
JP6252002B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6638195B2 (en) DISPLAY DEVICE, DISPLAY DEVICE CONTROL METHOD, AND PROGRAM
JP2016033763A (en) Display device, method for controlling display device, and program
JP2015087523A (en) Head-mounted display device, method for controlling head-mounted display device, and image display system
JP6582374B2 (en) Display device, control method therefor, and computer program
JP2016009056A (en) Head-mounted type display device, control method of the same and computer program
JP2016034091A (en) Display device, control method of the same and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180529