[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015087695A - Information processor and control method for information processor - Google Patents

Information processor and control method for information processor Download PDF

Info

Publication number
JP2015087695A
JP2015087695A JP2013228187A JP2013228187A JP2015087695A JP 2015087695 A JP2015087695 A JP 2015087695A JP 2013228187 A JP2013228187 A JP 2013228187A JP 2013228187 A JP2013228187 A JP 2013228187A JP 2015087695 A JP2015087695 A JP 2015087695A
Authority
JP
Japan
Prior art keywords
sound
information processing
unit
processing apparatus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013228187A
Other languages
Japanese (ja)
Inventor
薫 千代
Kaoru Sendai
薫 千代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013228187A priority Critical patent/JP2015087695A/en
Priority to US14/174,104 priority patent/US9880615B2/en
Priority to CN201410048852.8A priority patent/CN103995685A/en
Publication of JP2015087695A publication Critical patent/JP2015087695A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processor for allowing a user to recognize the change of an environment or an erroneous operation on the basis of any of the situation of an external environment, the biological information of the user and control information accepted by the information processor.SOLUTION: An information processor includes: an information acquisition part for acquiring at least one of specific information in an environment where the information processor is used, biological information of a user who uses the information processor and control information for controlling the information processor; and a control part for controlling the information processor on the basis of at least one of the specific information, the biological information and the control information acquired by the information acquisition part.

Description

本発明は、情報処理装置に関する。   The present invention relates to an information processing apparatus.

頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display)、HMD)が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイおよび光源を利用して画像を表す画像光を生成し、生成された画像光を投写光学系や導光板を利用して使用者の眼に導くことにより、使用者に虚像を視認させる。頭部装着型表示装置には、使用者が虚像に加えて外景も視認可能な透過型と、使用者が外景を視認できない非透過型と、の2つのタイプがある。透過型の頭部装着型表示装置には、光学透過型およびビデオ透過型がある。   A head-mounted display device (Head Mounted Display, HMD) that is a display device mounted on the head is known. The head-mounted display device, for example, generates image light representing an image using a liquid crystal display and a light source, and guides the generated image light to a user's eye using a projection optical system or a light guide plate This causes the user to visually recognize the virtual image. There are two types of head-mounted display devices: a transmission type in which the user can visually recognize the outside scene in addition to a virtual image, and a non-transmission type in which the user cannot visually recognize the outside scene. The transmissive head-mounted display device includes an optical transmissive type and a video transmissive type.

透過型の頭部装着型表示装置において、音声を変換して音声を表す文字画像として使用者に視認させる技術が知られている。例えば、特許文献1には、記録媒体に記録されたコンテンツを頭部装着型表示装置の使用者に視認させる場合に、コンテンツに含まれる音声を人の声と環境音とに区別して、環境音を表すテキスト画像を生成して、生成したテキスト画像を使用者に視認させる技術が開示されている。また、特許文献2には、歌を歌う合唱隊と頭部装着型表示装置を装着した合唱隊を指揮する指揮者とによる合唱練習において、歌のテンポや音程がずれている合唱隊員を特定して、特定した合唱隊員を示す画像を指揮者に視認させる技術が開示されている。また、特許文献3には、使用者に映像を視認させる頭部装着型表示装置において、警告や通知といった報知用の画像光のみを射出する領域を形成することで、報知用の画像光を容易かつ確実に使用者に認識させる技術について開示されている。   In a transmissive head-mounted display device, a technique is known that allows a user to visually recognize a character image representing the sound by converting the sound. For example, in Patent Document 1, when a user of a head-mounted display device visually recognizes content recorded on a recording medium, the sound included in the content is classified into human voice and environmental sound, and environmental sound is distinguished. A technique is disclosed in which a text image representing the image is generated and the generated text image is visually recognized by a user. Patent Document 2 specifies a choir member whose tempo and pitch of the song are different in a chorus practice by a choir who sings a song and a conductor who conducts a choir equipped with a head-mounted display device. Thus, a technique for allowing a conductor to visually recognize an image showing a specified choir member is disclosed. Further, in Patent Document 3, in a head-mounted display device that allows a user to visually recognize an image, an area that emits only image light for notification, such as a warning or notification, is formed, so that image light for notification can be easily obtained. A technique for surely recognizing the user is disclosed.

特開2011−250100号公報JP 2011-250100 A 特開2010−145878号公報JP 2010-145878 A 特開2007−52224号公報JP 2007-52224 A

しかし、特許文献1に記載された技術では、使用者の操作によって視聴しているコンテンツの音量を調整することで、使用者は、コンテンツの音声とは異なる外部の音声の聞こえ方を調整できるが、コンテンツの音量を調整しないと共に、コンテンツの音量が大きい場合には、外部の音声が聞こえづらい場合がある。また、コンテンツの音量が大きい状態でありながら、緊急異常時のような突然発生する予想できない外部の音声を使用者に認識させたい課題があった。また、特許文献2には、歌のテンポや音程ずれが発生している音源を使用者に認識させることができるが、使用者が視聴している音声の音量について調整することはできない。また、特許文献3には、電池残量や電波状態について使用者に報知する画像光が生成されるが、例えば、使用者が使用される環境における変化なども検出して使用者に報知したいという課題があった。なお、上述の課題は、頭部装着型表示装置に限られず、音を出力する音出力装置に共通する課題であった。   However, in the technique described in Patent Document 1, the user can adjust the way the external sound is heard, which is different from the sound of the content, by adjusting the volume of the content being viewed by the user's operation. If the volume of the content is not adjusted and the volume of the content is high, it may be difficult to hear external sound. In addition, there is a problem that the user wants to recognize an unexpected external sound that occurs suddenly, such as in an emergency, while the volume of the content is high. In Patent Document 2, the user can recognize a sound source in which a tempo of a song or a pitch difference has occurred, but it cannot adjust the volume of the sound being viewed by the user. Further, in Patent Document 3, image light that informs the user about the remaining battery level and the radio wave state is generated. For example, it is desired to detect a change in the environment in which the user is used and notify the user of the change. There was a problem. The above-described problem is not limited to the head-mounted display device, and is a problem common to sound output devices that output sound.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、情報処理装置が提供される。この情報処理装置は、前記情報処理装置が使用される環境における特定の情報と、前記情報処理装置を使用する使用者の生体情報と、前記情報処理装置を制御するための制御情報と、の内の少なくとも1つを取得する情報取得部と;取得された前記特定の情報と前記生体情報と前記制御情報との少なくとも1つに基づいて前記情報処理装置を制御する制御部と、を備える。この形態の情報処理装置によれば、外部の環境の状況、使用者の生体情報、情報処理装置が受け付けた制御情報のいずれかに基づいて、情報処理装置の制御に関する指示を使用者に伝えることができ、使用者に環境および生体情報の変化や誤操作について認識させることができる。 (1) According to an aspect of the present invention, an information processing apparatus is provided. The information processing apparatus includes specific information in an environment where the information processing apparatus is used, biological information of a user who uses the information processing apparatus, and control information for controlling the information processing apparatus. An information acquisition unit that acquires at least one of the control unit, and a control unit that controls the information processing apparatus based on at least one of the acquired specific information, the biological information, and the control information. According to the information processing apparatus of this aspect, an instruction relating to control of the information processing apparatus is transmitted to the user based on any of the external environment status, the user's biological information, and the control information received by the information processing apparatus. It is possible to make the user aware of changes in the environment and biological information and erroneous operations.

(2)上記形態の情報処理装置において、さらに;音を出力する音出力部を備え;前記制御部は、前記音出力部が出力する出力音を制御してもよい。この形態の情報処理装置によれば、使用者が特定の箇所を視認する等の動作を行なわなくても、環境の変化や誤操作について使用者に認識させることができ、使用者の利便性が向上する。 (2) The information processing apparatus according to the above aspect may further include: a sound output unit that outputs sound; and the control unit may control an output sound output from the sound output unit. According to the information processing apparatus of this aspect, even if the user does not perform an operation such as visually recognizing a specific location, the user can be made aware of environmental changes and erroneous operations, and the convenience of the user is improved. To do.

(3)上記形態の情報処理装置において、前記情報取得部は、前記特定の情報として、前記出力音とは異なる外部の音である外部音を取得し;前記制御部は、前記外部音に基づいて、前記出力音を制御する。この形態の情報処理装置では、外部音に基づいて出力音を制御するので、使用者は、供給されるコンテンツ等の出力音を視聴しながら、外部音を聞くことができ、外部の変化を速やかに認識できる。 (3) In the information processing apparatus of the above aspect, the information acquisition unit acquires an external sound that is an external sound different from the output sound as the specific information; the control unit is based on the external sound And controlling the output sound. In the information processing apparatus of this aspect, the output sound is controlled based on the external sound, so that the user can listen to the external sound while viewing the output sound of the supplied content or the like, and can quickly change the external sound. Can be recognized.

(4)上記形態の情報処理装置において、さらに;画像データに基づいて画像を表す画像光を形成し、使用者に前記画像光を視認させると共に、外景を透過させる画像表示部と;前記外部音を文字として表した文字画像に変換する変換部と、を備え;前記制御部は、前記画像表示部に対して、前記文字画像を表す前記画像光である文字画像光を形成させてもよい。この形態の情報処理装置では、情報取得部が取得した外部音を、外部音を表す文字画像として使用者に視認させ、使用者に外部音をより詳しく認識させることができる。 (4) In the information processing apparatus according to the above aspect, an image display unit that forms image light representing an image based on image data, allows a user to visually recognize the image light, and transmits an outside scene; and the external sound A conversion unit that converts the image into a character image represented as a character; the control unit may cause the image display unit to form character image light that is the image light representing the character image. In the information processing apparatus of this form, the user can visually recognize the external sound acquired by the information acquisition unit as a character image representing the external sound, and can make the user recognize the external sound in more detail.

(5)上記形態の情報処理装置において、前記制御部は、前記外部音に基づいて、前記画像表示部が使用者に視認させる前記文字画像光の大きさを設定してもよい。この形態の情報処理装置によれば、外部音に基づいて文字画像の文字の大きさが設定されるので、使用者に、外部音を視聴させると共に、外部音の音量や周波数における相違を文字画像の文字の大きさとしても視認させ、外部音をより詳しく認識させることができる。 (5) In the information processing apparatus of the above aspect, the control unit may set the size of the character image light that the image display unit causes the user to visually recognize based on the external sound. According to the information processing apparatus of this aspect, since the character size of the character image is set based on the external sound, the user is allowed to view the external sound, and the difference in the volume and frequency of the external sound is determined. The size of the character can be visually recognized, and the external sound can be recognized in more detail.

(6)上記形態の情報処理装置において、前記制御部は、前記画像表示部に対して、前記画像表示部が前記画像光を形成可能な領域である画像形成可能領域における中心部分を除く部分に前記文字画像光を形成させてもよい。この形態の情報処理装置によれば、画像形成可能領域における中心部分に外部音を表す文字画像が表示されないため、使用者の視野が必要以上に妨げられることがなく、使用者は、画像表示部を透過する外景を視認できると共に文字画像を視認でき、使用者の利便性が向上する。 (6) In the information processing apparatus according to the aspect described above, the control unit may be configured such that the image display unit excludes a central portion in an image formable region that is a region where the image display unit can form the image light. The character image light may be formed. According to the information processing apparatus of this aspect, since the character image representing the external sound is not displayed at the central portion in the image formable region, the user's field of view is not obstructed more than necessary, and the user can The user can visually recognize the outside scene and the character image, thereby improving the convenience for the user.

(7)上記形態の情報処理装置において、配置される位置が異なる複数の前記情報取得部を有し;前記情報処理装置は、さらに;一の情報取得部が取得した前記外部音の音量と、他の情報取得部が取得した前記外部音の音量と、に基づいて、前記画像表示部から前記外部音の音源への方向である音源方向を推定する音源方向推定部を備え;前記制御部は、前記画像表示部に対して、前記画像表示部が前記画像光を形成可能な領域である画像形成可能領域における前記文字画像光を、前記音源方向に対応づけて形成させてもよい。この形態の情報処理装置によれば、使用者に、音源の近い位置に外部音を文字として表す文字画像を視認させ、音源の位置を使用者に認識させることができる。 (7) In the information processing device of the above aspect, the information processing device includes a plurality of the information acquisition units that are arranged at different positions; and the information processing device further includes: a volume of the external sound acquired by the one information acquisition unit; A sound source direction estimation unit that estimates a sound source direction that is a direction from the image display unit to the sound source of the external sound, based on the volume of the external sound acquired by another information acquisition unit; The image display unit may form the character image light in the image formable region, which is a region where the image display unit can form the image light, in association with the sound source direction. According to the information processing apparatus of this aspect, the user can visually recognize the character image representing the external sound as a character at a position near the sound source, and can make the user recognize the position of the sound source.

(8)上記形態の情報処理装置において、前記音制御部は、前記外部音の音量を測定し、測定した前記外部音の音量が第1の閾値未満から前記第1の閾値以上へと変化した場合に、前記出力音の音量を小さくしてもよい。この形態の情報処理装置によれば、コンテンツ等の出力音の音量が大きい場合であっても、外部音の音量が大きい場合には出力音の音量が下げられるため、警告音等の音量の大きい外部音が取得された場合でも、外部音をより明確に聞くことができる。 (8) In the information processing apparatus of the above aspect, the sound control unit measures the volume of the external sound, and the measured volume of the external sound changes from less than a first threshold value to more than the first threshold value. In this case, the volume of the output sound may be reduced. According to the information processing apparatus of this aspect, even when the volume of the output sound such as content is large, the volume of the output sound is lowered when the volume of the external sound is large. Even when an external sound is acquired, the external sound can be heard more clearly.

(9)上記形態の情報処理装置において、さらに;前記外部音に含まれる特定の音を検出する特定音検出部を備え;前記制御部は、前記特定音検出部が検出した前記特定の音に基づいて前記出力音を制御してもよい。この形態の情報処理装置によれば、使用者が検出したい特定の音を検出したときに、出力音の音量を下げるので、使用者が外部音に含まれる必要な音のみを聞くことができ、使用者の利便性が向上する。 (9) In the information processing apparatus of the above aspect, the information processing device further includes: a specific sound detection unit that detects a specific sound included in the external sound; and the control unit detects the specific sound detected by the specific sound detection unit. The output sound may be controlled based on this. According to the information processing apparatus of this form, when the user detects a specific sound that the user wants to detect, the volume of the output sound is lowered, so that the user can hear only the necessary sound included in the external sound, User convenience is improved.

(10)上記形態の情報処理装置において、さらに;使用者の頭部の動きの変化を検出する動き検出部を備え;前記制御部は、前記動き検出部が検出した使用者の頭部の動きの変化に基づいて、前記出力音を制御してもよい。この形態の情報処理装置によれば、外部音の変化と使用者の視線方向の変化との2つの指標に基づいて出力音の音量や周波数等が調整されるので、外部音の変化のみで出力音の音量が調整される場合に比べ、不要な調整が抑制され、使用者の利便性が向上する。 (10) The information processing apparatus according to the above aspect further includes: a motion detection unit that detects a change in the motion of the user's head; and the control unit detects the motion of the user's head detected by the motion detection unit The output sound may be controlled on the basis of the change. According to the information processing apparatus of this aspect, since the volume and frequency of the output sound are adjusted based on the two indexes of the change of the external sound and the change of the user's line of sight, the output is performed only by the change of the external sound. Compared with the case where the sound volume is adjusted, unnecessary adjustment is suppressed, and the convenience for the user is improved.

(11)上記形態の情報処理装置において、前記制御部は、前記音出力部に対し、前記外部音の変化に基づいて、前記外部音の音量を設定した音を前記出力音として出力させてもよい。この形態の情報処理装置によれば、外部音に含まれる警告音等の特定の音が出力音に対して小さい音量で検出された場合に、外部音の音量よりも大きい音量の出力音として使用者に視聴させることができ、使用者の利便性が向上する。 (11) In the information processing apparatus of the above aspect, the control unit may cause the sound output unit to output a sound in which the volume of the external sound is set based on a change in the external sound as the output sound. Good. According to the information processing apparatus of this aspect, when a specific sound such as a warning sound included in the external sound is detected at a volume lower than the output sound, the sound is used as an output sound having a volume larger than the volume of the external sound. Can be viewed by the user, and the convenience for the user is improved.

(12)上記形態の情報処理装置において、前記制御部は、前記情報取得部が特定の人の声を取得した場合には、取得された前記特定の人の声の周波数を変更し、前記音出力部に対し、周波数を変更した前記特定の人の声を出力すると共に、前記特定の人の声以外の音の音量を小さくしてもよい。この形態の情報処理装置によれば、人が聞き取りづらい周波数の声が取得された場合に、取得された声を視聴しやすくするため、使用者は、外部音を認識しやすくなる。 (12) In the information processing apparatus of the above aspect, when the information acquisition unit acquires a voice of a specific person, the control unit changes a frequency of the acquired voice of the specific person, and the sound The voice of the specific person whose frequency is changed may be output to the output unit, and the volume of sound other than the voice of the specific person may be reduced. According to the information processing apparatus of this aspect, when a voice having a frequency that is difficult for a person to hear is acquired, the user can easily recognize the external sound in order to easily view the acquired voice.

(13)上記形態の情報処理装置において、前記制御部は、前記外部音の音量を測定し、測定した前記外部音の音量と、前記出力音の音量と、に基づいて前記出力音を制御してもよい。この形態の情報処理装置によれば、外部音の音量と出力音の音量とに基づいて、出力音の音量が調整されるため、使用者の意思を反映した音量で出力音を使用者に視聴させることができ、利用者の利便性が向上する。 (13) In the information processing apparatus according to the above aspect, the control unit measures the volume of the external sound and controls the output sound based on the measured volume of the external sound and the volume of the output sound. May be. According to the information processing apparatus of this aspect, since the volume of the output sound is adjusted based on the volume of the external sound and the volume of the output sound, the user can view the output sound at a volume that reflects the user's intention. This can improve the convenience for the user.

(14)上記形態の情報処理装置において、前記音出力部は、使用者の頭部に装着された状態において、前記出力音を使用者に視聴させてもよい。この形態の情報処理装置によれば、使用者の頭部に装着されるため、使用者の耳から音出力部が外れにくく、安定的に出力音を使用者に視聴させることができる。 (14) In the information processing apparatus of the above aspect, the sound output unit may allow the user to view the output sound in a state of being mounted on the user's head. According to the information processing apparatus of this aspect, since the sound output unit is attached to the user's head, the sound output unit is hardly detached from the user's ear, and the user can stably view the output sound.

(15)上記形態の情報処理装置において、前記頭部の動きの変化は、使用者の頭部における角速度と角度の変化量との少なくとも一方であり;前記制御部は、前記頭部の動きの変化が第2の閾値以上である場合に、前記出力音声の音量を小さくしてもよい。この形態の情報処理装置によれば、外部音声の変化と使用者の視線方向の変化との2つの指標に基づいて出力音声の音量が調整されるので、外部音声の変化のみで出力音声の音量が調整される場合に比べ、不要な調整が抑制され、使用者の利便性が向上する。 (15) In the information processing apparatus of the above aspect, the change in the movement of the head is at least one of an angular velocity and an amount of change in the angle of the user's head; When the change is equal to or greater than the second threshold, the volume of the output sound may be reduced. According to the information processing apparatus of this aspect, the volume of the output sound is adjusted based on the two indexes of the change in the external sound and the change in the user's line-of-sight direction. Compared with the case where the adjustment is made, unnecessary adjustment is suppressed, and the convenience for the user is improved.

(16)上記形態の情報処理装置において、さらに;前記外部音声の周波数スペクトルにおける周波数ごとの強度の解析を行なう解析部を備え;前記制御部は、前記解析部が解析した周波数スペクトルにおける特定の周波数に基づいて、前記出力音声の音量を制御してもよい。この形態の情報処理装置によれば、取得された外部音声に周波数の異なる異音等が検出された場合に、使用者に異音等を認識させることができ、使用者の利便性が向上する。 (16) In the information processing apparatus of the above aspect, further comprising: an analysis unit that analyzes an intensity for each frequency in the frequency spectrum of the external sound; and the control unit has a specific frequency in the frequency spectrum analyzed by the analysis unit The volume of the output voice may be controlled based on the above. According to the information processing apparatus of this aspect, when an abnormal sound or the like having a different frequency is detected in the acquired external sound, the user can be made to recognize the abnormal sound or the like, and the convenience for the user is improved. .

(17)上記形態の情報処理装置において、前記特定の情報は、温度と湿度と磁気と空気中の成分と前記情報処理装置における液体の付着との内の少なくとも1つと関連する情報であってもよい。この形態の情報処理装置によれば、情報処理装置の外部の環境の変化に基づいて、使用者に情報処理装置の制御方法を認識させることができ、環境の危険な状況等を迅速かつわかりやすく使用者に認識させることができる。   (17) In the information processing apparatus of the above aspect, the specific information may be information related to at least one of temperature, humidity, magnetism, a component in the air, and adhesion of liquid in the information processing apparatus. Good. According to the information processing apparatus of this aspect, it is possible to make the user recognize the control method of the information processing apparatus based on a change in the environment outside the information processing apparatus, and to quickly and easily understand the dangerous situation of the environment. The user can be made aware.

(18)上記形態の情報処理装置において、さらに;前記制御情報として、所定の操作を受け付ける操作部を備え;前記制御部は、前記操作部が受け付けた前記所定の操作とは異なる操作を受け付けた場合に前記情報処理装置を制御してもよい。この形態の情報処理装置によれば、所定の操作が行なわれなかった場合に、使用者が所定の操作と異なる操作を行なっていることを使用者に認識させるため、使用者は所定の操作を行ないやすく、使用者の利便性が向上する。   (18) The information processing apparatus according to the above aspect further includes: an operation unit that receives a predetermined operation as the control information; the control unit receives an operation different from the predetermined operation received by the operation unit In some cases, the information processing apparatus may be controlled. According to the information processing apparatus of this aspect, when a predetermined operation is not performed, the user recognizes that the user is performing an operation different from the predetermined operation. It is easy to perform and improves the convenience for the user.

(19)上記形態の情報処理装置において、前記情報取得部は、前記情報処理装置の加速度を取得し;前記特定の情報は、前記情報処理装置における閾値以上の加速度であってもよい。この形態の情報処理装置によれば、情報処理装置が使用される環境の変化とは異なる使用者自身の状況の変化に応じて、使用者に情報処理装置の制御情報を認識させることができ、使用者の利便性が向上する。   (19) In the information processing apparatus of the above aspect, the information acquisition unit acquires an acceleration of the information processing apparatus; the specific information may be an acceleration equal to or higher than a threshold in the information processing apparatus. According to the information processing apparatus of this form, the user can be made to recognize the control information of the information processing apparatus according to the change of the user's own situation different from the change of the environment in which the information processing apparatus is used, User convenience is improved.

(20)上記形態の情報処理装置において、前記制御部は、前記情報処理装置の使用者に、前記情報処理装置の使用を制限する情報を報知する制御を行なってもよい。この形態の情報処理装置によれば、情報処理装置の制御情報を使用者に報知させるので、使用者が外部の環境の変化や誤操作に基づいて情報処理装置の使用をやめることができ、使用者の利便性が向上する。   (20) In the information processing apparatus of the above aspect, the control unit may perform control for notifying a user of the information processing apparatus of information that restricts use of the information processing apparatus. According to the information processing apparatus of this aspect, since the control information of the information processing apparatus is notified to the user, the user can stop using the information processing apparatus based on a change in the external environment or an erroneous operation. Improved convenience.

(21)上記形態の情報処理装置において、さらに;画像データに基づいて画像を表す画像光を形成し、使用者に前記画像光を視認させると共に、外景を透過させる画像表示部と;前記設定情報を文字として表した文字画像に変換する変換部と、を備え;前記制御部は、前記画像表示部に、前記文字画像を表す前記画像光である文字画像光を形成させてもよい。この形態の情報処理装置によれば、情報処理装置の制御情報を表すテキスト画像として使用者に視認させ、制御情報をより詳しく認識させることができる。   (21) In the information processing apparatus according to the above aspect, the image display unit further forms image light representing an image based on image data, allows the user to visually recognize the image light, and transmits an outside scene; and the setting information A conversion unit that converts the image into a character image represented as a character; and the control unit may cause the image display unit to form character image light that is the image light representing the character image. According to the information processing apparatus of this form, the user can visually recognize the text information representing the control information of the information processing apparatus and recognize the control information in more detail.

上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with another new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、情報取得部と、制御部と、の2つ要素の内の一つ以上または全部の要素を備えた装置として実現可能である。すなわち、この装置は、情報取得部を有していてもよく、有していなくてもよい。また、装置は、制御部を有していてもよく、有していなくてもよい。情報取得部は、例えば、前記情報処理装置が使用される環境における特定の情報と、前記情報処理装置を使用する使用者の生体情報と、前記情報処理装置を制御するための制御情報と、の内の少なくとも1つを取得してもよい。制御部は、例えば、取得された前記特定の情報と前記生体情報と前記制御情報との少なくとも1つに基づいて前記情報処理装置を制御してもよい。こうした装置は、例えば、情報処理装置として実現できるが、情報処理装置以外の他の装置としても実現可能である。このような形態によれば、装置を使用する使用者の利便性の向上、装置の一体化や、使い勝手の向上等の種々の課題の少なくとも1つを解決することができる。前述した情報処理装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。   For example, one embodiment of the present invention can be realized as an apparatus including one or more or all of the two elements of the information acquisition unit and the control unit. That is, this apparatus may or may not have an information acquisition unit. The device may or may not have a control unit. The information acquisition unit includes, for example, specific information in an environment where the information processing device is used, biological information of a user who uses the information processing device, and control information for controlling the information processing device. At least one of them may be acquired. For example, the control unit may control the information processing apparatus based on at least one of the acquired specific information, the biological information, and the control information. Such an apparatus can be realized as an information processing apparatus, for example, but can also be realized as an apparatus other than the information processing apparatus. According to such a form, it is possible to solve at least one of various problems such as improvement of convenience for a user who uses the apparatus, integration of the apparatus, and improvement of usability. Any or all of the technical features of each form of the information processing apparatus described above can be applied to this apparatus.

本発明は、情報処理装置以外の種々の形態で実現することも可能である。例えば、音処理装置、画像表示装置、頭部装着型表示装置、情報処理装置の制御方法、音処理装置の制御方法、画像表示装置の制御方法、頭部装着型表示装置の制御方法、情報処理システム、音処理システム、画像表示システム、頭部装着型画像表示システム等の形態で実現できる。また、情報処理装置システム、音処理装置システム、画像表示装置システム、頭部装着型表示装置システム、の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the information processing apparatus. For example, sound processing device, image display device, head-mounted display device, information processing device control method, sound processing device control method, image display device control method, head-mounted display device control method, information processing It can be realized in the form of a system, a sound processing system, an image display system, a head-mounted image display system, or the like. Further, a computer program for realizing the functions of an information processing device system, a sound processing device system, an image display device system, a head-mounted display device system, a recording medium on which the computer program is recorded, and a carrier wave including the computer program It can be realized in the form of a data signal or the like embodied therein.

頭部装着型表示装置100の外観構成を示す説明図である。2 is an explanatory diagram showing an external configuration of a head-mounted display device 100. FIG. 頭部装着型表示装置100の構成を機能的に示すブロック図である。3 is a block diagram functionally showing the configuration of the head-mounted display device 100. FIG. 画像光生成部によって画像光が射出される様子を示す説明図である。It is explanatory drawing which shows a mode that image light is inject | emitted by the image light production | generation part. 出力音量調整処理の流れを示す説明図である。It is explanatory drawing which shows the flow of an output volume adjustment process. 使用者が視認する視野VRの一例を示す説明図である。It is explanatory drawing which shows an example of the visual field VR visually recognized by the user. 取得される外部音声の音量の変化の一例を示す説明図である。It is explanatory drawing which shows an example of the change of the volume of the external audio | voice acquired. 取得される外部音声の周波数の一例を示す説明図である。It is explanatory drawing which shows an example of the frequency of the external audio | voice acquired. 第2実施形態における100bの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of 100b in 2nd Embodiment functionally. 第2実施形態における情報報知処理の流れを示す説明図である。It is explanatory drawing which shows the flow of the information alerting | reporting process in 2nd Embodiment. 使用者が視認する視野VR2の一例を示す説明図である。It is explanatory drawing which shows an example of visual field VR2 visually recognized by a user. 自動車の運転手が視認する視野VR’の一例を示す説明図である。It is explanatory drawing which shows an example of visual field VR 'visually recognized by the driver | operator of a motor vehicle. 変形例における頭部装着型表示装置の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus in a modification.

次に、本発明の実施の形態を実施形態に基づいて以下の順序で説明する。
A.第1実施形態:
A−1.頭部装着型表示装置の構成:
A−2.出力音量調整処理:
B.第2実施形態:
C.変形例:
Next, embodiments of the present invention will be described in the following order based on the embodiments.
A. First embodiment:
A-1. Configuration of head mounted display device:
A-2. Output volume adjustment processing:
B. Second embodiment:
C. Variation:

A.第1実施形態:
A−1.頭部装着型表示装置の構成:
図1は、頭部装着型表示装置100の外観構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態の頭部装着型表示装置100は、使用者に、虚像を視認させると同時に外景も直接視認させることができる光学透過型の頭部装着型表示装置である。なお、本明細書では、頭部装着型表示装置100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
A. First embodiment:
A-1. Configuration of head mounted display device:
FIG. 1 is an explanatory diagram showing an external configuration of the head-mounted display device 100. The head-mounted display device 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The head-mounted display device 100 according to this embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. In this specification, a virtual image visually recognized by the user with the head-mounted display device 100 is also referred to as a “display image” for convenience. Moreover, emitting image light generated based on image data is also referred to as “displaying an image”.

頭部装着型表示装置100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部10(コントローラー10)と、を備えている。   The head-mounted display device 100 includes an image display unit 20 that allows a user to visually recognize a virtual image when mounted on the user's head, and a control unit 10 (controller 10) that controls the image display unit 20. I have.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、マイク62,64と、を含んでいる。右光学像表示部26および左光学像表示部28のそれぞれは、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And microphones 62 and 64. Each of the right optical image display unit 26 and the left optical image display unit 28 is disposed so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。なお、調光板は省略可能である。   The display driving units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 and the like (see FIG. 2). Details of the configuration of the display driving units 22 and 24 will be described later. The optical image display units 26 and 28 as optical members include light guide plates 261 and 262 (see FIG. 2) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving units 22 and 24 to the eyes of the user. The light control plate is a thin plate-like optical element, and is arranged so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. In addition, by adjusting the light transmittance of the light control plate, it is possible to adjust the amount of external light entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。カメラ61は、使用者の眼の側とは反対側方向の外部の景色である外景を撮像し、外景画像を取得する。本実施形態におけるカメラ61は、単眼カメラであるが、ステレオカメラであってもよい。なお、使用者は、カメラ61によって取得された外景画像とは別に、画像表示部20の導光板261,262を透過した外景を視認できる。また、カメラ61によって取得される外景画像の範囲と、使用者が導光板261,262を透過して視認できる外景との範囲は同じであってもよいし、異なっていてもよい。   The camera 61 is disposed at a position corresponding to the user's eyebrow when the user wears the image display unit 20. The camera 61 captures an outside scene that is an external scenery in a direction opposite to the user's eye side, and acquires an outside scene image. The camera 61 in the present embodiment is a monocular camera, but may be a stereo camera. Note that the user can visually recognize the outside scene transmitted through the light guide plates 261 and 262 of the image display unit 20 separately from the outside scene image acquired by the camera 61. Further, the range of the outside scene image acquired by the camera 61 and the range of the outside scene that the user can see through the light guide plates 261 and 262 may be the same or different.

右マイク62は、右保持部21における右表示駆動部22の反対側に配置されている。左マイク64は、左保持部23における左表示駆動部24の反対側に配置されている。右マイク62と左マイク64とは、画像表示部20に対して配置されている位置が異なるため、右マイク62が取得する外部音声の音量である外部音量と左マイク64が取得する外部音量とは異なる。なお、本明細書における「音声」とは、人の声のみでなく、機械音等を含む広義の「音」の意味を表す。右マイク62および左マイク64は、請求項における音取得部に相当する。   The right microphone 62 is arranged on the opposite side of the right display drive unit 22 in the right holding unit 21. The left microphone 64 is disposed on the opposite side of the left display driving unit 24 in the left holding unit 23. Since the right microphone 62 and the left microphone 64 are arranged at different positions with respect to the image display unit 20, the external volume that is the volume of the external sound acquired by the right microphone 62 and the external volume that the left microphone 64 acquires are Is different. Note that “speech” in this specification represents the meaning of “sound” in a broad sense including not only human voice but also mechanical sound and the like. The right microphone 62 and the left microphone 64 correspond to the sound acquisition unit in the claims.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。なお、右イヤホン32および左イヤホン34は、請求項における音出力部に相当する。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 that are connected to the control unit 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24. The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. The right earphone 32 and the left earphone 34 correspond to a sound output unit in the claims.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御部10と、のそれぞれには、互いに嵌合するコネクター(図示しない)が設けられている。本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。   The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. A connector (not shown) that fits each other is provided at each of the end of the main body cord 48 opposite to the connecting member 46 and the control unit 10. By fitting / releasing the connector of the main body cord 48 and the connector of the control unit 10, the control unit 10 and the image display unit 20 are connected or disconnected. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、頭部装着型表示装置100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を含んでいる。決定キー11は、押下操作を検出して、制御部10で操作された内容を決定する信号を出力する。点灯部12は、頭部装着型表示装置100の動作状態を、その発光状態によって通知する。頭部装着型表示装置100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LED(Light Emitting Diode)が用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、頭部装着型表示装置100の電源投入状態を切り替える。   The control unit 10 is a device for controlling the head-mounted display device 100. The control unit 10 includes a determination key 11, a lighting unit 12, a display switching key 13, a track pad 14, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. Yes. The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control unit 10. The lighting unit 12 notifies the operation state of the head-mounted display device 100 by its light emission state. Examples of the operating state of the head-mounted display device 100 include power ON / OFF. For example, an LED (Light Emitting Diode) is used as the lighting unit 12. The display switching key 13 detects a pressing operation and outputs a signal for switching the display mode of the content video between 3D and 2D, for example. The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the head-mounted display device 100 by detecting a slide operation of the switch.

図2は、頭部装着型表示装置100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、CPU140と、操作部135と、入力情報取得部110と、記憶部120と、電源130と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。操作部135は、使用者による操作を受け付け、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18、から構成されている。   FIG. 2 is a block diagram functionally showing the configuration of the head-mounted display device 100. As shown in FIG. 2, the control unit 10 includes a CPU 140, an operation unit 135, an input information acquisition unit 110, a storage unit 120, a power supply 130, an interface 180, a transmission unit 51 (Tx51), and a transmission unit 52. (Tx52). The operation unit 135 receives an operation by the user and includes an enter key 11, a display switch key 13, a track pad 14, a luminance switch key 15, a direction key 16, a menu key 17, and a power switch 18.

入力情報取得部110は、使用者による操作入力に応じた信号を取得する。操作入力に応じた信号としては、例えば、トラックパッド14、方向キー16、電源スイッチ18、に対する操作入力がある。電源130は、頭部装着型表示装置100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。記憶部120は、種々のコンピュータープログラムを格納している。記憶部120は、ROMやRAM等によって構成されている。CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム150(ОS150)、画像処理部160、音声処理部170、変換部185、方向判定部161、表示制御部190、として機能する。   The input information acquisition unit 110 acquires a signal corresponding to an operation input by the user. As a signal corresponding to the operation input, for example, there is an operation input to the track pad 14, the direction key 16, and the power switch 18. The power supply 130 supplies power to each part of the head-mounted display device 100. As the power supply 130, for example, a secondary battery can be used. The storage unit 120 stores various computer programs. The storage unit 120 is configured by a ROM, a RAM, or the like. The CPU 140 reads out and executes the computer program stored in the storage unit 120, thereby operating the operating system 150 (OS 150), the image processing unit 160, the sound processing unit 170, the conversion unit 185, the direction determination unit 161, and the display control unit. 190.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示しない)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示しない)を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データData(RGBデータ)として、1フレームごとに記憶部120内のDRAMに格納する。なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。   The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as a vertical synchronization signal VSync and a horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). Thereafter, the image processing unit 160 stores the converted digital image signal as image data Data (RGB data) of the target image in the DRAM in the storage unit 120 for each frame. Note that the image processing unit 160 may execute image processing such as various tone correction processing such as resolution conversion processing, brightness and saturation adjustment, and keystone correction processing on the image data as necessary. .

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データData、のそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. To do. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control unit 10 and the image display unit 20.

音声処理部170は、取得する外部音声および出力する音声である出力音声について様々な処理を行なう。音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。   The sound processing unit 170 performs various processes on the external sound to be acquired and the output sound that is the sound to be output. The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker (not shown) connected to the connecting member 46 ( (Not shown). For example, when the Dolby (registered trademark) system is adopted, processing on the audio signal is performed, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, for example.

また、音声処理部170は、マイク62,64が取得した外部音量および出力音声の音量である出力音量をデジベル(dB)の数値として特定したり、外部音声に含まれると共に、記憶部120に予め記憶された警告音といった特定の音声を検出する。外部音声に含まれている特定の音声の検出は、記憶部120に予め記憶された警告音等の周波数スペクトルの波形と、所定の期間に取得された外部音声の周波数スペクトルの波形と、を照合することによって行なわれる。音声処理部170は、周波数スペクトルの波形を照合することで、人の声とそれ以外の音声とを識別することもできる。また、音声処理部170は、取得した外部音声の周波数スペクトルを解析して、周波数ごとの強度を算出する。本実施形態では、音声処理部170は、外部音量を1秒ごとに取得し、周波数スペクトルの解析では、1秒間に取得された外部音声の解析を行なう。   In addition, the sound processing unit 170 specifies the external sound volume acquired by the microphones 62 and 64 and the output sound volume that is the sound volume of the output sound as a numerical value of decibel (dB), or is included in the external sound and stored in the storage unit 120 in advance. A specific sound such as a stored warning sound is detected. The detection of a specific voice included in the external voice is performed by collating the waveform of the frequency spectrum such as a warning sound stored in advance in the storage unit 120 with the waveform of the frequency spectrum of the external voice acquired during a predetermined period. It is done by doing. The voice processing unit 170 can also discriminate between human voices and other voices by collating waveforms of frequency spectra. In addition, the sound processing unit 170 analyzes the frequency spectrum of the acquired external sound and calculates the intensity for each frequency. In the present embodiment, the sound processing unit 170 acquires the external sound volume every second, and in the analysis of the frequency spectrum, analyzes the external sound acquired per second.

また、音声処理部170は、ある時点で取得された外部音量が予め定められた音量以上であるか否か、または、ある時点で取得された外部音量とその1秒前に取得された外部音量との変化、に基づいて出力音量を調整する。音声処理部170は、ある時点から1秒間に取得された外部音声の周波数スペクトルがその直前の1秒間に取得された外部音声の周波数スペクトルに対しての変化に基づいて出力音量を調整する。また、音声処理部170は、検出された外部音声に含まれる特定の音声に基づいて出力音量を調整する。   Also, the sound processing unit 170 determines whether or not the external volume acquired at a certain time is equal to or higher than a predetermined volume, or the external volume acquired at a certain time and the external volume acquired one second before that. The output volume is adjusted based on the change. The sound processing unit 170 adjusts the output volume based on a change in the frequency spectrum of the external sound acquired in one second from a certain time point with respect to the frequency spectrum of the external sound acquired in the immediately preceding one second. In addition, the sound processing unit 170 adjusts the output volume based on specific sound included in the detected external sound.

音声処理部170は、右マイク62が取得する外部音量と左マイク64が取得する外部音量とに基づいて画像表示部20から外部音声の音源への方向を推定する。具体的には、本実施形態において、右マイク62の取得する音量が左マイク64の取得する音量よりも大きい場合、音声処理部170は、使用者を中心として右方向に音源があると推定する。なお、音声処理部170は、請求項における音制御部、解析部、特定音検出部、音源方向推定部、に相当する。   The sound processing unit 170 estimates the direction of the external sound from the image display unit 20 to the sound source based on the external volume acquired by the right microphone 62 and the external volume acquired by the left microphone 64. Specifically, in this embodiment, when the volume acquired by the right microphone 62 is larger than the volume acquired by the left microphone 64, the audio processing unit 170 estimates that there is a sound source in the right direction with the user at the center. . The voice processing unit 170 corresponds to a sound control unit, an analysis unit, a specific sound detection unit, and a sound source direction estimation unit in the claims.

変換部185は、マイク62,64が取得した音声を、音声を文字によって表した文字画像へと変換する。方向判定部161は、後述する9軸センサー66が検出した画像表示部20の動きの変化に基づいて、使用者の頭部における角速度や角度の変化量を特定する。   The conversion unit 185 converts the sound acquired by the microphones 62 and 64 into a character image in which the sound is represented by characters. The direction determination unit 161 specifies the angular velocity and the amount of change in the angle of the user's head based on the change in the movement of the image display unit 20 detected by the 9-axis sensor 66 described later.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 controls driving of the right LCD 241 by the right LCD control unit 211, driving ON / OFF of the right backlight 221 by the right backlight control unit 201, and left LCD control unit according to control signals. The left LCD 242 driving ON / OFF by 212, the left backlight 222 driving ON / OFF by the left backlight control unit 202, and the like are individually controlled. Thus, the display control unit 190 controls the generation and emission of image light by the right display driving unit 22 and the left display driving unit 24, respectively. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light. The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

また、表示制御部190は、マイク62,64が取得した外部音量に基づいて、方向判定部161が変換した文字画像の文字の大きさを設定し、文字の大きさを設定した文字画像を表す制御信号として画像表示部20に送信する。画像表示部20は、送信された制御信号に基づいて文字画像を表す画像光を生成して、使用者の眼に射出することで、使用者は、音声を文字画像として視認できる。   Further, the display control unit 190 sets the character size of the character image converted by the direction determination unit 161 based on the external volume acquired by the microphones 62 and 64, and represents the character image in which the character size is set. It transmits to the image display part 20 as a control signal. The image display unit 20 generates image light representing a character image based on the transmitted control signal and emits it to the user's eyes, so that the user can visually recognize the sound as a character image.

インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、9軸センサー66と、右マイク62と、左マイク64と、を備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. A 9-axis sensor 66, a right microphone 62, and a left microphone 64.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)、を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された使用者の頭部の動きから画像表示部20の向きがわかるため、方向判定部161は、使用者の視線方向を推定できる。方向判定部161と9軸センサー66とは、請求項における動き検出部に相当する。マイク62,64は、取得した音声の音声信号を変換部185および音声処理部170に送信する。   The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of the user's head is detected. Since the orientation of the image display unit 20 is known from the detected movement of the user's head, the direction determination unit 161 can estimate the user's line-of-sight direction. The direction determination unit 161 and the 9-axis sensor 66 correspond to a motion detection unit in claims. The microphones 62 and 64 transmit the acquired audio signal to the conversion unit 185 and the audio processing unit 170.

右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit 53 (Rx53), a right backlight control unit 201 (right BL control unit 201) and a right backlight 221 (right BL221) that function as a light source, and a right LCD that functions as a display element. A control unit 211, a right LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as display elements. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データと、に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right-eye image data input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The right projection optical system 251 and the right light guide plate 261 are collectively referred to as “light guide unit”.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54(Rx54)と、光源として機能する左バックライト制御部202(左BL制御部202)および左バックライト222(左BL202)と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を含んでいる。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes a receiving unit 54 (Rx54), a left backlight control unit 202 (left BL control unit 202) and a left backlight 222 (left BL202) that function as a light source, and a left LCD that functions as a display element. A control unit 212 and a left LCD 242 and a left projection optical system 252 are included. The left backlight control unit 202 and the left backlight 222 function as a light source. The left LCD control unit 212 and the left LCD 242 function as display elements. The left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are also collectively referred to as “image light generation unit”. The left projection optical system 252 is configured by a collimating lens that converts the image light emitted from the left LCD 242 into a light beam in a parallel state. The left light guide plate 262 as the left optical image display unit 28 guides the image light output from the left projection optical system 252 to the left eye LE of the user while reflecting the image light along a predetermined optical path. The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”.

図3は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表わす有効な画像光PLへと変調する。左側についても同様である。なお、図4のように、本実施形態ではバックライト方式を採用したが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。   FIG. 3 is an explanatory diagram illustrating a state in which image light is emitted by the image light generation unit. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby changing the illumination light IL emitted from the right backlight 221 into an image. Is modulated into an effective image light PL representing The same applies to the left side. As shown in FIG. 4, the backlight system is used in the present embodiment, but it may be configured to emit image light using a front light system or a reflection system.

A−2.出力音量調整処理:
図4は、出力音量調整処理の流れを示す説明図である。出力音量調整処理では、マイク62,64が取得した外部音声の変化に基づいて、制御部10の各部がイヤホン32,34を介して出力する出力音量を調整する処理である。初めに、マイク62,64は、外部音声を取得する(ステップS310)。音声処理部170は、マイク62,64が取得した外部音声に対して、1秒ごとの音量の取得、周波数スペクトルの解析、特定の音声の検出、を行なう。
A-2. Output volume adjustment processing:
FIG. 4 is an explanatory diagram showing the flow of output volume adjustment processing. The output volume adjustment process is a process for adjusting the output volume output by each unit of the control unit 10 via the earphones 32 and 34 based on the change in the external sound acquired by the microphones 62 and 64. First, the microphones 62 and 64 acquire external sound (step S310). The sound processing unit 170 performs sound volume acquisition per second, frequency spectrum analysis, and specific sound detection for the external sound acquired by the microphones 62 and 64.

次に、音声処理部170は、外部音声に警告音等の特定の音声が検出されるかを監視する(ステップS320)。特定の音声が検出された場合には(ステップS320:YES)、音声処理部170は、イヤホン32,34から出力する出力音量を下げる(ステップS360)。本実施形態では、音声処理部170は、予め設定されている音量まで出力音量を下げるが、他の実施形態では、使用者によって下げる音量が自由に設定されてもよいし、外部音量に基づいて音量が設定されてもよい。また、出力音量と外部音量とに基づいて設定されてもよい。   Next, the sound processing unit 170 monitors whether a specific sound such as a warning sound is detected in the external sound (step S320). When a specific sound is detected (step S320: YES), the sound processing unit 170 decreases the output volume output from the earphones 32 and 34 (step S360). In this embodiment, the audio processing unit 170 lowers the output volume to a preset volume, but in other embodiments, the volume to be lowered may be set freely by the user, or based on the external volume The volume may be set. Further, it may be set based on the output volume and the external volume.

出力音量が下げられると、次に、表示制御部190は、取得した外部音声を表すテキスト画像を画像表示部20に表示する(ステップS370)。図5は、使用者が視認する視野VRの一例を示す説明図である。図5には、使用者が視認する視野VRと、画像表示部20が画像を表示できる領域である最大画像表示領域PNと、が示されている。図5に示すように、使用者は、教師TEと、教師TEの講義を受けている複数の生徒STと、取得された外部音声を文字画像として表したテキスト画像TX1と、を外景として視認できる。使用者は、教師TEに装着された講義用マイクが取得した音声を、インターフェイス180を介してイヤホン32,34から出力音声として視聴すると共に、教師TEがホワイトボードWBに書いた文字を視認する。本実施形態では、ステップS330の処理において、アナウンスの前に流れる「ピンポンパンポン」というアナウンス音が特定の音声として検出されて、変換部185は、マイク62,64が取得する外部音声を、外部音声を文字として表す文字画像へと変換する。表示制御部190は、変換された文字画像を最大画像表示領域PNにテキスト画像TX1として表示する。アナウンス音に含まれる「ピンポンパンポン」という外部音声の音量よりも、「ただいま、地震が発生しました。」という外部音声の音量の方が大きい。そのため、図5に示すように、表示制御部190は、「ピンポンパンポン」の音声を表す文字画像よりも「ただいま、地震が発生しました。」を表す文字画像における各文字の大きさを大きくする。   When the output volume is lowered, next, the display control unit 190 displays a text image representing the acquired external sound on the image display unit 20 (step S370). FIG. 5 is an explanatory diagram showing an example of the visual field VR visually recognized by the user. FIG. 5 shows a visual field VR visually recognized by the user and a maximum image display area PN that is an area where the image display unit 20 can display an image. As shown in FIG. 5, the user can visually recognize a teacher TE, a plurality of students ST receiving a lecture of the teacher TE, and a text image TX1 representing the acquired external voice as a character image as an outside scene. . The user views the voice acquired by the lecture microphone attached to the teacher TE as output voice from the earphones 32 and 34 via the interface 180, and visually recognizes the character written on the whiteboard WB by the teacher TE. In the present embodiment, in the process of step S330, an announcement sound “ping-pong pampong” flowing before the announcement is detected as a specific sound, and the conversion unit 185 converts the external sound acquired by the microphones 62 and 64 into the external sound. Is converted to a character image representing the character as a character. The display control unit 190 displays the converted character image as the text image TX1 in the maximum image display area PN. The volume of the external audio “Ping Pong Pampong” included in the announcement sound is larger than the volume of the external audio “Now the earthquake has occurred.” Therefore, as shown in FIG. 5, the display control unit 190 increases the size of each character in the character image representing “An earthquake has occurred” rather than the character image representing the sound of “ping-pong pampong”. .

アナウンス音は図5に示すスピーカーSPから出力されており、左マイク64は、右マイク62よりもスピーカーSPの位置に近いため、右マイク62よりも取得する外部音量が大きい。そのため、音声処理部170は、外部音声の音源であるスピーカーSPが使用者に対して左側にあると判定する。表示制御部190は、最大画像表示領域PNにおいて、中心部分を除き、かつ、中心よりも左側の部分に占める部分が多くなるような周辺部にテキスト画像TX1を表示する。本実施形態における最大画像表示領域PNは、横の画素数が960、縦の画素数が540である。最大画像表示領域PNは、請求項における画像形成可能領域に相当する。最大画像表示領域PNにおける中心部分を除く部分とは、中央に位置する横の画素数320と縦の画素数180の領域を除く領域のことをいい、中央に位置する横の画素数480と縦の画素数270の領域を除く領域であるとさらに好ましい。なお、本実施形態では、中心を除く部分を単に「周辺部」とも呼び、中心を除く部分とは、必ずしも最大画像表示領域PNの外側付近のことを示しているわけではない。   The announcement sound is output from the speaker SP shown in FIG. 5, and the left microphone 64 is closer to the position of the speaker SP than the right microphone 62, so that the external volume acquired is larger than that of the right microphone 62. Therefore, the audio processing unit 170 determines that the speaker SP, which is a sound source of external audio, is on the left side with respect to the user. In the maximum image display area PN, the display control unit 190 displays the text image TX1 in a peripheral part that excludes the central part and increases in the part that occupies the left part of the center. In the present embodiment, the maximum image display area PN has 960 horizontal pixels and 540 vertical pixels. The maximum image display area PN corresponds to an image formable area in claims. The portion excluding the central portion in the maximum image display region PN refers to a region excluding the region having 320 horizontal pixels and 180 vertical pixels, and the vertical number of horizontal pixels 480 and the vertical region. It is more preferable that the region excluding the region of 270 pixels. In the present embodiment, the part excluding the center is also simply referred to as “peripheral part”, and the part excluding the center does not necessarily indicate the vicinity of the outside of the maximum image display area PN.

次に、音声処理部170は、検出した特定の音声が検出されない元の状態に戻ったかを監視する(ステップS380)。特定の音声が検出されなくなった場合には(ステップS380:YES)、音声処理部170は、ステップS360の処理において下げた出力音量を、下げる前の出力音量に戻す(ステップS390)。その後、制御部10は、出力音声調整処理を終了する操作を監視する(ステップS400)。出力音量調整処理を終了する操作が検出されない場合には(ステップS400:NO)、音声処理部170は、再び、外部音声に警告音等の特定の音声が検出されるかを監視する(ステップS320)。出力音量調整処理を終了する操作が検出された場合には(ステップS400:YES)、表示制御部190が最大画像表示領域PNに表示していたテキスト画像TX1を非表示にして、制御部10は、出力音量調整処理を終了する。   Next, the sound processing unit 170 monitors whether the detected specific sound has returned to the original state where it is not detected (step S380). When the specific sound is not detected (step S380: YES), the sound processing unit 170 returns the output volume reduced in the process of step S360 to the output volume before the decrease (step S390). Thereafter, the control unit 10 monitors an operation for ending the output audio adjustment process (step S400). When the operation for ending the output volume adjustment process is not detected (step S400: NO), the sound processing unit 170 again monitors whether a specific sound such as a warning sound is detected in the external sound (step S320). ). When an operation for ending the output volume adjustment processing is detected (step S400: YES), the control unit 10 hides the text image TX1 displayed in the maximum image display area PN by the display control unit 190, and the control unit 10 Then, the output volume adjustment process is terminated.

ステップS380の処理において、引き続き、特定の音声が検出される場合には(ステップS380:NO)、制御部10は、出力音声調整処理を終了する操作を監視する(ステップS410)。出力音量調整処理を終了する操作が検出されない場合には(ステップS380:NO)、音声処理部170は、引き続き、検出した特定の音声が検出されない元の状態に戻ったかを監視する(ステップS380)。出力音量調整処理を終了する操作が検出された場合には(ステップS410:YES)、制御部10は、出力音量調整処理を終了する。   In the process of step S380, when a specific sound is detected continuously (step S380: NO), the control unit 10 monitors an operation for ending the output sound adjustment process (step S410). When the operation for ending the output volume adjustment process is not detected (step S380: NO), the voice processing unit 170 continues to monitor whether the original state where the detected specific voice is not detected is restored (step S380). . When an operation for ending the output volume adjustment process is detected (step S410: YES), the control unit 10 ends the output volume adjustment process.

ステップ320の処理において、特定の音声が検出されない場合には(ステップS320:NO)、音声処理部170は、取得された外部音量が変化して予め定められた閾値以上の音量であるかを監視する(ステップS330)。図6は、取得される外部音声の音量の変化の一例を示す説明図である。図6には、マイク62,64が取得した外部音声の音量の推移Nout(dB)と、予め定められた音量閾値Nth(dB)と、が示されている。図6に示すように、取得される外部音量は、時刻t1までは音量閾値Nthよりも小さい音量であり、時刻t1から1秒後の時刻t2では音量閾値Nth以上の音量である。この場合には、時刻t1の音量N1から時刻t2の音量N2へと音量が変化して、音量N2が音量閾値Nth以上であるため(図4のステップS330:YES)、次に、制御部10の各部は、ステップS360以降の処理を行なう。   If a specific sound is not detected in the process of step 320 (step S320: NO), the sound processing unit 170 monitors whether the acquired external sound volume is changed and the sound volume is equal to or higher than a predetermined threshold. (Step S330). FIG. 6 is an explanatory diagram illustrating an example of a change in the volume of the acquired external sound. FIG. 6 shows a transition Nout (dB) of the volume of the external sound acquired by the microphones 62 and 64 and a predetermined volume threshold Nth (dB). As shown in FIG. 6, the acquired external volume is a volume smaller than the volume threshold Nth until time t1, and is a volume equal to or higher than the volume threshold Nth at time t2 one second after time t1. In this case, the volume changes from the volume N1 at time t1 to the volume N2 at time t2, and the volume N2 is greater than or equal to the volume threshold Nth (step S330 in FIG. 4: YES). Each part of performs the process after step S360.

ステップS330の処理において、外部音量が変化しない、または、外部音量が変化しても音量が音量閾値Nthよりも小さい場合には(ステップS330:NO)、音声処理部170は、外部音声に特定の周波数が検出されるかを監視する(ステップS340)。図7は、取得される外部音声の周波数の一例を示す説明図である。図7には、期間T1と期間T1の後の期間T2とのそれぞれにおいて取得された外部音声を解析した周波数スペクトルが示されている。図7に示すように、期間T1における周波数スペクトルfT1から期間T2における周波数スペクトルfT2への変化において、特定の周波数の帯域fthの周波数が検出された場合に(ステップS340:YES)、制御部10の各部は、ステップS360以降の処理を行なう。なお、周波数が3000ヘルツ(Hz)の音声は、音量が小さくても人が聞き取りやすいことが一般に知られている。そのため、他の実施形態では、人が聞き取れる周波数である20ヘルツから20000ヘルツの音声のうち、20ヘルツまたは20000ヘルツに近い周波数の音声の場合に、外部音声が同じ音量であっても出力音声を小さくしてもよい。   In the process of step S330, if the external volume does not change or the volume is smaller than the volume threshold value Nth even if the external volume changes (step S330: NO), the audio processing unit 170 specifies the external audio. It is monitored whether the frequency is detected (step S340). FIG. 7 is an explanatory diagram showing an example of the frequency of the acquired external audio. FIG. 7 shows a frequency spectrum obtained by analyzing the external sound acquired in each of the period T1 and the period T2 after the period T1. As shown in FIG. 7, when a frequency of a specific frequency band fth is detected in the change from the frequency spectrum fT1 in the period T1 to the frequency spectrum fT2 in the period T2 (step S340: YES), the control unit 10 Each unit performs the processing after step S360. Note that it is generally known that sound having a frequency of 3000 hertz (Hz) is easy for humans to hear even when the volume is low. Therefore, in another embodiment, in the case of a sound having a frequency close to 20 Hz or 20 000 Hz out of 20 Hz to 20000 Hz, which is a frequency that humans can hear, the output sound is output even if the external sound has the same volume. It may be small.

ステップS340の処理において、外部音声に特定の周波数が検出されない場合には(ステップS340:NO)、外部音声が変化して、外部音声に人の声が検出されている状態で、方向判定部161は、使用者の頭部の動きの検出を監視する(ステップS350)。音声処理部170が外部音声に人の声が検出している状態で、方向判定部161が頭部の角速度と角度の変化量との少なくとも一方において、予め定められた閾値以上の変化量を検出すると(ステップS350:YES)、制御部10の各部は、ステップS360以降の処理を行なう。ステップS350の処理において、人の声が検出されていない場合、または、閾値以上の頭部の動きの変化量が検出されない場合(ステップS350:NO)、音声処理部170は、再度、外部音声に警告音等の特定の音声が検出されるかを監視する(ステップS320)。   In the process of step S340, when a specific frequency is not detected in the external sound (step S340: NO), the direction determination unit 161 in a state where the external sound is changed and a human voice is detected in the external sound. Monitors the detection of the movement of the user's head (step S350). While the voice processing unit 170 detects a human voice in the external voice, the direction determination unit 161 detects a change amount equal to or greater than a predetermined threshold in at least one of the angular velocity of the head and the change amount of the angle. Then (step S350: YES), each unit of the control unit 10 performs the processing after step S360. When the human voice is not detected in the process of step S350, or when the amount of change in the head movement equal to or greater than the threshold is not detected (step S350: NO), the voice processing unit 170 again converts the voice into an external voice. It is monitored whether a specific sound such as a warning sound is detected (step S320).

以上説明したように、本実施形態における頭部装着型表示装置100では、音声処理部170は、マイク62,64が取得した外部音声の変化に基づいて、イヤホン32,34から出力される出力音声の音量を調整する。そのため、この頭部装着型表示装置100では、外部音声の音量等が変化した場合に出力音声の音量を小さくするので、使用者は、インターフェイス180を介して供給されるコンテンツの音声を視聴しながら、外部音声を聞くことができ、外部の変化を速やかに認識できる。   As described above, in the head-mounted display device 100 according to the present embodiment, the audio processing unit 170 outputs audio output from the earphones 32 and 34 based on the change in external audio acquired by the microphones 62 and 64. Adjust the volume. Therefore, in the head-mounted display device 100, the volume of the output sound is reduced when the volume of the external sound or the like changes, so that the user can watch the sound of the content supplied via the interface 180. , Can hear external audio and can recognize external changes quickly.

また、本実施形態における頭部装着型表示装置100では、変換部185は、マイク62,64が取得した音声を、音声を文字によって表した文字画像へと変換する。表示制御部190は、文字画像を表す制御信号を画像表示部20に送信し、画像表示部20によって文字画像を表す画像光が生成される。そのため、この頭部装着型表示装置100では、マイク62,64が取得した外部音声を、外部音声を表すテキスト画像TX1として使用者に視認させ、使用者に外部音声をより詳しく認識させることができる。   Further, in the head-mounted display device 100 according to the present embodiment, the conversion unit 185 converts the sound acquired by the microphones 62 and 64 into a character image in which the sound is represented by characters. The display control unit 190 transmits a control signal representing a character image to the image display unit 20, and image light representing the character image is generated by the image display unit 20. Therefore, in the head-mounted display device 100, the user can visually recognize the external sound acquired by the microphones 62 and 64 as the text image TX1 representing the external sound, and can make the user recognize the external sound in more detail. .

また、本実施形態における頭部装着型表示装置100では、表示制御部190は、マイク62,64が取得した外部音量に基づいて文字画像の文字の大きさを設定し、文字の大きさを設定した文字画像を表す制御信号を画像表示部20に送信する。そのため、この頭部装着型表示装置100では、外部音声の音量に基づいてテキスト画像TX1の文字の大きさが設定されるので、使用者に、外部音声を視聴させると共に、外部音量の相違をテキスト画像TX1の文字の大きさとしても視認させ、外部音声をより詳しく認識させることができる。   In the head-mounted display device 100 according to this embodiment, the display control unit 190 sets the character size of the character image based on the external volume acquired by the microphones 62 and 64, and sets the character size. A control signal representing the character image is transmitted to the image display unit 20. Therefore, in the head-mounted display device 100, the character size of the text image TX1 is set based on the volume of the external sound, so that the user can watch the external sound and the difference in the external sound volume is text. Even the character size of the image TX1 can be visually recognized, and the external sound can be recognized in more detail.

また、本実施形態における頭部装着型表示装置100では、表示制御部190は、画像表示部20が画像を表示できる領域である最大画像表示領域PNにおいて、中心部分を除く周辺部にテキスト画像TX1を表示する。そのため、この頭部装着型表示装置100では、最大画像表示領域PNにおける中心部分に外部音声を表す文字画像が表示されないため、使用者の視野VRが必要以上に妨げられることがなく、使用者は、画像表示部20を透過する外景を視認できると共に文字画像を視認でき、使用者の利便性が向上する。   In the head-mounted display device 100 according to the present embodiment, the display control unit 190 includes the text image TX1 in the peripheral portion excluding the central portion in the maximum image display region PN, which is a region where the image display unit 20 can display an image. Is displayed. Therefore, in the head-mounted display device 100, since the character image representing the external voice is not displayed at the central portion in the maximum image display area PN, the user's visual field VR is not unnecessarily disturbed, and the user can In addition, it is possible to visually recognize an outside scene that is transmitted through the image display unit 20 and to visually recognize a character image, thereby improving user convenience.

また、本実施形態における頭部装着型表示装置100では、画像表示部20に右マイク62と左マイク64とが異なる位置に配置される。音声処理部170は、右マイク62が取得する外部音量と左マイク64が取得する外部音量とに基づいて画像表示部20から外部音声の音源への方向を推定する。音声処理部170は、スピーカーSPが使用者に対して左側にあると推定し、最大画像表示領域PNにおいて、中心よりも左側の部分に占める部分にテキスト画像TX1を表示する。そのため、この頭部装着型表示装置100では、使用者の視野VRにおいて、音源の近い位置に外部音声を文字として表す文字画像を視認させ、音源の位置を使用者に認識させることができる。   In the head-mounted display device 100 according to the present embodiment, the right microphone 62 and the left microphone 64 are arranged on the image display unit 20 at different positions. The sound processing unit 170 estimates the direction of the external sound from the image display unit 20 to the sound source based on the external volume acquired by the right microphone 62 and the external volume acquired by the left microphone 64. The sound processing unit 170 estimates that the speaker SP is on the left side with respect to the user, and displays the text image TX1 in a portion occupying the left portion of the center in the maximum image display region PN. Therefore, in the head-mounted display device 100, in the user's visual field VR, it is possible to make the user recognize the position of the sound source by visually recognizing a character image representing the external sound as a character near the sound source.

また、本実施形態の頭部装着型表示装置100では、音声処理部170は、取得された音量が音量閾値Nth未満の音量N1から音量閾値Nth以上の音量N2へと変化する場合に出力音量を下げる。そのため、この頭部装着型表示装置100では、コンテンツの音声の音量が大きい場合であっても、外部音量が大きい場合には出力音量が下げられるため、警告音等の音量の大きい外部音声が取得された場合でも、外部音声をより明確に聞くことができる。   Further, in the head-mounted display device 100 of the present embodiment, the audio processing unit 170 changes the output volume when the acquired volume changes from the volume N1 less than the volume threshold Nth to the volume N2 greater than or equal to the volume threshold Nth. Lower. Therefore, in the head-mounted display device 100, even when the volume of the content sound is high, the output sound volume is lowered when the external sound volume is high. Even if it is, you can hear the external sound more clearly.

また、本実施形態の頭部装着型表示装置100では、音声処理部170は、取得された外部音声に含まれている警告音といった特定の音声を検出し、検出された外部音声に含まれる特定の音声に基づいて出力音声を調整する。そのため、この頭部装着型表示装置100では、使用者が検出したい特定の音声を検出したときに、出力音量を下げるので、使用者が外部音声に含まれる必要な音声のみを聞くことができ、使用者の利便性が向上する。   Further, in the head-mounted display device 100 according to the present embodiment, the sound processing unit 170 detects specific sound such as a warning sound included in the acquired external sound, and specifies the specific sound included in the detected external sound. The output sound is adjusted based on the sound. Therefore, in this head-mounted display device 100, when the user detects a specific sound that the user wants to detect, the output volume is lowered, so that the user can hear only the necessary sound included in the external sound, User convenience is improved.

また、本実施形態の頭部装着型表示装置100では、9軸センサー66が使用者の頭部の動きを検出し、方向判定部161が検出された画像表示部20の動きの変化に基づいて、使用者の頭部における角速度や角度の変化量を特定する。音声処理部170は、外部音声に含まれる人の声と、使用者の頭部の動きにおける予め定められた閾値以上の変化量と、に基づいて出力音量を下げる。そのため、この頭部装着型表示装置100では、外部音声の変化と使用者の視線方向の変化との2つの指標に基づいて出力音量が調整されるので、外部音声の変化のみで出力音量が調整される場合に比べ、不要な調整が抑制され、使用者の利便性が向上する。   Further, in the head-mounted display device 100 of the present embodiment, the 9-axis sensor 66 detects the movement of the user's head, and based on the change in the movement of the image display unit 20 detected by the direction determination unit 161. Then, the angular velocity and the amount of change of the angle in the user's head are specified. The sound processing unit 170 reduces the output volume based on the human voice included in the external sound and the amount of change equal to or greater than a predetermined threshold in the movement of the user's head. For this reason, in this head-mounted display device 100, the output volume is adjusted based on two indicators, the change in the external sound and the change in the user's line of sight, so the output volume is adjusted only by the change in the external sound. Compared with the case where it is done, unnecessary adjustment is suppressed and the convenience of the user is improved.

また、本実施形態の頭部装着型表示装置100では、音声処理部170は、取得した外部音声の周波数スペクトルを解析して、周波数ごとの強度を算出し、解析された外部音声の周波数スペクトルの変化に基づいて出力音声を調整する。そのため、この頭部装着型表示装置100では、取得された外部音声に周波数の異なる異音等が検出された場合に、使用者に異音等を認識させることができ、使用者の利便性が向上する。   In the head-mounted display device 100 of the present embodiment, the sound processing unit 170 analyzes the frequency spectrum of the acquired external sound, calculates the intensity for each frequency, and calculates the frequency spectrum of the analyzed external sound. Adjust the output audio based on the change. Therefore, in the head-mounted display device 100, when an abnormal sound having a different frequency is detected in the acquired external sound, the user can recognize the abnormal sound or the like, which is convenient for the user. improves.

B.第2実施形態:
図8は、第2実施形態における100bの構成を機能的に示すブロック図である。図8示すように、第2実施形態では、本実施形態における画像表示部20bに、9軸センサー66の代わりに環境情報センサー67が形成され、制御部10bのCPU140bが方向判定部161の代わりに環境情報判定部162と誤操作判定部163とを有する。
B. Second embodiment:
FIG. 8 is a block diagram functionally showing the configuration of 100b in the second embodiment. As shown in FIG. 8, in the second embodiment, an environment information sensor 67 is formed in the image display unit 20 b in the present embodiment instead of the 9-axis sensor 66, and the CPU 140 b of the control unit 10 b replaces the direction determination unit 161. An environment information determination unit 162 and an erroneous operation determination unit 163 are included.

環境情報センサー67は、頭部装着型表示装置100bが使用される環境の情報として、外部の温度を検出する。環境情報判定部162は、検出された外部の温度を予め定められた閾値と比較する。誤操作判定部163は、操作部135が受け付けた操作が頭部装着型表示装置100bを制御する所定の操作と同じであるか否かを判定する。環境情報判定部162によって比較された結果、および、誤操作判定部163によって判定された操作の結果が所定の結果である場合には、所定の結果に基づく忠告等の情報を使用者に認識させるために予め定められた情報を変換部185と音声処理部170とに送信する。変換部185は、環境情報判定部162から送信された情報を文字によって表した文字画像へと変換する。音声処理部170は、環境情報判定部162から送信された情報を音声信号へと変換して、マイク62,64へと送信する。なお、第2実施形態における環境情報センサー67と操作部135との少なくとも一方は、請求項における情報取得部に相当する。   The environment information sensor 67 detects an external temperature as information on the environment in which the head-mounted display device 100b is used. The environment information determination unit 162 compares the detected external temperature with a predetermined threshold value. The erroneous operation determination unit 163 determines whether the operation received by the operation unit 135 is the same as a predetermined operation for controlling the head-mounted display device 100b. When the result of the comparison by the environment information determination unit 162 and the result of the operation determined by the erroneous operation determination unit 163 are predetermined results, the user is allowed to recognize information such as advice based on the predetermined results. The predetermined information is transmitted to the conversion unit 185 and the audio processing unit 170. The conversion unit 185 converts the information transmitted from the environment information determination unit 162 into a character image represented by characters. The sound processing unit 170 converts the information transmitted from the environment information determination unit 162 into a sound signal and transmits the sound signal to the microphones 62 and 64. Note that at least one of the environment information sensor 67 and the operation unit 135 in the second embodiment corresponds to an information acquisition unit in the claims.

図9は、第2実施形態における情報報知処理の流れを示す説明図である。情報報知処理は、検出された環境の情報、または、操作部135において誤操作と判定された操作を受け付けた場合に、音声またはテキスト画像として、忠告等の情報を使用者に報知する処理である。   FIG. 9 is an explanatory diagram showing a flow of information notification processing in the second embodiment. The information notification process is a process of notifying the user of information such as advice as a voice or text image when the detected environment information or an operation determined to be an erroneous operation by the operation unit 135 is received.

情報報知処理では、初めに、環境情報判定部162が環境の情報として外部の温度を取得する(ステップS510)。次に、環境情報判定部162は、取得された外部の温度が予め設定された条件に該当するか否かを判定する(ステップS520)。第2実施形態では、予め設定された条件として、外部の温度が、摂氏40度(40℃)以上の場合と、摂氏マイナス10度(−10℃)以下の場合とがとして設定されている。外部の温度が条件に該当しない場合には(ステップS520:NO)、誤操作判定部163は、操作部135が頭部装着型表示装置100bを操作するための所定の操作とは異なる誤操作を受け付けたか否かを判定する(ステップS530)。誤操作としては、例えば、最大画像表示領域PNに表示された複数の選択肢から1つを選択する場合には、トラックパッド14、方向キー16、および、決定キー11が操作されるべきであるにもかかわらず、その他のキーが選択されたり、決定キー11が所定の時間内に所定の回数以上連打されたりする操作である。操作部135に誤操作が受け付けられていないと判定された場合には(ステップS530:NO)、環境情報判定部162は、引き続き、外部の温度が予め設定された条件に該当するかを監視する(ステップS520)。   In the information notification process, first, the environmental information determination unit 162 acquires an external temperature as environmental information (step S510). Next, the environment information determination unit 162 determines whether or not the acquired external temperature meets a preset condition (step S520). In the second embodiment, the preset conditions are set such that the external temperature is 40 degrees Celsius (40 ° C.) or more and the case where the external temperature is minus 10 degrees Celsius (−10 ° C.) or less. If the external temperature does not satisfy the condition (step S520: NO), has the erroneous operation determination unit 163 received an erroneous operation different from the predetermined operation for the operation unit 135 to operate the head-mounted display device 100b? It is determined whether or not (step S530). As an erroneous operation, for example, when one of a plurality of options displayed in the maximum image display area PN is selected, the track pad 14, the direction key 16, and the enter key 11 should be operated. Regardless, this is an operation in which another key is selected or the enter key 11 is repeatedly hit a predetermined number of times within a predetermined time. If it is determined that no erroneous operation has been received by the operation unit 135 (step S530: NO), the environmental information determination unit 162 continues to monitor whether the external temperature meets a preset condition ( Step S520).

操作部135に誤操作が受け付けられた場合(ステップS530:YES)、または、外部の温度が予め設定された条件に該当する場合(ステップS520:YES)、音声処理部170は、環境情報判定部162または誤操作判定部163から送信された情報に基づいて、マイク62,64に、これらの検出した内容(以下、単に「忠告」とも呼ぶ)の音声を出力させる(ステップS540)。すなわち、マイク62,64は、頭部装着型表示装置100bの使用を制限する音声を出力する。次に、表示制御部190は、環境情報判定部162または誤操作判定部163から送信された情報に基づいて変換部185が変換した忠告を意味するテキスト画像を画像表示部20bに表示させる(ステップS550)。   When an operation error is received by the operation unit 135 (step S530: YES), or when the external temperature meets a preset condition (step S520: YES), the audio processing unit 170 is the environment information determination unit 162. Alternatively, based on the information transmitted from the erroneous operation determination unit 163, the microphones 62 and 64 are caused to output sounds of the detected contents (hereinafter also simply referred to as “advice”) (step S540). That is, the microphones 62 and 64 output sound that restricts the use of the head-mounted display device 100b. Next, the display control unit 190 causes the image display unit 20b to display a text image that represents the advice converted by the conversion unit 185 based on the information transmitted from the environment information determination unit 162 or the erroneous operation determination unit 163 (step S550). ).

図10は、使用者が視認する視野VR2の一例を示す説明図である。図10には、外部の温度として、予め設定された条件に該当する摂氏45度が検出され、頭部装着型表示装置100bをはずす旨の忠告のテキスト画像TX11である「高熱のため、HMDをはずしてください」が使用者に視認される。図10に示すように、使用者は外景SCと最大画像表示領域PNに表示された表示画像VIとを視認している。最大画像表示領域PNでは、使用者は、透過した外景SCを視認できる。表示画像VIは、自動車が走行しているコンテンツ動画である。表示画像VIには、テキスト画像TX11が含まれている。なお、最大画像表示領域PNにテキスト画像TX11が表示されると共に、マイク62,64は、使用者に忠告を意味する「高熱のため、HMDをはずしてください」の音声を、一定時間ごとに繰り返し出力する。   FIG. 10 is an explanatory diagram illustrating an example of the visual field VR2 visually recognized by the user. FIG. 10 shows a text image TX11 indicating that an external temperature of 45 degrees Celsius corresponding to a preset condition is detected and the head-mounted display device 100b is removed. Please remove "is visually recognized by the user. As shown in FIG. 10, the user visually recognizes the outside scene SC and the display image VI displayed in the maximum image display area PN. In the maximum image display area PN, the user can visually recognize the transmitted outside scene SC. The display image VI is a content video in which the automobile is traveling. The display image VI includes a text image TX11. In addition, the text image TX11 is displayed in the maximum image display area PN, and the microphones 62 and 64 repeat the sound “Please remove HMD because of high fever”, which means advice to the user, at regular intervals. Output.

マイク62,64からテキスト画像TX11と同じ内容の音声が出力され(図9のステップS540)、テキスト画像TX11が最大画像表示領域PNに表示されると(ステップS550)、環境情報判定部162および誤操作判定部163は、環境の情報と操作部135が受け付けた操作との少なくとも一方が条件に引き続き該当しているか否かを判定する(ステップS560)。例えば、外部の温度が摂氏40度未満、かつ、摂氏マイナス10度を超えたと判定された場合には(ステップS560:NO)、音声処理部170およびマイク62,64は忠告の音声の出力を終了すると共に、表示制御部190はテキスト画像TX11を非表示にする(ステップS570)。その後、制御部10bは、情報報知処理を終了する操作を監視する(ステップS580)。   When the sound having the same content as the text image TX11 is output from the microphones 62 and 64 (step S540 in FIG. 9) and the text image TX11 is displayed in the maximum image display area PN (step S550), the environment information determination unit 162 and erroneous operation are performed. The determination unit 163 determines whether or not at least one of the environment information and the operation received by the operation unit 135 continues to satisfy the condition (step S560). For example, when it is determined that the external temperature is less than 40 degrees Celsius and greater than minus 10 degrees Celsius (step S560: NO), the voice processing unit 170 and the microphones 62 and 64 end the output of the advice voice. At the same time, the display control unit 190 hides the text image TX11 (step S570). Thereafter, the control unit 10b monitors an operation for ending the information notification process (step S580).

ステップS560の処理において、引き続き、環境の情報と操作部135が受け付けた操作との少なくとも一方が条件に該当する場合には(ステップS560:YES)、制御部10bは、情報報知処理を終了する操作を監視する(ステップS590)。   In the process of step S560, when at least one of the environmental information and the operation received by the operation unit 135 satisfies the condition (step S560: YES), the control unit 10b performs an operation to end the information notification process. Is monitored (step S590).

以上説明したように、第2実施形態における頭部装着型表示装置100bでは、環境情報センサー67は頭部装着型表示装置100bが使用される環境の情報として、外部の温度を検出し、操作部135が頭部装着型表示装置100bを制御する所定の操作を受け付ける。制御部10bの環境情報判定部162は、検出された外部の温度が予め設定された条件に該当する場合には、忠告の音声出力およびテキスト画像TX11の表示を行なう、または、制御部10bの誤操作判定部163は、操作部135が語操作を受け付けた場合には、忠告の音声出力およびテキスト画像TX11の表示を行なう。そのため、第2実施形態における頭部装着型表示装置100bでは、外部の環境の状況、または、頭部装着型表示装置100bが受け付けた操作内容に基づいて、忠告等の頭部装着型表示装置100bの制御に関する指示を使用者に伝えることができ、使用者に環境の変化や誤操作について認識させることができる。   As described above, in the head-mounted display device 100b according to the second embodiment, the environment information sensor 67 detects the external temperature as information on the environment in which the head-mounted display device 100b is used, and the operation unit 135 receives a predetermined operation for controlling the head-mounted display device 100b. When the detected external temperature meets a preset condition, the environmental information determination unit 162 of the control unit 10b performs voice output of advice and display of the text image TX11, or erroneous operation of the control unit 10b. When the operation unit 135 accepts a word operation, the determination unit 163 performs voice output of advice and displays the text image TX11. Therefore, in the head-mounted display device 100b according to the second embodiment, the head-mounted display device 100b for advice or the like is based on the external environment or the operation content received by the head-mounted display device 100b. It is possible to transmit an instruction regarding control of the user to the user, and to allow the user to recognize an environmental change or an erroneous operation.

また、第2実施形態における頭部装着型表示装置100bでは、制御部10bにおける環境情報判定部162または誤操作判定部163は、音声処理部170およびマイク62,63によって、忠告の音声を出力する。そのため、第2実施形態における頭部装着型表示装置100bでは、使用者が特定の箇所を視認する等の動作を行なわなくても、環境の変化や誤操作について使用者に認識させることができ、使用者の利便性が向上する。   In the head-mounted display device 100b according to the second embodiment, the environment information determination unit 162 or the erroneous operation determination unit 163 in the control unit 10b outputs a voice of advice by the voice processing unit 170 and the microphones 62 and 63. Therefore, in the head-mounted display device 100b according to the second embodiment, the user can be made aware of environmental changes and erroneous operations without performing an operation such as the user visually recognizing a specific location. User convenience is improved.

また、第2実施形態における頭部装着型表示装置100bでは、操作部135が頭部装着型表示装置100bを操作するための所定の操作とは異なる誤操作を受け付けた場合に、誤操作判定部163は、忠告の音声の出力および最大画像表示領域PNにテキスト画像TX11の表示を行なう。そのため、第2実施形態における頭部装着型表示装置100bでは、正式な操作が行なわれなかった場合に、使用者が誤操作を行なっていることを使用者に認識させるため、使用者は正式な操作を行ないやすく、使用者の利便性が向上する。   In the head-mounted display device 100b according to the second embodiment, when the operation unit 135 receives an erroneous operation different from a predetermined operation for operating the head-mounted display device 100b, the erroneous operation determination unit 163 The voice of the advice is output and the text image TX11 is displayed in the maximum image display area PN. Therefore, in the head-mounted display device 100b according to the second embodiment, when the formal operation is not performed, the user recognizes that the user is performing an erroneous operation. The convenience of the user is improved.

また、第2実施形態における頭部装着型表示装置100bでは、制御部10bにおける音声処理部170および表示制御部190は、使用者に頭部装着型表示装置100bの使用を制限する忠告を音声として出力させると共に、テキスト画像TX11として最大画像表示領域PNに表示させる。そのため、第2実施形態における頭部装着型表示装置100bでは、頭部装着型表示装置100bの制御に関する情報を使用者に報知させるので、使用者が外部の環境の変化や誤操作に基づいて頭部装着型表示装置100bの使用をやめることができ、使用者の利便性が向上する。   Further, in the head-mounted display device 100b according to the second embodiment, the voice processing unit 170 and the display control unit 190 in the control unit 10b use a voice to advise the user to limit the use of the head-mounted display device 100b. At the same time, the text image TX11 is displayed in the maximum image display area PN. Therefore, in the head-mounted display device 100b according to the second embodiment, the user is notified of information related to the control of the head-mounted display device 100b, so that the user can change the head based on a change in the external environment or an erroneous operation. Use of the wearable display device 100b can be stopped, and user convenience is improved.

また、第2実施形態の頭部装着型表示装置100bでは、変換部185が忠告等を文字によって表した文字画像へと変換する。表示制御部190は、文字画像を表す制御信号を画像表示部20に送信し、画像表示部20によって文字画像を表す画像光が生成される。そのため、この頭部装着型表示装置100bでは、忠告等を表すテキスト画像TX11として使用者に視認させ、忠告等をより詳しく認識させることができる。   In the head-mounted display device 100b of the second embodiment, the conversion unit 185 converts the advice or the like into a character image represented by characters. The display control unit 190 transmits a control signal representing a character image to the image display unit 20, and image light representing the character image is generated by the image display unit 20. Therefore, in the head-mounted display device 100b, the user can visually recognize the text and the like as the text image TX11 representing the advice and the like so that the advice and the like can be recognized in more detail.

C.変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
C. Variation:
In addition, this invention is not limited to the said embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.

C1.変形例1:
上記実施形態では、音声処理部170と、画像表示部20と、を備える頭部装着型表示装置100を例に挙げて説明したが、音声処理部170と、画像表示部20と、を備える装置については種々変形可能である。図11は、自動車の運転手が視認する視野VR’の一例を示す説明図である。この変形例では、図11に示すように、自動車を運転している運転手に文字画像を視認させる画像表示装置として、自動車のフロントガラスに形成されたヘッドアップディスプレイ(Head-up Display;HUD)が用いられ、音声処理装置として、自動車に搭載されたカーオーディオと、自動車の外部における前後左右のそれぞれに取り付けられた外部音声を取得するマイクと、が用いられる。
C1. Modification 1:
In the above embodiment, the head-mounted display device 100 including the sound processing unit 170 and the image display unit 20 has been described as an example. However, the device including the sound processing unit 170 and the image display unit 20 is described. Various modifications can be made. FIG. 11 is an explanatory diagram showing an example of a visual field VR ′ visually recognized by the driver of the automobile. In this modification, as shown in FIG. 11, a head-up display (HUD) formed on a windshield of an automobile is used as an image display device that allows a driver driving the automobile to visually recognize a character image. As audio processing devices, car audio mounted on a car and microphones for acquiring external sound attached to the front, rear, left and right of the car are used.

図11には、最大画像表示領域PNと、取得した外部音声を文字画像として最大画像表示領域PNに表示したテキスト画像TX2と、が示されている。運転手は、自動車に搭載されたカーオーディオで音楽を聴いている状態である。マイクによって取得された外部音声の音源は、複数のマイクが取得した音量に基づいて自動車から左前方にあると推定された救急車である(図示しない)。この変形例では、外部音量が音量閾値Nth未満の状態から、救急車の発する音(図11に示す「ピーポーパーポー」)によって外部音量が音量閾値Nth以上に変化すると、カーオーディオの音量を調整する音声処理部170’は、カーオーディオが発する音楽の音量を下げる。また、最大画像表示領域PNには、表示制御部190が救急車の発する音を表す文字画像であるテキスト画像TX2を表示する。テキスト画像TX2は、最大画像表示領域PNにおける左上の周辺部に表示されている。なお、テキスト画像TX2が表示されず、カーオーディオの発する音量のみを小さくする態様であってもよい。そのため、この変形例では、自動車の外で何らかの異常があったときに、自動車の運転手にその異常を認識させやすく、運転手の利便性が向上する。   FIG. 11 shows a maximum image display area PN and a text image TX2 in which the acquired external sound is displayed as a character image in the maximum image display area PN. The driver is listening to music with the car audio installed in the car. The sound source of the external sound acquired by the microphone is an ambulance (not shown) estimated to be left front from the vehicle based on the sound volume acquired by the plurality of microphones. In this modification, when the external volume changes from the state where the external volume is lower than the volume threshold Nth to the volume threshold Nth or more by the sound emitted by the ambulance (“Peeper Paw” shown in FIG. 11), the sound for adjusting the volume of the car audio The processing unit 170 ′ decreases the volume of the music generated by the car audio. In the maximum image display area PN, the display control unit 190 displays a text image TX2 that is a character image representing a sound emitted by an ambulance. The text image TX2 is displayed in the upper left peripheral part in the maximum image display area PN. Note that the text image TX2 may not be displayed, and only the volume generated by the car audio may be reduced. Therefore, in this modified example, when there is some abnormality outside the automobile, it is easy for the driver of the automobile to recognize the abnormality, and the convenience of the driver is improved.

また、上記実施形態では、取得された外部音声を文字画像として表示できる画像表示部を備える態様であったが、画像表示部は必須の構成要件ではなく、音声処理装置の態様については種々変形可能である。例えば、音声処理装置は、音楽コンテンツを再生できる携帯型音楽再生装置であってもよい。携帯型音楽再生装置の使用者が密閉型のイヤホンによって音楽コンテンツの出力音声を視聴している場合に、携帯型音楽再生装置に形成されたマイクによって外部音声を取得して、外部音声の変化に基づいて出力音声の音量が設定されてもよい。   Moreover, in the said embodiment, although it was an aspect provided with the image display part which can display the acquired external audio | voice as a character image, an image display part is not an essential structural requirement, and can change variously about the aspect of an audio processing apparatus. It is. For example, the audio processing device may be a portable music playback device that can play music content. When a user of a portable music playback device views the output sound of music content with a sealed earphone, external sound is acquired by a microphone formed in the portable music playback device, and the change of the external sound Based on this, the volume of the output sound may be set.

また、上記実施形態では、取得した外部音声の変化に基づいて、音声処理部170は、出力音声を下げる調整を行なったが、出力音声を上げる調整を行なってもよい。例えば、使用者が出力音声および外部音声の両方を視聴できる場合に、外部音量と出力音量との差に基づいて、音声処理部170は、出力音量を上げる、または、出力音量を下げる調整を行なってもよい。この変形例では、外部音量と出力音量との差に基づいて、出力音量が調整されるため、使用者の意思を反映した音量で出力音声を使用者に視聴させることができ、利用者の利便性が向上する。   In the above embodiment, the audio processing unit 170 performs the adjustment for decreasing the output sound based on the acquired change in the external sound, but may perform the adjustment for increasing the output sound. For example, when the user can view both the output sound and the external sound, the sound processing unit 170 adjusts to increase or decrease the output sound volume based on the difference between the external sound volume and the output sound volume. May be. In this modification, since the output volume is adjusted based on the difference between the external volume and the output volume, the user can view the output sound at a volume that reflects the user's intention, which is convenient for the user. Improves.

C2.変形例2:
上記実施形態では、外部音声の変化に基づいて出力音声の音量が調整されたが、出力音量の調整については種々変形可能である。例えば、音声処理部170は、マイク62,64が取得した外部音声の音量を設定して、イヤホン32,34から出力音声として出力させてもよい。この変形例では、外部音声に含まれる警告音等の特定の音声が出力音声に対して小さい音量で検出された場合に、外部音量よりも大きい音量の出力音声として使用者に視聴させることができ、使用者の利便性が向上する。
C2. Modification 2:
In the above embodiment, the volume of the output sound is adjusted based on the change of the external sound. However, various modifications can be made to the adjustment of the output sound volume. For example, the sound processing unit 170 may set the volume of the external sound acquired by the microphones 62 and 64 and output it from the earphones 32 and 34 as output sound. In this modification, when a specific sound such as a warning sound included in the external sound is detected with a volume lower than the output sound, the user can view the output sound with a volume larger than the external volume. , User convenience is improved.

C3.変形例3:
また、上記実施形態では、表示制御部190は、最大画像表示領域PNにおけるテキスト画像TX1を表示する位置を、画像表示部20から外部音声の音源への方向に対応付けて設定したが、最大画像表示領域PNにテキスト画像TX1が表示される位置については種々変形可能である。例えば、頭部装着型表示装置100には、1つのマイクのみが配置されて、外部音声の音源の方向が特定されない態様であってもよい。また、外部音声の音源の方向が特定できても、表示制御部190は、最大画像表示領域PNにテキスト画像TX1を表示する位置を、外部音声の音源の方向にかかわらず設定してもよい。
C3. Modification 3:
In the above embodiment, the display control unit 190 sets the position for displaying the text image TX1 in the maximum image display area PN in association with the direction from the image display unit 20 to the external sound source. The position where the text image TX1 is displayed in the display area PN can be variously modified. For example, the head-mounted display device 100 may be configured such that only one microphone is arranged and the direction of the external sound source is not specified. Even if the direction of the external sound source can be specified, the display control unit 190 may set the position where the text image TX1 is displayed in the maximum image display area PN regardless of the direction of the external sound source.

また、最大画像表示領域PNに表示される文字画像の各文字の大きさおよび大きさの設定方法についても種々変形可能である。表示制御部190は、外部音量にかかわらず、予め定められた大きさで文字画像における各文字を最大画像表示領域PNに表示させてもよい。また、最大画像表示領域PNに表示される文字画像における各文字の大きさは、周波数、音の種類、使用者の頭部の動きの変化量、に基づいて設定されてもよい。また、文字の大きさのみにかかわらず、文字のフォントを変更してもよい。   Also, various changes can be made to the size of each character of the character image displayed in the maximum image display area PN and the method of setting the size. The display control unit 190 may display each character in the character image in the maximum image display area PN with a predetermined size regardless of the external volume. The size of each character in the character image displayed in the maximum image display area PN may be set based on the frequency, the type of sound, and the amount of change in the movement of the user's head. In addition, the font of the character may be changed regardless of the size of the character.

C4.変形例4:
上記実施形態では、最大画像表示領域PNに表示される外部音声を表す文字画像は、予め決められた態様で表示されるが、表示される文字画像の設定については種々変形可能である。使用者が出力音声を聞いている場合に、操作部135に所定の操作が行なわれることで、外部音声を表す文字画像は、操作が行なわれる前と異なる文字画像として表示されてもよい。
C4. Modification 4:
In the above embodiment, the character image representing the external sound displayed in the maximum image display area PN is displayed in a predetermined manner. However, the setting of the displayed character image can be variously modified. When the user is listening to the output sound, the character image representing the external sound may be displayed as a character image different from that before the operation is performed by performing a predetermined operation on the operation unit 135.

また、上記実施形態では、マイク62,64は、使用者が画像表示部20を装着した場合の両耳付近の位置に配置されたが、マイク62,64の配置および構造についてはこれに限られず、種々変形可能である。例えば、マイク62,64は、画像表示部20に対して向きを変更できるような機械的構造を備え、指向性を有するマイクであってもよい。音声処理部170は、画像表示部20から外部音声の音源への方向を推定できた場合に、マイク62,64の向きを変更することで、より詳しく外部音声を取得することができ、外部音声の変化を検出しやすくなる。   In the above embodiment, the microphones 62 and 64 are arranged at positions near both ears when the user wears the image display unit 20. However, the arrangement and structure of the microphones 62 and 64 are not limited thereto. Various modifications are possible. For example, the microphones 62 and 64 may be microphones having a mechanical structure that can change the orientation with respect to the image display unit 20 and having directivity. When the direction from the image display unit 20 to the sound source of the external sound can be estimated, the sound processing unit 170 can acquire the external sound in more detail by changing the direction of the microphones 62 and 64, and the external sound can be acquired. It becomes easy to detect the change of.

また、上記実施形態では、音声処理部170は、外部音声の周波数によって、外部音声の変化を検出するため、外部音声に含まれる特定の音声の検出については種々変形可能である。例えば、複数の人の声が含まれる外部音声であっても、音声処理部170は、一人一人の声を認識して、識別できてもよい。この場合に、予め定めた特定の一人の声を検出したときに、音声処理部170は、外部音量を調整する態様であってもよい。   In the above embodiment, the sound processing unit 170 detects a change in the external sound based on the frequency of the external sound. Therefore, the detection of a specific sound included in the external sound can be variously modified. For example, even if the voice is an external voice including a plurality of voices, the voice processing unit 170 may recognize and identify each voice. In this case, the sound processing unit 170 may be configured to adjust the external sound volume when a predetermined specific voice of one person is detected.

また、上記実施形態では、外部音声に含まれる特定の音声を検出して、出力音量の調整が行なわれたが、特定の言葉を検出して、出力音量の調整が行なわれてもよい。例えば、プライバシー保護の観点から、特定の言葉については、出力音量を上げたりすることで、特定の言葉が使用者に視聴できない態様であってもよい。また、個人名等の特定の言葉が予め登録されておくことで、登録された言葉については、音声が取得されても文字画像へと変換が行われない態様としてもよい。また、取得された外部音声を、外部音声を表す文字画像として変換する態様についても同様であり、特定の言葉については、文字画像として画像表示部20に表示されない態様であってもよい。   In the above embodiment, the specific sound included in the external sound is detected and the output sound volume is adjusted. However, the specific sound may be detected and the output sound volume may be adjusted. For example, from the viewpoint of privacy protection, a specific word may not be viewed by the user by increasing the output volume. In addition, by registering specific words such as personal names in advance, the registered words may not be converted into character images even when voice is acquired. The same applies to the aspect in which the acquired external sound is converted as a character image representing the external sound, and a specific word may not be displayed on the image display unit 20 as a character image.

C5.変形例5:
また、上記実施形態では、外部音声の変化に基づいて出力音声が制御されたが、外部音声に基づいて出力音声が制御されてもよい。例えば、外部音声が常にほとんど取得されない状態であり、外部音声の音量や周波数の変化がなくても、出力音声の音量を小さくする等の制御が行なわれてもよい。この変形例では、取得された外部音声が変化しなくても、出力音声が制御されるため、使用者は、適切な音量および周波数の出力音声を聞くことができる。
C5. Modification 5:
Moreover, in the said embodiment, although the output audio | voice was controlled based on the change of an external audio | voice, an output audio | voice may be controlled based on an external audio | voice. For example, it is in a state in which almost no external sound is always acquired, and control such as decreasing the volume of the output sound may be performed even if there is no change in the volume or frequency of the external sound. In this modified example, since the output sound is controlled even if the acquired external sound does not change, the user can listen to the output sound having an appropriate volume and frequency.

また、カメラ61が予め定められている人の声を取得した場合に、音声処理部170は、取得された人の声の周波数を変更して、イヤホン32,34の出力音声に変更した周波数の人の声を出力させると共に、周波数を変更した人の声以外の出力音量を小さくする態様であってもよい。この変形例では、人が聞き取りづらい周波数の声が取得された場合に、取得された声を視聴しやすくするため、使用者は、外部音声を認識しやすくなる。また、複数の音源から周波数が同じぐらいの外部音声が取得された場合に、いくつかの音源から取得される外部音声の周波数を変更して、周波数を変更した外部音声をイヤホン32,34から出力してもよい。一般に、人は、周波数の近い複数の音声を取得すると、周波数マスキングによって、周波数が低い音声が聞き取りづらい。そのため、この変形例では、周波数マスキングによる影響を抑制して、複数の音源から取得される音声を使用者に認識させやすい。   Further, when the camera 61 acquires a predetermined human voice, the audio processing unit 170 changes the frequency of the acquired human voice to the output voice of the earphones 32 and 34. A mode in which a human voice is output and an output volume other than the voice of the person whose frequency is changed may be reduced. In this modified example, when a voice having a frequency that is difficult for a person to hear is acquired, the user can easily recognize the external voice in order to easily view the acquired voice. Further, when external sounds having the same frequency are acquired from a plurality of sound sources, the frequencies of the external sounds acquired from several sound sources are changed, and the external sounds with the changed frequencies are output from the earphones 32 and 34. May be. In general, when a person acquires a plurality of sounds having frequencies close to each other, it is difficult to hear a sound having a low frequency due to frequency masking. Therefore, in this modification, it is easy to make the user recognize the sound acquired from a plurality of sound sources by suppressing the influence of frequency masking.

C6.変形例6:
上記第2実施形態では、頭部装着型表示装置100bが使用される環境の情報として、環境情報センサー67によって外部の温度が検出されたが、検出された環境の情報はこれに限られず、種々変形可能である。検出される環境の情報としては、例えば、湿度、磁気、空気中の成分、または、頭部装着型表示装置100bの濡れの程度であってもよい。湿度センサーによって湿度が測定されたり、磁気センサーによって磁気の強さ等が測定されてもよい。また、空気中の成分として、一酸化炭素計によって空気中の一酸化炭素が測定されてもよいし、濃度測定装置によって、大気中に含まれる微小粒子状物質(例えば、PM2.5)が測定されてもよい。また、使用者が画像表示部20bを装着した場合に、使用者に対向する向きとは逆向き(以下、単に「外向き」とも呼ぶ)に水滴を検出するセンサーを形成することで、画像表示部20bにおける液体の付着が検出されてもよい。水滴を検出するセンサーは、画像表示部20bの外向きに赤外線を発光し、水滴の有無によって変化する反射光を検出することで、水滴の有無を検出できる。この変形例の頭部装着型表示装置100bでは、頭部装着型表示装置100bの外部の環境の変化に基づいて、使用者に忠告等を行なうことができ、例えば、環境の危険な状況を迅速かつわかりやすく使用者に認識させることができる。
C6. Modification 6:
In the second embodiment, the external temperature is detected by the environmental information sensor 67 as the environmental information in which the head-mounted display device 100b is used. However, the detected environmental information is not limited to this, and various information is available. It can be deformed. The detected environment information may be, for example, humidity, magnetism, components in the air, or the degree of wetting of the head-mounted display device 100b. Humidity may be measured by a humidity sensor, or magnetic strength may be measured by a magnetic sensor. Further, as a component in the air, carbon monoxide in the air may be measured with a carbon monoxide meter, or a minute particulate matter (for example, PM2.5) contained in the atmosphere is measured with a concentration measuring device. May be. Further, when the user wears the image display unit 20b, an image display is formed by forming a sensor that detects water droplets in a direction opposite to the direction facing the user (hereinafter, also simply referred to as “outward”). The adhesion of the liquid in the part 20b may be detected. The sensor that detects water droplets can detect the presence or absence of water droplets by emitting infrared rays outward from the image display unit 20b and detecting reflected light that varies depending on the presence or absence of water droplets. In the head-mounted display device 100b according to this modification, it is possible to give advice to the user based on a change in the environment outside the head-mounted display device 100b. In addition, it is possible to make the user recognize in an easy-to-understand manner.

また、環境情報センサー67は、環境の情報として、特定の波長の光を検出してもよい。紫外線強度計によって、波長域が200ナノメートル(nm)から440nmまでの紫外線が検出されて、使用者に対して日焼け等に対する忠告が行なわれてもよい。また、放射線検出器によって、所定の閾値以上のセシウム(Cs)が検出された場合に、使用者に放射線に関する忠告が行なわれてもよい。   The environment information sensor 67 may detect light of a specific wavelength as environment information. The ultraviolet ray intensity meter may detect ultraviolet rays having a wavelength range of 200 nanometers (nm) to 440 nm, and the user may be advised of sunburn or the like. Further, when cesium (Cs) equal to or higher than a predetermined threshold is detected by the radiation detector, a user may be advised regarding radiation.

また、頭部装着型表示装置100における制御部10自体や画像表示部20自体の変化によって、使用者に忠告等が行なわれてもよい。例えば、画像表示部20における9軸センサー66が予め定められた閾値以上の加速度を検出した場合に、制御部10が音声や画像によって使用者に忠告等を行なってもよい。この変形例の頭部装着型表示装置100では、頭部装着型表示装置100が使用される環境の変化とは異なる使用者自身の状況の変化に応じて、使用者に忠告等を行なうことができ、使用者の利便性が向上する。   Further, advice or the like may be given to the user by changing the control unit 10 or the image display unit 20 itself in the head-mounted display device 100. For example, when the 9-axis sensor 66 in the image display unit 20 detects an acceleration equal to or higher than a predetermined threshold, the control unit 10 may give advice or the like to the user by voice or an image. In the head-mounted display device 100 of this modification, advice or the like can be given to the user according to a change in the user's own situation that is different from a change in the environment in which the head-mounted display device 100 is used. This improves user convenience.

また、画像表示部20または制御部10に形成されたセンサーによって使用者の体温や血圧といった生体情報が検出されて、検出された生体情報に応じて使用者に忠告等が行なわれてもよい。例えば、この変形例では、画像表示部20が使用者の頭部に装着された場合に、画像表示部20における右表示駆動部22または左表示駆動部24が使用者のこめかみと接触する部分に使用者の血圧を検出する圧電式の血圧センサーが形成されている。検出された使用者の血圧が、予め記憶部120に記憶された血圧の下限値以上上限値以下であった場合に、使用者に対して、「血圧値が以上です。病院に行ってください。」といった忠告が行なわれてもよい。また、血圧センサーは、圧電式に限られず、使用者の血液に対して、LEDで発光した反射光を検出するセンサーであってもよい。また、検出される使用者の生体情報は、血圧に限られず、種々変形可能である。例えば、使用者の呼吸の速度や体温であってもよい。また、使用者のまぶたの開閉を検出する赤外線センサーや、使用者の眼の周辺を撮像する眼撮像カメラによって、単位時間当たりの使用者のまぶたの回数が減ってきている場合には、使用者の対庁に異常があると判断されて、当該異常に対する忠告が使用者に行なわれてもよい。   In addition, biological information such as a user's body temperature and blood pressure may be detected by a sensor formed in the image display unit 20 or the control unit 10, and advice or the like may be given to the user according to the detected biological information. For example, in this modified example, when the image display unit 20 is mounted on the user's head, the right display driving unit 22 or the left display driving unit 24 in the image display unit 20 is in contact with the user's temple. A piezoelectric blood pressure sensor for detecting the blood pressure of the user is formed. When the detected user's blood pressure is greater than or equal to the lower limit value of the blood pressure stored in the storage unit 120 in advance and less than or equal to the upper limit value, the user is told, “The blood pressure value is over. Please go to the hospital. "You may be advised." The blood pressure sensor is not limited to the piezoelectric type, and may be a sensor that detects reflected light emitted from the LED with respect to the blood of the user. Further, the detected biological information of the user is not limited to blood pressure, and can be variously modified. For example, it may be a user's breathing speed or body temperature. Also, if the number of eyelids per unit time is decreasing due to infrared sensors that detect the opening and closing of the user's eyelids and eye imaging cameras that capture the periphery of the user's eyes, the user It may be determined that there is an abnormality in the agency, and advice to the abnormality may be given to the user.

また、上記第2実施形態では、図10に示すように、外部の温度が予め設定された条件に該当する場合に、テキスト画像TX11の忠告の表示および忠告の音声の出力が行なわれたが、使用者に認識させるための頭部装着型表示装置100bの制御に関する情報はこれに限られず、種々変形可能である。例えば、操作部135が誤操作を受け付けた場合には、「正しい操作が行なわれていません」や「操作部135に不具合が発生するおそれがあります」等の情報を使用者に認識させてもよい。また、9軸センサー66が画像表示部20において閾値以上の加速度を検出した場合には、「破損のおそれがあります」や「コネクターがはずれているおそれがあります」等の情報を使用者に認識させてもよい。また、定期的な揺れが検出された場合には、地震の発生を促す情報を使用者に認識させてもよい。また、画像表示部20に一定以上の水滴の付着が検出された場合には、画像表示部20が発熱したりするおそれがあるため、画像表示部20をはずすことを示唆する情報を使用者に認識させてもよい。   Further, in the second embodiment, as shown in FIG. 10, when the external temperature meets the preset condition, the advice of the text image TX11 is displayed and the voice of the advice is output. Information relating to the control of the head-mounted display device 100b for the user to recognize is not limited thereto, and can be variously modified. For example, when the operation unit 135 accepts an erroneous operation, the user may be allowed to recognize information such as “the correct operation is not performed” or “the operation unit 135 may be defective”. . Also, if the 9-axis sensor 66 detects an acceleration exceeding the threshold value in the image display unit 20, the user is made to recognize information such as “there is a possibility of breakage” or “the connector may be disconnected”. May be. In addition, when periodic shaking is detected, the user may be allowed to recognize information that prompts the occurrence of an earthquake. In addition, when it is detected that a certain amount or more of water droplets are attached to the image display unit 20, the image display unit 20 may generate heat. Therefore, information indicating that the image display unit 20 should be removed is given to the user. It may be recognized.

C7.変形例7:
図12は、変形例における頭部装着型表示装置の外観構成を示す説明図である。図12(A)の例の場合、図1に示した頭部装着型表示装置100との違いは、画像表示部20cが、右光学像表示部26に代えて右光学像表示部26cを備える点と、左光学像表示部28に代えて左光学像表示部28cを備える点である。右光学像表示部26cは、上記実施形態の光学部材よりも小さく形成され、頭部装着型表示装置100cの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28cは、上記実施形態の光学部材よりも小さく形成され、頭部装着型表示装置100cの装着時における使用者の左眼の斜め上に配置されている。図12(B)の例の場合、図1に示した頭部装着型表示装置100との違いは、画像表示部20dが、右光学像表示部26に代えて右光学像表示部26dを備える点と、左光学像表示部28に代えて左光学像表示部28dを備える点である。右光学像表示部26dは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28dは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様の頭部装着型表示装置100として実現できる。
C7. Modification 7:
FIG. 12 is an explanatory diagram showing an external configuration of a head-mounted display device in a modified example. In the case of the example of FIG. 12A, the difference from the head-mounted display device 100 shown in FIG. 1 is that the image display unit 20c includes a right optical image display unit 26c instead of the right optical image display unit 26. And a point provided with a left optical image display unit 28 c instead of the left optical image display unit 28. The right optical image display unit 26c is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely above the right eye of the user when the head-mounted display device 100c is worn. Similarly, the left optical image display unit 28c is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely above the left eye of the user when the head-mounted display device 100c is worn. In the example of FIG. 12B, the difference from the head-mounted display device 100 shown in FIG. 1 is that the image display unit 20d includes a right optical image display unit 26d instead of the right optical image display unit 26. And a point provided with a left optical image display unit 28d instead of the left optical image display unit 28. The right optical image display unit 26d is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely below the right eye of the user when the head mounted display is mounted. The left optical image display unit 28d is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely below the left eye of the user when the head mounted display is mounted. Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit completely covers the user's eye. This can be realized as a head-mounted display device 100 in an uncovered form.

C8.変形例8:
また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部を採用してもよい。また、上記実施形態では、画像光を生成する構成として、LCDと光源とを利用しているが、これらに代えて、有機ELディスプレイといった他の表示素子を採用してもよい。また、上記実施形態では、使用者の頭の動きを検出するセンサーとして9軸センサー66を利用しているが、これに代えて、加速度センサー、角速度センサー、地磁気センサーのうちの1つまたは2つから構成されたセンサーを利用するとしてもよい。また、上記実施形態では、頭部装着型表示装置100は、両眼タイプの光学透過型であるとしているが、本発明は、例えばビデオ透過型や単眼タイプといった他の形式の頭部装着型表示装置にも同様に適用可能である。
C8. Modification 8:
As the image display unit, instead of the image display unit 20 worn like glasses, another type of image display unit such as an image display unit worn like a hat may be adopted. Moreover, in the said embodiment, although LCD and a light source are utilized as a structure which produces | generates image light, it replaces with these and you may employ | adopt other display elements, such as an organic EL display. In the above embodiment, the 9-axis sensor 66 is used as a sensor for detecting the movement of the user's head. Instead, one or two of an acceleration sensor, an angular velocity sensor, and a geomagnetic sensor are used. You may use the sensor comprised from. In the above embodiment, the head-mounted display device 100 is a binocular optical transmission type. However, the present invention can be applied to other types of head-mounted display such as a video transmission type and a monocular type. The same applies to the apparatus.

また、上記実施形態において、頭部装着型表示装置100は、使用者の左右の眼に同じ画像を表す画像光を導いて使用者に二次元画像を視認させるとしてもよいし、使用者の左右の眼に異なる画像を表す画像光を導いて使用者に三次元画像を視認させるとしてもよい。   In the above embodiment, the head-mounted display device 100 may guide image light representing the same image to the left and right eyes of the user so that the user can visually recognize the two-dimensional image. It is also possible to guide the user to visually recognize a three-dimensional image by guiding image light representing a different image to his eyes.

また、上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、上記実施形態では、画像処理部160や音声処理部170は、CPU140がコンピュータープログラムを読み出して実行することにより実現されるとしているが、これらの機能部はハードウェア回路により実現されるとしてもよい。   In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. For example, in the above-described embodiment, the image processing unit 160 and the sound processing unit 170 are realized by the CPU 140 reading and executing a computer program, but these functional units may be realized by a hardware circuit. Good.

また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。   In addition, when part or all of the functions of the present invention are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, a hard disk, etc. It also includes an external storage device fixed to the computer.

また、上記実施形態では、図1および図2に示すように、制御部10と画像表示部20とが別々の構成として形成されているが、制御部10と画像表示部20との構成については、これに限られず、種々変形可能である。例えば、画像表示部20の内部に、制御部10に形成された構成の全てが形成されてもよいし、一部が形成されてもよい。また、制御部10に形成された構成の内、操作部135のみが単独のユーザーインターフェース(UI)として形成されてもよいし、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよい。また、制御部10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示すCPU140が制御部10と画像表示部20との両方に形成されていてもよいし、制御部10に形成されたCPU140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。   Moreover, in the said embodiment, as shown in FIG. 1 and FIG. 2, the control part 10 and the image display part 20 are formed as a separate structure, However, about the structure of the control part 10 and the image display part 20, about. However, the present invention is not limited to this, and various modifications are possible. For example, all of the components formed in the control unit 10 may be formed inside the image display unit 20 or a part thereof may be formed. Further, among the configurations formed in the control unit 10, only the operation unit 135 may be formed as a single user interface (UI), or the power source 130 in the above embodiment is formed independently and can be replaced. It may be. Further, the configuration formed in the control unit 10 may be formed in the image display unit 20 in an overlapping manner. For example, the CPU 140 shown in FIG. 2 may be formed in both the control unit 10 and the image display unit 20, or a function performed by the CPU 140 formed in the control unit 10 and the CPU formed in the image display unit 20. May be configured separately.

また、上記実施形態では、音声処理部170および変換部185は、制御部10に形成されたが、他の装置として単独に構成された音声処理システムによって、本発明を実現することも可能である。例えば、出力音声の制御や音声処理は、無線通信回線を介してクラウドコンピューティング、サーバーやホストコンピューター、スマートフォン、によって行なわれてもよい。   In the above embodiment, the voice processing unit 170 and the conversion unit 185 are formed in the control unit 10, but the present invention can also be realized by a voice processing system configured independently as another device. . For example, output audio control and audio processing may be performed by cloud computing, a server, a host computer, or a smartphone via a wireless communication line.

また、上記実施形態では、マイク62,64が画像表示部20に配置され、イヤホン32,34が制御部10に接続される態様としたが、マイク62,64およびイヤホン32,34の配置については、種々変形可能である。例えば、イヤホン32,34は、頭部に装着する頭部装着型音声処理装置のように、頭部装着型表示装置100に接続されてもよい。また、音出力装置として、イヤホン32,34ではなく、スピーカーが用いられてもよい。また、マイク62,64についても、画像表示部20に配置されずに、例えば、施設の特定の位置に備え付けられた音取得装置であってもよい。また、音出力装置は、頭部に装着される、例えば、補聴器であってもよい。この変形例では、使用者の頭部に装着されるため、使用者の耳から音出力装置が外れにくく、安定的に出力音声を使用者に視聴させることができる。   In the above embodiment, the microphones 62 and 64 are arranged on the image display unit 20 and the earphones 32 and 34 are connected to the control unit 10. However, the arrangement of the microphones 62 and 64 and the earphones 32 and 34 is described. Various modifications are possible. For example, the earphones 32 and 34 may be connected to the head-mounted display device 100 like a head-mounted audio processing device mounted on the head. Further, as the sound output device, a speaker may be used instead of the earphones 32 and 34. Also, the microphones 62 and 64 may be sound acquisition devices provided at specific locations in the facility without being arranged in the image display unit 20. The sound output device may be a hearing aid, for example, attached to the head. In this modification, since it is mounted on the user's head, the sound output device is unlikely to come off from the user's ear, and the user can stably view the output sound.

C9.変形例9:
例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えて、LCOS(Liquid crystal on silicon, LCoS は登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。レーザー網膜投影型の場合、「画像形成可能領域」とは、使用者の眼に認識される画像領域として定義することができる。
C9. Modification 9:
For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image generation unit may use LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like instead of the LCD. Further, for example, the present invention can be applied to a laser retinal projection type head mounted display. In the case of the laser retinal projection type, the “image formable region” can be defined as an image region recognized by the user's eyes.

また、例えば、ヘッドマウントディスプレイは、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとしてもよい。また、ヘッドマウントディスプレイは、いわゆる単眼タイプのヘッドマウントディスプレイであるとしてもよい。   Further, for example, the head-mounted display may be a head-mounted display in which the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit does not completely cover the user's eye. Good. The head mounted display may be a so-called monocular type head mounted display.

また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。   Further, the earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet.

本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present invention is not limited to the above-described embodiments and modifications, and can be realized with various configurations without departing from the spirit of the present invention. For example, the technical features in the embodiments and the modifications corresponding to the technical features in each form described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン(音出力部)
34…左イヤホン(音出力部)
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ
62…右マイク(情報取得部)
64…左マイク(情報取得部)
66…9軸センサー(動き検出部、情報取得部)
67…環境情報センサー(情報取得部)
100…頭部装着型表示装置
110…入力情報取得部
120…記憶部
130…電源
135…操作部(情報取得部)
140…CPU
150…オペレーティングシステム
160…画像処理部
161…方向判定部(動き検出部、制御部)
162…環境情報判定部(制御部)
163…誤操作判定部(制御部)
170…音声処理部(制御部、解析部、特定音検出部、音源方向推定部)
180…インターフェイス
185…変換部
190…表示制御部(制御部)
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
Nout…音量の推移
t1,t2…時刻
T1,T2…期間
N1,N2…音量(外部音の音量)
Nth…音量閾値(第1の閾値)
fT1,fT2…周波数スペクトル
fth…周波数の帯域
TX1,TX11,TX2…テキスト画像(文字画像)
OA…外部機器
WB…ホワイトボード
RE…右眼
LE…左眼
SC…外景
IL…照明光
PL…画像光
PN…最大画像表示領域(画像形成可能領域)
AP…先端部
SP…スピーカー
VR…視野
DESCRIPTION OF SYMBOLS 10 ... Control part 11 ... Decision key 12 ... Illumination part 13 ... Display switching key 14 ... Trackpad 15 ... Luminance switching key 16 ... Direction key 17 ... Menu key 18 ... Power switch 20 ... Image display part 21 ... Right holding part 22 ... Right display drive unit 23 ... Left holding unit 24 ... Left display drive unit 26 ... Right optical image display unit 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone (sound output unit)
34 ... Left earphone (sound output part)
DESCRIPTION OF SYMBOLS 40 ... Connection part 42 ... Right code 44 ... Left code 46 ... Connecting member 48 ... Main body code 51 ... Transmission part 52 ... Transmission part 53 ... Reception part 54 ... Reception part 61 ... Camera 62 ... Right microphone (information acquisition part)
64 ... Left microphone (information acquisition unit)
66 ... 9-axis sensor (motion detection unit, information acquisition unit)
67 ... Environmental information sensor (information acquisition unit)
DESCRIPTION OF SYMBOLS 100 ... Head-mounted display apparatus 110 ... Input information acquisition part 120 ... Memory | storage part 130 ... Power supply 135 ... Operation part (information acquisition part)
140 ... CPU
DESCRIPTION OF SYMBOLS 150 ... Operating system 160 ... Image processing part 161 ... Direction determination part (motion detection part, control part)
162... Environmental information determination unit (control unit)
163 ... erroneous operation determination unit (control unit)
170 ... voice processing unit (control unit, analysis unit, specific sound detection unit, sound source direction estimation unit)
180 ... interface 185 ... conversion unit 190 ... display control unit (control unit)
201 ... Right backlight control unit 202 ... Left backlight control unit 211 ... Right LCD control unit 212 ... Left LCD control unit 221 ... Right backlight 222 ... Left backlight 241 ... Right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate Nout ... Transition of volume t1, t2 ... Time T1, T2 ... Period N1, N2 ... Volume (volume of external sound)
Nth ... Volume threshold (first threshold)
fT1, fT2 ... frequency spectrum fth ... frequency band TX1, TX11, TX2 ... text image (character image)
OA ... External device WB ... White board RE ... Right eye LE ... Left eye SC ... Outside view IL ... Illumination light PL ... Image light PN ... Maximum image display area (image formable area)
AP ... tip SP ... speaker VR ... field of view

Claims (19)

情報処理装置であって、
前記情報処理装置が使用される環境における特定の情報と、前記情報処理装置を使用する使用者の生体情報と、前記情報処理装置を制御するための制御情報と、の内の少なくとも1つを取得する情報取得部と、
取得された前記特定の情報と前記生体情報と前記制御情報との少なくとも1つに基づいて前記情報処理装置を制御する制御部と、を備える、情報処理装置。
An information processing apparatus,
Acquire at least one of specific information in an environment in which the information processing device is used, biological information of a user who uses the information processing device, and control information for controlling the information processing device An information acquisition unit to
An information processing apparatus comprising: a control unit that controls the information processing apparatus based on at least one of the acquired specific information, the biological information, and the control information.
請求項1に記載の情報処理装置であって、さらに、
音を出力する音出力部を備え、
前記制御部は、前記音出力部が出力する出力音を制御する、情報処理装置。
The information processing apparatus according to claim 1, further comprising:
It has a sound output unit that outputs sound,
The information processing apparatus, wherein the control unit controls an output sound output from the sound output unit.
請求項2に記載の情報処理装置であって、
前記情報取得部は、前記特定の情報として、前記出力音とは異なる外部の音である外部音を取得し、
前記制御部は、前記外部音に基づいて、前記出力音を制御する、情報処理装置。
An information processing apparatus according to claim 2,
The information acquisition unit acquires an external sound that is an external sound different from the output sound as the specific information,
The information processing apparatus, wherein the control unit controls the output sound based on the external sound.
請求項3に記載の情報処理装置であって、さらに、
画像データに基づいて画像を表す画像光を形成し、使用者に前記画像光を視認させると共に、外景を透過させる画像表示部と、
前記外部音を文字として表した文字画像に変換する変換部と、を備え、
前記制御部は、前記画像表示部に対して、前記文字画像を表す前記画像光である文字画像光を形成させる、情報処理装置。
The information processing apparatus according to claim 3, further comprising:
Forming an image light representing an image based on the image data, allowing the user to visually recognize the image light, and transmitting an outside scene;
A conversion unit that converts the external sound into a character image represented as a character,
The control unit causes the image display unit to form character image light that is the image light representing the character image.
請求項4に記載の情報処理装置であって、
前記制御部は、前記外部音に基づいて、前記画像表示部が使用者に視認させる前記文字画像光の大きさを設定する、情報処理装置。
The information processing apparatus according to claim 4,
The information processing apparatus, wherein the control unit sets a size of the character image light that the image display unit causes a user to visually recognize based on the external sound.
請求項4または請求項5に記載の情報処理装置であって、
前記制御部は、前記画像表示部に対して、前記画像表示部が前記画像光を形成可能な領域である画像形成可能領域における中心部分を除く部分に前記文字画像光を形成させる、情報処理装置。
An information processing apparatus according to claim 4 or claim 5, wherein
The control unit causes the image display unit to form the character image light in a portion excluding a central portion in an image formable region that is a region where the image display unit can form the image light. .
請求項4から請求項6までのいずれか一項に記載の情報処理装置であって、
配置される位置が異なる複数の前記情報取得部を有し、
前記情報処理装置は、さらに、
一の前記情報取得部が取得した前記外部音の音量と、他の前記情報取得部が取得した前記外部音の音量と、に基づいて、前記画像表示部から前記外部音の音源への方向である音源方向を推定する音源方向推定部を備え、
前記制御部は、前記画像表示部に対して、前記画像表示部が前記画像光を形成可能な領域である画像形成可能領域における前記文字画像光を、前記音源方向に対応づけて形成させる、情報処理装置。
An information processing apparatus according to any one of claims 4 to 6,
A plurality of the information acquisition units at different positions;
The information processing apparatus further includes:
Based on the volume of the external sound acquired by one information acquisition unit and the volume of the external sound acquired by another information acquisition unit, in the direction from the image display unit to the sound source of the external sound. A sound source direction estimation unit for estimating a sound source direction;
The control unit causes the image display unit to form the character image light in an image formable region, which is a region where the image display unit can form the image light, in association with the sound source direction. Processing equipment.
請求項4から請求項7までのいずれか一項に記載の情報処理装置であって、
前記制御部は、前記外部音の音量を測定し、測定した前記外部音の音量が第1の閾値未満から前記第1の閾値以上へと変化した場合に、前記出力音の音量を小さくする、情報処理装置。
An information processing apparatus according to any one of claims 4 to 7,
The control unit measures the volume of the external sound, and reduces the volume of the output sound when the measured volume of the external sound changes from less than a first threshold to more than the first threshold; Information processing device.
請求項4から請求項8までのいずれか一項に記載の情報処理装置であって、さらに、
前記外部音に含まれる特定の音を検出する特定音検出部を備え、
前記制御部は、前記特定音検出部が検出した前記特定の音に基づいて前記出力音を制御する、情報処理装置。
The information processing apparatus according to any one of claims 4 to 8, further comprising:
A specific sound detection unit for detecting a specific sound included in the external sound;
The information processing apparatus, wherein the control unit controls the output sound based on the specific sound detected by the specific sound detection unit.
請求項4から請求項9までのいずれか一項に記載の情報処理装置であって、さらに、
使用者の頭部の動きの変化を検出する動き検出部を備え、
前記制御部は、前記動き検出部が検出した使用者の頭部の動きの変化に基づいて、前記出力音を制御する、情報処理装置。
The information processing apparatus according to any one of claims 4 to 9, further comprising:
It has a motion detector that detects changes in the movement of the user's head,
The said control part is an information processing apparatus which controls the said output sound based on the change of the motion of the user's head which the said motion detection part detected.
請求項4から請求項10までのいずれか一項に記載の情報処理装置であって、
前記制御部は、前記音出力部に対し、前記外部音の変化に基づいて、前記外部音の音量を設定した音を前記出力音として出力させる、情報処理装置。
An information processing apparatus according to any one of claims 4 to 10,
The control unit causes the sound output unit to output, as the output sound, a sound in which a volume of the external sound is set based on a change in the external sound.
請求項4から請求項11までのいずれか一項に記載の情報処理装置であって、
前記制御部は、前記情報取得部が特定の人の声を取得した場合には、取得された前記特定の人の声の周波数を変更し、前記音出力部に対し、周波数を変更した前記特定の人の声を出力すると共に、前記特定の人の声以外の音の音量を小さくする、情報処理装置。
An information processing apparatus according to any one of claims 4 to 11,
When the information acquisition unit acquires a voice of a specific person, the control unit changes the frequency of the acquired voice of the specific person and changes the frequency to the sound output unit An information processing apparatus that outputs a voice of a person and reduces the volume of sound other than the voice of the specific person.
請求項2から請求項12までのいずれか一項に記載の情報処理装置であって、
前記音出力部は、使用者の頭部に装着された状態において、前記出力音を使用者に視聴させる、情報処理装置。
An information processing apparatus according to any one of claims 2 to 12,
The sound output unit is an information processing apparatus that allows a user to view the output sound in a state of being mounted on a user's head.
請求項1または請求項2に記載の情報処理装置であって、
前記特定の情報は、温度と湿度と磁気と空気中の成分と前記情報処理装置における液体の付着との内の少なくとも1つと関連する情報である、情報処理装置。
The information processing apparatus according to claim 1 or 2,
The specific information is information processing apparatus that is information related to at least one of temperature, humidity, magnetism, a component in air, and adhesion of liquid in the information processing apparatus.
請求項1または請求項2に記載の情報処理装置であって、さらに、
前記制御情報として、所定の操作を受け付ける操作部を備え、
前記制御部は、前記操作部が受け付けた前記所定の操作とは異なる操作を受け付けた場合に前記情報処理装置を制御する、情報処理装置。
The information processing apparatus according to claim 1, further comprising:
As the control information, an operation unit that receives a predetermined operation is provided,
The information processing apparatus, wherein the control unit controls the information processing apparatus when an operation different from the predetermined operation received by the operation unit is received.
請求項1または請求項2に記載の情報処理装置であって、
前記情報取得部は、前記情報処理装置の加速度を取得し、
前記特定の情報は、前記情報処理装置における閾値以上の加速度である、情報処理装置。
The information processing apparatus according to claim 1 or 2,
The information acquisition unit acquires acceleration of the information processing device,
The information processing apparatus, wherein the specific information is an acceleration equal to or higher than a threshold in the information processing apparatus.
請求項14から請求項16までのいずれか一項に記載の情報処理装置であって、
前記制御部は、前記情報処理装置の使用者に、前記情報処理装置の使用を制限する情報を報知する制御を行なう、情報処理装置。
An information processing apparatus according to any one of claims 14 to 16, comprising:
The said control part is information processing apparatus which performs control which alert | reports the information which restrict | limits use of the said information processing apparatus to the user of the said information processing apparatus.
請求項14から請求項17までのいずれか一項に記載の情報処理装置であって、さらに、
画像データに基づいて画像を表す画像光を形成し、使用者に前記画像光を視認させると共に、外景を透過させる画像表示部と、
前記設定情報を文字として表した文字画像に変換する変換部と、を備え、
前記制御部は、前記画像表示部に、前記文字画像を表す前記画像光である文字画像光を形成させる、情報処理装置。
The information processing apparatus according to any one of claims 14 to 17, further comprising:
Forming an image light representing an image based on the image data, allowing the user to visually recognize the image light, and transmitting an outside scene;
A conversion unit that converts the setting information into a character image represented as characters,
The information processing apparatus, wherein the control unit causes the image display unit to form character image light that is the image light representing the character image.
情報処理装置が使用される環境における特定の情報と、前記情報処理装置を使用する使用者の生体情報と、前記情報処理装置を制御するための制御情報と、の内の少なくとも1つを取得する、情報処理装置の制御方法であって、
取得された前記特定の情報と前記生体情報と前記制御情報との少なくとも1つに基づいて前記情報処理装置を制御する工程を備える、方法。
Acquire at least one of specific information in an environment where the information processing device is used, biological information of a user who uses the information processing device, and control information for controlling the information processing device. An information processing apparatus control method,
A method comprising the step of controlling the information processing device based on at least one of the acquired specific information, the biological information, and the control information.
JP2013228187A 2013-02-15 2013-11-01 Information processor and control method for information processor Withdrawn JP2015087695A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013228187A JP2015087695A (en) 2013-11-01 2013-11-01 Information processor and control method for information processor
US14/174,104 US9880615B2 (en) 2013-02-15 2014-02-06 Information processing device and control method for information processing device
CN201410048852.8A CN103995685A (en) 2013-02-15 2014-02-12 Information processing device and control method for information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013228187A JP2015087695A (en) 2013-11-01 2013-11-01 Information processor and control method for information processor

Publications (1)

Publication Number Publication Date
JP2015087695A true JP2015087695A (en) 2015-05-07

Family

ID=53050511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013228187A Withdrawn JP2015087695A (en) 2013-02-15 2013-11-01 Information processor and control method for information processor

Country Status (1)

Country Link
JP (1) JP2015087695A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185077A (en) * 2018-03-31 2019-10-24 Nl技研株式会社 Recognition support system, recognition support apparatus and recognition support server
JP2020501275A (en) * 2016-12-09 2020-01-16 株式会社ソニー・インタラクティブエンタテインメント Image processing system and method
JP2021026098A (en) * 2019-08-02 2021-02-22 株式会社三菱ケミカルホールディングス Communication support device
WO2024128282A1 (en) * 2022-12-15 2024-06-20 ダイキン工業株式会社 Method and device for information transmission and electronic machine

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1155614A (en) * 1997-08-04 1999-02-26 Casio Comput Co Ltd Speech recognition image processing unit
JPH11308062A (en) * 1998-04-17 1999-11-05 Nec Corp Automatic volume adjusting device for sound output device
JP2002288294A (en) * 2001-03-26 2002-10-04 Mitsubishi Heavy Ind Ltd Site-supporting system
JP2003265436A (en) * 2002-03-18 2003-09-24 Hitachi Medical Corp Magnetic resonance imaging apparatus and safety system for magnetic resonance imaging apparatus
JP2005086328A (en) * 2003-09-05 2005-03-31 Fuji Photo Film Co Ltd Head mount display, and content reproduction method therefor
JP2008099834A (en) * 2006-10-18 2008-05-01 Sony Corp Display device and display method
JP2008167319A (en) * 2006-12-28 2008-07-17 Yamaha Corp Headphone system, headphone drive controlling device, and headphone
JP2009300915A (en) * 2008-06-17 2009-12-24 Fujitsu Ltd Mobile terminal with music playback function
JP2010035036A (en) * 2008-07-30 2010-02-12 Kyocera Corp Mobile electronic device
JP2010197153A (en) * 2009-02-24 2010-09-09 Konica Minolta Holdings Inc Work support device and work support system
JP2011150191A (en) * 2010-01-22 2011-08-04 Nec Personal Products Co Ltd Device and method for speech change, program and recording medium
JP2012128648A (en) * 2010-12-15 2012-07-05 Toshiba Corp Operation support display device and operation support display method
JP2012257076A (en) * 2011-06-09 2012-12-27 Sony Corp Sound controller, program, and control method
WO2013074234A1 (en) * 2011-11-14 2013-05-23 Google Inc. Displaying sound indications on a wearable computing system

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1155614A (en) * 1997-08-04 1999-02-26 Casio Comput Co Ltd Speech recognition image processing unit
JPH11308062A (en) * 1998-04-17 1999-11-05 Nec Corp Automatic volume adjusting device for sound output device
JP2002288294A (en) * 2001-03-26 2002-10-04 Mitsubishi Heavy Ind Ltd Site-supporting system
JP2003265436A (en) * 2002-03-18 2003-09-24 Hitachi Medical Corp Magnetic resonance imaging apparatus and safety system for magnetic resonance imaging apparatus
JP2005086328A (en) * 2003-09-05 2005-03-31 Fuji Photo Film Co Ltd Head mount display, and content reproduction method therefor
JP2008099834A (en) * 2006-10-18 2008-05-01 Sony Corp Display device and display method
JP2008167319A (en) * 2006-12-28 2008-07-17 Yamaha Corp Headphone system, headphone drive controlling device, and headphone
JP2009300915A (en) * 2008-06-17 2009-12-24 Fujitsu Ltd Mobile terminal with music playback function
JP2010035036A (en) * 2008-07-30 2010-02-12 Kyocera Corp Mobile electronic device
JP2010197153A (en) * 2009-02-24 2010-09-09 Konica Minolta Holdings Inc Work support device and work support system
JP2011150191A (en) * 2010-01-22 2011-08-04 Nec Personal Products Co Ltd Device and method for speech change, program and recording medium
JP2012128648A (en) * 2010-12-15 2012-07-05 Toshiba Corp Operation support display device and operation support display method
JP2012257076A (en) * 2011-06-09 2012-12-27 Sony Corp Sound controller, program, and control method
WO2013074234A1 (en) * 2011-11-14 2013-05-23 Google Inc. Displaying sound indications on a wearable computing system
JP2015510283A (en) * 2011-11-14 2015-04-02 グーグル・インク Display of sound status on wearable computer system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020501275A (en) * 2016-12-09 2020-01-16 株式会社ソニー・インタラクティブエンタテインメント Image processing system and method
JP2019185077A (en) * 2018-03-31 2019-10-24 Nl技研株式会社 Recognition support system, recognition support apparatus and recognition support server
JP2021026098A (en) * 2019-08-02 2021-02-22 株式会社三菱ケミカルホールディングス Communication support device
WO2024128282A1 (en) * 2022-12-15 2024-06-20 ダイキン工業株式会社 Method and device for information transmission and electronic machine

Similar Documents

Publication Publication Date Title
US9542958B2 (en) Display device, head-mount type display device, method of controlling display device, and method of controlling head-mount type display device
JP6155622B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
US9880615B2 (en) Information processing device and control method for information processing device
US9779758B2 (en) Augmenting speech segmentation and recognition using head-mounted vibration and/or motion sensors
US9898868B2 (en) Display device, method of controlling the same, and program
JP6237000B2 (en) Head-mounted display device
EP3029550B1 (en) Virtual reality system
US9613592B2 (en) Head mounted display device and control method for head mounted display device
US9411160B2 (en) Head mounted display, control method for head mounted display, and image display system
JP6337433B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6066037B2 (en) Head-mounted display device
JP6344125B2 (en) Display device, display device control method, and program
JP5958689B2 (en) Head-mounted display device
US9264803B1 (en) Using sounds for determining a worn state of a wearable computing device
US20160313973A1 (en) Display device, control method for display device, and computer program
US10073262B2 (en) Information distribution system, head mounted display, method for controlling head mounted display, and computer program
US10114604B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
US20150268673A1 (en) Adaptive Piezoelectric Array for Bone Conduction Receiver in Wearable Computers
JP6364735B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
US20160070101A1 (en) Head mounted display device, control method for head mounted display device, information system, and computer program
US8930195B1 (en) User interface navigation
JP2015087695A (en) Information processor and control method for information processor
JP2015019273A (en) Head-mounted display device and control method therefor
JP6201332B2 (en) Sound processor
JP6252002B2 (en) Head-mounted display device and method for controlling head-mounted display device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20180426