JP2013182062A - Display device and projection device - Google Patents
Display device and projection device Download PDFInfo
- Publication number
- JP2013182062A JP2013182062A JP2012044329A JP2012044329A JP2013182062A JP 2013182062 A JP2013182062 A JP 2013182062A JP 2012044329 A JP2012044329 A JP 2012044329A JP 2012044329 A JP2012044329 A JP 2012044329A JP 2013182062 A JP2013182062 A JP 2013182062A
- Authority
- JP
- Japan
- Prior art keywords
- state
- image
- display device
- face
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Studio Devices (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Image Analysis (AREA)
- Projection Apparatus (AREA)
Abstract
Description
本発明は、表示装置および投影装置に関する。 The present invention relates to a display device and a projection device.
鏡に正対する利用者の顔を投影面として各種情報を投影することで、鏡に映った利用者の像に各種情報を重畳表示する情報表示装置が知られている(特許文献1参照)。 There has been known an information display device that displays various types of information on a user's image reflected on the mirror by projecting various types of information using the face of the user facing the mirror as a projection plane (see Patent Document 1).
上記従来技術は、鏡の利用者に対して、たとえばニュースや天気予報などといった一律の情報を報知するものであり、利用者の状態に適した情報を報知することは考慮されていなかった。 The above prior art is for notifying the mirror user of uniform information such as news and weather forecast, for example, and not considering information suitable for the user's condition.
本発明による表示装置は、対象物の状態を検出する状態検出手段と、状態検出手段により検出された対象物の状態に応じた情報を、対象物に重畳されて見えるように表示させる表示手段と、備えることを特徴とする。 A display device according to the present invention includes a state detection unit that detects a state of an object, and a display unit that displays information according to the state of the object detected by the state detection unit so that the information is seen superimposed on the object. , Provided.
本発明によれば、対象物の状態に適した情報を報知できる。 According to the present invention, information suitable for the state of an object can be notified.
以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による表示装置1の構成を説明する図である。表示装置1は、鏡2の上部周辺に設置されるカメラ部10およびプロジェクタ部20を有する。表示装置1は、鏡2と向き合う利用者3をカメラ部10により撮影して、撮影した画像から利用者3の顔の位置を検出する。そして表示装置1は、検出した顔を投影面としてプロジェクタ部20により各種情報を投影する。これにより、利用者3は、鏡2に映った自画像とともに、プロジェクタ部20により投影された情報を視認することができる。なお、カメラ部10およびプロジェクタ部20は、利用者3が鏡2に自分の顔が映る位置に自然に立ったときに、顔全体を撮影および投影できる位置に配置されている。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram for explaining the configuration of a
図2は、表示装置1の要部構成を示すブロック図である。表示装置1は、カメラ部10と、プロジェクタ部20と、制御装置30と、記憶装置40と、操作部材50と、外部インターフェイス(I/F)60とを備える。
FIG. 2 is a block diagram illustrating a main configuration of the
制御装置30は、マイクロプロセッサ及びその周辺回路からなる。制御装置30は、制御プログラムに基づいて、カメラ部10による撮影動作やプロジェクタ部20による投影動作を制御する。記憶装置40は、制御装置30で実行される制御プログラムやプロジェクタ部20により投影する各種情報を格納する。操作部材50は、ボタンやスイッチなどで構成され、操作されたボタンやスイッチに対応する操作信号を制御装置30へ送出する。制御装置30は、外部インターフェイス60を介して、外部機器から供給される各種情報を取得する。
The
カメラ部10は、撮像光学系101、撮像素子102および撮像制御回路103を有し、制御装置30からの指示に応じて撮像を行う。撮像光学系101は、撮像素子102の撮像面上に被写体像を結像させる。撮像素子102としては、CCDやCMOSなどが用いられる。撮像制御回路103は、制御装置30からの指示により撮像素子102を駆動制御するとともに、撮像素子102から出力される画像信号に対して所定の信号処理を行う。
The
プロジェクタ部20は、投影光学系201、液晶パネル202、LED光源203、および投影制御回路204を含む。LED光源203は、供給電流に応じた明るさで液晶パネル202を照明する。液晶パネル202は、投影制御回路204からの駆動信号に応じて光像を生成する。投影光学系201は、液晶パネル202から射出される光像を外部の投影面に投影する。投影制御回路204は、制御装置30から指示された情報を投影するための制御信号を、LED光源203および液晶パネル202へ送出する。
The
本実施形態の表示装置1は、カメラ部10で撮影した利用者3の顔画像から利用者3の顔の状態を検出し、顔の状態に応じた情報を投影する投影処理に特徴を有するので、以下、この投影処理について説明する。本実施形態では、投影処理として、顔色に合った化粧を報知する化粧報知処理と、髭の剃り残しを報知する剃り残し報知処理とが設けられている。
The
−化粧報知処理−
図3を用いて化粧報知処理について説明する。図3(a)は、カメラ部10により利用者3を撮影した画像を示す。図3(b)は、プロジェクタ部20により投影する画像を示す。なお、図3(b)中、破線の箇所は実際には投影されない。図3(c)は、鏡2に映る像を示す。
-Makeup notification processing-
The makeup notification process will be described with reference to FIG. FIG. 3A shows an image obtained by photographing the
制御装置30は、たとえば操作部材50からの操作信号により化粧報知処理の実行が指示されると、カメラ部10を制御して所定時間間隔ごとに撮像を行わせ、撮像画像(図3(a))に対して顔検出処理を行う。制御装置30は、顔検出処理によって利用者3の顔が検出されると、検出した顔の目や鼻、口の位置、顔の輪郭、顔の肌色(顔色)などの顔情報を検出する。
When the execution of the makeup notification process is instructed by, for example, an operation signal from the
顔色は、例えば赤みが強い肌色や青みが強い肌色など、人によっても異なるし、同一人物であっても体調によって異なることがある。また、顔に似合うチーク(頬紅)の色は顔色によって異なることが知られている。そこで本実施形態では、種々の顔色と各顔色に適したチークの色とを対応付けるデータベースが記憶装置40に格納されている。制御装置30は、このデータベースを参照して、上記検出した利用者3の顔色に適したチークの色を特定する。
The face color varies depending on the person, for example, a skin color with a strong redness or a skin color with a strong bluishness. Further, it is known that the color of teak (blusher) that matches the face differs depending on the face color. Therefore, in the present embodiment, a database that associates various face colors with cheek colors suitable for each face color is stored in the
そして制御装置30は、図3(b)に示すように、上記特定した色のチークの画像Pcを投影するための投影画像を生成する。このとき制御装置30は、利用者3の顔においてチークを入れるのに適した位置にチークの画像Pcが投影されるように、検出した顔情報に基づいてチークの画像Pcを位置決めする。
Then, as shown in FIG. 3B, the
プロジェクタ部20は、制御装置30の制御のもと、利用者3の顔を投影面として上記生成された投影画像を投影する。この結果、図3(c)に示すように、鏡2には、利用者3の顔にチークの画像Pcが重畳されて映る。すなわち鏡2には、利用者3の顔があたかも化粧されたように映る。これにより、利用者3は化粧をする前に、自分の顔色に合った化粧が施された顔を鏡2で確認することができる。利用者3は、鏡2で確認した化粧が気に入れば、投影されている通りに化粧をしていけばよい。
The
そして、制御装置30は、チークの画像Pcを投影した後も所定時間間隔ごとにカメラ部10による撮像を行わせ、撮像画像に基づいて化粧の進行状況を判断する。制御装置30は、投影したチークの画像Pcの通りに化粧が進行していると判断すると、その進行状況に応じて投影するチークの画像Pcを徐々に薄くしていく。すなわち、カメラ部10による撮影画像において利用者3の顔のチークが濃くなった分、投影するチークの画像Pcを薄くしていく。そして制御装置30は、投影したチークの画像Pcの通りに化粧が完了した箇所には、何も投影させないようにする。これにより、利用者3は、投影されるチークの画像Pcの変化に基づいて、自分があとどのくらいチークを入れればよいかを確認することができる。
The
またカメラ部10は、赤外光にも感度が高く、可視画像に加えて赤外画像の撮影も可能に構成されていてもよい。この場合の制御装置30は、上述したように顔色を検出して顔色に合ったチークを特定する処理に加え、カメラ部10により撮影された赤外画像に基づいて利用者3の顔表面の温度を検出し、この検出結果に基づいて利用者3の健康状態(たとえば体温)を判断する処理を行う。そして制御装置30は、上述したチークの画像Pcに加え、健康状態の判断結果を示す情報(たとえば、「微熱があります」といったテキスト情報)を利用者3の顔に投影させる。また、熱がある場合には、顔色に赤みが増したり、通常よりも目尻が下がって見えたりすることが知られている。そこで制御装置30は、利用者3に熱があると判断した場合には、プロジェクタ部20により、顔色の赤みを目立たなくする化粧の画像を投影させたり、目尻を強調して見せる化粧の画像を投影させたりするようにしてもよい。
In addition, the
−剃り残し報知処理−
図4を用いて剃り残し報知処理について説明する。図4(a)は、カメラ部10により利用者3を撮影した画像を示す。図4(b)は、プロジェクタ部20により投影する画像を示す。なお、図4(b)中、破線の箇所は実際には投影されない。図4(c)は、鏡2に映る像を示す。
-Unshaved notification process-
The remaining shaving notification process will be described with reference to FIG. FIG. 4A shows an image obtained by photographing the
制御装置30は、たとえば操作部材50からの操作信号により剃り残し報知処理の実行が指示されると、カメラ部10を制御して所定時間間隔ごとに撮像を行わせ、撮像画像(図4(a))に対して顔検出処理を行う。制御装置30は、顔検出処理によって利用者3の顔が検出されると、検出した顔の目や鼻、口の位置、顔の輪郭、顔の肌色(顔色)などの顔情報を検出する。また制御装置30は、検出した顔画像に対して公知の超解像処理を行って高解像度の顔画像を生成し、この高解像度の顔画像から髭Hgを検出する。具体的には、例えば、鼻の位置よりも下で且つ口の周囲に存在する顔色と異なる色の部分を髭Hgとして検出する。
For example, when an operation signal from the
そして制御装置30は、図4(b)に示すように、上記検出した髭の位置を強調表示する矢印画像Pyおよびテキスト画像(『Check!』)Ptを投影するための投影画像を生成する。なお実際には、テキスト画像Ptを、利用者3が鏡2越しに見たときに文字が読めるように左右反転した状態の画像として生成する。
Then, as shown in FIG. 4B, the
プロジェクタ部20は、制御装置30の制御のもと、利用者3の顔を投影面として上記生成された投影画像を投影する。この結果、図4(c)に示すように、鏡2には、利用者3の顔に矢印画像Pyおよびテキスト画像Ptが重畳されて映る。これにより、利用者3は髭剃りをした後、髭の剃り残しを鏡2で確認することができ、鏡2を見ながら髭の剃り残しを剃ることができる。
The
そして、制御装置30は、矢印画像Pyおよびテキスト画像Ptを投影した後も所定時間間隔ごとにカメラ部10による撮像を行わせ、撮像画像から髭を検出し続け、髭剃りの進行状況に応じて投影する画像を変化させる。具体的には、髭が剃られたことで髭が検出されなくなった箇所については、矢印画像Pyおよびテキスト画像Ptの投影を終了させる。これにより、利用者3は、投影される矢印画像Pyおよびテキスト画像Ptの変化に基づいて、自分があとどのくらい髭剃りを行なえばよいかを確認することができる。
The
また、制御装置30は、検出した髭が顔の輪郭(縁)の近傍にあると判断した場合には、矢印画像Pyおよびテキスト画像Ptに加え、利用者3に顔の向きを変えることを促すメッセージをプロジェクタ部20により投影させるようにしてもよい。たとえば、髭の位置が下側の輪郭近傍の場合には上を向くように促し、髭の位置が右側の輪郭近傍の場合には左を向くように促す。このメッセージに従って利用者3が鏡2に対する顔の向きを変えることで、利用者3は鏡2で髭の剃り残しをより確認しやすくなる。このとき制御装置30は、利用者3が鏡2に対する向きを変えて髭の位置が変わるのに応じて、矢印画像Pyおよびテキスト画像Ptの投影位置を追従させるようにする。
If the
なお、髭の強調表示方法については、図4に示した矢印画像Pyおよびテキスト画像Ptに限らなくてよく、たとえば検出した髭を太く見せるような画像を投影するようにしてもよい。また、上述した化粧報知処理と同様にして利用者3の顔色を検出し、検出した顔色の反対色を矢印画像Pyおよびテキスト画像Ptの色とするようにしてもよい。これにより、矢印画像Pyおよびテキスト画像Ptをより見やすくすることができる。
Note that the method for highlighting the wrinkles is not limited to the arrow image Py and the text image Pt shown in FIG. 4. For example, an image that makes the detected wrinkles appear thick may be projected. Further, the face color of the
以上説明した実施の形態によれば、次の作用効果が得られる。
(1)表示装置1は、鏡2と向き合う利用者3を撮像するカメラ部10と、カメラ部10により撮像された画像に基づいて、利用者3の顔の状態を検出する制御装置30と、制御装置30により検出された利用者3の顔の状態に応じた情報を、当該情報が鏡2に映った利用者3の像に重畳されて見えるように表示させるプロジェクタ部20と、を備えるので、利用者3に、鏡2に映った利用者3の像とともに利用者3の顔の状態に適した情報を視認させることができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The
(2)上記(1)の表示装置1において、制御装置30は、カメラ部10により撮像された画像に基づいて、利用者3の顔の状態の変化状況(化粧の進行状況や髭剃りの進行状況など)を時間経過に応じて検出し、プロジェクタ部20は、当該変化状況に応じて表示させる情報を変化させるように構成したので、逐次変化する顔の状態に合わせて最適な情報を表示することができる。
(2) In the
(3)上記(1)または(2)の表示装置1において、制御装置30は、カメラ部10により撮像された画像に対して超解像処理を行い、当該超解像処理後の画像に基づいて利用者3の顔における細部の状態(髭の剃り残し)を検出し、プロジェクタ部20は、検出された髭を強調する情報を表示させるように構成したので、利用者3に対して、鏡2を視認するだけでは発見しづらい箇所の状態について報知することができる。
(3) In the
(4)上記(1)〜(3)の表示装置1において、制御装置30は、カメラ部10により撮像された画像に基づいて利用者3の顔の肌色を検出し、プロジェクタ部20は、当該検出された顔の肌色に応じた情報(顔色に合ったチーク)を表示させるように構成したので、利用者3は鏡2を見て当該情報を確認しながら化粧をすることができる。
(4) In the
(5)上記(1)〜(4)の表示装置1において、カメラ部10は、鏡2に相対する利用者3の赤外画像を撮像し、制御装置30は、当該赤外画像に基づいて利用者3の顔の表面温度を検出し、プロジェクタ部20は、顔の表面温度に応じた情報(健康状態や最適な化粧など)を表示させるように構成したので、利用者3に対して、鏡2を視認するだけでは気づきにくい情報について報知することができる。
(5) In the
(変形例1)
上述した実施の形態では、化粧報知処理において顔色に合ったチークを投影する例について説明したが、これに限らず、たとえば口紅やアイシャドウなどを顔色に合わせて投影するようにしてもよい。また、目の下の肌色に基づいて目のくまを検出し、目のくまを目立たなくする化粧を投影するようにしてもよい。
(Modification 1)
In the above-described embodiment, an example of projecting a cheek that matches the face color in the makeup notification process has been described. However, the present invention is not limited to this. Further, it is possible to detect the bear of the eyes based on the skin color under the eyes and project makeup that makes the bear of the eyes inconspicuous.
(変形例2)
上述した実施の形態では、超解像処理によって高解像度に変換した撮影画像に基づいて髭を検出する例について説明したが、これに限らず、たとえば目尻等の小皺を検出するようにしてもよい。この場合の制御装置30は、検出した小皺の位置を強調表示するような画像を投影させる。これにより、利用者3は鏡2で小皺の位置を確認することができるので、鏡2を見ながらその小皺を化粧で隠すことができる。
(Modification 2)
In the above-described embodiment, an example in which wrinkles are detected based on a captured image converted to a high resolution by super-resolution processing has been described. However, the present invention is not limited to this, and for example, small wrinkles such as eye corners may be detected. . In this case, the
(変形例3)
上述した実施の形態では、超解像処理によって高解像度に変換した撮影画像に基づいて髭を検出する例について説明したが、カメラ部10として高解像度のカメラを用いて、超解像処理を行わずに撮影画像に基づいて髭を検出するようにしてもよい。
(Modification 3)
In the above-described embodiment, an example in which wrinkles are detected based on a captured image converted to high resolution by super-resolution processing has been described. However, super-resolution processing is performed using a high-resolution camera as the
(変形例4)
上述した投影処理において、利用者3が動いているときには投影せず、利用者3の動きが止まっているときに投影するようにしてもよい。たとえば、上述した剃り残し報知処理において制御装置30は、カメラ部10による撮影画像から公知のパターンマッチングなどによる動き検出処理を行い、利用者3の動きを検出する。制御装置30は、所定以上の動きが検出されているときは、撮影画像から髭が検出されても髭を強調表示する画像をプロジェクタ部20により投影させず、動きが検出されなくなったら髭を強調表示する画像をプロジェクタ部20により投影させる。これにより、たとえば利用者3が手を動かして髭を剃っているときには何も表示させず、利用者3が手を止めて自分の顔を確認しているときに髭を強調表示できる。
(Modification 4)
In the above-described projection processing, the projection may be performed when the
(変形例5)
上述した投影処理において、カメラ部10により利用者3の顔にピントを合わせた際の測距情報に基づいて、プロジェクタ部20のピントを合わせるようにしてもよい。
(Modification 5)
In the projection processing described above, the
また、カメラ部10とプロジェクタ部20とが近傍に配置されている場合は、カメラ部10から利用者3の顔までの距離とプロジェクタ部20から利用者3の顔までの距離とが略等しい。そこでこの場合、撮影画像における利用者3の顔の大きさに基づいてカメラ部10から利用者3の顔までの距離を検出し、この距離に基づいてプロジェクタ部20のピントを利用者3の顔に合わせるようにしてもよい。
Further, when the
さらに、プロジェクタ部20のピントを合わせる位置を、投影する情報の内容に応じて変化させるようにしてもよい。たとえば化粧報知処理を行う場合には、顔全体に化粧の画像を投影するため、顔全体にピントが合うように調整する。また、剃り残し報知処理を行う場合には、顎の周辺に髭を強調する画像を投影するため、顎にピントが合うように調整する。
Furthermore, the focus position of the
(変形例6)
歯の磨き残しを報知する磨き残し報知処理を行うようにしてもよい。変形例6の表示装置1では、図5に示すように、歯に付着する歯垢を検出するためのUV光(紫外光)を照射するUV光源70が鏡2近傍に設けられる。なおUV光源70は、UV光が利用者3の目に入射しないような位置に配置される。変形例6の制御装置30は、たとえば、カメラ部10による撮影画像から利用者3の口および歯を検出すると、磨き残し報知処理を開始して、検出した歯に対してUV光源70からUV光を照射させるとともに、カメラ部10により再度撮影を行う。歯と歯垢とではUV光を照射した際の反射状態が異なるため、制御装置30は、カメラ部10による撮影画像からUV光の反射状態に基づいて歯垢を検出する。そして制御装置30は、検出した歯垢の位置を強調するような画像をプロジェクタ部20により投影させる。これにより、利用者3は鏡2で歯垢の位置を確認することができるので、鏡2を見ながらその歯垢を除去するように歯磨きを行うことができる。
(Modification 6)
You may make it perform the unpolished notification process which alert | reports the unpolished tooth. In the
(変形例7)
利用者3の顔色に合った洋服を報知する処理を行うようにしてもよい。変形例7では、種々の顔色と各顔色に適した洋服の色とを対応付けるデータベースが記憶装置40に格納されている。制御装置30は、上述した化粧報知処理と同様にして利用者3の顔色を検出すると、このデータベースを参照して、検出した顔色に適した洋服の色を特定する。プロジェクタ部20は、利用者3の身体を投影面として、上記特定した色の洋服の画像を投影する。この結果、鏡2には、利用者3の身体に洋服の画像が重畳されて映るので、利用者3に顔色に合った洋服を報知することができる。
(Modification 7)
You may make it perform the process which alert | reports the clothes suitable for the
(変形例8)
たとえば携帯電話などの携帯端末に適したデコレーションを報知する処理を行うようにしてもよい。この場合の利用者3は、携帯端末を、鏡2に映り且つカメラ部10およびプロジェクタ部20により撮影および投影できる位置に持つとする。制御装置30は、カメラ部10により撮影した画像から携帯端末が検出されると、検出した携帯端末の画像に対して公知の超解像処理を行って高解像度の画像に変換し、この高解像度の画像から携帯端末の傷や変色部分などを検出する。検出方法としては、たとえば、予め記憶装置40に新品の状態での携帯端末の画像を記憶しておき、この画像と上記高解像度の撮影画像との差分に基づいて検出すればよい。携帯端末の傷や変色部分などが検出されると、プロジェクタ部20は、その部分を目立たなくするようなデコレーションの画像を、携帯端末を投影面として投影する。この結果、鏡2には、携帯端末にデコレーションの画像が重畳されて映るので、携帯端末に適したデコレーションを報知することができる。
(Modification 8)
For example, you may make it perform the process which alert | reports the decoration suitable for portable terminals, such as a mobile telephone. It is assumed that the
(変形例9)
プロジェクタ部20を、図6に示すように、鏡2の裏側に配置するようにしてもよい。この場合、図7に示すように、プロジェクタ部20のLED光源203が発する波長の光(RGB)の透過率が高い鏡2を用いるようにする。これにより、プロジェクタ部20からの投影光が鏡2を透過して利用者3の顔に投影される。
(Modification 9)
The
また、変形例9では、プロジェクタ部20を配置する高さを利用者3の顔の高さに近づけることで、より精度よく顔に投影することができる。しかしながら、利用者3の顔の正面にプロジェクタ部20を配置すると、利用者3がプロジェクタ部20を直視して眩しくなってしまう。そこで、利用者3の顔の高さに近づけつつも、利用者3の顔の正面にならない位置(たとえば図6に示すように利用者3の視線の下側から投影する位置)にプロジェクタ部20を配置する。こうすることで、プロジェクタ部20からの投影光は鏡2を透過するものの、利用者3からはプロジェクタ部20を見にくくすることができ、眩しくなるのを防ぐことができる。
Moreover, in the modification 9, it can project on a face more accurately by making the height which arrange | positions the
なお、図6ではプロジェクタ部20を鏡2の裏側に配置するようにしたが、カメラ部10を鏡2の裏側に配置するようにしてもよいし、カメラ部10およびプロジェクタ部20の両方ともを鏡2の裏側に配置するようにしてもよい。
In FIG. 6, the
(変形例10)
カメラ部10から見てたとえば利用者3の鼻で遮蔽されている範囲については撮影できないが、カメラ部10とプロジェクタ部20の光路がずれていると、この撮影できない範囲に情報を投影してしまう場合がある。このようなことを防止するため、カメラ部10およびプロジェクタ部20の光路を略一致させるようにしてもよい。
(Modification 10)
For example, the range covered by the user's 3 nose when viewed from the
図8は、変形例10における表示装置1の一例を示す図である。図8では、カメラ部10の前方にミラー80が配置され、プロジェクタ部20の前方にハーフミラー90が配置される。プロジェクタ部20の光路では、プロジェクタ部20からの投影光がハーフミラー90を透過して利用者3に導かれる。カメラ部10の光路では、利用者3からの被写体光がハーフミラー90により反射されてミラー80に導かれ、さらにミラー80により反射されてカメラ部10に導かれる。すなわち、カメラ部10の光路において、利用者3からハーフミラー90までの光路がプロジェクタ部20の光路と略一致する。これにより、撮影時に遮蔽される範囲について投影像も遮蔽されるので、カメラ部10で検出した状況通りに情報を投影でき、立体物であっても適切に情報を重畳表示できる。
FIG. 8 is a diagram illustrating an example of the
(変形例11)
上述した実施の形態では、プロジェクタ部20によって利用者3の顔へ情報を投影することにより、鏡2に映った利用者3の顔の像に情報を重畳表示させる例について説明した。しかしながら、プロジェクタ部20に代えてディスプレイを用いて利用者3の顔の像に情報を重畳表示させるようにしてもよい。
(Modification 11)
In the above-described embodiment, the example in which the information is superimposed and displayed on the image of the face of the
図9(a)は、鏡2の表側に透過型ディスプレイ120を積層した場合を示す。透過型ディスプレイ120は、任意の情報を表示できるとともに、情報を表示しない箇所(背景)の光透過率を上げることで外部からの入射光を透過させる。透過型ディスプレイ120としては、たとえば、液晶ディスプレイ、有機ELディスプレイまたは無機ELディスプレイなどを用いることができる。この場合、利用者3は、透過型ディスプレイ120を透過して、鏡2に映った利用者3の顔の像を視認することができる。ゆえに透過型ディスプレイ120に情報を表示させることで、上述した実施の形態と同様に利用者3の顔の像に情報を重畳表示させることができる。
FIG. 9A shows a case where the
図9(b)は、ハーフミラー12の裏側にディスプレイ220を積層した場合を示す。この場合のディスプレイ220は、任意の情報を表示できる一般的なディスプレイを用いればよい。ハーフミラー12に入射した光の一部は反射され、一部は透過される。ゆえに利用者3は、ハーフミラー12に映った顔を視認できるとともに、ハーフミラー12を透過して、ディスプレイ220に表示された情報を確認することができる。ゆえに、上述した実施の形態と同様に利用者3の顔の像に情報を重畳表示させることができる。
FIG. 9B shows a case where the
(変形例12)
上述した実施の形態では、カメラ部10により撮影した撮影画像に基づいて利用者3の状態(顔色や健康状態など)を検出する例について説明したが、カメラ部10に限らず、この他の状態検出手段を用いて利用者3の状態を検出するようにしてもよい。例えば、温度検出センサなどを用いて利用者3の体温を測定して、利用者3の健康状態を検出するようにしてもよい。
(Modification 12)
In the above-described embodiment, the example in which the state of the user 3 (such as the face color and the health state) is detected based on the captured image photographed by the
(変形例13)
上述した実施の形態では、カメラ部10により撮影した赤外画像に基づいて利用者3の顔表面の温度を検出し、この検出結果に基づいて利用者3の健康状態を判断する例について説明したが、この他の方法で利用者3の健康状態を判断するようにしてもよい。
(Modification 13)
In the above-described embodiment, an example in which the temperature of the face surface of the
例えば、通常の体温であるときの利用者3の顔画像をテンプレート顔画像として予め記憶装置40に記憶させておく。制御装置30は、カメラ部10による撮影画像から利用者3の顔を検出すると、記憶装置40からテンプレート顔画像を読み出し、カメラ部10による撮影画像の顔色とテンプレート顔画像の顔色とを比較する。この比較の結果、撮影画像の顔色がテンプレート顔画像の顔色よりも所定値以上赤みが強い場合、利用者3に熱があると判断し、その旨を示すテキスト情報や顔色の赤みを目立たなくする化粧の画像をプロジェクタ部20により投影させる。
For example, the face image of the
また、剃り残し報知処理において髭の剃り残しを検出する際にも、制御装置30がカメラ部10による撮影画像と記憶装置40から読み出したテンプレート顔画像とを比較し、この比較結果に基づいて髭の剃り残しを検出するようにしてもよい。
In addition, when detecting the remaining shaving in the shaving notification process, the
(変形例14)
上述した実施の形態ではカメラ部10およびプロジェクタ部20が別々に設けられている例について説明したが、カメラ部10およびプロジェクタ部20を一体化したプロジェクタ付きカメラに本発明を適用してもよい。
(Modification 14)
In the embodiment described above, an example in which the
(変形例15)
上述した実施の形態では、カメラ部10が鏡2と向き合う利用者3を撮影し、当該撮影画像に基づいて利用者3の状態を検出する例について説明した。しかしながら、カメラ部10の撮影方向を、鏡2を撮影する方向としてもよい。この場合、カメラ部10は、鏡2に映った利用者3の像を撮影し、当該撮影画像に基づいて利用者3の状態を検出する。
(Modification 15)
In the above-described embodiment, the example in which the
また上述した実施の形態では、プロジェクタ部20が利用者3の顔を投影面として各種情報を投影することにより、鏡2に映った利用者3の顔に各種情報を重畳表示させる例について説明した。しかしながら、プロジェクタ部20の投影方向を、鏡2を投影する方向とする(すなわち鏡2に向かって投影光を発する)ようにしてもよい。この場合、プロジェクタ部20が鏡2に映った利用者3の顔に各種情報を投影させるようにしてもよい。または、プロジェクタ部20が鏡2に向かって投影光を発し、その投影光が鏡2で反射された反射光が利用者3の顔に投影されるようにしてもよい。
Further, in the above-described embodiment, an example has been described in which the
なお、カメラ部10の撮影方向が鏡2を撮影する方向であり且つプロジェクタ部20の投影方向が利用者3を投影する方向であってもよいし、カメラ部10の撮影方向が利用者3を撮影する方向であり且つプロジェクタ部20の投影方向が鏡2を投影する方向であってもよい。
Note that the shooting direction of the
(変形例16)
上述した実施の形態では、利用者3の顔に情報を投影して鏡2に映った利用者3の顔に情報を重畳表示させる例について説明した。しかしながら、鏡2の代わりに利用者3の画像を表示させる表示手段を設け、当該表示手段に表示された利用者3の画像に上記情報を重畳表示させるようにしてもよい。
(Modification 16)
In the above-described embodiment, an example in which information is projected onto the face of the
図10は、変形例16の一例を示すプロジェクタ付きカメラ300の外観図である。図10(a)および(b)は、プロジェクタ付きカメラ300を前方から見た斜視図であり、図10(c)および(d)は、プロジェクタ付きカメラ300を後方から見た斜視図である。プロジェクタ付きカメラ300の内部構成は、図1に示した構成と同様であるため、説明を省略する。図10(a)に示すように、プロジェクタ付きカメラ300の正面には、撮影レンズ310とプロジェクタ投影窓320が設けられている。プロジェクタ付きカメラ300のカメラ部10は撮影レンズ310を介して撮影を行う。プロジェクタ付きカメラ300のプロジェクタ部20は、プロジェクタ投影窓320を介して投影を行う。
FIG. 10 is an external view of a camera with a
図10(b)に示すように、プロジェクタ付きカメラ300の背面には、バリアングルモニタ330が設けられている。バリアングルモニタ330は、ヒンジ部340によって回転軸340aを軸にして回転することができる。ゆえに、例えば、図10(c)および図10(d)に示すように、バリアングルモニタ330を回転させて、バリアングルモニタ330の表示面330Aを前方に向けることができる。したがって図11に示すように、利用者3は、撮影レンズ310およびプロジェクタ投影窓320を自身に向けた状態で、バリアングルモニタ330の表示面330Aを自身の方へ向けることができるので、カメラ部10により自身を撮影しながら、その撮影画像をバリアングルモニタ330によって確認できる。
As shown in FIG. 10B, a vari-
変形例16の場合、利用者3は、プロジェクタ付きカメラ300を予め図11に示した状態にセットする。プロジェクタ付きカメラ300は、カメラ部10により利用者3を撮像し、撮像した画像に基づいて、上述した実施の形態と同様に利用者3の顔の状態を検出する。そしてプロジェクタ付きカメラ300は、プロジェクタ部20により、利用者3の顔の状態に応じた情報(化粧や剃り残しなど)を利用者3の顔に投影する。その後、プロジェクタ付きカメラ300は、再度、カメラ部10により利用者3の顔を撮像し、撮像した画像をバリアングルモニタ330に表示させる。このとき利用者3の顔にはプロジェクタ部20により上記情報が投影されているので、バリアングルモニタ330には利用者3の顔の画像に上記情報が重畳されて表示される。これにより、利用者3に、利用者3の画像とともに利用者3の顔の状態に適した情報を視認させることができる。
In the case of the modified example 16, the
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。また、上記実施形態に各変形例の構成を適宜組み合わせてもかまわない。 The above description is merely an example, and is not limited to the configuration of the above embodiment. Moreover, you may combine the structure of each modification suitably with the said embodiment.
1…表示装置、2…鏡、3…利用者、10…カメラ部、20…プロジェクタ部、30…制御装置、40…記憶装置、70…UV光源、120…透過型ディスプレイ、300…プロジェクタ付きカメラ、330…バリアングルモニタ
DESCRIPTION OF
Claims (15)
前記状態検出手段により検出された前記対象物の状態に応じた情報を、前記対象物に重畳されて見えるように表示させる表示手段と、
を備えることを特徴とする表示装置。 State detection means for detecting the state of the object;
Display means for displaying information according to the state of the object detected by the state detection means so as to be seen superimposed on the object;
A display device comprising:
前記状態検出手段は、前記対象物の状態の変化状況を時間経過に応じて検出し、
前記表示手段は、前記状態検出手段により検出された前記対象物の状態の変化状況に応じて、表示させる情報を変化させることを特徴とする表示装置。 The display device according to claim 1,
The state detection means detects a change state of the state of the object according to the passage of time,
The display device is characterized in that information to be displayed is changed in accordance with a change state of the state of the object detected by the state detection unit.
前記対象物を撮像する撮像手段をさらに備え、
前記状態検出手段は、前記撮像手段により撮像された画像に基づいて、前記対象物の状態を検出することを特徴とする表示装置。 The display device according to claim 1 or 2,
It further comprises imaging means for imaging the object,
The display device according to claim 1, wherein the state detection unit detects a state of the object based on an image captured by the imaging unit.
前記状態検出手段は、予め記憶手段に記憶された前記対象物の画像と前記撮像手段により撮像された画像とを比較し、当該比較結果に基づいて前記対象物の状態を検出することを特徴とする表示装置。 The display device according to claim 3,
The state detection unit compares the image of the object stored in advance in the storage unit with the image captured by the imaging unit, and detects the state of the object based on the comparison result. Display device.
前記状態検出手段は、前記撮像手段により撮像された画像に対して超解像処理を行い、当該超解像処理後の画像に基づいて前記対象物の細部の状態を検出し、
前記表示手段は、前記状態検出手段により検出された細部の状態に応じた情報を表示させることを特徴とする表示装置。 The display device according to claim 3 or 4,
The state detection unit performs super-resolution processing on the image captured by the imaging unit, detects a detailed state of the object based on the image after the super-resolution processing,
The display unit displays information according to a detailed state detected by the state detection unit.
前記対象物は、人物であり、
前記撮像手段は、前記人物を撮像し、
前記状態検出手段は、前記撮像手段により撮像された画像に基づいて前記人物の顔の状態を検出し、
前記表示手段は、前記状態検出手段により検出された前記人物の顔の状態に応じた情報を、当該情報が前記人物の顔または身体に重畳されて見えるように表示させることを特徴とする表示装置。 The display device according to any one of claims 3 to 5,
The object is a person,
The imaging means images the person,
The state detection means detects the face state of the person based on the image picked up by the image pickup means,
The display means displays information corresponding to the state of the face of the person detected by the state detection means so that the information can be seen superimposed on the face or body of the person. .
前記状態検出手段は、前記撮像手段により撮像された画像に基づいて前記人物の顔の肌色を検出し、
前記表示手段は、前記状態検出手段により検出された顔の肌色に応じた情報を表示させることを特徴とする表示装置。 The display device according to claim 6,
The state detection unit detects a skin color of the face of the person based on an image captured by the imaging unit,
The display unit displays information according to the skin color of the face detected by the state detection unit.
前記人物の所定部分に対して紫外光を照射する光源をさらに備え、
前記撮像手段は、前記紫外光が照射された前記人物の所定部分を撮像し、
前記状態検出手段は、前記撮像された画像に基づいて前記人物の所定部分の状態を検出し、
前記表示手段は、前記検出手段により検出された前記人物の所定部分の状態に応じた情報を表示させることを特徴とする表示装置。 The display device according to claim 6 or 7,
Further comprising a light source for irradiating the predetermined portion of the person with ultraviolet light;
The imaging means images a predetermined portion of the person irradiated with the ultraviolet light,
The state detecting means detects a state of a predetermined portion of the person based on the captured image;
The display unit displays information according to a state of a predetermined portion of the person detected by the detection unit.
前記表示手段は、前記情報を、鏡に映った前記対象物に重畳されて見えるように表示させることを特徴とする表示装置。 In the display device according to any one of claims 3 to 8,
The display unit displays the information so that the information is seen superimposed on the object reflected in a mirror.
前記表示手段は、プロジェクタであり、前記対象物を投影面として前記情報を投影することを特徴とする表示装置。 The display device according to claim 9, wherein
The display device is a projector, and projects the information using the object as a projection plane.
前記プロジェクタは、投影する前記情報の内容に応じてピントを合わせる位置を変化させることを特徴とする表示装置。 The display device according to claim 10.
The display device characterized in that the projector changes a focus position according to the content of the information to be projected.
前記表示手段は、前記鏡の表側に配置された透過型ディスプレイであることを特徴とする表示装置。 The display device according to claim 9, wherein
The display device, wherein the display means is a transmissive display disposed on the front side of the mirror.
前記表示手段は、前記情報を、前記撮像手段により撮像した前記対象物の画像に重畳されて見えるように表示させることを特徴とする表示装置。 In the display device according to any one of claims 3 to 8,
The display unit displays the information so as to be superimposed on an image of the object imaged by the imaging unit.
前記状態検出手段により検出された前記対象者の状態に応じた情報を、前記対象者に投影する投影手段と、
を備え、
前記状態検出手段は、前記対象者の状態の変化状況を検出し、
前記投影手段は、前記状態検出手段により検出された前記対象者の状態の変化状況に応じて、投影する情報を変化させることを特徴とする投影装置。 State detection means for detecting the state of the subject;
Projecting means for projecting information corresponding to the state of the subject detected by the state detecting means onto the subject;
With
The state detection means detects a change state of the state of the subject,
The projection unit changes projection information according to a change state of the state of the subject detected by the state detection unit.
撮像手段をさらに備え、
前記状態検出手段は、前記撮像手段が撮像した画像に基づいて、前記対象者の状態変化を検出することを特徴とする投影装置。 The projection device according to claim 14, wherein
It further comprises an imaging means,
The projection apparatus, wherein the state detection unit detects a change in the state of the subject based on an image captured by the imaging unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012044329A JP2013182062A (en) | 2012-02-29 | 2012-02-29 | Display device and projection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012044329A JP2013182062A (en) | 2012-02-29 | 2012-02-29 | Display device and projection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013182062A true JP2013182062A (en) | 2013-09-12 |
Family
ID=49272756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012044329A Pending JP2013182062A (en) | 2012-02-29 | 2012-02-29 | Display device and projection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013182062A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016106806A (en) * | 2014-12-05 | 2016-06-20 | 株式会社泉精器製作所 | Determination method for shaving leftover, determination program for shaving leftover, image display program, electric razor, and shaving system |
JP2016123093A (en) * | 2014-12-25 | 2016-07-07 | パナソニックIpマネジメント株式会社 | Image projector |
KR101783712B1 (en) * | 2014-08-04 | 2017-10-10 | 브릴리언츠 주식회사 | Mirror device for skin diagnosis |
JP2019209065A (en) * | 2018-06-08 | 2019-12-12 | カシオ計算機株式会社 | Display device, display method and display program |
JP2020513538A (en) * | 2016-10-20 | 2020-05-14 | 株式会社ハイモ | Portable scanner and scanning method thereof |
EP3703073A1 (en) * | 2019-03-01 | 2020-09-02 | Koninklijke Philips N.V. | A projection and measurement system |
CN112970073A (en) * | 2018-11-01 | 2021-06-15 | 联合利华知识产权控股有限公司 | Method and apparatus for providing user feedback |
US11191341B2 (en) | 2018-01-11 | 2021-12-07 | Casio Computer Co., Ltd. | Notification device, notification method, and storage medium having program stored therein |
-
2012
- 2012-02-29 JP JP2012044329A patent/JP2013182062A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101783712B1 (en) * | 2014-08-04 | 2017-10-10 | 브릴리언츠 주식회사 | Mirror device for skin diagnosis |
JP2016106806A (en) * | 2014-12-05 | 2016-06-20 | 株式会社泉精器製作所 | Determination method for shaving leftover, determination program for shaving leftover, image display program, electric razor, and shaving system |
JP2016123093A (en) * | 2014-12-25 | 2016-07-07 | パナソニックIpマネジメント株式会社 | Image projector |
JP2020513538A (en) * | 2016-10-20 | 2020-05-14 | 株式会社ハイモ | Portable scanner and scanning method thereof |
US10798263B2 (en) | 2016-10-20 | 2020-10-06 | Himo, Inc. | Portable scanner and scanning method thereof |
JP7027414B2 (en) | 2016-10-20 | 2022-03-01 | 有限責任会社ハイモ | Portable scanner and its scanning method |
US11191341B2 (en) | 2018-01-11 | 2021-12-07 | Casio Computer Co., Ltd. | Notification device, notification method, and storage medium having program stored therein |
JP2019209065A (en) * | 2018-06-08 | 2019-12-12 | カシオ計算機株式会社 | Display device, display method and display program |
JP7135466B2 (en) | 2018-06-08 | 2022-09-13 | カシオ計算機株式会社 | Display device, display method and display program |
CN112970073A (en) * | 2018-11-01 | 2021-06-15 | 联合利华知识产权控股有限公司 | Method and apparatus for providing user feedback |
EP3703073A1 (en) * | 2019-03-01 | 2020-09-02 | Koninklijke Philips N.V. | A projection and measurement system |
WO2020178122A1 (en) * | 2019-03-01 | 2020-09-10 | Koninklijke Philips N.V. | A projection and measurement system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013182062A (en) | Display device and projection device | |
US9992409B2 (en) | Digital mirror apparatus | |
WO2016076140A1 (en) | Information processing device, information processing method, and program | |
CN104956377B (en) | For acquiring the device of special messenger's data | |
JP5060622B2 (en) | Interaction device for interaction between the screen and the indicator | |
WO2016159523A1 (en) | Biometric information acquisition method and device for same | |
KR20120057033A (en) | Gaze tracking system and method for controlling internet protocol tv at a distance | |
CN106471419A (en) | Management information shows | |
JP2001183735A (en) | Method and device for image pickup | |
KR20110094037A (en) | Video infrared retinal image scanner | |
US11238629B2 (en) | Notification device, notification method, and recording medium having notification program stored therein | |
JPWO2017159185A1 (en) | Verification device | |
JP6152938B2 (en) | Electronic mirror device | |
CN112741609A (en) | Electronic device, control method of electronic device, and medium | |
JP3914090B2 (en) | Eye movement analysis system and eye imaging device | |
JP2013145323A (en) | Mirror with camera and apparatus with camera | |
JP4063583B2 (en) | Digital camera | |
JP2018124457A (en) | Face image processing device | |
RU2709185C1 (en) | Image capturing | |
KR102627697B1 (en) | Skin diagnosis device using smart mirror and its driving method | |
EP3931841B1 (en) | A projection and measurement system | |
WO2021245823A1 (en) | Information acquisition device, information acquisition method, and recording medium | |
JP2007209646A (en) | Guiding device, imaging device, authentication device and guiding method | |
JP7472706B2 (en) | Viewpoint detection system | |
WO2022185596A1 (en) | Estimation system, estimation method, and program |