JP2018185654A - Head-up display device - Google Patents
Head-up display device Download PDFInfo
- Publication number
- JP2018185654A JP2018185654A JP2017086990A JP2017086990A JP2018185654A JP 2018185654 A JP2018185654 A JP 2018185654A JP 2017086990 A JP2017086990 A JP 2017086990A JP 2017086990 A JP2017086990 A JP 2017086990A JP 2018185654 A JP2018185654 A JP 2018185654A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- captured image
- occupant
- gaze
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 101
- 230000000007 visual effect Effects 0.000 claims abstract description 10
- 238000003384 imaging method Methods 0.000 claims description 15
- 239000000470 constituent Substances 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 5
- 238000000034 method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 210000001747 pupil Anatomy 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 208000019901 Anxiety disease Diseases 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 7
- 230000036506 anxiety Effects 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 230000003727 cerebral blood flow Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000007177 brain activity Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Instrument Panels (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
Description
本発明は、車両に搭載されるヘッドアップディスプレイ(HUD)装置に関する。 The present invention relates to a head-up display (HUD) device mounted on a vehicle.
ヘッドアップディスプレイ装置(以下、HUD装置と称する)は、車等の車両に搭載され、運転に関係する情報等を示す画像を被投影部材(透光性と反射性とを併せ持つウインドシールド(フロントガラス)、コンバイナ等)に投影することで、運転者の前方の実景(前景、背景としての路面等を含む)に重ねて虚像を表示することができる車両用表示装置である。必要な情報等が前方の景色等と重ね合わされて表示されることから、運転者は、車両の運転中に大きな視線の移動を行うことなく、必要な情報を効率的に得ることができる。 A head-up display device (hereinafter referred to as a HUD device) is mounted on a vehicle such as a car, and displays an image showing information related to driving, etc., on a projection target member (a windshield having both translucency and reflectivity (front glass) ), A combiner or the like), and a vehicle display device capable of displaying a virtual image superimposed on a real scene in front of the driver (including the foreground and the road surface as a background). Since the necessary information and the like are displayed superimposed on the scenery in front, the driver can efficiently obtain the necessary information without moving a large line of sight while driving the vehicle.
例えば特許文献1及び2は、ナビゲーション情報等の運転支援画像を表示可能な車両用表示装置を開示し、特許文献1の車両用表示装置では、道路側カメラで撮影された画像が無線通信により車両に送信されて表示される状況で、悪天候(例えば霧、雨及び降雪)によって道路側カメラで撮影ができない場合は、予防安全システムを構成する外部のデータサーバーから、好天候下で撮影された風景画像の提供を受けるようにした構成、及び、車両用表示装置としてHUD装置を使用可能である旨が記載されている(段落[0002]、[0010]〜[0012]、[0060]〜[0065]、図1、図5、図6))。
For example,
また、特許文献2の車両用表示装置では、車両のインストルメントパネルに、独立した画像を表示可能な3つのパネルを並置し、中央のパネルには、車両情報、ナビゲーション情報、経路案内等の優先度の高い運転支援画像を表示する構成が記載されている(段落[0025]、図2、図7、図9)。なお、中央のパネルには、前方の死角部分の画像が表示されることもあるが(段落[0025]の末尾)、この画像は、特許文献1と同様に、予め撮影されて記憶されている画像である。
Further, in the vehicle display device of
従来の車両用表示装置における、車両から見える実景に関する運転支援画像は、運転環境が悪化した場合に備えて好天下で予め撮影された画像等(特許文献1)、又は、運転者(乗員)の前方の死角部分についての画像等(特許文献2)であり、いずれも、予め用意されている画像である。 In the conventional vehicle display device, the driving assistance image related to the actual scene seen from the vehicle is an image taken in advance under good weather (Patent Document 1) or the driver (occupant) in case the driving environment deteriorates. These are images of a front blind spot portion (Patent Document 2), all of which are images prepared in advance.
例えば、特許文献1の段落[0010]の冒頭には、「好天時の運転であれば、運転者(乗員)は前方視界を確認できるので、一般的な状況ではこのような運転支援画像は不要と思われる」と記載されており、運転者が運転中に見ている(見ることができている)前方の画像については、運転支援画像から除外している。
For example, at the beginning of paragraph [0010] of
ここで、本発明者らは、例えば、運転者(乗員)が見ることができる車両周囲(車両前方等)の実景を車載カメラ(又は道路側のカメラ)で撮影して得られる撮像画像も、運転状況に応じては、有用な運転支援画像になり得ることを認識した。 Here, for example, the present inventors also have captured images obtained by photographing a real scene around the vehicle (such as the front of the vehicle) that can be seen by the driver (occupant) with an in-vehicle camera (or a camera on the road side), It was recognized that it could be a useful driving assistance image depending on the driving situation.
但し、運転者(乗員)が実際に見ている画像をそのままHUD装置に表示するだけでは、有用な運転支援画像とならない場合があり、よって画像の加工が必要となる。また、HUD装置は、本来、車両情報等の表示(走行速度の表示、注意喚起マークの表示等)を背景の実景に重ねて表示するものであり、従って、この本来の表示に加えて、前方等を撮影した撮像画像に基づく運転支援画像も表示しようとすると、本来の表示との競合が生じることが予想され、その対策も必要となる。 However, if an image actually viewed by the driver (occupant) is simply displayed on the HUD device as it is, it may not be a useful driving support image, and thus it is necessary to process the image. In addition, the HUD device originally displays vehicle information and the like (running speed display, warning mark display, etc.) superimposed on the actual background, so in addition to this original display, If an attempt is made to display a driving assistance image based on a captured image obtained by photographing the above, it is expected that competition with the original display will occur, and countermeasures are also required.
従来の、運転支援画像を表示可能な車両用表示装置では、上記の、本発明者らが認識した観点からの検討がなされておらず、従って、運転者(乗員)が見ている車両周囲(車両前方等)の実景を車載カメラ(又は道路側に設置のカメラ)で撮影して得られる撮像画像を、運転者(乗員)に、有用な運転支援画像として提供することはできない。 Conventional vehicle display devices that can display driving assistance images have not been studied from the above-mentioned viewpoints recognized by the present inventors, and accordingly, the vehicle surroundings that the driver (occupant) is looking at ( A captured image obtained by photographing a real scene in front of the vehicle with an in-vehicle camera (or a camera installed on the road side) cannot be provided to the driver (occupant) as a useful driving assistance image.
本発明の1つの目的は、乗員が視認可能である車両周囲(車両前方等)の実景についての撮像画像に基づいて、乗員にとって有用な運転支援画像を生成し、他の表示との競合を生じさせることなく表示することができるヘッドアップディスプレイ装置(HUD装置)を提供することにある。本発明の他の目的は、以下に例示する態様及び最良の実施形態、並びに添付の図面を参照することによって、当業者に明らかになるであろう。 One object of the present invention is to generate a driving assistance image useful for an occupant based on a captured image of an actual scene around the vehicle (such as in front of the vehicle) that can be visually recognized by the occupant, causing competition with other displays. It is an object of the present invention to provide a head-up display device (HUD device) that can display images without causing them to occur. Other objects of the present invention will become apparent to those skilled in the art by referring to the aspects and best embodiments exemplified below and the accompanying drawings.
以下に、本発明の概要を容易に理解するために、本発明に従う態様を例示する。 In the following, in order to easily understand the outline of the present invention, embodiments according to the present invention will be exemplified.
第1の態様において、ヘッドアップディスプレイ装置は、
車両に搭載され、画像表示部の表示面に表示される表示画像を、前記車両に備わる被投影部材に投影することで、乗員に前記表示画像の虚像を視認させるヘッドアップディスプレイ装置であって、
前記乗員の視線を検出する視線検出部と、
前記車両の運行に関する運転支援情報と、前記車両の乗員が視認することが可能と予想される前記車両の周囲の実景を撮影手段で撮影して得られる撮像画像に基づいて生成される運転支援画像としての表示撮像画像とに基づいて前記表示画像を生成する機能を有する表示制御部と、
を備え、
前記表示制御部は、
前記視線検出部により取得される視線情報と、前記撮影手段による撮影によって得られる前記撮像画像と、に基づいて、前記撮像画像上における前記乗員の注視点の位置を検出する注視位置検出部と、
前記注視位置検出部によって検出された複数の注視点の位置に基づいて、前記複数の注視点を含むように注視領域を決定し、前記撮像画像から、前記注視領域を含む部分画像を抽出し、抽出された前記部分画像を前記表示撮像画像として出力する表示撮像画像生成部と、
前記表示画像に対応する表示画像エリアの内の、前記運転支援情報の未描画エリアに前記表示撮像画像を配置して前記表示画像を生成する表示画像生成部と、
を有する。
In the first aspect, the head-up display device comprises:
A head-up display device that causes a passenger to visually recognize a virtual image of the display image by projecting a display image mounted on the vehicle and displayed on a display surface of an image display unit onto a projection target member provided in the vehicle,
A line-of-sight detection unit for detecting the line of sight of the occupant;
Driving assistance image generated based on driving assistance information related to the operation of the vehicle and a captured image obtained by photographing a real scene around the vehicle that is expected to be visible to a passenger of the vehicle. A display control unit having a function of generating the display image based on the display captured image as
With
The display control unit
A gaze position detection unit that detects the position of the gazing point of the occupant on the captured image based on the line-of-sight information acquired by the line-of-sight detection unit and the captured image obtained by imaging by the imaging unit;
Based on the positions of a plurality of gaze points detected by the gaze position detection unit, determine a gaze area so as to include the plurality of gaze points, and extract a partial image including the gaze area from the captured image, A display captured image generation unit that outputs the extracted partial image as the display captured image;
A display image generation unit that generates the display image by arranging the display captured image in an undrawn area of the driving support information in a display image area corresponding to the display image;
Have
第1の態様では、乗員の注視領域を複数の注視点位置に基づいて決定し、撮像画像から部分画像を抽出し(言い換えれば切り出し)、その部分画像を表示撮像画像とし、その表示撮像画像を、表示画像に対応する表示画像エリア(言い換えれば、画像表示部の表示面上のエリア)における運転支援情報(例えば、車速表示、注意喚起マーク、前方に急な曲がり角があることを示す矢印のナビゲーション表示等)の未描画エリア(言い換えれば、空エリア又は余白エリア)に配置し、これによって、画像表示部の表示面に表示される表示画像(言い換えれば、HUD装置用の表示画像)を生成する。撮像画像から、乗員が注視していた領域を含む部分画像を抽出して(言い換えれば切り出して)、運転支援画像としての「表示撮像画像」を生成することから、不要な背景等が除去された有用な運転支援画像の提供が可能となり、また、表示撮像画像は、表示画像エリア内の運転支援情報が表示されていない未描画エリア(空エリア又は余白エリア)に配置されることから、表示撮像画像と運転支援情報との競合(重複)も生じない。 In the first aspect, an occupant's gaze area is determined based on a plurality of gaze point positions, a partial image is extracted from the captured image (in other words, cut out), the partial image is used as a display captured image, and the displayed captured image is Driving support information (for example, vehicle speed display, warning mark, and arrow navigation indicating that there is a sharp turn ahead) in a display image area corresponding to the display image (in other words, an area on the display surface of the image display unit) Display in an undrawn area (in other words, an empty area or a blank area), thereby generating a display image (in other words, a display image for the HUD device) displayed on the display surface of the image display unit. . Extracting a partial image including the area that the occupant was gazing from (in other words, cutting out) from the captured image and generating a “displayed captured image” as a driving assistance image, unnecessary backgrounds were removed It is possible to provide a useful driving support image, and the display captured image is arranged in an undrawn area (empty area or blank area) in the display image area where the driving support information is not displayed. There is no competition (duplication) between images and driving support information.
このとき、空エリアに適応するように表示撮像画像のサイズを拡大等することによって、空スペースを十分に活用して見易い実風景の画像を含む表示画像を得ることができる。例えば、ある程度の遠くの路肩に道路に向かって移動していると推測される人を視認した乗員(このときの注視点は、HUD装置の被投影部材上の投影面の外に位置する)が、現在の車速や注意情報等を確認するべく、HUD装置の虚像に視線を移動させた場合、乗員の視線は一瞬、その人から離れることから、乗員には、「その人が道路に飛び出してくるかもしれない」という不安感が生じる。 At this time, by enlarging the size of the display captured image so as to adapt to the sky area, it is possible to obtain a display image including an image of a real landscape that is easy to see by making full use of the empty space. For example, an occupant (a gaze point at this time is located outside the projection surface on the projection member of the HUD device) who visually recognizes a person who is assumed to be moving toward the road on a certain far shoulder When the line of sight is moved to the virtual image of the HUD device in order to confirm the current vehicle speed, caution information, etc., the occupant's line of sight momentarily leaves the person. Anxiety that "may come" occurs.
しかしながら、第1の態様では、乗員が先に視認した人が、他の余分な背景物等に埋もれることなく効果的に表示されることから、HUD装置の虚像を見ているときも、前方等の注意を要する人や箇所の確認を適宜、行うことができる。従って、上記の不安感が軽減され、また、万一、人の飛び出しがあったときは、減速や急ブレーキ等の適切な処置を迅速にとることができる。このように、外部サーバーとの接続を行うといった複雑で高価なシステムを用いることなく、簡易に、乗員にとって有用な運転支援画像を提供することが可能となる。 However, in the first aspect, since the person who the occupant visually recognized first is displayed effectively without being buried in other extra background objects, etc., even when looking at the virtual image of the HUD device, etc. It is possible to appropriately check the person and the place requiring attention. Therefore, the above-mentioned feeling of anxiety is reduced, and if a person jumps out, appropriate measures such as deceleration and sudden braking can be taken quickly. In this way, it is possible to easily provide a driving assistance image useful for the occupant without using a complicated and expensive system for connecting to an external server.
また、撮像画像をそのまま表示する場合は、乗員にとって不要な画像が含まれることから見易い画像とはいえず、また、撮像画像のサイズを乗員にとって視認しやすい大きさに設定しようすると、撮像画像を表示するのに必要な領域の占有面積が大きくなり、他の表示コンテンツ(例えば、車速表示や注意喚起マーク等の運転支援情報)の視認性を妨げることにもなりかねない。もしくは、他の表示コンテンツと干渉して、そもそも撮像画像を視認しやすい大きさに拡大して表示することができないという事態も想定され得る。 In addition, when the captured image is displayed as it is, it is not an easy-to-see image because an image unnecessary for the occupant is included, and when the size of the captured image is set to a size that is easily visible to the occupant, the captured image is not displayed. The area occupied by the display area increases, which may hinder the visibility of other display contents (for example, driving support information such as a vehicle speed display and a warning mark). Alternatively, it may be assumed that the captured image cannot be enlarged and displayed in a size that is easy to visually recognize because of interference with other display contents.
第1の態様では、撮像画像をそのまま用いずに、乗員にとって有用な画像領域のみを抽出(切り出し)して利用するため、表示面積を抑制しつつ重要な箇所の画像を効率的に表示することができ、よって上記の問題点は生じない。 In the first aspect, the captured image is not used as it is, and only the image area useful for the occupant is extracted (cut out) and used, so that an image of an important part is efficiently displayed while suppressing the display area. Therefore, the above problem does not occur.
第1の態様に従属する第2の態様において、
少なくとも前記視線検出部の検出結果を用いることで、前記乗員の視線が、前記表示画像の虚像の外に向けられているか否かを判定する虚像外注視検出部を有し、
前記注視位置検出部は、前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像の外に向けられていると判定された場合に、前記乗員の注視点の位置を検出してもよい。
In a second aspect dependent on the first aspect,
By using at least the detection result of the line-of-sight detection unit, the occupant's line-of-sight has a virtual image external gaze detection unit that determines whether or not the line of sight of the occupant is directed outside the virtual image of the display image,
The gaze position detection unit may detect the position of the gazing point of the occupant when the sight line of the occupant is determined to be outside the virtual image of the display image by the virtual image gaze detection unit. Good.
第2の態様では、乗員の視線が表示画像の虚像の外に向けられている(言い換えれば、乗員の視線が被投影部材の投影領域から外れている)と判定される場合に、乗員の注視点の位置情報を取得し、これによって、注視位置検出部の負担を軽減しつつ、取得される注視点を、乗員が実際に注視していた実景についての注視点のみに限定することが可能となる。よって、有用な表示撮像画像を効率的に得ることができる。上述のとおり、第2の態様は、乗員がHUD装置の虚像外に視線を向けている状態から、HUD装置の虚像へと視線を移すときに、今まで見ていた実景から視線が外れることによる不安感を払拭するという格別の効果が得られるものである。乗員の視線がHUD装置の虚像から外れている場合に見ている注視点は重要度の高い注視点であり、これを効率的に収集することで、装置の負担を軽減しつつ、上記の格別の効果を得ることが可能となる。 In the second aspect, when it is determined that the occupant's line of sight is directed outside the virtual image of the display image (in other words, the occupant's line of sight is out of the projection area of the projection target member), By acquiring the position information of the viewpoint, it is possible to limit the acquired gazing point to only the gazing point about the actual scene that the occupant was actually gazing while reducing the burden on the gaze position detection unit. Become. Therefore, a useful display captured image can be obtained efficiently. As described above, the second aspect is because the line of sight deviates from the actual scene that has been viewed so far when the occupant moves his / her line of sight from the virtual image of the HUD device to the virtual image of the HUD device. A special effect of eliminating anxiety can be obtained. The gazing point seen when the occupant's line of sight deviates from the virtual image of the HUD device is a gazing point with high importance. It becomes possible to obtain the effect.
第1の態様に従属する第3の態様において、
少なくとも前記視線検出部の検出結果を用いることで、前記乗員の視線が、前記表示画像の虚像の外に向けられているか否か、又は、前記運転支援情報の虚像の外に向けられているか否かを判定する虚像外注視検出部を有し、
前記表示画像生成部は、
前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像に、又は前記運転支援情報の虚像に向けられていると判定された場合に、前記表示撮像画像を拡大又は現サイズを維持して前記運転支援情報の未描画エリアに配置し、
前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像外に、又は前記運転支援情報の虚像外に向けられていると判定された場合に、前記表示撮像画像を縮小して前記運転支援情報の未描画エリアに配置する、又は前記表示撮像画像を非表示としてもよい。
In a third aspect subordinate to the first aspect,
Whether or not the sight line of the occupant is directed outside the virtual image of the display image or whether or not the virtual image of the driving support information is directed by using at least the detection result of the visual line detection unit A virtual image gaze detection unit for determining whether
The display image generation unit
When it is determined that the sight line of the occupant is directed to the virtual image of the display image or the virtual image of the driving support information, the display captured image is enlarged or maintained at the current size. Placed in the undrawn area of the driving support information,
When it is determined that the sight line of the occupant is directed outside the virtual image of the display image or outside the virtual image of the driving support information by the virtual image outside gaze detection unit, the display captured image is reduced and the driving is performed It may be arranged in an undrawn area of support information, or the display captured image may be hidden.
第3の態様では、乗員の視線が、HUD装置による虚像の外にあるか、内にあるかによって、表示撮像画像のサイズに差を設ける。言い換えれば、表示撮像画像の重要性が高いと考えられる状況では、表示撮像画像を拡大する(言い換えれば、撮像画像から部分画像を抽出することによって得られた当初のサイズよりも大きなサイズとする)、あるいは現状のサイズを維持することによって視認性の向上(又は確保)を図り、一方、表示撮像画像の重要性が比較的低い(不便をもたらすと考えられる場合を含む)においては、表示撮像画像を縮小する(言い換えれば、撮像画像から部分画像を抽出することによって得られた当初のサイズよりも小さなサイズとする)、又は非表示とすることで、乗員に余分な負担が生じることを抑制する。 In a 3rd aspect, a difference is provided in the size of a display captured image by whether a passenger | crew's eyes | visual_axis is outside or inside the virtual image by a HUD apparatus. In other words, in a situation where the display captured image is considered to be highly important, the display captured image is enlarged (in other words, the size is larger than the initial size obtained by extracting the partial image from the captured image). Alternatively, the visibility is improved (or secured) by maintaining the current size, while the display captured image is less important (including the case where it is considered inconvenient). Is reduced (in other words, smaller than the initial size obtained by extracting the partial image from the captured image) or hidden, thereby suppressing an extra burden on the occupant. .
また、「視線がHUD装置による虚像の外にあるか、内にあるか」という場合分けに関しては、HUDの表示画像(運転支援情報及び表示撮像画像を含む全体の画像)を見ているか否かという観点で場合分けしてもよく、又、より厳密に視点位置を判定して、表示画像内における運転支援情報を見ているか否かで場合分けしてもよい。乗員が虚像外を見ているということは、すなわち前方等の実景を見ている可能性が高いということであり、この場合、通常のサイズの表示撮像画像を表示しておくと、乗員によってその表示撮像画像が周辺視される状況(言い換えれば、乗員の周辺の視野に表示撮像画像が見えてしまい、同じ画像が2つ見える、いわゆる2重映しの状況)となり、かえって混乱をもたらす可能性もあることから、表示撮像画像を縮小、又は非表示とするものである。 In addition, regarding the case classification of “whether the line of sight is outside or inside the virtual image by the HUD device”, whether or not the HUD display image (the entire image including the driving support information and the display captured image) is being viewed. In other words, the viewpoint position may be determined more strictly and the driving assistance information in the display image may be viewed. The fact that the occupant is looking out of the virtual image means that there is a high possibility that the occupant is looking at a real scene such as the front.In this case, if a display captured image of a normal size is displayed, the occupant The situation where the displayed captured image is viewed peripherally (in other words, the display captured image can be seen in the field of view around the occupant, and the same image can be seen twice, so-called double-viewed situation), which may cause confusion instead. For this reason, the displayed captured image is reduced or not displayed.
また、運転支援情報の虚像を見ているか否かで場合分けする場合には、さらに、以下の効果が得られる。すなわち、乗員の視点位置が、表示画像の虚像内ではあるが、運転支援情報の虚像外であるという場合には、乗員は、透光性の部材である被投影部材を介して、背後の実景を見ている可能性が高いということである。よって、この場合においても、通常のサイズの表示撮像画像を表示しておくと、乗員によってその表示撮像画像が周辺視されて、かえって混乱を与える可能性がある。上記の、より厳密な場合分けを行うことによって、このような場合においても、適切な表示撮像画像の表示制御を行うことができる。なお、表示撮像画像を非表示とすることは、表示撮像画像を表示画像エリアに配置しないことによって実現されてもよく、一時的に、表示画像全体を非表示とすることによって実現されてもよい。 Further, when the case is divided depending on whether or not the virtual image of the driving support information is viewed, the following effects can be further obtained. That is, when the viewpoint position of the occupant is within the virtual image of the display image but outside the virtual image of the driving support information, the occupant can see the actual scene behind the projection member that is a translucent member. Is likely to see. Therefore, even in this case, if a display captured image having a normal size is displayed, the displayed captured image may be viewed by the occupant and may cause confusion. By performing the above-described strict case classification, appropriate display control of the displayed captured image can be performed even in such a case. Note that hiding the display captured image may be realized by not arranging the display captured image in the display image area, or may be realized by temporarily hiding the entire display image. .
第1の態様に従属する第4の態様において、
前記表示制御部は、前記運転支援情報の構成要素及び前記表示撮像画像を対象として、重要度に応じて優先順位を付与する優先順位付与部を有し、
前記表示画像生成部は、前記運転支援情報の構成要素の内の、前記表示撮像画像よりも優先順位が低い構成要素を縮小し、前記表示画像を前記運転支援情報の未描画エリアに配置してもよい。
In a fourth aspect dependent on the first aspect,
The display control unit includes a priority order assigning unit that assigns a priority order according to importance for the components of the driving support information and the display captured image.
The display image generation unit reduces a component having a lower priority than the display captured image among the components of the driving support information, and arranges the display image in an undrawn area of the driving support information. Also good.
第4の態様では、表示画像エリア(画像表示部の表示面上の画像を表示するエリア)のサイズが限られている点を考慮して、「運転支援情報の各構成要素」及び「表示撮像画像」を対象として優先順位を付与し、運転支援情報の構成要素の内の、表示撮像画像よりも優先順位が低い構成要素を縮小する。これによって、優先順位の高い内容(言い換えれば、「表示撮像画像」及び「優先順位が高い運転支援情報の構成要素」)を表示するための、視認性を確保する上で必要となる所定サイズ以上のサイズをもつ空き領域を確実に確保することができ、かつ、上記の重要性の高い要素を、より見易く表示することが可能となる。 In the fourth aspect, in consideration of the limited size of the display image area (area for displaying an image on the display surface of the image display unit), “each component of driving support information” and “display imaging” Priorities are assigned to “images”, and the constituent elements having lower priority than the displayed captured image among the constituent elements of the driving support information are reduced. Thereby, a predetermined size or more necessary for ensuring visibility for displaying high-priority content (in other words, “displayed captured image” and “component of driving support information with high priority”) is displayed. It is possible to reliably secure a free space having a size of 1 and to display the above important elements more easily.
第1の態様に従属する第5の態様において、
前記表示制御部は、前記運転支援情報の構成要素及び前記撮像画像に含まれる主要な構成要素を対象として、重要度に応じて優先順位を付与する優先順位付与部を有し、
前記表示撮像画像生成部は、前記注視位置検出部によって検出された複数の注視点の位置に基づいて前記複数の注視点を含むように注視領域を決定し、前記優先順位付与部によって付与された優先順位を参照して、前記撮像画像の主要な構成要素の内の、優先順位が上位であるものが少なくとも含まれるように、かつ前記注視領域が含まれるように、前記撮像画像から部分画像を抽出し、抽出された前記部分画像を前記表示撮像画像として出力してもよい。
In a fifth aspect subordinate to the first aspect,
The display control unit includes a priority order assigning unit that assigns a priority order according to the importance for the main constituent elements included in the driving support information and the captured image,
The display captured image generation unit determines a gaze area so as to include the plurality of gaze points based on positions of the plurality of gaze points detected by the gaze position detection unit, and is given by the priority order giving unit Referring to the priority order, a partial image is extracted from the captured image so that at least one of the main constituent elements of the captured image has a higher priority order is included and the gaze area is included. The extracted partial image may be output as the display captured image.
第5の態様では、「運転支援情報の構成要素及び撮像画像に含まれる主要な構成要素」を対象として優先順位を付与しておき、撮像画像から部分画像を抽出して「表示撮像画像」を生成する際に、その優先順位も考慮に入れて抽出する領域(切り出す領域)を決定する。 In the fifth aspect, priorities are given to “components of driving support information and main components included in the captured image”, partial images are extracted from the captured images, and “displayed captured images” are displayed. When generating, an area to be extracted (area to be extracted) is determined in consideration of the priority order.
上述の第1の態様では、乗員の注視領域のみに着目して抽出する領域を決定しているが、この場合、例えば、乗員がぼんやりと運転していて、道路上へ飛び出そうとしている人に気づかず、その人には視線が向けられないといった状況では、その飛び出そうとしている人についての画像は、表示撮像画像には含まれないことになり、よって、重要性の高い対象についての画像の表示ができない。 In the first aspect described above, the area to be extracted is determined by focusing only on the gazing area of the occupant. In this case, for example, for a person who is driving dimly and is about to jump out onto the road In a situation where the person is not aware and the line of sight is not directed at the person, the image about the person who is about to jump out is not included in the displayed captured image. Cannot display.
これに対して、第5の態様では、表示制御部に含まれる優先順位付与部が、撮影手段によって撮影された撮像画像を分析し、主要な構成要素について優先順位を付与することから、上記の「飛び出そうとしている人」については確実に、高い優先順位が付与されることになる。よって、表示撮像画像を生成する際に、「優先順位が上位であるものが少なくとも含まれるように、かつ注視領域が含まれるように抽出する」ことによって、上記の「飛び出そうとしている人」も確実に表示撮像画像に含まれることになる。よって、その表示撮像画像によって乗員の注意を喚起して、事故を未然に防止するといったことが可能となる。言い換えれば、第5の態様によって、より有用性の高い、運転支援画像としての表示撮像画像の提供が可能となる。 On the other hand, in the fifth aspect, the priority level assigning unit included in the display control unit analyzes the captured image captured by the imaging unit and assigns the priority order to the main components. High priority is certainly given to “the person who is about to jump out”. Therefore, when generating a display captured image, the above-mentioned “person who is about to jump out” can also be obtained by “extracting so as to include at least those with a higher priority and including a gaze area”. It is surely included in the displayed captured image. Therefore, it is possible to alert an occupant with the displayed captured image and prevent an accident in advance. In other words, according to the fifth aspect, it is possible to provide a display captured image as a driving assistance image that is more useful.
第5の態様に従属する第6の態様において、
前記表示画像生成部は、前記優先順位付与部によって付与された前記優先順位に基づいて、前記表示撮像画像の優先順位を決定し、前記運転支援情報の構成要素の内の、前記表示撮像画像の優先順位よりも低い優先順位のものを縮小し、前記表示撮像画像を前記運転支援情報の未描画エリアに配置してもよい。
In a sixth aspect subordinate to the fifth aspect,
The display image generation unit determines a priority order of the display captured image based on the priority order given by the priority order assigning unit, and includes the display captured image among the components of the driving support information. Those with a priority lower than the priority may be reduced, and the displayed captured image may be arranged in an undrawn area of the driving support information.
第6の態様では、第5の態様において、優先順位を参照して、運転支援情報の構成要素の内の、表示撮像画像の優先順位よりも低い優先順位のものを縮小する処理を行う。上述のとおり第5の態様では、「優先順位が上位であるものが少なくとも含まれるように、かつ注視領域が含まれるように部分画像を抽出する」という処理が行われることから、抽出された画像のサイズ(表示撮像画像のサイズ)が大きくなり易いと考えられる。そこで、第6の態様では、運転支援情報の構成要素の内の、表示撮像画像の優先順位よりも低い優先順位のものを縮小することで、未描画のエリア(空スペース)を効果的に増大させる。よって、表示撮像画像を配置するための、最小限度のサイズ以上のエリア(空スペース)を確実に確保することができる。 In the sixth aspect, in the fifth aspect, the priority order is referred to, and the processing of reducing the priority order lower than the priority order of the displayed captured image among the components of the driving support information is performed. As described above, in the fifth aspect, the process of “extracting a partial image so that at least a higher priority is included and a gaze area is included” is performed. The size (the size of the displayed captured image) is likely to increase. Therefore, in the sixth aspect, the undrawn area (empty space) is effectively increased by reducing the priority order lower than the priority order of the displayed captured image among the constituent elements of the driving support information. Let Therefore, an area (empty space) having a size equal to or larger than the minimum size for arranging the display captured image can be reliably ensured.
第2又は第3の態様に従属する第7の態様では、
前記乗員の生体情報を検出する生体情報検出部を有し、
前記虚像外注視検出部は、前記視線検出部の検出結果及び前記生体情報検出部の検出結果の少なくとも一方に基づいて、前記判定を行うようにしてもよい。
In a seventh aspect dependent on the second or third aspect,
A biological information detection unit for detecting the biological information of the occupant;
The virtual image gaze detection unit may perform the determination based on at least one of a detection result of the visual line detection unit and a detection result of the biological information detection unit.
第7の態様では、上述の第2、第3の態様において、「乗員の視線が、表示画像の虚像の外に向けられているか否かを判定する処理(第3の態様においては、又は、運転支援情報の虚像の外に向けられているか否かを判定する処理)」が実行されるが、この判定結果に応じて、表示撮像画像の縮小や非表示といった、影響力が大きい処理が行われることから、上記の判定には慎重を期す必要がある。そこで、第7の態様では、上記の判定に際して、例えば、視線検出部による検出結果の他に、乗員の生体情報の検出結果も考慮して上記の判定を行い、判定精度をより高める(但し、生体情報単独に基づく判断の場合もあり得る)。例えば、「路肩において、道路に進入するかもしれない人が視認された場合」には、乗員の視線は、道路脇へと大きく移動し、かつ、脈拍等の生体情報も数値が上昇して緊張がより高い状態となると考えられる。よって、脈拍等の生体情報も活用することで、「より緊張度の高い運転状況が出現し、そのことが原因で視線が大きくずれた」というような推定が可能であり、この推定される状況では、乗員の視線は、HUDの虚像の外に向けられている可能性が高い。よって、より精度の高い判定が可能となる。なお、生体情報は脈拍に限定されるものではなく、例えば、脳の活動状況を示す脳血流量であってもよく、さらに他の生体情報であってもよい。 In the seventh aspect, in the second and third aspects described above, “a process for determining whether or not the sight line of the passenger is directed outside the virtual image of the display image (or in the third aspect, or The process of determining whether or not the vehicle is directed outside the virtual image of the driving support information) is executed. Depending on the determination result, a process having high influence such as reduction or non-display of the displayed captured image is performed. Therefore, it is necessary to be cautious about the above judgment. Therefore, in the seventh aspect, in the above determination, for example, the above determination is performed in consideration of the detection result of the occupant's biological information in addition to the detection result by the line-of-sight detection unit, and the determination accuracy is further improved (however, It may be based on biological information alone). For example, when “a person who may enter the road is visually recognized on the shoulder”, the occupant's line of sight moves greatly to the side of the road, and the biological information such as the pulse also increases and becomes tense. Is considered to be higher. Therefore, by utilizing biological information such as the pulse, it is possible to estimate that “a driving situation with a higher degree of tension has appeared, and that caused a significant shift in the line of sight.” Then, it is highly possible that the line of sight of the occupant is directed outside the virtual image of the HUD. Therefore, determination with higher accuracy is possible. The biological information is not limited to the pulse, and may be, for example, cerebral blood flow indicating the activity state of the brain, or other biological information.
当業者は、例示した本発明に従う態様が、本発明の精神を逸脱することなく、さらに変更され得ることを容易に理解できるであろう。 Those skilled in the art will readily understand that the illustrated embodiments according to the present invention can be further modified without departing from the spirit of the present invention.
以下に説明する最良の実施形態は、本発明を容易に理解するために用いられている。従って、当業者は、本発明が、以下に説明される実施形態によって不当に限定されないことを留意すべきである。 The best mode described below is used to easily understand the present invention. Accordingly, those skilled in the art should note that the present invention is not unduly limited by the embodiments described below.
図1は、本発明に従うヘッドアップディスプレイ(HUD)装置の、第1〜第3の実施形態に対応する構成例を示す図である。なお、図1において、車両1の前方をz方向とし、車両の左右方向(車両の横方向)に沿う方向をx方向とし、上方向をy方向とする。
FIG. 1 is a diagram showing a configuration example corresponding to the first to third embodiments of a head-up display (HUD) device according to the present invention. In FIG. 1, the front of the
図1において、車両1は、車両1の乗員200が視認することが可能と予想される車両1の周囲の実景(主に前方であるが、左、右、後方等を適宜、含んでもよい)を撮影(撮像)する撮影手段(撮像手段)としての車載カメラ14と、乗員200の目(瞳)を撮像する視線検出用の撮影手段としての視線カメラ(瞳撮影カメラ)16と、乗員200の生体情報としての脈拍情報を検出する、生体情報測定部としての脈拍計18と、各種の車両情報を収集して通信線(BUS)5を経由してHUD装置100に送信する車載ECU(車両側ECU)10と、を備える。
In FIG. 1, the
なお、車載カメラ14及び視線カメラ16は、所定周期(例えば30Hz)で画像を撮影し、撮影された画像にはタイムスタンプが付与され、撮像画像上の注視位置の検出においては、同時刻における注視位置と撮像画像とが対応付けされる。
The in-
また、図1の例では、脈拍計18は、乗員200の、ハンドル(ステアリングホイール)7を握っている左腕に巻かれて装着されている。生体情報としては、心拍、脳血流量、その他の生体情報を広く利用することができ、特に限定されるものではない。なお、脳血流量を測定する場合には、例えば、乗員200の頭部(例えば前額部)にヘッドバンド型の脳活動計測装置が装着される。本明細書では、生体情報は、例えば、乗員の目(瞳)2の動きに関する判定の精度を高めるための補助情報として利用することができる。但し、生体情報の利用形態は、これに限定されるものではなく、生体情報のみに基づいて、例えば、乗員200による虚像外注視の判断を行ってもよい。
In the example of FIG. 1, the
また、図1の例では、車両の周囲を撮影する撮影手段として車載カメラ14を用いているが、これに限定されるものではなく、道路側に設けられている撮像カメラや運転支援システムから無線通信により撮像情報を車両1に送信し、車両1側で撮像画像を再生することもでき、この場合には、道路側の撮像カメラや運転支援システムが撮影手段として機能する。また、図1の例では、乗員200の目(瞳)2を視線カメラ16で検出しているが、車載カメラ14が、視線カメラ16の役割を兼ねてもよく、また、室内を撮影するカメラ(図1では不図示)が視線カメラ16の役割を兼ねてもよい。
In the example of FIG. 1, the in-
ヘッドアップディスプレイ(HUD)装置100は、車両1に搭載され、画像表示部(例えば液晶パネル)80の表示面83に表示される表示画像Mの表示光Lを、光学系82に備わる反射鏡85で反射させ、表示画像Mを、車両1に備わる被投影部材(透光性と反射性とを併せ持つウインドシールド(フロントガラス)、コンバイナ等であり、ここではウインドシールド3とする)に投影することで、乗員200に、表示画像Mの虚像Vを視認させる。なお、画像表示部80としては、各種の表示器を使用することができる。また、ビーム走査型のHUD装置の場合、画像表示部80は、画像が描画されるスクリーンであり、そのスクリーンの表面又は裏面が表示面83となる。
A head-up display (HUD)
HUD装置100は、視線検出部30と、撮像画像処理部40と、表示制御部50と、生体情報検出部(生体情報解析部)60と、HUD制御部(画像表示部80を駆動する駆動部を含む)70と、を有する。視線検出部30、撮像画像処理部40、表示制御部50及び生体情報検出部(生体情報解析部)60は、通信線(バス)5を介して接続されており、相互に信号や情報の授受を行うことができる。
The
視線検出部30は、視線方向検出部32と、視線ベクトル算出部34と、記憶部36と、を有する。視線方向検出部32は、車載カメラ14(例えばステレオカメラ)により撮像された撮像画像から、乗員200の視線(視線方向)を検出する。視線を検出する処理には、乗員200の目(瞳)の位置を検出する処理が含まれる。視線方向検出部32は、例えば、ステレオ視の手法により乗員200の瞳孔の位置(目の位置)を算出し、かつ乗員200の角膜反射の位置を算出する。視線ベクトル算出部34は、乗員200の瞳孔の位置と角膜反射位置とから、乗員200の視線方向を表す視線ベクトルを算出する。算出された視線ベクトルは記憶部36に記憶される。
The line-of-
撮像画像処理部40は、撮像画像解析部42と、記憶部44と、を有する。撮像画像解析部42は、例えば、パターンマッチング処理によって撮像画像に含まれる主要な対象物(人、電柱等の建造物、白線、路肩、道路標識等)を認識し、解析結果を記憶部44に記憶する。撮像画像の解析結果は、HUD装置100による表示画像の生成処理において、適宜、利用される。
The captured
表示制御部50は、注視位置検出部52と、記憶部54と、表示撮像画像生成部56と、表示画像生成部58と、を有する。また、必要に応じて、虚像外注視検出部65が設けられる。虚像外注視検出部65は、乗員200の視線(注視点)が、HUD装置100による虚像Vの外にあることを検出するものであり、この検出に際しては、視線検出部30により求められた視線ベクトルを利用でき、さらに、検出精度の向上のために、生体情報測定部18及び生体情報検出部(生体情報解析部)60によって得られた生体情報(脈拍情報等)を併用することができる(後述)。
The
注視位置検出部52は、視線検出部30における視線ベクトル算出部34により算出された視線ベクトルと、xyz座標系において乗員の前方の路面に垂直に設定されるxy平面と、の交点を求め、その交点を、乗員200の注視位置(言い換えれば注視点の位置)として検出する。なお、乗員200の、両目の各々に対する注視位置が得られた場合は、左右の注視点同士を結ぶ線分の中点を注視位置(注視点の位置)とすることができる。検出された注視位置(注視点の位置の情報)は、記憶部54に記憶される。
The gaze
表示撮像画像生成部56は、注視位置検出部52によって検出された複数の注視位置(注視点)の位置(座標情報)に基づいて注視領域を決定し、撮像画像から、その注視領域を含む部分画像を抽出し、抽出された部分画像を、運転支援画像としての表示撮像画像として出力する。
The display captured
表示画像生成部58は、例えば、優先順位付与部59と、画像サイズ変更部61と、画像合成部63と、を有する。優先順位付与部59及び画像サイズ変更部61は、必要に応じて設けられる(後述)。画像合成部63は、HUD装置100の表示画像(画像表示部80の表示面83に表示される画像M)に対応する表示画像エリア(表示面83における表示エリア)の内の、運転支援情報(車速表示や注意喚起マーク等の、HUD装置100が表示する各種の情報であり、HUD装置100の本来的表示ということができる)の未描画エリア(空エリア又は余白エリア)に、表示撮像画像を配置することで画像合成処理を実行し、これによって表示画像Mの画像データを生成する。
The display
次に、図2を参照する。図2(A)及び図2(B)は、図1のHUD装置によって取得される乗員の視点位置の例、及び表示される虚像(表示画像の虚像)の例を示す図である。図2(A)の例は、乗員200が、特に緊張感なく、平穏に運転している状態を示し、図2(B)では、道路に進入する可能性がある人を発見して、乗員200がやや緊張している状態を示している。
Reference is now made to FIG. 2A and 2B are diagrams illustrating an example of the occupant's viewpoint position acquired by the HUD device of FIG. 1 and an example of a displayed virtual image (a virtual image of a display image). The example of FIG. 2 (A) shows a state in which the
まず、図2(A)を参照する。図2(A)において、視線カメラ16は、ハンドル(ステアリングホイール)7の前方のインストルメントパネル11に設けられている。車両1のウインドシールド3(HUD装置100の被投影部材として機能する)には、HUD装置100の表示光Lが照射される投影面(投影領域)4が設定され、乗員200は、この投影面(投影領域)4を介して、虚像(前方の実景に重畳される虚像)Vを視認する。
First, reference is made to FIG. In FIG. 2A, the line-of-
図2(A)において、乗員200がウインドシールド3を介して視認可能な前方の実景の構成要素として、左前方の標識E2と、右前方の木E3と、道路端及びセンターラインE4と、を記載している。図2(A)中、複数の四角形の各々は、注視位置検出部52によって検出された、言い換えれば、これまでに取得された注視位置(注視点)を示す。
In FIG. 2 (A), the front left sign E2, the right front tree E3, the road edge and the center line E4 are shown as components of the front actual scene that the
投影面(投影領域)4には、表示画像生成部58が生成した表示画像HPが表示される。この表示画像HPは、運転支援情報としての「注意喚起マークC0、車速表示(ここでは60km/h)C3、前方に右折する曲がり角があることを示すナビゲーション表示としての矢印マークC2」が含まれ、かつ、投影面(投影領域)4の、運転支援情報が表示されていない領域(空領域)に、表示撮像画像CP2が表示(配置)されている。ここで、表示撮像画像CP2は、車載カメラ14によって撮像されて得られる撮像画像から、乗員200の過去の複数の注視位置(注視点)に基づいて、部分画像を抽出する(切り出す)ことにより生成される画像である。
On the projection surface (projection area) 4, the display image HP generated by the display
図2(A)の例では、虚像Vには、各種の運転支援情報と、直前まで視認していた前方の画像とが集約されていることから、乗員200は、虚像Vを確認することで、必要な情報を一度に得ることができる。
In the example of FIG. 2 (A), since various driving support information and the image of the front which had been visually recognized until just before are aggregated in the virtual image V, the
次に、図2(B)を参照する。図2(B)では、左前方に、道路に向かって進行する人E1が存在することから、乗員200の注視位置(注視点)は、その人E1の側に移動している。この結果として、表示撮像画像生成部56が決定する注視領域には、木E3が入らないことになるが、乗員200は、ウインドシールド3を介して木を見ることができることから、特に問題は生じない。一方、表示撮像画像CP2には人E1が含まれており、少なくともしばらくの間は、人E1が含まれる表示撮像画像CP2の虚像が視認され得る状態が続くことになり、よって、乗員200は、HUD装置100による虚像Vを確認しているときも前方の人の動きに注目することができ、乗員200の不安感が軽減される。
Next, reference is made to FIG. In FIG. 2 (B), since the person E1 progressing toward the road exists in the left front, the gazing position (gaze point) of the
このように、図1のHUD装置100は、乗員200の現在及び過去の複数の注視点位置(図2(A)、(B)における四角形)に基づいて注視領域を決定し、撮像画像から部分画像を抽出し(言い換えれば切り出し)、その部分画像を表示撮像画像CP2とし、その表示撮像画像CP2を、表示画像HPに対応する表示画像エリア(言い換えれば、画像表示部80の表示面83上の表示エリアであり、図2(A)、(B)では、投影領域4に相当するエリア)における運転支援情報(例えば、車速表示、注意喚起マーク、前方に急な曲がり角があることを示す矢印のナビゲーション表示等)の未描画エリア(言い換えれば、空エリア又は余白エリア)に配置し、これによって、画像表示部80の表示面83に表示される表示画像(言い換えれば、HUD装置用の表示画像)HPを生成する。
As described above, the
撮像画像から、乗員200が注視していた領域を含む部分画像を抽出して(言い換えれば切り出して)、運転支援画像としての表示撮像画像を生成することから、不要な背景等が除去された有用な運転支援画像の提供が可能となり、また、表示撮像画像CP2は、表示画像エリア内の運転支援情報が表示されていない未描画エリア(空エリア又は余白エリア)に配置されることから、表示撮像画像CP2と運転支援情報(C0、C2、C3)との競合(重複)も生じない。また、このとき、空エリアに適応するように表示撮像画像のサイズを拡大等することによって、空スペースを十分に活用して見易い実風景の画像を含む表示画像を得ることができる。
Extracting a partial image including an area that the
上述のとおり、図2(B)の例では、ある程度の遠くの路肩に道路に向かって移動していると推測される人E1を視認した乗員(このときの注視点は、HUD装置100の被投影部材3上の投影面(投影領域)4の外に位置する)200が、現在の車速や注意情報等を確認するべく、HUD装置100の虚像Vに視線を移動させた場合、乗員200の視線は一瞬、その人E1から離れることから、乗員200には、「その人が道路に飛び出してくるかもしれない」という不安感が生じる。なお、図2(B)において、乗員200の視線の移動を双方向の矢印で示している。
As described above, in the example of FIG. 2B, the occupant who visually recognizes the person E1 who is assumed to be moving toward the road on a certain distant shoulder (the gaze point at this time is the subject of the HUD device 100). When the line of
しかし、図1のHUD装置100では、乗員200が先に視認した人E1が、他の余分な背景物等に埋もれることなく効果的に表示されることから、HUD装置100の虚像Vを見ているときも、人E1の確認を適宜、行うことができる。従って、上記の不安感が軽減され、また、万一、人E1の飛び出しがあったときは、減速や急ブレーキ等の適切な処置を迅速にとることができる。従って、外部サーバーとの接続を行うといった複雑で高価なシステムを用いることなく、簡易に、乗員200にとって有用な運転支援画像を提供することが可能となる。
However, in the
また、撮像画像をそのまま表示する場合は、乗員200にとって不要な画像が含まれることから見易い画像とはいえず、また、撮像画像のサイズを乗員200にとって視認しやすい大きさに設定しようすると、撮像画像を表示するのに必要な領域の占有面積が大きくなり、他の表示コンテンツ(例えば、車速表示や注意喚起マーク等の運転支援情報)の視認性を妨げることにもなりかねない。もしくは、他の表示コンテンツと干渉して、そもそも撮像画像を視認しやすい大きさに拡大して表示することができないという事態も想定され得る。図1のHUD装置100では、撮像画像をそのまま用いずに、乗員200にとって有用な画像領域のみを抽出(切り出し)して利用するため、表示面積を抑制しつつ重要な箇所の画像を効率的に表示することができ、よって上記の問題点は生じない。
In addition, when the captured image is displayed as it is, it is not an easy-to-see image because an image unnecessary for the
また、上記の図2(A)の場合よりも、図2(B)の場合において、本発明に従うHUD装置の効果が発揮されることから、図2(B)のような場合にのみ、注視位置の取得を行ってもよい。この場合は、図1の表示制御部50において、虚像外注視検出部65が設けられる。
In addition, in the case of FIG. 2B, the effect of the HUD device according to the present invention is exerted in the case of FIG. 2B rather than the case of FIG. You may acquire a position. In this case, a virtual image extraneous
虚像外注視検出部65は、少なくとも視線検出部30の検出結果を用いることで、乗員200の視線が、図2(A)、(B)における表示画像HPの虚像Vの外に向けられているか否かを判定する。この場合、図1の表示制御部50における注視位置検出部52は、虚像外注視検出部65によって乗員200の視線が表示画像HPの虚像Vの外に向けられていると判定された場合に(例えば、その場合にのみ)、乗員200の注視位置(注視点の位置)を検出してもよい。
Whether the sight line of the
このように、乗員200の視線が表示画像HPの虚像Vの外に向けられている(言い換えれば、乗員200の視線が被投影部材3の投影領域4から外れている)と判定される場合に、乗員200の注視位置(注視点の位置の情報)を取得し、これによって、注視位置検出部52の負担を軽減しつつ、取得される注視点を、乗員が実際に注視していた実景についての注視点のみに限定することが可能となる。よって、有用な表示撮像画像CP2を効率的に得ることができる。
As described above, when it is determined that the line of sight of the
上述のとおり、図1のHUD装置100は、乗員200がHUD装置100の虚像Vの外に視線を向けている状態から、HUD装置100の虚像Vへと視線を移すときに、今まで見ていた実景から視線が外れることによる不安感を払拭するという格別の効果が得られるものである。乗員200の視線がHUD装置100の虚像Vから外れている場合に見ている注視点は重要度の高い注視点であり、これを効率的に収集することで、装置の負担を軽減しつつ、上記の格別の効果を得ることが可能となる。
As described above, the
また、上記の虚像外注視検出部65は、視線検出部30の検出結果及び生体情報検出部60の検出結果(解析結果)に基づいて、「乗員200の視線が、表示画像HPの虚像Vの外に向けられているか否かを判定する処理」を実行してもよい。
In addition, the virtual image extraneous
その判定結果に基づいて、注視位置検出部52による注視点の検出動作が開始されてもよく、あるいは、例えば、表示撮像画像の縮小や非表示といった、影響力が大きい処理が行われてもよく(後述)、よって上記の判定には慎重を期す必要がある。そこで、上記の判定に際して、視線検出部30による検出結果の他に、乗員200の生体情報の検出結果も考慮して上記の判定を行い、判定精度をより高めるものである。
Based on the determination result, the gaze point detection operation by the gaze
例えば、「路肩において、道路に進入するかもしれない人が視認された場合(図2(B)の場合)」には、乗員200の視線は、道路脇へと大きく移動し、かつ、脈拍等の生体情報も数値が上昇して緊張がより高い状態となると考えられる。よって、脈拍等の生体情報も活用することで、「より緊張度の高い運転状況が出現し、そのことが原因で視線が大きくずれた」というような推定が可能であり、この推定される状況では、乗員200の視線は、HUD100の虚像Vの外に向けられている可能性が高い。よって、より精度の高い判定が可能となる。なお、生体情報は脈拍に限定されるものではなく、例えば、心拍や脳の活動状況を示す脳血流量であってもよく、さらに他の生体情報であってもよい。
For example, when “a person who may enter the road is visually recognized on the shoulder (in the case of FIG. 2B)”, the sight line of the
以下、第1〜第4の実施形態を用いて具体的に説明する。
(第1の実施形態)
まず、図3を参照する。図3(A)は、第1の実施形態におけるHUD装置の主要な動作手順を示すフロー図、図3(B)は、図3(A)のフロー図に対応した画像処理及び表示制御の例を示す図である。図3(B)では、図3(A)におけるステップS1、S3、S4に対応する画像例が示されている。なお、図3(A)、(B)において、図2と共通する部分には同じ符号を付しており、図2について説明した事項は、図3(A)、(B)についても適用され得る。
Hereinafter, a specific description will be given using the first to fourth embodiments.
(First embodiment)
First, referring to FIG. FIG. 3A is a flowchart showing main operation procedures of the HUD device in the first embodiment, and FIG. 3B is an example of image processing and display control corresponding to the flowchart of FIG. FIG. FIG. 3B shows an image example corresponding to steps S1, S3, and S4 in FIG. 3 (A) and 3 (B), the same reference numerals are given to portions common to FIG. 2, and the items described with reference to FIG. 2 also apply to FIGS. 3 (A) and 3 (B). obtain.
図3(A)のステップS1において、表示制御部50は、車載カメラ14によって撮像された撮像画像CP1における乗員200の注視位置(図3(B)において○で示されている)情報を取得する。図3(B)に○で示される視点位置は、人E1に関する、今回取得されたものであり、言い換えれば、図2(B)において□で示される、これまでに取得された注視位置情報に追加して取得されたものである。この視点位置情報は、取得の度に記憶部36に蓄積される。蓄積された注視位置の情報は、表示撮像画像CP2を生成に必要な注視領域を決定するために利用され得る。
In step S1 of FIG. 3A, the
ここで、注視位置を取得は、ステップS1〜S4の処理ループが回るたびに必ずしも行う必要はない。例えば、表示制御部50の注視位置検出部52は、視線検出部30又は生体情報検出部60の各検出結果の少なくとも一方に基づき、乗員200の注視位置が、表示画像HPの虚像V以外にあると判断された場合にのみ、注視位置(図3(B)の○)情報(座標位置)を検出(取得)するようにしてもよい。
Here, acquisition of the gaze position is not necessarily performed every time the processing loop of steps S1 to S4 is turned. For example, the gaze
これにより、表示制御部50は、乗員200が虚像V以外の実風景を視認している場合の注視位置(図3(B)の○)のみを取得できる。この場合は、表示撮像画像CP2の領域は、「乗員が虚像Vではなく、実風景を視認していた際の視認エリア」に制限され、乗員200にとってより有益な画像となる。なぜなら、虚像Vの背景となっている実風景は、虚像Vを視認している際にも視認が比較的容易であり、乗員200にとって表示撮像画像CP2として虚像表示される必要がない可能性が高いためである。
Thereby, the
続いて、ステップS2において、表示撮像画像生成部56は、記憶部36に、乗員200の注視領域を決定することができる所定数(最低限度の数であり、これを3以上の自然数mとする)以上の数の注視位置の情報が蓄積されているかを判定する。ある程度の数の注視位置情報に基づいて注視領域を決定することで、決定の精度が高まる。また、過去の複数の注視位置に基づく決定となるため、視線が瞬時的に大きく移動したとしても、直近の視点位置も考慮して注視領域が決められることから、瞬時的な視点の移動にいたずらに引きずられることがなく、安定した注視領域の決定が可能となる。
Subsequently, in step S <b> 2, the display captured
ステップS2において「蓄積されている場合(Yの場合)」は、ステップS3において、表示撮像画像生成部56は、複数(所定数m以上の複数)の注視位置情報に基づいて、その注視位置情報を含むようにして注視領域を決定し、その注視領域に従って部分画像を抽出(切り出し)し、これによって表示撮像画像CP2を生成する。所定数の注視位置情報が存在しない場合はステップS1に戻る。
When “accumulated (in the case of Y)” in step S2, in step S3, the display captured
続いて、ステップS4において、表示画像生成部58における画像合成部63は、表示撮像画像CP2を、撮像画像CP1から、運転支援画像としての表示撮像画像CP2を生成する。なお、表示制御部200は、各注視位置情報に所定の寿命期間を付加し、寿命期間が過ぎた注視位置情報は採用しない(あるいは、記憶部36から削除する)という処理を行ってもよい。
Subsequently, in step S4, the
続いて、ステップS4において、表示画像生成部58における画像合成部63は、表示撮像画像CP2を、表示画像HPに対応する表示画像エリア内の、運転支援情報(図2で説明したとおり、ここでは、注意喚起マークC0、車速表示(60km/h)C3、前方に右折する曲がり角があることを示すナビゲーション表示としての矢印マークC2が含まれる)の未描画エリア(空エリア又は余白エリア)に、表示撮像画像CP2を配置して、表示画像HPを生成する。そして、ステップS5において、表示画像生成部58は、表示画像HPをHUD制御部70に出力する。
Subsequently, in step S4, the
このような表示制御がなされることによって、乗員200は、虚像Vに視点を合わせたことによって、それまで視認していた実風景を見ることが困難になったとしても、虚像V内に表示撮像画像CP2の虚像が含まれることから、それまでと同様に、実風景の状況を確認することができる。従って、従来、乗員が虚像Vを視認するときに感じる、「実風景を見なければわからない危険の察知、運転の予測が難しい」といった不安感を解消することができる。さらに、表示撮像画像CP2は、これまで注視してきた実風景を含む画像に限定されているため、図1のHUD装置100では、撮像画像CP1をそのまま表示する場合に比べて、乗員200に有益な画像情報を提供することができる。また、撮像画像CP1と表示撮像画像CP2を、例えば、同じ倍率だけ拡大して表示した際、その中にある1つ1つの画像情報(人や物、車線等)は、表示撮像画像CP2のほうが大きく表示されることになる。従って、画像拡大による各画像情報の視認性がより向上する。
By performing such display control, the
(第2の実施形態)
次に、図4を参照する。図4は、第2の実施形態におけるHUD装置の主要な動作手順を示すフロー図である。第2の実施形態は、基本的には第1の実施形態と同じであるが、但し、第2の実施形態では、表示制御部50が未描画エリアに表示撮像画像CP2を配置する際に、乗員200の注視位置が虚像Vの内であるか外であるかに応じて、表示撮像画像CP2のサイズを変更する等の処理が行われ、この点が第1の実施形態とは異なる。また、サイズの変更等の処理は、HUD装置100の虚像表示の信頼性にも影響が及ぶ場合があるため、慎重を期すため、乗員200の注視位置が虚像Vの内であるか外であるかの判定にあたっては、視線情報のみならず、生体情報も考慮することとしている。
(Second Embodiment)
Reference is now made to FIG. FIG. 4 is a flowchart showing main operation procedures of the HUD device according to the second embodiment. The second embodiment is basically the same as the first embodiment. However, in the second embodiment, when the
まず、ステップS1において、表示制御部50の注視位置検出部52が、撮像画像上における注視位置(注視点)を検出(取得)し、その情報を記憶部54に記憶し、生体情報検出部60が生体情報を検出(取得)する。次に、表示撮像画像生成部56が、注視位置情報が記憶部54に所定数(上述のm)以上存在するか否かを判定する。次に、表示撮像画像生成部56が、撮像画像CP1から部分画像を抽出(切り出し)して、表示撮像画像CP2を生成する。
First, in step S1, the gaze
次に、ステップS4において、図1の表示制御部50に設けられる虚像外注視検出部65が、記憶部54から注視位置の情報を読み出し、かつ生体情報検出部60から送られてくる生体情報を受け取り、双方の情報に基づいて、乗員200が虚像Vを注視している(つまり、視点が虚像内にある)か否かを判定する。
Next, in step S <b> 4, the virtual image extraneous
ステップS4でYのときは、ステップS5において、表示撮像画像生成部63に含まれる画像サイズ変更部61が、表示撮像画像CP2のサイズを拡大(もしくは現サイズを維持)して、運転支援情報(車速表示等)の未描画エリアに配置する。これによって、視認性を向上させることができる。
When Y is determined in step S4, in step S5, the image
また、ステップS4においてNの場合は、ステップS6において、表示撮像画像生成部63に含まれる画像サイズ変更部61が、表示撮像画像CP2のサイズを、虚像Vを注視している場合よりも縮小し、運転支援情報(車速情報等)の未描画エリアに配置する、もしくは、表示撮像画像CP2を未描画エリアに配置しない(言い換えれば非表示とする)。これによって、乗員200が表示撮像画像CP2を周辺視することによって発生する違和感を軽減、もしくは解消することができる。続いて、ステップS7で、表示制御部50は、生成した表示画像HPを、HUD制御部70に出力する。
Further, in the case of N in step S4, in step S6, the image
ここで、ステップS4において、「乗員が虚像Vを注視しているか」を判断する際。視線情報のみに基づく判断であってもよく、また、視線情報だけでは判断が難しい場合にのみ、生体情報を追加の判断材料として用いるようにしてもよい。 Here, in step S4, it is determined whether “the passenger is gazing at the virtual image V”. The determination may be based on only the line-of-sight information, or the biological information may be used as additional determination material only when the determination is difficult only with the line-of-sight information.
例えば、乗員200の注視位置が虚像Vと実背景にまたがっている場合、脈拍の上昇量による緊張度の推定、脳への負荷情報に基づく心理状態の推定等を行い、これを追加の判断材料とすることができる。具体的には、例えば、脈拍や脳負荷が所定の値以下であれば、乗員200はリラックスしてウインドシールド3を介して遠方を見ている(つまり、乗員は虚像V以外を見ている)可能性が高いと判断することができ、負荷が所定の値以上であれば、乗員200は、何等かの緊張状態にあり、よって、その緊張の原因となっている対象を見ている、つまり、比較的前方の対象物を注視している可能性が高く、この場合、必要な情報を集約して得るために、乗員200が虚像Vを注視する可能性も否定できない、といった判断を行うことができる。
For example, when the gazing position of the
また、ステップS4において、「乗員200の視線が虚像Vに向けられているか、虚像Vの外に向けられているか」ではなく、「虚像Vの内の、運転支援情報(速度表示等)の虚像に向けられているか、運転支援情報(速度表示等)の虚像の外に向けられているか」を判定するようにしてもよい。この場合は、表示制御部200は、乗員200が虚像Vにおける背景部分(運転支援情報以外の虚像領域)を通して車両1の周辺を見ている場合においても、撮像画像を縮小、もしくは非表示にでき、よって、乗員200が虚像Vを注視しつつも表示撮像画像CP2を周辺視しまうことで発生する違和感を軽減することができる。
Further, in step S4, not “whether the line of sight of the
このように、第2の実施形態では、乗員200の視線が、HUD装置100による虚像Vの外にあるか、内にあるかによって、表示撮像画像CP2のサイズに差を設ける。言い換えれば、表示撮像画像CP2の重要性が高いと考えられる状況では、表示撮像画像CP2を拡大する(言い換えれば、撮像画像CP1から部分画像を抽出することによって得られた当初のサイズよりも大きなサイズとする)、あるいは現状のサイズを維持することによって視認性の向上(又は確保)を図り、一方、表示撮像画像の重要性が比較的低い(不便をもたらすと考えられる場合を含む)においては、表示撮像画像CP2を縮小する(言い換えれば、撮像画像から部分画像を抽出することによって得られた当初のサイズよりも小さなサイズとする)、又は非表示とすることで、乗員に余分な負担が生じることを抑制する。
Thus, in the second embodiment, a difference is provided in the size of the display captured image CP2 depending on whether the line of sight of the
また、「視線が、HUD装置100による虚像Vの外にあるか、内にあるか」という場合分けに関しては、上述のとおり、HUD装置100の表示画像(運転支援情報及び表示撮像画像を含む全体の画像)HPを見ているか否かという観点で場合分けしてもよく、又、より厳密に視点位置を判定して、表示画像内における運転支援情報を見ているか否かで場合分けしてもよい。
In addition, regarding the case classification “whether the line of sight is outside or inside the virtual image V by the
乗員200が虚像Vの外を見ているということは、すなわち前方等の実景を見ている可能性が高いということであり、この場合、通常のサイズの表示撮像画像CP2を表示しておくと、乗員200によってその表示撮像画像CP2が周辺視される状況(言い換えれば、乗員200の周辺の視野に表示撮像画像CP2が見えてしまい、同じ画像が2つ見える、いわゆる2重映しの状況)となり、かえって混乱をもたらす可能性もあることから、表示撮像画像を縮小、又は非表示とするものである。
The fact that the
また、運転支援情報の虚像を見ているか否かで場合分けする場合には、さらに、以下の効果が得られる。すなわち、乗員の視点位置が、表示画像の虚像内ではあるが、運転支援情報の虚像外であるという場合には、乗員は、透光性の部材である被投影部材3を介して、背後の実景を見ている可能性が高いということである。よって、この場合においても、通常のサイズの表示撮像画像を表示しておくと、乗員によってその表示撮像画像が周辺視されて、かえって混乱を与える可能性がある。上記の、より厳密な場合分けを行うことによって、このような場合においても、適切な表示撮像画像の表示制御を行うことができる。なお、表示撮像画像を非表示とすることは、表示撮像画像を表示画像エリアに配置しないことによって実現されてもよく、一時的に、表示画像全体を非表示とすることによって実現されてもよい。
Further, when the case is divided depending on whether or not the virtual image of the driving support information is viewed, the following effects can be further obtained. That is, when the viewpoint position of the occupant is within the virtual image of the display image but outside the virtual image of the driving support information, the occupant is behind the
(第3の実施形態)
次に、図5を参照する。図5(A)は、第3の実施形態におけるHUD装置の主要な動作手順を示すフロー図、図5(B)は、図5(A)のフロー図に対応した画像処理及び表示制御の例を示す図、図5(C)は、構成要素毎の優先順位の例を示す図である。なお、図4(B)では、図5(A)におけるステップS4〜S6の各々に対応する画像例が示されている。また、図5(A)〜図5(C)において、前掲の図(特に図2や図3)と共通する部分には同じ符号を付しており、図2、図3について説明した事項は、図5においても適用され得る。
(Third embodiment)
Reference is now made to FIG. FIG. 5A is a flowchart showing main operation procedures of the HUD device in the third embodiment, and FIG. 5B is an example of image processing and display control corresponding to the flowchart of FIG. 5A. FIG. 5C is a diagram illustrating an example of the priority order for each component. FIG. 4B shows an image example corresponding to each of steps S4 to S6 in FIG. Further, in FIGS. 5A to 5C, the same reference numerals are given to the portions common to the above-described drawings (particularly FIGS. 2 and 3), and the matters described with reference to FIGS. 5 can also be applied in FIG.
本実施形態では、表示制御部50は、表示撮像画像CP2、及び運転支援情報(ここでは、注意喚起マークC1、前方に右折する曲がり角があることを示すナビゲーション表示としての矢印マークC2、車速表示(60km/h)C3とする)を対象として優先順位を付与し、表示撮像画像CP2よりも優先順位の低い構成要素(図5(C)からわかるようにC2、C3が該当する)については、サイズを縮小して空スペースを増やすと共に、優先順位の低い構成要素を目立たないようにしておき、未描画エリアに表示撮像画像CP2を配置して、表示画像HPを生成する。これによって、優先順位が高い情報を、見易くして乗員200に提示することが可能となる。
In the present embodiment, the
以下、具体的に説明する。図5(C)に示されるように、優先順位は、構成要素C1が最も高く、CP2、C2、C3の順に優先順位が低下する。なお、優先順位の付与は、図1の表示画像生成部58に含まれる優先順位付与部59によって実行される。
This will be specifically described below. As shown in FIG. 5C, the priority order is highest for the component C1, and the priority order decreases in the order of CP2, C2, and C3. The assignment of priority is performed by a
図5(A)において、ステップS1〜S3は、図3におけるステップS1〜S3と同じである。ステップS4において、優先順位付与部59が、運転支援情報の各構成要素(C1〜C3)、及び表示撮像画像CP2に対して優先順位を付与する。優先順位の付与結果は、図5(C)のとおりである。
In FIG. 5A, steps S1 to S3 are the same as steps S1 to S3 in FIG. In step S4, the priority
次に、ステップS5において、運転支援情報の構成要素(C1〜C3)の内の、表示撮像画像CP2の優先順位より低い優先順位のもの(図5(C)からC2、C3であることがわかる)を縮小する。ステップS6において、生成された表示撮像画像CP2を、運転支援情報(C1〜C3)の未描画エリアに配置し、これを最終的な表示画像HPとする。そして、ステップS7において、表示制御部50は、表示画像HPをHUD制御部70に出力する。
Next, in step S5, it is understood that the priority is lower than the priority of the display captured image CP2 among the components (C1 to C3) of the driving support information (from FIG. 5C, C2 and C3. ). In step S6, the generated display captured image CP2 is arranged in an undrawn area of the driving support information (C1 to C3), and this is set as a final display image HP. In step S <b> 7, the
ここで、表示撮像画像CP2と運転支援情報(C1〜C3)に対する優先順位の付与の具体例について説明する。表示撮像画像CP2と運転支援情報(C1〜C3)とでは、異なる優先順位の付与方法が使用される。 Here, a specific example of assigning priorities to the display captured image CP2 and the driving support information (C1 to C3) will be described. Different methods of assigning priorities are used for the display captured image CP2 and the driving support information (C1 to C3).
運転支援情報(C1〜C3)については、構成要素(単に「要素」、あるいは「表示コンテンツ」と称することもある)毎に、予め設定していた優先順位を決めるための点数(以後、優先度スコア)が付与される。 For the driving support information (C1 to C3), a score (hereinafter referred to as priority) for determining a priority order set in advance for each component (sometimes simply referred to as “element” or “display content”). Score).
一方、表示撮像画像CP2の優先順位については、撮像画像CP1の解析結果を考慮して行われる。すなわち、図1の撮像画像処理部40に含まれる撮像画像解析部42が、撮像画像CP1から検出物(撮像画像に含まれる各種の要素)と、それに付随する情報とを抽出して、記憶部44に記憶させる。表示制御部50の表示画像生成部に含まれる優先順位付与部59は、記憶部44から上記の検出物及び付随情報を読み出し、それらの情報を基に各検出物に優先度スコアを付与する。そして、付与した複数の点数を総合的に勘案して表示撮像画像CP2の優先度スコアを求める。これによって、表示撮像画像CP2の優先順位が求められる。
On the other hand, the priority order of the displayed captured image CP2 is determined in consideration of the analysis result of the captured image CP1. That is, the captured
なお、上記の検出物は、例えば、図5(B)の上側の図に示されるように、人E1、標識E2、及びセンターライン等E4が該当する。そして、それら検出物に付随する情報とは、検出物毎のカテゴリ、車間距離、大きさなどである。上記の検出物毎の優先度スコアは、付随する情報ごとに係数を掛けることで算出する。当然、ある情報の係数を0とすることで、一部の情報を優先度スコアの算出に含めないようにしてもよい。また、表示撮像画像CP2の優先度スコアは、表示制御部50が任意のアルゴリズムで算出してよい。例えば、表示撮像画像CP2の優先度スコアを各検出物の優先度スコアの最高点とすれば、図5(A)のステップS5において、最も多くの運転支援情報の要素を縮小することができる。その結果、表示撮像画像CP2の配置領域を拡大することができる。しかし、最高点とすると、優先度が比較的高い構成要素までもが縮小される恐れがある。そのため、表示撮像画像CP2の優先度スコアは、例えば抽出物の平均値とするなど、縮小する構成要素と表示撮像画像CP2との双方において、視認性のバランスが取れるよう、慎重に定めるのが好ましい。なお、縮小率は、縮小対象の構成要素毎に、優先度スコアに応じて任意に定めてもよい。
Note that the detected object corresponds to, for example, a person E1, a label E2, and a center line E4 as shown in the upper diagram of FIG. The information accompanying the detected objects includes the category, the inter-vehicle distance, and the size of each detected object. The priority score for each detected object is calculated by multiplying the associated information by a coefficient. Of course, by setting the coefficient of certain information to 0, some information may not be included in the calculation of the priority score. Further, the priority score of the displayed captured image CP2 may be calculated by the
(第4の実施形態)
第4の実施形態では、「運転支援情報の構成要素(C1〜C3)及び撮像画像CP1に含まれる主要な構成要素(E1〜E4)」を対象として優先順位を付与しておき、撮像画像CP1から部分画像を抽出して表示撮像画像CP2を生成する際に、その優先順位も考慮に入れて抽出する領域(切り出す領域)を決定する。
(Fourth embodiment)
In the fourth embodiment, priority is given to “components (C1 to C3) of driving assistance information and main components (E1 to E4) included in the captured image CP1”, and the captured image CP1. When the partial image is extracted from the image and the display captured image CP2 is generated, the region to be extracted (region to be extracted) is determined in consideration of the priority order.
まず、図6を参照する。図6は、本発明に従うHUD装置の、第4の実施形態に対応する構成例を示す図である。構成は概ね図1と同じであるが、図6では、図1の構成に加えて、表示制御部50内に優先順位付与部53が設けられており、この点で図1とは異なる。その他の構成は、図1と同じである。なお、図6において、優先順位付与部53に入力される情報をわかり易くするために、太い点線で情報の流れを示している。
First, referring to FIG. FIG. 6 is a diagram showing a configuration example corresponding to the fourth embodiment of the HUD device according to the present invention. Although the configuration is generally the same as that in FIG. 1, in FIG. 6, a priority
次に、図7を参照する。図7(A)は、第4の実施形態におけるHUD装置の主要な動作手順を示すフロー図、図7(B)は、図7(A)のフロー図に対応した画像処理及び表示制御の例を示す図、図7(C)は、構成要素毎の優先順位の例を示す図である。なお、図7(B)では、図7(A)におけるステップS3、S4、S6、S7の各々に対応する画像例が示されている。また、図7(A)〜図7(C)において、前掲の図(図2、図3、図5)と共通する部分には同じ符号を付しており、図2〜図5について説明した事項は、図7においても適用され得る。 Reference is now made to FIG. FIG. 7A is a flowchart showing main operation procedures of the HUD device in the fourth embodiment, and FIG. 7B is an example of image processing and display control corresponding to the flowchart of FIG. 7A. FIG. 7C is a diagram showing an example of the priority order for each component. Note that FIG. 7B shows an image example corresponding to each of steps S3, S4, S6, and S7 in FIG. 7A. Further, in FIGS. 7A to 7C, the same reference numerals are given to the portions common to the above-described drawings (FIGS. 2, 3, and 5), and FIGS. The matter can also be applied in FIG.
図7(A)のステップS1、S2は、図3、図4、図5(A)のステップS1、S2と同じである。ステップS3において、図6の優先順位付与部53は、運転支援情報(C1〜C3)の各構成要素、及び撮像画像CP1の各構成要素(E1〜E4)に優先順位を付与する。優先順位の付与方法は、第3の実施形態で説明したものと同様である。優先順位の付与結果は、図7(C)のとおりである。構成要素C1が最も優先順位が高く、以下、E1、E2、C2、C3、E4、E3の順に優先順位が低下する。
Steps S1 and S2 in FIG. 7A are the same as steps S1 and S2 in FIGS. 3, 4, and 5A. In step S3, the priority
ステップS4では、注視位置と各構成要素の優先順位とに基づき撮像画像を抽出し、これによって表示撮像画像CP3を生成する。 In step S4, a captured image is extracted based on the gaze position and the priority order of each component, thereby generating a display captured image CP3.
言い換えれば、表示撮像画像生成部56は、注視位置検出部52によって検出された複数の注視点の位置に基づいて複数の注視点を含むように注視領域を決定し、そして、優先順位付与部53によって付与された優先順位(図7(C))を参照して、撮像画像CP1の主要な構成要素(E1〜E4)の内の、優先順位が上位であるものが少なくとも含まれるように、かつ注視領域が含まれるように、撮像画像CP1から部分画像を抽出し、抽出された部分画像を表示撮像画像CP3として出力する。
In other words, the display captured
ここで、図7(B)のステップS4に対応する画像を参照する。乗員200は、道路上のみを見ており、左前方に出現した、道路に向かって移動する人E1には視線を向けていない。言い換えれば、乗員200は、人E1に気づいていない。この場合、第1〜第3の実施形態によれば、撮像画像CP1から抽出される部分画像は、乗員200の複数の注視位置情報により決定される。よって、表示撮像画像CP2が生成されるが、その表示撮像画像CP2には、注意を要する人E1が含まれないことになる。しかし、本実施形態の場合、人E1には、2番目に高い優先順位が付与されていることから(図7(C))、この優先順位も考慮されて、人E1を含むように部分画像が抽出され、よって、人E1が含まれる表示撮像画像CP3が生成される。
Here, the image corresponding to step S4 in FIG. 7B is referred to. The
次に、ステップS5において、表示画像生成部58の優先順位付与部59が、生成された表示撮像画像CP3の優先順位を、ステップS3にて付与された優先順位に基づいて決定する。ここでは、表示撮像画像CP3の優先順位は、構成要素C1より低く、構成要素C2、C3よりも高い、言い換えれば、優先順位に関しては、C1>CP3>C2、C3の関係が成立するものとする。
Next, in step S5, the priority
次に、ステップS6において、表示画像生成部58の画像サイズ変更部61が、運転支援情報の構成要素(C1〜C3)の内の、表示撮像画像CP3の優先順位よりも低い優先順位のもの(ここではC2、C3)のサイズを縮小する。なお、構成要素C1については、現状のサイズを維持する(図7(B)のステップS6に対応する画像参照)。
Next, in step S6, the image
次に、ステップS7において、表示画像生成部58の画像合成部63が、表示撮像画像CP3を、表示画像エリアの内の、運転支援情報(C1〜C3)の未描画エリア(空エリア又は余白エリア)に配置し、これによって、最終的な表示画像HPを生成する。そして、ステップS8において、表示画像HPをHUD制御部70に出力する。
Next, in step S7, the
このように、第4の実施形態では、「運転支援情報の構成要素(C1〜C3)及び撮像画像CP1に含まれる主要な構成要素(E1〜E4)」を対象として優先順位を付与しておき、撮像画像CP1から部分画像を抽出して表示撮像画像を生成する際に、その優先順位も考慮に入れて抽出する領域(切り出す領域)を決定し、これによって、表示撮像画像CP3を生成する。 As described above, in the fourth embodiment, priorities are given to “the components (C1 to C3) of the driving support information and the main components (E1 to E4) included in the captured image CP1” in advance. When a partial image is extracted from the captured image CP1 and a display captured image is generated, a region to be extracted (region to be extracted) is determined in consideration of the priority order, thereby generating a display captured image CP3.
第1の実施形態では、乗員200の注視領域のみに着目して抽出する領域を決定していることから、例えば、乗員200がぼんやりと運転していて、道路上へ飛び出そうとしている人E1に気づかず、その人には視線が向けられないといった状況(図7(B)のステップS4に対応する画像)では、その飛び出そうとしている人E1についての画像は、表示撮像画像CP2には含まれないことになり、よって、重要性の高い対象である人E1についての画像の表示ができない。
In the first embodiment, since the region to be extracted is determined by focusing only on the gazing region of the
これに対して、第4の実施形態では、表示制御部50に新たに含まれる優先順位付与部53が、撮影手段(車載カメラ14)によって撮影された撮像画像CP1を分析し、主要な構成要素(E1〜E4)について優先順位を付与することから、上記の「飛び出そうとしている人E1」については確実に、高い優先順位(図7(C)では第2の優先順位)が付与されることになる。
On the other hand, in the fourth embodiment, the priority
よって、表示撮像画像を生成する際に、「優先順位が上位であるものが少なくとも含まれるように、かつ注視領域が含まれるように抽出する」ことによって、上記の「飛び出そうとしている人E1」も確実に表示撮像画像CP3に含まれることになる。従って、その表示撮像画像CP3(を含む表示画像HPの虚像V)によって乗員の注意を喚起して、事故を未然に防止するといったことが可能となる。言い換えれば、本実施形態によって、より有用性の高い、運転支援画像としての表示撮像画像CP3の提供が可能となる。 Therefore, when generating the display captured image, the above-mentioned “person E1 who is about to jump out” is extracted by “extracting so as to include at least those having higher priority and including a gaze area”. Is certainly included in the displayed captured image CP3. Therefore, it is possible to alert the occupant with the display captured image CP3 (including the virtual image V of the display image HP) and prevent an accident in advance. In other words, according to the present embodiment, it is possible to provide a display captured image CP3 as a driving assistance image that is more useful.
また、上述のとおり本実施形態では、「優先順位が上位であるものが少なくとも含まれるように、かつ注視領域が含まれるように部分画像を抽出する」という処理が行われることから、抽出された部分画像である表示撮像画像CP3のサイズが大きくなり易いと考えられる。そこで、本実施形態では、運転支援情報の構成要素(C1〜C3)の内の、表示撮像画像CP3の優先順位よりも低い優先順位のもの(C2、C3)を、縮小することで、未描画のエリア(余白エリア)を効果的に増大させる。よって、表示撮像画像CP3を配置するための、最小限度のサイズ以上のエリア(空スペース)を確実に確保することができる。 Further, as described above, in the present embodiment, the process of “extracting a partial image so as to include at least a higher priority and a gaze area” is performed. It is considered that the size of the display captured image CP3 that is a partial image tends to increase. Therefore, in the present embodiment, among the components (C1 to C3) of the driving support information, those having a lower priority order (C2, C3) than the priority order of the display captured image CP3 are reduced, so that no drawing is performed. The area (margin area) is effectively increased. Therefore, an area (empty space) larger than the minimum size for arranging the display captured image CP3 can be surely secured.
以上、本発明をいくつかの実施形態に基づいて説明したが、本発明はこれらに限定されるものではなく、種々、変形、応用が可能である。例えば、前掲の実施形態では、車載カメラにて前方の実景を撮像しているが、道路側のカメラが撮像した実景の画像や、運転支援システムのカメラが撮像した運転支援用の画像を車両に送信するようにしてもよく、この場合も、同様の効果を得ることができる。 As mentioned above, although this invention was demonstrated based on some embodiment, this invention is not limited to these, A various deformation | transformation and application are possible. For example, in the above-described embodiment, an in-vehicle camera images a front scene, but an image of a scene captured by a road-side camera or a driving assistance image captured by a camera of a driving assistance system is captured in a vehicle. In this case, the same effect can be obtained.
また、前掲の実施形態では、主として、道路を走行中の車両の前方(斜め、あるいは横方向を含む広い意味に解釈するのが好ましい)に注意するべき対象(道路に向かって移動する人等)が存在する例について説明したが、これに限定されるものではない。 Further, in the above-described embodiment, an object (such as a person moving toward the road) that should be noted mainly in front of the vehicle traveling on the road (preferably interpreted in a broad sense including diagonally or laterally). Although an example in which is present has been described, the present invention is not limited to this.
例えば、車両が後進(バック)している場合にも、本発明は適用可能である。例えば、乗員が車両をバックさせているときに、車両に搭載される車載カメラで後方を撮影(撮像)し、その画像を車両側で解析して、音声等によるナビゲーションを行う場合、HUD装置にも、ナビゲーション情報を表示する場合があり得る。 For example, the present invention can also be applied when the vehicle is moving backward (back). For example, when an occupant is backing a vehicle, the rear is photographed (captured) with an in-vehicle camera mounted on the vehicle, the image is analyzed on the vehicle side, and navigation by voice or the like is performed. In some cases, navigation information may be displayed.
後方を視認しながら車両を後方に移動させている最中に、乗員がHUD装置の表示を確認するべく、一瞬、前方の虚像を見るとき、後方の実景の視認はできない。しかし、本発明を用いると、HUD装置の虚像に、後方の実景画像(言い換えれば「表示撮像画像」)の虚像を含ませることができ、よって、乗員は、前を見た状態でも、HUD装置の虚像によって、後方の実景をほぼリアルタイムで確認することができ、よって、急な人の飛び出し等の不測の事態が生じたとしても、適切な対処が可能となる。このように、本発明は、種々の運転状況に対応して、幅広く利用することが可能である。 While the vehicle is moving backward while visually recognizing the rear, when the occupant sees the front virtual image for a moment in order to confirm the display of the HUD device, the rear real scene cannot be visually recognized. However, when the present invention is used, the virtual image of the HUD device can include a virtual image of a rear real scene image (in other words, a “displayed captured image”). With this virtual image, the rear real scene can be confirmed almost in real time, so that even if an unexpected situation such as a sudden jump out of a person occurs, an appropriate countermeasure can be taken. Thus, the present invention can be widely used in response to various operating situations.
本発明は、上述の例示的な実施形態に限定されず、また、当業者は、上述の例示的な実施形態を特許請求の範囲に含まれる範囲まで、容易に変更することができるであろう。 The present invention is not limited to the above-described exemplary embodiments, and those skilled in the art will be able to easily modify the above-described exemplary embodiments to the extent included in the claims. .
1・・・車両、2・・・視点(目、瞳)、3・・・ウインドシールド(広義には、被投影部材)、4・・・投影領域、10・・・車載ECU、11・・・インストルメントパネル、14・・・車載カメラ、16・・・視線カメラ、18・・・生体情報測定部(脈拍計等)、30・・・視線検出部、32・・・視線方向検出部、34・・・視線ベクトル算出部、36・・・記憶部、40・・・撮像画像処理部、42・・・撮像画像解析部、44・・・記憶部、50・・・表示制御部、52・・・注視位置検出部、53・・・優先順位付与部、54・・・記憶部、56・・・表示撮像画像生成部、58・・・表示画像生成部、59・・・優先順位付与部、60・・・生体情報検出部、61・・・画像サイズ変更部、63・・・画像合成部、63・・・表示撮像画像生成部、63・・・画像合成部、65・・・虚像外注視検出部、70・・・画像表示部、70・・・HUD制御部、80・・・画像表示部、80・・・画像表示部、82・・・光学系、83・・・表示面、85・・・反射鏡、100・・・HUD装置、200・・・乗員、200・・・生体情報測定部、C0、C1・・・注意喚起マーク、C2・・・矢印マーク、C3・・・車速表示、CP1・・・撮像画像、CP2、CP3・・・表示撮像画像、E1・・・人、E2・・・標識、E3・・・木、E4・・・センターラインや道路端等、HP・・・表示画像、L・・・表示光、M・・・表示画像、V・・・虚像。
DESCRIPTION OF
Claims (7)
前記乗員の視線を検出する視線検出部と、
前記車両の運行に関する運転支援情報と、前記車両の乗員が視認することが可能と予想される前記車両の周囲の実景を撮影手段で撮影して得られる撮像画像に基づいて生成される運転支援画像としての表示撮像画像と、に基づいて前記表示画像を生成する機能を有する表示制御部と、
を備え、
前記表示制御部は、
前記視線検出部により取得される視線情報と、前記撮影手段による撮影によって得られる前記撮像画像とに基づいて、前記撮像画像上における前記乗員の注視点の位置を検出する注視位置検出部と、
前記注視位置検出部によって検出された複数の注視点の位置に基づいて、前記複数の注視点を含むように注視領域を決定し、前記撮像画像から、前記注視領域を含む部分画像を抽出し、抽出された前記部分画像を前記表示撮像画像として出力する表示撮像画像生成部と、
前記表示画像に対応する表示画像エリアの内の、前記運転支援情報の未描画エリアに前記表示撮像画像を配置して前記表示画像を生成する表示画像生成部と、
を有することを特徴とするヘッドアップディスプレイ装置。 A head-up display device that causes a passenger to visually recognize a virtual image of the display image by projecting a display image mounted on the vehicle and displayed on a display surface of an image display unit onto a projection target member provided in the vehicle,
A line-of-sight detection unit for detecting the line of sight of the occupant;
Driving assistance image generated based on driving assistance information related to the operation of the vehicle and a captured image obtained by photographing a real scene around the vehicle that is expected to be visible to a passenger of the vehicle. A display control unit having a function of generating the display image based on the display captured image, and
With
The display control unit
A gaze position detection unit that detects the position of the gazing point of the occupant on the captured image based on the line-of-sight information acquired by the line-of-sight detection unit and the captured image obtained by imaging by the imaging unit;
Based on the positions of a plurality of gaze points detected by the gaze position detection unit, determine a gaze area so as to include the plurality of gaze points, and extract a partial image including the gaze area from the captured image, A display captured image generation unit that outputs the extracted partial image as the display captured image;
A display image generation unit that generates the display image by arranging the display captured image in an undrawn area of the driving support information in a display image area corresponding to the display image;
A head-up display device comprising:
前記注視位置検出部は、前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像の外に向けられていると判定された場合に、前記乗員の注視点の位置を検出することを特徴とする請求項1に記載のヘッドアップディスプレイ装置。 By using at least the detection result of the line-of-sight detection unit, the occupant's line-of-sight has a virtual image external gaze detection unit that determines whether or not the line of sight of the occupant is directed outside the virtual image of the display image,
The gaze position detection unit detects the position of the occupant's gaze point when the virtual image gaze detection unit determines that the sight line of the occupant is directed outside the virtual image of the display image. The head-up display device according to claim 1.
前記表示画像生成部は、
前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像に、又は前記運転支援情報の虚像に向けられていると判定された場合に、前記表示撮像画像を拡大又は現サイズを維持して前記運転支援情報の未描画エリアに配置し、
前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像外に、又は前記運転支援情報の虚像外に向けられていると判定された場合に、前記表示撮像画像を縮小して前記運転支援情報の未描画エリアに配置する、又は前記表示撮像画像を非表示とすることを特徴とする請求項1に記載のヘッドアップディスプレイ装置。 Whether or not the sight line of the occupant is directed outside the virtual image of the display image or whether or not the virtual image of the driving support information is directed by using at least the detection result of the visual line detection unit A virtual image gaze detection unit for determining whether
The display image generation unit
When it is determined that the sight line of the occupant is directed to the virtual image of the display image or the virtual image of the driving support information, the display captured image is enlarged or maintained at the current size. Placed in the undrawn area of the driving support information,
When it is determined that the sight line of the occupant is directed outside the virtual image of the display image or outside the virtual image of the driving support information by the virtual image outside gaze detection unit, the display captured image is reduced and the driving is performed The head-up display device according to claim 1, wherein the head-up display device is arranged in an undrawn area of support information, or the display captured image is not displayed.
前記表示画像生成部は、前記運転支援情報の構成要素の内の、前記表示撮像画像よりも優先順位が低い構成要素を縮小し、前記表示画像を前記運転支援情報の未描画エリアに配置することを特徴とする請求項1に記載のヘッドアップディスプレイ装置。 The display control unit includes a priority order assigning unit that assigns a priority order according to importance for the components of the driving support information and the display captured image.
The display image generation unit reduces a component having a lower priority than the display captured image among the components of the driving support information, and arranges the display image in an undrawn area of the driving support information. The head-up display device according to claim 1.
前記表示撮像画像生成部は、前記注視位置検出部によって検出された複数の注視点の位置に基づいて前記複数の注視点を含むように注視領域を決定し、前記優先順位付与部によって付与された優先順位を参照して、前記撮像画像の主要な構成要素の内の、優先順位が上位であるものが少なくとも含まれるように、かつ前記注視領域が含まれるように、前記撮像画像から部分画像を抽出し、抽出された前記部分画像を前記表示撮像画像として出力することを特徴とする請求項1に記載のヘッドアップディスプレイ装置。 The display control unit includes a priority order assigning unit that assigns a priority order according to the importance for the main constituent elements included in the driving support information and the captured image,
The display captured image generation unit determines a gaze area so as to include the plurality of gaze points based on positions of the plurality of gaze points detected by the gaze position detection unit, and is given by the priority order giving unit Referring to the priority order, a partial image is extracted from the captured image so that at least one of the main constituent elements of the captured image has a higher priority order is included and the gaze area is included. The head-up display device according to claim 1, wherein the extracted partial image is output as the display captured image.
前記虚像外注視検出部は、前記視線検出部の検出結果及び前記生体情報検出部の検出結果の少なくとも一方に基づいて、前記判定を行うことを特徴とする請求項2又は3に記載のヘッドアップディスプレイ装置。 A biological information detection unit for detecting the biological information of the occupant;
4. The head-up according to claim 2, wherein the virtual image extraneous gaze detection unit performs the determination based on at least one of a detection result of the visual line detection unit and a detection result of the biological information detection unit. Display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017086990A JP2018185654A (en) | 2017-04-26 | 2017-04-26 | Head-up display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017086990A JP2018185654A (en) | 2017-04-26 | 2017-04-26 | Head-up display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018185654A true JP2018185654A (en) | 2018-11-22 |
Family
ID=64355864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017086990A Pending JP2018185654A (en) | 2017-04-26 | 2017-04-26 | Head-up display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018185654A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020170380A1 (en) * | 2019-02-21 | 2020-08-27 | 三菱電機株式会社 | Display control device and display control method |
WO2021064791A1 (en) * | 2019-09-30 | 2021-04-08 | 三菱電機株式会社 | Image display device, display control device, display control method, program, and recording medium |
CN112698719A (en) * | 2019-10-23 | 2021-04-23 | 通用汽车环球科技运作有限责任公司 | Method and apparatus for reformatting content of a human eye window |
CN113837027A (en) * | 2021-09-03 | 2021-12-24 | 东风柳州汽车有限公司 | Driving assistance sensing method, device, equipment and storage medium |
WO2022244673A1 (en) * | 2021-05-19 | 2022-11-24 | 株式会社デンソー | Display system for vehicle, display method for vehicle, and display program for vehicle |
US20230249618A1 (en) * | 2017-09-22 | 2023-08-10 | Maxell, Ltd. | Display system and display method |
-
2017
- 2017-04-26 JP JP2017086990A patent/JP2018185654A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230249618A1 (en) * | 2017-09-22 | 2023-08-10 | Maxell, Ltd. | Display system and display method |
WO2020170380A1 (en) * | 2019-02-21 | 2020-08-27 | 三菱電機株式会社 | Display control device and display control method |
JPWO2020170380A1 (en) * | 2019-02-21 | 2021-05-20 | 三菱電機株式会社 | Display control device and display control method |
WO2021064791A1 (en) * | 2019-09-30 | 2021-04-08 | 三菱電機株式会社 | Image display device, display control device, display control method, program, and recording medium |
CN112698719A (en) * | 2019-10-23 | 2021-04-23 | 通用汽车环球科技运作有限责任公司 | Method and apparatus for reformatting content of a human eye window |
WO2022244673A1 (en) * | 2021-05-19 | 2022-11-24 | 株式会社デンソー | Display system for vehicle, display method for vehicle, and display program for vehicle |
JP7428161B2 (en) | 2021-05-19 | 2024-02-06 | 株式会社デンソー | Vehicle display system, vehicle display method, and vehicle display program |
CN113837027A (en) * | 2021-09-03 | 2021-12-24 | 东风柳州汽车有限公司 | Driving assistance sensing method, device, equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018185654A (en) | Head-up display device | |
JP6452065B2 (en) | Display control apparatus and display control program | |
US20230249618A1 (en) | Display system and display method | |
US11250816B2 (en) | Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle | |
JP4970379B2 (en) | Vehicle display device | |
JP5855206B1 (en) | Transmission display device for vehicle | |
KR20180022374A (en) | Lane markings hud for driver and assistant and same method thereof | |
EP3043337A1 (en) | Display control apparatus, projection apparatus, display control method, display control program, and non-transitory computer readable storage medium | |
JP7561910B2 (en) | AR display device, AR display method, and program | |
JP7397918B2 (en) | Video equipment | |
JP2017167623A (en) | Information display device, information display method, and program | |
JP6504382B2 (en) | Display control apparatus, display system, display control method, display control program, and projection apparatus | |
JP2015501440A (en) | Especially display devices for automobiles | |
JP2008162550A (en) | External environment display device | |
JP2021135933A (en) | Display method, display device and display system | |
JP6415968B2 (en) | COMMUNICATION DEVICE, WARNING DEVICE, DISPLAY DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
US11768650B2 (en) | Display control device, display system, and display control method for controlling display of information | |
JP7429875B2 (en) | Display control device, display device, display control method, and program | |
US9857598B2 (en) | Display control device, display control method, non-transitory recording medium, and projection device | |
US20220324475A1 (en) | Driving support device, moving apparatus, driving support method, and storage medium | |
JP2024154100A (en) | Display control device, display system, and display control method | |
JP2018041008A (en) | Display device | |
JP2018041009A (en) | Display device | |
JP2024112137A (en) | Display control device, display control method, and program | |
WO2019142364A1 (en) | Display control device, display control system, and display control method |