[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5565561B2 - Driving assistance system - Google Patents

Driving assistance system Download PDF

Info

Publication number
JP5565561B2
JP5565561B2 JP2010034948A JP2010034948A JP5565561B2 JP 5565561 B2 JP5565561 B2 JP 5565561B2 JP 2010034948 A JP2010034948 A JP 2010034948A JP 2010034948 A JP2010034948 A JP 2010034948A JP 5565561 B2 JP5565561 B2 JP 5565561B2
Authority
JP
Japan
Prior art keywords
vehicle
information
arrow
road
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010034948A
Other languages
Japanese (ja)
Other versions
JP2011169808A (en
Inventor
裕司 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2010034948A priority Critical patent/JP5565561B2/en
Publication of JP2011169808A publication Critical patent/JP2011169808A/en
Application granted granted Critical
Publication of JP5565561B2 publication Critical patent/JP5565561B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Instructional Devices (AREA)

Description

本発明は、車両のウインドシールド上に案内情報画像を重畳表示することによって運転者に対するアシスト動作を行う運転アシストシステムに関する。   The present invention relates to a driving assist system that performs an assisting operation for a driver by displaying a guidance information image superimposed on a windshield of a vehicle.

従来より、目的地がセットされると、距離や時間に関して最適なルート候補を検索し、これらを運転者に提示し選択させ、選択されたルートを運転者に対して、適時案内を行う運転アシストシステムが知られている。また、このような運転アシストシステムにおいて、運転者に対する案内する際、HUD(ヘッドアップディスプレイ)ユニットを用い、運転席におけるウインドシールド上に案内情報を重畳表示するものが知られている。   Conventionally, when a destination is set, driving assistance that searches for optimal route candidates with respect to distance and time, presents them to the driver and selects them, and guides the selected route to the driver in a timely manner. The system is known. Further, in such a driving assist system, there is known a system in which guidance information is superimposed and displayed on a windshield in a driver's seat using a HUD (head up display) unit when guiding a driver.

例えば、特許文献1(特開2005−69800号公報)には、HUDを用いて、ランドマークの位置にフロントガラスを介して仮想物体を表示することによって、運転者を案内する技術が開示されている。   For example, Patent Document 1 (Japanese Patent Laid-Open No. 2005-69800) discloses a technique for guiding a driver by displaying a virtual object through a windshield at a landmark position using a HUD. Yes.

また、特許文献2(特開2009−137491号公報)には、車両進行方向を指示する矢印の画像をウインドシールドに表示する技術が記載されている。
特開2005−69800号公報 特開2009−137491号公報
Patent Document 2 (Japanese Patent Application Laid-Open No. 2009-137491) describes a technique for displaying an image of an arrow indicating a vehicle traveling direction on a windshield.
JP 2005-69800 A JP 2009-137491 A

従来のHUD技術を用いて、運転アシストシステムを構成するときにおける問題点を図33乃至図37を参照して説明する。図33はHUDユニットによる重畳画像表示を行っていないウインドシールドから車両前方を見た図である。以下、本明細書では、図33に示す車両前方の景色において、HUDユニットによる案内情報の重畳表示を行う場合を例にとり、ランドマーク施設である「MOJO」の手前を左折する事例について説明する。   Problems in configuring a driving assist system using conventional HUD technology will be described with reference to FIGS. FIG. 33 is a view of the front of the vehicle as viewed from the windshield not displaying the superimposed image by the HUD unit. Hereinafter, in the present specification, an example in which guidance information is superimposed and displayed by the HUD unit in the scenery in front of the vehicle shown in FIG. 33 will be described as an example of turning left before the landmark facility “MOJO”.

図34は従来のHUDユニットによってウインドシールドに、ランドマークの重畳画像表示のみを行った様子を示す図である。図34においては、ランドマークのロゴである「MOJO」の虚像がHUDユニットによって生成されウインドシールドに表示されている例を示している。ここで、このようなランドマークの重畳表示に加えて、ランドマークである「MOJO」の手前において、左折することを案内するために矢印をウインドシールドに重畳表示させようとすると、以下の説明するような問題点が発生するので検討する。   FIG. 34 is a diagram showing a state in which only the superimposed image display of the landmark is performed on the windshield by the conventional HUD unit. FIG. 34 shows an example in which a virtual image of “MOJO”, which is a landmark logo, is generated by the HUD unit and displayed on the windshield. Here, in addition to such a superimposed display of landmarks, an arrow is superimposed on the windshield in order to guide the left turn in front of the landmark “MOJO”. Consider the following problems.

図35は従来技術に係る運転アシストシステムのHUDユニットで案内情報を表示する際の状況を鳥瞰的にみた図である。また、図35において、点線で示された矢印及びランドマークはHUDユニットによって生成されて、ウインドシールドに重畳表示させようとする表示データを示すものである。以下、本明細書において説明する運転アシストシステムにおいては、基本的に、車両の位置情報を取得し、その位置情報と地図情報とをマッチングさせて、車両の地図上における位置を把握・認識する、所謂ナビゲーション装置が協働して機能している。   FIG. 35 is a bird's-eye view of the situation when the guidance information is displayed on the HUD unit of the driving assist system according to the prior art. In FIG. 35, arrows and landmarks indicated by dotted lines indicate display data that is generated by the HUD unit and is to be superimposed and displayed on the windshield. Hereinafter, in the driving assistance system described in this specification, basically, the position information of the vehicle is acquired, the position information and the map information are matched, and the position on the map of the vehicle is grasped and recognized. A so-called navigation device functions in cooperation.

図35(A)は、(ナビゲーション装置による車両の認識位置)=(実際の車両位置)である場合を示したものである。この場合、
図35(B)は、(実際の車両位置)より(ナビゲーション装置による車両の認識位置)が遅れている場合である。このような場合、HUDユニットにより重畳表示される矢印
及びランドマークからなる画像情報は、車両進行方向の奥側にシフトして表示されることとなる。すなわち、運転者からみると、図36のような重畳表示となる。
FIG. 35A shows a case where (recognized position of vehicle by navigation device) = (actual vehicle position). in this case,
FIG. 35B shows a case where (recognized position of the vehicle by the navigation device) is delayed from (actual vehicle position). In such a case, the image information composed of the arrows and landmarks superimposed and displayed by the HUD unit is displayed shifted to the far side in the vehicle traveling direction. That is, when viewed from the driver, the display is superimposed as shown in FIG.

一方、図35(C)は、(実際の車両位置)より(ナビゲーション装置による車両の認識位置)が先行している場合である。このような場合、HUDユニットにより重畳表示される矢印及びランドマークからなる画像情報は、車両進行方向の手前側にシフトして表示されることとなる。すなわち、運転者からみると、図37のような重畳表示となる。   On the other hand, FIG. 35C shows a case where (vehicle recognition position by the navigation device) precedes (actual vehicle position). In such a case, the image information composed of the arrows and landmarks superimposed and displayed by the HUD unit is shifted and displayed on the front side in the vehicle traveling direction. That is, when viewed from the driver, the display is superimposed as shown in FIG.

上記のように(実際の車両位置)と、(ナビゲーション装置による車両の認識位置)とがずれていると、矢印及びランドマークからなる案内用画像情報の重畳表示が、図36及び図37に示すように、実際に案内すべきポイントからずれてしまうこととなり、このような案内表示を参照した運転者が違和感を覚え、曲がるべきポイントを的確に把握することが困難である、という問題があった。   When (actual vehicle position) and (recognition position of the vehicle by the navigation device) are deviated as described above, superimposed display of guidance image information made up of arrows and landmarks is shown in FIG. 36 and FIG. Thus, there is a problem that the driver who refers to such a guidance display feels uncomfortable and it is difficult to accurately grasp the point to be bent. .

上記問題点を解決するために、請求項1に係る発明は、車両のウインドシールド上に案内方向を示す矢印を重畳表示することによって、運転者に対する運転アシストを行う運転アシストシステムであって、自車両の自位置を決定するための複数の自位置認識手段と、前記案内方向を示す矢印の幅を補正する補正手段を有し、前記補正手段は、前記複数の自位置認識手段による自位置の認識状態に基づいて、自位置の位置誤差を推定し、推定される車両位置情報の位置誤差分だけ前記矢印の幅を拡張することを特徴とする。
In order to solve the above problems, the invention according to claim 1, by superimposing displays an arrow indicating the guiding direction on the vehicle windshield, a driving assist system for driving assist for the driver, own A plurality of own position recognizing means for determining the own position of the vehicle; and a correcting means for correcting a width of an arrow indicating the guide direction . Based on the recognition state, the position error of the own position is estimated, and the width of the arrow is expanded by the position error of the estimated vehicle position information.

本発明に係る運転アシストシステムは、車両のウインドシールド上に重畳表示する画像情報における案内方向を示す矢印の太さを補正するように構成されているので、補正された矢印の重畳表示内に、案内ポイントが含まれる可能性が高まり、運転者が違和感を覚えることなく曲がるべきポイントを的確に把握することが可能となる。   The driving assist system according to the present invention is configured to correct the thickness of the arrow indicating the guide direction in the image information to be superimposed and displayed on the windshield of the vehicle. The possibility that the guidance point is included increases, and the driver can accurately grasp the point to bend without feeling uncomfortable.

本発明の実施形態に係る運転アシストシステムの概略を示す図である。1 is a diagram showing an outline of a driving assist system according to an embodiment of the present invention. 本発明の実施形態に係る運転アシストシステムのブロック構成の概略を示す図である。It is a figure showing the outline of the block composition of the driving assistance system concerning the embodiment of the present invention. 地図データベースの構造を示す図である。It is a figure which shows the structure of a map database. 本発明の実施形態に係る運転アシストシステムにおける総得点の変化を示す説明図である。It is explanatory drawing which shows the change of the total score in the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムの処理フローを示す図である。It is a figure which shows the processing flow of the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムで、他車の自位置を補正に使用する場合の説明図である。It is explanatory drawing in the case of using the own position of another vehicle for correction | amendment in the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムで、補正を行わない場合の説明図である。It is explanatory drawing when not correct | amending in the driving assistance system which concerns on embodiment of this invention. 走行レーン認識の説明図である。It is explanatory drawing of travel lane recognition. 本発明の実施形態に係る運転アシストシステムの運転アシスト処理・動作のフローチャートを示す図である。It is a figure which shows the flowchart of the driving assistance process and operation | movement of the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムにおけるナビゲーション装置位置誤差判定処理サブルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the navigation apparatus position error determination processing subroutine in the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムにおける重畳表示データ作成・補正処理サブルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the superimposition display data creation and correction process subroutine in the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムにおける矢印根もと部作成処理サブルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the arrow root part preparation process subroutine in the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムにおける矢印矢尻部作成処理サブルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the arrow arrowhead part creation process subroutine in the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムにおけるランドマーク作成処理サブルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the landmark creation process subroutine in the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムにおける矢印幅補正処理サブルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the arrow width correction process subroutine in the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムにおけるランドマーク補正処理サブルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the landmark correction process subroutine in the driving assistance system which concerns on embodiment of this invention. 重畳表示データ作成・補正処理の各サブルーチンを説明する上で参照する案内状況を示す図である。It is a figure which shows the guidance condition referred when demonstrating each subroutine of a superimposition display data creation and correction process. 矢印根もと部作成処理サブルーチンで実行される処理を説明する図である。It is a figure explaining the process performed by the arrow root part creation process subroutine. 非2条化道路のデータ構造を説明する図である。It is a figure explaining the data structure of a non-double road. 2条化道路のデータ構造を説明する図である。It is a figure explaining the data structure of a bi-section road. 案内交差点とランドマークの相対位置の関係を説明する図である。It is a figure explaining the relationship between the guidance intersection and the relative position of a landmark. 本発明の実施形態に係る運転アシストシステムにおける矢印データ、ランドマークデータの補正処理を説明する図である。It is a figure explaining the correction process of the arrow data in the driving assistance system which concerns on embodiment of this invention, and landmark data. 本発明の実施形態に係る運転アシストシステムにおける重畳表示用矢印データ及びランドマークデータを鳥観的に示す図である。FIG. 5 is a bird's-eye view of superimposed display arrow data and landmark data in the driving assistance system according to the embodiment of the present invention. 本発明の実施形態に係る運転アシストシステムによって矢印及びランドマークからなる案内情報をウインドシールドに重畳表示した様子を示す図である。It is a figure which shows a mode that the guidance information which consists of an arrow and a landmark was superimposed and displayed on the windshield by the driving assistance system which concerns on embodiment of this invention. 本発明の実施形態に係る運転アシストシステムにおけるHUDユニットによるアイコン表示例を示す図である。It is a figure which shows the example of an icon display by the HUD unit in the driving assistance system which concerns on embodiment of this invention. 本発明の他の実施形態に係る運転アシストシステムにおける重畳表示用矢印データ作成の概念を説明する図である。It is a figure explaining the concept of the arrow data for superimposition display in the driving assistance system which concerns on other embodiment of this invention. 本発明の他の実施形態に係る運転アシストシステムにおける重畳表示用矢印データ作成の概念を説明する図である。It is a figure explaining the concept of the arrow data for superimposition display in the driving assistance system which concerns on other embodiment of this invention. 案内ポイントと車両との間の距離が接近した場合におけるウインドシールド上の案内情報重畳表示例を示す図である。It is a figure which shows the example of a guidance information superimposition display on a windshield when the distance between a guidance point and a vehicle approaches. 本発明の他の実施形態に係る運転アシストシステムにおける矢印幅補正処理サブルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the arrow width correction process subroutine in the driving assistance system which concerns on other embodiment of this invention. 本発明の他の実施形態に係る運転アシストシステムにおける矢印データ、ランドマークデータの補正処理を説明する図である。It is a figure explaining the correction process of the arrow data in the driving assistance system which concerns on other embodiment of this invention, and landmark data. 本発明の他の実施形態に係る運転アシストシステムにおける重畳表示用矢印データ及びランドマークデータを鳥観的に示す図である。FIG. 10 is a bird's-eye view of superimposed display arrow data and landmark data in a driving assist system according to another embodiment of the present invention. 本発明の他の実施形態に係る運転アシストシステムによって矢印及びランドマークからなる案内情報をウインドシールドに重畳表示した様子を示す図である。It is a figure which shows a mode that the guidance information which consists of an arrow and a landmark was superimposed and displayed on the windshield by the driving assistance system which concerns on other embodiment of this invention. HUDユニットによる重畳画像表示を行っていないウインドシールドから車両前方を見た図である。It is the figure which looked at the vehicle front from the windshield which is not performing the superimposition image display by a HUD unit. 従来のHUDユニットによってウインドシールドにランドマーク重畳画像表示を行った様子を示す図である。It is a figure which shows a mode that the landmark superimposed image display was performed on the windshield by the conventional HUD unit. 従来技術に係る運転アシストシステムにおける問題点を説明する図である。It is a figure explaining the problem in the driving assistance system concerning a prior art. 従来技術に係る運転アシストシステムのHUDユニットで案内情報の重畳画像表示を行った様子を示す図である。It is a figure which shows a mode that the superimposed image display of guidance information was performed with the HUD unit of the driving assistance system which concerns on a prior art. 従来技術に係る運転アシストシステムのHUDユニットで案内情報の重畳画像表示を行った様子を示す図である。It is a figure which shows a mode that the superimposed image display of guidance information was performed with the HUD unit of the driving assistance system which concerns on a prior art.

以下、本発明の実施の形態を図面を参照しつつ説明する。図1は本発明の実施形態に係る運転アシストシステムの概略を示す図であり、図2は本発明の実施形態に係る運転アシストシステムのブロック構成の概略を示す図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating an outline of a driving assist system according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating an outline of a block configuration of the driving assist system according to an embodiment of the present invention.

本発明の実施形態に係る運転アシストシステムにおいては、自車両の位置情報の確からしさに係る指標として「自信度」という概念が導入される。そして、このような「自信度」に基づいて、HUDユニットによってウインドシールドに重畳表示する矢印などの案内画像情報を補正・調整するように構成されている。このような補正によれば、矢印の重畳表示内に、案内ポイントが含まれる可能性が高まり、運転者が違和感を覚えることなく曲がるべきポイントを的確に把握することが可能となるのである。   In the driving assist system according to the embodiment of the present invention, the concept of “confidence level” is introduced as an index related to the likelihood of the position information of the host vehicle. Based on such “confidence level”, the guide image information such as an arrow superimposed on the windshield is corrected and adjusted by the HUD unit. According to such correction, there is an increased possibility that the guidance point is included in the superimposed display of the arrows, and the driver can accurately grasp the point to bend without feeling uncomfortable.

以下、本実施形態にあっては、上記自信度を算出する際における、認識対象となる自位置が、車が走行路に沿って走行している状況における走行方向に沿った走行路上の位置である例に基づいて説明するが、認識対象となる自位置が、走行方向に対してその巾方向での位置としてもよい(より、具体的には走行レーンrを認識するようにしてもよい)。並行路等、複数の走行路を自車が走行していると認識される可能性がある状況において、実際に走行している走行路がどの走行路であるかを認識対象とするようにしてもよい。すなわち、本実施形態で実行可能な走行路に沿った方向での自位置の認識機能に加えて、走行路巾方向の認識、走行路自体の認識を可能とするような構成を追加的に設けるようにすることもできる。   Hereinafter, in the present embodiment, the self-position to be recognized when calculating the degree of confidence is a position on the travel path along the travel direction in a situation where the vehicle travels along the travel path. Although described based on a certain example, the self position to be recognized may be a position in the width direction with respect to the traveling direction (more specifically, the traveling lane r may be recognized). . In a situation where there is a possibility that the vehicle is traveling on multiple traveling paths, such as parallel roads, make sure that the actual traveling path is the recognition target. Also good. In other words, in addition to the function of recognizing the own position in the direction along the travel path that can be executed in the present embodiment, a configuration that enables recognition of the travel path width direction and recognition of the travel path itself is additionally provided. It can also be done.

本実施の形態においては、自位置補正の実行に際して、自車Ci内で、予め自位置が認識されているとともに、この自位置の自信度が求められており、他車Coから、他車Coが認識している自位置とその自信度とを受信して、先ず、自信度間の比較を行い、他車Coの自信度が自車の自信度より高い場合にのみ、他車Coの自位置に基づいて自車Ciの自位置を補正するようにしている。   In the present embodiment, when executing the own position correction, the own position is recognized in advance in the own vehicle Ci, and the degree of confidence of the own position is obtained. First, the self-recognized position and the degree of confidence are received. First, a comparison is made between the confidence levels, and only when the confidence level of the other vehicle Co is higher than the confidence level of the own vehicle Co The own position of the host vehicle Ci is corrected based on the position.

本実施形態は、認識対象となる自位置が走行方向に沿った走行路R上の位置である例であり、例えば、図6、図7に示すように、紙面上下方向における走行路R上の位置を認識する例である。これらの図は、走行路Rを下から上に車が走行している状態を示している。   The present embodiment is an example in which the position to be recognized is a position on the travel path R along the travel direction. For example, as shown in FIGS. It is an example which recognizes a position. These drawings show a state where the vehicle is traveling on the traveling path R from the bottom to the top.

図上、上側に図示される車が、これまで説明してきた他車Coに相当し、下側に図示される車が、自車Ciに相当する。従って、これらの例では、下側に図示される自車Ciにおいて、他車Coからの自位置情報に基づいて、自位置の補正を行うか否かが問題となる。   In the drawing, the car shown on the upper side corresponds to the other car Co described so far, and the car shown on the lower side corresponds to the host vehicle Ci. Therefore, in these examples, whether or not to correct the own position based on the own position information from the other vehicle Co in the own vehicle Ci illustrated in the lower side becomes a problem.

この実施形態に係る運転アシストシステムにおける、自車側の自位置認識システム1の形態を図2に示す。   The form of the own position recognition system 1 on the own vehicle side in the driving assist system according to this embodiment is shown in FIG.

自位置認識システム1は、自車Ciの自位置を決定するためのシステムとして構築されており、この自位置認識システム1により求められた自位置の情報が、ナビゲーション情報を生成するためのナビゲーション装置本体2、あるいは走行制御を行うための走行制御装置3に送られ、適確に使用される。また、自位置認識システム1により求められた自位置の情報は、HUD(ヘッドアップディスプレイ)ユニット100における重畳表示のための画像生成においても利用される。   The own position recognition system 1 is constructed as a system for determining the own position of the own vehicle Ci, and the navigation apparatus for generating the navigation information based on the information on the own position obtained by the own position recognition system 1. It is sent to the main body 2 or the travel control device 3 for performing travel control and used appropriately. Further, the information on the own position obtained by the own position recognition system 1 is also used in image generation for superimposed display in the HUD (head-up display) unit 100.

ナビゲーション装置本体2にあっては、例えば、自位置の情報は、現在の正確な自位置に基づいて、新たなルート探索、案内に使用されるとともに、地図上に現在位置を正確に
表示するのに使用される。
In the navigation device body 2, for example, the information on the own position is used for searching for a new route and guidance based on the current accurate own position, and the current position is accurately displayed on the map. Used for.

走行制御装置3では、例えば、前方に停止線があり、自車Ciが停止の必要がある場合に、適確な減速制御を行うために使用される。   In the traveling control device 3, for example, when there is a stop line ahead and the own vehicle Ci needs to be stopped, it is used to perform appropriate deceleration control.

自位置認識システム1は、システム本体となる演算制御装置4と、この演算制御装置4に接続された種々の附属機器を備えて構成されている。   The self-position recognition system 1 includes an arithmetic control device 4 serving as a system main body and various attached devices connected to the arithmetic control device 4.

演算制御装置4には、自律航法センサ5からの検出情報が取り込み可能に構成されている。この自律航法センサ5は、具体的には自車の向いている方位を検出するための方位センサ5aと、例えば、ドライブシャフトといった、車輪に連結されている回転体の回転数から車両の走行距離を求める距離センサ5bとを備えて構成されている。   The arithmetic and control unit 4 is configured to be able to capture detection information from the autonomous navigation sensor 5. Specifically, the autonomous navigation sensor 5 includes a direction sensor 5a for detecting a direction in which the host vehicle is facing, and a vehicle travel distance based on the number of rotations of a rotating body connected to a wheel such as a drive shaft. And a distance sensor 5b for obtaining

自律航法センサ5からの検出情報は、自車の移動軌跡の演算に使用される。即ち、予め設定されている特定の時間間隔間で、距離センサ5bから判明する走行距離分だけ、方位センサ5aにより検出された方位に移動したものとして、自車の移動軌跡を求めていくことで、逐次的に自位置を求めることができる。   Detection information from the autonomous navigation sensor 5 is used to calculate a movement locus of the own vehicle. In other words, by finding the movement locus of the vehicle as having been moved to the azimuth detected by the azimuth sensor 5a by the traveling distance determined from the distance sensor 5b during a predetermined time interval. The position can be obtained sequentially.

演算制御装置4には、GPS受信機6が接続されており、逐次、GPS衛星7から送られてくるGPS情報を受信して、演算制御装置4内で、このGPS情報から、GPS情報に基づいた自位置の認識が可能となっている。GPS情報に基づいて求められる自位置は、経度及び緯度の組み合わせとして得られる情報である。   A GPS receiver 6 is connected to the arithmetic control device 4, and the GPS information sent from the GPS satellite 7 is sequentially received, and based on the GPS information from the GPS information in the arithmetic control device 4. The self-position can be recognized. The self-location obtained based on the GPS information is information obtained as a combination of longitude and latitude.

演算制御装置4には、前方カメラ8a及び後方カメラ8bからの撮像情報である画像情報が入力されるように構成されており、画像認識により、それぞれのカメラ8の撮像範囲内にある例えば地物Mを認識可能に構成されている。図8が、前方カメラ8aにより撮像された画像の例である。   The arithmetic and control unit 4 is configured to receive image information that is imaging information from the front camera 8a and the rear camera 8b. For example, a feature that is within the imaging range of each camera 8 by image recognition. M is configured to be recognizable. FIG. 8 is an example of an image captured by the front camera 8a.

演算制御装置4には、車車間通信モジュール9(車車通信手段の一例)が接続されており、このモジュール9から車車間通信により受信された情報が入ってくるように構成されている。本願にあっては、この車車間通信で通信の対象となる情報は、他車Coである送信車両の自位置の情報およびその自信度である。   A vehicle-to-vehicle communication module 9 (an example of a vehicle-to-vehicle communication means) is connected to the arithmetic and control unit 4 and is configured to receive information received from the module 9 through vehicle-to-vehicle communication. In the present application, the information to be communicated in the inter-vehicle communication is the information on the own position of the transmitting vehicle that is the other vehicle Co and its confidence level.

演算制御装置4には、車間距離検出モジュール10(位置関係検出手段の一例)が接続されており、この車間距離検出モジュール10から、自車Ciに対する送信車両Coの相対位置情報が入ってくるように構成されている。図6、図7に示す例においては、車間距離検出モジュール10は、前方車両Coとの間の車間距離を検出する。即ち、走行路Rにおいて、その走行方向前方に存する送信車両Coと自車Ciとの間の車間距離が演算制御装置4に入力される。   The arithmetic control device 4 is connected to an inter-vehicle distance detection module 10 (an example of a positional relationship detection means), and the relative position information of the transmission vehicle Co with respect to the host vehicle Ci is input from the inter-vehicle distance detection module 10. It is configured. In the example illustrated in FIGS. 6 and 7, the inter-vehicle distance detection module 10 detects the inter-vehicle distance from the front vehicle Co. That is, the inter-vehicle distance between the transmitting vehicle Co and the host vehicle Ci existing in the traveling direction R on the traveling path R is input to the arithmetic and control unit 4.

演算制御装置4には、データベースDBが備えられており、このデータベースDBとして、地図データベースDBm、自信度演算データベースDBc、位置誤差データベースDBdが備えられている。このデータベースDBは、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウエア構成として備えている。   The arithmetic and control unit 4 includes a database DB, which includes a map database DBm, a confidence level calculation database DBc, and a position error database DBd. The database DB includes a device having a recording medium capable of storing information and its driving means, such as a hard disk drive, a DVD drive equipped with a DVD-ROM, a CD drive equipped with a CD-ROM, and the like. It is provided as a configuration.

地図データベースDBmは、地図情報を格納したデータベースである。図3は地図データベースDBmに格納されている地図情報の内容を示す説明図である。この図に示すように、地図データベースDBmには、地図情報として、道路ネットワークレイヤL1、道路
形状レイヤL2、地物レイヤL3が格納されている。
The map database DBm is a database that stores map information. FIG. 3 is an explanatory diagram showing the contents of the map information stored in the map database DBm. As shown in this figure, the map database DBm stores a road network layer L1, a road shape layer L2, and a feature layer L3 as map information.

道路ネットワークレイヤL1は、走行路Rである道路間の接続情報を示すレイヤである。具体的には、緯度及び経度で表現された地図上の位置情報を有する多数のノードNの情報と、2つのノードNを連結して道路を構成する多数のリンクLの情報とを有して構成されている。また、各リンクLは、そのリンク情報として、道路名、道路の種別(高速道路、有料道路、国道、県道等の種別)やリンク長さ等の情報を有している。   The road network layer L1 is a layer that indicates connection information between roads that are the traveling road R. Specifically, it has information on a large number of nodes N having position information on a map expressed by latitude and longitude, and information on a large number of links L constituting the road by connecting the two nodes N. It is configured. Each link L includes information such as a road name, a road type (a type such as an expressway, a toll road, a national road, a prefectural road), a link length, and the like as link information.

道路形状レイヤL2は、道路ネットワークレイヤL1に関連付けられて格納され、道路の形状を示すレイヤである。具体的には、2つのノードNの間(リンクL上)に配置されて緯度及び経度で表現された地図上の位置情報を有する多数の道路形状補完点Sの情報と、各道路形状補完点Sにおける道路幅Wの情報とを有して構成されている。   The road shape layer L2 is a layer that is stored in association with the road network layer L1 and indicates the shape of the road. Specifically, information on a number of road shape complementary points S that are located between two nodes N (on the link L) and have position information on the map expressed in latitude and longitude, and each road shape complementary point Information of the road width W in S.

地物レイヤL3は、道路ネットワークレイヤL1及び道路形状レイヤL2に関連付けられて格納され、道路上及び道路の周辺に設けられた各種地物の情報を示すレイヤである。この地物レイヤL3に格納される地物Mの情報としては、少なくともカメラ等で撮像可能な画像認識の対象となる地物Mが、その関連情報とともに格納されている。   The feature layer L3 is a layer that is stored in association with the road network layer L1 and the road shape layer L2, and indicates information on various features provided on the road and in the vicinity of the road. As the information on the feature M stored in the feature layer L3, at least the feature M to be image-recognized that can be captured by a camera or the like is stored together with the related information.

具体的には地物Mとして、道路の路面に設けられたペイント表示の地物Mp、道路に沿って設けられた各種の道路標識Mfや信号機Ms等の立体物の地物等の各種の地物についての情報が地物レイヤL3に格納されている。ここで、ペイント表示には、例えば、車線を分ける白線(実線、破線、中央線等の区画線の種類の情報も含む。)、ゼブラゾーン、停止線、横断歩道、各レーンの進行方向を指定する進行方向別通行区分表示、速度表示等が含まれる。また、正確にはペイントによるものではないが、同じく道路の路面に設けられるマンホールもここではペイント表示に含めてもよい。また、立体物としては、各種の道路標識や信号機のほか、ガードレール、建物、電柱、看板等の道路上又は道路の周辺に設けられる様々な立体物が含まれる。また、この地物レイヤL3には、道路沿いに存在する店舗やサービス施設などのランドマークMlに係る情報についても格納されている。本実施形態に係る運転アシストシステムにおいては、このようなランドマークMlに係るデータを用いて、HUDユニット100にて表示を行う重畳表用データを作成するようにしている。   Specifically, as the feature M, various features such as a feature Mp of a paint display provided on the road surface of the road, a feature of a three-dimensional object such as various road signs Mf and a traffic light Ms provided along the road, etc. Information about the object is stored in the feature layer L3. Here, for example, the white line that separates the lane (including information on the type of lane marking such as solid line, broken line, and center line), zebra zone, stop line, pedestrian crossing, and the traveling direction of each lane are specified in the paint display The display includes a direction-by-direction traffic classification display, speed display, and the like. In addition, although not precisely based on paint, a manhole provided on the road surface may also be included in the paint display here. In addition to various road signs and traffic lights, the three-dimensional objects include various three-dimensional objects provided on or around the road, such as guardrails, buildings, utility poles, and signboards. The feature layer L3 also stores information related to the landmark Ml such as shops and service facilities existing along the road. In the driving assist system according to the present embodiment, the data for the superimposition table to be displayed on the HUD unit 100 is created using the data related to the landmark Ml.

上記のような地図データベースDBmを使用することで、上記の自律航法センサ5からの走行軌跡あるいはGPS情報から求まる現在の位置(緯度・経度)に基づいて、現在の自車Ciの位置を地図上でマッチングすることができる。   By using the map database DBm as described above, the current position of the vehicle Ci is displayed on the map on the basis of the current position (latitude / longitude) obtained from the traveling locus from the autonomous navigation sensor 5 or GPS information. Can be matched.

さらに、この地図データベースDBmには、地物レイヤL3に様々な地物Mがその位置とともに登録されているため、先に説明したカメラ8により撮像される画像内に特定の地物Mが撮像された場合に、その地物Mの地図データベースDBmに登録された位置と、画像から判明する地物Mと自車Ciとの位置関係から、自車Ciの位置(絶対座標位置)を認識することができる。   Further, since various features M are registered in the map database DBm together with their positions in the feature layer L3, the specific feature M is captured in the image captured by the camera 8 described above. The position (absolute coordinate position) of the vehicle Ci is recognized from the position registered in the map database DBm of the feature M and the positional relationship between the feature M and the vehicle Ci found from the image. Can do.

自信度演算データベースDBcは、得点データベースDBc1及び自信度換算データベースDBc2を備えて構成されている。   The confidence level calculation database DBc includes a score database DBc1 and a confidence level conversion database DBc2.

得点データベースDBc1は、以下の表1に示すように、自位置の認識のタイミングで、加算又は減算される得点(表1左欄に示す)と、その得点の事例要因(表1右欄に示す)との関係を纏めたデータテーブルである。得点の加算及び減算は、左欄に示されるプラスマイナスで決まる。   As shown in Table 1 below, the score database DBc1 is a score that is added or subtracted at the timing of recognition of its own position (shown in the left column of Table 1), and case factors of the score (shown in the right column of Table 1) Is a data table summarizing the relationship with The addition and subtraction of scores is determined by plus or minus shown in the left column.

Figure 0005565561
表1に示す事例要因に関して例示的に説明しておくと、「道路上の地物を認識し位置補正が成された直後」に、得点が50点加算される。これは、地物Mの認識を行って位置補正をすると、その確からしさが最も増す状況となるためである。
Figure 0005565561
For example, the case factors shown in Table 1 will be described. After the feature on the road is recognized and the position is corrected, 50 points are added. This is because when the feature M is recognized and the position is corrected, the probability is most increased.

一方、「地物認識位置補正後10m毎」に得点は5点ごと減算される。この状況は、地物認識で位置補正をした後、通常の自律航法で自位置を認識しながら走っている状況では、走行距離に応じて自信度が低下することに対応している。   On the other hand, the score is subtracted every 5 points “every 10 m after the feature recognition position correction”. This situation corresponds to the fact that after performing position correction with feature recognition and running while recognizing its own position with normal autonomous navigation, the degree of confidence decreases according to the distance traveled.

GPSの受信状況に関しては、その受信状況が比較的良好な場合は、比較的高い得点を与えることができる(20点加算)が、悪い場合は、得点に変化がない(0点加算)ことを示している。   Regarding the GPS reception status, if the reception status is relatively good, a relatively high score can be given (20 points addition), but if the reception status is bad, the score does not change (0 points addition). Show.

交差点右左折直後、カーブでの補正後には、それらの地点情報に基づいて、ある程度の得点を与えることができる(前者で20点加算、後者で10点加算)。一方、トンネル内において、自信度は低下する(10点減算)。さらに、カメラ等の画像認識システム、GPS受信機の故障等により自信度が低下する(前者で40点減算、後者で30点減算)。   Immediately after turning right or left at the intersection, after correction with a curve, a certain amount of points can be given based on the information on the points (the former adds 20 points and the latter adds 10 points). On the other hand, the confidence level decreases in the tunnel (10 points subtraction). Furthermore, the degree of confidence decreases due to a failure of an image recognition system such as a camera or a GPS receiver (the former subtracts 40 points and the latter subtracts 30 points).

自信度換算データベースDBc2の構造を表2に示した。   The structure of the confidence conversion database DBc2 is shown in Table 2.

この表は、得点の積算値として得られる総得点(表2右欄)と自信度(表2左欄)との関係を示したものであり、総得点が高いほど、自信度が高く設定されていることが判る。   This table shows the relationship between the total score (the right column in Table 2) and the confidence level (the left column in Table 2) obtained as the integrated value of the scores. The higher the total score, the higher the confidence level is set. You can see that

Figure 0005565561
位置誤差データベースDBdのデータ構造を表3に示す。この表は、表2で算出される自信度(表3右欄)とナビゲーション装置の推定位置誤差(表3左欄)との関係を示したものであり、自信度が高いほど、推定位置誤差が低く設定されているものである。
Figure 0005565561
Table 3 shows the data structure of the position error database DBd. This table shows the relationship between the degree of confidence calculated in Table 2 (the right column in Table 3) and the estimated position error of the navigation device (the left column in Table 3). The higher the degree of confidence, the estimated position error. Is set low.

Figure 0005565561
HUDユニット100はインストルメントパネルに内蔵され重畳表示用の光を投影し、運転者に認識可能なウインドシールド上の虚像を再現するユニットであり、例えば、重畳表示用のデータを生成し、このデータをウインドシールドに投影する光学系などからなるものである。HUDユニット100で投影された光は、車両10前方のウインドシールド12の実像に重畳表示される。なお、HUDユニット100としては、例えば、特開2009−67333号公報、特開2009−137491号公報、特開2009−145540号公報、特開2009−217682号公報に記載のものなどを用いることができる。
Figure 0005565561
The HUD unit 100 is a unit that is built in the instrument panel and projects superimposed display light, and reproduces a virtual image on the windshield that can be recognized by the driver. For example, the HUD unit 100 generates data for superimposed display. It consists of an optical system that projects the image onto the windshield. The light projected by the HUD unit 100 is superimposed on the real image of the windshield 12 in front of the vehicle 10. As the HUD unit 100, for example, those described in JP 2009-67333 A, JP 2009-137491 A, JP 2009-145540 A, and JP 2009-217682 A may be used. it can.

本実施形態に係る運転アシストシステムにおいては、特にHUDユニット100の制御部101として、重畳表示データを作成する重畳表示データ作成手段102と、この重畳表示データ作成手段102で作成されたデータを補正する重畳表示データ補正手段103とを有している。データ投影手段104は、制御部101で作成・補正された重畳表示データをウインドシールド上に投影するレーザーやレンズなどの光学系である。   In the driving assist system according to the present embodiment, in particular, as the control unit 101 of the HUD unit 100, the superimposed display data creating unit 102 that creates superimposed display data and the data created by the superimposed display data creating unit 102 are corrected. And superimposed display data correction means 103. The data projection unit 104 is an optical system such as a laser or a lens that projects the superimposed display data created and corrected by the control unit 101 onto the windshield.

以上が、演算制御装置4に接続されている機器およびその機能の説明であるが、以下に
演算制御装置4内の構成に関して説明する。
The above is the description of the devices connected to the arithmetic control device 4 and the functions thereof. The configuration within the arithmetic control device 4 will be described below.

図2からも判明するように、この装置4には、自位置認識部41、自位置決定部42、自信度決定部43及び自信度比較部44が設けられている。   As can be seen from FIG. 2, the device 4 includes a self-position recognition unit 41, a self-position determination unit 42, a confidence level determination unit 43, and a confidence level comparison unit 44.

自位置認識部41は、演算制御装置4に送られてくる情報から自位置の認識を実行する機能部であり、自位置決定部42は、これまで認識されていた自位置を補正して、現在の自位置として最も確からしさの高い自位置を補正・決定する機能部である。   The self-position recognition unit 41 is a functional unit that executes recognition of the self-position from information sent to the arithmetic control device 4, and the self-position determination unit 42 corrects the self-position recognized so far, This is a functional unit that corrects and determines the self-position with the highest certainty as the current self-position.

一方、自信度決定部43は、上記のようにして決定される自位置に関する自信度を演算する機能部であり、自信度比較部44は、車車間通信モジュール9を介して送られてくる、他車Coの自信度と現在の自車Ciの自信度とを比較し、その比較結果に基づいて、自位置決定部42において、他車情報依存の補正を行い、自位置を決定するべきか否かの判定を行う機能部である。   On the other hand, the confidence level determination unit 43 is a functional unit that calculates the level of confidence regarding the position determined as described above, and the confidence level comparison unit 44 is sent via the inter-vehicle communication module 9. Whether the confidence level of the other vehicle Co and the confidence level of the current host vehicle Ci are compared, and based on the comparison result, the host position determination unit 42 should correct the other vehicle information and determine the host vehicle position. It is a functional unit that determines whether or not.

この例にあっては、自位置認識部41には、第一自位置認識手段41a、第二自位置認識手段41b及び第三自位置認識手段41cの3種の認識手段が備えられている。   In this example, the own position recognizing unit 41 is provided with three kinds of recognizing means: a first own position recognizing means 41a, a second own position recognizing means 41b, and a third own position recognizing means 41c.

第一自位置認識手段41aは、自律航法により自位置を求める手段であり、方位センサ5a及び距離センサ5bからの情報に基づいて、自車の移動軌跡を順次、自位置の認識処理タイミング毎に求め、自位置を認識する手段である。   The first own position recognizing means 41a is a means for obtaining the own position by autonomous navigation, and based on the information from the direction sensor 5a and the distance sensor 5b, the movement locus of the own vehicle is sequentially determined at each own position recognition processing timing. It is a means for obtaining and recognizing its own position.

第二自位置認識手段41bは、GPS衛星から所定のタイミングで受信されるGPS情報に基づいて、自位置を認識する手段である。   The second self position recognizing means 41b is a means for recognizing the self position based on GPS information received at a predetermined timing from a GPS satellite.

第三自位置認識手段41cは、カメラ8等の撮像情報と、地図データベースDBm内に記憶されている地物Mの情報とを対比し、同一の地物Mが撮像画像内に認められた場合に、その地物Mの位置情報に基づいて自位置を認識する手段である。この手段による自位置認識は、地物Mの存在を前提とするため、地物Mが存在する地点に自車が到達したタイミングにおいてのみ、認識が行われる。   The third position recognition unit 41c compares the imaging information of the camera 8 and the like with the information of the feature M stored in the map database DBm, and the same feature M is recognized in the captured image. Furthermore, it is a means for recognizing its own position based on the position information of the feature M. Since the self position recognition by this means is based on the presence of the feature M, the recognition is performed only at the timing when the vehicle reaches the point where the feature M exists.

自位置決定部42には、自車情報依存の自位置補正を行う自車情報依存補正手段42aと、他車情報にも基づいた自位置補正を行う他車情報依存補正手段42bが設けられている。   The own position determining unit 42 is provided with own vehicle information dependent correcting means 42a for correcting own position dependent on own vehicle information, and other vehicle information dependent correcting means 42b for correcting own position based on other vehicle information. Yes.

自車情報依存補正手段42aは、過去に決定された自位置に対して、新たな自位置が自位置認識部41で認識された場合に、新たな認識情報に基づいて、現在の自位置を補正・決定する機能手段である。即ち、自位置認識部41に備えられる、それぞれの自位置認識手段41a,41b,41cは、一定のタイミング(第一自位置認識手段41aは一定の時間間隔毎、第二自位置認識手段41bはGPS情報の取り込みタイミング毎、第三自位置認識手段41cは自位置認識に使用可能な地物が画像認識される毎)で、自位置を認識するが、この決定手段42aにあっては、原則的には、第一自位置認識手段41aにより認識される自位置を補正・決定に使用しながら、第二、第三の自位置認識手段41b,41cにより認識された自位置が存在する場合は、第一自位置認識手段41aにより認識される自位置より後者手段により認識される自位置ほど優先して、自位置を補正・決定する。   The own vehicle information dependence correction means 42a determines the current own position based on the new recognition information when a new own position is recognized by the own position recognition unit 41 with respect to the own position determined in the past. It is a functional means for correcting and determining. That is, each of the own position recognizing means 41a, 41b, 41c provided in the own position recognizing unit 41 has a fixed timing (the first own position recognizing means 41a is set at a certain time interval, and the second own position recognizing means 41b is Each time GPS information is taken in, the third position recognition means 41c recognizes its position every time a feature that can be used for position recognition is image-recognized). Specifically, when the self-position recognized by the second self-position recognition means 41b and 41c exists while the self-position recognized by the first self-position recognition means 41a is used for correction / determination. The self position recognized by the latter means is prioritized over the self position recognized by the first self position recognizing means 41a, and the self position is corrected and determined.

すなわち、本例の場合、後者側ほど、自位置認識の確からしさが高いため、後者側の情報を優先して自位置の補正・決定に使用する。ここで、自位置認識の頻度は、前者側ほど高いため、第二、第三自位置認識手段41b,41cで、自位置認識が行えない状況にあ
っては、自律航法に基づいて認識された自位置が自動的に使用される。
That is, in the case of this example, since the probability of the self-position recognition is higher on the latter side, information on the latter side is preferentially used for correction / determination of the own position. Here, since the frequency of self-position recognition is higher in the former side, the second and third self-position recognition means 41b and 41c were recognized based on autonomous navigation in a situation where self-position recognition was not possible. Your position is automatically used.

このようにすることで、自車情報依存補正手段42aにおいては、常時、自車で得られる情報から自位置が補正・決定される。   By doing in this way, in the own vehicle information dependence correction means 42a, the own position is always corrected and determined from information obtained by the own vehicle.

他車情報依存補正手段42bは、本発明独特の補正手法を実行する機能手段である。   The other vehicle information dependent correction means 42b is a functional means for executing a correction method unique to the present invention.

この手段は、自車情報に基づいて自車情報依存補正手段42aにより決定された自位置に対して、他車Coの自位置が受信され、他車Coの自位置についての自信度が高いことを条件として、他車Coの自位置を基準として自車Ciの自位置を補正・決定する。   This means that the own position of the other vehicle Co is received with respect to the own position determined by the own vehicle information dependence correcting means 42a based on the own vehicle information, and the degree of confidence in the own position of the other vehicle Co is high. As a condition, the own position of the own vehicle Ci is corrected / determined based on the own position of the other vehicle Co.

この他車情報依存補正手段42bへは、他車Coの自位置と、自車Ciと他車Coとの車間距離が入力される。そこで、この手段42bでは、他車Coの自位置を基準として、車間距離だけ離れた位置を自位置として求める。   The other vehicle information dependent correction means 42b receives the own position of the other vehicle Co and the distance between the own vehicle Ci and the other vehicle Co. Therefore, in this means 42b, a position separated by the inter-vehicle distance is obtained as the own position with reference to the own position of the other vehicle Co.

このようにして求められた自位置は、自車情報依存補正手段42aにより決定された自位置に対して優先するものとされ、この手段42bが働く場合は、他車情報依存補正手段42bにより決定された自位置が、現在の自位置として決定される。   The self-position obtained in this way is given priority over the self-position determined by the own vehicle information dependence correction means 42a, and when this means 42b works, it is decided by the other vehicle information dependence correction means 42b. The determined own position is determined as the current own position.

このように決定してよい理由は、この他車情報依存補正手段42bに位置決定に必要な情報が送られ、この手段における処理を実行する段階にあっては、自信度比較部44において他車Coの自信度が自車Ciの自信度より高いとの判定結果がでている状態だからである。   The reason for this determination is that information necessary for position determination is sent to the other vehicle information dependence correction means 42b, and the confidence level comparison unit 44 performs the other vehicle information at the stage of executing the processing in this means. This is because the determination result that the confidence level of Co is higher than the confidence level of the vehicle Ci is being obtained.

自信度決定部43には、得点積算手段43aと自信度演算手段43bが備えられている。   The confidence level determination unit 43 includes score accumulation means 43a and confidence level calculation means 43b.

得点積算手段43aは、自位置決定部42において自位置決定が行われる毎に、その決定状況を判定し、決定状況が得点の加算・減算に相当する状況である場合には、表1に示した得点表に従って、得点の加算・減算を実行し、これを総得点として積算する。同時に、常時実行されている自律航法による自位置の決定が行われると、表1に示すように、地物認識位置補正後、10mの走行毎に、5点の減算を行う。   The score accumulating means 43a determines the determination status every time the own position determination unit 42 performs the own position determination. When the determination status corresponds to the addition / subtraction of the score, it is shown in Table 1. In accordance with the score table, the score is added / subtracted and added up as a total score. At the same time, when the own position is determined by the autonomous navigation that is always performed, as shown in Table 1, after the feature recognition position correction, 5 points are subtracted every 10 m of travel.

この総得点には、その上限値(例えば100点)と下限値(例えば−100点)が設けられており、特定事象が連続して起こっても総得点は、一定の範囲内に収まるように構成されている。   The total score is provided with an upper limit value (for example, 100 points) and a lower limit value (for example, −100 points), so that the total score is within a certain range even if a specific event occurs continuously. It is configured.

この積算状況を、図4に基づいて説明する。   This integration state will be described with reference to FIG.

図4において、上図は車Cの走行状態を示しており、下図は上図に示す走行が行われた場合の総得点(得点積算値)の変化を示したものである。   In FIG. 4, the upper diagram shows the running state of the car C, and the lower diagram shows the change in the total score (score integrated value) when the running shown in the upper diagram is performed.

上図は、車Cが右側から左側へ走行する状況を示したものであり、走行方向に、自位置を認識可能な地物Mである横断歩道Xがあり、その先にトンネルTがある状況を示している。一方、下向きの矢印は、矢印が記載されている位置で、自位置の決定が逐次なされたことを示している。この例では、最初に地物Mである横断歩道Xにより、自位置が認識・決定され、以降、自律航法による自位置認識状態がしばらく継続し、その間、2回、GPS情報が受信されて、GPS情報に基づく自位置認識、補正を行った後、トンネルTに到達している。   The above figure shows the situation where the car C travels from the right side to the left side, where there is a pedestrian crossing X that is a feature M that can recognize its position in the direction of travel, and there is a tunnel T beyond that. Is shown. On the other hand, a downward arrow indicates that the position of the subject is sequentially determined at the position where the arrow is described. In this example, the position is first recognized and determined by the pedestrian crossing X, which is the feature M, and then the position recognition state by the autonomous navigation continues for a while, during which time GPS information is received twice, After the self-position recognition and correction based on the GPS information, the tunnel T is reached.

総得点の変化は、最初、総得点が0であるとして、先ず地物Mによる自位置の認識である横断歩道Xを利用した自位置認識が行われた時点で50点の加算がおこなわれる。その後、自律航法状態で、総得点は逐次減少していくが、GPS情報を利用した自位置認識が行われた時点毎に20点の加算が行われ、総得点は、図示するようなのこぎり歯状の変化となる。トンネルTに突入することで、その進入時に10点が減算されることを示している。   As for the change of the total score, first, assuming that the total score is 0, 50 points are added when the self-position recognition using the pedestrian crossing X which is the recognition of the self-position by the feature M is first performed. After that, in the autonomous navigation state, the total score gradually decreases, but 20 points are added every time the position is recognized using the GPS information, and the total score is a sawtooth as shown in the figure. Changes. By entering the tunnel T, 10 points are subtracted when entering the tunnel T.

自信度演算手段43bは、得点積算手段43aにより積算される総得点に基づいて表2に示す自信度換算テーブルから自信度を演算する。   The confidence level calculation means 43b calculates the confidence level from the confidence level conversion table shown in Table 2 based on the total score accumulated by the score accumulation means 43a.

従って、走行状態にある車において、常時、演算された自信度が保持される。   Therefore, the calculated degree of confidence is always maintained in a vehicle in a running state.

以上が、この実施形態における演算制御装置4の構成の説明であるが、以下、図5、図6、図7に基づいて、走行方向に沿った走行路上での位置の補正に関して説明する。   The above is the description of the configuration of the arithmetic and control unit 4 in this embodiment. Hereinafter, the correction of the position on the traveling road along the traveling direction will be described based on FIGS. 5, 6, and 7.

説明においては、自車Ci及び他車Coの存在を前提とするが、両車Ci,Coは、自位置の認識、補正・決定を可能とする機能部、補正・決定した自位置の自信度を演算する機能部、車車通信モジュール9が備えられている。さらに、自車Ciには他車Coとの車間距離を検出するための車間距離検出モジュール10が備えられている。   In the description, it is assumed that the own vehicle Ci and the other vehicle Co exist, but both the vehicles Ci and Co have a function unit that enables recognition, correction and determination of the own position, and the degree of confidence of the corrected and determined own position. And a vehicle communication module 9 are provided. Furthermore, the own vehicle Ci is provided with an inter-vehicle distance detection module 10 for detecting an inter-vehicle distance from another vehicle Co.

図6、図7は、他車Coが先行して横断歩道Xがある位置に到達した状況を示しており、自車Ciは、他車Coに後続する状態で、他車Coに近接しようとしている。従って、他車Coは送信車両となり、自車Ciは受信車両となる。   FIGS. 6 and 7 show a situation in which the other vehicle Co has reached the position where the pedestrian crossing X is located in advance, and the own vehicle Ci tries to approach the other vehicle Co in a state following the other vehicle Co. Yes. Therefore, the other vehicle Co is a transmitting vehicle, and the host vehicle Ci is a receiving vehicle.

図6、図7とは、ともに他車Coが地物Mである横断歩道Xに近づいた状況を示しているが、図6に示す状態では、地物認識が良好に行われ、横断歩道Xの位置を基準として他車Coの自位置が良好に決定された状況を示している。従って、他車Coの自信度は2から10に変更されている。   6 and 7 both show a situation in which the other vehicle Co has approached the pedestrian crossing X, which is the feature M, but in the state shown in FIG. This shows a situation in which the position of the other vehicle Co is well determined with reference to the position of. Therefore, the confidence level of the other vehicle Co is changed from 2 to 10.

一方、図7に示す状態では、地物認識が良好に行われなかったため、横断歩道Xの位置を基準として他車Coの自位置が良好に決定されなかった状況を示している。従って、他車Coの自信度は2のままである。   On the other hand, the state shown in FIG. 7 shows a situation in which the position of the other vehicle Co is not well determined based on the position of the pedestrian crossing X because the feature recognition is not performed well. Therefore, the confidence level of the other vehicle Co remains at 2.

この状態から、自車Ciと他車Coとの間における車車間通信を利用しての自車Ciの自位置の補正・決定が実行される。   From this state, correction / determination of the own position of the own vehicle Ci using inter-vehicle communication between the own vehicle Ci and the other vehicle Co is executed.

図5は、この状態における自車Ciにおける処理フローを示したものである。以下、このフローに従って、説明を進める。   FIG. 5 shows a processing flow in the vehicle Ci in this state. Hereinafter, the description will proceed according to this flow.

処理の開始に伴って他車Co(前方車両)の情報を取得する(ステップ1)。このとき取得される情報には、他車Coの識別番号、車種、通信形態等が含まれる。他車Coの情報の取得ができず、他車Coの認識が行えない場合(ステップ2:NO)は、情報取得を繰り返す。情報の取得ができ、通信を確立できた場合(ステップ2:YES)は、他車Coの自信度を取得する(ステップ3)。   Accompanying the start of the process, information on another vehicle Co (front vehicle) is acquired (step 1). The information acquired at this time includes an identification number of another vehicle Co, a vehicle type, a communication form, and the like. When the information on the other vehicle Co cannot be acquired and the other vehicle Co cannot be recognized (step 2: NO), the information acquisition is repeated. When information can be acquired and communication can be established (step 2: YES), the confidence level of the other vehicle Co is acquired (step 3).

そして、自信度比較部44で、他車Coと自車Ciとの自信度を比較する(ステップ4)。比較の結果、他車Coの自信度が自車Ciの自信度より高い場合(ステップ4:YES)は、他車Coの自位置の情報に基づいて自車Coの自位置を補正する処理に移る(ステップ5〜8)。

一方、比較の結果、他車Coの自信度が自車Ciの自信度より低い場合(ステップ4:NO)は、ステップ1に戻り、他車Coの自信度が自車Ciの自信度を上回るまで、ステップ1〜4の処理を繰り返す。この状況が、図7に示される状況であり、この図では、後続車である自車Ciの自位置が他車の情報に従って補正されることはない。
Then, the confidence level comparison unit 44 compares the confidence levels of the other vehicle Co and the host vehicle Ci (step 4). As a result of the comparison, when the confidence level of the other vehicle Co is higher than the confidence level of the own vehicle Ci (step 4: YES), the process of correcting the own location of the own vehicle Co based on the information of the own location of the other vehicle Co is performed. Move (steps 5-8).

On the other hand, as a result of comparison, when the confidence level of the other vehicle Co is lower than the confidence level of the own vehicle Ci (step 4: NO), the process returns to step 1 and the confidence level of the other vehicle Co exceeds the confidence level of the own vehicle Ci. Steps 1 to 4 are repeated until the above. This situation is the situation shown in FIG. 7. In this figure, the own position of the own vehicle Ci that is the succeeding vehicle is not corrected according to the information of the other vehicle.

図6に示すように、自車Ciの自信度が他車Coの自信度より低い場合の処理は、以下の処理を順次実行する。即ち、他車Co(前方車両)の自位置の情報を取得する(ステップ5)。そして、車間距離検出モジュール10により、他車Coと自車Ciとの車間距離を検出し、取得する(ステップ6)。引き続いて、他車情報依存補正手段42bは、このようにして得られる他車Coの自位置と車間距離から自車Ciの自位置を求め、得られた自位置を現在の位置として自車Ciの自位置を補正・決定する(ステップ7)。この補正が良好に完了した場合は、自位置の補正・決定処理を完了し(ステップ8:YES)、何らかの理由で完了できなかった場合は、ステップ5に戻って処理を実行する。完了した場合、自車Ciの自位置認識の自信度は、他車の自信度に置換する。   As shown in FIG. 6, in the case where the confidence level of the host vehicle Ci is lower than the confidence level of the other vehicle Co, the following processing is sequentially executed. That is, information on the own position of the other vehicle Co (front vehicle) is acquired (step 5). The inter-vehicle distance detection module 10 detects and acquires the inter-vehicle distance between the other vehicle Co and the host vehicle Ci (step 6). Subsequently, the other vehicle information dependence correcting means 42b obtains the own position of the own vehicle Ci from the own position of the other vehicle Co and the inter-vehicle distance obtained in this way, and uses the obtained own position as the current position. Is corrected and determined (step 7). If this correction is completed satisfactorily, the self-position correction / determination process is completed (step 8: YES). If it cannot be completed for some reason, the process returns to step 5 to execute the process. When completed, the self-recognition degree of own vehicle Ci is replaced with the self-confidence degree of the other vehicle.

この状況が図6に示した状況であり、自車Ciの自信度が5から10に変更されている。   This situation is the situation shown in FIG. 6, and the confidence level of the vehicle Ci is changed from 5 to 10.

次に、上記のようにして求められる自信度に基づいて実行される、本実施形態に係る運転アシストシステムの処理・動作について説明する。図9は本発明の実施形態に係る運転アシストシステムの運転アシスト処理・動作のフローチャートを示す図である。図9のフローチャートによる処理は、車両におけるエンジン・モーターなどの動力源が起動されたときに開始され、動力源の動作がとめられるときに終了するものである。   Next, processing / operation of the driving assist system according to the present embodiment, which is executed based on the degree of confidence obtained as described above, will be described. FIG. 9 is a diagram showing a flowchart of driving assist processing / operation of the driving assist system according to the embodiment of the present invention. The process according to the flowchart of FIG. 9 is started when a power source such as an engine / motor in the vehicle is started, and is ended when the operation of the power source is stopped.

図9において、ステップS100で、運転アシストシステムの処理が開始されると、続いて、ステップS101に進み、ナビゲーション装置側から車両位置と地図データとのマッチング結果等のデータを取得する。また、ステップS102においては、ナビゲーション装置で所定のルートを案内中であるか否かが判定される。ステップS102における判定の結果がYESであるときには次のステップS103に進む。   In FIG. 9, when the process of the driving assist system is started in step S100, the process proceeds to step S101, and data such as a matching result between the vehicle position and map data is acquired from the navigation device side. In step S102, it is determined whether or not the navigation device is guiding a predetermined route. When the determination result in step S102 is YES, the process proceeds to the next step S103.

ステップS103では、ナビゲーション装置で案内中のルートを取得し、ステップS104では、ルート中の最寄り交差点情報を取得する。このような情報には、案内交差点までの距離に係る情報も含まれている。   In step S103, the route being guided by the navigation device is acquired, and in step S104, the nearest intersection information in the route is acquired. Such information includes information related to the distance to the guidance intersection.

ステップS105では、次の最寄り交差点までの距離が300m以下であるかが判定され、この判定がYESであるときにはステップS106に進む。ステップS106においては、ナビゲーション装置位置誤差判定処理のサブルーチンが実行される。ここで、このサブルーチンについて説明する。   In step S105, it is determined whether the distance to the next nearest intersection is 300 m or less. If this determination is YES, the process proceeds to step S106. In step S106, a subroutine for navigation device position error determination processing is executed. Here, this subroutine will be described.

図10は本発明の実施形態に係る運転アシストシステムにおけるナビゲーション装置位置誤差判定処理サブルーチンのフローチャートを示す図である。図10において、ステップS200で、ナビゲーション装置位置誤差判定処理サブルーチンがスタートすると、続くステップS201においては、自位置認識システム1により求められた自信度を取得する。次のステップS202においては、位置誤差データベースDBdより、自信度に対応するナビゲーション装置における位置誤差を取得し、ステップ203で元のルーチンにリターンする。   FIG. 10 is a flowchart of a navigation device position error determination processing subroutine in the driving assist system according to the embodiment of the present invention. In FIG. 10, when the navigation apparatus position error determination processing subroutine is started in step S200, the confidence level obtained by the own position recognition system 1 is acquired in the subsequent step S201. In the next step S202, the position error in the navigation device corresponding to the degree of confidence is acquired from the position error database DBd, and the process returns to the original routine in step 203.

図9に戻りステップS107では、先のサブルーチンで求められた位置誤差が±20m未満であるか否かが判定される。ステップS107における判定結果がYESであるときにはステップS108に進み、NOであるときにはステップS110に進む。   Returning to FIG. 9, in step S107, it is determined whether or not the position error obtained in the previous subroutine is less than ± 20 m. If the determination result in step S107 is YES, the process proceeds to step S108, and if NO, the process proceeds to step S110.

ステップS108においては、重畳表示データ作成・補正処理のサブルーチンが実行される。図11は本発明の実施形態に係る運転アシストシステムにおける重畳表示データ作成・補正処理サブルーチンのフローチャートを示す図である。   In step S108, a superimposed display data creation / correction processing subroutine is executed. FIG. 11 is a flowchart of a superimposed display data creation / correction processing subroutine in the driving assist system according to the embodiment of the present invention.

図11に示す重畳表示データ作成・補正処理サブルーチンは、HUDユニット100における制御部101で実行されるものであり、このサブルーチンで生成された重畳表示データを案内情報として、データ投影手段104でウインドシールドに投影表示する。このサブルーチンで生成される案内情報は、左折や右折する交差点、分岐点などの案内ポイントにおける曲がる方向を示す矢印と、案内ポイントを認識する上で有用なランドマークからなっている。また、重畳表示のための矢印に係るデータを作成する際には、矢印の根もと部と、矢尻部とに分けて作成されるようになっている。   The superimposed display data creation / correction processing subroutine shown in FIG. 11 is executed by the control unit 101 in the HUD unit 100. The data projection means 104 uses the superimposed display data generated in this subroutine as guidance information to windshield. Projection display. The guidance information generated by this subroutine consists of an arrow indicating the direction of turning at a guidance point such as a left or right turn intersection or a branch point, and a landmark useful for recognizing the guidance point. Also, when creating data related to an arrow for superimposed display, the data is created separately for the root of the arrow and the arrowhead.

この重畳表示データ作成・補正処理サブルーチンは、さらに、矢印根もと部作成処理(ステップS301)、矢印矢尻部作成処理(ステップS302)、ランドマーク作成処理(ステップS303)、矢印幅補正処理(ステップS304)、ランドマーク補正処理(ステップS305)から構成されているので、以下、それぞれのサブルーチンについて説明する。なお、矢印の根もと部データと矢尻部データとの間を連結する処理は、適宜行うものとする。   This superimposed display data creation / correction processing subroutine further includes an arrow root portion creation processing (step S301), an arrow arrowhead portion creation processing (step S302), a landmark creation processing (step S303), and an arrow width correction processing (step S304) and landmark correction processing (step S305), each subroutine will be described below. In addition, the process which connects between the root part data and the arrowhead part data shall be performed suitably.

以下のサブルーチンを説明する上では図17を適宜参照する。図17は重畳表示データ作成・補正処理の各サブルーチンを説明する上で参照する案内状況を示す図であり、運転アシストシステムのHUDユニットで案内情報を表示する際の状況を鳥瞰的にみた図である。また、この図17における状況は、図33に示す車両前方の景色と対応するものである。   In describing the following subroutine, FIG. 17 is referred to as appropriate. FIG. 17 is a diagram showing a guidance situation to be referred to when explaining each subroutine of the superimposed display data creation / correction processing, and is a diagram showing a bird's-eye view of the situation when guidance information is displayed on the HUD unit of the driving assist system. is there. The situation in FIG. 17 corresponds to the scenery in front of the vehicle shown in FIG.

図12は本発明の実施形態に係る運転アシストシステムにおける矢印根もと部作成処理サブルーチンのフローチャートを示す図である。図12に示すサブルーチンにおいては、重畳表示用の矢印の根もと部が作成される。このために、ステップS401では、地図データベースの道路形状レイヤL2から、案内交差点までの道路形状情報を取得する。ステップS402乃至ステップS403に係るループにおいては、道路形状レイヤL2から道路形状補完点Sの情報の情報を取得し、方位と長さに応じた線分の配置を行うことによって、矢印根もと部のデータを作成する。このような矢印根もと部作成処理サブルーチンで実行される処理イメージを図18に示す。図18は、図17に示す道路のうねりを誇張的に表現したものであり、本サブルーチンにおいては、図18に示す1乃至6の道路形状補完点Sに基づいて、矢印根もと部のデータを作成するようにしている。   FIG. 12 is a flowchart of an arrow root part creation processing subroutine in the driving assist system according to the embodiment of the present invention. In the subroutine shown in FIG. 12, the root portion of the arrow for superimposed display is created. For this purpose, in step S401, road shape information from the road shape layer L2 of the map database to the guidance intersection is acquired. In the loop according to step S402 to step S403, the information on the road shape complement point S is acquired from the road shape layer L2, and the line segment according to the azimuth and length is arranged, whereby the arrow root portion is obtained. Create data for. FIG. 18 shows a processing image executed in such an arrow root part creation processing subroutine. FIG. 18 is an exaggerated representation of the road swell shown in FIG. 17. In this subroutine, the data at the root of the arrow is based on the road shape complement points S of 1 to 6 shown in FIG. Like to create.

次に、矢印の矢尻部の重畳表示用データを作成するサブルーチンを説明する。図13は本発明の実施形態に係る運転アシストシステムにおける矢印矢尻部作成処理サブルーチンのフローチャートを示す図である。なお、以下のフローチャートの説明に先立って、非2条化道路と2条化道路のデータ構成について説明する。図19は非2条化道路のデータ構造を説明する図であり、図20は2条化道路のデータ構造を説明する図であり、図19及び図20において、(×)印は道路形状補完点Sを示すものである。   Next, a subroutine for creating the superimposed display data for the arrowhead part of the arrow will be described. FIG. 13 is a flowchart of an arrow and arrowhead portion creation processing subroutine in the driving assist system according to the embodiment of the present invention. Prior to the description of the flowchart below, the data structure of the non-bisection road and the bisection road will be described. FIG. 19 is a diagram for explaining the data structure of a non-bisection road, FIG. 20 is a diagram for explaining the data structure of a bi-section road, and in FIGS. A point S is shown.

図19に示す非2条化道路は、一本の道路に対して道路形状補完点Sが進行方向毎に1
点ずつ設けられている道路である。一方、図20に示す2条化道路は、一本の道路に対して道路形状補完点Sが進行方向毎に2点ずつ設けられている道路である。通常、ナビゲーション装置が取り扱う地図データベースにおいては、非2条化道路が主となるが、分離帯が設けられている道路については、先のような2条化道路としてデータ化されている場合が多い。本サブルーチンにおいては、このような非2条化道路、2条化道路の別に応じて
、矢尻部のデータ作成を行うようにしている。
In the non-double road shown in FIG. 19, the road shape complement point S is 1 for each traveling direction with respect to one road.
It is a road with points. On the other hand, the bisection road shown in FIG. 20 is a road in which two road shape complementary points S are provided for each traveling direction with respect to one road. Normally, in the map database handled by the navigation device, non-bisection roads are the main, but roads with separation zones are often converted into data as the above-mentioned bisection roads. . In this subroutine, the data for the arrowhead portion is created according to such a non-two-way road and two-way road.

図13に示すフローチャートにおいて、ステップS500で、矢印矢尻部作成処理サブルーチンがスタートすると、続くステップS501では、地図データベースから、進行予定の道路幅Wが取得される。   In the flowchart shown in FIG. 13, when the arrow and arrowhead part creation subroutine starts in step S500, in the subsequent step S501, the road width W scheduled to travel is acquired from the map database.

また、次のステップS502では、進行予定道路は2条化道路であるか否かが判定される。ステップS502における判定がYESであるときにはステップS503に進み、2条化道路に対応した矢尻部作成のアルゴリズムが実行され、判定がYESであるときにはステップS507に進み、非2条化道路に対応した矢尻部作成のアルゴリズムが実行される。   Further, in the next step S502, it is determined whether or not the scheduled road is a bisection road. When the determination in step S502 is YES, the process proceeds to step S503, and the algorithm for creating the arrowhead portion corresponding to the bisection road is executed. When the determination is YES, the process proceeds to step S507, and the arrowhead corresponding to the non-bisection road is performed. A part creation algorithm is executed.

ステップS503では、2条化道路の矢尻部の幅を、(矢印幅)=(道路幅)÷2によって算出する。
ステップS504では、左折であるか否かが判定され、この判定がYESであるときにはステップS505に進み、矢尻を作成するための基準位置を、(基準位置)=(案内対象交差点)−(道路幅)÷4によって算出し、判定がNOであるときにはステップS506に進み、同基準位置を、(基準位置)=(案内対象交差点)+(道路幅)÷4によって算出する。このような基準位置の算出においては、図20が参照図面となる。
In step S503, the width of the arrowhead portion of the bifurcated road is calculated by (arrow width) = (road width) / 2.
In step S504, it is determined whether or not it is a left turn. If this determination is YES, the process proceeds to step S505, where (reference position) = (guide target intersection) − (road width) ) ÷ 4. If the determination is NO, the process proceeds to step S506, where the reference position is calculated by (reference position) = (guide target intersection) + (road width) ÷ 4. In such calculation of the reference position, FIG. 20 is a reference drawing.

また、ステップS502における判定がNOであるとき、すなわち、進行予定道路が非2条化道路である場合には、ステップS507に進み、非2条化道路の矢尻部の幅を、(矢印幅)=(道路幅)によって算出する。また、ステップS508では、矢尻を作成するための基準位置を、(基準位置)=(案内対象交差点)によって、算出する。このような基準位置の算出においては、図19が参照図面となる。   If the determination in step S502 is NO, that is, if the scheduled road is a non-bifurcation road, the process proceeds to step S507, where the width of the arrowhead portion of the non-bifurcation road is (arrow width). = Calculated by (road width). In step S508, a reference position for creating an arrowhead is calculated by (reference position) = (guide target intersection). In calculating the reference position, FIG. 19 is a reference drawing.

次に、ランドマークの重畳表示用データを作成するサブルーチンを説明する。図14は本発明の実施形態に係る運転アシストシステムにおけるランドマーク作成処理サブルーチンのフローチャートを示す図である。   Next, a subroutine for creating landmark superimposed data will be described. FIG. 14 is a flowchart of a landmark creation processing subroutine in the driving assist system according to the embodiment of the present invention.

図14において、ステップS600において、ランドマーク作成処理が開始されると、続いて、ステップS601に進み、案内交差点近傍にランドマークが存在するか否かが判定される。当該判定がNOである場合にはステップS605に進み、ランドマークのためのデータを作成する機となく元のルーチンに戻り、YESである場合にはステップS602に進む。   In FIG. 14, when the landmark creation process is started in step S600, the process proceeds to step S601 to determine whether or not there is a landmark near the guidance intersection. If the determination is NO, the process proceeds to step S605, returns to the original routine without creating the data for the landmark, and if the determination is YES, the process proceeds to step S602.

ステップS602では、地図データベースからランドマークの座標を取得し、ステップS603では、案内交差点の座標を取得する。そして、ステップS604においては、図21に示すように、案内交差点とランドマークの相対位置(Xm,Ym)を算出する。このような相対位置によって、矢印データとランドマークと相対位置から、HUDユニットで重畳表示するランドマークデータの位置を求めるようにする。   In step S602, the coordinates of the landmark are acquired from the map database, and in step S603, the coordinates of the guidance intersection are acquired. In step S604, as shown in FIG. 21, the relative position (Xm, Ym) between the guidance intersection and the landmark is calculated. Based on such relative positions, the position of the landmark data to be superimposed and displayed by the HUD unit is obtained from the relative position of the arrow data and the landmark.

次に、作成された矢印データの矢印幅の補正を行う処理のサブルーチンを説明する。図15は本発明の実施形態に係る運転アシストシステムにおける矢印幅補正処理サブルーチンのフローチャートを示す図である。   Next, a subroutine for processing for correcting the arrow width of the created arrow data will be described. FIG. 15 is a view showing a flowchart of an arrow width correction processing subroutine in the driving assist system according to the embodiment of the present invention.

図15において、ステップS700で矢印幅補正処理が開始されると、続いて、ステップS701に進み、ステップS106で算出されたナビゲーション装置における自位置誤差データを取得する。そして、ステップS702では、ナビゲーション装置の位置誤差分、案内矢印の幅を拡張し、ステップS703元のルーチンにリターンする。   In FIG. 15, when the arrow width correction process is started in step S700, the process proceeds to step S701 to acquire the own position error data in the navigation device calculated in step S106. In step S702, the width of the guide arrow is expanded by the position error of the navigation device, and the process returns to the routine in step S703.

ここで、矢印幅補正処理サブルーチンによって、具体的にどのような処理が行われるかについて図22を参照して説明する。仮に、車両の現在位置の確からしさに係る自信度が3であるときには、表3から位置誤差は±20m未満として推定される。このとき、図22に示すようにナビゲーション装置が認識する自車両の位置は、±20m未満ずれているものと推定される。そこで、矢印幅補正処理においては、重畳表示用の矢印データの矢尻部の幅を、+方向(車両からみて奥側方向)、−方向(車両からみて手前側)のそれぞれ
の方向に20mずつ拡張する補正処理を実行する。
Here, specific processing performed by the arrow width correction processing subroutine will be described with reference to FIG. If the degree of confidence related to the probability of the current position of the vehicle is 3, the position error is estimated as less than ± 20 m from Table 3. At this time, as shown in FIG. 22, the position of the host vehicle recognized by the navigation device is estimated to be shifted by less than ± 20 m. Therefore, in the arrow width correction process, the width of the arrowhead part of the arrow data for superimposed display is expanded by 20 m in each of the + direction (backward direction when viewed from the vehicle) and the-direction (front side when viewed from the vehicle). The correction process to be executed is executed.

次に、作成されたランドマークデータの補正を行う処理のサブルーチンを説明する。図16は本発明の実施形態に係る運転アシストシステムにおけるランドマーク補正処理サブルーチンのフローチャートを示す図である。   Next, a subroutine for processing for correcting the created landmark data will be described. FIG. 16 is a flowchart of a landmark correction processing subroutine in the driving assist system according to the embodiment of the present invention.

図16において、ステップS800で、ランドマーク補正処理が開始されると、続くステップS801では、案内対象の交差点近傍にランドマークが存在するか否かが判定される。当該判定の結果がNOであれば、ステップS807に進み、元のルーチンにリターンし、結果がYESであれば、ステップS802に進む。   In FIG. 16, when the landmark correction process is started in step S800, it is determined in the subsequent step S801 whether or not there is a landmark near the intersection to be guided. If the result of the determination is NO, the process proceeds to step S807 and returns to the original routine, and if the result is YES, the process proceeds to step S802.

ステップS802では、ランドマークが存在するのが交差点の手前側であるか否かが判定される。ステップS802における判定の結果がYESであるときには、ステップS803に進み、ランドマークの位置をナビゲーション装置の位置誤差分手前側にオフセットして配置すると共に、ステップS804において、ランドマークを拡大する補正を実行する。   In step S802, it is determined whether or not the landmark exists on the near side of the intersection. If the determination result in step S802 is YES, the process proceeds to step S803, where the position of the landmark is offset and arranged in front of the position error position of the navigation device, and in step S804, a correction for enlarging the landmark is executed. .

一方、ステップS802における判定の結果がYESであるときには、ステップS805に進み、ランドマーク位置をナビゲーション装置の位置誤差分奥側にオフセットして配置すると共に、ステップS806において、ランドマークを縮小する補正を実行する。   On the other hand, if the determination result in step S802 is YES, the process proceeds to step S805, where the landmark position is offset and arranged on the far side of the position error of the navigation device, and in step S806, the landmark is corrected to be reduced. Run.

ここで、ランドマーク補正処理サブルーチンによって、具体的にどのような処理が行われるかについて図22を参照して説明する。図22においては、ナビゲーション装置による位置誤差は±20m未満として判定されるので、先の矢印幅補正処理においては、矢印データの矢尻部の幅を、+方向(車両からみて奥側方向)、−方向(車両からみて手前側
)のそれぞれの方向に20mずつ拡張する補正処理を実行した。これに併せて、ランドマーク補正処理では、車両からみて奥側に存在するランドマークデータを+方向に20mオ
フセットし、さらにこれを縮小する処理を実行する。
Here, specific processing performed by the landmark correction processing subroutine will be described with reference to FIG. In FIG. 22, since the position error by the navigation device is determined to be less than ± 20 m, in the previous arrow width correction process, the width of the arrowhead portion of the arrow data is set to the + direction (backward direction as viewed from the vehicle), − Correction processing for extending 20 m in each direction (front side as viewed from the vehicle) was performed. At the same time, in the landmark correction process, the landmark data existing on the back side as viewed from the vehicle is offset by 20 m in the + direction, and further reduced.

図9のフローチャートに戻り、ステップS109においては、上記のようなステップS108で作成されたデータ(例えば、図22に示すもの)をデータ投影手段104によって、ウインドシールド上に重畳表示処理する。ステップS109による案内情報表示例が図24である。   Returning to the flowchart of FIG. 9, in step S109, the data created in step S108 as described above (for example, the data shown in FIG. 22) is superimposed and displayed on the windshield by the data projection means 104. An example of guidance information display in step S109 is shown in FIG.

図23はナビゲーション装置による位置誤差は±20m未満として判定されている場合(図22に示す場合)で、実際の車両の位置誤差は10mであったときの、重畳表示用矢印データと、ランドマークデータの配置を鳥瞰的に示す図であり、図24はこれらの重畳表示用の案内情報をウインドシールドに投影・重畳表示したときの運転席からの様子を示す図である。図22に示すように、自車両位置の確からしさに応じて、矢印データの矢尻部分を拡幅すると共に、これに併せて、ランドマークデータをオフセットするようにしているので、図24に示す運転席からは、矢印の幅内に、進行予定である道路が入ることとなる。   FIG. 23 shows a case where the position error by the navigation device is determined to be less than ± 20 m (as shown in FIG. 22), and the arrow data for superimposed display and the landmark when the actual vehicle position error is 10 m. FIG. 24 is a diagram showing a bird's-eye view of data arrangement, and FIG. 24 is a diagram showing a state from the driver's seat when the guidance information for superimposed display is projected and superimposed on the windshield. As shown in FIG. 22, the arrowhead portion of the arrow data is widened in accordance with the certainty of the position of the host vehicle, and the landmark data is offset accordingly, so the driver seat shown in FIG. From there, the road that is scheduled to travel will fall within the width of the arrow.

すなわち、本発明に係る運転アシストシステムは、車両のウインドシールド上に重畳表示する画像情報における案内方向を示す矢印の太さを補正するように構成されているので、補正された矢印の重畳表示内に、案内ポイントが含まれる可能性が高まり、運転者が違和感を覚えることなく曲がるべきポイントを的確に把握することが可能となる。   In other words, the driving assist system according to the present invention is configured to correct the thickness of the arrow indicating the guide direction in the image information superimposed on the windshield of the vehicle. Therefore, the possibility that the guidance point is included is increased, and the driver can accurately grasp the point to bend without feeling uncomfortable.

図9のフローチャートに戻り、ステップS107における判定がNOであるとき、すなわち、位置誤差が所定値より大きい場合は、上記のような重畳表示用データの矢尻幅の補正、ランドマークデータのオフセットでは、対応しきれない。そこで、当該判定がNOである場合には、ステップS110では、案内ポイントの位置を指示するような表示を行わず、アイコンによる表示処理を行う。図25は本発明の実施形態に係る運転アシストシステムにおけるHUDユニット100によるアイコン表示例を示す図である。このような図25によるアイコン表示は、案内ポイント・進行予定道路をトレースするような表示を行うものではないので、運転者に無用な混乱をきたすことがない。   Returning to the flowchart of FIG. 9, when the determination in step S107 is NO, that is, when the position error is larger than a predetermined value, the correction of the arrowhead width of the superimposed display data and the offset of the landmark data as described above are as follows. I can not cope. Therefore, when the determination is NO, in step S110, display that indicates the position of the guidance point is not performed, and display processing using icons is performed. FIG. 25 is a diagram showing an icon display example by the HUD unit 100 in the driving assist system according to the embodiment of the present invention. Such an icon display according to FIG. 25 does not cause a display to trace the guidance point / traveling road, and therefore does not cause unnecessary confusion for the driver.

次に、本発明の他の実施形態について説明する。図26は本発明の他の実施形態に係る運転アシストシステムにおける重畳表示用矢印データ作成の概念を説明する図である。先の実施形態においては、矢印データの矢尻幅を補正する処理を実行するものであったが、本実施形態はさらに矢尻部の長さを補正する処理を実行するものである。本実施形態では、自位置認識システム1から取得される自信度に応じて、矢尻部の長さを、例えば表4に示される規則に応じて変更する処理を実行する。例えば、図26に示すように自信度が3である場合には、矢尻部長さを5mとして重畳表示用データを作成する。   Next, another embodiment of the present invention will be described. FIG. 26 is a diagram for explaining the concept of creating superimposed display arrow data in a driving assistance system according to another embodiment of the present invention. In the previous embodiment, the processing for correcting the arrowhead width of the arrow data is executed. However, in the present embodiment, the processing for correcting the length of the arrowhead portion is further executed. In the present embodiment, a process of changing the length of the arrowhead according to the rules shown in Table 4 according to the degree of confidence acquired from the self-position recognition system 1 is executed. For example, as shown in FIG. 26, when the degree of confidence is 3, the superimposed display data is created with the arrowhead length as 5 m.

このような実施形態は、車両位置の確からしさに応じて、進行予定方向を示す矢尻の長さを変更するものである。すなわち、自位置認識システム1で算出される自信度が高いほど、矢尻の長さは長くなるように表示される。逆に、自信度が低い場合には、矢尻の長さが短くなるので、特に、車両位置の確からしさが低いときには、方向の指示を抑制したような表示となり、運転者に無用な混乱をきたすことがなくなる。   In such an embodiment, the length of the arrowhead indicating the planned traveling direction is changed according to the certainty of the vehicle position. That is, the higher the degree of confidence calculated by the own position recognition system 1, the longer the arrowhead length is displayed. On the contrary, when the confidence level is low, the length of the arrowhead is shortened, and particularly when the vehicle position is not very reliable, the direction indication is suppressed, causing unnecessary confusion for the driver. Nothing will happen.

Figure 0005565561
次に、本発明の他の実施形態について説明する。図27は本発明の他の実施形態に係る運転アシストシステムにおける重畳表示用矢印データ作成の概念を説明する図である。これまで説明した実施形態においては、案内前の進行方向と、案内後の進行予定方向との間のなす角度については考慮されていなかったが、本実施形態ではこのことを考慮して、重畳表示用の矢印データを作成するものである。なお、本実施形態はこれまで説明した実施形態と組み合わせて、実施することもできるし、これのみ単独で実施することもできる。
Figure 0005565561
Next, another embodiment of the present invention will be described. FIG. 27 is a diagram for explaining the concept of creating superimposed display arrow data in the driving assistance system according to another embodiment of the present invention. In the embodiments described so far, the angle formed between the traveling direction before guidance and the planned traveling direction after guidance has not been considered, but in this embodiment, this is considered and superimposed display is performed. The arrow data is created. In addition, this embodiment can be implemented in combination with the embodiment described so far, or can be implemented alone.

本実施形態では、案内前の進行方向と、案内後の進行予定方向との間のなす角度θに応じて、例えば表5に規定される倍率に応じて、矢尻の幅を拡大する処理を実行する。例えば、図26に示すようにθが略90°である場合には、矢尻幅の拡幅補正処理は等倍処理とするが、θが30°であるような場合には、矢尻幅の拡幅補正は1.5倍として処理す
る。
In the present embodiment, a process of enlarging the width of the arrowhead according to the angle θ formed between the traveling direction before guidance and the planned traveling direction after guidance, for example, according to the magnification defined in Table 5 is executed. To do. For example, as shown in FIG. 26, when θ is approximately 90 °, the arrowhead width expansion correction process is the same magnification process. However, when θ is 30 °, the arrowhead width expansion correction is performed. Is processed as 1.5 times.

このような実施形態は、案内前の進行方向と、案内後の進行予定方向との間のなす角度に応じて、重畳表示用矢印データが作成されるので、運転者にとっては視覚的な違和感が少なくなるという効果を享受することができる。   In such an embodiment, the superimposed display arrow data is created according to the angle formed between the traveling direction before guidance and the planned traveling direction after guidance, so that the driver feels uncomfortable visually. It is possible to enjoy the effect of being reduced.

Figure 0005565561
以上、本発明に係る運転アシストシステムは、車両のウインドシールド上に重畳表示する画像情報における案内方向を示す矢印の太さを補正するように構成されているので、補正された矢印の重畳表示内に、案内ポイントが含まれる可能性が高まり、運転者が違和感を覚えることなく曲がるべきポイントを的確に把握することが可能となる。
Figure 0005565561
As described above, the driving assist system according to the present invention is configured to correct the thickness of the arrow indicating the guide direction in the image information displayed in a superimposed manner on the windshield of the vehicle. Therefore, the possibility that the guidance point is included is increased, and the driver can accurately grasp the point to bend without feeling uncomfortable.

次に、本発明の他の実施形態について説明する。これまでに説明してきた実施形態においては、推定される位置誤差に応じて、案内方向を示す矢印の幅を、+方向(車両からみ
て奥側方向)、−方向(車両からみて手前側)のそれぞれの方向に所定の長さ拡張する補正処理を実行することによって、補正された矢印の重畳表示内に、案内ポイントが含まれるようにしていた。
Next, another embodiment of the present invention will be described. In the embodiments described so far, according to the estimated position error, the width of the arrow indicating the guide direction is changed in the + direction (backward direction when viewed from the vehicle) and − direction (front side when viewed from the vehicle). By executing a correction process of extending a predetermined length in each direction, the guide point is included in the superimposed display of the corrected arrows.

案内ポイントと車両の位置が所定距離以上離れているような場合においては、上記のような補正処理を実行することで、所定の効果を上げることが可能となるが、車両が案内ポイントに接近した場合には、案内情報を直感的に把握することが困難となることがある。図28は案内ポイントと車両との間の距離が接近した場合におけるウインドシールド上の案内情報重畳表示例を示す図である。図28に示すように、案内ポイントは矢印の範囲内に入ることとなり、誤った案内情報が運転者に伝わるわけではないが、案内のための矢印表示がウインドシールド上の多くの面積を占めることとなる。このため、運転者は広い画角にわたる案内矢印を、視線を移動させながら参照する必要があり、案内情報自体を直感的に把握することが難しくなっている。   In the case where the position of the guide point and the vehicle is more than a predetermined distance, it is possible to improve the predetermined effect by executing the correction process as described above, but the vehicle approaches the guide point. In some cases, it may be difficult to intuitively grasp the guidance information. FIG. 28 is a diagram showing an example of guidance information superimposed display on the windshield when the distance between the guidance point and the vehicle approaches. As shown in FIG. 28, the guidance point falls within the range of the arrow, and erroneous guidance information is not transmitted to the driver, but the arrow display for guidance occupies a large area on the windshield. It becomes. For this reason, the driver needs to refer to the guide arrow over a wide angle of view while moving his / her line of sight, and it is difficult to intuitively understand the guide information itself.

そこで、本実施形態では、車両が案内ポイントに接近した場合における表示形態を変更することで、案内のための矢印表示をコンパクトにし、より直感的に把握しやすいように構成している。なお、本実施形態は、先の実施形態と矢印幅補正処理サブルーチンが相違するのみであるので、矢印幅補正処理サブルーチンについて詳しく説明する。   Therefore, in the present embodiment, the display form when the vehicle approaches the guidance point is changed, so that the arrow display for guidance is made compact so that it can be easily grasped more intuitively. Note that this embodiment is different from the previous embodiment only in the arrow width correction processing subroutine, and therefore the arrow width correction processing subroutine will be described in detail.

図29は本発明の他の実施形態に係る運転アシストシステムにおける矢印幅補正処理サブルーチンのフローチャートを示す図である。図29において、ステップS900で矢印幅補正処理のサブルーチンが開始されると、次にステップS901に進み、ステップS901で、ナビゲーション装置で案内中のルートを取得し、ルート中の最寄り交差点情報を取得する。このような情報には、案内交差点までの距離に係る情報も含まれている。   FIG. 29 is a diagram showing a flowchart of an arrow width correction processing subroutine in the driving assist system according to another embodiment of the present invention. In FIG. 29, when the subroutine for the arrow width correction process is started in step S900, the process proceeds to step S901. In step S901, the route being guided by the navigation device is acquired, and the nearest intersection information in the route is acquired. . Such information includes information related to the distance to the guidance intersection.

ステップS902では、次の最寄り交差点までの距離が30m以下であるかが判定され、この判定がYESであるときにはステップS905に進み、NOであるときにはステップS903に進む。ステップS902における判定基準である30mが、表示形態変更の
ための閾値として用いられるが、この閾値が30mに限定されるわけではなく、他の距離としてもよい。
In step S902, it is determined whether the distance to the next nearest intersection is 30 m or less. When this determination is YES, the process proceeds to step S905, and when it is NO, the process proceeds to step S903. Although 30 m, which is the determination criterion in step S902, is used as a threshold value for changing the display form, this threshold value is not limited to 30 m and may be another distance.

ステップS902における判定がNOである場合、すなわち、案内ポイントと車両の距離が閾値より離れており、重畳表示する案内矢印のウインドシールド占有面積が少ない場合に進むステップS903及びステップS904は、先の実施形態におけるステップS701及びステップS702と同様の処理を行うものであるので、説明を省略する。   If the determination in step S902 is NO, that is, step S903 and step S904 that proceed when the distance between the guide point and the vehicle is away from the threshold value and the windshield occupation area of the guide arrow to be superimposed is small, Since the same processing as step S701 and step S702 in the embodiment is performed, description thereof is omitted.

ステップS902における判定がYESである場合、すなわち、案内ポイントと車両の距離が閾値以下で、重畳表示する案内矢印のウインドシールド占有面積が大きい場合に進むステップS905においては、ステップS106で算出されたナビゲーション装置における自位置誤差データを取得する。そして、ステップS906では、案内矢印の幅及び長さを所定のテーブルに従って補正を行う。ステップS906で用いるテーブルの一例を表6に示す。   If the determination in step S902 is YES, that is, if the windshield occupying area of the guidance arrow to be superimposed is large when the distance between the guidance point and the vehicle is equal to or smaller than the threshold value, the navigation calculated in step S106 is performed. Self-position error data in the device is acquired. In step S906, the width and length of the guide arrow are corrected according to a predetermined table. An example of the table used in step S906 is shown in Table 6.

Figure 0005565561
表6のテーブルは、ナビゲーション装置の位置誤差レベルと、それに応じた案内矢印の幅及び長さに関する補正処理の内容を規定するものである。例えば、ナビゲーション装置の位置誤差が±10m未満である場合には、矢印の幅を±5m拡張し、長さを一段階短くするように補正する。
Figure 0005565561
The table in Table 6 defines the content of the correction process related to the position error level of the navigation device and the width and length of the guide arrow corresponding to the level. For example, when the position error of the navigation device is less than ± 10 m, the arrow is expanded by ± 5 m, and the length is corrected by one step.

ところで、表6のテーブルにおいては、位置誤差が大きくなればなるほど、それに応じて幅を広げる範囲は、誤差レベルが±1m〜±5mの範囲であり、±10m以上の誤差があっても、矢印の幅補正は±5mに留めるようにしている。また、表6のテーブルにおいては、位置誤差レベルが±10mのときには矢印長さを一段短く、位置誤差レベルが±20mのときには矢印長さをさらに一段短くするように規定している。このように、本実施形態においては、位置誤差レベルが所定以上の場合であっても、車両が案内ポイントに接近したときには、案内のための矢印をコンパクトに表示するようにしている。このため、運転者にとって、案内情報の把握が直感的に行えるようになっている。   By the way, in the table of Table 6, the larger the position error, the wider the range corresponding to the position error is in the range of ± 1 m to ± 5 m, and even if there is an error of ± 10 m or more, the arrow The width correction is limited to ± 5 m. In the table of Table 6, it is defined that the arrow length is shortened by one step when the position error level is ± 10 m, and the arrow length is further shortened by one step when the position error level is ± 20 m. As described above, in the present embodiment, even when the position error level is equal to or higher than a predetermined level, when the vehicle approaches the guide point, the arrow for guidance is displayed in a compact manner. For this reason, the driver can intuitively grasp the guidance information.

ここで、上記のような他の実施形態における矢印幅補正処理サブルーチンによって、具体的にどのような処理が行われるかについて図30を参照して説明する。仮に、車両の現
在位置の確からしさに係る自信度が3であるときには、表3から位置誤差は±20m未満として推定される。このとき、ナビゲーション装置が認識する自車両の位置は、±20m未満ずれているものと推定される。しかし交差点までの距離が30m以下であるので、表6のテーブルに従って、矢印の拡幅は±5mに留めるようにする。また、同テーブルに従い、矢尻部の長さについては、通常より2段階短くなるように(およそ車道外側線程度までの長さとなるように)補正処理を実行する。
Here, specific processing performed by the arrow width correction processing subroutine in another embodiment as described above will be described with reference to FIG. If the degree of confidence related to the probability of the current position of the vehicle is 3, the position error is estimated as less than ± 20 m from Table 3. At this time, the position of the host vehicle recognized by the navigation device is estimated to be shifted by less than ± 20 m. However, since the distance to the intersection is 30 m or less, the widening of the arrow is limited to ± 5 m according to the table in Table 6. Further, according to the table, the correction processing is executed so that the length of the arrowhead portion is shorter by two steps than usual (so that the length is about the length of the roadway outer line).

図31はナビゲーション装置による位置誤差は±20m未満として判定されている場合(図30に示す場合)で、実際の車両の位置誤差は10mであったときの、重畳表示用矢印データと、ランドマークデータの配置を鳥瞰的に示す図であり、図32はこれらの重畳表示用の案内情報をウインドシールドに投影・重畳表示したときの運転席からの様子を示す図である。交差点が接近しており、自車両位置の確からしさに応じて、矢印データの矢尻部分を拡幅すると矢印のウインドシールド専有面積が大きくなりすぎてしまうので、表6のテーブルに従って拡幅を限定するようにしている。また、これに併せて、ランドマークデータをオフセットするようにしている。   FIG. 31 shows a case where the position error by the navigation device is determined to be less than ± 20 m (as shown in FIG. 30), and the arrow data for superimposed display and the landmark when the actual vehicle position error is 10 m. FIG. 32 is a diagram showing the data arrangement from a bird's eye view, and FIG. 32 is a diagram showing a state from the driver's seat when the guidance information for superimposed display is projected and superimposed on the windshield. If the intersection is approaching and the arrowhead part of the arrow data is widened according to the certainty of the vehicle position, the area occupied by the windshield of the arrow will become too large. Therefore, the widening should be limited according to the table in Table 6. ing. At the same time, the landmark data is offset.

このような他の実施形態によれば、位置誤差レベルが所定以上の場合であっても、車両が案内ポイントに接近したときには、案内のための矢印をコンパクトに表示することで、運転者にとっては、案内情報の把握が直感的に行えるようになっている。   According to such another embodiment, even when the position error level is equal to or higher than a predetermined level, when the vehicle approaches the guide point, the arrow for guidance is displayed in a compact manner for the driver. , It is possible to intuitively grasp the guidance information.

1・・・自位置認識システム
4・・・演算制御装置
5・・・自律航法センサ
6・・・GPS受信機
8・・・カメラ(撮像手段)
9・・・車車間通信モジュール(車車間通信手段)
10・・・車間距離検出モジュール(位置関係検出手段)
11・・・車間状態確認手段(位置関係検出手段)
41・・・自位置認識部
42・・・自位置決定部
43・・・自信度決定部
44・・・自信度比較部( 自信度比較手段)
100・・・HUD(ヘッドアップディスプレイ)ユニット
Ci・・・自車
Co・・・他車
DB・・・データベース
DBm・・・地図データベース
DBc・・・自信度演算データベース
DBd・・・位置誤差データベース
DESCRIPTION OF SYMBOLS 1 ... Local position recognition system 4 ... Calculation control apparatus 5 ... Autonomous navigation sensor 6 ... GPS receiver 8 ... Camera (imaging means)
9 ... Vehicle-to-vehicle communication module (vehicle-to-vehicle communication means)
10: Inter-vehicle distance detection module (positional relationship detection means)
11... Inter-vehicle state confirmation means (position relation detection means)
41 ... Own position recognition unit 42 ... Own position determination unit 43 ... Confidence degree determination unit 44 ... Confidence degree comparison unit (confidence degree comparison means)
100 ... HUD (head-up display) unit Ci ... own vehicle Co ... other vehicle DB ... database DBm ... map database DBc ... confidence level calculation database DBd ... position error database

Claims (1)

車両のウインドシールド上に案内方向を示す矢印を重畳表示することによって、運転者に対する運転アシストを行う運転アシストシステムであって、
自車両の自位置を決定するための複数の自位置認識手段と、
前記案内方向を示す矢印の幅を補正する補正手段を有し、
前記補正手段は、前記複数の自位置認識手段による自位置の認識状態に基づいて、自位置の位置誤差を推定し、推定される車両位置情報の位置誤差分だけ前記矢印の幅を拡張することを特徴とする運転アシストシステム。
A driving assistance system that performs driving assistance for a driver by displaying an arrow indicating a guidance direction on a windshield of a vehicle,
A plurality of own position recognition means for determining the own position of the own vehicle;
Correction means for correcting the width of the arrow indicating the guide direction ;
The correction means estimates a position error of the own position based on a recognition state of the own position by the plurality of own position recognition means, and extends the width of the arrow by the position error of the estimated vehicle position information. Driving assist system characterized by
JP2010034948A 2010-02-19 2010-02-19 Driving assistance system Expired - Fee Related JP5565561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010034948A JP5565561B2 (en) 2010-02-19 2010-02-19 Driving assistance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010034948A JP5565561B2 (en) 2010-02-19 2010-02-19 Driving assistance system

Publications (2)

Publication Number Publication Date
JP2011169808A JP2011169808A (en) 2011-09-01
JP5565561B2 true JP5565561B2 (en) 2014-08-06

Family

ID=44684079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010034948A Expired - Fee Related JP5565561B2 (en) 2010-02-19 2010-02-19 Driving assistance system

Country Status (1)

Country Link
JP (1) JP5565561B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5609634B2 (en) * 2010-12-28 2014-10-22 アイシン・エィ・ダブリュ株式会社 Route guidance device, route guidance method, and route guidance program
JP5733196B2 (en) * 2011-12-22 2015-06-10 アイシン・エィ・ダブリュ株式会社 Lane guidance display system, method and program
JP5983498B2 (en) * 2013-03-29 2016-08-31 アイシン・エィ・ダブリュ株式会社 Intersection guidance system, method and program
JP6398846B2 (en) * 2015-04-01 2018-10-03 トヨタ自動車株式会社 Display device and display method
WO2018134897A1 (en) * 2017-01-17 2018-07-26 マクセル株式会社 Position and posture detection device, ar display device, position and posture detection method, and ar display method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03255310A (en) * 1990-03-06 1991-11-14 Pioneer Electron Corp Navigation apparatus for vehicle
JPH10339646A (en) * 1997-06-10 1998-12-22 Toyota Motor Corp Guide display system for car
JP3931339B2 (en) * 2003-09-30 2007-06-13 マツダ株式会社 Vehicle information providing device
JP2006284458A (en) * 2005-04-01 2006-10-19 Denso Corp System for displaying drive support information
US20090240426A1 (en) * 2006-06-12 2009-09-24 Takashi Akita Navigation device and navigation method

Also Published As

Publication number Publication date
JP2011169808A (en) 2011-09-01

Similar Documents

Publication Publication Date Title
JP5382356B2 (en) Driving assistance system
JP4293917B2 (en) Navigation device and intersection guide method
JP6036371B2 (en) Vehicle driving support system and driving support method
US7948397B2 (en) Image recognition apparatuses, methods and programs
CN107850456B (en) Route guidance device and route guidance method
KR20200029587A (en) Driving support method and driving support device
JP2008080896A (en) Vehicle control system, vehicle control method and vehicle control program
EP3627110B1 (en) Method for planning trajectory of vehicle
JP5565561B2 (en) Driving assistance system
US20230013965A1 (en) Superimposed-image display device
JP2006162409A (en) Lane determination device of crossing advancing road
JP4875509B2 (en) Navigation device and navigation method
JP6396672B2 (en) Information display device and information display method
JP2010091363A (en) Navigation device and route guiding method
JP5026237B2 (en) Navigation device
JP5203747B2 (en) Navigation device
JP6179166B2 (en) Point display system, method and program
JP5901358B2 (en) In-vehicle device
JP2020140602A (en) Map data update system, travel probe information collection device, travel probe information providing device, and travel probe information collection method
JP2005292052A (en) On-vehicle navigation system
JP2008076366A (en) Navigation apparatus, navigation method, and navigation program
JP2008076365A (en) Navigation apparatus, navigation method, and navigation program
JP2011174834A (en) Device, method and program for setting route
US20230314166A1 (en) Map reliability determination apparatus and driving assistance apparatus
JP2014071629A (en) Travel information display system, travel information display method, and travel information display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140603

R150 Certificate of patent or registration of utility model

Ref document number: 5565561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees