JP4241350B2 - Mobile auxiliary guide device - Google Patents
Mobile auxiliary guide device Download PDFInfo
- Publication number
- JP4241350B2 JP4241350B2 JP2003403295A JP2003403295A JP4241350B2 JP 4241350 B2 JP4241350 B2 JP 4241350B2 JP 2003403295 A JP2003403295 A JP 2003403295A JP 2003403295 A JP2003403295 A JP 2003403295A JP 4241350 B2 JP4241350 B2 JP 4241350B2
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- moving
- vehicle
- recommended
- movable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
この発明は、車両等の移動体の運行を補助・案内するための移動体補助案内装置に関し、特に、ナビゲーション装置で用いられ、移動体の運行を補助・案内する移動体補助案内装置に関する。 The present invention relates to a moving body auxiliary guide device for assisting and guiding the operation of a moving body such as a vehicle, and more particularly to a moving body auxiliary guide device that is used in a navigation device and assists and guides the operation of a moving body.
一般に、車両等の移動体(以下単に車両と総称する)の現在位置をGPS(Global Positioning System)装置によって測位して、車両現在地としてディスプレイ等の表示装置に道路地図とともに表示するナビゲーション装置が知られており、このようなナビゲーション装置においては、運転者に車両現在地及び車両の進行方向等を案内している。また、車両に道路上の障害物等をセンサによって検出して、運転者にその旨報知するようにしたものもある。しかしながら、この種のナビゲーション装置では、単に運転者に障害物等の存在を報知するのみで、道路上の障害物等を認識して、運転者に対して車両が進むべき推奨進行方向及び推奨速度(車速)等の運転情報を運転者に与え、車両を運転する際の運転補助案内を行うことは困難である。 2. Description of the Related Art In general, a navigation device is known that measures the current position of a moving body such as a vehicle (hereinafter simply referred to as a vehicle) using a GPS (Global Positioning System) device and displays the current position of the vehicle together with a road map on a display device such as a display. In such a navigation device, the vehicle current location, the traveling direction of the vehicle, and the like are guided to the driver. Some vehicles detect obstacles or the like on the road with a sensor and notify the driver accordingly. However, with this type of navigation device, it is only necessary to notify the driver of the presence of an obstacle, etc., to recognize the obstacle on the road, and the recommended traveling direction and recommended speed that the vehicle should travel to the driver. It is difficult to give driving information such as (vehicle speed) to the driver and provide driving assistance guidance when driving the vehicle.
一方、電気自動車を制御する際に、地図データベースの自車位置データを、GPSデータとチェックポイント確認で修正した現在地情報に基づいて、車載レーザレーダ又は車載カメラで得られた自車周囲の物体に対する適切な危険回避制御を行うようにしたものがある。 On the other hand, when controlling an electric vehicle, the vehicle position data in the map database is based on GPS data and current location information corrected by checkpoint confirmation. Some are designed to perform appropriate danger avoidance control.
ここでは、車両が走行すべき車線又は空間内から車両がはみ出しそうになった際に自動的に操舵装置を作動させ、さらに、交差点における止まれの標識又は踏切などの車両が常に停止しなければならない道路上の地点においては、自動的に車両を停止させ、同一車線上の前方に車両又は人間が存在して、そのままの速度では衝突すると判断される際にも車両を自動的に停止又は減速させるようにしている。 Here, the steering device must be automatically activated when the vehicle is about to protrude from the lane or space where the vehicle should travel, and the vehicle such as a stop sign or railroad crossing at the intersection must always stop At a point on the road, the vehicle is automatically stopped, and the vehicle is automatically stopped or decelerated even when a vehicle or a person is present in front of the same lane and it is determined that the vehicle will collide at the same speed. I am doing so.
加えて、予め車両が指定した空間内において最高速度を自動的に制御して、車両が車線をはみ出して障害物に衝突する事故、信号を無視して生じる事故、前方の車への追突による事故、車線変更時に生じる事故、右折の際に生じる事故、車線上にいる歩行者をはねる事故などを防止し、歩行者の飛び出しに対しても素早くブレーキ操作を行うようにしている(例えば、特許文献1参照)。 In addition, the maximum speed is automatically controlled in the space designated by the vehicle in advance, the vehicle protrudes from the lane and collides with an obstacle, the accident that ignores the signal, the accident caused by the rear-end collision with the vehicle ahead , Accidents that occur when changing lanes, accidents that occur when turning right, accidents that hit pedestrians on the lane, etc., and quick brake operation against pedestrian jumping (for example, patent document) 1).
従来の移動体補助案内装置は、以上のように構成されているので、車載レーザレーダ又は車載カメラを備えて、車両を自動的に制御して事故を防止するようにしているものの、あくまで車両の自動制御に関するものであり、運転者の意思に反しても車両の危険回避制御が行われてしまうことがある。 Since the conventional mobile auxiliary guide device is configured as described above, it has an in-vehicle laser radar or an in-vehicle camera to automatically control the vehicle to prevent accidents. This relates to automatic control, and the vehicle's risk avoidance control may be performed even against the driver's intention.
そして、このような危険回避制御を行うためには、物体(オブジェクト)との距離を車載レーザレーダで検出する必要があり、車両の全方向について物体と車両との距離を検出するためには、多数の車載レーザレーダが必要となってしまい、少なくとも、車両の前側、後ろ側、及び側面側に車載レーザレーダを配置しなければならない。このため、従来の移動体補助案内装置は高価になってしまうという課題があった。 And in order to perform such danger avoidance control, it is necessary to detect the distance to the object (object) with the in-vehicle laser radar, and in order to detect the distance between the object and the vehicle in all directions of the vehicle, A large number of in-vehicle laser radars are required, and the in-vehicle laser radars must be arranged at least on the front side, rear side, and side surface side of the vehicle. For this reason, there existed a subject that the conventional mobile auxiliary | assistant guide apparatus will become expensive.
この発明は、上記のような課題を解決するためになされたもので、安価でしかも適切に運転者に移動体の運行の補助案内を行うことのできる移動体補助案内装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and an object thereof is to obtain a moving body auxiliary guidance device that can provide a driver with auxiliary guidance for operation of a moving body at a low cost and appropriately. To do.
この発明に係る移動体補助案内装置は、移動体の現在位置を検出するとともに、移動体が進行する方位及び移動体の移動速度を検出して、移動体周辺の地図上に現在位置を報知して移動体の案内を行う際に、移動体が静止しているとして地図データからこの移動体が移動可能な領域を静的移動可能領域として抽出し、この静的移動可能領域を量子化して量子化移動可能領域とした後、量子化移動可能領域を用いて、移動体が静止状態における移動可能な領域において移動体の移動方向及び移動速度に応じて移動体が移動可能な領域を示す動的移動可能領域を求めて、動的移動可能領域に応じて移動体の移動について推奨する移動推奨状態を判定し、移動推奨状態を報知して移動体の案内を補助することを特徴とする。 The moving body auxiliary guidance device according to the present invention detects the current position of the moving body, detects the azimuth of the moving body and the moving speed of the moving body, and notifies the current position on a map around the moving body. When the mobile object is guided, the area where the mobile object can move is extracted from the map data as a static movable area, and the static movable area is quantized and quantized. Dynamic region indicating the region in which the moving object can move according to the moving direction and moving speed of the moving object in the moving region in the stationary state using the quantized movable region. It is characterized in that a movable area is obtained, a recommended movement state recommended for movement of the moving body is determined according to the dynamic movable area, and the recommended moving state is notified to assist the moving body.
この発明は、移動体が静止しているとして地図データから当該移動体が移動可能な領域を静的移動可能領域として抽出し、この静的移動可能領域を量子化して量子化移動可能領域とした後、量子化移動可能領域を用いて、当該移動体が静止状態における移動可能な領域において移動体の移動方向及び移動速度に応じて移動体が移動可能な領域を示す動的移動可能領域を求めて、動的移動可能領域に応じて移動体の移動について推奨する移動推奨状態を判定し、この移動推奨状態を出力するように構成したので、安価でしかも適切に運転者に移動体の運行の補助案内を行うことができるという効果がある。 In the present invention, an area where the moving body can move is extracted from the map data as a static movable area assuming that the moving body is stationary, and the static movable area is quantized to obtain a quantized movable area. After that, using the quantized movable area, a dynamic movable area indicating an area in which the moving body can move in accordance with the moving direction and moving speed of the moving body in the movable area in a stationary state is obtained. Therefore, the recommended moving condition recommended for moving the moving object is determined according to the dynamic moving possible area, and the recommended moving condition is output, so that it is cheap and appropriate for the driver to operate the moving object. There is an effect that auxiliary guidance can be performed.
実施の形態1.
図1は、この発明を実施するための実施の形態1における移動体補助案内装置を示すものである。図1において、図示の移動体補助案内装置は、車両等の移動体(以下車両という)に搭載され、車両の運行(進行)を補助案内するものである。移動体補助案内装置は、駆動装置(ドライブ)202を備えており、このドライブ202はDVD又はハードディスク等の媒体201から地図データを読み出し、インタフェース(I/F)回路206を介して電子制御ユニット(以下ナビECU)207に与える。
Embodiment 1 FIG.
FIG. 1 shows a mobile auxiliary guide apparatus according to Embodiment 1 for carrying out the present invention. In FIG. 1, the illustrated moving body auxiliary guidance apparatus is mounted on a moving body such as a vehicle (hereinafter referred to as a vehicle) and assists and guides the operation (progress) of the vehicle. The mobile auxiliary guide device includes a drive device (drive) 202, which reads map data from a
さらに、移動体補助案内装置は、GPS受信機203、ジャイロ204、及び車速センサ205を有しており、GPS受信機203では、GPS衛星(図示せず)からGPS信号を受信して、I/F回路206を介してGPSデータとしてナビECU207に与える。ジャイロ204は車両が旋回する際の角速度を検出してI/F回路206を介して角速度信号(電圧信号)としてナビECU207に与え、車速センサ205は車両の速度を検出して車速信号(パルス信号)としてI/F回路206を介してナビECU207に与える。なお、この車速信号は、予め規定された走行距離毎に検出される。
Further, the mobile auxiliary guidance device includes a
ナビECU207ではGPSデータ及び地図データに応じて車両の現在地(絶対位置及び絶対方位)を求め、一旦、地図データとともに車両現在地、車速信号、及び角速度信号を外部メモリ208に書き込む。一方、カメラ付画像認識装置211がI/F回路206に接続されており、車両に搭載されたカメラ(図示せず)で撮像された画像(車両外部の映像)がカメラ付画像認識装置211で、後述するように画像認識処理されて、処理済画像データとしてI/F回路206を介してナビECU207に与えられ、ナビECU207では処理済画像データを一旦外部メモリ208に格納する。そして、ナビECU207は、後述するようにして、外部メモリ208に格納された各データに応じて表示装置(ディスプレイ)209及びスピーカー210を用いて車両運行案内を行う。
The
図2はナビECU207の機能を示す機能ブロック図であり、図2を参照すると、図1には示されていないが、ナビECU207には、目的地等を入力する入力手段104が接続され、ナビECU207は、媒体201(図1)から地図データを取得する地図情報取得手段101、車両の位置(現在地)を検出する位置検出手段102、車両の方位及び速度を検出する方位速度検出手段103、及び目的地までの最適経路を探索する経路探索手段105を備えるとともに、静的移動可能領域抽出手段106、静的移動可能量子化手段107、動的移動可能領域演算手段108、移動推奨状態判定手段109、移動推奨状態出力手段110、画像撮影角度検出手段112、平面化変換手段113、及びオブジェクト(物体)マッピング手段114を有している。また、カメラ付画像認識装置211には風景画像認識手段111が備えられている。
FIG. 2 is a functional block diagram showing the functions of the
後述するが、風景画像認識手段111は方位速度検出手段103から与えられる方位速度信号に応じて画像(風景画像)を認識して、処理済画像データとし、画像撮影角度検出手段112によって風景画像がどのような俯瞰角度の鳥瞰図であるかを判断する。平面化変換手段113では、風景画像中のオブジェクトの座標を上方から見下ろした平面図(第1の平面図)と水平方向から見た高さを表す平面図(第2の平面図)に変換する。
As will be described later, the landscape
静的移動可能領域抽出手段106では、車両の静止時を想定して車両が移動可能な領域を静的移動可能領域として地図データから抽出し、オブジェクトマッピング手段114は、移動可能領域にオブジェクトの位置をマッピングして、地図データを修正する。そして、静的移動可能領域量子化手段107は、移動可能領域を量子化し量子化移動可能領域を生成する。動的移動可能領域演算手段108は量子化移動可能領域において、車両の移動状態を示す移動方向及び移動速度を考慮して動的移動可能領域を演算する。
The static movable area extracting unit 106 extracts an area in which the vehicle can be moved from the map data as a static movable area assuming that the vehicle is stationary, and the
移動推奨状態判定手段109では、動的移動可能領域においてオブジェクトを回避すべきか否かを判定し、その判定結果に基づいてどのような移動が推奨可能かを判定し、最終的な推奨移動状態が移動推奨状態出力手段110から出力されて、図1に示すディスプレイ209に表示される。なお、ナビECU207は地図データ及び車両現在地に応じてディスプレイ209上に地図を表示するとともに地図上に車両現在地を表示する。
The recommended movement
次に動作について説明する。
図2及び図3を参照して、移動体補助案内装置が動作すると、地図情報取得手段101は、車両現在地(移動体位置)、車両速度、車両方位(進行方向)、及び経路(経路情報)に応じて車両現在地付近の地図データ(道路データ)を取得する(ステップST1)。そして、静的移動可能領域抽出手段106は地図データに基づいて、車両が静止していると仮定した際の車両が進行可能な領域を静的移動可能領域として抽出する(ステップST2)。風景画像認識手段111はカメラで撮影された風景画像を認識して処理済画像データとする。例えば、風景画像認識手段111は、風景画像を認識して道路上の白線及び障害物(以下オブジェクトと総称する)を量子化して量子化データを得る(ステップST3)。
Next, the operation will be described.
Referring to FIGS. 2 and 3, when the moving body auxiliary guidance device operates, map information acquisition means 101 performs vehicle current location (moving body position), vehicle speed, vehicle direction (traveling direction), and route (route information). Accordingly, map data (road data) in the vicinity of the vehicle current location is acquired (step ST1). Then, based on the map data, the static movable area extracting means 106 extracts an area in which the vehicle can travel when it is assumed that the vehicle is stationary as a static movable area (step ST2). A landscape
画像撮影角度検出手段112では、静的移動可能領域の俯瞰角度を調整し三次元(3D)化して、3D移動可能領域とし、この3D移動可能領域及び量子化データに応じて画像撮影角度を判定する(ステップST4)。平面化変換手段113では画像撮影角度に応じて量子化データを水平方向と垂直方向とにその座標を平面化して平面化データとする(ステップST5)。オブジェクトマッピング手段114は静的移動可能領域に対して平面化データ(水平座標及び垂直座標)をマッピングし、これによって、オブジェクトの大きさ、高さ、及び車両からの距離を算出する(ステップST6)。
The image shooting angle detection means 112 adjusts the overhead view angle of the static movable area to make it three-dimensional (3D) to form a 3D movable area, and determines the image shooting angle according to the 3D movable area and the quantized data. (Step ST4). The
静的移動可能領域量子化手段107では、静的移動可能領域を量子化し、量子化移動可能領域を得て、オブジェクトを量子化移動可能領域に追加する(ステップST7)。そして、動的移動可能領域演算手段108は車両の速度に応じて量子化移動可能領域から車両が移動可能な領域を動的移動可能領域として求める(ステップST8)。移動推奨状態判定手段109は、動的移動可能領域中から障害物の回避が可能であるか否かを判定し、推奨すべき車両移動状態を判定し(ステップST9)、移動推奨状態として移動推奨状態出力手段110から出力する(ステップST10)。 The static movable area quantization means 107 quantizes the static movable area, obtains a quantized movable area, and adds the object to the quantized movable area (step ST7). Then, the dynamically movable area calculating means 108 obtains an area in which the vehicle can move from the quantized movable area as a dynamically movable area according to the speed of the vehicle (step ST8). The recommended movement state determination means 109 determines whether or not an obstacle can be avoided from the dynamically movable area, determines a recommended vehicle movement state (step ST9), and recommends movement as the recommended movement state. Output from the status output means 110 (step ST10).
ここで、図4を参照して、静的移動可能領域抽出手段106の動作についてさらに説明する。静的移動可能領域抽出手段106では、まず、地図情報取得手段101から車両の進行方向に対応する地図データを取得して(ステップST11)、車両が地図データの道路上を走行しているか否かを判定する(ステップST12)。車両が道路上を走行していると判定すると、静的移動可能領域抽出手段106は、一方通行又は通行禁止等の通れない道路と通行可能な道路とを区別して、規制などの障害物のある地点及び区間を判定する(ステップST13)。 Here, with reference to FIG. 4, the operation of the static movable area extracting unit 106 will be further described. First, the static movable area extracting unit 106 acquires map data corresponding to the traveling direction of the vehicle from the map information acquiring unit 101 (step ST11), and whether or not the vehicle is traveling on the road of the map data. Is determined (step ST12). If it is determined that the vehicle is traveling on the road, the static movable area extracting means 106 distinguishes between the road that cannot be passed or the road that is not allowed to pass and the road that is allowed to pass, and there is an obstacle such as a restriction. A point and a section are determined (step ST13).
そして、静的移動可能領域抽出手段106はオブジェクトマッピング手段114から得られたデータから障害物地点、車線数等の地図データ修正情報を地図データに追加して、修正地図データとして保存する(ステップST14)。なお、ステップST12において車両が道路上を走行していないと判定すると、静的移動可能領域抽出手段106は処理を終了する。
Then, the static movable area extracting unit 106 adds map data correction information such as an obstacle point and the number of lanes from the data obtained from the
図5に車両進行方向に対応して取り出した地図データの一例を示す。図5において、符号”501”は読み込んだ地図データの領域を表しており、符号”502”が車両進行方向に対応して取り出す地図データの領域を表している。なお、符号”503”及び”504”はそれぞれ地図データ上の通れない道路及び地図データ上の障害物のある地点を表している。また、符号”505”は地図データ上の通行可能な道路を表し、符号”506”及び”507”はそれぞれオブジェクトマッピング手段114から出力された障害物のある地点及び地図データ上の車線数誤り情報を反映した道路を表している。 FIG. 5 shows an example of map data extracted corresponding to the vehicle traveling direction. In FIG. 5, reference numeral “501” represents the area of the read map data, and reference numeral “502” represents the area of the map data to be extracted corresponding to the vehicle traveling direction. Reference numerals “503” and “504” represent roads on the map data that cannot pass and points on the map data where there are obstacles. Reference numeral “505” represents a road that can be passed on the map data, and reference numerals “506” and “507” respectively represent points where there are obstacles output from the object mapping means 114 and lane number error information on the map data. Represents a road reflecting
図6を参照して、静的移動可能領域量子化手段107の動作についてさらに説明する。静的移動可能領域量子化手段107では、静的移動可能領域抽出手段106から出力された車両進行方向に対応して取り出した地図データ(つまり、静的移動可能領域)に対して、道路幅員データのある道路については、その道路幅で幅員を持たせて幅付けして量子化を行う(ステップST15)。そして、静的移動可能領域量子化手段107は、道路幅員データのない道路でかつ車線数のある道路について、1車線を予め規定された幅員として計算し、幅付けして量子化する(ステップST16)。さらに、静的移動可能領域量子化手段107は、道路幅員データのない道路でかつ車線数のない道路(例えば、風景データがない(夜、雨等)場合及び地図データもない場合)について、固定の車線数として予め規定された幅員を計算し、幅付けして量子化する(ステップST17)。 With reference to FIG. 6, the operation of the static movable area quantization means 107 will be further described. The static movable area quantization means 107 uses road width data for the map data (that is, the static movable area) extracted in correspondence with the vehicle traveling direction output from the static movable area extraction means 106. For a road with a width, the width is given by the width of the road, and quantization is performed (step ST15). Then, the static movable area quantization means 107 calculates, for a road with no road width data and a road with a number of lanes, one lane as a predetermined width, widths and quantizes (step ST16). ). Furthermore, the static movable area quantization means 107 is fixed for roads without road width data and roads with no lane numbers (for example, when there is no landscape data (night, rain, etc.) and when there is no map data). The width defined in advance as the number of lanes is calculated, and the width is added and quantized (step ST17).
図7に静的移動可能領域量子化手段107によって量子化した結果を示す。図7において、符号”701”は5.5メートルの道路幅員を量子化した結果を表し、符号”702”は車線数4の道路を量子化した結果を表し、符号”703”は未調査の道路であって、固定の車線数である1車線として量子化した結果を示している。 FIG. 7 shows the result of quantization by the static movable area quantization means 107. In FIG. 7, reference numeral “701” represents a result of quantizing a road width of 5.5 meters, reference numeral “702” represents a result of quantizing a road having four lanes, and reference numeral “703” represents an unexamined result. The result of quantizing the road as one lane having a fixed number of lanes is shown.
ここで、風景画像認識手段111の動作について詳細に説明する。図8を参照して、風景画像認識手段111では、車両の進行方向に対して、例えば、方向指示器(ウィンカー)又はバック時(後退時)等で巻き込み確認及び後方確認の判定を行って、所定の方向の画像認識を行うように、カメラ付画像認識装置211(図2)に指示する(ステップST18)。そして、風景画像認識手段111は次のようにしてカメラで得られた風景画像に対して処理を行う。
Here, the operation of the landscape
まず、風景画像認識手段111では、風景画像から道路幅を認識して(ステップST19)、車線の認識を行う(ステップST20)。その後、風景画像認識手段111はトンネル入口等の構造物があるかを認識し(ステップST21)、車両の走行速度に基づいて、停止している障害物等が存在するか否かの認識を行う(ステップST22)。そして、風景画像認識手段111は、車両の走行速度に基づいて移動している他の移動体があるか否かの認識を行う(ステップST23)。
First, the landscape
図9に実際の風景画像を模式的に示す。図9において、符号”901”は認識した道路を表し、符号”902”は認識した車線を表している。また、符号”903”は認識したトンネル入口等の構造物であり、符号”904”及び”905”はそれぞれ認識した停止障害物及び認識した他の移動体である。 FIG. 9 schematically shows an actual landscape image. In FIG. 9, reference numeral “901” represents a recognized road, and reference numeral “902” represents a recognized lane. Reference numeral “903” is a recognized structure such as a tunnel entrance, and reference numerals “904” and “905” are a recognized stop obstacle and another recognized moving body, respectively.
図10を参照して、画像撮影角度検出手段112についてさらに説明すると、画像撮影角度検出手段112では、まず風景画像認識手段111で認識された道路領域を取得する(ステップST24)。さらに、風景撮影角度検出手段112は、静的移動可能領域抽出手段106で抽出された静的移動可能領域を取得して(ステップST25)、静的移動可能領域に対して所定の幅付けを行って量子化する(ステップST26)。その後、風景撮影角度検出手段112では、俯瞰角度及び視点(運転者の目の位置)を最小単位毎に鳥瞰化して、鳥瞰化された量子化幅付け道路と道路領域とを比較して、最も一致する俯瞰角度及び視点を選択する(ステップST27)。そして、画像撮影角度検出手段112は、選択した俯瞰角度及び視点を平均化する(ステップST28)。
With reference to FIG. 10, the image photographing
なお、ステップST27では、まず、基準となるY軸座標値である、例えば、画面下側の道路幅について双方を比較し、拡大又は縮小倍率を決定した後、クイックソートのように、まず、俯瞰角度の中央値45度から実行し、次に、22.5度の単位で1/2毎に区切っていき、最も類似の俯瞰角度を選定する。そして、同一の手順を踏んで視点を選定する。また、量子化移動可能領域と認識道路領域との面積を比較して、類似の判定を行う(なお、平均化するなどして、複数回のサンプリングによって選定を行うようにしてもよい)。 In step ST27, first, the reference Y-axis coordinate value, for example, the road width on the lower side of the screen is compared with each other, and the enlargement or reduction ratio is determined. The processing is performed from the median angle of 45 degrees, and then divided into halves in units of 22.5 degrees to select the most similar overhead angle. Then, the viewpoint is selected following the same procedure. Further, the areas of the quantized movable area and the recognized road area are compared to make a similar determination (note that the selection may be performed by sampling a plurality of times, for example, by averaging).
さらに、画像撮影角度検出手段112では、勾配情報を求めて、この勾配情報を記憶する。例えば、ステップST27で選定した俯瞰角度に対して、所定の値以上(例えば、5度以上)の俯瞰角度のずれが発生すると、今回の俯瞰角度と選定した俯瞰角度との関係を求めて、これを勾配情報として外部メモリに記憶する。 Further, the image photographing angle detection means 112 obtains gradient information and stores this gradient information. For example, when a bird's-eye view angle shift of a predetermined value or more (for example, 5 ° or more) occurs with respect to the bird's-eye view angle selected in step ST27, the relationship between the current bird's-eye view angle and the selected bird's-eye angle is obtained. Is stored in the external memory as gradient information.
図11に画像撮影角度検出手段112による処理結果を模式的に示す。図11において、図11(a)〜(c)はステップST27における鳥瞰化の最初の手順である拡大又は縮小倍率の決定を示しており、図11(b)に示す道路幅を2.5倍して図11(c)に示す状態とする。図11(d)〜(f)はステップST26における最も類似する俯瞰角度の選定を示している。ここでは、図11(e)に示す状態を、俯瞰角度45度から22.5度として範囲を狭くして、図11(f)に示す状態とする。そして、図11(g)〜(i)はステップST26における最も類似する視点の選定を示している。ここでは、図11(h)に示す状態を、視点前方に除々にその範囲を狭くして、図11(i)に示す状態とする。
FIG. 11 schematically shows a processing result by the image capturing
次に、図12を参照して、平面化変換手段113の動作について説明すると、平面化の際には、画像撮影角度検出手段112で得られた俯瞰角度及び視点が用いられる。平面化変換手段113では予め設定されたテーブルに応じて、風景画像認識手段111で認識したオブジェクトが高さを有するか否かを判定する(ステップST29)。このテーブルでは、高さを有するオブジェクトが、例えば、他移動体、標識、トンネル出入り口、橋・高架構造物、踏み切りとして定義されている。
Next, the operation of the
平面化変換手段113は、高さを有するオブジェクトについて、X,Y方向に平面化する座標群とZ方向に平面化する座標群とに分けて(ステップST30)、全てのオブジェクトについて、俯瞰角度・視点に応じてX,Y方向に平面化座標変換する(ステップST31)。ステップST29において、高さを有しないと判定されたオブジェクト(例えば、白線)についても、ステップST31で俯瞰角度・視点に応じてX,Y方向に平面化座標変換する。さらに、平面化変換手段113は、高さを有するオブジェクトについてはZ方向に平面化する座標群を平面化座標変換して(ステップST32)、所定の格納エリアに変換後の座標とオブジェクトを識別する認識IDを格納する(ステップST33)。
The flattening conversion means 113 divides the object having a height into a coordinate group that is flattened in the X and Y directions and a coordinate group that is flattened in the Z direction (step ST30). Planarized coordinate transformation is performed in the X and Y directions according to the viewpoint (step ST31). In step ST29, the object (for example, a white line) determined to have no height is also subjected to planar coordinate conversion in the X and Y directions according to the overhead angle and viewpoint in step ST31. Further, the
なお、上記の認識IDは、例えば、路面、白線、レーン、固定障害物、可変障害物、他移動体、及び標識等を認識するものであり、可変障害物とは、遮断中の踏み切り及び赤信号であり、標識とは移動体の制限速度を示す標識である。例えば、他移動体については、さらに詳細に、大型他移動体、小型他移動体、自転車、二輪車、歩行者という区分けを行うようにしてもよい。また、X,Y方向について、さらに緯度・経度方向に変換するようにしてもよい。さらに、高さを有するオブジェクトについて、車両から見えない部分についは、予め代表的なモデルデータを準備して、見えない部分を代表的なモデルデータから移植するようにしてもよく、過去の処理結果に応じて他移動体であるか否かを判定するようにしてもよい。 The above-mentioned recognition ID recognizes, for example, a road surface, a white line, a lane, a fixed obstacle, a variable obstacle, another moving body, a sign, and the like. The signal is a signal indicating the speed limit of the moving object. For example, with respect to the other moving body, the classification of the large other moving body, the small other moving body, the bicycle, the two-wheeled vehicle, and the pedestrian may be performed in more detail. Further, the X and Y directions may be further converted into latitude and longitude directions. Furthermore, with respect to an object having a height, for a portion that cannot be seen from the vehicle, typical model data may be prepared in advance, and the portion that cannot be seen may be transplanted from the representative model data. It may be determined whether or not it is another moving body according to the above.
図13には平面化変換手段113によって処理された結果を示す。図13において、図13(a)及び(b)は、X,Y方向に移動体を平面化した状態を示し、図13(c)及び(d)はZ方向(高さ方向)に移動体を平面化した状態を示している。 FIG. 13 shows the result processed by the planarization conversion means 113. 13A and 13B show a state in which the moving body is planarized in the X and Y directions, and FIGS. 13C and 13D show the moving body in the Z direction (height direction). The state which planarized is shown.
さらに、図14を参照して、オブジェクトマッピング手段114の動作について説明すると、オブジェクトマッピング手段114では、平面化変換手段113で得られた高さを有するオブジェクトを、静的移動可能領域量子化手段107で得られた量子化移動可能領域に追加する(ステップST34)。なお、オブジェクトマッピング手段114は、平面化変換手段113で求めた高さを有する静的オブジェクトを地図情報取得手段101によって地図データに追加するようにしてもよい。地図データとして記憶する際のフォーマットとしては、VRML等の三次元立体ポリゴンとして登録するようにしてもよく、平面座標群と高さとのデータとして登録するようにしてもよい。
Further, the operation of the
さらに、オブジェクトマッピング手段114は、平面化変換手段113から得られたレーンと車両が走行しているレーンとを比較して、一致していないと、車両が走行しているレーンを平面化変換手段113で得られたレーンに置き換える。
Further, the object mapping means 114 compares the lane obtained from the planarization conversion means 113 with the lane in which the vehicle is traveling, and if they do not match, the object mapping means 114 determines the lane in which the vehicle is traveling as the planarization conversion means. Replace with the lane obtained in
図15には、オブジェクトマッピング手段114によって記憶される地図データが模式的に示されており、図15において、符号”1501”はX,Y方向に分解した高さを有する静的なオブジェクトを表している。また、符号”1502”は予め地図データに記憶された道路線を表しており、符号”1503”は高さを有する静的なオブジェクトを表し、符号”1504”は静的なオブジェクトを地図データに記憶する地点を示している。なお、当該地点はオブジェクトの中点等、予め規定された規則に従って登録される。 FIG. 15 schematically shows map data stored by the object mapping means 114. In FIG. 15, reference numeral “1501” represents a static object having a height decomposed in the X and Y directions. ing. Reference numeral “1502” represents a road line stored in advance in map data, reference numeral “1503” represents a static object having a height, and reference numeral “1504” represents a static object as map data. The point to memorize is shown. Note that the point is registered according to a predetermined rule such as a midpoint of the object.
図16を参照して、動的移動可能領域演算手段108の動作について説明すると、動的移動可能領域演算手段108は、車両の移動方向及び車速に応じて車両ベクトルを求めて、最大減速と最大方向に転換する車両ベクトルを、最小速度となるまで前回の車両ベクトルから順次求める(ステップST35)。そして、動的移動可能領域演算手段108では、静的移動可能領域量子化手段107で得られた量子化移動可能領域と、予め算出された経路方向及び車両ベクトルとの右又は左方向の加算によって、動的に移動可能な領域を抽出する(ステップST36)。
Referring to FIG. 16, the operation of the dynamically movable
なお、車両ベクトルが予め算出された経路方向と逆向きとなる時点で加算を終了するようにしてもよいし、また、目的地が車両の近傍にある場合又は目的地の駐車場に車両が到着した場合には、車両ベクトルは車両の移動方向だけではなく、後進する方向の車両ベクトルを考慮した切り返しによるものであってもよい。さらに、動的移動可能領域は、例えば、移動体が車両である際には、場合分けされた自車走行レーンを最も優先する静的移動可能領域、他の走行レーンを次に優先する静的移動可能領域、反対車線の走行レーンを最もと優先しない静的移動可能領域を考慮するようにしてもよい。 The addition may be terminated when the vehicle vector is opposite to the previously calculated route direction, or when the destination is in the vicinity of the vehicle or the vehicle arrives at the destination parking lot. In this case, the vehicle vector may be based on not only the moving direction of the vehicle but also the turnover considering the vehicle vector in the reverse direction. Further, for example, when the moving body is a vehicle, the dynamic movable area is a static movable area that gives the highest priority to the own vehicle traveling lane, and another static lane that gives priority to the other traveling lane. You may make it consider the movable area | region and the static movable area | region which gives priority to the driving lane of an opposite lane most.
図17に、動的移動可能領域演算手段108によって演算された動的移動可能領域を模式的に示す。図17において、符号”1701”は静的移動可能領域を表し、符号”1702”は予め求められた経路方向の領域を示している。また、符号”1703”は車両ベクトルを示し、左回りのベクトルは符号”1704”で示され、右回りのベクトルは符号”1705”で示されている。そして、符号”1706”及び”1707”はそれぞれ動的移動可能領域及び車両位置を表している。 FIG. 17 schematically shows the dynamically movable area calculated by the dynamically movable area calculating means 108. In FIG. 17, reference numeral “1701” represents a statically movable area, and reference numeral “1702” represents an area in a route direction obtained in advance. Reference numeral “1703” indicates a vehicle vector, a counterclockwise vector is indicated by reference numeral “1704”, and a clockwise vector is indicated by reference numeral “1705”. Reference numerals “1706” and “1707” represent a dynamically movable area and a vehicle position, respectively.
図18を参照して、移動推奨状態判定手段109の動作について説明する。移動推奨状態判定手段109では、動的移動可能領域内で、車両が移動するレーン前方に障害物又は信号等の停止指示があるか否か又は移動可能な幅があるか否かを判定し(ステップST37)、存在しないと、移動推奨状態判定手段109はステップST38に進み、存在すると、ステップST39に進む。この際、赤信号又は遮断中の踏み切り等の情報は、例えば、カメラ等による前方画像認識結果であってもよく、ビーコン又はDSRC等の路側装置から与えられる情報であってもよい。
With reference to FIG. 18, the operation of the recommended movement
ステップST38において、移動推奨状態判定手段109は、移動レーンに沿って移動推奨ベクトルを生成する。この移動推奨ベクトルは、車両が移動するレーンの中央又は左右のレーン線から所定の閾値を基準として、道路等の規定の移動速度に対して限界加減速を考慮した加速度と最大遠心力を考慮した方位変化とによって移動推奨状態を判定する際に用いられる。例えば、加速度×重みα+方位変化×重みβの演算式においてその値が最小の値を選択する。
In step ST38, the movement recommendation
一方、ステップST39においては、移動推奨状態判定手段109は、前方の障害となっているオブジェクトを、レーン毎に、他移動体、固定障害物、及び可変障害物に分類して、前方のオブジェクトが可変障害物である際には、ステップST40に進み、可変障害物でないと、ステップST41に進む。ステップST40において、移動推奨状態判定手段109は、移動を停止するように、減速の移動推奨状態とする。この際において、移動推奨ベクトルを演算する際には、ステップST38で説明したようにして、車両が移動する基準を、車両が通る幅のある経路方向の動的移動可能領域とする。
On the other hand, in step ST39, the recommended movement
一方、ステップST41においては、移動推奨状態判定手段109では、前方のオブジェクトが固定障害物であると、ステップST42に進み、固定障害物でないと、ステップST43に進む。ステップST42においては、移動推奨状態判定手段109は、車両を他レーンに進む移動推奨状態とする。この際において、移動推奨ベクトルを演算する際には、ステップST38で説明したようにして、車両が移動する基準を、車両が通る幅のある経路方向の動的移動可能領域とする。
On the other hand, in step ST41, the movement recommendation
ステップST43においては、移動推奨状態判定手段109は、前方のオブジェクトが他移動体であり、歩行者等の車両と異なる移動体であると、これを可変障害物と置き換えて、ステップST40に戻る。歩行者等の車両と異なる移動体でないと、ステップST44に進む。ステップST44において、移動推奨状態判定手段109は、前方の他移動体の移動速度が、道路等の規定制限速度よりも、例えば、制限速度×0.5未満のように極めて遅いと、他レーンの障害物の状況を判定して、固定障害物及び可変障害物がなく、且つ他レーンの他移動体の移動速度が、前方の他移動体の移動速度と比べて、例えば、速度×0.3以上のように速ければ、ステップST42に進む。一方、ステップST44において、上述の状態でないと、移動推奨状態判定手段109は、ステップST45に進む。
In step ST43, if the forward object is another moving body and the moving object is different from a vehicle such as a pedestrian, the recommended movement
ステップST45において、移動推奨状態判定手段109は、前方の他移動体の移動速度に準じた、移動レーンに沿った移動推奨状態とする。この際において、移動推奨ベクトルを演算する際には、ステップST38で説明したようにして、車両が移動する基準を、前方の他移動体の移動速度を上限する。
In step ST45, the recommended movement
図19には、移動推奨状態出力手段110から出力される移動推奨ベクトルVTの状態が示されており、ディスプレイ209(図1)には、図20に示されるように、移動推奨ベクトルの加減速及び方位変化に応じて、アクセル及びブレーキの押下度とハンドル回転方向及び回転角度が示される。なお、上述のようにして移動推奨ベクトルに基づいて車両等の移動体の自動運転を行うようにしてもよい。 FIG. 19 shows the state of the movement recommendation vector VT output from the movement recommendation state output means 110. As shown in FIG. 20, the acceleration / deceleration of the movement recommendation vector is shown on the display 209 (FIG. 1). In addition, the degree of depression of the accelerator and the brake, the steering wheel rotation direction, and the rotation angle are shown according to the change in direction. Note that, as described above, automatic driving of a moving body such as a vehicle may be performed based on the recommended movement vector.
実施の形態1によれば、移動体が静止しているとして地図データから当該移動体が移動可能な領域を静的移動可能領域として抽出し、静的移動可能領域を量子化して量子化移動可能領域として、量子化移動可能領域を用いて当該移動体が静止状態における移動可能な領域において移動体の移動方向及び移動速度に応じて、移動体が移動可能な領域を示す動的移動可能領域を求めて、動的移動可能領域に応じて前記移動体の移動について推奨する移動推奨状態を判定するように構成したので、安価にしかも適切に運転者に移動体の運行の補助案内を行うことができるという効果がある。 According to the first embodiment, an area where the moving body is movable is extracted from the map data as a static movable area assuming that the moving body is stationary, and the static movable area is quantized to be quantized and movable. As a region, a dynamic movable region indicating a region in which the movable body can move according to a moving direction and a moving speed of the movable body in the movable region in a stationary state using the quantized movable region. In addition, since it is configured to determine the recommended movement state recommended for the movement of the moving body in accordance with the dynamic movable area, it is possible to appropriately assist the driving of the moving body to the driver at a low cost. There is an effect that can be done.
実施の形態1によれば、所定方向の道路形態における規制及び障害に応じて移動推奨方向の判定を行うように構成したので、道路形態の規制及び障害を避けて、移動推奨状態を的確に判定できるという効果がある。 According to the first embodiment, the recommended movement direction is determined according to the restriction and obstacle in the road form in the predetermined direction. Therefore, the recommended movement state is accurately determined while avoiding the restriction and obstacle in the road form. There is an effect that can be done.
実施の形態1によれば、移動推奨状態を示す移動推奨ベクトルに応じて当該移動体の移動時の加減速と速度変化とを予測して、当該移動体の移動の際その方位及び速度を案内するように構成したので、運転者は容易に移動体の操作を行うことができるという効果がある。 According to the first embodiment, the acceleration / deceleration and the speed change during the movement of the moving body are predicted according to the movement recommendation vector indicating the recommended movement state, and the direction and the speed are guided during the movement of the moving body. Since it comprised so, there exists an effect that a driver | operator can operate a moving body easily.
実施の形態1によれば、移動体の方位及び速度を案内する際、アクセル、ブレーキ、及びハンドルの望ましい状態を報知するように構成したので、運転者は極めて簡単に移動体の好ましい操作を行うことができるという効果がある。 According to the first embodiment, when the direction and speed of the moving body are guided, the desired state of the accelerator, the brake, and the steering wheel is notified, so that the driver can perform the preferable operation of the moving body very easily. There is an effect that can be.
実施の形態1によれば、移動体の前方風景を撮影して風景画像として認識し、当該風景画像の俯瞰角度を判定して鳥瞰図として、風景画像中のオブジェクトの座標を俯瞰角度に基づいて上方から見下ろした第1の平面図と水平方向から見た高さを示す第2の平面図に変換した後、第1及び第2の平面図に応じて静的移動可能領域中にオブジェクトをマッピングして地図データを修正ように構成したので、地図データにないオブジェクトを地図データ上に表示でき、このようなオブジェクトをも考慮して、運転者に移動体の案内補助を行うことができるという効果がある。 According to the first embodiment, the front landscape of the moving body is photographed and recognized as a landscape image, the bird's-eye view angle of the landscape image is determined, and the coordinates of the object in the landscape image are moved upward based on the bird's-eye view angle. After converting the first plan view looking down from above and the second plan view showing the height seen from the horizontal direction, the object is mapped in the static movable area according to the first and second plan views. Since the map data is configured to be corrected, an object that is not in the map data can be displayed on the map data, and in consideration of such an object, the driver can be guided to the moving body. is there.
実施の形態1によれば、オブジェクトの位置を示す位置情報に応じて当該移動体の現在位置を補正して当該移動体の前進又は後進を判定するように構成したので、精度よく移動体の案内を行うことができるという効果がある。 According to the first embodiment, since the current position of the moving body is corrected according to the position information indicating the position of the object and the forward or backward movement of the moving body is determined, the moving body is accurately guided. There is an effect that can be performed.
実施の形態1によれば、オブジェクトの位置を示す位置情報を記憶するとともに前方道路の勾配を地図データとして記憶するように構成したので、地図データが常に現況に基づいて訂正され、この訂正された地図データを用いて移動体の案内補助を行うことができるという効果がある。 According to the first embodiment, since the position information indicating the position of the object is stored and the gradient of the road ahead is stored as the map data, the map data is always corrected based on the current state, and the corrected There is an effect that it is possible to assist the mobile body using the map data.
101 地図情報取得手段、102 位置検出手段、103 方位速度検出手段、104 入力手段、105 経路探索手段、106 静的移動可能領域抽出手段、107 静的移動可能領域量子化手段、108 動的移動可能領域演算手段、109 移動推奨状態判定手段、110 移動推奨状態出力手段、111 風景画像認識手段、112 画像撮影角度検出手段、113 平面化変換手段、114 オブジェクトマッピング手段、201 ディスク(媒体)、202 駆動装置(ドライブ)、203 GPS受信機、204 ジャイロ、205 車速センサ、206 I/F回路、207 電子制御ユニット(ナビECU)、208 外部メモリ、209 ディスプレイ、210 スピーカー、211 カメラ付画像認識装置。 101 map information acquisition means, 102 position detection means, 103 azimuth velocity detection means, 104 input means, 105 route search means, 106 static moveable area extraction means, 107 static moveable area quantization means, 108 dynamically moveable Area calculation means, 109 movement recommendation state determination means, 110 movement recommendation state output means, 111 landscape image recognition means, 112 image photographing angle detection means, 113 flattening conversion means, 114 object mapping means, 201 disk (medium), 202 drive Device (Drive), 203 GPS receiver, 204 Gyro, 205 Vehicle speed sensor, 206 I / F circuit, 207 Electronic control unit (Navi ECU), 208 External memory, 209 Display, 210 Speaker, 211 Image recognition device with camera.
Claims (12)
前記移動体が静止しているとして地図データから当該移動体が移動可能な領域を静的移動可能領域として抽出する静的移動可能領域抽出手段と、
該静的移動可能領域を量子化して量子化移動可能領域とする静的移動可能領域量子化手段と、
前記量子化移動可能領域を用いて、前記移動体が静止状態における移動可能な領域において前記移動体の移動方向及び移動速度に応じて前記移動体が移動可能な領域を示す動的移動可能領域を求める動的移動可能領域演算手段と、
前記動的移動可能領域に応じて前記移動体の移動について推奨する移動推奨状態を判定する移動推奨状態判定手段と、
前記移動推奨状態を出力する移動推奨状態出力手段とを有することを特徴とする移動体補助案内装置。 A position detecting means for detecting a current position of the moving body; and an azimuth speed detecting means for detecting a moving direction of the moving body and a moving speed of the moving body, and the current position on a map around the moving body. In the moving body auxiliary guidance device that guides the moving body by informing
A static movable area extracting means for extracting, as a static movable area, an area where the movable body can move from map data as the movable body is stationary;
A static movable region quantization means for quantizing the static movable region into a quantized movable region;
Using the quantized movable region, a dynamic movable region indicating a region in which the movable body can move according to a moving direction and a moving speed of the movable body in the movable region in a stationary state. Dynamic moving area calculation means to be obtained;
Recommended movement state determination means for determining a recommended movement state for recommending movement of the moving body according to the dynamic movable area;
A moving body auxiliary guide device comprising a recommended movement state output means for outputting the recommended movement state.
当該風景画像の俯瞰角度を判定して鳥瞰図とする画像撮影角度検出手段と、
前記風景画像中のオブジェクトの座標を前記俯瞰角度に基づいて上方から見下ろした第1の平面図と水平方向から見た高さを示す第2の平面図に変換する平面化変換手段と、
前記第1及び前記第2の平面図に応じて静的移動可能領域中に前記オブジェクトをマッピングして地図データを修正するオブジェクトマッピング手段とを有することを特徴とする請求項1記載の移動体補助案内装置。 Landscape image recognition means for photographing at least the front landscape of the moving object and recognizing it as a landscape image;
Image photographing angle detection means for determining a bird's-eye view angle of the landscape image and making it a bird's-eye view;
Planarization conversion means for converting the coordinates of the object in the landscape image into a first plan view looking down from above based on the overhead angle and a second plan view showing the height seen from the horizontal direction;
2. The moving object assist according to claim 1, further comprising object mapping means for mapping the object in a statically movable area and correcting map data in accordance with the first and second plan views. Guide device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003403295A JP4241350B2 (en) | 2003-12-02 | 2003-12-02 | Mobile auxiliary guide device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003403295A JP4241350B2 (en) | 2003-12-02 | 2003-12-02 | Mobile auxiliary guide device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005164379A JP2005164379A (en) | 2005-06-23 |
JP4241350B2 true JP4241350B2 (en) | 2009-03-18 |
Family
ID=34726642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003403295A Expired - Fee Related JP4241350B2 (en) | 2003-12-02 | 2003-12-02 | Mobile auxiliary guide device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4241350B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4737519B2 (en) * | 2005-06-28 | 2011-08-03 | アイシン・エィ・ダブリュ株式会社 | Vehicle control auxiliary device and vehicle control auxiliary method |
JP5601453B2 (en) * | 2010-03-30 | 2014-10-08 | マツダ株式会社 | Vehicle driving support device |
WO2012124045A1 (en) * | 2011-03-14 | 2012-09-20 | 株式会社ユニバンス | Electric automobile |
EP3985641B1 (en) * | 2019-06-14 | 2023-10-04 | NISSAN MOTOR Co., Ltd. | Travel assistance method and travel assistance device |
-
2003
- 2003-12-02 JP JP2003403295A patent/JP4241350B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005164379A (en) | 2005-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4327062B2 (en) | Navigation device | |
US20230005364A1 (en) | Systems and methods for monitoring traffic lane congestion | |
JP7052786B2 (en) | Display control device and display control program | |
US9915539B2 (en) | Intelligent video navigation for automobiles | |
JP4914160B2 (en) | Vehicle control device | |
JPH10187930A (en) | Running environment recognizing device | |
CN110249205B (en) | Method for locating vehicles with a high degree of automation, such as highly automated vehicles (HAFs), in a digital locating map | |
KR20200011612A (en) | Sparse map for autonomous vehicle navigation | |
JP2006208223A (en) | Vehicle position recognition device and vehicle position recognition method | |
JP2011013039A (en) | Lane determination device and navigation system | |
JP6984624B2 (en) | Display control device and display control program | |
JP7502869B2 (en) | Vehicle Driving Assistance Systems | |
JP2009075933A (en) | Position calculation device in branched road, position calculation method in branched road, and position calculation program in branched road | |
JP3857698B2 (en) | Driving environment recognition device | |
WO2004006207A1 (en) | Automatic guide apparatus for public transport | |
JP2023026559A (en) | Driving support device, driving support method, program, and vehicle | |
JP7416114B2 (en) | Display control device and display control program | |
JP4241350B2 (en) | Mobile auxiliary guide device | |
KR20040006780A (en) | Method for guiding traffic lane for car navigation system | |
JP7257849B2 (en) | Map data creation method and map data creation device | |
JP2004046875A (en) | Transportation automatic guiding device | |
CN116524454A (en) | Object tracking device, object tracking method, and storage medium | |
JP3864729B2 (en) | Departure determination device for vehicles | |
US20220260386A1 (en) | Vehicle control device | |
JP4885287B2 (en) | Navigation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060518 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071017 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081125 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081222 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120109 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4241350 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130109 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130109 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |