[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4505968B2 - Self-vehicle position detecting device and self-vehicle position detecting method during parking - Google Patents

Self-vehicle position detecting device and self-vehicle position detecting method during parking Download PDF

Info

Publication number
JP4505968B2
JP4505968B2 JP2000280792A JP2000280792A JP4505968B2 JP 4505968 B2 JP4505968 B2 JP 4505968B2 JP 2000280792 A JP2000280792 A JP 2000280792A JP 2000280792 A JP2000280792 A JP 2000280792A JP 4505968 B2 JP4505968 B2 JP 4505968B2
Authority
JP
Japan
Prior art keywords
vehicle
image
line
partition line
parking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000280792A
Other languages
Japanese (ja)
Other versions
JP2002092598A (en
Inventor
敏之 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2000280792A priority Critical patent/JP4505968B2/en
Publication of JP2002092598A publication Critical patent/JP2002092598A/en
Application granted granted Critical
Publication of JP4505968B2 publication Critical patent/JP4505968B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、車両を駐車スペース内に乗り入れる際に、駐車スペースを仕切る仕切線と自車との相対的な位置を運転者に認識させることによりハンドル操作を支援する駐車時の自車位置検出装置及び自車位置検出方法に関する。
【0002】
【従来の技術】
一般に、車両を駐車する駐車場では、駐車スペースを仕切るために、路面に白線、黄線などの仕切線が引かれており、運転者が車両を駐車する際には、車両を後退、或いは前進させて、この仕切線で区切られた駐車スペース内に乗り入れる操作を行う。ここで、車両を特に後退させながら駐車スペース内に乗り入れる場合には、自車と仕切線との位置関係を把握するために、左右のバックミラーを確認したり、或いは、直接後方を見ながら車両を後退させる必要がある。また、自車が駐車スペース内に整然と納まらない場合には、一旦車両を前進させた後、再度後退させるという操作を行う必要がある。
【0003】
そこで、このような運転操作を容易に行うべく自車位置の検出装置として、例えば、特開平10−83500号公報(以下、従来例という)に記載されたものが知られている。該従来例では、車両の底面に画像センサを取り付けて路面上の白線を撮像し、画像処理を加えることにより、白線と自車とのなす角度を求める。そして、求められた角度のデータをシンボルとして運転席の適所に設置された表示画面上に表示することにより、白線に対する自車の位置関係を、運転者に認識させる。このような構成により、運転者は、駐車スペースを仕切る仕切線と、自車との角度を把握することができるので、車両を後退させて駐車スペース内に乗り入れる際に、有用である。
【0004】
【発明が解決しようとする課題】
従来における駐車操作を支援するための自車位置検出装置では、駐車スペースを仕切る仕切線を認識し、この仕切線と自車とのなす角度を求めて、これをモニタ画面上にシンボル表示するようにしている。従って、駐車スペースの仕切線と自車とのなす角度のみを検出しているので、運転者は仕切線と自車との間の角度を認識することができるものの、駐車スペース内における前後方向の位置関係を認識することができない。即ち、自車の後尾が駐車スペースの後端に達しているのかどうかを把握することができない。よって駐車スペースと自車との前後関係が認識されないので、車両を駐車スペース内に乗り入れる際の、前後方向の距離感をつかむことができないという欠点があった。
【0005】
この発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、自車と仕切線とのなす角度と、駐車スペースに対する自車の前後方向の位置を運転者に認識させることのできる駐車時の自車位置検出装置及び自車位置検出方法を提供することにある。
【0006】
【課題を解決するための手段】
上記目的を達成するため、本願請求項1に記載の発明は、駐車スペースを区切る仕切線を撮像して、該仕切線と自車との位置関係を検出し、検出した位置関係を画面表示して運転者に知らせる駐車時の自車位置検出装置であって、車両に設置され、該車両周囲の画像を撮像する撮像手段と、前記撮像手段により撮像される画像から仕切線を抽出し、当該仕切線をなす線分上の基準位置、及び予め設定される基準方向に対する前記仕切線の傾斜角度を求める画像処理手段と、前記画像処理手段より得られた基準位置、及び傾斜角度より、前記画像上の、前記仕切線に対する自車の相対位置を算出する自車位置算出手段と、前記自車位置算出手段により算出された、自車と仕切線との相対位置を表示する表示手段と、を具備し、前記基準位置は、前記抽出した仕切線の線分の、画像上の隅部でない部位に存在する一方の端点に設定するとともに、この設定した一方の端点が画像上の隅部に達した時点では、前記抽出した仕切線の線分の、画像上の隅部でない部位に存在する他方の端点に設定することを特徴とする。
【0007】
また、請求項2に記載の発明は、前記画像処理手段は、前記撮像手段で撮像された画像中に複数の仕切線が存在する場合には、当該複数の仕切線のうち、最長のものを抽出することを特徴とする。
【0009】
請求項に記載の発明は、前記画像処理手段は、前記撮像手段で撮像された画像に基づいて、鳥瞰画像を作成し、前記表示手段は、該鳥瞰画像上に、自車と仕切線との相対位置を表示することを特徴とする。
請求項4に記載の発明は、駐車スペースを区切る仕切線を撮像して、該仕切線と自車との位置関係を検出し、検出した位置関係を画面表示して運転者に知らせる駐車時の自車位置検出方法であって、車両周囲の画像を該車両に設置された撮像手段により撮像し、前記撮像手段により撮像される画像から仕切線を抽出し、当該仕切線をなす線分上の基準位置、及び予め設定される基準方向に対する前記仕切線の傾斜角度を画像処理手段により求め、前記画像処理手段より得られた基準位置、及び傾斜角度より、前記画像上の、前記仕切線に対する自車の相対位置を自車位置算出手段により算出し、前記自車位置算出手段により算出された、自車と仕切線との相対位置を表示手段により表示し、前記基準位置は、前記抽出した仕切線の線分の、画像上の隅部でない部位に存在する一方の端点に設定し、この設定した一方の端点が画像上の隅部に達した時点で、前記抽出した仕切線の線分の、画像上の隅部でない部位に存在する他方の端点に設定することを特徴とする。
【0010】
【発明の効果】
請求項1または請求項4に記載の駐車時の自車位置検出装置または自車位置検出方法では、駐車スペースを仕切る仕切線をなす線分の端点を基準点として設定し、該基準点位置と、この基準点を基準とした仕切線の角度に基づいて、仕切線に対する自車の位置を求め、表示手段に画面表示している。従って、運転者は仕切線に対する自車の位置を容易、且つ確実に認識することができるので、駐車スペース内への車庫入れ操作を極めて容易に行うことができる。
この際、抽出した仕切線をなす線分の、画面上の隅部でないほうの端点を基準点として選択するので、常時最適な点を基準点として選択することができる。
【0011】
請求項2に記載の駐車時の自車位置検出装置では、複数の仕切線の存在が確認された際には、このうち最長のものを選択して抽出するので、確実に所望する仕切線を抽出することができる。
【0013】
請求項に記載の駐車時の自車位置検出装置では、鳥瞰画像上に自車と仕切線との相対位置を表示するので、運転者は客観的に自車位置を確認することができる。
【0014】
【発明の実施の形態】
以下、本発明の実施形態を図1を用いて説明する。
【0015】
1は自車位置検出装置である。
【0016】
5は車両後方に配置され、自車両後方の所定範囲を撮像する後方カメラである。
【0017】
6は予め駐車スペースを撮像する補助カメラであって、詳細は後述する。
【0018】
4は運転席近傍に設けられた駐車モニタスイッチであり、運転者が直接操作することによって駐車モニタスイッチがオンとなり、後方カメラ5の画像が得られるようになっているが、例えばシフトレバーがバックに入ったことを検出した場合に、この駐車モニタスイッチ4がオンになるようにしてもよい。
【0019】
7はメモリであって、後方カメラ5や補助カメラ6によって撮像された画像を記憶している。
【0020】
3は車室内に設けられたモニタであって、後述する処理を行われた画像が表示される。
【0021】
2はコントローラであって、CPU、ROM、RAM等の周辺部品を備え、ROMに記憶された制御プログラムを実行する。
【0022】
図2は、後方カメラ5により撮像される自車9の後方の撮像領域を示す説明図であり、後方カメラ5は、自車9の後方の符号S1に示す台形の領域を撮像することができる。また、図3は、駐車スペースの両側に他の車両10が駐車されているときに、後方カメラ5により撮像される領域を示す説明図であり、駐車動作時には他の車両10の存在をモニタ3上で確認することができる。
【0023】
図4は、コントローラ2に記憶された制御プログラムを示すフローチャートであり、このフローチャートを用いて、本実施の形態の動作を説明する。
【0024】
運転者が自車9の運転席近傍にある駐車モニタスイッチ4をオンとすると(ステップST1でYES)、後方カメラ5が起動して自車9の後方画像を撮像する(ステップST2)。
【0025】
そして、後方カメラ5で撮像された画像の視点を変更して鳥瞰画像を得る処理を行う。これにより、図5(a)に示す如くの後方画像が、同図(b)に示すような鳥瞰画像に変換される。次いで、この鳥瞰画像中に含まれる白線(仕切線)を検出する処理を行う(ステップST3)。そして、白線が検出されなければ(ステップST4でNO)、現在の状況では駐車の操作が難しい旨をモニタ3によって運転者に通知する(ステップST5)。また、一度は白線が検出されたが、その後、すぐに検出されなくなった場合にも、同様の処理を行う。
【0026】
一方、鳥瞰画像中に白線が存在することが検出された場合には、この白線の一方の端点を求める処理を行う(ステップST6)。図6は、白線の端点を求める方法の概念を示す説明図であり、鳥瞰画像中の輝度を画素毎に所定のしきい値と比較し、しきい値以上であれば「1」、しきい値未満であれば「0」とする、いわゆる2値化処理を行い、画素値が「0」から「1」に変わる複数の画素Q1及び、画素値が「1」から「0」に変わる複数の画素Q2を抽出してエッジ処理を行う。エッジ処理を行った各画素Q1を結んだ直線と各画素Q2を結んだ直線との中間の直線Sを白線中心の線として検出し、直線Sの端部となる点Pを、端点として求める。
【0027】
なお、上記のようにして線を検出し、この線の直線度合いを所定のしきい値で判断することで、例えば水溜まりなどの曲線となるものを白線と誤認識することを防止できる。
【0028】
そして、求められた端点の位置が、鳥瞰画像の隅にあるかどうかが判断され、隅部にない場合は(ステップST7でNO)、この端点を基準点として設定する(ステップST9)。他方、隅部にあると判断された場合には(ステップST7でYES)、白線の他方の端点を求めて、これを基準点とする処理を行う(ステップST8)。
【0029】
そして、前述のステップST8、ST9で基準点が設定されると、この基準点から白線の方向に向かう線分と、画像上の基準方向とのなす角度を求める処理を行う(ステップST10)。
【0030】
図7は、前述のステップST6〜ST10の処理手順を模式的に示す説明図であり、同図(a)に示す如くの白線画像W1が抽出され、且つ、端点P1が指定された場合には、この端点P1は画像の隅にないので白線の基準点として設定され、この基準点を基準とした白線の方向Y2と、画像上の基準方向Y1とのなす角度θ1が求められる。
【0031】
その後、自車9が移動して同図(b)に示すように、白線W1上の端点P1が画像の隅に達すると、今度は、同図(c)に示すように、白線W1の反対側の端点P2が基準点として設定され、この基準点を基準とした白線W1の方向Y3と、画像上の基準方向Y1とのなす角度θ2が求められる。
【0032】
そして、後方カメラ5の取り付け位置と、前述の処理で求めた画像中の基準点(P1,P2)の位置、及び白線W1と基準方向Y1とのなす角度(θ1,θ2)に基づいて白線W1と自車9との位置関係を求める処理を行う(ステップST11)。そして、駐車スペースの鳥瞰画像上に自車9の画像を重畳させた画像をモニタ3に表示する(ステップST12)。
【0033】
運転者は、このモニタ3の画像を見ることにより、駐車スペースに対して自車9がどの位置にいるかを容易に認識することができるので、車両を後退させながら駐車スペースに入れる操作を極めて簡単に行うことができるようになる。
【0034】
図8は、図7で示した基準点の選定を、駐車フェーズ毎に示した図であり、同図(a)に示される領域S1を後方カメラ5で撮像しているときには、基準点としてP11が得られる。その後、車両が移動して同図(b)に示すフェーズとなった場合でも、端点P11は画像の隅部にないので、基準点として選定される。
【0035】
更に、同図(c)に示す位置まで駐車の動作が進むと、これまでと反対側の端点P12に基準点が移動し、同図(d)に示すように、駐車動作が終了するまでこの位置が基準点として選定される。
【0036】
上記の手順は、駐車時には、後方に必ず駐車スペースが存在し、路面に駐車スペースを決める2本の白線が引かれていれば、2本の白線のうち車両から遠いほうの白線の、少なくとも一方の端点は、一定の画角を持つ後方カメラ5の撮像画面上に必ず存在することを有効に利用したアルゴリズムである。
【0037】
このようにして、本実施形態では、駐車スペースを仕切る白線(仕切線)を後方カメラ5で撮像し、該白線上に基準位置を設定し、且つ、この白線と自車9とのなす角度を求め、求められた結果に基づいて、駐車スペースに対する自車位置を検出し、これを画像表示している。従って、駐車スペースに対する自車位置を正確に画面表示することができるので、運転者は、容易、且つ、確実に駐車スペース内へ自車9を乗り入れることができる。
【0038】
また、後方カメラ5で撮像した後方画像を、鳥瞰画像に変換し、この鳥瞰画像上に自車9の画像を重畳して表示するので、自車位置を客観的に見ることができる。更に、車両のシフトレバーがバックギヤに投入された際に、これと連動して駐車モニタスイッチ4をオンとするように構成した場合には、運転者は駐車操作を行う度に駐車モニタスイッチ4を投入するという操作を省略することができ、操作性が良い。
【0039】
なお、上記した実施形態では、後方カメラ5で撮像した画像を、鳥瞰画像に変換し、この鳥瞰画像上に自車9の画像を重畳させて、モニタ3上に表示することにより、駐車スペースと自車との位置関係を認識するように構成したが、予め補助カメラ6で撮像した駐車スペースの画像上に、自車を映し出すことも可能である。
【0040】
図9は、予め補助カメラ6で撮像し、メモリ7に記憶保存した駐車スペース画像の例を示す説明図であり、同図に示す符号S11は、この駐車スペース画像の撮像範囲を示す。そして、図10に示すように、この駐車スペース画像S11に含まれる白線71の2つの端点をP21、P22として設定し、図4に示したフローチャートの、ステップST8,ST9の処理で求めた基準位置となる端点(図8に示す点P11、P12)を、駐車スペース画像S11上の端点P21、P22と一致させることにより、駐車スペース画像S11上に、自車9の画像を重畳して表示することができる。その結果、モニタ3上には、図11に示す如くの画像が表示される。
【0041】
そして、このような表示方法を用いれば、運転者は背景が動かずに自車9の画像のみが動くといった、客観的に表示される画像を見ながら自車9の駐車動作を確認することができ、より一層車両スペース内への自車9の乗り入れ操作を容易にすることができる。
【0042】
なお、前述の実施形態では、駐車スペースを仕切る仕切線として白線を例に説明したが、黄線等、他の仕切線の場合にも適用可能であることは勿論である。
【図面の簡単な説明】
【図1】本発明に係る駐車時の自車位置検出装置の一実施形態の構成を示すブロック図である。
【図2】後方カメラにより撮像される自車の後方視野の範囲を示す説明図である。
【図3】駐車スペース内へ自車を乗り入れる際に、後方カメラにより撮像される後方視野を示す説明図である。
【図4】本実施形態の動作を示すフローチャートである。
【図5】(a)は、後方カメラで撮像した画像を示す説明図、(b)は、この画像から得られる鳥瞰画像を示す説明図である。
【図6】白線の端点を抽出する操作を示す説明図である。
【図7】基準位置の設定、及び、白線の角度の設定の方法を示す説明図である。
【図8】自車の移動に伴う基準位置の変化を示す説明図である。
【図9】補助カメラで撮像される画像を示す説明図である。
【図10】補助カメラで撮像した画像上に含まれる白線上に、基準点を設定する様子を示す説明図である。
【図11】補助カメラで撮像した画像上に、自車を表示した様子を示す説明図である。
【符号の説明】
1 自車位置検出装置
2 コントローラ
3 モニタ(表示手段)
4 駐車モニタスイッチ
5 後方カメラ(撮像手段)
6 補助カメラ
7 メモリ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a self-vehicle position detection device at the time of parking that assists a steering operation by allowing a driver to recognize the relative position between a partition line that partitions the parking space and the own vehicle when the vehicle enters the parking space. And a vehicle position detection method .
[0002]
[Prior art]
Generally, in a parking lot where a vehicle is parked, a partition line such as a white line or a yellow line is drawn on the road surface to partition the parking space. When the driver parks the vehicle, the vehicle is moved backward or forward. Then, an operation of entering the parking space separated by the partition line is performed. Here, when entering the parking space while moving the vehicle back, check the left and right rearview mirrors or look directly behind the vehicle to grasp the positional relationship between the vehicle and the partition line. Need to retreat. Further, when the host vehicle does not fit in the parking space, it is necessary to perform an operation of once moving the vehicle forward and then moving backward again.
[0003]
Therefore, for example, a device described in Japanese Patent Application Laid-Open No. 10-83500 (hereinafter referred to as a conventional example) is known as a vehicle position detection device for easily performing such a driving operation. In the conventional example, an image sensor is attached to the bottom surface of the vehicle, a white line on the road surface is imaged, and image processing is performed to obtain an angle formed by the white line and the vehicle. Then, by displaying the obtained angle data as a symbol on a display screen installed at an appropriate position of the driver's seat, the driver can recognize the positional relationship of the vehicle with respect to the white line. With such a configuration, the driver can grasp the angle between the partition line that partitions the parking space and the host vehicle, which is useful when the vehicle is moved backward and enters the parking space.
[0004]
[Problems to be solved by the invention]
In the conventional vehicle position detection device for assisting parking operation, a partition line that partitions the parking space is recognized, an angle formed by the partition line and the vehicle is obtained, and the symbol is displayed on the monitor screen. I have to. Therefore, since only the angle between the partition line of the parking space and the own vehicle is detected, the driver can recognize the angle between the partition line and the own vehicle, but in the front-rear direction in the parking space. The positional relationship cannot be recognized. That is, it is not possible to grasp whether the tail of the vehicle has reached the rear end of the parking space. Therefore, since the front-rear relationship between the parking space and the host vehicle is not recognized, there is a drawback in that it is impossible to grasp the sense of distance in the front-rear direction when the vehicle enters the parking space.
[0005]
The present invention has been made in order to solve such a conventional problem. The object of the present invention is to drive the angle between the vehicle and the partition line and the position of the vehicle in the front-rear direction with respect to the parking space. It is to provide a vehicle position detection device and a vehicle position detection method during parking that can be recognized by a person.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 of the present application takes an image of a partition line that divides a parking space, detects a positional relationship between the partition line and the host vehicle, and displays the detected positional relationship on a screen. A vehicle position detection device for parking that informs the driver, which is installed in a vehicle, picks up an image around the vehicle, extracts a partition line from the image picked up by the image pickup means, and An image processing unit for obtaining a reference position on a line segment forming a partition line and an inclination angle of the partition line with respect to a preset reference direction, and a reference position and an inclination angle obtained from the image processing unit, the image Upper vehicle position calculation means for calculating the relative position of the vehicle with respect to the partition line, and display means for displaying the relative position between the vehicle and the partition line calculated by the vehicle position calculation means. And the reference position is The extracted partition line is set to one end point existing at a portion other than the corner on the image, and when the set one end point reaches the corner on the image, the extracted partition It is characterized in that it is set to the other end point existing in a part of the line segment other than the corner on the image.
[0007]
According to a second aspect of the present invention, when the image processing means includes a plurality of partition lines in the image captured by the imaging means, the longest one of the plurality of partition lines is selected. It is characterized by extracting.
[0009]
According to a third aspect of the present invention, the image processing means creates a bird's-eye view image based on the image picked up by the image pickup means, and the display means includes a host vehicle and a partition line on the bird's-eye view image. The relative position of is displayed.
The invention according to claim 4 captures a partition line that divides the parking space, detects a positional relationship between the partition line and the host vehicle, displays the detected positional relationship on a screen, and informs the driver during parking. An own vehicle position detection method, in which an image around a vehicle is picked up by an image pickup unit installed in the vehicle, a partition line is extracted from the image picked up by the image pickup unit, and a line segment forming the partition line is extracted. An inclination angle of the partition line with respect to a reference position and a preset reference direction is obtained by an image processing means, and the reference position and inclination angle obtained from the image processing means are used to determine the angle of the partition line on the image. The vehicle relative position is calculated by the vehicle position calculation means, the relative position between the vehicle and the partition line calculated by the vehicle position calculation means is displayed by the display means, and the reference position is the extracted partition Line segment It is set to one end point that exists in a part other than the upper corner, and when the set one end point reaches the corner on the image, it is not the corner on the image of the segment of the extracted partition line. It is characterized by being set to the other end point existing in the part.
[0010]
【The invention's effect】
According to claim 1 or claim 4 vehicle position detecting device or the vehicle position detecting method of a parking time according to the end point of the line segment forming the partition lines for partitioning the parking space is set as a reference point, the reference point position Based on the angle of the partition line with reference to this reference point, the position of the vehicle relative to the partition line is obtained and displayed on the display means. Accordingly, the driver can easily and surely recognize the position of the vehicle with respect to the partition line, so that the garage entry operation into the parking space can be performed very easily.
At this time, since the end point that is not the corner on the screen of the line segment that forms the extracted partition line is selected as the reference point, the optimum point can always be selected as the reference point.
[0011]
In the vehicle position detecting device at the time of parking according to claim 2, when the presence of a plurality of partition lines is confirmed, the longest of these is selected and extracted. Can be extracted.
[0013]
In the self-vehicle position detection device at the time of parking according to the third aspect , the relative position between the own vehicle and the partition line is displayed on the bird's-eye view image, so that the driver can objectively confirm the own vehicle position.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to FIG.
[0015]
Reference numeral 1 denotes a vehicle position detection device.
[0016]
Reference numeral 5 denotes a rear camera that is arranged behind the vehicle and images a predetermined range behind the host vehicle.
[0017]
Reference numeral 6 denotes an auxiliary camera that images a parking space in advance, and details will be described later.
[0018]
Reference numeral 4 denotes a parking monitor switch provided near the driver's seat. The parking monitor switch is turned on when the driver directly operates, and an image of the rear camera 5 can be obtained. The parking monitor switch 4 may be turned on when it is detected that the vehicle has entered.
[0019]
Reference numeral 7 denotes a memory that stores images taken by the rear camera 5 and the auxiliary camera 6.
[0020]
Reference numeral 3 denotes a monitor provided in the passenger compartment, on which an image that has been subjected to processing to be described later is displayed.
[0021]
A controller 2 includes peripheral components such as a CPU, a ROM, and a RAM, and executes a control program stored in the ROM.
[0022]
FIG. 2 is an explanatory diagram showing an imaging area behind the host vehicle 9 captured by the rear camera 5, and the rear camera 5 can capture a trapezoidal area indicated by reference sign S <b> 1 behind the host vehicle 9. . FIG. 3 is an explanatory diagram showing an area imaged by the rear camera 5 when another vehicle 10 is parked on both sides of the parking space, and the presence of the other vehicle 10 is monitored 3 during the parking operation. You can check above.
[0023]
FIG. 4 is a flowchart showing a control program stored in the controller 2, and the operation of the present embodiment will be described using this flowchart.
[0024]
When the driver turns on the parking monitor switch 4 in the vicinity of the driver's seat of the own vehicle 9 (YES in step ST1), the rear camera 5 is activated to capture a rear image of the own vehicle 9 (step ST2).
[0025]
And the process which changes the viewpoint of the image imaged with the back camera 5 and obtains a bird's-eye view image is performed. As a result, the rear image as shown in FIG. 5A is converted into a bird's-eye view image as shown in FIG. Subsequently, the process which detects the white line (partition line) contained in this bird's-eye view image is performed (step ST3). If no white line is detected (NO in step ST4), the driver is notified by the monitor 3 that parking operation is difficult in the current situation (step ST5). The same processing is also performed when a white line is detected once but is not detected immediately thereafter.
[0026]
On the other hand, when it is detected that a white line is present in the bird's-eye view image, processing for obtaining one end point of the white line is performed (step ST6). FIG. 6 is an explanatory diagram showing the concept of a method for obtaining the end point of the white line. The brightness in the bird's-eye view image is compared with a predetermined threshold value for each pixel. If it is less than the value, a so-called binarization process is performed, in which the pixel value is changed from “0” to “1”, and the pixel value is changed from “1” to “0”. The pixel Q2 is extracted and edge processing is performed. A straight line S intermediate between the straight line connecting the pixels Q1 and the straight line connecting the pixels Q2 is detected as a white line center line, and a point P that is an end of the straight line S is obtained as an end point.
[0027]
Note that, by detecting a line as described above and determining the degree of straightness of the line with a predetermined threshold value, it is possible to prevent an object that becomes a curve such as a puddle from being erroneously recognized as a white line.
[0028]
Then, it is determined whether or not the position of the obtained end point is at the corner of the bird's-eye view image. If it is not at the corner (NO in step ST7), this end point is set as a reference point (step ST9). On the other hand, if it is determined that it is in the corner (YES in step ST7), the other end point of the white line is obtained and a process using this as a reference point is performed (step ST8).
[0029]
Then, when the reference point is set in the above-described steps ST8 and ST9, a process for obtaining an angle formed by a line segment from the reference point toward the white line and the reference direction on the image is performed (step ST10).
[0030]
FIG. 7 is an explanatory diagram schematically showing the processing procedure of steps ST6 to ST10 described above. When the white line image W1 as shown in FIG. 7A is extracted and the end point P1 is designated, FIG. Since this end point P1 is not at the corner of the image, it is set as a white line reference point, and the angle θ1 formed by the white line direction Y2 relative to this reference point and the reference direction Y1 on the image is obtained.
[0031]
Thereafter, when the own vehicle 9 moves and the end point P1 on the white line W1 reaches the corner of the image as shown in FIG. 8B, this time, the opposite of the white line W1 as shown in FIG. The end point P2 on the side is set as a reference point, and an angle θ2 formed by the direction Y3 of the white line W1 with reference to this reference point and the reference direction Y1 on the image is obtained.
[0032]
The white line W1 is based on the mounting position of the rear camera 5, the position of the reference points (P1, P2) in the image obtained by the above-described processing, and the angle (θ1, θ2) between the white line W1 and the reference direction Y1. And a process for obtaining a positional relationship between the vehicle 9 and the host vehicle 9 (step ST11). And the image which superimposed the image of the own vehicle 9 on the bird's-eye view image of a parking space is displayed on the monitor 3 (step ST12).
[0033]
The driver can easily recognize the position of the own vehicle 9 with respect to the parking space by looking at the image on the monitor 3, so that the operation of entering the parking space while reversing the vehicle is extremely easy. To be able to do that.
[0034]
FIG. 8 is a diagram showing the selection of the reference point shown in FIG. 7 for each parking phase. When the area S1 shown in FIG. Is obtained. Thereafter, even when the vehicle moves and enters the phase shown in FIG. 5B, the end point P11 is not at the corner of the image, and is therefore selected as a reference point.
[0035]
Further, when the parking operation proceeds to the position shown in FIG. 5C, the reference point moves to the end point P12 on the opposite side, and as shown in FIG. The position is selected as a reference point.
[0036]
In the above procedure, when parking, there is always a parking space behind, and if two white lines that determine the parking space are drawn on the road surface, at least one of the two white lines farthest from the vehicle The end point of is an algorithm that effectively utilizes the fact that it always exists on the imaging screen of the rear camera 5 having a certain angle of view.
[0037]
Thus, in this embodiment, the white line (partition line) which partitions a parking space is imaged with the rear camera 5, the reference position is set on the white line, and the angle formed by the white line and the vehicle 9 is set. Based on the obtained result, the vehicle position relative to the parking space is detected and displayed as an image. Accordingly, since the vehicle position relative to the parking space can be accurately displayed on the screen, the driver can easily and surely enter the vehicle 9 into the parking space.
[0038]
Further, the rear image captured by the rear camera 5 is converted into a bird's-eye view image, and the image of the host vehicle 9 is displayed superimposed on the bird's-eye view image, so that the host vehicle position can be viewed objectively. Furthermore, when the parking monitor switch 4 is configured to be turned on in conjunction with the shift lever of the vehicle being put into the back gear, the driver switches the parking monitor switch 4 every time the parking operation is performed. The operation of throwing in can be omitted, and the operability is good.
[0039]
In the above-described embodiment, the image captured by the rear camera 5 is converted into a bird's-eye view image, and the image of the vehicle 9 is superimposed on the bird's-eye view image and displayed on the monitor 3, thereby Although it is configured to recognize the positional relationship with the own vehicle, it is also possible to project the own vehicle on the image of the parking space previously captured by the auxiliary camera 6.
[0040]
FIG. 9 is an explanatory view showing an example of a parking space image captured in advance by the auxiliary camera 6 and stored in the memory 7. Reference numeral S11 shown in FIG. 9 indicates an imaging range of the parking space image. Then, as shown in FIG. 10, the two end points of the white line 71 included in the parking space image S11 are set as P21 and P22, and the reference position obtained by the processing of steps ST8 and ST9 in the flowchart shown in FIG. By aligning the end points (points P11 and P12 shown in FIG. 8) with the end points P21 and P22 on the parking space image S11, the image of the host vehicle 9 is displayed superimposed on the parking space image S11. Can do. As a result, an image as shown in FIG. 11 is displayed on the monitor 3.
[0041]
If such a display method is used, the driver can confirm the parking operation of the own vehicle 9 while viewing the objectively displayed image such that only the image of the own vehicle 9 moves without moving the background. It is possible to further facilitate the operation of entering the own vehicle 9 into the vehicle space.
[0042]
In the above-described embodiment, the white line has been described as an example of the partition line that partitions the parking space. However, it is needless to say that the present invention can be applied to other partition lines such as a yellow line.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of a vehicle position detection device at the time of parking according to the present invention.
FIG. 2 is an explanatory diagram showing a range of a rear visual field of the own vehicle imaged by a rear camera.
FIG. 3 is an explanatory diagram showing a rear visual field imaged by a rear camera when the host vehicle enters the parking space.
FIG. 4 is a flowchart showing the operation of the present embodiment.
5A is an explanatory diagram illustrating an image captured by a rear camera, and FIG. 5B is an explanatory diagram illustrating a bird's-eye view image obtained from the image.
FIG. 6 is an explanatory diagram showing an operation of extracting an end point of a white line.
FIG. 7 is an explanatory diagram illustrating a method for setting a reference position and setting a white line angle;
FIG. 8 is an explanatory diagram showing a change in the reference position accompanying the movement of the own vehicle.
FIG. 9 is an explanatory diagram showing an image captured by an auxiliary camera.
FIG. 10 is an explanatory diagram showing how a reference point is set on a white line included in an image captured by an auxiliary camera.
FIG. 11 is an explanatory diagram showing a state in which a host vehicle is displayed on an image captured by an auxiliary camera.
[Explanation of symbols]
1 Vehicle position detection device 2 Controller 3 Monitor (display means)
4 Parking monitor switch 5 Rear camera (imaging means)
6 Auxiliary camera 7 Memory

Claims (4)

駐車スペースを区切る仕切線を撮像して、該仕切線と自車との位置関係を検出し、検出した位置関係を画面表示して運転者に知らせる駐車時の自車位置検出装置であって、
車両に設置され、該車両周囲の画像を撮像する撮像手段と、
前記撮像手段により撮像される画像から仕切線を抽出し、当該仕切線をなす線分上の基準位置、及び予め設定される基準方向に対する前記仕切線の傾斜角度を求める画像処理手段と、
前記画像処理手段より得られた基準位置、及び傾斜角度より、前記画像上の、前記仕切線に対する自車の相対位置を算出する自車位置算出手段と、
前記自車位置算出手段により算出された、自車と仕切線との相対位置を表示する表示手段と、
を具備し、
前記基準位置は、前記抽出した仕切線の線分の、画像上の隅部でない部位に存在する一方の端点に設定するとともに、この設定した一方の端点が画像上の隅部に達した時点では、前記抽出した仕切線の線分の、画像上の隅部でない部位に存在する他方の端点に設定する
ことを特徴とする駐車時の自車位置検出装置。
An image of a partition line that divides a parking space, detects a positional relationship between the partition line and the own vehicle, and displays the detected positional relationship on a screen to inform the driver of the vehicle position detection device during parking,
An imaging unit installed in the vehicle and capturing an image around the vehicle;
An image processing unit that extracts a partition line from an image captured by the imaging unit, obtains a reference position on a line segment that forms the partition line, and an inclination angle of the partition line with respect to a preset reference direction;
Vehicle position calculation means for calculating the relative position of the vehicle with respect to the partition line on the image from the reference position and the inclination angle obtained from the image processing means;
Display means for displaying a relative position between the own vehicle and the partition line calculated by the own vehicle position calculating means;
Comprising
The reference position is set to one end point existing in a portion other than the corner on the image of the extracted segment line, and at the time when the set one end point reaches the corner on the image. The vehicle position detecting device at the time of parking, characterized in that it is set to the other end point existing at a portion other than the corner on the image of the extracted segment line .
前記画像処理手段は、前記撮像手段で撮像された画像中に複数の仕切線が存在する場合には、当該複数の仕切線のうち、最長のものを抽出することを特徴とする請求項1に記載の駐車時の自車位置検出装置。  The image processing means extracts the longest one of the plurality of partition lines when there are a plurality of partition lines in the image picked up by the image pickup means. Self-vehicle position detection device at the time of parking. 前記画像処理手段は、前記撮像手段で撮像された画像に基づいて、鳥瞰画像を作成し、前記表示手段は、該鳥瞰画像上に、自車と仕切線との相対位置を表示することを特徴とする請求項1または2に記載の駐車時の自車位置検出装置。The image processing unit creates a bird's-eye view image based on the image captured by the imaging unit, and the display unit displays a relative position between the host vehicle and the partition line on the bird's-eye view image. The own vehicle position detection device at the time of parking according to claim 1 or 2 . 駐車スペースを区切る仕切線を撮像して、該仕切線と自車との位置関係を検出し、検出した位置関係を画面表示して運転者に知らせる駐車時の自車位置検出方法であって、
車両周囲の画像を該車両に設置された撮像手段により撮像し、
前記撮像手段により撮像される画像から仕切線を抽出し、当該仕切線をなす線分上の基準位置、及び予め設定される基準方向に対する前記仕切線の傾斜角度を画像処理手段により求め、
前記画像処理手段より得られた基準位置、及び傾斜角度より、前記画像上の、前記仕切線に対する自車の相対位置を自車位置算出手段により算出し、
前記自車位置算出手段により算出された、自車と仕切線との相対位置を表示手段により表示し、
前記基準位置は、前記抽出した仕切線の線分の、画像上の隅部でない部位に存在する一方の端点に設定し、この設定した一方の端点が画像上の隅部に達した時点で、前記抽出した仕切線の線分の、画像上の隅部でない部位に存在する他方の端点に設定する
ことを特徴とする駐車時の自車位置検出方法
It is a vehicle position detection method at the time of parking by imaging a partition line that divides a parking space, detecting a positional relationship between the partition line and the own vehicle, and displaying the detected positional relationship on a screen to inform the driver,
An image around the vehicle is captured by an imaging means installed in the vehicle,
A partition line is extracted from an image captured by the imaging unit, a reference position on a line segment forming the partition line, and an inclination angle of the partition line with respect to a preset reference direction are obtained by an image processing unit.
From the reference position obtained from the image processing means and the inclination angle, the vehicle relative position on the image on the image is calculated by the vehicle position calculating means,
The relative position between the own vehicle and the partition line calculated by the own vehicle position calculating means is displayed by the display means,
The reference position is set to one end point existing in a portion other than the corner on the image of the extracted segment line, and when this one end point reaches the corner on the image, Set to the other end point of the extracted segment line segment that is not in the corner of the image
A method for detecting a position of a vehicle at the time of parking .
JP2000280792A 2000-09-14 2000-09-14 Self-vehicle position detecting device and self-vehicle position detecting method during parking Expired - Fee Related JP4505968B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000280792A JP4505968B2 (en) 2000-09-14 2000-09-14 Self-vehicle position detecting device and self-vehicle position detecting method during parking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000280792A JP4505968B2 (en) 2000-09-14 2000-09-14 Self-vehicle position detecting device and self-vehicle position detecting method during parking

Publications (2)

Publication Number Publication Date
JP2002092598A JP2002092598A (en) 2002-03-29
JP4505968B2 true JP4505968B2 (en) 2010-07-21

Family

ID=18765555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000280792A Expired - Fee Related JP4505968B2 (en) 2000-09-14 2000-09-14 Self-vehicle position detecting device and self-vehicle position detecting method during parking

Country Status (1)

Country Link
JP (1) JP4505968B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5012396B2 (en) * 2007-10-16 2012-08-29 日産自動車株式会社 White line detection device, parking and stopping support device, and white line detection method
JP4530060B2 (en) * 2008-02-19 2010-08-25 トヨタ自動車株式会社 Parking support apparatus and method
JP6097533B2 (en) * 2012-11-27 2017-03-15 クラリオン株式会社 In-vehicle image processing device
JP6227514B2 (en) * 2014-10-27 2017-11-08 アイシン精機株式会社 Parking assistance device
KR102200651B1 (en) * 2019-05-22 2021-01-08 한양대학교 산학협력단 A method and apparatus of estimating a parking vehicle pose

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0717328A (en) * 1993-06-30 1995-01-20 Mitsubishi Motors Corp Circumference recognition auxiliary device for vehicle
JPH09139936A (en) * 1995-11-16 1997-05-27 Nissan Motor Co Ltd Camera for vehicle
JPH1083500A (en) * 1996-09-06 1998-03-31 Fujitsu Ten Ltd Device for recognizing line drawn on road surface
JP3663801B2 (en) * 1997-01-30 2005-06-22 いすゞ自動車株式会社 Vehicle rear view support device
JP3800785B2 (en) * 1998-01-06 2006-07-26 スズキ株式会社 White line recognition device
JP3951465B2 (en) * 1998-06-26 2007-08-01 アイシン精機株式会社 Parking assistance device
EP2259220A3 (en) * 1998-07-31 2012-09-26 Panasonic Corporation Method and apparatus for displaying image

Also Published As

Publication number Publication date
JP2002092598A (en) 2002-03-29

Similar Documents

Publication Publication Date Title
JP3695319B2 (en) Vehicle periphery monitoring device
US8441536B2 (en) Vehicle periphery displaying apparatus
JP4412380B2 (en) Driving support device, driving support method, and computer program
EP2578464B1 (en) Video-based warning system for a vehicle
US8305204B2 (en) Vehicle surrounding confirmation apparatus
US7379089B2 (en) Apparatus and method for monitoring the immediate surroundings of a vehicle
WO2016067535A1 (en) Parking assistance device
US20090303080A1 (en) Parking assist device
WO2012091476A2 (en) Apparatus and method for displaying a blind spot
KR20110026469A (en) Parking assist apparatus and parking assist method
US10974649B2 (en) Vehicular parking assist system using backup camera
JP2008195263A (en) Reverse assisting device
JP3832455B2 (en) Vehicle surrounding display device
JP2018142885A (en) Vehicular display control apparatus, vehicular display system, vehicular display control method, and program
JP3906892B2 (en) Parking assistance device
JP3838884B2 (en) Vehicle periphery display device, program, and recording medium
JP2003116125A (en) Apparatus for visually confirming surrounding of vehicle
JP2007253819A (en) Parking backup device
JP2010006129A (en) Vehicle rear information display and vehicle rear information display method
JP4092479B2 (en) Vehicle driving support device
JP4505968B2 (en) Self-vehicle position detecting device and self-vehicle position detecting method during parking
JP5083142B2 (en) Vehicle periphery monitoring device
JP4156181B2 (en) Parking assistance device
JP4999748B2 (en) Side mirror device
JP5943207B2 (en) Video display device for vehicle parking operation support

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100419

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees