[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2006298256A - Parking supporting method and parking supporting device - Google Patents

Parking supporting method and parking supporting device Download PDF

Info

Publication number
JP2006298256A
JP2006298256A JP2005125436A JP2005125436A JP2006298256A JP 2006298256 A JP2006298256 A JP 2006298256A JP 2005125436 A JP2005125436 A JP 2005125436A JP 2005125436 A JP2005125436 A JP 2005125436A JP 2006298256 A JP2006298256 A JP 2006298256A
Authority
JP
Japan
Prior art keywords
image data
vehicle
parking
image
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005125436A
Other languages
Japanese (ja)
Other versions
JP4595649B2 (en
Inventor
Toshihiro Mori
俊宏 森
Seiji Sakakibara
聖治 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2005125436A priority Critical patent/JP4595649B2/en
Publication of JP2006298256A publication Critical patent/JP2006298256A/en
Application granted granted Critical
Publication of JP4595649B2 publication Critical patent/JP4595649B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a parking supporting method capable of guiding a vehicle to a parking target area even after the vehicle enters the parking target area and a parking supporting device. <P>SOLUTION: A navigation device 1 acquires a picture image data G picking up a rear view field of the vehicle C from a rear camera 22 provided on the vehicle C. Each of the picture image data G is stored in an RAM 4 in association with a position of the vehicle at each of the pick-up points. Furthermore, a coordinate of a previously set target frame is converted in accordance with the position of the vehicle at a current point and the converted target frame is displayed on a peripheral view field screen of a display 12. A coordinate of an area including at least a run-off part is computed when the converted target frame runs off the edge of the screen, the picture image data G including the run-off part is read from the RAM 4 and the picture image data G formed at the current point is supplemented and composed by the read out picture image data G. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、駐車支援方法及び駐車支援装置に関する。   The present invention relates to a parking assistance method and a parking assistance device.

従来より、自動車を駐車させる際の運転操作を支援する装置として、車両の後端に取り付けられたカメラにより、周辺視界を撮像し、その撮像データを車室内に配設されたディスプレイに出力する装置が知られている(例えば、特許文献1参照)。このような後方カメラは、車両の後端の略中央において取付けられ、その光軸は、下方に所定角度傾けた状態で固定されている。そして、この後方カメラは、車両の後端から後方数メートルを撮像可能になっている。
特開2000−280823号公報
2. Description of the Related Art Conventionally, as a device for assisting a driving operation when a car is parked, a device attached to the rear end of a vehicle is used to image a peripheral field of view and output the imaged data to a display disposed in a vehicle interior Is known (see, for example, Patent Document 1). Such a rear camera is mounted substantially at the center of the rear end of the vehicle, and its optical axis is fixed in a state where it is inclined downward by a predetermined angle. And this rear camera can image several meters behind from the rear end of the vehicle.
JP 2000-280823 A

ところが、上記した駐車支援装置は、車両がバック走行しながら駐車枠に進入開始した時点では、駐車枠を示す白線や輪止めがディスプレイに表示されるが、車両が白線の終端や輪止めに接近するに従って、画面から駐車枠がはみ出し、最終的には白線や輪止めが全く表示されなくなってしまう。このため、運転者は、駐車枠に進入するに従って、車両と駐車目標領域との相対位置及び相対方向、ずれ量を把握し難くなる。その結果、タイヤと輪止めとの接触による衝撃が大きくなったり、白線に対して斜めに駐車したり、車両が駐車枠からはみ出てしまうことがある。   However, when the vehicle starts to enter the parking frame while traveling backward, the parking assist device described above displays a white line and a wheel stopper indicating the parking frame on the display, but the vehicle approaches the end of the white line and the wheel stopper. As a result, the parking frame protrudes from the screen, and eventually the white line and the wheel stopper are not displayed at all. For this reason, as the driver enters the parking frame, it becomes difficult for the driver to grasp the relative position, the relative direction, and the deviation amount between the vehicle and the parking target area. As a result, the impact caused by the contact between the tire and the wheel stopper may increase, the vehicle may be parked obliquely with respect to the white line, or the vehicle may protrude from the parking frame.

本発明は、上記問題点に鑑みてなされたものであり、その目的は、駐車目標領域に車両が進入した後も、駐車目標領域内に車両を誘導することができる駐車支援方法及び駐車支援装置を提供することにある。   The present invention has been made in view of the above problems, and its purpose is to provide a parking support method and a parking support apparatus that can guide a vehicle into the parking target area even after the vehicle enters the parking target area. Is to provide.

上記問題点を解決するために、請求項1に記載の発明は、車両の位置を特定する位置特定手段と、画像データを表示する表示手段と、制御手段とを用い、駐車操作を支援する駐車支援方法であって、前記制御手段が、前記車両に設けられた撮像装置から、前記車両の周辺を撮像した画像データを各撮像地点で取得し、前記各撮像地点での前記車両の位置と関連付けて画像データ記憶手段に格納する工程と、駐車目標領域を設定する工程と、設定された前記駐車目標領域が、前記表示手段の画面からはみ出す場合に、少なくともはみ出した部分を補完する補完部分を含む過去画像データを、前記画像データ記憶手段から読み出す工程と、読出した前記過去画像データにより、前記現在の前記画像データを補完させて合成し、前記駐車目標領域全体を含む画像合成データを生成し、前記画像合成データを前記表示手段に表示する工程とを有することを要旨とする。   In order to solve the above problems, the invention according to claim 1 is a parking system that supports a parking operation using a position specifying unit that specifies the position of a vehicle, a display unit that displays image data, and a control unit. In the support method, the control unit acquires image data obtained by imaging the periphery of the vehicle from an imaging device provided in the vehicle at each imaging point, and associates the data with the position of the vehicle at each imaging point. A step of storing the image data in the image data storage means, a step of setting a parking target area, and a complement portion that complements at least the protruding portion when the set parking target area protrudes from the screen of the display means. The past image data is read out from the image data storage means, and the current image data is complemented and synthesized by the read out past image data, and the entire parking target area is synthesized. It generates image synthesis data containing, and summarized in that a step of displaying the image synthesis data on the display means.

請求項2に記載の発明は、請求項1に記載の駐車支援方法において、前記制御手段が、設定された前記駐車目標領域を表す座標を、前記車両の移動に応じて変換する工程をさらに有し、変換した前記駐車目標領域の座標が、前記表示手段の画面からはみ出す場合に、少なくともはみ出した部分を補完する前記補完部分を含む前記過去画像データを、前記画像データ記憶手段から読み出し、その過去画像データを用いて前記画像合成データを生成することを要旨とする。   The invention according to claim 2 further includes a step of converting the coordinates representing the set parking target area in accordance with movement of the vehicle in the parking support method according to claim 1. Then, when the converted coordinates of the parking target area protrude from the screen of the display means, the past image data including the complementary part that complements at least the protruding part is read from the image data storage means, and the past The gist is to generate the image composition data using image data.

請求項3に記載の発明は、請求項2に記載の駐車支援方法において、前記制御手段が、前記駐車目標領域の座標を、前記表示手段に表示される画面の座標に変換することを要旨
とする。
The invention according to claim 3 is the parking assist method according to claim 2, wherein the control means converts the coordinates of the parking target area into coordinates of a screen displayed on the display means. To do.

請求項4に記載の発明は、車両に設けられた撮像装置から、前記車両の周辺を撮像した画像データを、各撮像地点で取得する画像取得手段と、前記画像データを出力して画面を表示する表示手段と、前記車両の位置を特定する位置特定手段と、前記各撮像地点で生成した前記画像データを、前記各撮像地点での前記車両の位置と関連付けて格納する画像データ記憶手段と、駐車目標領域を設定する設定手段と、設定した前記駐車目標領域が、前記表示手段の画面からはみ出す場合に、少なくともはみ出した部分を補完する補完部分を含む過去画像データを、前記画像データ記憶手段から読み出す画像データ読出手段と、現在地点の前記画像データと、前記過去画像データの前記補完部分とを合成し、前記駐車目標領域を含む画像合成データを生成する画像合成手段と、前記画像合成データを出力して合成画面を前記表示手段に表示する表示制御手段とを備えたことを要旨とする。   According to a fourth aspect of the present invention, image acquisition means for acquiring image data obtained by imaging the periphery of the vehicle at each imaging point from an imaging device provided in the vehicle, and displaying the screen by outputting the image data Display means, position specifying means for specifying the position of the vehicle, image data storage means for storing the image data generated at each imaging point in association with the position of the vehicle at each imaging point, Setting means for setting a parking target area, and past image data including a complementary portion that complements at least the protruding portion from the image data storage means when the set parking target area protrudes from the screen of the display means. The image data reading means for reading, the image data at the current point, and the complement of the past image data are combined, and image combined data including the parking target area is obtained. An image synthesizing means for forming, and summarized in that output to a composite screen the image synthesis data and a display control means for displaying on the display means.

請求項5に記載の発明は、請求項4に記載の駐車支援装置において、設定された前記駐車目標領域を表す座標を、前記車両の移動に応じて変換する変換手段をさらに有し、前記画像合成手段は、変換した前記駐車目標領域の座標が、前記表示手段の画面からはみ出す場合に、少なくともはみ出した部分を補完する前記補完部分を含む前記過去画像データを、前記画像データ記憶手段から読み出し、その過去画像データを用いて前記画像合成データを生成することを要旨とする。   According to a fifth aspect of the present invention, in the parking assist device according to the fourth aspect of the present invention, the image forming apparatus further comprises conversion means for converting the coordinates representing the set parking target area according to the movement of the vehicle. The synthesizing unit reads out the past image data including the complement part that complements at least the part that protrudes from the image data storage unit, when the converted coordinates of the parking target area protrude from the screen of the display unit. The gist is to generate the image composite data using the past image data.

請求項6に記載の発明は、請求項5に記載の駐車支援装置において、前記変換手段は、前記駐車目標領域の座標を、前記表示手段に表示される画面の座標に変換することを要旨とする。   The invention according to claim 6 is the parking assist device according to claim 5, wherein the conversion means converts the coordinates of the parking target area into the coordinates of the screen displayed on the display means. To do.

請求項7に記載の発明は、請求項4〜6のいずれか1項に記載の駐車支援装置において、前記設定手段は、前記表示手段に表示される画面に、前記駐車目標領域を設定するための設定指標を表示するとともに、前記設定指標の位置又は形状又は大きさを指定する入力信号に基づいて、前記駐車目標領域の位置又は形状又は大きさを決定することを要旨とする。   A seventh aspect of the present invention is the parking assist apparatus according to any one of the fourth to sixth aspects, wherein the setting means sets the parking target area on a screen displayed on the display means. The setting index is displayed, and the position, shape, or size of the parking target area is determined based on an input signal that specifies the position, shape, or size of the setting index.

請求項8に記載の発明は、請求項4〜7のいずれか1項に記載の駐車支援装置において、現在の前記車両の位置を示す車両位置指標を、前記合成画面内の前記車両の位置に応じた位置に表示する車両位置表示手段をさらに備えたことを要旨とする。   The invention according to claim 8 is the parking assist apparatus according to any one of claims 4 to 7, wherein a vehicle position index indicating the current position of the vehicle is set to the position of the vehicle in the composite screen. The gist of the invention is that it further includes vehicle position display means for displaying at a corresponding position.

請求項9に記載の発明は、請求項4〜8のいずれか1項に記載の駐車支援装置において、前記画像合成手段は、前記過去画像データによる前記補完部分に応じて、現在地点で生成した前記画像データを縮小することを要旨とする。   According to a ninth aspect of the present invention, in the parking assist device according to any one of the fourth to eighth aspects, the image synthesizing means is generated at a current location in accordance with the complemented portion based on the past image data. The gist is to reduce the image data.

請求項10に記載の発明は、請求項4〜9のいずれか1項に記載の駐車支援装置において、前記各撮像地点で生成した前記過去画像データの座標を、現在地点で前記表示手段に表示される画面内の座標に変換する座標変換手段を備えたことを要旨とする。   According to a tenth aspect of the present invention, in the parking assistance device according to any one of the fourth to ninth aspects, the coordinates of the past image data generated at each of the imaging points are displayed on the display unit at a current point. The gist of the present invention is that it is provided with a coordinate conversion means for converting into coordinates in the screen.

請求項11に記載の発明は、請求項4〜10のいずれか1項に記載の駐車支援装置において、前記画像データ及び前記過去画像データの歪曲収差を補正する収差補正手段をさらに備えたことを要旨とする。   According to an eleventh aspect of the present invention, in the parking assist device according to any one of the fourth to tenth aspects, the image forming apparatus further includes an aberration correcting unit that corrects distortion aberration of the image data and the past image data. The gist.

請求項12に記載の発明は、請求項4〜11のいずれか1項に記載の駐車支援装置において、前記画像合成手段は、前記合成画面が表示された際に、現在の前記画像データに基づく画像と、前記過去画像データに基づく画像とを視認によって判別可能となるように、前記画像合成データを加工することを要旨とする。   The invention described in claim 12 is the parking assist apparatus according to any one of claims 4 to 11, wherein the image composition means is based on the current image data when the composition screen is displayed. The gist is to process the image composite data so that an image and an image based on the past image data can be discriminated by visual recognition.

請求項13に記載の発明は、請求項4〜12のいずれか1項に記載の駐車支援装置において、前記画像取得手段は、前記車両の後方に設けられた前記撮像装置から、前記車両の後方周辺を撮像した前記画像データを取得することを要旨とする。   In a thirteenth aspect of the present invention, in the parking assist device according to any one of the fourth to twelfth aspects of the present invention, the image acquisition unit is configured to move from the imaging device provided behind the vehicle to the rear of the vehicle. The gist is to acquire the image data obtained by imaging the periphery.

請求項1に記載の発明によれば、制御手段は、撮像装置が各撮像地点で生成した画像データを、位置特定手段が算出した車両の位置と関連付けて画像データ記憶手段に格納する。また、駐車目標領域を設定し、駐車目標領域が画面からはみ出す場合に、そのはみ出した部分を補完する補完部分を含む過去画像データを読出し、その過去画像データにより現在の画像データを補完するように画像合成データを生成する。このため、車両の移動に伴って、画面から駐車目標領域がはみ出しても、蓄積した過去画像データを合成することにより、駐車目標領域全体を仮想的に表示手段に表示できる。従って、運転者は、表示手段の画面に基づき、駐車目標領域からずれることなく、駐車目標領域内に車両を駐車させることができる。   According to the first aspect of the present invention, the control unit stores the image data generated by the imaging device at each imaging point in the image data storage unit in association with the vehicle position calculated by the position specifying unit. In addition, when a parking target area is set and the parking target area protrudes from the screen, past image data including a complementary portion that complements the protruding portion is read, and the current image data is complemented by the past image data. Generate image composition data. For this reason, even if the parking target area protrudes from the screen as the vehicle moves, the entire parking target area can be virtually displayed on the display means by combining the accumulated past image data. Accordingly, the driver can park the vehicle in the parking target area without deviating from the parking target area based on the screen of the display means.

請求項2に記載の発明によれば、制御手段は、設定された駐車目標領域を表す座標を、車両の移動に応じて変換する。そして、変換した駐車目標領域の座標が、画面からはみ出す場合に、過去画像データによってはみ出した部分を補完する。このため、駐車目標領域を、各地点の画像データに基づいて逐次検出するような処理を行うことなく、車両の現在位置に対する駐車目標領域の位置を判断できる。   According to the second aspect of the present invention, the control means converts the coordinates representing the set parking target area according to the movement of the vehicle. And when the coordinate of the converted parking target area | region protrudes from a screen, the part which protruded by the past image data is complemented. For this reason, the position of the parking target area with respect to the current position of the vehicle can be determined without performing a process of sequentially detecting the parking target area based on the image data of each point.

請求項3に記載の発明によれば、制御手段は、駐車目標領域の座標を、表示手段に表示される画面の座標に変換する。このため、駐車目標領域を、表示手段の画面上で区画表示することが可能となる。   According to invention of Claim 3, a control means converts the coordinate of a parking target area | region into the coordinate of the screen displayed on a display means. For this reason, it becomes possible to partition-display the parking target area | region on the screen of a display means.

請求項4に記載の発明によれば、駐車支援装置は、撮像装置が各撮像地点で生成した画像データを、その時点の車両の位置と関連付けて画像データ記憶手段に格納する。また、設定手段により駐車目標領域を設定するようにした。そして、演算手段により、現在地点の駐車目標領域が周辺視界画面からはみ出す場合に、そのはみ出し部分を少なくとも含む補完部分を有する過去画像データを読出し、その過去画像データにより現在地点の画像データを補完するように画像合成データを生成する。このため、撮像装置の視界内に駐車目標領域が収まらず、表示手段の画面の表示領域から駐車目標領域がはみ出しても、蓄積した過去画像データを合成することにより、駐車目標領域全体を仮想的に表示手段に表示できる。従って、運転者は、駐車目標領域に基づき、駐車目標領域からずれることなく、駐車目標領域内に車両を駐車させることができる。   According to the invention described in claim 4, the parking assist device stores the image data generated by the imaging device at each imaging point in the image data storage means in association with the position of the vehicle at that time. Also, the parking target area is set by the setting means. Then, when the parking target area at the current location protrudes from the peripheral view screen, the calculation means reads past image data having a complement portion including at least the projection portion, and complements the image data at the current location with the past image data. In this way, image synthesis data is generated. For this reason, even if the parking target area does not fall within the field of view of the imaging device and the parking target area protrudes from the display area of the screen of the display means, the entire parking target area is virtually combined by combining the accumulated past image data. Can be displayed on the display means. Therefore, the driver can park the vehicle in the parking target area based on the parking target area without deviating from the parking target area.

請求項5に記載の発明によれば、駐車支援装置は、設定された駐車目標領域を表す座標を、車両の移動に応じて変換する変換手段をさらに有する。そして、画像合成手段は、変換した駐車目標領域の座標が、画面からはみ出す場合に、過去画像データによってはみ出した部分を補完する。即ち、設定された駐車目標領域を変換するので、車両の移動に伴い、駐車目標領域を逐次検出する必要がない。   According to the fifth aspect of the present invention, the parking assist device further includes conversion means for converting the coordinates representing the set parking target area according to the movement of the vehicle. Then, the image synthesizing means complements the portion that protrudes from the past image data when the converted coordinates of the parking target region protrude from the screen. That is, since the set parking target area is converted, it is not necessary to sequentially detect the parking target area as the vehicle moves.

請求項6に記載の発明によれば、変換手段は、駐車目標領域の座標を、表示手段に表示される画面の座標に変換する。このため、駐車目標領域を、表示手段の画面上で区画表示することが可能となる。   According to the sixth aspect of the present invention, the conversion means converts the coordinates of the parking target area into the coordinates of the screen displayed on the display means. For this reason, it becomes possible to partition-display the parking target area | region on the screen of a display means.

請求項7の記載の発明によれば、設定手段は、駐車目標領域を設定するための設定指標を画面に表示する。そして、設定指標の位置又は形状又は大きさを指定する入力信号に基づいて、駐車目標領域の位置又は形状又は大きさを決定する。このため、画面の任意の場
所に駐車目標領域を設定することができる。
According to invention of Claim 7, a setting means displays the setting parameter | index for setting a parking target area | region on a screen. Then, the position, shape, or size of the parking target area is determined based on the input signal that specifies the position, shape, or size of the setting index. For this reason, a parking target area | region can be set to the arbitrary places of a screen.

請求項8に記載の発明によれば、現在地点での車両の位置を示す車両位置指標を、合成画面内の車両の位置に応じた位置に表示する。このため、運転者は、車両の位置と、駐車目標領域とのずれ量を把握することができるので、駐車目標領域内の所望の位置に車両を駐車させることができる。   According to the eighth aspect of the invention, the vehicle position index indicating the position of the vehicle at the current point is displayed at a position corresponding to the position of the vehicle in the composite screen. For this reason, since the driver | operator can grasp | ascertain the deviation | shift amount of the position of a vehicle and a parking target area | region, it can park a vehicle in the desired position in a parking target area | region.

請求項9に記載の発明によれば、画像合成手段は、過去画像データが補完する補完領域に応じて、現在地点で生成した画像データを縮小する。このため、駐車目標領域全体を含む合成画面を表示した際に、画像の連続性を良好にすることができる。   According to the invention described in claim 9, the image composition means reduces the image data generated at the current location in accordance with the complement region supplemented by the past image data. For this reason, when the composite screen including the entire parking target area is displayed, the continuity of the images can be improved.

請求項10に記載の発明によれば、画像変換手段によって、各撮像地点での、異なる視点から撮像された過去画像データの座標を、現在地点で表示手段の画面内の座標に変換する。このため、例えば、異なる視点から撮像した画像データを、仮想的に、現在地点のカメラ視点で撮像された画像データにすることができる。このため、各画像データが描画する画像の連続性を良好にすることができる。   According to the tenth aspect of the present invention, the image conversion means converts the coordinates of past image data taken from different viewpoints at each imaging point into coordinates in the screen of the display means at the current point. Therefore, for example, image data captured from different viewpoints can be virtually converted to image data captured from the camera viewpoint at the current location. For this reason, the continuity of the image drawn by each image data can be improved.

請求項11に記載の発明によれば、駐車支援装置は、画像データに生じた歪曲収差を補正する収差補正手段を備えている。このため各画像データを合成し、表示手段に表示した際に、画像の連続性を良好にすることができるので、ユーザに違和感を与えないようにすることができる。   According to the eleventh aspect of the present invention, the parking assist device includes the aberration correction means for correcting the distortion occurring in the image data. For this reason, when the image data are combined and displayed on the display means, the continuity of the images can be improved, so that the user does not feel uncomfortable.

請求項12に記載の発明によれば、画像合成手段は、画像データに基づく画像と、現在地点で生成された画像データに基づく画像と区別できるようにして画像合成データを生成する。このため、合成画面が表示された際に、合成部分と、現在地点での実際の画像部分とを判別できるので、画面内に進入した障害物がどの時点で撮像されたか、或いは、合成画面のうち信頼性が高い画像はどの部分であるかを判断できる。   According to a twelfth aspect of the present invention, the image composition means generates image composition data so that it can be distinguished from an image based on the image data and an image based on the image data generated at the current location. For this reason, when the composite screen is displayed, the composite portion and the actual image portion at the current location can be discriminated, so at which point the obstacle that has entered the screen is imaged, or the composite screen It is possible to determine which part of the image has high reliability.

請求項13に記載の発明によれば、画像取得手段により、車両の後方に設けられた撮像装置から、車両の後方周辺を撮像した画像データが取得される。このため、車両が駐車目標領域に向ってバックした際に、車両後方を撮像した画像データを用いて画像合成データを生成し、運転操作が難しい場合に駐車支援を行うため、特に効果を発揮できる。   According to the invention described in claim 13, the image acquisition means acquires image data obtained by imaging the rear periphery of the vehicle from an imaging device provided at the rear of the vehicle. For this reason, when the vehicle backs toward the parking target area, image synthesis data is generated using image data obtained by imaging the rear of the vehicle, and parking assistance is performed when driving operation is difficult. .

以下、本発明の駐車支援装置を、自動車(車両)に搭載され、経路案内を行うナビゲーション装置に具体化した実施形態を図1〜図20に従って説明する。図1は、ナビゲーション装置1の構成を説明するブロック図である。   Hereinafter, an embodiment in which the parking assist device of the present invention is embodied in a navigation device that is mounted on an automobile (vehicle) and performs route guidance will be described with reference to FIGS. FIG. 1 is a block diagram illustrating the configuration of the navigation device 1.

図1に示すように、ナビゲーション装置1は、制御手段としての制御装置2を備えている。この制御装置2は、主制御を行う制御部3、画像データ記憶手段としてのRAM4、ROM5を備えている。制御部3は、ROM5に格納された経路案内プログラム、画像データ保存プログラム、合成データ出力プログラム、駐車案内プログラム等、各種プログラムに従って、各種処理を行う。尚、制御部3は、特許請求の範囲に記載の画像取得手段、位置特定手段、演算手段、画像データ読出手段、画像合成手段、変換手段、表示制御手段、目標領域設定手段、車両位置表示手段、座標変換手段及び収差補正手段を構成する。   As shown in FIG. 1, the navigation device 1 includes a control device 2 as a control means. The control device 2 includes a control unit 3 that performs main control, a RAM 4 as an image data storage unit, and a ROM 5. The control unit 3 performs various processes according to various programs such as a route guidance program, an image data storage program, a composite data output program, and a parking guidance program stored in the ROM 5. The control unit 3 includes an image acquisition unit, a position specifying unit, a calculation unit, an image data reading unit, an image composition unit, a conversion unit, a display control unit, a target area setting unit, and a vehicle position display unit described in the claims. The coordinate conversion unit and the aberration correction unit are configured.

また、ROM5には、輪郭描画データ5aが格納されている。輪郭描画データ5aは、車両Cの輪郭をディスプレイ12に表示するためのデータである。また、輪郭描画データ5aは、車両Cの大きさに応じて設定され、車両Cが小型車である場合には、画面に応じた小型車の大きさの輪郭を描画するようになっている。   The ROM 5 stores contour drawing data 5a. The contour drawing data 5 a is data for displaying the contour of the vehicle C on the display 12. The contour drawing data 5a is set according to the size of the vehicle C, and when the vehicle C is a small vehicle, the contour of the size of the small vehicle according to the screen is drawn.

また、制御装置2は、GPS受信部6及び位置特定手段を構成する自車位置検出部7を備えている。GPS受信部6は、GPS衛星からの電波を受信する。自車位置検出部7は、GPS受信部6から受信した検出データに基づいて、自車位置の絶対位置を示す緯度・経度・高度等の測位データを定期的に算出する。   Moreover, the control apparatus 2 is provided with the own vehicle position detection part 7 which comprises the GPS receiving part 6 and a position specific means. The GPS receiver 6 receives radio waves from GPS satellites. Based on the detection data received from the GPS receiving unit 6, the own vehicle position detection unit 7 periodically calculates positioning data such as latitude, longitude, altitude indicating the absolute position of the own vehicle position.

さらに、制御装置2は、センサインターフェース(I/F部8)を備えている。制御部3は、このI/F部8を介して、車両Cに配設された車速センサ20及びジャイロセンサ21から、車両Cの速度及び相対方位を取得し、これらを自車位置検出部7に送信する。自車位置検出部7は、GPS受信部6による測位データにより算出した基準自車位置をもとに、車速及び相対方位に基づき、自律航法による自車位置データを生成する。このとき、自車位置検出部7は、図3に示すように、車両Cの後輪C1の車軸C2の中心点25を自車位置データとして算出する。そして、GPS受信部6から測位データを逐次取得しながら、自律航法による自車位置を補正し、自車位置を決定する。   Furthermore, the control device 2 includes a sensor interface (I / F unit 8). The control unit 3 acquires the speed and relative direction of the vehicle C from the vehicle speed sensor 20 and the gyro sensor 21 disposed in the vehicle C via the I / F unit 8, and uses these to detect the vehicle position detection unit 7. Send to. The own vehicle position detection unit 7 generates own vehicle position data by autonomous navigation based on the vehicle speed and the relative direction based on the reference own vehicle position calculated from the positioning data by the GPS receiving unit 6. At this time, the host vehicle position detection unit 7 calculates the center point 25 of the axle C2 of the rear wheel C1 of the vehicle C as host vehicle position data, as shown in FIG. And while acquiring positioning data from GPS receiving part 6 sequentially, the own vehicle position by autonomous navigation is corrected and the own vehicle position is determined.

また、制御装置2は、地図データ記憶部9を備えている。地図データ記憶部9には、地図データとしての経路データ9a及び地図描画データ9bが格納されている。経路データ9aは、各道路の交差点や曲点を示すノードを示すノードデータや、各ノードを接続するリンクを示すリンクデータ等を格納しており、制御部3は、目的地までの経路案内処理を行う際に、この経路データ9a及びROM5に格納された経路案内プログラムに従って経路を探索する。また、制御部3は、上記したように算出した自車位置データと、走行軌跡、経路データ9aを照合して、自車位置座標を適切な道路上に位置決めし、自車位置データをさらに補正する。地図描画データ9bは、広範囲から狭範囲の地図を表示するためのデータであって、経路データ9aと関連付けられている。   The control device 2 includes a map data storage unit 9. The map data storage unit 9 stores route data 9a and map drawing data 9b as map data. The route data 9a stores node data indicating nodes indicating intersections and turning points of roads, link data indicating links connecting the nodes, and the like. The control unit 3 performs route guidance processing to a destination. When performing the above, the route is searched according to the route data 9a and the route guidance program stored in the ROM 5. Further, the control unit 3 collates the vehicle position data calculated as described above with the travel locus and the route data 9a, positions the vehicle position coordinates on an appropriate road, and further corrects the vehicle position data. To do. The map drawing data 9b is data for displaying a map from a wide range to a narrow range, and is associated with the route data 9a.

また、制御装置2は、画像取得手段を構成する撮像データ取得部10を備えている。撮像データ取得部10は、車両Cに設けられた撮像装置としての後方カメラ22から撮像データを、車両Cの所定移動量ごとに、或いは所定時間ごとに取得する。   In addition, the control device 2 includes an imaging data acquisition unit 10 that constitutes an image acquisition unit. The imaging data acquisition unit 10 acquires imaging data from the rear camera 22 as an imaging device provided in the vehicle C for each predetermined movement amount of the vehicle C or for each predetermined time.

後方カメラ22は、図2に示すように、車両Cのバックドア等、車両Cの後端の略中央に、光軸Aを下方に向けて取り付けられている。この後方カメラ22は、広角レンズ、ミラー等から構成される光学機構と、CCD撮像素子(いずれも図示せず)とを備えている。図3に示すように、後方カメラ22は、例えば左右140度の後方視野を有し、車両Cの後端を含む、後方約3mの撮像範囲S(周辺視界)を撮像可能になっている。また、制御部3は、自車位置検出部7から取得した自車位置データに基づいて、後方カメラ22の撮像範囲Sを、車両C用のXY座標系(以下、車両座標系という)の座標として演算可能になっている。この車両座標系は、路面と平行な水平面の座標である。   As shown in FIG. 2, the rear camera 22 is attached to the approximate center of the rear end of the vehicle C, such as a back door of the vehicle C, with the optical axis A facing downward. The rear camera 22 includes an optical mechanism including a wide-angle lens, a mirror, and the like, and a CCD image pickup device (none of which is shown). As shown in FIG. 3, the rear camera 22 has a rear visual field of, for example, 140 degrees to the left and right, and can capture an imaging range S (peripheral field of view) about 3 m rearward including the rear end of the vehicle C. Further, the control unit 3 determines the imaging range S of the rear camera 22 based on the own vehicle position data acquired from the own vehicle position detection unit 7 in the XY coordinate system (hereinafter referred to as a vehicle coordinate system) for the vehicle C. Can be computed as This vehicle coordinate system is a coordinate of a horizontal plane parallel to the road surface.

後方カメラ22によって生成された撮像データは、アナログ/デジタル変換されたデジタルデータであって、撮像データ取得部10は、各種補正や合成等の画像処理が可能な画像データGとして、制御部3に送信する。制御部3は、その画像データGを取得すると、図4に示すように、画像データG(撮像データ)を生成した地点の自車位置データ16と関連付けて、画像データGをRAM4に一時格納する。また、このとき、画像データGに、自車位置データ16に基づいて算出した撮像範囲Sの座標を示す撮像範囲データ17を関連付けて格納してもよい。これらの自車位置データ16及び撮像範囲データ17は、車両座標系の座標で示されている。また、画像データGは、後方カメラ22が広角レンズを用いているため、ナビゲーション装置1が具備する表示手段としてのディスプレイ12に表示した際に、画面周辺の画像が縮む、いわゆる歪曲収差が生じている。   The imaging data generated by the rear camera 22 is analog / digital converted digital data, and the imaging data acquisition unit 10 provides the control unit 3 as image data G that can be subjected to image processing such as various corrections and synthesis. Send. When the control unit 3 acquires the image data G, as shown in FIG. 4, the control unit 3 temporarily stores the image data G in the RAM 4 in association with the vehicle position data 16 of the point where the image data G (imaging data) is generated. . At this time, the image data G may be stored in association with the imaging range data 17 indicating the coordinates of the imaging range S calculated based on the vehicle position data 16. The own vehicle position data 16 and the imaging range data 17 are indicated by coordinates in the vehicle coordinate system. Further, since the rear camera 22 uses a wide-angle lens, when the image data G is displayed on the display 12 serving as a display unit included in the navigation device 1, so-called distortion aberration occurs in which an image around the screen is shrunk. Yes.

さらに、図1に示すように、制御装置2は、I/F部8を介して、車両Cに設けられた
ステアリングセンサ23、シフトセンサ24と接続されている。制御部3は、ステアリングセンサ23,シフトセンサ24から舵角検出信号及びシフトポジション信号を取得する。そして、制御部3は、シフトポジション信号に基づいて、変速機のシフトポジションがリバース状態であるか否かを判断する。シフトポジションがリバースであって、車両Cの後方の画像を単に表示する場合には、制御部3は、ROM5に格納された駐車案内プログラムに従って、RAM4に一時格納された現在地点の画像データGを読出し、図5に示す周辺視界画面としての後方視界画面40をディスプレイ12に表示する。また、車幅延長線42と、舵角検出信号に基づいた予想軌跡線41とを、公知の方法で、後方視界画面40に重ねて描画する。予想軌跡線41は、車両Cの舵角及び車幅に応じた進行軌跡を示す。車幅延長線42は、車両Cの車幅を後方に延長した指標である。従って、運転者は、駐車する際に、予想軌跡線41と、車幅延長線42とのずれ量に応じて操舵を行う。
Furthermore, as shown in FIG. 1, the control device 2 is connected to a steering sensor 23 and a shift sensor 24 provided in the vehicle C via the I / F unit 8. The control unit 3 acquires a steering angle detection signal and a shift position signal from the steering sensor 23 and the shift sensor 24. Then, the control unit 3 determines whether or not the shift position of the transmission is in the reverse state based on the shift position signal. When the shift position is reverse and the image behind the vehicle C is simply displayed, the control unit 3 displays the image data G of the current location temporarily stored in the RAM 4 according to the parking guidance program stored in the ROM 5. The rear view screen 40 as the peripheral view screen shown in FIG. 5 is read and displayed on the display 12. Further, the vehicle width extension line 42 and the expected trajectory line 41 based on the steering angle detection signal are drawn on the rear view screen 40 in a known manner. The expected trajectory line 41 indicates a travel trajectory according to the steering angle and the vehicle width of the vehicle C. The vehicle width extension line 42 is an index obtained by extending the vehicle width of the vehicle C rearward. Therefore, the driver steers according to the amount of deviation between the predicted trajectory line 41 and the vehicle width extension line 42 when parking.

また、ナビゲーション装置1のディスプレイ12は、タッチパネルであって、制御部3から送信された画像データGや、画像データGを合成した画像合成データを所定のタイミングで出力する。さらに、ディスプレイ12は、変速機のシフトポジションがリバースになっていない場合には、制御部3から送信された地図描画データ9bを出力して、自車位置周辺の地図画面12a(図1参照)を自車位置マーク等と併せて表示する。   The display 12 of the navigation device 1 is a touch panel, and outputs the image data G transmitted from the control unit 3 and image composite data obtained by combining the image data G at a predetermined timing. Further, when the shift position of the transmission is not reverse, the display 12 outputs the map drawing data 9b transmitted from the control unit 3 and the map screen 12a around the vehicle position (see FIG. 1). Is displayed along with the vehicle position mark.

さらに、制御装置2は、入力信号取得部13を備え、この入力信号取得部13により、ディスプレイ12のタッチパネル操作によって入力された入力信号、ナビゲーション装置1に配設された操作ボタン14を押釦することによって入力された入力信号を取得して、制御部3に送信する。この操作ボタン14の中には、目標設定ボタン14aが備えられている。   Further, the control device 2 includes an input signal acquisition unit 13, and the input signal acquisition unit 13 pushes the input signal input by the touch panel operation of the display 12 and the operation button 14 provided in the navigation device 1. The input signal input by is acquired and transmitted to the control unit 3. In this operation button 14, a target setting button 14a is provided.

目標設定ボタン14aは、駐車操作を行う際に、駐車目標領域を設定するために行う。この目標設定ボタン14aを、例えば、図13に示すように、路面に標示された白線43によって区画された駐車領域Rが、車両Cの後方になるような地点で操作すると、図14に示すような目標設定画面44がディスプレイ12に表示される。目標設定画面44には、背景画像45と、背景画像45に重ねられた、略台形状の駐車目標枠(以下、目標枠46という)が表示されている。駐車目標領域及び設定指標としての目標枠46は、駐車の目標となる領域を設定するための指標であって、初期画面では、予め定められた形状及び大きさになっている。そして、目標設定画面44に表示された拡大ボタン47、縮小ボタン48を入力操作すると、目標枠46が拡大又は縮小され、図15の目標設定画面44に示すように、目標枠46の大きさ(形状)を、背景画像45内の白線49に沿うように変化することができる。また、タッチパネル操作等により、目標枠46をスライドさせ、目標枠46の位置を設定できるようになっている。そして、設定ボタン56を操作することにより、目標枠46の大きさ(形状)、位置が確定される。   The target setting button 14a is used to set a parking target area when performing a parking operation. When the target setting button 14a is operated at a point where the parking area R defined by the white line 43 marked on the road surface is behind the vehicle C as shown in FIG. 13, for example, as shown in FIG. A target setting screen 44 is displayed on the display 12. On the target setting screen 44, a background image 45 and a substantially trapezoidal parking target frame (hereinafter referred to as a target frame 46) superimposed on the background image 45 are displayed. A target frame 46 as a parking target area and a setting index is an index for setting a parking target area, and has a predetermined shape and size on the initial screen. When the enlargement button 47 and the reduction button 48 displayed on the target setting screen 44 are input, the target frame 46 is enlarged or reduced. As shown in the target setting screen 44 of FIG. (Shape) can be changed along the white line 49 in the background image 45. Further, the target frame 46 can be slid and the position of the target frame 46 can be set by a touch panel operation or the like. Then, by operating the setting button 56, the size (shape) and position of the target frame 46 are determined.

また、図1に示すように、ナビゲーション装置1は、スピーカ15を備えている。スピーカ15は、制御部3から送信された音声出力信号に基づき、各種案内音声や案内音を出力する。   As shown in FIG. 1, the navigation device 1 includes a speaker 15. The speaker 15 outputs various guidance voices and guidance sounds based on the voice output signal transmitted from the control unit 3.

また、制御装置2は、図1に示すように、変換手段、画像合成手段、目標領域設定手段、車両位置表示手段、座標変換手段及び収差補正手段を構成する画像処理部11を備えている。画像処理部11は、RAM4から画像データGを取得して、画像データGの補正や、画像合成データの生成等を行う。画像データGの補正では、画像処理部11は、各画像データGに生じた、広角レンズによる歪曲収差を補正する。   As shown in FIG. 1, the control device 2 includes an image processing unit 11 that constitutes conversion means, image composition means, target area setting means, vehicle position display means, coordinate conversion means, and aberration correction means. The image processing unit 11 acquires the image data G from the RAM 4 and corrects the image data G, generates image synthesis data, and the like. In the correction of the image data G, the image processing unit 11 corrects distortion aberration caused by the wide-angle lens that has occurred in each image data G.

また、画像処理部11は、図6に示すように、自車位置Aの後方カメラ22の撮像画面30のxy座標系(以下、画面座標系という)上に設定された座標点、即ち画素点の座標
を示す画素座標31を、自車位置Bの撮像画面30内の座標に変換する。このとき、例えば、制御部3により、自車位置Aから自車位置Bまでの車両Cの移動量及び移動方向を求める。そして、画像処理部11により、その移動距離及び移動方位に基づいて、自車位置A内の画素座標31を、平行移動、回転移動等させ、自車位置Bの撮像画面30内の画素座標33に変換する。
Further, as shown in FIG. 6, the image processing unit 11 has coordinate points set on an xy coordinate system (hereinafter referred to as a screen coordinate system) of the imaging screen 30 of the rear camera 22 at the vehicle position A, that is, pixel points. Pixel coordinates 31 indicating the coordinates of the vehicle position B are converted into coordinates in the imaging screen 30 of the vehicle position B. At this time, for example, the control unit 3 obtains the moving amount and moving direction of the vehicle C from the own vehicle position A to the own vehicle position B. Then, the image processing unit 11 causes the pixel coordinates 31 in the own vehicle position A to be translated, rotationally moved, and the like based on the moving distance and moving direction, so that the pixel coordinates 33 in the imaging screen 30 of the own vehicle position B are obtained. Convert to

或いは、例えば、後方カメラ22の光軸Aの角度及び撮像範囲S等に基づき、画面座標系(xy座標系)と車両座標系(XY座標系)との関係式を予め求め、その関係式に基づいて、画素座標31を、車両座標系の座標に変換する。そして、このとき、車両座標系の自車位置を示す中心点25の座標を加味することにより、特定の自車位置(自車位置A)での撮像画面30内の画素座標31を、車両座標系の座標点32に変換する。さらに、車両系座標の座標点32を、上記した関係式により自車位置Bの撮像画面30内の画素座標33に変換する。これにより、自車位置Aで生成した画像データGを、自車位置Bの後方カメラ22のカメラ視点で撮像した画像データGのように変換することができる。   Alternatively, for example, based on the angle of the optical axis A of the rear camera 22 and the imaging range S, a relational expression between the screen coordinate system (xy coordinate system) and the vehicle coordinate system (XY coordinate system) is obtained in advance. Based on this, the pixel coordinates 31 are converted into coordinates in the vehicle coordinate system. At this time, by adding the coordinates of the center point 25 indicating the vehicle position of the vehicle coordinate system, the pixel coordinates 31 in the imaging screen 30 at the specific vehicle position (own vehicle position A) are converted into the vehicle coordinates. Convert to system coordinate point 32. Further, the coordinate point 32 of the vehicle system coordinate is converted into the pixel coordinate 33 in the imaging screen 30 of the vehicle position B by the above relational expression. As a result, the image data G generated at the vehicle position A can be converted as image data G captured from the camera viewpoint of the rear camera 22 at the vehicle position B.

また、画像処理部11は、図14に示す目標設定画面44で目標枠46が設定されると、その目標枠46の画面座標系の座標を取得する。具体的には、画像処理部11は、制御部3を介して入力信号取得部13から入力信号を受信して、図7に示すように、ディスプレイ12の撮像画面30内で、目標枠46の角部の4点にあたる画素座標31a〜31dの座標を取得する。尚、ディスプレイ12の表示領域は、画面座標系内の領域とする。   Further, when the target frame 46 is set on the target setting screen 44 illustrated in FIG. 14, the image processing unit 11 acquires the coordinates of the screen coordinate system of the target frame 46. Specifically, the image processing unit 11 receives an input signal from the input signal acquisition unit 13 via the control unit 3, and the target frame 46 of the target frame 46 is displayed within the imaging screen 30 of the display 12 as illustrated in FIG. 7. The coordinates of pixel coordinates 31a to 31d corresponding to the four points at the corners are acquired. The display area of the display 12 is an area in the screen coordinate system.

また、画像処理部11は、制御部3から、車両Cの基準位置からの移動距離及び移動方位等の移動量を取得して、その移動量に基づき、画素座標31a〜31dを変位させる。例えば、車両Cが、初期位置から駐車領域Rに接近する方向に平行移動した場合には、図7の鎖線で示すように、画素座標31a〜31dをそれぞれ異なる方向に平行移動させて、目標枠46を拡大する。また、車両Cが初期位置から旋回した場合には、図7中1点鎖線で示すように、画素座標31a〜31dを回転移動させて、目標枠46の形状及び位置を変更する。   In addition, the image processing unit 11 acquires a movement amount such as a movement distance and a movement direction from the reference position of the vehicle C from the control unit 3, and displaces the pixel coordinates 31a to 31d based on the movement amount. For example, when the vehicle C is translated from the initial position in a direction approaching the parking area R, the pixel coordinates 31a to 31d are translated in different directions as indicated by the chain lines in FIG. 46 is enlarged. Further, when the vehicle C turns from the initial position, the pixel coordinates 31a to 31d are rotationally moved to change the shape and position of the target frame 46, as indicated by the one-dot chain line in FIG.

また、画像処理部11は、RAM4に蓄積された画像データGのうち、現在の自車位置(以下、現在地点と言う)での画像データG1と、その画像データG1よりも過去に生成及び蓄積された過去画像データG2とを合成する。まず、画像処理部11は、上記したように、車両Cの移動距離及び移動方位に応じて目標枠46を変更し、変更した目標枠46が、画面座標系の撮像画面30(ディスプレイ12の表示領域)内に収容されるか否かを判断する。そして、図8に示すように、目標枠46が、撮像画面30からはみ出すと判断した場合には、そのはみ出し部分46aを含む、補完部分としての画面外領域51の座標を取得する。また、図14に示すように、後方カメラ22は、車両Cの後方バンパーB(図2参照)等の車体の後端部分を撮像しているので、この車両後端画像54にあたる、車両後端範囲55の座標を取得し、画面外領域51に含めるようにする。尚、この車両後端範囲55は、常に一定のデータ領域である。   In addition, the image processing unit 11 generates and accumulates image data G1 at the current vehicle position (hereinafter referred to as the current location) out of the image data G accumulated in the RAM 4 and the image data G1 in the past. The past image data G2 thus synthesized is synthesized. First, as described above, the image processing unit 11 changes the target frame 46 according to the moving distance and moving direction of the vehicle C, and the changed target frame 46 is displayed on the imaging screen 30 (display 12 on the display 12) of the screen coordinate system. It is determined whether it is accommodated in (region). Then, as shown in FIG. 8, when it is determined that the target frame 46 protrudes from the imaging screen 30, the coordinates of the outside-screen region 51 as the complement portion including the protruding portion 46 a are acquired. Further, as shown in FIG. 14, the rear camera 22 images the rear end portion of the vehicle body such as the rear bumper B (see FIG. 2) of the vehicle C, and therefore the rear end of the vehicle corresponding to the rear end image 54 of the vehicle. The coordinates of the range 55 are acquired and included in the off-screen area 51. The vehicle rear end range 55 is always a constant data area.

さらに、その画面外領域51の各画素座標を、上記したように、画面座標系の各画素座標から車両座標系の各座標点に座標変換する。そして、車両座標系の各座標点のデータを制御部3に送信する。制御部3は、その車両座標系の各座標点を撮像範囲データ17内に含む画像データGを、RAM4に蓄積された画像データG内において検索する。該当する過去画像データG2を検出した場合には、その過去画像データG2を読み出す。このとき、その各座標点をそれぞれ部分的に含む、複数の画像データGを読み出してもよい。   Furthermore, each pixel coordinate of the off-screen area 51 is coordinate-converted from each pixel coordinate in the screen coordinate system to each coordinate point in the vehicle coordinate system, as described above. Then, data of each coordinate point in the vehicle coordinate system is transmitted to the control unit 3. The control unit 3 searches the image data G stored in the RAM 4 for image data G that includes the coordinate points of the vehicle coordinate system in the imaging range data 17. When the corresponding past image data G2 is detected, the past image data G2 is read out. At this time, a plurality of image data G partially including the respective coordinate points may be read out.

画像処理部11は、制御部3を介して、現在地点での実際の画像データG1をRAM4から取得する。さらに、図8に示す目標枠46を、図9に示すように撮像画面30内に収
まるように縮小する。そして、そのときの縮小率に基づいて、現在地点での画像データG1を図9に示す縮小範囲52まで縮小し、縮小画像データG1aを生成する。
The image processing unit 11 acquires the actual image data G1 at the current location from the RAM 4 via the control unit 3. Further, the target frame 46 shown in FIG. 8 is reduced to fit within the imaging screen 30 as shown in FIG. Then, based on the reduction rate at that time, the image data G1 at the current point is reduced to the reduction range 52 shown in FIG. 9, and reduced image data G1a is generated.

そして、例えば、1つの過去画像データG2を用いる場合には、図10に模式的に示すように、この縮小画像データG1aを、図9に占めす縮小範囲52と撮像画面30との相対位置に基づいて、過去に生成した過去画像データG2に重ね、画像合成データGAを生成する。これにより、図9の撮像画面30のうち、縮小範囲52以外の領域を、過去画像データG2によって合成する。つまり、過去画像データG2により、図8の画面外領域51に対応する補完範囲53(図9参照)が補完されて、目標枠46を撮像画面30内に収容可能な画像合成データGAが生成される。また、複数の過去画像データG2を用いて画像合成データGAを生成する場合には、複数の過去画像データG2によって、補完範囲53の異なる領域をそれぞれ補完する。   For example, when one piece of past image data G2 is used, the reduced image data G1a is placed at a relative position between the reduced range 52 and the imaging screen 30 shown in FIG. Based on the past image data G2 generated in the past, the image synthesis data GA is generated. Thereby, the area other than the reduction range 52 in the imaging screen 30 of FIG. 9 is synthesized with the past image data G2. That is, the past image data G2 supplements the complement range 53 (see FIG. 9) corresponding to the off-screen region 51 in FIG. 8, and the image composite data GA that can accommodate the target frame 46 in the imaging screen 30 is generated. The Further, when the image composite data GA is generated using a plurality of past image data G2, different areas of the complement range 53 are complemented by the plurality of past image data G2, respectively.

次に、本実施形態の処理手順について、図11及び図12に従って説明する。図11は、画像データ保存処理の手順を示し、図12は、画像合成データ出力処理の手順を示す。尚、制御装置2は、この画像データ保存処理及び画像合成データ出力処理を並行して行う。   Next, the processing procedure of this embodiment is demonstrated according to FIG.11 and FIG.12. FIG. 11 shows the procedure of the image data storing process, and FIG. 12 shows the procedure of the image composite data output process. The control device 2 performs the image data storage process and the image composite data output process in parallel.

図11に示す画像データ保存処理は、制御装置2が、ROM5に格納した画像データ保存プログラムに従って行う処理である。まず、制御部3は、変速機のシフトポジションがリバースであるか否かを判断する(ステップS1−1)。具体的には、制御部3が、I/F部8を介して、シフトセンサ24からシフトポジション信号を取得することにより判断する。   The image data saving process shown in FIG. 11 is a process performed by the control device 2 according to the image data saving program stored in the ROM 5. First, the control unit 3 determines whether or not the shift position of the transmission is reverse (step S1-1). Specifically, the control unit 3 makes a determination by acquiring a shift position signal from the shift sensor 24 via the I / F unit 8.

シフトポジションがリバースでない場合には(ステップS1−1においてNO)、ステップS1−1の判断処理を繰り返す。シフトポジションがリバースであると判断した場合には(ステップS1−1においてYES)、制御部3は、自車位置検出部7から自車位置データ16を取得する(ステップS1−2)。自車位置データ16を取得すると、制御部3は、撮像データ取得部10から画像データGを取得する(ステップS1−3)。そして、現在地点の撮像範囲Sの座標を示す撮像範囲データ17を算出し、自車位置データ16及び撮像範囲データ17と、取得した画像データGとを関連付けて、RAM4に格納する(ステップS1−4)。   If the shift position is not reverse (NO in step S1-1), the determination process in step S1-1 is repeated. When it is determined that the shift position is reverse (YES in step S1-1), the control unit 3 acquires the vehicle position data 16 from the vehicle position detection unit 7 (step S1-2). When the own vehicle position data 16 is acquired, the control unit 3 acquires the image data G from the imaging data acquisition unit 10 (step S1-3). And the imaging range data 17 which shows the coordinate of the imaging range S of the present location is calculated, the own vehicle position data 16 and the imaging range data 17, and the acquired image data G are linked | related, and it stores in RAM4 (step S1-). 4).

そして、制御部3は、I/F部8及び入力信号取得部13が終了トリガがあるか否かを判断し(ステップS1−5)、予め設定した終了トリガがある場合には(ステップS1−5においてYES)、処理を終了する。具体的には、I/F部8を介して、パーキング又はドライブを示すシフトポジション信号の受信や、図示しない車両ECUからのイグニッションモジュールのオフ信号の受信があった場合に処理を終了する。又は、入力信号取得部13を介して、目標設定ボタン14aの入力操作信号を受信した場合に処理を終了する。終了トリガがない場合には(ステップS1−5においてNO)、ステップS1−2に戻って上記した処理を繰り返す。   Then, the control unit 3 determines whether the I / F unit 8 and the input signal acquisition unit 13 have an end trigger (step S1-5), and when there is a preset end trigger (step S1- 5), the process is terminated. Specifically, the process ends when a shift position signal indicating parking or driving or an ignition module off signal from a vehicle ECU (not shown) is received via the I / F unit 8. Alternatively, when the input operation signal of the target setting button 14a is received via the input signal acquisition unit 13, the process is terminated. If there is no end trigger (NO in step S1-5), the process returns to step S1-2 and the above-described processing is repeated.

このようなステップS1−2〜ステップS1−5の処理は、自車位置が数十mm移動した撮像地点、又は数十ミリ秒〜1秒が経過した時点の撮像地点ごとに繰り返し行われる。このため、車両Cがバック走行する際には、RAM4には、互いに連続性のある各画像データGが蓄積されていく。この画像データGは、画像データGの合成だけでなく、図5に示す後方視界画面40をディスプレイ12に表示する際にも使用される。   Such processing of step S1-2 to step S1-5 is repeatedly performed for each imaging point where the vehicle position has moved by several tens of mm or when several tens of milliseconds to one second have elapsed. For this reason, when the vehicle C travels backward, the RAM 4 accumulates the image data G that are continuous with each other. The image data G is used not only for the synthesis of the image data G but also when the rear view screen 40 shown in FIG.

次に、図12に従って、画像合成データ出力処理について説明する。この画像データ合成処理は、制御装置2が、ROM5に格納した合成データ出力プログラムに従って行う処
理である。
Next, the image synthesis data output process will be described with reference to FIG. This image data synthesis process is a process performed by the control device 2 in accordance with a synthesis data output program stored in the ROM 5.

まず、制御部3は、画像データ保存処理と同様に、シフトポジションがリバースであるか否かを判断する(ステップS2−1)。シフトポジションがリバースである場合には(ステップS2−1においてYES)、目標枠46の設定を待つ(ステップS2−2)。詳述すると、制御部3は、目標設定ボタン14aの入力操作を待つ。そして、入力信号を入力信号取得部13から取得した場合に、図14に示す目標設定画面44をディスプレイ12に表示する。さらに、目標設定画面44で、目標枠46が縮小又は拡大され、設定ボタン56が入力操作されると(ステップS2−2においてYES)、上記したように画面座標系での目標枠46の座標を取得し、ステップS2−3に進む。   First, similarly to the image data storage process, the control unit 3 determines whether or not the shift position is reverse (step S2-1). If the shift position is reverse (YES in step S2-1), the process waits for setting of the target frame 46 (step S2-2). Specifically, the control unit 3 waits for an input operation of the target setting button 14a. When the input signal is acquired from the input signal acquisition unit 13, the target setting screen 44 shown in FIG. 14 is displayed on the display 12. Furthermore, when the target frame 46 is reduced or enlarged on the target setting screen 44 and the setting button 56 is input (YES in step S2-2), the coordinates of the target frame 46 in the screen coordinate system are changed as described above. Acquire and go to step S2-3.

目標設定ボタン14aの操作が行われなかったり、目標枠46の設定が完了していない間は(ステップS2−2においてNO)、図5に示す、後方視界画面40や目標設定画面44をディスプレイ12に表示しながら、ステップS2−2の目標設定画面44での目標枠46の設定を待つ。   While the target setting button 14a is not operated or the setting of the target frame 46 is not completed (NO in step S2-2), the rear view screen 40 and the target setting screen 44 shown in FIG. While waiting for the setting of the target frame 46 on the target setting screen 44 in step S2-2.

ステップS2−3では、制御部3は、自車位置データ16を取得する。目標枠46が設定されたときの自車位置データ16は、初期位置として設定される。例えば、図13に示す車両Cの位置で目標枠46が設定されると、その位置を初期位置とする。   In step S <b> 2-3, the control unit 3 acquires the vehicle position data 16. The own vehicle position data 16 when the target frame 46 is set is set as an initial position. For example, when the target frame 46 is set at the position of the vehicle C shown in FIG. 13, that position is set as the initial position.

そして、制御部3は、車両Cの移動量を演算する(ステップS2−4)。このとき、制御部3は、例えば、初期位置からの移動量(移動距離及び移動方位)を算出する。
さらに、制御部3は、移動量を画像処理部11に送信し、上記したように、目標枠46の座標を車両Cの移動量に応じて更新させる(ステップS2−5)。このとき、移動量が所定値以下である場合には、画像処理部11は目標枠46を更新しないようにしてもよい。
And the control part 3 calculates the moving amount | distance of the vehicle C (step S2-4). At this time, for example, the control unit 3 calculates a movement amount (movement distance and movement direction) from the initial position.
Further, the control unit 3 transmits the movement amount to the image processing unit 11, and updates the coordinates of the target frame 46 according to the movement amount of the vehicle C as described above (step S2-5). At this time, if the movement amount is equal to or less than the predetermined value, the image processing unit 11 may not update the target frame 46.

そして、制御部3は、画像処理部11に基づいて、更新した目標枠46の座標が図8に示すように、撮像画面30からはみ出すか否かを判断する(ステップS2−6)。
目標枠46が撮像画面30内に収容されていると判断した場合には(ステップS2−6においてNO)、現在地点の画像データGをRAM4から読出し、車両Cの後方を表示した後方視界画面40を表示しながら、ステップS2−13に進み、終了トリガがあるか否かを判断する。この終了トリガの判断では、画像データ保存処理と同様に、パーキング又はドライブを示すシフトポジション信号、図示しない車両ECUからのイグニッションモジュールのオフ信号、目標設定ボタン14aの操作による入力操作信号の受信の有無に基づく。終了トリガが無い場合には(ステップS2−13においてNO)、ステップS2−3に戻る。
Then, based on the image processing unit 11, the control unit 3 determines whether or not the updated coordinates of the target frame 46 protrude from the imaging screen 30 as shown in FIG. 8 (step S2-6).
If it is determined that the target frame 46 is accommodated in the imaging screen 30 (NO in step S2-6), the image data G at the current location is read from the RAM 4 and the rear view screen 40 displaying the rear of the vehicle C is displayed. , The process proceeds to step S2-13 to determine whether there is an end trigger. In the determination of the end trigger, as in the image data saving process, whether or not a shift position signal indicating parking or driving, an off signal of an ignition module from a vehicle ECU (not shown), or an input operation signal received by operating the target setting button 14a is received. based on. If there is no end trigger (NO in step S2-13), the process returns to step S2-3.

目標枠46が撮像画面30からはみ出すと判断した場合には(ステップS2−6においてYES)、制御部3及び画像処理部11は、はみ出し量に基づき、必要な画像データGを推測する(ステップS2−7)。上記したように、画像処理部11は、目標枠46のはみ出し部分46a、後方バンパーB等の画像にあたる車両後端範囲55を含む画面外領域51の各座標を取得し、その各座標を、車両座標系に座標変換する。そして、その座標のデータを制御部3に送信し、制御部3は、その座標データを撮像範囲データ17内に含む画像データGを検索する。即ち、制御部3は、目標枠46のはみ出し部分46a等を補完するために、その領域を撮像した画像データGを検索する。   When it is determined that the target frame 46 protrudes from the imaging screen 30 (YES in step S2-6), the control unit 3 and the image processing unit 11 estimate necessary image data G based on the amount of protrusion (step S2). -7). As described above, the image processing unit 11 acquires the coordinates of the off-screen region 51 including the vehicle rear end range 55 corresponding to the image of the protruding portion 46a of the target frame 46, the rear bumper B, and the like. Convert coordinates to coordinate system. Then, the coordinate data is transmitted to the control unit 3, and the control unit 3 searches the image data G including the coordinate data in the imaging range data 17. That is, the control unit 3 searches the image data G obtained by imaging the area in order to complement the protruding portion 46a of the target frame 46 and the like.

各画像データGの中から、該当する過去画像データG2を検出すると、制御部3は、その過去画像データG2を読み出す(ステップS2−8)。このとき、制御部3は、例えば、図16に示すような撮像範囲Sを撮像した過去画像データG2を一つ読出す。この過去
画像データG2は、画面外領域51に相当する撮像範囲を全て含んでいる。また、その過去画像データG2に関連付けられた、自車位置データ16及び撮像範囲データ17も読出す。
When the corresponding past image data G2 is detected from each image data G, the control unit 3 reads the past image data G2 (step S2-8). At this time, for example, the control unit 3 reads one piece of past image data G2 obtained by imaging the imaging range S as shown in FIG. The past image data G2 includes the entire imaging range corresponding to the out-of-screen area 51. Also, the vehicle position data 16 and the imaging range data 17 associated with the past image data G2 are read out.

そして、制御部3は、その過去画像データG2、自車位置データ16及び撮像範囲データ17を画像処理部11に送り、画像処理部11により、その過去画像データG2を補正させる(ステップS2−9)。画像処理部11は、まず過去画像データG2の歪曲収差を補正する。そして、画像処理部11は、上記したような方法で、図6に示すように、過去画像データG2に対応する自車位置(自車位置A)での画素座標31を、現在地点(自車位置B)での撮像画面30内の座標に変換する。これにより、他の地点で生成した過去画像データG2を、現在地点の後方カメラ22のカメラ視点で撮像したように変換することができる。   Then, the control unit 3 sends the past image data G2, the own vehicle position data 16 and the imaging range data 17 to the image processing unit 11, and the image processing unit 11 corrects the past image data G2 (step S2-9). ). The image processing unit 11 first corrects the distortion aberration of the past image data G2. Then, as shown in FIG. 6, the image processing unit 11 converts the pixel coordinates 31 at the own vehicle position (own vehicle position A) corresponding to the past image data G2 to the current location (own vehicle) by the method described above. The coordinates are converted into coordinates in the imaging screen 30 at position B). Thereby, it is possible to convert the past image data G2 generated at another point as if it was captured from the camera viewpoint of the rear camera 22 at the current point.

さらに、画像処理部11は、過去画像データG2に対し、色調補正、増減色等の画像加工を行い、現在地点の画像データG1の色調等と異ならせる。これにより、ディスプレイ12に表示された際に、過去画像データG2の画像と、現在地点の画像データG1の画像とを視認により区別できる。   Further, the image processing unit 11 performs image processing such as color tone correction and increase / decrease color on the past image data G2 to make it different from the color tone of the image data G1 at the current location. Thereby, when displayed on the display 12, the image of the past image data G2 and the image of the image data G1 at the current location can be distinguished by visual recognition.

また、画像処理部11は、現在地点の画像データG1を補正する(ステップS2−10)。詳述すると、画像処理部11は、図8のように撮像画面30からはみ出した目標枠46を、図9に示すように撮像画面30内に収まるように縮小する。そして、そのときの縮小率に基づいて、現在地点での画像データG1を図9に示すような縮小範囲52まで縮小し、縮小画像データG1aを生成する。   In addition, the image processing unit 11 corrects the image data G1 at the current location (step S2-10). More specifically, the image processing unit 11 reduces the target frame 46 that protrudes from the imaging screen 30 as shown in FIG. 8 so as to fit within the imaging screen 30 as shown in FIG. Then, based on the reduction rate at that time, the image data G1 at the current point is reduced to the reduction range 52 as shown in FIG. 9, and reduced image data G1a is generated.

そして、画像処理部11は、縮小画像データG1a、過去画像データG2を合成する(ステップS2−11)。例えば、1つの過去画像データG2を用いる場合には、画像処理部11は、図10に示すように、過去画像データG2に、現在地点の縮小画像データG1aを重ね、縮小画像データG1aを表示される側にする。このとき、過去画像データG2は、補完範囲53を補完するように、縮小画像データG1aと重ねられる。その結果、画像合成データGAが生成される。複数の過去画像データG2を用いる場合には、補完範囲53を、複数の過去画像データG2で補完するように、縮小画像データG1aと重ね合わせる。   Then, the image processing unit 11 combines the reduced image data G1a and the past image data G2 (step S2-11). For example, when one piece of past image data G2 is used, the image processing unit 11 displays the reduced image data G1a by superimposing the reduced image data G1a at the current location on the past image data G2, as shown in FIG. On the other side. At this time, the past image data G2 is overlapped with the reduced image data G1a so as to complement the complement range 53. As a result, image synthesis data GA is generated. When a plurality of past image data G2 is used, the complement range 53 is overlapped with the reduced image data G1a so as to be complemented by the plurality of past image data G2.

画像合成データGAを生成すると、制御部3は、その画像合成データGA及び他の指標をディスプレイ12に表示する(ステップS2−12)。画像合成データGAのみを出力した状態では、図17に表示されるような合成画面58がディスプレイ12に表示される。合成画面58には、現在の縮小画像データG1aに基づく現在画像59と、過去画像データG2によって補完された補完画像60と、縮小された目標枠46とが重ねられて表示されている。補完画像60は、過去画像データG2を加工しているため、視認によって現在画像59と識別可能になっている。従って、現在画像59が、現在撮像されている画像だと認識することができるので、現在地点の後方カメラ22の撮像範囲S内に、障害物62(図17参照)が進入してきても、現在画像59によって、それが現時点で進入した障害物であると判断できる。また、補完画像60が、過去の画像であると認識できるので、その補完画像60に対応する実際の場所を目視する等、その領域内の障害物等に特に注意を払うことができる。   When the image composition data GA is generated, the control unit 3 displays the image composition data GA and other indexes on the display 12 (step S2-12). In a state where only the image synthesis data GA is output, a synthesis screen 58 as shown in FIG. 17 is displayed on the display 12. On the composite screen 58, a current image 59 based on the current reduced image data G1a, a complementary image 60 supplemented with the past image data G2, and a reduced target frame 46 are displayed in an overlapping manner. Since the complementary image 60 is obtained by processing the past image data G2, it can be distinguished from the current image 59 by visual recognition. Therefore, since the current image 59 can be recognized as the image currently captured, even if an obstacle 62 (see FIG. 17) enters the imaging range S of the rear camera 22 at the current location, From the image 59, it can be determined that the obstacle has entered at the present time. Further, since the complementary image 60 can be recognized as a past image, it is possible to pay particular attention to obstacles in the region, such as by visually observing the actual location corresponding to the complementary image 60.

画像処理部11は、実際には、ROM5に格納された輪郭描画データ5a(図1参照)を用いて、図17の合成画面58のうち車体の下方にあたる領域に、図18に示すように、車両位置指標としての車両輪郭線61を重ねて描画する。   As shown in FIG. 18, the image processing unit 11 actually uses the contour drawing data 5a (see FIG. 1) stored in the ROM 5 in a region below the vehicle body in the composite screen 58 in FIG. A vehicle outline 61 as a vehicle position index is drawn in an overlapping manner.

輪郭描画データ5aによって描画された車両輪郭線61は、撮像画面30のうち、自車位置に応じた位置に、必要な部分だけ描画される。図18に示す合成画面58aでは、車体の下方にあたる領域、つまり補完画像60によって補完される領域が比較的小さいため、車体の後方(例えば、バンパー、バックドア、トランクのあたり)に相当する車両輪郭線61を、補完画像60(過去画像データG2)の部分に重ねて描画する。これにより、車体の下方にあたる補完画像60が、車体を透過してディスプレイ12に表示されているように見える。運転者は、車両輪郭線61と、目標枠46全体とを視認して、目標枠46との相対位置やずれ量を把握したり、車両Cと障害物62との相対距離を把握する。   The vehicle outline 61 drawn by the outline drawing data 5a is drawn only in a necessary portion at a position corresponding to the vehicle position in the imaging screen 30. In the composite screen 58a shown in FIG. 18, since the area below the vehicle body, that is, the region supplemented by the complementary image 60 is relatively small, the vehicle contour corresponding to the rear of the vehicle body (for example, around the bumper, back door, and trunk). The line 61 is drawn so as to overlap the portion of the complementary image 60 (past image data G2). As a result, the complementary image 60 below the vehicle body appears to be displayed on the display 12 through the vehicle body. The driver visually recognizes the vehicle outline 61 and the entire target frame 46 to grasp the relative position and displacement amount with respect to the target frame 46 and grasp the relative distance between the vehicle C and the obstacle 62.

また、制御部3は、ステアリングセンサ23から舵角検出信号を受信して、画像合成データGAに、予想軌跡線41及び車幅延長線42を表示する。ここでは、操舵が行われていないため、予想軌跡線41上に車幅延長線42が重なって表示されている。   Further, the control unit 3 receives the steering angle detection signal from the steering sensor 23, and displays the expected trajectory line 41 and the vehicle width extension line 42 in the image composition data GA. Here, since steering is not performed, the vehicle width extension line 42 is displayed so as to overlap the expected trajectory line 41.

次に、制御部3は、終了トリガがあるか否かを判断する(ステップS2−13)。終了トリガがあると(ステップS2−13においてYES)、そのまま処理を終了する。終了トリガが無いと判断すると(ステップS2−13においてNO)、ステップS2−3に戻る。そして、上記した処理を繰り返す。   Next, the control unit 3 determines whether or not there is an end trigger (step S2-13). If there is an end trigger (YES in step S2-13), the process ends as it is. If it is determined that there is no end trigger (NO in step S2-13), the process returns to step S2-3. Then, the above process is repeated.

上記した処理を何回か繰り返し、車体の約半分が駐車領域Rに進入すると、図19に示すような合成画面63が表示される(ステップS2−12)。合成画面63は、現在画像64、補完画像65、車両輪郭線61が表示されている。この合成画面63において、車両輪郭線61は、車体の外形を示す外郭描画線66、各後輪を示す後輪描画線67とから構成されている。即ち、車両Cが駐車領域Rに向かってバック走行するに従って、撮像画面30のうち、補完画像65の割合が多くなり、現時点の画像である現在画像59の表示範囲(縮小範囲52)が狭められて行く。そして、補完画像65の表示範囲(補完範囲53)の割合が増えると同時に、車両輪郭線61が示す車体の描画範囲が、図中y矢印方向(車両Cの進行方向)に向かって拡大し、車体の全体が車両輪郭線61によって徐々に表示されていく。尚、実際の合成画面63では、予想軌跡線41、車幅延長線42も表示されているが、ここでは図示を省略する。   When the above process is repeated several times and about half of the vehicle body enters the parking area R, a composite screen 63 as shown in FIG. 19 is displayed (step S2-12). The composition screen 63 displays a current image 64, a complementary image 65, and a vehicle outline 61. In the composite screen 63, the vehicle outline 61 is composed of an outline drawing line 66 indicating the outer shape of the vehicle body and a rear wheel drawing line 67 indicating each rear wheel. That is, as the vehicle C travels back toward the parking area R, the ratio of the complementary image 65 increases in the imaging screen 30, and the display range (reduction range 52) of the current image 59 that is the current image is narrowed. Go. And the ratio of the display range (complementary range 53) of the complementary image 65 increases, and at the same time, the drawing range of the vehicle body indicated by the vehicle outline 61 expands in the direction of the arrow y (the traveling direction of the vehicle C) in the figure, The entire vehicle body is gradually displayed by the vehicle outline 61. In the actual synthesis screen 63, an expected trajectory line 41 and a vehicle width extension line 42 are also displayed, but are not shown here.

さらに、車体全体が駐車領域R(目標枠46)内に進入すると、図20に示すような合成画面68がディスプレイ12に表示される(ステップS2−12)。合成画面68では、現在画像69、補完画像70、車両輪郭線61が表示されている。車両輪郭線61としては、外郭描画線66、後輪描画線67の他、前輪描画線71が表示されている。このため、この車両輪郭線61によって、車体が目標枠46に沿って真っ直ぐであるかどうかを確認できる。このように、車両輪郭線61が目標枠46に収められると、運転者は、シフトチェンジ、エンジンの停止、目標設定ボタン14aの操作を行い、制御部3は終了トリガがあると判断し(ステップS2−13)、画像合成データ出力処理を終了する。   Furthermore, when the entire vehicle body enters the parking area R (target frame 46), a composite screen 68 as shown in FIG. 20 is displayed on the display 12 (step S2-12). On the composite screen 68, a current image 69, a complementary image 70, and a vehicle outline 61 are displayed. As the vehicle outline 61, a front wheel drawing line 71 is displayed in addition to the outer drawing line 66 and the rear wheel drawing line 67. For this reason, it can be confirmed by this vehicle outline 61 whether the vehicle body is straight along the target frame 46. Thus, when the vehicle outline 61 is stored in the target frame 46, the driver performs a shift change, engine stop, and operation of the target setting button 14a, and the control unit 3 determines that there is an end trigger (step) S2-13) The image synthesis data output process is terminated.

上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、ナビゲーション装置1の制御装置2は、車両Cの後方カメラ22により生成された画像データGを、各撮像地点で取得するようにした。また、制御装置2の制御部3は、取得した画像データGを、自車位置検出部7から取得した自車位置データ16、撮像範囲データ17と関連付けてRAM4に格納するようにした。また、制御部3及び画像処理部11により、目標設定画面44で予め設定された駐車領域R(目標枠46)の座標を、現在地点の車両の位置に応じて変換するようにした。さらに、画像処理部11により、車両Cの位置に応じて変換された目標枠46が、撮像画面30からはみ出すか否かを判断し、はみ出すと判断した場合に、補完が必要な領域(画面外領域51)の座標を演算するようにした。また、画像処理部11及び制御部3により、RAM4に格納された各画像データGのうち、画面外領域51の座標と関連付けられた過去画像データG
2を読み出し、過去画像データG2により現在地点で生成した画像データG1を補完させることにより、目標枠46が撮像画面30内に含まれた画像合成データGAを生成するようにした。そして、制御部3により、画像合成データGAをディスプレイ12に表示するようにした。
According to the above embodiment, the following effects can be obtained.
(1) In the above embodiment, the control device 2 of the navigation device 1 acquires the image data G generated by the rear camera 22 of the vehicle C at each imaging point. Further, the control unit 3 of the control device 2 stores the acquired image data G in the RAM 4 in association with the own vehicle position data 16 and the imaging range data 17 acquired from the own vehicle position detection unit 7. Further, the coordinates of the parking area R (target frame 46) set in advance on the target setting screen 44 are converted by the control unit 3 and the image processing unit 11 in accordance with the position of the vehicle at the current location. Further, the image processing unit 11 determines whether or not the target frame 46 converted according to the position of the vehicle C protrudes from the imaging screen 30. The coordinates of the area 51) are calculated. The past image data G associated with the coordinates of the off-screen region 51 among the image data G stored in the RAM 4 by the image processing unit 11 and the control unit 3.
2 is read and the image data G1 generated at the current point is complemented by the past image data G2, thereby generating the image composite data GA in which the target frame 46 is included in the imaging screen 30. Then, the control unit 3 displays the image composition data GA on the display 12.

従って、例えば車両Cが駐車領域R内に進入し、後方カメラ22により駐車領域Rの全体を撮像できなくなっても、目標枠46が画面からはみ出す部分にあたる画像を、過去画像データG2で補完することにより、目標枠46全体をディスプレイ12に表示できる。従って、運転者は、車両Cが駐車領域R内に進入し、駐車領域Rが車体の下方に位置するようになっても、駐車領域Rの全体(目標枠46全体)をディスプレイ12で視認することができる。このため、車体が、その駐車領域Rからずれたり、曲がったりすることのないように、車両Cを駐車させることができる。   Therefore, for example, even when the vehicle C enters the parking area R and the rear camera 22 cannot capture the entire parking area R, the past image data G2 supplements the image corresponding to the portion where the target frame 46 protrudes from the screen. Thus, the entire target frame 46 can be displayed on the display 12. Accordingly, the driver visually recognizes the entire parking area R (the entire target frame 46) on the display 12 even when the vehicle C enters the parking area R and the parking area R is positioned below the vehicle body. be able to. For this reason, the vehicle C can be parked so that the vehicle body does not deviate or bend from the parking area R.

(2)上記実施形態では、制御部3及び画像処理部11は、ディスプレイ12に、駐車領域Rを設定するための目標枠46を目標設定画面44上に表示するようにした。さらに、運転者による、目標枠46の位置又は形状又は大きさを指定する入力操作に基づいて、駐車領域R(目標枠46)の画面座標系の座標を決定するようにした。このため、運転者は、画面の任意の場所に駐車領域Rを設定することができる。   (2) In the embodiment described above, the control unit 3 and the image processing unit 11 display the target frame 46 for setting the parking area R on the target setting screen 44 on the display 12. Furthermore, the coordinates of the screen coordinate system of the parking area R (target frame 46) are determined based on an input operation for designating the position, shape, or size of the target frame 46 by the driver. For this reason, the driver can set the parking area R at any place on the screen.

(3)上記実施形態では、制御部3及び画像処理部11は、画像合成データGAと重ねて、現在地点の自車位置に応じた車両輪郭線61を合成画面58a,63,68に表示するようにした。このため、車両Cの位置と、駐車領域R(目標枠46)とのずれ量を把握し易くすることができるので、車両Cを駐車領域R内に、より確実に誘導することができる。   (3) In the above embodiment, the control unit 3 and the image processing unit 11 display the vehicle contour line 61 corresponding to the current vehicle position on the synthesis screen 58a, 63, 68, superimposed on the image synthesis data GA. I did it. For this reason, since it is possible to easily grasp the amount of deviation between the position of the vehicle C and the parking area R (target frame 46), the vehicle C can be more reliably guided into the parking area R.

(4)上記実施形態では、画像処理部11は、目標枠46の縮小率や、過去画像データG2が補完する補完範囲53に応じて、現在地点で生成した画像データG1を縮小し、過去画像データG2の補完範囲53以外の領域に重ねて合成するようにした。このため、ディスプレイ12に合成画面58a,63,68を表示した際に、画像の連続性を良好にすることができる。   (4) In the above embodiment, the image processing unit 11 reduces the image data G1 generated at the current point according to the reduction rate of the target frame 46 and the complement range 53 that the past image data G2 complements, and the past image The data G2 is combined with an area other than the complementary range 53. For this reason, when the composite screens 58a, 63, and 68 are displayed on the display 12, the continuity of images can be improved.

(5)上記実施形態では、撮像データ取得部10は、車両Cの後端部に設けられた後方カメラ22から、車両Cの後方の撮像範囲Sを撮像した画像データGを取得するようにした。このため、車両Cが駐車領域Rに向ってバックした際に、車両C後方を撮像した画像データGを用いて画像合成データGAを生成して、運転操作が難しい場合に駐車支援を行うため、特に効果を発揮できる。   (5) In the above embodiment, the imaging data acquisition unit 10 acquires the image data G obtained by imaging the imaging range S behind the vehicle C from the rear camera 22 provided at the rear end of the vehicle C. . For this reason, when the vehicle C backs toward the parking area R, the image synthesis data GA is generated using the image data G obtained by imaging the rear of the vehicle C, and parking assistance is performed when the driving operation is difficult. Especially effective.

(6)上記実施形態では、画像処理部11は、各画像データGの歪曲収差を補正するようにした。このため各画像データGを合成し、ディスプレイ12に表示した際に、画像の連続性を良好にすることができるので、ユーザに違和感を与えないようにすることができる。   (6) In the above embodiment, the image processing unit 11 corrects the distortion aberration of each image data G. For this reason, when the image data G are combined and displayed on the display 12, the continuity of the images can be improved, and the user can be prevented from feeling uncomfortable.

(7)上記実施形態では、RAM4から読出した各過去画像データG2を、現在地点での撮像画面30の画面座標系に変換するようにした。このため、異なるカメラ視点で撮像して生成した画像データを、現在地点のカメラ視点で撮像した画像データG1のように変換できるので、合成画面58a,63,68として表示した際に、画像の連続性をより良好にすることができる。   (7) In the above embodiment, each past image data G2 read from the RAM 4 is converted into the screen coordinate system of the imaging screen 30 at the current location. For this reason, image data generated by imaging from different camera viewpoints can be converted as image data G1 imaged from the camera viewpoint at the current location, so that when displayed as the composite screen 58a, 63, 68, continuous images are displayed. The property can be made better.

(8)上記実施形態では、画像合成データGAがディスプレイ12に表示された際に、現在地点で生成された画像データG1に基づく画像と、過去画像データG2に基づく画像
が視認によって判別可能となるように画像加工し、過去の画像が表示されていることを警告するようにした。このため、合成画面58a,63,68のうち、補完した領域と、現在地点での画像の領域とを判別できるので、運転者に、例えば、車両Cの側方等、過去の画像に相当する場所に対する注意を促すことができる。従って、運転者は、過去の画像に相当する場所を実際に目視して、注意を払い、障害物と車両Cとの衝突等の事故を未然に防ぐことができる。
(8) In the above embodiment, when the image composite data GA is displayed on the display 12, an image based on the image data G1 generated at the current location and an image based on the past image data G2 can be discriminated by visual recognition. The image was processed in such a way as to warn that a past image is displayed. For this reason, it is possible to distinguish between the supplemented area and the area of the image at the current point in the combined screens 58a, 63, and 68, which corresponds to the driver, for example, a past image such as the side of the vehicle C. You can call attention to the place. Therefore, the driver can visually observe the place corresponding to the past image, pay attention, and prevent an accident such as a collision between the obstacle and the vehicle C in advance.

(9)上記実施形態では、駐車支援装置を、自車位置検出部7を備えるナビゲーション装置1に具体化したので、精度の高い自車位置検出機能を利用して、画像データGの保存及びその画像データGの合成を行うことができる。このため、自車位置データ16を有効利用して、画像連続性の良好な合成画面58a,63,68をディスプレイ12に表示することができる。   (9) In the above embodiment, since the parking assistance device is embodied in the navigation device 1 including the own vehicle position detection unit 7, the image data G can be stored and its data can be stored using a highly accurate own vehicle position detection function. The image data G can be synthesized. For this reason, it is possible to display the composite screens 58a, 63, and 68 with good image continuity on the display 12 by effectively using the vehicle position data 16.

尚、上記各実施形態は以下のように変更してもよい。
・上記実施形態では、車両Cが並列駐車する場合についてのみ説明したが、縦列駐車する場合に、目標枠46が撮像画面30からはみ出した場合に、過去画像データG2を用いて、現在の画像データG1を補完してもよい。
In addition, you may change each said embodiment as follows.
In the above embodiment, only the case where the vehicle C is parked in parallel has been described. However, when the target frame 46 protrudes from the imaging screen 30 in the case of parallel parking, the current image data is used using the past image data G2. G1 may be complemented.

・上記実施形態の目標設定ボタン14aは、シフトポジションがリバースになった際に、ディスプレイ12上に表示される操作ボタンでもよい。
・上記実施形態では、制御装置2は、画像データ保存処理及び画像合成データ出力処理の際に、目標設定ボタン14aの入力操作信号の受信、又はシフトポジションがリバースになった初期位置を基準点(ゼロ地点)として、車速及び方位のみによって基準点からの相対位置を自車位置として検出するようにしてもよい。
The target setting button 14a of the above embodiment may be an operation button displayed on the display 12 when the shift position is reversed.
In the above embodiment, the control device 2 receives the input operation signal of the target setting button 14a or the initial position where the shift position is reversed during the image data storage process and the image synthesis data output process. As a zero point), the relative position from the reference point may be detected as the vehicle position only by the vehicle speed and direction.

・上記実施形態では、初期状態の目標枠46を縮小又は拡大することで、駐車目標領域を設定するようにしたが、目標設定画面44上で、任意の4点又は辺の位置等を決定することで目標枠46を生成するようにしてもよい。   In the above embodiment, the parking target area is set by reducing or enlarging the target frame 46 in the initial state. However, on the target setting screen 44, arbitrary four points or positions of sides are determined. Thus, the target frame 46 may be generated.

・上記実施形態では、目標枠46によって駐車目標領域を設定したが、画像データGの画像処理、又は白線43を検知するセンサを用いて、路面の白線43を検出し、制御装置2が、検出された白線43から所定の距離(例えば、内側15cm)までを自動的に駐車目標領域として設定してもよい。   In the above embodiment, the parking target area is set by the target frame 46, but the white line 43 on the road surface is detected using the image processing of the image data G or a sensor that detects the white line 43, and the control device 2 detects A predetermined distance (for example, 15 cm on the inner side) from the white line 43 may be automatically set as the parking target area.

・上記実施形態では、目標設定画面44で設定された目標枠46を、車両Cの移動量に基づき、目標枠46の画素座標を変更して、変更した目標枠46が、画面座標系の撮像画面30(ディスプレイ12の表示領域)内に収容されるか否かを判断した。これ以外に、所定のタイミング、例えば、車両Cが所定距離移動する毎、又は所定時間毎に、路面の白線43を検出して目標枠46を設定し、設定された目標枠46の画素座標が画面座標系の撮像画面30(ディスプレイ12の表示領域)内に収容されるか否かを判断してもよい。この場合、移動量に基づく座標変換処理を不要とすることができる。   In the above embodiment, the target frame 46 set on the target setting screen 44 is changed in the pixel coordinates of the target frame 46 based on the movement amount of the vehicle C, and the changed target frame 46 is captured in the screen coordinate system. It was determined whether or not it was accommodated in the screen 30 (display area of the display 12). In addition to this, every time the vehicle C moves a predetermined distance or every predetermined time, the white line 43 on the road surface is detected and the target frame 46 is set, and the pixel coordinates of the set target frame 46 are It may be determined whether or not it is accommodated in the imaging screen 30 (display area of the display 12) in the screen coordinate system. In this case, coordinate conversion processing based on the movement amount can be made unnecessary.

・上記実施形態では、車両Cが後退する際に、目標枠46をディスプレイ12の画面に表示するようにしたが、目標枠46をディスプレイ12に表示せず、予め取得した目標枠46の座標が撮像画面30からはみ出すか否かを判断するようにしてもよい。このとき、目標枠46を、目標設定画面44のみに表示して、その位置等をユーザにより設定可能とし、車両Cが後退を始めたり、所定距離だけ移動した際に、目標枠46を消去するようにしてもよい。また、上記したように、制御装置2が、白線43を検出し、自動的に目標枠46を設定するようにしてもよい。このようにすると、画面に、車幅延長線42、予想軌跡線41、車両輪郭線61等の各種指標を表示する場合に、画面が煩雑になるのを抑制し
、画面を見やすくすることができる。
In the above embodiment, when the vehicle C moves backward, the target frame 46 is displayed on the screen of the display 12. However, the target frame 46 is not displayed on the display 12, and the coordinates of the target frame 46 acquired in advance are You may make it judge whether it protrudes from the imaging screen 30. FIG. At this time, the target frame 46 is displayed only on the target setting screen 44 and its position and the like can be set by the user. When the vehicle C starts to move backward or moves a predetermined distance, the target frame 46 is deleted. You may do it. Further, as described above, the control device 2 may detect the white line 43 and automatically set the target frame 46. In this way, when various indicators such as the vehicle width extension line 42, the predicted trajectory line 41, and the vehicle contour line 61 are displayed on the screen, it is possible to suppress the screen from becoming complicated and make the screen easier to see. .

・上記実施形態では、自車位置データ16に基づいて撮像範囲データ17を予め算出し、その撮像範囲データ17を画像データGに関連付けてRAM4に格納したが、撮像範囲データ17は予め算出せず、画像データGには少なくとも自車位置データ16が関連付けられていればよい。そして、合成する過去の過去画像データG2を読み出す際に、自車位置データ16に基づいて、目標枠46のはみ出し部分のデータを含む画像データGであるかどうかを算出するようにしてもよい。   In the above embodiment, the imaging range data 17 is calculated in advance based on the vehicle position data 16, and the imaging range data 17 is stored in the RAM 4 in association with the image data G. However, the imaging range data 17 is not calculated in advance. The image data G only needs to be associated with at least the vehicle position data 16. Then, when reading past past image data G2 to be synthesized, based on the own vehicle position data 16, it may be calculated whether the image data G includes the data of the protruding portion of the target frame 46.

・上記実施形態では、図4に示すようなデータ構成で画像データGをRAM4に格納するのではなく、画像データGの識別子と、自車位置データ16とからなる属性データを格納したテーブルを生成し、そのテーブルをRAM4に格納するようにしてもよい。   In the above embodiment, the image data G is not stored in the RAM 4 with the data structure as shown in FIG. 4, but a table storing attribute data including the identifier of the image data G and the vehicle position data 16 is generated. The table may be stored in the RAM 4.

・上記実施形態では、目標枠46内に、車両輪郭線61等の車体の大きさを示す描画線全てが収容された時に、制御部3又は画像処理部11により終了トリガがある(ステップS2−13においてYES)と判断してもよい。   In the above embodiment, when all the drawing lines indicating the size of the vehicle body such as the vehicle outline 61 are accommodated in the target frame 46, the control unit 3 or the image processing unit 11 generates an end trigger (step S2- 13 may be determined as YES).

・上記実施形態では、車両位置指標としては、車両輪郭線61以外に、画面内で車両Cの占める領域を示す車両占有領域や、後車軸の中心点や重心点等、車両の所定の位置を示す点でもよい。   In the above embodiment, as the vehicle position index, in addition to the vehicle contour line 61, a vehicle occupation area indicating an area occupied by the vehicle C in the screen, a center position of the rear axle, a center point of the center of the vehicle, and the like are used. It may be a point to show.

・上記実施形態では、画像処理部11は、歪曲収差の補正を省略するようにしてもよい。
・上記実施形態では、自車位置は、後車軸の中心点25としたが、重心位置等、その他の車両Cの所定の位置でよい。
In the above embodiment, the image processing unit 11 may omit correction of distortion.
In the above embodiment, the vehicle position is the center point 25 of the rear axle, but may be a predetermined position of the other vehicle C such as the center of gravity position.

・上記実施形態では、現在地点と異なる地点で生成された画像データGを、現在地点の撮像画面30の画面座標系の座標に変換する座標変換を省略してもよい。このようにすると、制御装置2の負担を軽減できる。   In the above embodiment, the coordinate conversion for converting the image data G generated at a point different from the current point to the coordinates of the screen coordinate system of the imaging screen 30 at the current point may be omitted. In this way, the burden on the control device 2 can be reduced.

・後方カメラ22は、車両Cの車体後端のいずれの位置に設けてもよい。また、後方カメラ22は、車両Cの前端、側端、車室内に取り付けられてもよい。この場合にも、このカメラによって生成された画像データGを使用して、車体の下方の領域を表示することができるため、車両C前方の見えにくい障害物を視認しやすくすることができる。また、車両周辺を撮像するカメラは、1つではなく、複数でもよい。   The rear camera 22 may be provided at any position on the rear end of the vehicle C. Further, the rear camera 22 may be attached to the front end, the side end, or the passenger compartment of the vehicle C. Also in this case, since the area below the vehicle body can be displayed using the image data G generated by this camera, it is possible to make it easier to visually recognize an obstacle that is difficult to see in front of the vehicle C. In addition, the number of cameras that capture the periphery of the vehicle is not limited to one.

・上記実施形態では、駐車支援装置を経路案内を行うナビゲーション装置1に具体化したが、経路案内を省略した装置としてもよい。この場合、地図データ記憶部9、スピーカ15が省略される。   In the above embodiment, the parking assistance device is embodied as the navigation device 1 that performs route guidance, but may be a device that omits route guidance. In this case, the map data storage unit 9 and the speaker 15 are omitted.

本実施形態のナビゲーション装置の構成を説明するブロック図。The block diagram explaining the structure of the navigation apparatus of this embodiment. 車両に配設された後方カメラの取付位置を説明する説明図。Explanatory drawing explaining the attachment position of the rear camera arrange | positioned at the vehicle. 同後方カメラの撮像範囲を説明する説明図。Explanatory drawing explaining the imaging range of the back camera. RAMに蓄積される画像データのデータ構成を説明する説明図。Explanatory drawing explaining the data structure of the image data accumulate | stored in RAM. 同ナビゲーション装置のディスプレイに表示される画面の説明図。Explanatory drawing of the screen displayed on the display of the navigation apparatus. 本実施形態の座標変換処理の説明図。Explanatory drawing of the coordinate transformation process of this embodiment. 本実施形態の目標枠の更新処理の説明図。Explanatory drawing of the update process of the target frame of this embodiment. 更新された目標枠と撮像画面との関係を説明する説明図。Explanatory drawing explaining the relationship between the updated target frame and an imaging screen. 縮小された目標枠、撮像画面、補完される範囲の関係を説明する説明図。Explanatory drawing explaining the relationship between the reduced target frame, an imaging screen, and the range complemented. 縮小画像データと過去画像データとの合成の概念図。The conceptual diagram of a synthesis | combination with reduced image data and past image data. 本実施形態の画像データ保存処理の処理手順の説明図。Explanatory drawing of the process sequence of the image data preservation | save process of this embodiment. 本実施形態の画像合成データ出力処理の処理手順の説明図。Explanatory drawing of the process sequence of the image synthetic data output process of this embodiment. 撮像又は目標設定を行う車両位置を説明する説明図。Explanatory drawing explaining the vehicle position which performs an imaging or target setting. 目標設定画面の初期状態の説明図。Explanatory drawing of the initial state of a target setting screen. 目標設定画面の設定時の説明図。Explanatory drawing at the time of the setting of a target setting screen. 画面外領域を含む過去画像データの説明図。Explanatory drawing of the past image data containing an area outside a screen. 縮小画像データと過去画像データとを単に重ねた状態の合成画面の説明図。Explanatory drawing of the synthetic | combination screen of the state which just overlapped the reduced image data and the past image data. ディスプレイに表示される合成画面の説明図。Explanatory drawing of the composite screen displayed on a display. 駐車目標領域への進入開始時点における合成画面の説明図。Explanatory drawing of the synthetic | combination screen at the time of the approach start to a parking target area | region. 駐車目標領域への進入終了時点における合成画面の説明図。Explanatory drawing of the synthetic | combination screen at the time of the completion of approach to a parking target area | region.

符号の説明Explanation of symbols

1…駐車支援装置としてのナビゲーション装置、3…画像取得手段、位置特定手段、変換手段、画像データ読出手段、画像合成手段、表示制御手段、目標領域設定手段、車両位置表示手段、座標変換手段及び収差補正手段を構成する制御部、4…画像データ記憶手段としてのRAM、7…位置特定手段を構成する自車位置検出部、10…画像取得手段を構成する撮像データ取得部、11…変換手段、画像合成手段、目標領域設定手段、車両位置表示手段を構成する画像処理部、座標変換手段及び収差補正手段を構成する画像処理部、12…表示手段としてのディスプレイ、22…撮像装置としての後方カメラ、40…周辺視界画面としての後方視界画面、46…設定指標としての目標枠、51…補完部分としての画面外領域、58,58a,63,68…合成画面、61…車両位置指標としての車両輪郭線、C…車両、G,G1,G2…画像データ、G2…過去画像データ、GA…画像合成データ、R…駐車目標領域、S…周辺視界としての撮像範囲。   DESCRIPTION OF SYMBOLS 1 ... Navigation apparatus as parking assistance apparatus, 3 ... Image acquisition means, position specification means, conversion means, image data reading means, image composition means, display control means, target area setting means, vehicle position display means, coordinate conversion means, Control unit constituting aberration correction means, 4... RAM as image data storage means, 7... Self-vehicle position detection part constituting position specifying means, 10... Imaging data obtaining part constituting image obtaining means, 11. , Image synthesizing means, target area setting means, image processing section constituting vehicle position display means, image processing section constituting coordinate conversion means and aberration correction means, 12 ... display as display means, 22 ... rear as imaging device Camera, 40 ... rear view screen as peripheral view screen, 46 ... target frame as setting index, 51 ... off-screen region as complementary portion, 58, 58a, 3, 68 ... Composite screen, 61 ... Vehicle contour line as vehicle position index, C ... Vehicle, G, G1, G2 ... Image data, G2: Past image data, GA ... Image composite data, R ... Parking target area, S ... the imaging range as the peripheral field of view.

Claims (13)

車両の位置を特定する位置特定手段と、画像データを表示する表示手段と、制御手段とを用い、駐車操作を支援する駐車支援方法であって、
前記制御手段が、
前記車両に設けられた撮像装置から、前記車両の周辺を撮像した画像データを各撮像地点で取得し、前記各撮像地点での前記車両の位置と関連付けて画像データ記憶手段に格納する工程と、
駐車目標領域を設定する工程と、
設定された前記駐車目標領域が、前記表示手段の画面からはみ出す場合に、少なくともはみ出した部分を補完する補完部分を含む過去画像データを、前記画像データ記憶手段から読み出す工程と、
読出した前記過去画像データにより、前記現在の前記画像データを補完させて合成し、前記駐車目標領域全体を含む画像合成データを生成し、前記画像合成データを前記表示手段に表示する工程と
を有することを特徴とする駐車支援方法。
A parking support method for supporting a parking operation using a position specifying means for specifying a position of a vehicle, a display means for displaying image data, and a control means,
The control means is
Acquiring image data obtained by imaging the periphery of the vehicle at each imaging point from an imaging device provided in the vehicle, and storing the data in an image data storage unit in association with the position of the vehicle at each imaging point;
A step of setting a parking target area;
When the set parking target area protrudes from the screen of the display means, reading out past image data including at least a complementary part that complements the protruding part from the image data storage means;
A step of complementing and synthesizing the current image data with the read past image data, generating image synthesis data including the entire parking target area, and displaying the image synthesis data on the display means. A parking assistance method characterized by that.
請求項1に記載の駐車支援方法において、
前記制御手段が、設定された前記駐車目標領域を表す座標を、前記車両の移動に応じて変換する工程をさらに有し、
変換した前記駐車目標領域の座標が、前記表示手段の画面からはみ出す場合に、少なくともはみ出した部分を補完する前記補完部分を含む前記過去画像データを、前記画像データ記憶手段から読み出し、その過去画像データを用いて前記画像合成データを生成することを特徴とする駐車支援方法。
In the parking assistance method according to claim 1,
The control means further includes a step of converting coordinates representing the set parking target area according to movement of the vehicle,
When the converted coordinates of the parking target area protrude from the screen of the display means, the past image data including the complement portion that complements at least the protruding portion is read from the image data storage means, and the past image data A parking support method, wherein the image composite data is generated using a camera.
請求項2に記載の駐車支援方法において、
前記制御手段が、前記駐車目標領域の座標を、前記表示手段に表示される画面の座標に変換することを特徴とする駐車支援方法。
In the parking assistance method according to claim 2,
The parking support method, wherein the control means converts coordinates of the parking target area into coordinates of a screen displayed on the display means.
車両に設けられた撮像装置から、前記車両の周辺を撮像した画像データを、各撮像地点で取得する画像取得手段と、
前記画像データを出力して画面を表示する表示手段と、
前記車両の位置を特定する位置特定手段と、
前記各撮像地点で生成した前記画像データを、前記各撮像地点での前記車両の位置と関連付けて格納する画像データ記憶手段と、
駐車目標領域を設定する設定手段と、
設定した前記駐車目標領域が、前記表示手段の画面からはみ出す場合に、少なくともはみ出した部分を補完する補完部分を含む過去画像データを、前記画像データ記憶手段から読み出す画像データ読出手段と、
現在地点の前記画像データと、前記過去画像データの前記補完部分とを合成し、前記駐車目標領域を含む画像合成データを生成する画像合成手段と、
前記画像合成データを出力して合成画面を前記表示手段に表示する表示制御手段と
を備えたことを特徴とする駐車支援装置。
Image acquisition means for acquiring image data obtained by imaging the periphery of the vehicle at each imaging point from an imaging device provided in the vehicle;
Display means for displaying the screen by outputting the image data;
Position specifying means for specifying the position of the vehicle;
Image data storage means for storing the image data generated at each imaging point in association with the position of the vehicle at each imaging point;
A setting means for setting a parking target area;
When the set parking target area protrudes from the screen of the display means, image data reading means for reading past image data including at least a complementary portion that complements the protruding portion from the image data storage means;
Image synthesizing means for synthesizing the image data of the current location and the complementary portion of the past image data, and generating image synthesis data including the parking target area;
A parking support apparatus comprising: display control means for outputting the image composition data and displaying a composite screen on the display means.
請求項4に記載の駐車支援装置において、
設定された前記駐車目標領域を表す座標を、前記車両の移動に応じて変換する変換手段をさらに有し、
前記画像合成手段は、
変換した前記駐車目標領域の座標が、前記表示手段の画面からはみ出す場合に、少なくともはみ出した部分を補完する前記補完部分を含む前記過去画像データを、前記画像デー
タ記憶手段から読み出し、その過去画像データを用いて前記画像合成データを生成することを特徴とする駐車支援装置。
In the parking assistance device according to claim 4,
Further comprising conversion means for converting the coordinates representing the set parking target area according to the movement of the vehicle;
The image composition means includes
When the converted coordinates of the parking target area protrude from the screen of the display means, the past image data including the complement portion that complements at least the protruding portion is read from the image data storage means, and the past image data The parking assistance device, wherein the image synthesis data is generated using a camera.
請求項5に記載の駐車支援装置において、
前記変換手段は、
前記駐車目標領域の座標を、前記表示手段に表示される画面の座標に変換することを特徴とする駐車支援装置。
In the parking assistance device according to claim 5,
The converting means includes
A parking assistance device, wherein coordinates of the parking target area are converted into coordinates of a screen displayed on the display means.
請求項4〜6のいずれか1項に記載の駐車支援装置において、
前記設定手段は、
前記表示手段に表示される画面に、前記駐車目標領域を設定するための設定指標を表示するとともに、前記設定指標の位置又は形状又は大きさを指定する入力信号に基づいて、前記駐車目標領域の位置又は形状又は大きさを決定することを特徴とする駐車支援装置。
In the parking assistance device according to any one of claims 4 to 6,
The setting means includes
On the screen displayed on the display means, a setting index for setting the parking target area is displayed, and based on an input signal designating the position, shape or size of the setting index, the parking target area A parking assistance device that determines a position, a shape, or a size.
請求項4〜7のいずれか1項に記載の駐車支援装置において、
現在の前記車両の位置を示す車両位置指標を、前記合成画面内の前記車両の位置に応じた位置に表示する車両位置表示手段をさらに備えたことを特徴とする駐車支援装置。
In the parking assistance device according to any one of claims 4 to 7,
A parking assist device further comprising vehicle position display means for displaying a vehicle position index indicating the current position of the vehicle at a position corresponding to the position of the vehicle in the composite screen.
請求項4〜8のいずれか1項に記載の駐車支援装置において、
前記画像合成手段は、
前記過去画像データによる前記補完部分に応じて、現在地点で生成した前記画像データを縮小することを特徴とする駐車支援装置。
In the parking assistance device according to any one of claims 4 to 8,
The image composition means includes
The parking assist device according to claim 1, wherein the image data generated at a current location is reduced in accordance with the complemented portion based on the past image data.
請求項4〜9のいずれか1項に記載の駐車支援装置において、
前記各撮像地点で生成した前記過去画像データの座標を、現在地点で前記表示手段に表示される画面内の座標に変換する座標変換手段を備えたことを特徴とする駐車支援装置。
In the parking assistance device according to any one of claims 4 to 9,
A parking assistance device comprising coordinate conversion means for converting the coordinates of the past image data generated at each imaging point into coordinates on the screen displayed on the display means at the current point.
請求項4〜10のいずれか1項に記載の駐車支援装置において、
前記画像データ及び前記過去画像データの歪曲収差を補正する収差補正手段をさらに備えたことを特徴とする駐車支援装置。
In the parking assistance device according to any one of claims 4 to 10,
A parking assist device, further comprising an aberration correction unit that corrects distortion aberration of the image data and the past image data.
請求項4〜11のいずれか1項に記載の駐車支援装置において、
前記画像合成手段は、
前記合成画面が表示された際に、現在の前記画像データに基づく画像と、前記過去画像データに基づく画像とを視認によって判別可能となるように、前記画像合成データを加工することを特徴とする駐車支援装置。
In the parking assistance device according to any one of claims 4 to 11,
The image composition means includes
When the composite screen is displayed, the image composite data is processed so that an image based on the current image data and an image based on the past image data can be discriminated by visual recognition. Parking assistance device.
請求項4〜12のいずれか1項に記載の駐車支援装置において、
前記画像取得手段は、前記車両の後方に設けられた前記撮像装置から、前記車両の後方周辺を撮像した前記画像データを取得することを特徴とする駐車支援装置。
In the parking assistance device according to any one of claims 4 to 12,
The parking support device, wherein the image acquisition means acquires the image data obtained by imaging the rear periphery of the vehicle from the imaging device provided at the rear of the vehicle.
JP2005125436A 2005-04-22 2005-04-22 Parking support method and parking support device Expired - Fee Related JP4595649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005125436A JP4595649B2 (en) 2005-04-22 2005-04-22 Parking support method and parking support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005125436A JP4595649B2 (en) 2005-04-22 2005-04-22 Parking support method and parking support device

Publications (2)

Publication Number Publication Date
JP2006298256A true JP2006298256A (en) 2006-11-02
JP4595649B2 JP4595649B2 (en) 2010-12-08

Family

ID=37466825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005125436A Expired - Fee Related JP4595649B2 (en) 2005-04-22 2005-04-22 Parking support method and parking support device

Country Status (1)

Country Link
JP (1) JP4595649B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009151053A1 (en) * 2008-06-10 2009-12-17 日産自動車株式会社 Parking assist apparatus and parking assist method
GB2469438A (en) * 2009-03-09 2010-10-20 Applic Solutions Displaying movement of an object
JP2012030797A (en) * 2011-11-14 2012-02-16 Nissan Motor Co Ltd Parking assistance device and method
JP2012051574A (en) * 2011-11-14 2012-03-15 Nissan Motor Co Ltd Device and method for parking support
WO2017217422A1 (en) * 2016-06-13 2017-12-21 株式会社デンソー Image generation device and program
WO2020170835A1 (en) * 2019-02-18 2020-08-27 ソニー株式会社 Information processing device, information processing method, and information processing program
CN111791801A (en) * 2019-04-04 2020-10-20 中科创达(重庆)汽车科技有限公司 Method and device for calibrating dynamic reversing auxiliary line display position in real time and electronic equipment
CN116923147A (en) * 2023-09-18 2023-10-24 合肥有感科技有限责任公司 Wireless charging vehicle guiding and positioning method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002029314A (en) * 2000-07-12 2002-01-29 Nissan Motor Co Ltd Parking support device
JP2003209835A (en) * 2002-01-11 2003-07-25 Clarion Co Ltd Monitoring device for surrounding of vehicle
JP2004254219A (en) * 2003-02-21 2004-09-09 Denso Corp Vehicular surrounding image processing apparatus and program, and recording medium
JP2005001570A (en) * 2003-06-12 2005-01-06 Equos Research Co Ltd Parking support device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002029314A (en) * 2000-07-12 2002-01-29 Nissan Motor Co Ltd Parking support device
JP2003209835A (en) * 2002-01-11 2003-07-25 Clarion Co Ltd Monitoring device for surrounding of vehicle
JP2004254219A (en) * 2003-02-21 2004-09-09 Denso Corp Vehicular surrounding image processing apparatus and program, and recording medium
JP2005001570A (en) * 2003-06-12 2005-01-06 Equos Research Co Ltd Parking support device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009151053A1 (en) * 2008-06-10 2009-12-17 日産自動車株式会社 Parking assist apparatus and parking assist method
JP2009298178A (en) * 2008-06-10 2009-12-24 Nissan Motor Co Ltd Parking assistant device and parking assistant method
US8803707B2 (en) 2008-06-10 2014-08-12 Nissan Motor Co., Ltd. Parking assistance system and parking assistance method
GB2469438A (en) * 2009-03-09 2010-10-20 Applic Solutions Displaying movement of an object
GB2469438B (en) * 2009-03-09 2014-04-09 Applic Solutions Electronics & Vision Ltd Display movement of an object
JP2012030797A (en) * 2011-11-14 2012-02-16 Nissan Motor Co Ltd Parking assistance device and method
JP2012051574A (en) * 2011-11-14 2012-03-15 Nissan Motor Co Ltd Device and method for parking support
JP2017224881A (en) * 2016-06-13 2017-12-21 株式会社デンソー Image generating apparatus and program
WO2017217422A1 (en) * 2016-06-13 2017-12-21 株式会社デンソー Image generation device and program
WO2020170835A1 (en) * 2019-02-18 2020-08-27 ソニー株式会社 Information processing device, information processing method, and information processing program
JPWO2020170835A1 (en) * 2019-02-18 2021-12-23 ソニーグループ株式会社 Information processing equipment, information processing methods and information processing programs
JP7371679B2 (en) 2019-02-18 2023-10-31 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
US12131404B2 (en) 2019-02-18 2024-10-29 Sony Group Corporation Information processing device, information processing method, and information processing program
CN111791801A (en) * 2019-04-04 2020-10-20 中科创达(重庆)汽车科技有限公司 Method and device for calibrating dynamic reversing auxiliary line display position in real time and electronic equipment
CN111791801B (en) * 2019-04-04 2023-09-26 中科创达(重庆)汽车科技有限公司 Method and device for calibrating display position of dynamic reversing auxiliary line in real time and electronic equipment
CN116923147A (en) * 2023-09-18 2023-10-24 合肥有感科技有限责任公司 Wireless charging vehicle guiding and positioning method
CN116923147B (en) * 2023-09-18 2023-12-08 合肥有感科技有限责任公司 Wireless charging vehicle guiding and positioning method

Also Published As

Publication number Publication date
JP4595649B2 (en) 2010-12-08

Similar Documents

Publication Publication Date Title
JP4561479B2 (en) Parking support method and parking support device
US7363130B2 (en) Parking assist systems, methods, and programs
US7680570B2 (en) Parking assist devices, methods, and programs
EP1777498B1 (en) Vehicle moving distance detecting method, vehicle moving distance detecting device, current vehicle position detecting method, and current vehicle position detecting device
US20070147664A1 (en) Driving assist method and driving assist apparatus
JP4914458B2 (en) Vehicle periphery display device
JP2007099261A (en) Parking assistance method and parking assistance device
JP2006298115A (en) Driving-support method and driving-support device
JP4904997B2 (en) Parking support method and parking support device
CN103140377A (en) Method for displaying images on a display device and driver assistance system
JP2007269060A (en) Drive assisting method and drive assisting device
JP5549235B2 (en) Driving assistance device
JP2007226300A (en) Driving support method and driving support device
JP2008099201A (en) Method and device for supporting driving
JP4595649B2 (en) Parking support method and parking support device
JP4696691B2 (en) Parking support method and parking support device
JP2014199677A (en) Driving supporting device
JP2006298258A (en) Parking supporting method and parking supporting device
JP4670460B2 (en) Parking support method and parking support device
JP4561470B2 (en) Parking assistance device
JP4561512B2 (en) Parking support method and parking support device
JP2006306241A (en) Parking assisting method and parking assisting device
JP2005233712A (en) Position display system
JP4946045B2 (en) Image display method and driving support device
JP4650142B2 (en) Parking support method and parking support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100824

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100906

R150 Certificate of patent or registration of utility model

Ref document number: 4595649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141001

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees