[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6519408B2 - Display device for vehicle and display method for vehicle - Google Patents

Display device for vehicle and display method for vehicle Download PDF

Info

Publication number
JP6519408B2
JP6519408B2 JP2015167709A JP2015167709A JP6519408B2 JP 6519408 B2 JP6519408 B2 JP 6519408B2 JP 2015167709 A JP2015167709 A JP 2015167709A JP 2015167709 A JP2015167709 A JP 2015167709A JP 6519408 B2 JP6519408 B2 JP 6519408B2
Authority
JP
Japan
Prior art keywords
image
vehicle
distance
unit
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015167709A
Other languages
Japanese (ja)
Other versions
JP2017043230A (en
Inventor
山田 康夫
康夫 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2015167709A priority Critical patent/JP6519408B2/en
Priority to CN201680025389.2A priority patent/CN107531182B/en
Priority to PCT/JP2016/066186 priority patent/WO2017033518A1/en
Priority to EP16838865.0A priority patent/EP3342644B1/en
Publication of JP2017043230A publication Critical patent/JP2017043230A/en
Priority to US15/845,267 priority patent/US10427683B2/en
Application granted granted Critical
Publication of JP6519408B2 publication Critical patent/JP6519408B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両用表示技術に関し、特に画像を表示する車両用表示装置および車両用表示方法に関する。   The present invention relates to display technology for vehicles, and more particularly to a display apparatus for vehicles displaying an image and a display method for vehicles.

車両の複数個所にカメラを設置する場合がある。その際、撮影された画像を視点変換して合成することによって、俯瞰画像が生成される(例えば、特許文献1参照)。   Cameras may be installed at multiple locations on the vehicle. At that time, the overhead image is generated by subjecting the photographed image to viewpoint conversion and combining (for example, see Patent Document 1).

特開2012−217000号公報Unexamined-Japanese-Patent No. 2012-217000

視点変換では、上下方向の位置の差がある物体間の距離を正確に表すことができず、違和感を生じたり、物体までの距離を正確に把握できなかったりする場合がある。例えば、複数の車両を並べて駐車する駐車場において、後退により駐車区画への駐車を行う場合、後方の車両の端部直下に駐車枠線があっても、視点変換を行った画像では、枠線と後方の車両には距離があるように見えてしまう。このような場合、後方の車両の端部直下の枠線が、自車の駐車範囲を示す枠線である場合、後方にある車両までの距離が適切に把握できない。   In the viewpoint conversion, the distance between objects having a difference in position in the vertical direction can not be accurately represented, which may cause discomfort or the distance to the object may not be accurately grasped. For example, in a parking lot where a plurality of vehicles are lined up and parked, when parking is performed in a parking section by retreating, a frame line is displayed in the viewpoint converted image even if there is a parking frame line right under the end of the rear vehicle. It seems that there is a distance to the rear vehicle. In such a case, if the frame line immediately below the end of the rear vehicle is a frame line indicating the parking range of the vehicle, the distance to the vehicle behind can not be grasped appropriately.

本発明はこうした状況に鑑みてなされたものであり、その目的は、視点変換を行う場合に、物体までの距離を正確に反映する技術を提供することである。   The present invention has been made in view of these circumstances, and it is an object of the present invention to provide a technique for accurately reflecting the distance to an object when performing viewpoint conversion.

上記課題を解決するために、本発明のある態様の車両用表示装置は、車両の周辺を撮像した画像を取得する画像取得部と、画像取得部において取得した画像に撮像された物体との距離を取得する距離取得部と、距離取得部において取得した距離に応じて、画像取得部において取得した画像に含まれた模様であって、かつ物体の下方に位置する模様を画像から消去する画像処理部と、画像処理部において模様を消去した画像に対して、車両の上方から見たように視点を変換する視点変換処理部と、視点変換処理部において変換した画像を表示部に表示させる表示処理部と、を備える。   In order to solve the above problems, a display apparatus for a vehicle according to an aspect of the present invention includes a distance between an image acquisition unit that acquires an image obtained by imaging the periphery of the vehicle and an object imaged in the image acquired by the image acquisition unit. Image processing for deleting from the image a pattern included in the image acquired by the image acquisition unit and being located below the object according to the distance acquisition unit acquiring the image and the distance acquired by the distance acquisition unit Display processing for causing the display unit to display an image converted by the viewpoint conversion processing unit, and a viewpoint conversion processing unit converting the viewpoint as seen from above the vehicle with respect to the image in which the pattern is erased in the image processing unit And a unit.

本発明の別の態様は、車両用表示方法である。この方法は、車両の周辺を撮像した画像を取得するステップと、取得した画像に撮像された物体との距離を取得するステップと、取得した距離に応じて、取得した画像に含まれた模様であって、かつ物体の下方に位置する模様を画像から消去するステップと、模様を消去した画像に対して、車両の上方から見たように視点を変換するステップと、変換した画像を表示部に表示させるステップと、を備える。   Another aspect of the present invention is a display method for a vehicle. This method includes the steps of acquiring an image obtained by imaging the periphery of a vehicle, acquiring a distance to an object imaged in the acquired image, and a pattern included in the acquired image according to the acquired distance. And removing the pattern located below the object from the image, converting the viewpoint of the image from which the pattern has been removed as viewed from above the vehicle, and converting the converted image to the display unit And displaying.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   Note that arbitrary combinations of the above-described components, and conversions of the expression of the present invention among methods, apparatuses, systems, recording media, computer programs and the like are also effective as aspects of the present invention.

本発明によれば、視点変換を行う場合に、物体までの距離を正確に反映できる。   According to the present invention, when performing viewpoint conversion, the distance to an object can be accurately reflected.

本発明の実施例に係る車両の周辺に形成される撮像範囲を示す斜視図である。It is a perspective view showing the imaging range formed around the vehicles concerning the example of the present invention. 図2(a)−(b)は、本発明の実施例の比較対象における処理の概要を示す図である。FIGS. 2 (a) and 2 (b) are diagrams showing an outline of processing in the comparison object of the embodiment of the present invention. 本発明の実施例に係る車両用表示装置の構成を示す図である。It is a figure showing composition of a display for vehicles concerning an example of the present invention. 図3の後方撮像部において撮像された画像を示す図である。It is a figure which shows the image imaged in the back imaging part of FIG. 図5(a)−(b)は、図3の車両用表示装置における処理の概要を示す図である。FIGS. 5 (a) and 5 (b) are diagrams showing an outline of processing in the vehicle display device of FIG. 図6(a)−(b)は、図3の車両用表示装置における別の処理の概要を示す図である。FIGS. 6 (a) and 6 (b) are diagrams showing an outline of another process in the vehicle display device of FIG. 図3の車両用表示装置による表示手順を示すフローチャートである。It is a flowchart which shows the display procedure by the display apparatus for vehicles of FIG. 図3の車両用表示装置による別の表示手順を示すフローチャートである。It is a flowchart which shows another display procedure by the display apparatus for vehicles of FIG.

本発明を具体的に説明する前に、まず前提を説明する。本発明の実施例は、車両に設置された複数の撮像部において撮像した画像に対して、視点変換により俯瞰画像を生成し、生成した俯瞰画像を表示する車両用表示装置に関する。複数の車両を並べて駐車する駐車場において後退により駐車区画への駐車を行う場合、後方の他車両の端部直下に描画された駐車枠線は、上方から見ると他車両に隠れて見えないはずである。しかしながら、視点変換によって生成した俯瞰画像において、駐車枠線が他車両に隠れず、本車両側に近づいて配置されることがある。そのため、運転者には、駐車枠線からさらに離れて、後方の他車両が存在するように見えてしまい、後方にある他の車両までの距離が適切に把握できない。   Before the present invention is specifically described, the premise is first described. The embodiment of the present invention relates to a display apparatus for a vehicle that generates a bird's-eye view image by performing viewpoint conversion on images captured by a plurality of imaging units installed in a vehicle, and displays the generated bird's-eye view image. When parking in a parking area by moving backwards in a parking lot where a plurality of vehicles are parked side by side, the parking frame line drawn immediately below the end of another vehicle behind should be invisible to the other vehicle when viewed from above It is. However, in the overhead image generated by the viewpoint conversion, the parking frame line may be located closer to the main vehicle without being hidden by other vehicles. Therefore, the driver may look further away from the parking frame line as if there is another vehicle behind, and the distance to the other vehicle behind can not be properly grasped.

これに対応するために、本実施例に係る車両用表示装置は、車両の設置された複数の撮像部において撮像した車両周辺画像から他車両のような物体を検出するとともに、検出した物体までの距離を取得する。また、車両用表示装置は、距離がしきい値よりも短い場合、他車両の物体の下方に位置する駐車枠線を画像から消去する。さらに、車両用表示装置は、駐車枠線を消去した画像に対して、視点変換を実行することによって俯瞰画像を生成し、生成した俯瞰画像を表示する。   In order to cope with this, the display apparatus for a vehicle according to the present embodiment detects an object such as another vehicle from a vehicle peripheral image captured by a plurality of imaging units in which the vehicle is installed, and detects up to the detected object. Get the distance. Further, when the distance is shorter than the threshold value, the vehicle display device erases the parking frame line located below the object of the other vehicle from the image. Furthermore, the display apparatus for vehicles produces | generates a bird's-eye view image by performing viewpoint conversion with respect to the image which eliminated the parking frame line, and displays the produced | generated bird's-eye view image.

以下、本発明の実施例について、図面を参照しつつ説明する。かかる実施例に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、本発明に直接関係のない要素は図示を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The specific numerical values and the like shown in the examples are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the specification and the drawings, elements having substantially the same functions and configurations will be denoted by the same reference numerals to omit repeated description, and elements not directly related to the present invention will not be illustrated. .

図1は、本発明の実施例に係る車両100の周辺に形成される撮像範囲を示す斜視図である。車両100の前方部分、例えばバンパー、ボンネット等には、前方撮像部12が設置される。前方撮像部12は、前方撮像部12から前方に向かうように前方撮像領域20を形成し、前方撮像領域20において画像を撮像する。車両の左側方部分、例えば、左側ドアミラーの下部等には、左側方撮像部14が設置される。左側方撮像部14は、左側方撮像部14から左方に向かうように左側方撮像領域22を形成し、左側方撮像領域22において画像を撮像する。   FIG. 1 is a perspective view showing an imaging range formed around a vehicle 100 according to an embodiment of the present invention. A front imaging unit 12 is installed at a front portion of the vehicle 100, for example, a bumper, a bonnet or the like. The front imaging unit 12 forms a front imaging area 20 so as to move forward from the front imaging unit 12 and captures an image in the front imaging area 20. The left side imaging unit 14 is installed on the left side portion of the vehicle, for example, the lower portion of the left side door mirror or the like. The left side imaging unit 14 forms the left side imaging region 22 so as to be directed leftward from the left side imaging unit 14 and captures an image in the left side imaging region 22.

車両の後方部分、例えば、バンパー、トランク等には、後方撮像部16が設置される。後方撮像部16は、後方撮像部16から後方に向かうように後方撮像領域24を形成し、後方撮像領域24において画像を撮像する。左側方撮像部14と左右対称になるように、車両の右側部分には、図示しない右側方撮像部18が設置される。右側方撮像部18は、右側方撮像部18から右方に向かうように、右側方撮像領域26を形成し、右側方撮像領域26において画像を撮像する。前方撮像部12、左側方撮像部14、後方撮像部16および右側方撮像部18を撮像部10とし、撮像部10において撮像した画像によって、車両100の周辺が撮像される。   A rear imaging unit 16 is installed at a rear portion of the vehicle, for example, a bumper, a trunk or the like. The rear imaging unit 16 forms a rear imaging area 24 so as to face the rear from the rear imaging unit 16 and captures an image in the rear imaging area 24. A right side imaging unit 18 (not shown) is installed on the right side of the vehicle so as to be symmetrical with the left side imaging unit 14. The right side imaging unit 18 forms the right side imaging region 26 so as to be directed rightward from the right side imaging unit 18 and captures an image in the right side imaging region 26. The front imaging unit 12, the left side imaging unit 14, the rear imaging unit 16, and the right side imaging unit 18 are used as the imaging unit 10, and the periphery of the vehicle 100 is imaged by an image captured by the imaging unit 10.

図2(a)−(b)は、本発明の実施例の比較対象における処理の概要を示す。比較対象では、図1に示すように、車両100に設置された撮像部10において画像を撮像する場合を想定する。一方、比較対象では、画像に対する視点変換により俯瞰画像を生成するための処理が、これまでなされていた処理に相当する。図2(a)は、図1の車両100を左側方から見た場合を示す。前述のごとく、車両100の後方部分には後方撮像部16が設置されている。また、車両100の後方には、他車両110が駐車あるいは停車している。さらに、地面には枠線30が描画されており、枠線30は、他車両110の前方端部の下に存在する。そのため、車両100、他車両110を上方から見下ろした場合、枠線30は他車両110に隠れる。一方、後方撮像部16は、撮像範囲32を有しているので、後方撮像部16によって撮像された画像には、他車両110の前方端部、枠線30が含まれる。   FIGS. 2 (a)-(b) show an outline of processing in the comparison object of the embodiment of the present invention. In the comparison target, as shown in FIG. 1, it is assumed that an image is captured by the imaging unit 10 installed in the vehicle 100. On the other hand, in the comparison object, the processing for generating a bird's-eye view image by viewpoint conversion on the image corresponds to the processing performed so far. FIG. 2A shows a case where the vehicle 100 of FIG. 1 is viewed from the left side. As described above, the rear imaging unit 16 is installed at the rear portion of the vehicle 100. In the rear of the vehicle 100, another vehicle 110 is parked or stopped. Furthermore, a frame line 30 is drawn on the ground, and the frame line 30 exists below the front end of the other vehicle 110. Therefore, when the vehicle 100 and the other vehicle 110 are viewed from above, the frame line 30 is hidden by the other vehicle 110. On the other hand, since the rear imaging unit 16 has the imaging range 32, the image captured by the rear imaging unit 16 includes the front end portion of the other vehicle 110 and the frame line 30.

図2(b)は、撮像部10において撮像した画像に対して、視点変換を実行して生成した俯瞰画像48を示す。前述のごとく、俯瞰画像48を生成するための処理には、これまでなされていた処理が実行されている。俯瞰画像48の中央部分には、車両100が配置される。車両100の前方には前方画像40が配置され、車両100の左側方には左側方画像42が配置され、車両100の後方には後方画像44が配置され、車両100の右側方には右側方画像46が配置される。特に、後方画像44は、図2(a)における撮像範囲32を撮像した画像をもとに生成されている。そのため、後方画像44では、車両100の後方に他車両110が配置されるとともに、車両100と他車両110との間に枠線30が配置される。つまり、本来、他車両110に隠れるはずの枠線30が、他車両110に隠れなくなり、俯瞰画像48と実際の状況とが異なる。   FIG. 2 (b) shows a bird's-eye view image 48 generated by performing viewpoint conversion on the image captured by the imaging unit 10. As described above, in the processing for generating the overhead image 48, the processing that has been performed up to this point is executed. The vehicle 100 is disposed in the central portion of the overhead image 48. A front image 40 is disposed in front of the vehicle 100, a left side image 42 is disposed on the left side of the vehicle 100, a rear image 44 is disposed on the rear of the vehicle 100, and a right side An image 46 is placed. In particular, the rear image 44 is generated based on an image obtained by imaging the imaging range 32 in FIG. Therefore, in the rear image 44, the other vehicle 110 is disposed behind the vehicle 100, and the frame 30 is disposed between the vehicle 100 and the other vehicle 110. That is, the frame line 30 which should originally be hidden by the other vehicle 110 does not hide by the other vehicle 110, and the overhead image 48 and the actual situation are different.

図3は、本発明の実施例に係る車両用表示装置50の構成を示す。車両用表示装置50は、撮像部10を構成する前方撮像部12、左側方撮像部14、後方撮像部16、右側方撮像部18に接続される。車両用表示装置50は、画像取得部52、距離取得部54、画像処理部56、視点変換処理部58、表示処理部60、表示部62を含む。   FIG. 3 shows the configuration of a display device 50 for a vehicle according to an embodiment of the present invention. The vehicular display device 50 is connected to the front imaging unit 12, the left side imaging unit 14, the rear imaging unit 16, and the right side imaging unit 18 which constitute the imaging unit 10. Vehicle display device 50 includes an image acquisition unit 52, a distance acquisition unit 54, an image processing unit 56, a viewpoint conversion processing unit 58, a display processing unit 60, and a display unit 62.

前方撮像部12、左側方撮像部14、後方撮像部16、右側方撮像部18は、前述のごとく、画像を撮像する。画像は動画像であるが、静止画像であってもよい。前方撮像部12、左側方撮像部14、後方撮像部16、右側方撮像部18は、画像を画像取得部52に出力する。   The front imaging unit 12, the left side imaging unit 14, the rear imaging unit 16, and the right side imaging unit 18 capture an image as described above. The image is a moving image, but may be a still image. The front imaging unit 12, the left side imaging unit 14, the rear imaging unit 16, and the right side imaging unit 18 output an image to the image acquisition unit 52.

画像取得部52は、前方撮像部12、左側方撮像部14、後方撮像部16、右側方撮像部18のそれぞれから画像を入力する。つまり、画像取得部52は、車両100の周辺を撮像した画像を取得する。図4は、後方撮像部16において撮像された画像の例を示す。図4に示す画像の例は、説明を容易にするために、撮像部10の各々が広角撮影可能なカメラであることによる画像の歪みは表していない。ここで、図2(a)のごとく、車両100の後方に他車両110が駐車しており、他車両110の下方の地面に枠線30が描写されているとする。画像には、他車両110と枠線30とが含まれている。図3に戻る。画像取得部52は、取得した画像を距離取得部54に出力する。   The image acquisition unit 52 inputs an image from each of the front imaging unit 12, the left side imaging unit 14, the rear imaging unit 16, and the right side imaging unit 18. That is, the image acquisition unit 52 acquires an image obtained by imaging the periphery of the vehicle 100. FIG. 4 illustrates an example of an image captured by the rear imaging unit 16. The example of the image shown in FIG. 4 does not show the distortion of the image due to the fact that each of the imaging units 10 is a camera capable of wide-angle shooting, for ease of explanation. Here, as shown in FIG. 2A, it is assumed that another vehicle 110 is parked at the rear of the vehicle 100 and a frame line 30 is drawn on the ground below the other vehicle 110. The image includes the other vehicle 110 and the frame 30. Return to FIG. The image acquisition unit 52 outputs the acquired image to the distance acquisition unit 54.

距離取得部54は、画像取得部52からの画像を入力する。以下では、説明を明瞭にするために、後方撮像部16において撮像した画像に対する処理を説明するが、他の画像に対しても同様の処理がなされればよい。距離取得部54は、画像に対して、エッジ検出処理を実行する。エッジ検出処理は、特徴検出や特徴抽出の一種であり、画像の明るさが不連続に変化している箇所を特定するためのアルゴリズムであるので、画像に含まれた物体、例えば他車両110を検出する。また、距離取得部54は、エッジ検出処理によって、画像に含まれた模様、例えば、枠線30も検出する。なお、エッジ検出処理は公知の技術であるので、ここでは詳細な説明を省略する。ここでいう枠線30は、一般的には路面に描画された白線であり、撮像した画像に基づく公知の白線検出技術が適用可能である。また、枠線30ではなく縁石である場合も同様である。   The distance acquisition unit 54 inputs the image from the image acquisition unit 52. In the following, although processing on an image captured by the rear imaging unit 16 will be described in order to clarify the description, similar processing may be performed on other images. The distance acquisition unit 54 executes edge detection processing on the image. The edge detection process is a type of feature detection or feature extraction, and is an algorithm for identifying a portion where the brightness of an image is discontinuously changing. To detect. Further, the distance acquisition unit 54 also detects a pattern included in the image, for example, the frame line 30 by edge detection processing. In addition, since the edge detection processing is a known technique, the detailed description is omitted here. The frame line 30 referred to here is generally a white line drawn on a road surface, and a known white line detection technique based on a captured image can be applied. Moreover, it is the same as when the frame 30 is not the frame but the curb.

距離取得部54は、検出した物体との距離を取得する。距離取得部54において距離を取得する対象となる物体は、例えば、他車両110である。物体との測距には、公知の技術が使用されればよいが、例えば、ステレオ測距、二眼カメラが使用される。これは、複数の光学系間に生じる視差を算出し、視差をもとに、物体までの距離を測定する。この場合、後方撮像部16には、複数の光学系が備えられる。また、物体との測距に、距離センサが使用されてもよい。図示しない距離センサが、後方撮像部16の近傍に備えられており、距離センサは、赤外光やレーザ光などを物体に照射してから、その反射光を受光することによって、結像位置情報から距離を算出する。距離センサには、ミリ波などを用いてもよい。   The distance acquisition unit 54 acquires the distance to the detected object. An object which is a target for which the distance acquisition unit 54 acquires a distance is, for example, the other vehicle 110. For distance measurement with an object, known techniques may be used, and for example, stereo distance measurement and a twin-lens camera are used. This calculates the parallax which arises between a plurality of optical systems, and measures the distance to the object based on the parallax. In this case, the rear imaging unit 16 is provided with a plurality of optical systems. In addition, a distance sensor may be used for distance measurement with an object. A distance sensor (not shown) is provided in the vicinity of the rear imaging unit 16. The distance sensor irradiates the object with infrared light, laser light or the like to the object, and then receives the reflected light to obtain the imaging position information. Calculate the distance from A millimeter wave or the like may be used as the distance sensor.

また、物体との測距に、ベクトル検出処理が使用されてもよい。ベクトル検出処理は、画像中の特定点を検出するとともに、特定点のベクトル移動量を算出することによって、物体との距離を測定する。図5(a)−(b)は、車両用表示装置50における処理の概要を示す。図5(a)は、図2(a)と同様に示される。距離取得部54は、距離「d1」を測定する。図5(b)は後述し、図3に戻る。距離取得部54は、取得した距離と、画像とを画像処理部56に出力する。また、距離取得部54は、検出した物体、模様に関する情報も画像処理部56に出力する。   Also, vector detection processing may be used for distance measurement with an object. The vector detection process detects the specific point in the image and measures the distance to the object by calculating the amount of vector movement of the specific point. 5 (a) and 5 (b) show an outline of processing in the display device 50 for a vehicle. FIG. 5 (a) is shown similarly to FIG. 2 (a). The distance acquisition unit 54 measures the distance "d1". FIG. 5 (b) will be described later and returns to FIG. 3. The distance acquisition unit 54 outputs the acquired distance and the image to the image processing unit 56. The distance acquisition unit 54 also outputs information on the detected object and pattern to the image processing unit 56.

画像処理部56は、距離取得部54から距離と画像とを入力する。また、画像処理部56は、距離取得部54から、物体、模様に関する情報も入力する。距離取得部54は、物体、模様に関する情報をもとに、模様が物体の下方に存在するか否かを判定する。図4の場合、模様である枠線30が、物体である他車両110の下方に存在する。つまり、距離取得部54は、画像上において、模様が物体の下方に存在する場合、模様が物体の下方に存在すると判定する。模様が物体の下方に存在する場合、画像処理部56は、下記の処理を実行する。   The image processing unit 56 inputs the distance and the image from the distance acquisition unit 54. The image processing unit 56 also receives, from the distance acquisition unit 54, information on objects and patterns. The distance acquisition unit 54 determines, based on the information on the object and the pattern, whether or not the pattern exists below the object. In the case of FIG. 4, the frame line 30 which is a pattern exists below the other vehicle 110 which is an object. That is, the distance acquiring unit 54 determines that the pattern exists below the object when the pattern exists below the object on the image. When the pattern exists below the object, the image processing unit 56 executes the following processing.

画像処理部56は、しきい値を予め保持しており、入力した距離としきい値とを比較する。距離がしきい値よりも短い場合に、画像処理部56は、画像に含まれた模様であって、かつ物体の下方に位置する模様を画像から消去する。図4の場合、画像処理部56は、地面に描画された枠線30を画像から消去する。また、図5(a)に示した距離d1がしきい値よりも短ければ、画像処理部56は枠線30を消去する。つまり、距離取得部54は、取得した距離に応じて、模様を画像から消去する。画像処理部56は、画像を視点変換処理部58に出力する。   The image processing unit 56 holds the threshold in advance, and compares the input distance with the threshold. If the distance is shorter than the threshold value, the image processing unit 56 deletes from the image a pattern included in the image and located below the object. In the case of FIG. 4, the image processing unit 56 deletes the frame line 30 drawn on the ground from the image. Further, if the distance d1 shown in FIG. 5A is shorter than the threshold value, the image processing unit 56 deletes the frame line 30. That is, the distance acquisition unit 54 deletes the pattern from the image according to the acquired distance. The image processing unit 56 outputs the image to the viewpoint conversion processing unit 58.

視点変換処理部58は、画像処理部56から画像を入力する。視点変換処理部58は、画像に対して、車両100の上方から見たように視点を変換する。当該変換には、公知の技術が使用されればよいが、例えば、仮想的な三次元空間における立体曲面に画像の各画素を投影するとともに、車両100の上方からの仮想視点に応じて、立体曲面の必要な領域を切り出す。切り出した領域が、視点を変換した画像に相当する。視点を変換した画像の一例が、図5(b)である。図5(b)における俯瞰画像78の中央部分には、車両100が配置される。車両100の前方には前方画像70が配置され、車両100の左側方には左側方画像72が配置され、車両100の後方には後方画像74が配置され、車両100の右側方には右側方画像76が配置される。特に、後方画像74には、既に消去された枠線30が含まれていない。   The viewpoint conversion processing unit 58 receives an image from the image processing unit 56. The viewpoint conversion processing unit 58 converts the viewpoint of the image as viewed from above the vehicle 100. Although a known technique may be used for the conversion, for example, each pixel of the image is projected on a three-dimensional curved surface in a virtual three-dimensional space, and the three-dimensional image is displayed according to the virtual viewpoint from above the vehicle 100 Cut out the required area of the curved surface. The cut out area corresponds to an image obtained by converting the viewpoint. An example of an image obtained by converting the viewpoint is shown in FIG. The vehicle 100 is disposed at the central portion of the overhead image 78 in FIG. 5 (b). A front image 70 is disposed in front of the vehicle 100, a left side image 72 is disposed on the left side of the vehicle 100, a rear image 74 is disposed on the rear of the vehicle 100, and a right side An image 76 is arranged. In particular, the rear image 74 does not include the border 30 which has already been erased.

図6(a)−(b)は、車両用表示装置50における別の処理の概要を示す。図6(a)は、図5(a)と同様に示されるが、これらにおいて、車両100と他車両110との距離が異なっており、枠線30は、他車両110の前方端部の下に存在しない。図6(a)では、車両100と他車両110は、距離d2だけ離れている。ここで、距離d2は、距離d1よりも長く、画像処理部56でのしきい値以上である。そのため、画像処理部56において、枠線30は消去されない。図6(b)における俯瞰画像78は、図5(b)と同様に示されるが、後方画像74において、車両100と他車両110との間に枠線30が含まれる。図3に戻る。視点変換処理部58は、変換した画像である俯瞰画像78を表示処理部60に出力する。   6 (a) and 6 (b) show an outline of another process in the display device 50 for a vehicle. FIG. 6 (a) is shown similarly to FIG. 5 (a), but in these, the distance between the vehicle 100 and the other vehicle 110 is different, and the frame line 30 is below the front end of the other vehicle 110. Does not exist. In FIG. 6A, the vehicle 100 and the other vehicle 110 are separated by a distance d2. Here, the distance d2 is longer than the distance d1 and is equal to or more than the threshold value in the image processing unit 56. Therefore, the frame line 30 is not deleted in the image processing unit 56. The overhead image 78 in FIG. 6B is shown in the same manner as FIG. 5B, but in the rear image 74, a frame line 30 is included between the vehicle 100 and the other vehicle 110. Return to FIG. The viewpoint conversion processing unit 58 outputs the overhead image 78 which is the converted image to the display processing unit 60.

表示処理部60は、視点変換処理部58から俯瞰画像78を入力する。表示処理部60は、俯瞰画像78を表示部62に表示させる。表示部62は、図5(b)、図6(b)のような俯瞰画像78を表示する。   The display processing unit 60 inputs the overhead image 78 from the viewpoint conversion processing unit 58. The display processing unit 60 causes the display unit 62 to display the overhead image 78. The display unit 62 displays a bird's-eye view image 78 as shown in FIGS. 5 (b) and 6 (b).

なお、画像処理部56は、模様が物体の下方に存在することを判定するために場合、前述した処理とは別の処理を実行してもよい。画像処理部56は、物体、模様に関する情報をもとに、物体と模様との間の画素数を特定する。また、距離取得部54は、入力した距離をもとに、画像の画角を特定する。さらに、距離取得部54は、画角毎に、画素数と実際の距離との関係を予め記憶しており、特定した画素数と画角とをもとに、物体と模様との間の距離を導出する。導出された距離は、図5(a)において距離d3と示され、図6(a)において距離d4と示される。   When the image processing unit 56 determines that the pattern is present below the object, the image processing unit 56 may execute processing different from the processing described above. The image processing unit 56 specifies the number of pixels between the object and the pattern based on the information on the object and the pattern. Further, the distance acquisition unit 54 specifies the angle of view of the image based on the input distance. Furthermore, the distance acquisition unit 54 stores in advance the relationship between the number of pixels and the actual distance for each angle of view, and based on the specified number of pixels and the angle of view, the distance between the object and the pattern Derive The derived distance is shown as distance d3 in FIG. 5 (a) and as distance d4 in FIG. 6 (a).

画像処理部56は、前述のしきい値とは別のしきい値を予め保持しており、導出した距離としきい値とを比較する。距離がしきい値よりも短い場合に、画像処理部56は、画像に含まれた模様であって、かつ物体の下方に位置する模様を画像から消去する。図5(a)における距離d3はしきい値よりも短く、図6(a)における距離d4はしきい値以上である。そのため、これまでと同様に、画像処理部56は、図5(a)に対して枠線30を消去し、図6(a)に対して枠線30を消去しない。これに続く処理は、これまでと同様である。   The image processing unit 56 holds in advance a threshold different from the above-described threshold, and compares the derived distance with the threshold. If the distance is shorter than the threshold value, the image processing unit 56 deletes from the image a pattern included in the image and located below the object. The distance d3 in FIG. 5A is shorter than the threshold, and the distance d4 in FIG. 6A is equal to or greater than the threshold. Therefore, as in the above, the image processing unit 56 erases the frame 30 with respect to FIG. 5A and does not erase the frame 30 with respect to FIG. 6A. The subsequent processing is the same as before.

画像処理部56における2種類の処理を説明したが、いずれにおいてもしきい値は、固定値とされている。一方、しきい値は、後方撮像部16等が取り付けられた位置に応じて設定されてもよい。つまり、画像処理部56は、後方撮像部16等の地面からの高さに応じて、しきい値を設定してもよい。後方撮像部16等の高さが高くなるほど、後方撮像部16等において撮像される画像と、車両100の上方から見た画像とが近くなる。その場合、実際は他車両110の下に枠線30が存在しているにもかかわらず、視点変換すると、車両100と他車両110との間に枠線30が示されているような状況が発生しにくくなる。そのため、枠線30等の模様が消去されにくくなるようにしきい値が調節されるべきである。これらを考慮して、距離取得部54は、後方撮像部16等の高さが高くなるほど、短くなるようなしきい値を設定する。例えば、後方撮像部16等を車両100に取り付ける際に、外部からしきい値が設定される。   Although two types of processing in the image processing unit 56 have been described, the threshold value is a fixed value in both cases. On the other hand, the threshold may be set according to the position where the rear imaging unit 16 and the like are attached. That is, the image processing unit 56 may set the threshold value in accordance with the height of the rear imaging unit 16 or the like from the ground. As the height of the rear imaging unit 16 or the like increases, the image captured by the rear imaging unit 16 or the like becomes closer to the image viewed from above the vehicle 100. In that case, although the frame line 30 actually exists under the other vehicle 110, when the viewpoint conversion is performed, a situation where the frame line 30 is shown between the vehicle 100 and the other vehicle 110 occurs. It becomes difficult to do. Therefore, the threshold value should be adjusted so that the pattern of the frame 30 or the like is not easily erased. Taking these into consideration, the distance acquiring unit 54 sets a threshold value that becomes shorter as the height of the rear imaging unit 16 or the like becomes higher. For example, when attaching the rear imaging unit 16 or the like to the vehicle 100, a threshold is set from the outside.

この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。   In terms of hardware, this configuration can be realized with the CPU, memory, or other LSI of any computer, and with software, it can be realized by a program loaded into the memory, etc. Are drawing functional blocks. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

以上の構成による車両用表示装置50の動作を説明する。図7は、車両用表示装置50による表示手順を示すフローチャートである。距離取得部54は、後方の他車両110との距離を取得する(S10)。距離がしきい値よりも短ければ(S12のY)、画像処理部56は、枠線30を消去する(S14)。一方、距離がしきい値よりも短くなければ(S12のN)、ステップS16へ推移する。視点変換処理部58は、画像の視点を変換する(S16)。表示処理部60は、表示部62に画像を表示させる(S18)。   The operation of the vehicular display device 50 having the above configuration will be described. FIG. 7 is a flowchart showing a display procedure by the display device 50 for a vehicle. The distance acquisition unit 54 acquires the distance to the other vehicle 110 behind (S10). If the distance is shorter than the threshold (Y in S12), the image processing unit 56 erases the frame line 30 (S14). On the other hand, if the distance is not shorter than the threshold (N in S12), the process proceeds to step S16. The viewpoint conversion processing unit 58 converts the viewpoint of the image (S16). The display processing unit 60 causes the display unit 62 to display an image (S18).

図8は、車両用表示装置50による別の表示手順を示すフローチャートである。距離取得部54は、後方の他車両110との距離を取得する(S50)。画像処理部56は、後方の他車両110と枠線30との間の距離を導出する(S52)。距離がしきい値よりも短ければ(S54のY)、画像処理部56は、枠線30を消去する(S56)。一方、距離がしきい値よりも短くなければ(S54のN)、ステップS58へ推移する。視点変換処理部58は、画像の視点を変換する(S58)。表示処理部60は、表示部62に画像を表示させる(S60)。   FIG. 8 is a flowchart showing another display procedure by the vehicular display device 50. As shown in FIG. The distance acquisition unit 54 acquires the distance to the other vehicle 110 behind (S50). The image processing unit 56 derives the distance between the rear other vehicle 110 and the frame 30 (S52). If the distance is shorter than the threshold (Y in S54), the image processing unit 56 erases the frame line 30 (S56). On the other hand, if the distance is not shorter than the threshold (N in S54), the process proceeds to step S58. The viewpoint conversion processing unit 58 converts the viewpoint of the image (S58). The display processing unit 60 causes the display unit 62 to display an image (S60).

ステップS14およびステップS56における枠線30の消去処理について説明する。例えば、距離取得部54が検出した枠線30が駐車場の区画を示す白線である場合、白線部分に対して、白線の周辺色と同様の色調で塗りつぶす、白線に隣接した領域をコピーして白線上に張り付ける、白線上に黒色などの色で白線を覆う線を描画するなどの処理が適用される。この場合、撮像部10の各々の撮影方向に垂直またはほぼ垂直の枠線30を消去対象とする。または、他車両110を撮影する撮像部10に対向する他車両110の辺と平行またはほぼ平行な枠線30を消去対象とする。図2(b)に示す枠線30はいずれの条件も満たしている。   The process of erasing the frame line 30 in step S14 and step S56 will be described. For example, when the frame line 30 detected by the distance acquisition unit 54 is a white line indicating a section of a parking lot, the area adjacent to the white line is copied by filling the white line portion with the same color as the peripheral color of the white line. Processing such as attaching on a white line or drawing a line covering the white line with a color such as black on the white line is applied. In this case, a frame line 30 perpendicular or substantially perpendicular to each imaging direction of the imaging unit 10 is to be erased. Alternatively, the frame line 30 parallel to or substantially parallel to the side of the other vehicle 110 facing the imaging unit 10 for capturing the other vehicle 110 is to be erased. The frame 30 shown in FIG. 2 (b) satisfies all the conditions.

本実施例によれば、他車両との距離に応じて、他車両の下方に位置する枠線を画像から消去して俯瞰画像を生成するので、俯瞰画像において他車両に隠れるべき枠線が表示されてしまうことを回避できる。また、俯瞰画像において他車両に隠れるべき枠線が表示されてしまうことが回避されるので、実際の状況と俯瞰画像とを近くできる。また、実際の状況と俯瞰画像とが近くなるので、視点変換を行う場合に、物体までの距離を正確に反映できる。また、他車両との距離としきい値とを比較するだけなので、処理を簡易にできる。また、他車両と枠線との間の距離としきい値とを比較するので、処理の精度を向上できる。また、撮像部の地面からの高さに応じてしきい値を設定するので、処理の精度を向上できる。   According to the present embodiment, the frame line located below the other vehicle is erased from the image according to the distance to the other vehicle to generate the overhead image, so the frame line to be hidden by the other vehicle is displayed in the overhead image It can avoid being done. In addition, it is possible to avoid displaying a frame line that should be hidden by another vehicle in the overhead image, so the actual situation and the overhead image can be made closer. In addition, since the actual situation and the overhead view image are close, when performing viewpoint conversion, the distance to the object can be accurately reflected. Further, since the distance to another vehicle and the threshold value are simply compared, the processing can be simplified. In addition, since the distance between the other vehicle and the frame is compared with the threshold value, the processing accuracy can be improved. In addition, since the threshold is set according to the height of the imaging unit from the ground, the processing accuracy can be improved.

上記実施例においては、後方撮像部16が撮像した後方画像74への適用について説明したが、前方撮像部12が撮影した前方画像70、左側方撮像部14が撮影した左側方画像72、右側方撮像部18が撮影した右側方画像76への適用も可能である。後方撮像部16が撮像した後方画像74に本発明を適用する場合は、例えば駐車場での後退駐車時に有用である。前方撮像部12が撮影した前方画像70に本発明を適用する場合は、例えば駐車場での前進駐車時に有用である。左側方撮像部14が撮影した左側方画像72または右側方撮像部18が撮影した右側方画像76に本発明を適用する場合は、例えば側方への幅寄せ駐車や狭い道でのすれ違い時に有用である。   Although the application to the rear image 74 captured by the rear imaging unit 16 has been described in the above embodiment, the front image 70 captured by the front imaging unit 12, the left side image 72 captured by the left side imaging unit 14, and the right side Application to the right side image 76 captured by the imaging unit 18 is also possible. When applying this invention to the back image 74 which the back imaging part 16 imaged, it is useful at the time of the backward parking in a parking lot, for example. When the present invention is applied to the forward image 70 captured by the forward imaging unit 12, it is useful, for example, in forward parking in a parking lot. When the present invention is applied to the left-side image 72 captured by the left-side imaging unit 14 or the right-side image 76 captured by the right-side imaging unit 18, it is useful, for example, in sideways parking or passing on narrow roads. It is.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described above based on the embodiments. It is understood by those skilled in the art that this embodiment is an exemplification, and that various modifications can be made to the combination of each component and each processing process, and such a modification is also within the scope of the present invention. .

50 車両用表示装置、 52 画像取得部、 54 距離取得部、 56 画像処理部、 58 視点変換処理部、 60 表示処理部、 62 表示部、 70 前方画像、 72 左側方画像、 74 後方画像、 76 右側方画像、 78 俯瞰画像、 100 車両。   50 Vehicle Display Device, 52 Image Acquisition Unit, 54 Distance Acquisition Unit, 56 Image Processing Unit, 58 Viewpoint Conversion Processing Unit, 60 Display Processing Unit, 62 Display Unit, 70 Forward Image, 72 Left Direction Image, 74 Rear Image, 76 Right side image, 78 俯瞰 image, 100 vehicles.

Claims (6)

車両の周辺を撮像した画像を取得する画像取得部と、
前記画像取得部において取得した画像に撮像された物体との距離を取得する距離取得部と、
前記距離取得部において取得した距離に応じて、前記画像取得部において取得した画像に含まれた模様であって、かつ物体の下方に位置する模様を画像から消去する画像処理部と、
前記画像処理部において模様を消去した画像に対して、前記車両の上方から見たように視点を変換する視点変換処理部と、
前記視点変換処理部において変換した画像を表示部に表示させる表示処理部と、
を備えることを特徴とする車両用表示装置。
An image acquisition unit for acquiring an image obtained by imaging the surroundings of the vehicle;
A distance acquisition unit that acquires a distance to an object captured in an image acquired by the image acquisition unit;
An image processing unit configured to delete a pattern included in the image acquired by the image acquisition unit and located below the object from the image according to the distance acquired by the distance acquisition unit;
A viewpoint conversion processing unit that converts a viewpoint as viewed from above the vehicle with respect to the image whose pattern has been deleted by the image processing unit;
A display processing unit that causes the display unit to display an image converted by the viewpoint conversion processing unit;
A display device for a vehicle, comprising:
前記画像処理部は、前記距離取得部において取得した距離がしきい値よりも短い場合に、模様を画像から消去することを特徴とする請求項1に記載の車両用表示装置。   The display device for a vehicle according to claim 1, wherein the image processing unit erases the pattern from the image when the distance acquired by the distance acquiring unit is shorter than a threshold. 前記画像処理部は、前記距離取得部において取得した距離をもとに、物体と模様との間の距離を導出し、導出した距離がしきい値よりも短い場合に、模様を画像から消去することを特徴とする請求項1に記載の車両用表示装置。   The image processing unit derives the distance between the object and the pattern based on the distance acquired by the distance acquisition unit, and deletes the pattern from the image when the derived distance is shorter than a threshold. A display device for a vehicle according to claim 1, characterized in that. 前記画像処理部は、前記画像取得部において取得した画像を撮像した撮像装置の地面からの高さに応じて、しきい値を設定することを特徴とする請求項2または3に記載の車両用表示装置。   The said image processing part sets a threshold value according to the height from the ground of the imaging device which imaged the image acquired in the said image acquisition part, The vehicle of Claim 2 or 3 characterized by the above-mentioned. Display device. 前記距離取得部において距離を取得する対象となる物体は、他の車両であり、
前記画像処理部において消去の対象となる模様は、地面に描画された枠線であることを特徴とする請求項1から4のいずれかに記載の車両用表示装置。
The object for which the distance acquisition unit acquires a distance is another vehicle.
The vehicle display device according to any one of claims 1 to 4, wherein the pattern to be erased in the image processing unit is a frame line drawn on the ground.
車両の周辺を撮像した画像を取得するステップと、
取得した画像に撮像された物体との距離を取得するステップと、
取得した距離に応じて、取得した画像に含まれた模様であって、かつ物体の下方に位置する模様を画像から消去するステップと、
模様を消去した画像に対して、前記車両の上方から見たように視点を変換するステップと、
変換した画像を表示部に表示させるステップと、
を備えることを特徴とする車両用表示方法。
Acquiring an image obtained by imaging the surroundings of the vehicle;
Acquiring a distance to an object captured in the acquired image;
Erasing from the image a pattern that is included in the acquired image and is located below the object, according to the acquired distance;
Transforming the viewpoint as seen from above the vehicle with respect to the image from which the pattern has been eliminated;
Displaying the converted image on the display unit;
A display method for a vehicle comprising:
JP2015167709A 2015-08-27 2015-08-27 Display device for vehicle and display method for vehicle Active JP6519408B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015167709A JP6519408B2 (en) 2015-08-27 2015-08-27 Display device for vehicle and display method for vehicle
CN201680025389.2A CN107531182B (en) 2015-08-27 2016-06-01 Display device for vehicle and display method for vehicle
PCT/JP2016/066186 WO2017033518A1 (en) 2015-08-27 2016-06-01 Display device for vehicle and display method for vehicle
EP16838865.0A EP3342644B1 (en) 2015-08-27 2016-06-01 Display device for vehicle and display method for vehicle
US15/845,267 US10427683B2 (en) 2015-08-27 2017-12-18 Vehicle display device and vehicle display method for displaying images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015167709A JP6519408B2 (en) 2015-08-27 2015-08-27 Display device for vehicle and display method for vehicle

Publications (2)

Publication Number Publication Date
JP2017043230A JP2017043230A (en) 2017-03-02
JP6519408B2 true JP6519408B2 (en) 2019-05-29

Family

ID=58211020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015167709A Active JP6519408B2 (en) 2015-08-27 2015-08-27 Display device for vehicle and display method for vehicle

Country Status (1)

Country Link
JP (1) JP6519408B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830898A (en) * 1994-07-20 1996-02-02 Fujitsu Ltd Picture analysis device
JP2007090939A (en) * 2005-09-27 2007-04-12 Clarion Co Ltd Parking support device
JP4815993B2 (en) * 2005-10-19 2011-11-16 アイシン・エィ・ダブリュ株式会社 Parking support method and parking support device
JP2008227646A (en) * 2007-03-09 2008-09-25 Clarion Co Ltd Obstacle detector
JP5057936B2 (en) * 2007-11-09 2012-10-24 アルパイン株式会社 Bird's-eye image generation apparatus and method
JP5035284B2 (en) * 2009-03-25 2012-09-26 株式会社日本自動車部品総合研究所 Vehicle periphery display device
JP5165631B2 (en) * 2009-04-14 2013-03-21 現代自動車株式会社 Vehicle surrounding image display system
JP2012065225A (en) * 2010-09-17 2012-03-29 Panasonic Corp In-vehicle image processing apparatus, periphery monitoring apparatus, and vehicle
JP6303453B2 (en) * 2013-12-02 2018-04-04 株式会社デンソー Parking assistance device

Also Published As

Publication number Publication date
JP2017043230A (en) 2017-03-02

Similar Documents

Publication Publication Date Title
US10097812B2 (en) Stereo auto-calibration from structure-from-motion
US8831280B2 (en) 3D motion recognition method and apparatus
JP6013884B2 (en) Object detection apparatus and object detection method
KR101093316B1 (en) Method and System for Image Matching While Driving Vehicle
Fossati et al. Real-time vehicle tracking for driving assistance
CN103123687A (en) Fast obstacle detection
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP6188592B2 (en) Object detection apparatus, object detection method, and object detection program
EP3115966B1 (en) Object detection device, object detection method, and computer program
KR102491527B1 (en) Detection of objects in camera images
JP2021060844A (en) Object recognition apparatus
JP6589313B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP5521217B2 (en) Obstacle detection device and obstacle detection method
WO2017033518A1 (en) Display device for vehicle and display method for vehicle
KR101880850B1 (en) Method and system for detecting haze using temporal filtering and correlation of saturation and value in road driving video
JP2011033594A (en) Distance calculation device for vehicle
EP3648458A1 (en) Image processing device, and image conversion method
JP6519408B2 (en) Display device for vehicle and display method for vehicle
JP7261006B2 (en) External environment recognition device
KR20170016143A (en) Lane recognition system using light fied camera and method therefor
JP7229032B2 (en) External object detection device
JP6677141B2 (en) Parking frame recognition device
JP7047291B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
JPWO2017090097A1 (en) Vehicle external recognition device
JP6565674B2 (en) VEHICLE DISPLAY DEVICE AND VEHICLE DISPLAY METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190408

R150 Certificate of patent or registration of utility model

Ref document number: 6519408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150