JP6787758B2 - Light beam recognition device - Google Patents
Light beam recognition device Download PDFInfo
- Publication number
- JP6787758B2 JP6787758B2 JP2016227985A JP2016227985A JP6787758B2 JP 6787758 B2 JP6787758 B2 JP 6787758B2 JP 2016227985 A JP2016227985 A JP 2016227985A JP 2016227985 A JP2016227985 A JP 2016227985A JP 6787758 B2 JP6787758 B2 JP 6787758B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- light beam
- light source
- recognition device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 75
- 230000003287 optical effect Effects 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 6
- 230000001629 suppression Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 43
- 230000006870 function Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本開示は、光学カメラから取得した画像に写り込んだ光の筋である光芒を検出する技術に関する。 The present disclosure relates to a technique for detecting a beam of light, which is a streak of light reflected in an image acquired from an optical camera.
車両の前方を光学カメラなどにより撮像し、当該車両の前方に存在する物体を検知する物体検知装置に関する技術が知られている。
しかし、当該車両の前方に光源がある場合に、光源により発生する光芒を物体検知装置が物体として誤検知する可能性があった。特に光芒は、車両のフロントガラスに付着した水滴の拭き残しがシリンドリカルレンズとして光源からの光を散乱させることなどにより発生する。
There is known a technique related to an object detection device that captures an image of the front of a vehicle with an optical camera or the like and detects an object existing in front of the vehicle.
However, when there is a light source in front of the vehicle, there is a possibility that the object detection device erroneously detects the light beam generated by the light source as an object. In particular, the light beam is generated when the unwiped water droplets adhering to the windshield of the vehicle scatter the light from the light source as a cylindrical lens.
特許文献1には、光芒を物体として誤検知すること抑制する技術が開示されている。すなわち、光学カメラなどにより撮像された画像中の光源を検出し、検出された光源を楕円に近似する。近似された楕円の長辺方向に直線的に引き延ばした方向に存在する輝度の高い点を光芒として認識することで光芒を検出する。
しかしながら、特許文献1の光芒認識装置では、例えば、以下のような状況である場合に正しく光芒を検出することができないという問題があった。
・光芒の現れる方向と光源を楕円に近似した場合の長辺方向とが一致しない状況
・光芒が直線ではなく、湾曲している状況
・光源と光芒の間に輝度が低い部分があり、光源と光芒が離間しているような状況
本開示は、以上に例示したような状況であっても光芒の検出精度を向上させる技術を提供することを目的としている。
However, the light beam recognition device of
・ Situation where the direction in which the light beam appears and the long side direction when the light source is approximated to an ellipse do not match ・ Situation where the light beam is curved instead of straight line ・ There is a low brightness part between the light source and the light source, and the light source Situations where the light beams are separated The purpose of the present disclosure is to provide a technique for improving the detection accuracy of the light rays even in the situations illustrated above.
本開示の一態様である光芒認識装置(12)は、画像取得部と、光源検出部(S100)と、極大検出部(S330)と、点検出部と生成部(S370)とを備える。画像取得部は、光学カメラ(11)から画像を取得し、当該取得された画像に対して画素ごとの輝度である画素輝度を算出する。光源検出部は、画像取得部により算出された画素輝度が、あらかじめ設定された輝度の閾値である光源閾値以上の輝度となる画素である光源画素を検出する。極大検出部は、画像取得部により算出された画素輝度が、あらかじめ設定された輝度の条件である極大条件を満たす画素を極大画素として検出する。点検出部は、極大検出部にて検出された極大画素の中から、光源画素からの距離がそれぞれ異なり、かつ光源画素から光芒を示す1つ以上の光芒画素を検出する。生成部は、光源検出部にて検出された光源画素及び点検出部にて検出された光芒画素を、光源画素に近いものから順番に直線で接続した折れ線を光芒直線として生成する。また、点検出部は、範囲設定部(S320)と、抽出部(S350)と、更新部(S360)とを備え、更新部にて更新された予測直線を用いて、当該点検出部の動作を繰り返し実行させる。範囲設定部は、光源検出部にて検出された光源画素又は点検出部にて検出された最新の光芒画素から、あらかじめ設定された単位距離以上離れ、かつ、あらかじめ設定された予測直線上に位置する画素を予測画素として当該予測画素を中心とした検出範囲を設定する。抽出部は、範囲設定部により設定された検出範囲に含まれる極大画素を抽出し、当該抽出された極大画素を光芒画素の検出結果とする。更新部は、抽出部にて抽出された光芒画素と、予測画素とのずれ量に基づいて予測直線を更新する。 The light beam recognition device (12), which is one aspect of the present disclosure, includes an image acquisition unit, a light source detection unit (S100), a maximum detection unit (S330), a point detection unit, and a generation unit (S370). The image acquisition unit acquires an image from the optical camera (11) and calculates the pixel brightness, which is the brightness of each pixel, with respect to the acquired image. The light source detection unit detects light source pixels whose pixel brightness calculated by the image acquisition unit is equal to or higher than the light source threshold value which is a preset brightness threshold value. The maximum detection unit detects pixels whose pixel brightness calculated by the image acquisition unit satisfies the maximum condition, which is a preset brightness condition, as the maximum pixel. The point detection unit detects one or more light beam pixels having different distances from the light source pixels and indicating light rays from the light source pixels from among the maximum pixels detected by the maximum detection unit. The generation unit generates a polygonal line in which the light source pixels detected by the light source detection unit and the light beam pixels detected by the point detection unit are connected in a straight line in order from the one closest to the light source pixel as a light beam straight line. Further, the point detection unit includes a range setting unit (S320), an extraction unit (S350), and an update unit (S360), and operates the point detection unit using the prediction straight line updated by the update unit. Is repeated. Range setting unit, from the latest shaft of light pixels detected by the detected light source pixels or points detecting section at the light source detector, apart preset unit distance above, and, located a preset predicted straight line The detection range centered on the predicted pixel is set with the pixel to be predicted as the predicted pixel. The extraction unit extracts the maximum pixels included in the detection range set by the range setting unit, and uses the extracted maximum pixels as the detection result of the light beam pixels. The update unit updates the prediction straight line based on the amount of deviation between the light beam pixels extracted by the extraction unit and the prediction pixel.
このような構成によれば、光芒の検出精度を向上させることができる。 According to such a configuration, it is possible to improve the detection accuracy of the light beam.
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.実施形態]
[1−1.構成]
図1に示す車両制御システム1は、車両に備えられ、光学カメラ11、光芒認識装置12、物体認識装置13及び車両制御装置14を備える。以下、車両制御システム1が備えられる車両を自車とする。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. Embodiment]
[1-1. Constitution]
The
光学カメラ11は、自車の前方の撮像を行う。
光芒認識装置12は、光学カメラ11によって撮像された画像に基づいて、自車前方に存在する光芒を認識する。
The optical camera 11 takes an image of the front of the own vehicle.
The light
光芒認識装置12は、CPU121と、RAM、ROM及びフラッシュメモリ等の半導体と、を有する周知のマイクロコンピュータを中心に構成される。光芒認識装置12の各種機能は、CPU121が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ122が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、光芒認識装置12を構成するマイクロコンピュータの数は1つでも複数でもよい。
The optical
光芒認識装置12は、CPU121がプログラムを実行することで後述する光芒認識処理を実現する。光芒認識装置12の各種機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。
The light
物体認識装置13は、自車の進行方向に存在する物体を認識する。すなわち、光学カメラ11から光芒認識装置12を介し取得した画像に基づいて、画像中に含まれる物体の認識を行う。具体的には、物体認識装置13は、取得した画像から、輝度及び色度の違いを検出し、自車前方に存在する物体を認識し、認識した物体が自車に衝突するか否か予測する。なお、物体認識装置13の動作は、公知であり詳細な説明は省略する。
The
車両制御装置14は、物体認識装置13による車両前方の物体と衝突するか否かの予測に基づき、自車の動作を制御する電子制御装置である各ECUに対して自車の制御を行う指示を送信する。ここで各ECUは、車両制御装置14からの指示に従って自車の操舵制御及び制動制御を行う。なお、車両制御装置14の動作は、公知であり詳細な説明は省略する。
The
[1−2.処理]
次に、光芒認識装置12が実行する光芒認識処理について、図2のフローチャートを用いて説明する。当該光芒認識処理は、光学カメラ11により画像が撮像され、光芒認識装置12が画像を取得したときに実行される。また、画像を取得した段階で、画像内の各画素の輝度である画素輝度が取得される。ここで取得される画像の左右方向の画素の並びを行、上下方向の画素の並びを列とする。
[1-2. processing]
Next, the light beam recognition process executed by the light
S100で光芒認識装置12は、光源が写り込んでいる領域である光源領域の検出を行い、その光源領域の位置を記憶する光源検出処理を実行する。
光芒認識装置12は、後述するS200からS400までの処理を繰り返し行う。ここで、S200からS400までの繰り返し行われる処理を光芒認識サイクルとする。
In S100, the light
The light
S200で光芒認識装置12は、S100で検出した光源領域のうち、今回の光芒認識サイクルで処理の対象となる光源領域を選択する。このとき選択される光源領域は今回の光芒認識サイクルより前に行った光芒認識サイクルで選択されていない光源領域が選択される。
The light
S300で光芒認識装置12は、S200で選択された光源領域から伸びる光芒の検出を行う光芒検出処理を実行する。光芒検出処理はカルマンフィルタを用いて実行される。
S400で光芒認識装置12は、今回の光芒認識サイクルより前において選択されていない光源領域が存在するか否かを判定する。
In S300, the light
In S400, the light
光芒認識装置12はS400で選択されていない光源領域が存在する場合、S200に戻り以降の処理を行う。
光芒認識装置12はS400で選択されていない光源領域が存在しない場合、S500で光芒認識装置12は、光学カメラから取得した画像のうち、S100からS400までの処理により検出された光芒直線を写している画素及びその周辺を物体として認識することを抑制するように物体認識装置13に出力を行う。ここでいう周辺とは、光芒直線を写している画素に対して想定される光芒が広がる範囲のことをいい、例えば、光芒画素を中心とし、行方向に10ピクセルずつ広がる範囲をいう。
When the light source region not selected in S400 exists, the light
When the light
なお、画像を取得する処理が画像取得部に相当し、S100での処理が光源検出部に相当し、S500での処理が認識抑制部に相当する。
<光源検出処理>
ここで光芒認識装置12が先のS100で実行する光源検出処理の詳細を、図3に示すフローチャートに沿って説明する。
The process of acquiring an image corresponds to the image acquisition unit, the process of S100 corresponds to the light source detection unit, and the process of S500 corresponds to the recognition suppression unit.
<Light source detection process>
Here, the details of the light source detection process executed by the light
光芒認識装置12は、後述するS110からS160までの処理を繰り返し行う。ここで、S110からS160までの繰り返し行われる処理を光源検出サイクルとする。
S110で光芒認識装置12は、取得した画像において画素の選択を行う。この画素の選択は、初回は取得した画像の左上隅の画素が選択され、2回目以降の光源検出サイクルでは、前回の光源検出サイクルにおいて選択した画素と同一行の右隣の画素を選択する。なお、右隣の画素が存在しない場合、当該光源検出サイクルの前の光源検出サイクルで選択した画素の1つ下の行の一番左の画素を選択する。以下、選択された画素を選択画素とする。
The light
In S110, the light
S120で光芒認識装置12は、S110で選択された選択画素が光源画素であるか否かを判定する。ここでいう光源画素は、選択画素の画素輝度が光芒認識装置12によりあらかじめ設定された輝度の閾値である光源閾値以上である画素である。
In S120, the light
S120で光芒認識装置12により、選択画素が光源画素であると判定された場合、S130で光芒認識装置12は、選択画素の周囲に検出光源画素が存在するか否か判定する。ここでいう選択画素の周囲とは、図4に実線で示すように、選択画素を中心とする行方向及び列方向にそれぞれ1ピクセル以内の範囲をいい、検出光源画素とは、今回の光源検出サイクルより前の光源検出サイクルで検出されている光源画素をいう。
When the light
S130で光芒認識装置12により、選択画素の周囲に検出光源画素が存在しないと判定された場合、S140に処理を移行する。
S140で光芒認識装置12は選択画素の位置を新たな光源領域の位置としてメモリ122に記憶し、S160に処理を移行する。
When the light
In S140, the light
S130で光芒認識装置12により、選択画素の周囲に検出光源画素が存在すると判定された場合、S150に処理を移行する。
S150で光芒認識装置12は、選択画素が検出光源画素と同一の光源領域に属する光源画素であるとして検出光源画素が属する光源領域の位置を求める。ここで、求められる光源領域の位置は、同一の光源領域に属する光源の中心位置とする。なお、ここでいう中心位置は、同一の光源領域に属する光源の重心位置であってもよい。そして、求めた光源領域の位置をメモリ122に記憶されている検出光源の位置を更新し、S160に処理を移行する。
When the light
In S150, the light
S120で光芒認識装置12により、選択画素が光源画素ではないと判定された場合、S160で取得した画像中に、以前の光源検出サイクルにおいて画素の選択が行われていない画素が存在するか否か判定される。
When the light
S160で選択していない画素が存在すると判定された場合、S110に戻り、以降の処理を繰り返し行う。
以上に示した光源検出処理を行うことにより、光芒認識装置12は光学カメラ11から取得した画像中に写り込んだ輝度閾値以上の画素輝度を持つ画素を有する領域である光源領域の検出及び当該光源領域の位置の記憶を行うことができる。
If it is determined in S160 that a pixel not selected exists, the process returns to S110 and the subsequent processing is repeated.
By performing the light source detection process shown above, the light
<カルマンフィルタ>
次に、光芒検出処理で用いられる一般的なカルマンフィルタについて説明する。
ここでは、画像上の最も左上に存在する画素を座標の原点(x,y)=(0,0)、画像上の行方向の位置をx、列方向の位置をyとする。このときの画像上の直線をx=ay+bで表現するものとし、この直線の傾きa、x軸との交点であるx切片bを要素とするベクトルを状態ベクトルstとする。
<Kalman filter>
Next, a general Kalman filter used in the light beam detection process will be described.
Here, the pixel existing at the upper left corner of the image is defined as the origin of coordinates (x, y) = (0,0), the position in the row direction on the image is x, and the position in the column direction is y. The straight line on the image of this time shall be expressed in x = ay + b, the vector gradient a of the straight line, the x-intercept b is the intersection of the x-axis and the element and the state vector s t.
以下、tは時刻、Ptは共分散ベクトル、Ktはカルマンフィルタゲイン、Htは観測行列(y,1)、qは予測誤差、rは観測誤差を表す。状態ベクトルst及びこのシステムモデルは、次の(1)式から(3)式によって表される。 Hereinafter, t is the time, P t is the covariance vector, K t is the Kalman filter gain, H t is the observation matrix (y, 1), q is the prediction error, and r is the observation error. The state vector s t and the system model is expressed by the following equation (1) (3).
なおシステムノイズvs及び観測ノイズvzはそれぞれ正規分布N(0,q),N(0,r)に従う。
以下では、状態推定において、将来の状態を推定することを予測、現在の状態を推定することをフィルタリングと呼ぶものとする。
The system noise vs. the observed noise vz follow the normal distributions N (0, q) and N (0, r), respectively.
In the following, in state estimation, estimating the future state is referred to as prediction, and estimating the current state is referred to as filtering.
そして、時刻tにおいて予測された状態を表した状態ベクトルである予測ベクトルをst+1、共分散行列をPt|t−1とし、時刻tにおいてフィルタリングされた状態を表した状態ベクトルである推定ベクトルをst、共分散行列をPt|t、時刻tでのカルマンゲインをKtとすると、周知のように(4)式〜(7)式によって表される。 Then, the prediction vector, which is a state vector representing the predicted state at time t, is s t + 1 , the covariance matrix is P t | t-1, and the estimation vector is a state vector representing the filtered state at time t. Is s t , the covariance matrix is P t | t , and the Kalman gain at time t is K t. As is well known, it is expressed by equations (4) to (7).
<光芒検出処理>
ここで光芒認識装置12が先のS300で実行する光芒検出処理の詳細を、図5に示すフローチャートに沿って説明し、各ステップにおける処理の様子を図6に示す。以下、カルマンフィルタの状態ベクトルstの表すパラメータにより定義される直線を予測直線Stという。
<Light beam detection process>
Here, the details of the light beam detection process executed by the light
光芒認識装置12は、S310で予測直線S0の初期設定を行う。具体的な予測直線S0について、以下に示す。すなわち、S200において光芒認識装置12が選択した光源領域Aの位置z0の座標を(x,y)=(x0,y0)とする。予測直線S0はS200で光芒認識装置12により選択された光源領域Aの位置から画像の列方向に伸ばした直線とする。すなわち、予測直線S0は状態ベクトルs0=(0,x0)Tにより定義される直線である。
Shaft of
光芒認識装置12は、後述するS320からS360までの処理を繰り返し行う。ここで、S320からS360までの繰り返し行われる処理を光芒検出サイクルとする。初回の光芒検出サイクルをt=1とし、光芒検出サイクルを繰り返すごとにtは1ずつ増加するものとする。
The light
S320で光芒認識装置12は、検出範囲Ctの設定を行う。ここでいう検出範囲Ctは、予測画素Btの属する行において、予測画素Btを中心にあらかじめ決められた範囲が設定され、(2)式のvsによって定義される。ここでいう予測画素Btは光芒画素zt−1が属する行からあらかじめ決められた距離である単位距離Δyだけ列方向に離れた行と予測直線Stとが交わる画素のことである。ここでいう予測画素Btの位置は、(6)式の一部であるHt×st−1で求められる。また、単位距離Δyは、光源と光芒とが離間している場合において想定される距離よりも大きく設定され、例えば5ピクセル分の距離である。また、予測画素B1のy座標は、光源画素のy座標y0を用いてy=y0+Δyが成り立つ。また、以降のサイクルにおいても、予測画素Btのy座標は、光源画素のy座標y0を用いてy=y0+Δy×tが成り立つ。
Shaft of
S330で光芒認識装置12は、S320で設定された検出範囲Ctにおいて、極大画素を検出する。ここでいう極大画素とは、あらかじめ設定された輝度の条件である極大条件を満たす画素のことである。具体的には、極大条件とは、各画素のあらかじめ設定された範囲において、最大の輝度を取り、かつ、あらかじめ設定された輝度の閾値である光芒閾値以上の輝度を取ることである。ここで、各画素のあらかじめ決められた範囲とは各画素の左右3ピクセルの範囲をいう。また、光芒閾値は、光源閾値よりも小さく設定されてもよい。
Shaft of
S340で光芒認識装置12は、S320で設定された検出範囲Ctにおいて、極大画素が存在するか否か判定する。S340で極大画素が存在すると判定された場合、S350で光芒認識装置12は検出範囲に存在する極大画素を抽出し、抽出された極大画素に基づき光芒画素ztを設定する。ここで抽出された極大画素が1つの場合にはその極大画素が光芒画素として設定される。一方、抽出された極大画素が複数存在する場合には、それぞれの極大画素同士を平均した位置に存在する画素が光芒画素ztとして設定される。
S340 in shaft of
次にS360で、光芒認識装置12は、予測直線Stの更新を行う。ここでいう予測直線Stの更新とは、予測画素Btと光芒画素ztとの距離であるずれ量Dtに基づいて算出される。ここで、ずれ量Dtは(6)式の右辺第2項である(zt−Ht×st−1)が対応する。また予測直線Stの更新は、(6)式が対応する。すなわち、予測画素Bt及び光芒画素ztのずれ量Dtに(5)式で求められるカルマンゲインKtを乗算したものを予測ベクトルst−1に足し合わせることで、予測ベクトルstを算出する。このように、予測ベクトルstを更新することにより、その更新された予測ベクトルstにより特定される予測直線Stも更新されることとなる。
Next, in S360, shaft of
S340で極大画素が存在しないと判定された場合、S370で光芒認識装置12は光芒直線の生成を行い、処理を終了する。ここでいう光芒直線E1はS200において光芒認識装置12が選択した光源領域Aの位置z0を起点とし、光芒検出サイクルを行いS350で設定された光芒点を、設定した順番に直線で結ぶことにより生成される。すなわち、光源領域Aの位置z0と光芒点z1とを直線で結び、光芒点z1と光芒点z2とを結び、というように光源及び光芒点同士を設定された順番に従って直線で結ぶことで光芒直線が設定される。
When it is determined in S340 that the maximum pixel does not exist, the light
以上に示した光源検出処理を行うことにより、S200で選択された光源から伸びる光芒の検出を行う。
なお、S320での処理が範囲設定部に相当し、S330での処理が極大検出部に相当し、S350での処理が抽出部に相当し、S360での処理が更新部に相当し、S370での処理が生成部に相当する。
By performing the light source detection process shown above, the light beam extending from the light source selected in S200 is detected.
The processing in S320 corresponds to the range setting unit, the processing in S330 corresponds to the maximum detection unit, the processing in S350 corresponds to the extraction unit, the processing in S360 corresponds to the update unit, and the processing in S370 corresponds to the update unit. Process corresponds to the generation unit.
[1−3.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1a)本実施形態の光芒認識装置によれば、光源領域の形状によらず光源領域の周辺の画素に光芒があるか否かを判定することから光芒の表れる方向と光源領域を楕円に近似した場合の長辺方向とが一致しない状況においても光芒を検出することができ、光芒の検出精度を向上させる技術を提供することができる。
[1-3. effect]
According to the embodiment described in detail above, the following effects are obtained.
(1a) According to the light beam recognition device of the present embodiment, the direction in which the light beam appears and the light source region are approximated to an ellipse because it is determined whether or not there is a light beam in the pixels around the light source region regardless of the shape of the light source region. It is possible to detect the light beam even in a situation where the long side direction does not match, and it is possible to provide a technique for improving the detection accuracy of the light beam.
(1b)本実施形態の光芒認識装置12によれば、極大画素と周囲の光源中心又は光芒画素を直線で結ぶことで形成される折れ線を光芒として認識する。このため、光芒全体が直線ではなく、湾曲している状況においても光芒を認識することができる。これにより、光芒の検出精度を向上させる技術を提供することができる。
(1b) According to the light
(1c)また、本実施形態の光芒認識装置12によれば、単位距離Δyは想定される光源と光芒の離間している距離よりも大きく設定される。これにより、光源領域と光芒の間に想定される輝度が低い部分がある光源領域と光芒が離間しているような状況においても光芒を認識することができる。これにより、光芒の検出精度を向上させる技術を提供することができる。
(1c) Further, according to the light
[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be implemented in various modifications.
(2a)上記実施形態では、極大画素が複数存在する場合には、それぞれの極大画素の平均の位置を光芒位置とするとしているが、光芒位置の設定はこれに限定されるものではない。例えば、複数存在する極大画素のうち、最も輝度の高い画素としてもよく、最も予測画素に近い画素としてもよい。また、カルマンフィルタを用いて光芒位置を設定してもよい。すなわち、予測画素Btに対して抽出された複数の極大画素の位置をカルマンフィルタを用いて更新することにより、光芒位置を設定してもよい。言い換えると、状態ベクトルst-1が表す直線を検出された光芒画素との位置関係からカルマンフィルタを用いて更新した直線を予測直線Stとして設定してもよい。具体的には、予測直線S1は、初期設定された状態ベクトルs0を光芒画素の位置z1との位置関係からカルマンフィルタを用いて更新した直線を設定してもよい。 (2a) In the above embodiment, when a plurality of maximum pixels are present, the average position of each maximum pixel is set as the light beam position, but the setting of the light beam position is not limited to this. For example, it may be the pixel having the highest brightness among the plurality of maximum pixels, or the pixel closest to the predicted pixel. Further, the Kalman filter may be used to set the light beam position. That is, the position of the light beam may be set by updating the positions of the plurality of maximum pixels extracted with respect to the predicted pixel B t using a Kalman filter. In other words, the straight line represented by the state vector st-1 may be set as the predicted straight line St as the straight line updated by using the Kalman filter from the positional relationship with the detected light beam pixels. Specifically, the predicted straight line S 1 may be a straight line obtained by updating the initially set state vector s 0 with the position z 1 of the light beam pixel by using a Kalman filter.
(2b)上記実施形態では、極大条件とは、あらかじめ設定された画素の範囲において、最大の輝度を取り、かつ、あらかじめ設定された輝度の閾値である光芒閾値以上の輝度を取ることであるとした。しかし、極大条件はこれに限定されるものではない。例えば、極大条件はあらかじめ設定された画素の範囲において、極大となる画素を取ることとしてもよい。また、あらかじめ設定された画素の範囲は、左右3ピクセルの範囲に限定されるものではなく、1ピクセルの範囲でも良く、上下の範囲に設定されてもよい。 (2b) In the above embodiment, the maximum condition is to take the maximum brightness in the preset pixel range and to take the brightness equal to or higher than the light beam threshold which is the preset brightness threshold. did. However, the maximum condition is not limited to this. For example, the maximum condition may be a pixel that becomes the maximum within a preset pixel range. Further, the preset pixel range is not limited to the left and right 3 pixel range, but may be 1 pixel range or may be set to the upper and lower range.
(2c)上記実施形態では、S330にて極大画素の検出を行ったがS330の処理が行われるタイミングはこれに限定されるものではない。例えば、S100の処理の後の光源検出サイクルの行われる前に行われてもよい。 (2c) In the above embodiment, the maximum pixel is detected in S330, but the timing at which the processing in S330 is performed is not limited to this. For example, it may be performed before the light source detection cycle after the processing of S100.
(2d)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。 (2d) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment. It should be noted that all aspects included in the technical idea specified from the wording described in the claims are embodiments of the present disclosure.
(2e)上述した光芒認識装置の他、当該光芒認識装置を構成要素とするシステム、当該光芒認識装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、光芒認識方法など、種々の形態で本開示を実現することもできる。 (2e) In addition to the above-mentioned light beam recognition device, a system having the light beam recognition device as a component, a program for operating a computer as the light beam recognition device, a non-transitional substantive record of a semiconductor memory or the like in which this program is recorded The present disclosure can also be realized in various forms such as a medium and a light beam recognition method.
1…車両制御システム、11…光学カメラ、12…光芒認識装置、13…物体認識装置、14…車両制御装置、121…CPU、122…メモリ。 1 ... Vehicle control system, 11 ... Optical camera, 12 ... Light beam recognition device, 13 ... Object recognition device, 14 ... Vehicle control device, 121 ... CPU, 122 ... Memory.
Claims (3)
前記画像取得部により算出された前記画素輝度が、あらかじめ設定された輝度の閾値である光源閾値以上の輝度となる画素である光源画素を検出するように構成された光源検出部(S100)と、
前記画像取得部により算出された前記画素輝度が、あらかじめ設定された輝度の条件である極大条件を満たす画素を極大画素として検出するように構成された極大検出部(S330)と、
前記極大検出部にて検出された極大画素の中から、前記光源画素からの距離がそれぞれ異なり、かつ前記光源画素からの光芒を示す1つ以上の光芒画素を検出するように構成された点検出部と、
前記光源検出部にて検出された光源画素及び前記点検出部にて検出された光芒画素を、前記光源画素に近いものから順番に直線で接続した折れ線を光芒直線として生成するように構成された生成部(S370)と、
を備え、
前記点検出部は、
前記光源検出部にて検出された前記光源画素又は前記点検出部にて検出された最新の光芒画素から、あらかじめ設定された単位距離以上離れ、かつ、あらかじめ設定された予測直線上に位置する画素を予測画素として当該予測画素を中心とした検出範囲を設定するように構成された範囲設定部(S320)と、
前記範囲設定部により設定された前記検出範囲に含まれる前記極大画素を抽出し、当該抽出された前記極大画素を前記光芒画素の検出結果とするように構成された抽出部(S350)と、
前記抽出部にて抽出された光芒画素と前記予測画素とのずれ量に基づいて、前記予測直線を更新するように構成された更新部(S360)と、
を有し、前記更新部にて更新された前記予測直線を用いて、当該点検出部の動作を繰り返し実行させるように構成されている、光芒認識装置(12)。 An image acquisition unit configured to acquire an image from the optical camera (11) and calculate the pixel brightness, which is the brightness of each pixel, with respect to the acquired image.
A light source detection unit (S100) configured to detect a light source pixel whose pixel brightness calculated by the image acquisition unit is equal to or higher than a light source threshold value which is a preset brightness threshold.
A maximum detection unit (S330) configured so that the pixel brightness calculated by the image acquisition unit detects a pixel satisfying a maximum condition, which is a preset brightness condition, as a maximum pixel.
From the maximum pixels detected by the maximum detection unit, point detection configured to detect one or more light beam pixels having different distances from the light source pixels and indicating light rays from the light source pixels. Department and
It is configured to generate a polygonal line in which the light source pixel detected by the light source detection unit and the light beam pixel detected by the point detection unit are connected in a straight line in order from the one closest to the light source pixel as a light beam straight line. Generation unit (S370) and
With
The point detection unit
Pixels located on a preset prediction straight line at a distance of a preset unit distance or more from the light source pixel detected by the light source detection unit or the latest light beam pixel detected by the point detection unit. A range setting unit (S320) configured to set a detection range centered on the predicted pixel, and
An extraction unit (S350) configured to extract the maximum pixel included in the detection range set by the range setting unit and use the extracted maximum pixel as the detection result of the light beam pixel.
An update unit (S360) configured to update the predicted straight line based on the amount of deviation between the light beam pixels extracted by the extraction unit and the predicted pixel.
The light beam recognition device (12), which is configured to repeatedly execute the operation of the point detection unit by using the prediction straight line updated by the update unit.
前記更新部により、カルマンフィルタを用いて前記予測直線を更新する、光芒認識装置。 The light beam recognition device according to claim 1.
A light beam recognition device that updates the predicted straight line by using the Kalman filter by the updating unit.
当該光芒認識装置は、更に車両の進行方向に存在する物体を認識する物体認識装置(13)と接続され、
前記光学カメラから取得した前記画像のうち、前記光芒直線を写している画素を物体として認識することを抑制するように構成された認識抑制部(S500)を更に備える、光芒認識装置。 The optical beam recognition device according to claim 1 or 2.
The light beam recognition device is further connected to an object recognition device (13) that recognizes an object existing in the traveling direction of the vehicle.
A light beam recognition device further comprising a recognition suppression unit (S500) configured to suppress recognition of a pixel of the light beam straight line as an object in the image acquired from the optical camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016227985A JP6787758B2 (en) | 2016-11-24 | 2016-11-24 | Light beam recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016227985A JP6787758B2 (en) | 2016-11-24 | 2016-11-24 | Light beam recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018084976A JP2018084976A (en) | 2018-05-31 |
JP6787758B2 true JP6787758B2 (en) | 2020-11-18 |
Family
ID=62238436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016227985A Active JP6787758B2 (en) | 2016-11-24 | 2016-11-24 | Light beam recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6787758B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4935586B2 (en) * | 2007-09-05 | 2012-05-23 | 株式会社デンソー | Image processing apparatus, in-vehicle image processing apparatus, in-vehicle image display apparatus, and vehicle control apparatus |
JP2010073009A (en) * | 2008-09-19 | 2010-04-02 | Denso Corp | Image processing apparatus |
RU2653461C2 (en) * | 2014-01-21 | 2018-05-08 | Общество с ограниченной ответственностью "Аби Девелопмент" | Glare detection in the image data frame |
JP5892876B2 (en) * | 2011-07-28 | 2016-03-23 | クラリオン株式会社 | In-vehicle environment recognition system |
-
2016
- 2016-11-24 JP JP2016227985A patent/JP6787758B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018084976A (en) | 2018-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3651387B2 (en) | White line detector | |
JP6237875B2 (en) | Self-position calculation device and self-position calculation method | |
JP2008310509A (en) | Image processor and operation support device | |
JP6377970B2 (en) | Parallax image generation apparatus and parallax image generation method | |
JP7310527B2 (en) | Obstacle identification device and obstacle identification program | |
WO2015125300A1 (en) | Local location computation device and local location computation method | |
WO2015125299A1 (en) | Local location computation device and local location computation method | |
JP4853444B2 (en) | Moving object detection device | |
US20170190301A1 (en) | Vehicle periphery monitoring device | |
JP2007265281A (en) | Self-shadow determining method | |
JP2018147329A (en) | Image processing device, image processing system, and image processing method | |
JP6787758B2 (en) | Light beam recognition device | |
JP2018074411A (en) | Object detection device and object detection method | |
JP6165513B2 (en) | Hand gesture tracking system | |
JP6184447B2 (en) | Estimation apparatus and estimation program | |
US11250553B2 (en) | Deposit detection device and deposit detection method | |
JP7401246B2 (en) | Imaging device, method of controlling the imaging device, and program | |
US10572753B2 (en) | Outside recognition device for vehicle | |
JP2006339960A (en) | Device and method for object detection | |
JP2021148730A (en) | Position estimation method, position estimation device, and program | |
JP2021064154A (en) | Obstacle identification apparatus and obstacle identification program | |
JP2007172500A (en) | Data processor | |
JP2021064155A (en) | Obstacle identifying device and obstacle identifying program | |
US11308709B2 (en) | Deposit detection device and deposit detection method | |
JP2020201876A (en) | Information processing device and operation support system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190404 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201029 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6787758 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |