[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6787758B2 - Light beam recognition device - Google Patents

Light beam recognition device Download PDF

Info

Publication number
JP6787758B2
JP6787758B2 JP2016227985A JP2016227985A JP6787758B2 JP 6787758 B2 JP6787758 B2 JP 6787758B2 JP 2016227985 A JP2016227985 A JP 2016227985A JP 2016227985 A JP2016227985 A JP 2016227985A JP 6787758 B2 JP6787758 B2 JP 6787758B2
Authority
JP
Japan
Prior art keywords
pixel
light beam
light source
recognition device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016227985A
Other languages
Japanese (ja)
Other versions
JP2018084976A (en
Inventor
潜 龍
潜 龍
和寿 石丸
和寿 石丸
敏彦 寺田
敏彦 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016227985A priority Critical patent/JP6787758B2/en
Publication of JP2018084976A publication Critical patent/JP2018084976A/en
Application granted granted Critical
Publication of JP6787758B2 publication Critical patent/JP6787758B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本開示は、光学カメラから取得した画像に写り込んだ光の筋である光芒を検出する技術に関する。 The present disclosure relates to a technique for detecting a beam of light, which is a streak of light reflected in an image acquired from an optical camera.

車両の前方を光学カメラなどにより撮像し、当該車両の前方に存在する物体を検知する物体検知装置に関する技術が知られている。
しかし、当該車両の前方に光源がある場合に、光源により発生する光芒を物体検知装置が物体として誤検知する可能性があった。特に光芒は、車両のフロントガラスに付着した水滴の拭き残しがシリンドリカルレンズとして光源からの光を散乱させることなどにより発生する。
There is known a technique related to an object detection device that captures an image of the front of a vehicle with an optical camera or the like and detects an object existing in front of the vehicle.
However, when there is a light source in front of the vehicle, there is a possibility that the object detection device erroneously detects the light beam generated by the light source as an object. In particular, the light beam is generated when the unwiped water droplets adhering to the windshield of the vehicle scatter the light from the light source as a cylindrical lens.

特許文献1には、光芒を物体として誤検知すること抑制する技術が開示されている。すなわち、光学カメラなどにより撮像された画像中の光源を検出し、検出された光源を楕円に近似する。近似された楕円の長辺方向に直線的に引き延ばした方向に存在する輝度の高い点を光芒として認識することで光芒を検出する。 Patent Document 1 discloses a technique for suppressing false detection of a light beam as an object. That is, the light source in the image captured by an optical camera or the like is detected, and the detected light source is approximated to an ellipse. The light beam is detected by recognizing a point with high brightness existing in the direction linearly extended in the long side direction of the approximated ellipse as a light beam.

米国特許出願公開第2015/0161469号明細書U.S. Patent Application Publication No. 2015/0161469

しかしながら、特許文献1の光芒認識装置では、例えば、以下のような状況である場合に正しく光芒を検出することができないという問題があった。
・光芒の現れる方向と光源を楕円に近似した場合の長辺方向とが一致しない状況
・光芒が直線ではなく、湾曲している状況
・光源と光芒の間に輝度が低い部分があり、光源と光芒が離間しているような状況
本開示は、以上に例示したような状況であっても光芒の検出精度を向上させる技術を提供することを目的としている。
However, the light beam recognition device of Patent Document 1 has a problem that the light beam cannot be detected correctly in the following situations, for example.
・ Situation where the direction in which the light beam appears and the long side direction when the light source is approximated to an ellipse do not match ・ Situation where the light beam is curved instead of straight line ・ There is a low brightness part between the light source and the light source, and the light source Situations where the light beams are separated The purpose of the present disclosure is to provide a technique for improving the detection accuracy of the light rays even in the situations illustrated above.

本開示の一態様である光芒認識装置(12)は、画像取得部と、光源検出部(S100)と、極大検出部(S330)と、点検出部と生成部(S370)とを備える。画像取得部は、光学カメラ(11)から画像を取得し、当該取得された画像に対して画素ごとの輝度である画素輝度を算出する。光源検出部は、画像取得部により算出された画素輝度が、あらかじめ設定された輝度の閾値である光源閾値以上の輝度となる画素である光源画素を検出する。極大検出部は、画像取得部により算出された画素輝度が、あらかじめ設定された輝度の条件である極大条件を満たす画素を極大画素として検出する。点検出部は、極大検出部にて検出された極大画素の中から、光源画素からの距離がそれぞれ異なり、かつ光源画素から光芒を示す1つ以上の光芒画素を検出する。生成部は、光源検出部にて検出された光源画素及び点検出部にて検出された光芒画素を、光源画素に近いものから順番に直線で接続した折れ線を光芒直線として生成する。また、点検出部は、範囲設定部(S320)と、抽出部(S350)と、更新部(S360)とを備え、更新部にて更新された予測直線を用いて、当該点検出部の動作を繰り返し実行させる。範囲設定部は、光源検出部にて検出された光源画素又は検出部にて検出された最新の光芒画素から、あらかじめ設定された単位距離以上離れ、かつ、あらかじめ設定された予測直線上に位置する画素を予測画素として当該予測画素を中心とした検出範囲を設定する。抽出部は、範囲設定部により設定された検出範囲に含まれる極大画素を抽出し、当該抽出された極大画素を光芒画素の検出結果とする。更新部は、抽出部にて抽出された光芒画素と、予測画素とのずれ量に基づいて予測直線を更新する。 The light beam recognition device (12), which is one aspect of the present disclosure, includes an image acquisition unit, a light source detection unit (S100), a maximum detection unit (S330), a point detection unit, and a generation unit (S370). The image acquisition unit acquires an image from the optical camera (11) and calculates the pixel brightness, which is the brightness of each pixel, with respect to the acquired image. The light source detection unit detects light source pixels whose pixel brightness calculated by the image acquisition unit is equal to or higher than the light source threshold value which is a preset brightness threshold value. The maximum detection unit detects pixels whose pixel brightness calculated by the image acquisition unit satisfies the maximum condition, which is a preset brightness condition, as the maximum pixel. The point detection unit detects one or more light beam pixels having different distances from the light source pixels and indicating light rays from the light source pixels from among the maximum pixels detected by the maximum detection unit. The generation unit generates a polygonal line in which the light source pixels detected by the light source detection unit and the light beam pixels detected by the point detection unit are connected in a straight line in order from the one closest to the light source pixel as a light beam straight line. Further, the point detection unit includes a range setting unit (S320), an extraction unit (S350), and an update unit (S360), and operates the point detection unit using the prediction straight line updated by the update unit. Is repeated. Range setting unit, from the latest shaft of light pixels detected by the detected light source pixels or points detecting section at the light source detector, apart preset unit distance above, and, located a preset predicted straight line The detection range centered on the predicted pixel is set with the pixel to be predicted as the predicted pixel. The extraction unit extracts the maximum pixels included in the detection range set by the range setting unit, and uses the extracted maximum pixels as the detection result of the light beam pixels. The update unit updates the prediction straight line based on the amount of deviation between the light beam pixels extracted by the extraction unit and the prediction pixel.

このような構成によれば、光芒の検出精度を向上させることができる。 According to such a configuration, it is possible to improve the detection accuracy of the light beam.

車両制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of a vehicle control system. 光芒認識処理のフローチャートである。It is a flowchart of a light beam recognition process. 光源検出処理のフローチャートである。It is a flowchart of a light source detection process. 選択画素の周囲を表す図である。It is a figure which shows the circumference of a selected pixel. 光芒検出処理のフローチャートである。It is a flowchart of a light beam detection process. 光芒検出処理が行われる様子を表した図である。It is a figure which showed the state which the light beam detection processing is performed.

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.実施形態]
[1−1.構成]
図1に示す車両制御システム1は、車両に備えられ、光学カメラ11、光芒認識装置12、物体認識装置13及び車両制御装置14を備える。以下、車両制御システム1が備えられる車両を自車とする。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. Embodiment]
[1-1. Constitution]
The vehicle control system 1 shown in FIG. 1 is provided in a vehicle and includes an optical camera 11, a light beam recognition device 12, an object recognition device 13, and a vehicle control device 14. Hereinafter, the vehicle provided with the vehicle control system 1 will be referred to as the own vehicle.

光学カメラ11は、自車の前方の撮像を行う。
光芒認識装置12は、光学カメラ11によって撮像された画像に基づいて、自車前方に存在する光芒を認識する。
The optical camera 11 takes an image of the front of the own vehicle.
The light beam recognition device 12 recognizes the light beam existing in front of the own vehicle based on the image captured by the optical camera 11.

光芒認識装置12は、CPU121と、RAM、ROM及びフラッシュメモリ等の半導体と、を有する周知のマイクロコンピュータを中心に構成される。光芒認識装置12の各種機能は、CPU121が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ122が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、光芒認識装置12を構成するマイクロコンピュータの数は1つでも複数でもよい。 The optical beam recognition device 12 is mainly composed of a well-known microcomputer having a CPU 121 and semiconductors such as RAM, ROM, and flash memory. Various functions of the optical beam recognition device 12 are realized by the CPU 121 executing a program stored in a non-transitional substantive recording medium. In this example, the memory 122 corresponds to a non-transitional substantive recording medium in which a program is stored. Moreover, when this program is executed, the method corresponding to the program is executed. The number of microcomputers constituting the optical beam recognition device 12 may be one or a plurality.

光芒認識装置12は、CPU121がプログラムを実行することで後述する光芒認識処理を実現する。光芒認識装置12の各種機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。 The light beam recognition device 12 realizes the light beam recognition process described later by executing a program by the CPU 121. The method for realizing various functions of the light beam recognition device 12 is not limited to software, and a part or all of the elements may be realized by using one or more hardware. For example, when the above function is realized by an electronic circuit which is hardware, the electronic circuit may be realized by a digital circuit including a large number of logic circuits, an analog circuit, or a combination thereof.

物体認識装置13は、自車の進行方向に存在する物体を認識する。すなわち、光学カメラ11から光芒認識装置12を介し取得した画像に基づいて、画像中に含まれる物体の認識を行う。具体的には、物体認識装置13は、取得した画像から、輝度及び色度の違いを検出し、自車前方に存在する物体を認識し、認識した物体が自車に衝突するか否か予測する。なお、物体認識装置13の動作は、公知であり詳細な説明は省略する。 The object recognition device 13 recognizes an object existing in the traveling direction of the own vehicle. That is, the object included in the image is recognized based on the image acquired from the optical camera 11 via the light beam recognition device 12. Specifically, the object recognition device 13 detects the difference in brightness and chromaticity from the acquired image, recognizes the object existing in front of the own vehicle, and predicts whether or not the recognized object collides with the own vehicle. To do. The operation of the object recognition device 13 is known, and detailed description thereof will be omitted.

車両制御装置14は、物体認識装置13による車両前方の物体と衝突するか否かの予測に基づき、自車の動作を制御する電子制御装置である各ECUに対して自車の制御を行う指示を送信する。ここで各ECUは、車両制御装置14からの指示に従って自車の操舵制御及び制動制御を行う。なお、車両制御装置14の動作は、公知であり詳細な説明は省略する。 The vehicle control device 14 instructs each ECU, which is an electronic control device that controls the operation of the own vehicle, to control the own vehicle based on the prediction by the object recognition device 13 whether or not the vehicle collides with an object in front of the vehicle. To send. Here, each ECU performs steering control and braking control of the own vehicle according to an instruction from the vehicle control device 14. The operation of the vehicle control device 14 is known and detailed description thereof will be omitted.

[1−2.処理]
次に、光芒認識装置12が実行する光芒認識処理について、図2のフローチャートを用いて説明する。当該光芒認識処理は、光学カメラ11により画像が撮像され、光芒認識装置12が画像を取得したときに実行される。また、画像を取得した段階で、画像内の各画素の輝度である画素輝度が取得される。ここで取得される画像の左右方向の画素の並びを行、上下方向の画素の並びを列とする。
[1-2. processing]
Next, the light beam recognition process executed by the light beam recognition device 12 will be described with reference to the flowchart of FIG. The light beam recognition process is executed when an image is captured by the optical camera 11 and the light beam recognition device 12 acquires the image. Further, at the stage of acquiring the image, the pixel brightness, which is the brightness of each pixel in the image, is acquired. The arrangement of pixels in the left-right direction of the image acquired here is a row, and the arrangement of pixels in the up-down direction is a column.

S100で光芒認識装置12は、光源が写り込んでいる領域である光源領域の検出を行い、その光源領域の位置を記憶する光源検出処理を実行する。
光芒認識装置12は、後述するS200からS400までの処理を繰り返し行う。ここで、S200からS400までの繰り返し行われる処理を光芒認識サイクルとする。
In S100, the light beam recognition device 12 detects a light source region, which is a region in which a light source is reflected, and executes a light source detection process for storing the position of the light source region.
The light beam recognition device 12 repeats the processes from S200 to S400, which will be described later. Here, the process repeated from S200 to S400 is referred to as a light beam recognition cycle.

S200で光芒認識装置12は、S100で検出した光源領域のうち、今回の光芒認識サイクルで処理の対象となる光源領域を選択する。このとき選択される光源領域は今回の光芒認識サイクルより前に行った光芒認識サイクルで選択されていない光源領域が選択される。 The light beam recognition device 12 in S200 selects a light source region to be processed in the current light beam recognition cycle from the light source regions detected in S100. As the light source region selected at this time, a light source region not selected in the light beam recognition cycle performed before the current light beam recognition cycle is selected.

S300で光芒認識装置12は、S200で選択された光源領域から伸びる光芒の検出を行う光芒検出処理を実行する。光芒検出処理はカルマンフィルタを用いて実行される。
S400で光芒認識装置12は、今回の光芒認識サイクルより前において選択されていない光源領域が存在するか否かを判定する。
In S300, the light beam recognition device 12 executes a light beam detection process for detecting the light beam extending from the light source region selected in S200. The light beam detection process is executed using a Kalman filter.
In S400, the light beam recognition device 12 determines whether or not there is a light source region that has not been selected before the current light beam recognition cycle.

光芒認識装置12はS400で選択されていない光源領域が存在する場合、S200に戻り以降の処理を行う。
光芒認識装置12はS400で選択されていない光源領域が存在しない場合、S500で光芒認識装置12は、光学カメラから取得した画像のうち、S100からS400までの処理により検出された光芒直線を写している画素及びその周辺を物体として認識することを抑制するように物体認識装置13に出力を行う。ここでいう周辺とは、光芒直線を写している画素に対して想定される光芒が広がる範囲のことをいい、例えば、光芒画素を中心とし、行方向に10ピクセルずつ広がる範囲をいう。
When the light source region not selected in S400 exists, the light beam recognition device 12 returns to S200 and performs the subsequent processing.
When the light beam recognition device 12 does not have a light source region not selected in S400, the light beam recognition device 12 in S500 captures the light beam straight line detected by the processes from S100 to S400 in the image acquired from the optical camera. Output is performed to the object recognition device 13 so as to suppress recognition of the existing pixel and its surroundings as an object. The term “periphery” as used herein refers to a range in which the expected light beam spreads with respect to the pixels in which the light beam straight line is projected.

なお、画像を取得する処理が画像取得部に相当し、S100での処理が光源検出部に相当し、S500での処理が認識抑制部に相当する。
<光源検出処理>
ここで光芒認識装置12が先のS100で実行する光源検出処理の詳細を、図3に示すフローチャートに沿って説明する。
The process of acquiring an image corresponds to the image acquisition unit, the process of S100 corresponds to the light source detection unit, and the process of S500 corresponds to the recognition suppression unit.
<Light source detection process>
Here, the details of the light source detection process executed by the light beam recognition device 12 in S100 will be described with reference to the flowchart shown in FIG.

光芒認識装置12は、後述するS110からS160までの処理を繰り返し行う。ここで、S110からS160までの繰り返し行われる処理を光源検出サイクルとする。
S110で光芒認識装置12は、取得した画像において画素の選択を行う。この画素の選択は、初回は取得した画像の左上隅の画素が選択され、2回目以降の光源検出サイクルでは、前回の光源検出サイクルにおいて選択した画素と同一行の右隣の画素を選択する。なお、右隣の画素が存在しない場合、当該光源検出サイクルの前の光源検出サイクルで選択した画素の1つ下の行の一番左の画素を選択する。以下、選択された画素を選択画素とする。
The light beam recognition device 12 repeats the processes from S110 to S160 described later. Here, the process repeated from S110 to S160 is referred to as a light source detection cycle.
In S110, the light beam recognition device 12 selects pixels in the acquired image. In this pixel selection, the pixel in the upper left corner of the acquired image is selected for the first time, and in the second and subsequent light source detection cycles, the pixel on the right side of the same row as the pixel selected in the previous light source detection cycle is selected. If the pixel to the right does not exist, the leftmost pixel in the row one row below the pixel selected in the light source detection cycle before the light source detection cycle is selected. Hereinafter, the selected pixel will be referred to as a selected pixel.

S120で光芒認識装置12は、S110で選択された選択画素が光源画素であるか否かを判定する。ここでいう光源画素は、選択画素の画素輝度が光芒認識装置12によりあらかじめ設定された輝度の閾値である光源閾値以上である画素である。 In S120, the light beam recognition device 12 determines whether or not the selected pixel selected in S110 is a light source pixel. The light source pixel referred to here is a pixel in which the pixel brightness of the selected pixel is equal to or higher than the light source threshold value which is the threshold value of the brightness preset by the light beam recognition device 12.

S120で光芒認識装置12により、選択画素が光源画素であると判定された場合、S130で光芒認識装置12は、選択画素の周囲に検出光源画素が存在するか否か判定する。ここでいう選択画素の周囲とは、図4に実線で示すように、選択画素を中心とする行方向及び列方向にそれぞれ1ピクセル以内の範囲をいい、検出光源画素とは、今回の光源検出サイクルより前の光源検出サイクルで検出されている光源画素をいう。 When the light beam recognition device 12 determines in S120 that the selected pixel is a light source pixel, the light beam recognition device 12 in S130 determines whether or not the detection light source pixel exists around the selected pixel. As shown by the solid line in FIG. 4, the periphery of the selected pixel here means a range within 1 pixel in each of the row direction and the column direction centering on the selected pixel, and the detection light source pixel is the current light source detection. A light source pixel detected in a light source detection cycle prior to the cycle.

S130で光芒認識装置12により、選択画素の周囲に検出光源画素が存在しないと判定された場合、S140に処理を移行する。
S140で光芒認識装置12は選択画素の位置を新たな光源領域の位置としてメモリ122に記憶し、S160に処理を移行する。
When the light beam recognition device 12 determines in S130 that the detection light source pixel does not exist around the selected pixel, the process shifts to S140.
In S140, the light beam recognition device 12 stores the position of the selected pixel as the position of a new light source region in the memory 122, and shifts the processing to S160.

S130で光芒認識装置12により、選択画素の周囲に検出光源画素が存在すると判定された場合、S150に処理を移行する。
S150で光芒認識装置12は、選択画素が検出光源画素と同一の光源領域に属する光源画素であるとして検出光源画素が属する光源領域の位置を求める。ここで、求められる光源領域の位置は、同一の光源領域に属する光源の中心位置とする。なお、ここでいう中心位置は、同一の光源領域に属する光源の重心位置であってもよい。そして、求めた光源領域の位置をメモリ122に記憶されている検出光源の位置を更新し、S160に処理を移行する。
When the light beam recognition device 12 determines in S130 that the detection light source pixel exists around the selected pixel, the process shifts to S150.
In S150, the light beam recognition device 12 determines the position of the light source region to which the detection light source pixel belongs, assuming that the selected pixel is a light source pixel belonging to the same light source region as the detection light source pixel. Here, the position of the light source region obtained is the center position of the light source belonging to the same light source region. The center position referred to here may be the position of the center of gravity of a light source belonging to the same light source region. Then, the position of the obtained light source area is updated with the position of the detection light source stored in the memory 122, and the process shifts to S160.

S120で光芒認識装置12により、選択画素が光源画素ではないと判定された場合、S160で取得した画像中に、以前の光源検出サイクルにおいて画素の選択が行われていない画素が存在するか否か判定される。 When the light beam recognition device 12 determines in S120 that the selected pixel is not a light source pixel, whether or not there is a pixel in the image acquired in S160 that has not been selected in the previous light source detection cycle. It is judged.

S160で選択していない画素が存在すると判定された場合、S110に戻り、以降の処理を繰り返し行う。
以上に示した光源検出処理を行うことにより、光芒認識装置12は光学カメラ11から取得した画像中に写り込んだ輝度閾値以上の画素輝度を持つ画素を有する領域である光源領域の検出及び当該光源領域の位置の記憶を行うことができる。
If it is determined in S160 that a pixel not selected exists, the process returns to S110 and the subsequent processing is repeated.
By performing the light source detection process shown above, the light beam recognition device 12 detects the light source region, which is a region having pixels having pixel brightness equal to or higher than the luminance threshold reflected in the image acquired from the optical camera 11, and the light source. The position of the area can be memorized.

<カルマンフィルタ>
次に、光芒検出処理で用いられる一般的なカルマンフィルタについて説明する。
ここでは、画像上の最も左上に存在する画素を座標の原点(x,y)=(0,0)、画像上の行方向の位置をx、列方向の位置をyとする。このときの画像上の直線をx=ay+bで表現するものとし、この直線の傾きa、x軸との交点であるx切片bを要素とするベクトルを状態ベクトルsとする。
<Kalman filter>
Next, a general Kalman filter used in the light beam detection process will be described.
Here, the pixel existing at the upper left corner of the image is defined as the origin of coordinates (x, y) = (0,0), the position in the row direction on the image is x, and the position in the column direction is y. The straight line on the image of this time shall be expressed in x = ay + b, the vector gradient a of the straight line, the x-intercept b is the intersection of the x-axis and the element and the state vector s t.

以下、tは時刻、Pは共分散ベクトル、Kはカルマンフィルタゲイン、Hは観測行列(y,1)、qは予測誤差、rは観測誤差を表す。状態ベクトルs及びこのシステムモデルは、次の(1)式から(3)式によって表される。 Hereinafter, t is the time, P t is the covariance vector, K t is the Kalman filter gain, H t is the observation matrix (y, 1), q is the prediction error, and r is the observation error. The state vector s t and the system model is expressed by the following equation (1) (3).

Figure 0006787758
Figure 0006787758

なおシステムノイズvs及び観測ノイズvzはそれぞれ正規分布N(0,q),N(0,r)に従う。
以下では、状態推定において、将来の状態を推定することを予測、現在の状態を推定することをフィルタリングと呼ぶものとする。
The system noise vs. the observed noise vz follow the normal distributions N (0, q) and N (0, r), respectively.
In the following, in state estimation, estimating the future state is referred to as prediction, and estimating the current state is referred to as filtering.

そして、時刻tにおいて予測された状態を表した状態ベクトルである予測ベクトルをst+1、共分散行列をPt|t−1とし、時刻tにおいてフィルタリングされた状態を表した状態ベクトルである推定ベクトルをs、共分散行列をPt|t、時刻tでのカルマンゲインをKとすると、周知のように(4)式〜(7)式によって表される。 Then, the prediction vector, which is a state vector representing the predicted state at time t, is s t + 1 , the covariance matrix is P t | t-1, and the estimation vector is a state vector representing the filtered state at time t. Is s t , the covariance matrix is P t | t , and the Kalman gain at time t is K t. As is well known, it is expressed by equations (4) to (7).

Figure 0006787758
Figure 0006787758

<光芒検出処理>
ここで光芒認識装置12が先のS300で実行する光芒検出処理の詳細を、図5に示すフローチャートに沿って説明し、各ステップにおける処理の様子を図6に示す。以下、カルマンフィルタの状態ベクトルsの表すパラメータにより定義される直線を予測直線Sという。
<Light beam detection process>
Here, the details of the light beam detection process executed by the light beam recognition device 12 in S300 will be described with reference to the flowchart shown in FIG. 5, and the state of the process in each step is shown in FIG. Hereinafter, the line defined by parameters representing the state vector s t of the Kalman filter that the expected line S t.

光芒認識装置12は、S310で予測直線Sの初期設定を行う。具体的な予測直線Sについて、以下に示す。すなわち、S200において光芒認識装置12が選択した光源領域Aの位置zの座標を(x,y)=(x,y)とする。予測直線SはS200で光芒認識装置12により選択された光源領域Aの位置から画像の列方向に伸ばした直線とする。すなわち、予測直線Sは状態ベクトルs=(0,xにより定義される直線である。 Shaft of light recognition apparatus 12 performs initial setting of the expected line S 0 in S310. The specific prediction straight line S 0 is shown below. That is, the coordinates of the position z 0 of the light source region A selected by the light beam recognition device 12 in S200 are set to (x, y) = (x 0 , y 0 ). The predicted straight line S 0 is a straight line extending in the column direction of the image from the position of the light source region A selected by the light beam recognition device 12 in S200. That is, the predicted straight line S 0 is a straight line defined by the state vector s 0 = (0, x 0 ) T.

光芒認識装置12は、後述するS320からS360までの処理を繰り返し行う。ここで、S320からS360までの繰り返し行われる処理を光芒検出サイクルとする。初回の光芒検出サイクルをt=1とし、光芒検出サイクルを繰り返すごとにtは1ずつ増加するものとする。 The light beam recognition device 12 repeats the processes from S320 to S360 described later. Here, the process repeated from S320 to S360 is referred to as a light beam detection cycle. It is assumed that the first light beam detection cycle is t = 1, and t is incremented by 1 each time the light beam detection cycle is repeated.

S320で光芒認識装置12は、検出範囲Cの設定を行う。ここでいう検出範囲Cは、予測画素Bの属する行において、予測画素Bを中心にあらかじめ決められた範囲が設定され、(2)式のvによって定義される。ここでいう予測画素Bは光芒画素zt−1が属する行からあらかじめ決められた距離である単位距離Δyだけ列方向に離れた行と予測直線Sとが交わる画素のことである。ここでいう予測画素Bの位置は、(6)式の一部であるH×st−1で求められる。また、単位距離Δyは、光源と光芒とが離間している場合において想定される距離よりも大きく設定され、例えば5ピクセル分の距離である。また、予測画素B1のy座標は、光源画素のy座標yを用いてy=y+Δyが成り立つ。また、以降のサイクルにおいても、予測画素Bのy座標は、光源画素のy座標yを用いてy=y+Δy×tが成り立つ。 Shaft of light recognition device 12 in S320 performs the setting of the detection range C t. Detection range C t here is, in the row that belongs predicted pixel B t, is set a predetermined range around the predicted pixel B t, is defined by the expression (2) v s. The term prediction pixel B t is that the pixels that intersect the unit distance Δy between rows apart in the column direction and the expected line S t is the distance light streak pixel z t-1 is predetermined from belongs row. The position of the predicted pixel B t referred to here is obtained by H t × st-1 which is a part of the equation (6). Further, the unit distance Δy is set to be larger than the distance assumed when the light source and the light beam are separated from each other, and is, for example, a distance of 5 pixels. Further, as the y coordinate of the predicted pixel B 1 , y = y 0 + Δy holds using the y coordinate y 0 of the light source pixel. Further, also in the subsequent cycles, y = y 0 + Δy × t holds as the y coordinate of the predicted pixel B t using the y coordinate y 0 of the light source pixel.

S330で光芒認識装置12は、S320で設定された検出範囲Cにおいて、極大画素を検出する。ここでいう極大画素とは、あらかじめ設定された輝度の条件である極大条件を満たす画素のことである。具体的には、極大条件とは、各画素のあらかじめ設定された範囲において、最大の輝度を取り、かつ、あらかじめ設定された輝度の閾値である光芒閾値以上の輝度を取ることである。ここで、各画素のあらかじめ決められた範囲とは各画素の左右3ピクセルの範囲をいう。また、光芒閾値は、光源閾値よりも小さく設定されてもよい。 Shaft of light recognition device 12 in S330, in the detection range C t set in S320, detects a maximum pixel. The maximum pixel referred to here is a pixel that satisfies the maximum condition, which is a preset brightness condition. Specifically, the maximum condition is to take the maximum brightness in the preset range of each pixel and to take the brightness equal to or higher than the light beam threshold which is the preset brightness threshold. Here, the predetermined range of each pixel means a range of 3 pixels on the left and right of each pixel. Further, the light beam threshold value may be set smaller than the light source threshold value.

S340で光芒認識装置12は、S320で設定された検出範囲Cにおいて、極大画素が存在するか否か判定する。S340で極大画素が存在すると判定された場合、S350で光芒認識装置12は検出範囲に存在する極大画素を抽出し、抽出された極大画素に基づき光芒画素zを設定する。ここで抽出された極大画素が1つの場合にはその極大画素が光芒画素として設定される。一方、抽出された極大画素が複数存在する場合には、それぞれの極大画素同士を平均した位置に存在する画素が光芒画素zとして設定される。 S340 in shaft of light recognition device 12, the detection range C t set in S320, determines whether or not the maximum pixel exists. If it is determined that the maximum pixel exists at S340, shaft of light recognition device 12 in S350 extracts the maximum pixel present in the detection range, to set a light streak pixel z t based on the extracted maximum pixel. When there is one maximum pixel extracted here, the maximum pixel is set as a light beam pixel. On the other hand, the extracted maximum pixel when there are a plurality of pixels present at a position obtained by averaging the respective maxima between pixels is set as the shaft of light pixels z t.

次にS360で、光芒認識装置12は、予測直線Sの更新を行う。ここでいう予測直線Sの更新とは、予測画素Bと光芒画素zとの距離であるずれ量Dに基づいて算出される。ここで、ずれ量Dは(6)式の右辺第2項である(z−H×st−1)が対応する。また予測直線Sの更新は、(6)式が対応する。すなわち、予測画素B及び光芒画素zのずれ量Dに(5)式で求められるカルマンゲインKを乗算したものを予測ベクトルst−1に足し合わせることで、予測ベクトルsを算出する。このように、予測ベクトルsを更新することにより、その更新された予測ベクトルsにより特定される予測直線Sも更新されることとなる。 Next, in S360, shaft of light recognition device 12 updates the expected line S t. The updating of the expected line S t here is calculated based on the distance between the prediction pixel B t and light streak pixel z t shift amount D t. Here, the deviation amount D t corresponds to (z t −H t × s t-1 ), which is the second term on the right side of the equation (6). The updating of the expected line S t is (6) correspond. That is, by adding the multiplied by the Kalman gain K t sought (5) to the displacement amount D t predicted pixel B t and shaft of light pixels z t to the prediction vector s t-1, the prediction vector s t calculate. Thus, by updating the prediction vector s t, it becomes to be updated expected line S t specified by the updated predicted vector s t.

S340で極大画素が存在しないと判定された場合、S370で光芒認識装置12は光芒直線の生成を行い、処理を終了する。ここでいう光芒直線EはS200において光芒認識装置12が選択した光源領域Aの位置zを起点とし、光芒検出サイクルを行いS350で設定された光芒点を、設定した順番に直線で結ぶことにより生成される。すなわち、光源領域Aの位置zと光芒点zとを直線で結び、光芒点zと光芒点zとを結び、というように光源及び光芒点同士を設定された順番に従って直線で結ぶことで光芒直線が設定される。 When it is determined in S340 that the maximum pixel does not exist, the light beam recognition device 12 generates a light beam straight line in S370 and ends the process. The light beam straight line E 1 referred to here starts from the position z 0 of the light source region A selected by the light beam recognition device 12 in S200, performs a light beam detection cycle, and connects the light beam points set in S350 with a straight line in the set order. Is generated by. That is, the position z 0 of the light source region A and the light beam point z 1 are connected by a straight line, the light beam point z 1 and the light beam point z 2 are connected, and so on, the light source and the light beam point are connected by a straight line in a set order. This sets the light beam straight line.

以上に示した光源検出処理を行うことにより、S200で選択された光源から伸びる光芒の検出を行う。
なお、S320での処理が範囲設定部に相当し、S330での処理が極大検出部に相当し、S350での処理が抽出部に相当し、S360での処理が更新部に相当し、S370での処理が生成部に相当する。
By performing the light source detection process shown above, the light beam extending from the light source selected in S200 is detected.
The processing in S320 corresponds to the range setting unit, the processing in S330 corresponds to the maximum detection unit, the processing in S350 corresponds to the extraction unit, the processing in S360 corresponds to the update unit, and the processing in S370 corresponds to the update unit. Process corresponds to the generation unit.

[1−3.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1a)本実施形態の光芒認識装置によれば、光源領域の形状によらず光源領域の周辺の画素に光芒があるか否かを判定することから光芒の表れる方向と光源領域を楕円に近似した場合の長辺方向とが一致しない状況においても光芒を検出することができ、光芒の検出精度を向上させる技術を提供することができる。
[1-3. effect]
According to the embodiment described in detail above, the following effects are obtained.
(1a) According to the light beam recognition device of the present embodiment, the direction in which the light beam appears and the light source region are approximated to an ellipse because it is determined whether or not there is a light beam in the pixels around the light source region regardless of the shape of the light source region. It is possible to detect the light beam even in a situation where the long side direction does not match, and it is possible to provide a technique for improving the detection accuracy of the light beam.

(1b)本実施形態の光芒認識装置12によれば、極大画素と周囲の光源中心又は光芒画素を直線で結ぶことで形成される折れ線を光芒として認識する。このため、光芒全体が直線ではなく、湾曲している状況においても光芒を認識することができる。これにより、光芒の検出精度を向上させる技術を提供することができる。 (1b) According to the light beam recognition device 12 of the present embodiment, a polygonal line formed by connecting the maximum pixel and the center of the surrounding light source or the light beam pixel with a straight line is recognized as the light beam. Therefore, the light beam can be recognized even in a situation where the entire light beam is curved instead of a straight line. This makes it possible to provide a technique for improving the detection accuracy of the light beam.

(1c)また、本実施形態の光芒認識装置12によれば、単位距離Δyは想定される光源と光芒の離間している距離よりも大きく設定される。これにより、光源領域と光芒の間に想定される輝度が低い部分がある光源領域と光芒が離間しているような状況においても光芒を認識することができる。これにより、光芒の検出精度を向上させる技術を提供することができる。 (1c) Further, according to the light beam recognition device 12 of the present embodiment, the unit distance Δy is set to be larger than the distance between the assumed light source and the light beam. As a result, the light beam can be recognized even in a situation where the light source region and the light beam are separated from each other, where there is an assumed low-luminance portion between the light source region and the light beam. This makes it possible to provide a technique for improving the detection accuracy of the light beam.

[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be implemented in various modifications.

(2a)上記実施形態では、極大画素が複数存在する場合には、それぞれの極大画素の平均の位置を光芒位置とするとしているが、光芒位置の設定はこれに限定されるものではない。例えば、複数存在する極大画素のうち、最も輝度の高い画素としてもよく、最も予測画素に近い画素としてもよい。また、カルマンフィルタを用いて光芒位置を設定してもよい。すなわち、予測画素Bに対して抽出された複数の極大画素の位置をカルマンフィルタを用いて更新することにより、光芒位置を設定してもよい。言い換えると、状態ベクトルst-1が表す直線を検出された光芒画素との位置関係からカルマンフィルタを用いて更新した直線を予測直線Sとして設定してもよい。具体的には、予測直線Sは、初期設定された状態ベクトルsを光芒画素の位置zとの位置関係からカルマンフィルタを用いて更新した直線を設定してもよい。 (2a) In the above embodiment, when a plurality of maximum pixels are present, the average position of each maximum pixel is set as the light beam position, but the setting of the light beam position is not limited to this. For example, it may be the pixel having the highest brightness among the plurality of maximum pixels, or the pixel closest to the predicted pixel. Further, the Kalman filter may be used to set the light beam position. That is, the position of the light beam may be set by updating the positions of the plurality of maximum pixels extracted with respect to the predicted pixel B t using a Kalman filter. In other words, the straight line represented by the state vector st-1 may be set as the predicted straight line St as the straight line updated by using the Kalman filter from the positional relationship with the detected light beam pixels. Specifically, the predicted straight line S 1 may be a straight line obtained by updating the initially set state vector s 0 with the position z 1 of the light beam pixel by using a Kalman filter.

(2b)上記実施形態では、極大条件とは、あらかじめ設定された画素の範囲において、最大の輝度を取り、かつ、あらかじめ設定された輝度の閾値である光芒閾値以上の輝度を取ることであるとした。しかし、極大条件はこれに限定されるものではない。例えば、極大条件はあらかじめ設定された画素の範囲において、極大となる画素を取ることとしてもよい。また、あらかじめ設定された画素の範囲は、左右3ピクセルの範囲に限定されるものではなく、1ピクセルの範囲でも良く、上下の範囲に設定されてもよい。 (2b) In the above embodiment, the maximum condition is to take the maximum brightness in the preset pixel range and to take the brightness equal to or higher than the light beam threshold which is the preset brightness threshold. did. However, the maximum condition is not limited to this. For example, the maximum condition may be a pixel that becomes the maximum within a preset pixel range. Further, the preset pixel range is not limited to the left and right 3 pixel range, but may be 1 pixel range or may be set to the upper and lower range.

(2c)上記実施形態では、S330にて極大画素の検出を行ったがS330の処理が行われるタイミングはこれに限定されるものではない。例えば、S100の処理の後の光源検出サイクルの行われる前に行われてもよい。 (2c) In the above embodiment, the maximum pixel is detected in S330, but the timing at which the processing in S330 is performed is not limited to this. For example, it may be performed before the light source detection cycle after the processing of S100.

(2d)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。 (2d) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment. It should be noted that all aspects included in the technical idea specified from the wording described in the claims are embodiments of the present disclosure.

(2e)上述した光芒認識装置の他、当該光芒認識装置を構成要素とするシステム、当該光芒認識装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、光芒認識方法など、種々の形態で本開示を実現することもできる。 (2e) In addition to the above-mentioned light beam recognition device, a system having the light beam recognition device as a component, a program for operating a computer as the light beam recognition device, a non-transitional substantive record of a semiconductor memory or the like in which this program is recorded The present disclosure can also be realized in various forms such as a medium and a light beam recognition method.

1…車両制御システム、11…光学カメラ、12…光芒認識装置、13…物体認識装置、14…車両制御装置、121…CPU、122…メモリ。 1 ... Vehicle control system, 11 ... Optical camera, 12 ... Light beam recognition device, 13 ... Object recognition device, 14 ... Vehicle control device, 121 ... CPU, 122 ... Memory.

Claims (3)

光学カメラ(11)から画像を取得し、当該取得された画像に対して画素ごとの輝度である画素輝度を算出するように構成された画像取得部と、
前記画像取得部により算出された前記画素輝度が、あらかじめ設定された輝度の閾値である光源閾値以上の輝度となる画素である光源画素を検出するように構成された光源検出部(S100)と、
前記画像取得部により算出された前記画素輝度が、あらかじめ設定された輝度の条件である極大条件を満たす画素を極大画素として検出するように構成された極大検出部(S330)と、
前記極大検出部にて検出された極大画素の中から、前記光源画素からの距離がそれぞれ異なり、かつ前記光源画素からの光芒を示す1つ以上の光芒画素を検出するように構成された点検出部と
前記光源検出部にて検出された光源画素及び前記点検出部にて検出された光芒画素を、前記光源画素に近いものから順番に直線で接続した折れ線を光芒直線として生成するように構成された生成部(S370)と、
を備え、
前記点検出部は、
前記光源検出部にて検出された前記光源画素又は前記検出部にて検出された最新の光芒画素から、あらかじめ設定された単位距離以上離れ、かつ、あらかじめ設定された予測直線上に位置する画素を予測画素として当該予測画素を中心とした検出範囲を設定するように構成された範囲設定部(S320)と、
前記範囲設定部により設定された前記検出範囲に含まれる前記極大画素を抽出し、当該抽出された前記極大画素を前記光芒画素の検出結果とするように構成された抽出部(S350)と、
前記抽出部にて抽出された光芒画素と前記予測画素とのずれ量に基づいて、前記予測直線を更新するように構成された更新部(S360)と、
を有し、前記更新部にて更新された前記予測直線を用いて、当該点検出部の動作を繰り返し実行させるように構成されている、光芒認識装置(12)。
An image acquisition unit configured to acquire an image from the optical camera (11) and calculate the pixel brightness, which is the brightness of each pixel, with respect to the acquired image.
A light source detection unit (S100) configured to detect a light source pixel whose pixel brightness calculated by the image acquisition unit is equal to or higher than a light source threshold value which is a preset brightness threshold.
A maximum detection unit (S330) configured so that the pixel brightness calculated by the image acquisition unit detects a pixel satisfying a maximum condition, which is a preset brightness condition, as a maximum pixel.
From the maximum pixels detected by the maximum detection unit, point detection configured to detect one or more light beam pixels having different distances from the light source pixels and indicating light rays from the light source pixels. Department and
It is configured to generate a polygonal line in which the light source pixel detected by the light source detection unit and the light beam pixel detected by the point detection unit are connected in a straight line in order from the one closest to the light source pixel as a light beam straight line. Generation unit (S370) and
With
The point detection unit
Pixels located on a preset prediction straight line at a distance of a preset unit distance or more from the light source pixel detected by the light source detection unit or the latest light beam pixel detected by the point detection unit. A range setting unit (S320) configured to set a detection range centered on the predicted pixel, and
An extraction unit (S350) configured to extract the maximum pixel included in the detection range set by the range setting unit and use the extracted maximum pixel as the detection result of the light beam pixel.
An update unit (S360) configured to update the predicted straight line based on the amount of deviation between the light beam pixels extracted by the extraction unit and the predicted pixel.
The light beam recognition device (12), which is configured to repeatedly execute the operation of the point detection unit by using the prediction straight line updated by the update unit.
請求項1に記載の光芒認識装置であって、
前記更新部により、カルマンフィルタを用いて前記予測直線を更新する、光芒認識装置。
The light beam recognition device according to claim 1.
A light beam recognition device that updates the predicted straight line by using the Kalman filter by the updating unit.
請求項1又は請求項2に記載の光芒認識装置であって、
当該光芒認識装置は、更に車両の進行方向に存在する物体を認識する物体認識装置(13)と接続され、
前記光学カメラから取得した前記画像のうち、前記光芒直線を写している画素を物体として認識することを抑制するように構成された認識抑制部(S500)を更に備える、光芒認識装置。
The optical beam recognition device according to claim 1 or 2.
The light beam recognition device is further connected to an object recognition device (13) that recognizes an object existing in the traveling direction of the vehicle.
A light beam recognition device further comprising a recognition suppression unit (S500) configured to suppress recognition of a pixel of the light beam straight line as an object in the image acquired from the optical camera.
JP2016227985A 2016-11-24 2016-11-24 Light beam recognition device Active JP6787758B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016227985A JP6787758B2 (en) 2016-11-24 2016-11-24 Light beam recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016227985A JP6787758B2 (en) 2016-11-24 2016-11-24 Light beam recognition device

Publications (2)

Publication Number Publication Date
JP2018084976A JP2018084976A (en) 2018-05-31
JP6787758B2 true JP6787758B2 (en) 2020-11-18

Family

ID=62238436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016227985A Active JP6787758B2 (en) 2016-11-24 2016-11-24 Light beam recognition device

Country Status (1)

Country Link
JP (1) JP6787758B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4935586B2 (en) * 2007-09-05 2012-05-23 株式会社デンソー Image processing apparatus, in-vehicle image processing apparatus, in-vehicle image display apparatus, and vehicle control apparatus
JP2010073009A (en) * 2008-09-19 2010-04-02 Denso Corp Image processing apparatus
RU2653461C2 (en) * 2014-01-21 2018-05-08 Общество с ограниченной ответственностью "Аби Девелопмент" Glare detection in the image data frame
JP5892876B2 (en) * 2011-07-28 2016-03-23 クラリオン株式会社 In-vehicle environment recognition system

Also Published As

Publication number Publication date
JP2018084976A (en) 2018-05-31

Similar Documents

Publication Publication Date Title
JP3651387B2 (en) White line detector
JP6237875B2 (en) Self-position calculation device and self-position calculation method
JP2008310509A (en) Image processor and operation support device
JP6377970B2 (en) Parallax image generation apparatus and parallax image generation method
JP7310527B2 (en) Obstacle identification device and obstacle identification program
WO2015125300A1 (en) Local location computation device and local location computation method
WO2015125299A1 (en) Local location computation device and local location computation method
JP4853444B2 (en) Moving object detection device
US20170190301A1 (en) Vehicle periphery monitoring device
JP2007265281A (en) Self-shadow determining method
JP2018147329A (en) Image processing device, image processing system, and image processing method
JP6787758B2 (en) Light beam recognition device
JP2018074411A (en) Object detection device and object detection method
JP6165513B2 (en) Hand gesture tracking system
JP6184447B2 (en) Estimation apparatus and estimation program
US11250553B2 (en) Deposit detection device and deposit detection method
JP7401246B2 (en) Imaging device, method of controlling the imaging device, and program
US10572753B2 (en) Outside recognition device for vehicle
JP2006339960A (en) Device and method for object detection
JP2021148730A (en) Position estimation method, position estimation device, and program
JP2021064154A (en) Obstacle identification apparatus and obstacle identification program
JP2007172500A (en) Data processor
JP2021064155A (en) Obstacle identifying device and obstacle identifying program
US11308709B2 (en) Deposit detection device and deposit detection method
JP2020201876A (en) Information processing device and operation support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201029

R150 Certificate of patent or registration of utility model

Ref document number: 6787758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250