JP2020106484A - Adhering matter detection device and adhering matter detection method - Google Patents
Adhering matter detection device and adhering matter detection method Download PDFInfo
- Publication number
- JP2020106484A JP2020106484A JP2018247678A JP2018247678A JP2020106484A JP 2020106484 A JP2020106484 A JP 2020106484A JP 2018247678 A JP2018247678 A JP 2018247678A JP 2018247678 A JP2018247678 A JP 2018247678A JP 2020106484 A JP2020106484 A JP 2020106484A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- unit
- candidate area
- candidate
- adhering matter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
開示の実施形態は、付着物検出装置および付着物検出方法に関する。 The disclosed embodiments relate to an adhering matter detecting device and an adhering matter detecting method.
従来、車両に搭載され、かかる車両周辺を撮像する車載カメラが知られている。車載カメラが撮像した映像は、たとえば運転者の視界補助のためにモニタ表示されたり、道路上の白線や車両への接近物などを検出するセンシングのために用いられたりする。 BACKGROUND ART Conventionally, a vehicle-mounted camera that is mounted on a vehicle and captures an image around the vehicle is known. The image captured by the vehicle-mounted camera is displayed on a monitor, for example, to assist the driver's visual field, or used for sensing to detect a white line on the road, an object approaching the vehicle, or the like.
なお、車載カメラのレンズには、たとえば雨滴や雪片、埃、泥などの付着物が付着し、前述の視界補助やセンシングの妨げとなることがある。そこで、たとえば車載カメラの撮像画像からいわゆるエッジを抽出し、これに基づいてレンズへの付着物を検出して、レンズへ向けて洗浄水や圧縮空気を噴射することで付着物を除去する技術が提案されている。(たとえば、特許文献1参照)。 Note that, for example, raindrops, snowflakes, dust, mud, and other attached matter may adhere to the lens of the vehicle-mounted camera, which may interfere with the above-described visibility assistance and sensing. Therefore, for example, there is a technique of extracting a so-called edge from an image captured by a vehicle-mounted camera, detecting an adhered matter to the lens based on the extracted edge, and ejecting cleaning water or compressed air toward the lens to remove the adhered matter. Proposed. (For example, refer to Patent Document 1).
しかしながら、上述した従来技術には、野外シーンにおいて雲が映り込む場合に、かかる雲を水滴として誤検出してしまうのを抑制し、検出精度を高めるという点で、さらなる改善の余地がある。 However, the above-described conventional technique has room for further improvement in that, when a cloud is reflected in an outdoor scene, the cloud is prevented from being erroneously detected as a water drop and the detection accuracy is improved.
実施形態の一態様は、上記に鑑みてなされたものであって、雲を水滴として誤検出してしまうのを抑制し、検出精度を高めることができる付着物検出装置および付着物検出方法を提供することを目的とする。 One aspect of the embodiment is made in view of the above, and provides an adhering matter detection device and an adhering matter detection method that can suppress erroneous detection of a cloud as a water droplet and improve detection accuracy. The purpose is to do.
実施形態の一態様に係る付着物検出装置は、抽出部と、検出部とを備える。前記抽出部は、撮像装置によって撮像された撮像画像に含まれる各画素のエッジ情報を抽出する。前記検出部は、前記抽出部によって抽出された前記エッジ情報に基づく所定の検出アルゴリズムを用いて、前記撮像画像中において水滴が存在すると推定される候補領域を検出する。また、前記検出部は、検出した前記候補領域のうちから、該候補領域の位置、輝度および大きさに基づく所定の除外条件に該当する前記候補領域を除外する。 The adhering matter detection device according to one aspect of the embodiment includes an extraction unit and a detection unit. The extraction unit extracts edge information of each pixel included in a captured image captured by the image capturing device. The detection unit detects a candidate region in which the water droplet is estimated to exist in the captured image, using a predetermined detection algorithm based on the edge information extracted by the extraction unit. Further, the detection unit excludes, from the detected candidate regions, the candidate regions that meet a predetermined exclusion condition based on the position, brightness, and size of the candidate region.
実施形態の一態様によれば、雲を水滴として誤検出してしまうのを抑制し、検出精度を高めることができる。 According to one aspect of the embodiment, it is possible to suppress erroneous detection of a cloud as a water drop and improve detection accuracy.
以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Embodiments of an adhering matter detecting device and an adhering matter detecting method disclosed in the present application will be described in detail below with reference to the accompanying drawings. The present invention is not limited to the embodiments described below.
また、以下では、自車の周囲を撮像するために車両に搭載された車載カメラに付着した水滴を、付着物として検出する場合を例に挙げて説明する。 Further, in the following, a case will be described as an example in which a water droplet attached to an on-vehicle camera mounted on a vehicle to image the surroundings of the vehicle is detected as an attached matter.
また、以下では、実施形態に係る付着物検出方法の概要について図1A〜図1Cを用いて説明した後に、実施形態に係る付着物検出方法を適用した付着物検出装置10について、図2〜図9を用いて説明する。 In addition, hereinafter, an outline of the attached matter detection method according to the embodiment will be described with reference to FIGS. 1A to 1C, and then an attached matter detection device 10 to which the attached matter detection method according to the embodiment is applied will be described with reference to FIGS. This will be described using 9.
まず、実施形態に係る付着物検出方法の概要について図1A〜図1Cを用いて説明する。図1A〜図1Cは、実施形態に係る付着物検出方法の概要説明図(その1)〜(その3)である。 First, the outline of the attached matter detection method according to the embodiment will be described with reference to FIGS. 1A to 1C. 1A to 1C are schematic explanatory diagrams (No. 1) to (No. 3) of the attached matter detection method according to the embodiment.
車両には、自車の周辺を撮像するために、たとえばフロントカメラ、バックカメラ、右サイドカメラ、左サイドカメラなどの車載カメラが搭載される。なお、以下では、かかる車載カメラを「カメラ2」と記載する。 Vehicles are equipped with vehicle-mounted cameras such as a front camera, a back camera, a right side camera, and a left side camera in order to capture an image around the vehicle. In addition, below, this vehicle-mounted camera is described as "camera 2."
カメラ2は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、かかる撮像素子によって車両周辺を撮像する。なお、カメラ2のレンズには魚眼レンズなどの広角レンズが採用され、カメラ2はそれぞれ180度以上の画角を有し、これらを利用することで車両の全周囲を撮像することが可能である。 The camera 2 includes an image pickup device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and the image pickup device picks up an image of the vehicle periphery. A wide-angle lens such as a fish-eye lens is adopted as the lens of the camera 2, and each camera 2 has an angle of view of 180 degrees or more, and by using these, it is possible to image the entire circumference of the vehicle.
そして、カメラ2によって撮像された画像は、車両に搭載された図示略の付着物検出装置へ出力される。 Then, the image captured by the camera 2 is output to an adhering matter detection device (not shown) mounted on the vehicle.
付着物検出装置は、カメラ2から取得した画像を1フレームごとに画像解析し、たとえば各画素のエッジ情報(輝度の勾配など)によるテンプレートマッチングなどの手法を用いることによって、画像中における付着物の存在エリアを検出する。 The attached matter detection device analyzes the image acquired from the camera 2 for each frame, and uses a technique such as template matching based on the edge information of each pixel (such as the gradient of brightness) to detect the attached matter in the image. The existing area is detected.
たとえば図1Aに示すように、付着物検出装置は、撮像画像I中において水滴が存在すると推定されるエリアである候補エリアDaを検出する。なお、図1A〜図1Cでは、2つの候補エリアDaにのみ符号を付しているが、図中の白線枠はすべて候補エリアDaである。 For example, as shown in FIG. 1A, the adhering matter detection device detects a candidate area Da that is an area in which a water droplet is estimated to be present in the captured image I. 1A to 1C, reference numerals are given only to the two candidate areas Da, but the white line frames in the drawings are all candidate areas Da.
しかしながら、かかる水滴の検出に際し、従来技術に係る付着物検出装置は、たとえば図1Bに示すように、撮像画像I中において雲が映り込む場合に、かかる雲が存在するエリアを、水滴が存在する候補エリアDaとして誤検出してしまう場合があった。これは、雲は不定形ではあるものの、水滴と同様に丸みを帯びた輪郭を有する場合があるためである。 However, in detecting such water droplets, when a cloud is reflected in the captured image I, for example, as shown in FIG. 1B, the attached matter detection device according to the related art has water droplets in an area where the cloud is present. There was a case where the candidate area Da was erroneously detected. This is because the cloud may have an irregular shape, but may have a rounded contour like a water drop.
そこで、実施形態に係る付着物検出方法では、かかる雲が水滴と誤検出される場合の候補エリアDaについて、その特徴を複数のサンプルデータなどから予め抽出し、これを条件化することとした(ステップS1)。 Therefore, in the attached matter detection method according to the embodiment, with respect to the candidate area Da in the case where such a cloud is erroneously detected as a water drop, its characteristics are extracted in advance from a plurality of sample data and the like is conditioned ( Step S1).
そのうえで、実施形態に係る付着物検出方法では、当該条件を除外条件とし、かかる除外条件に該当する候補エリアDaを、水滴が存在すると推定されるエリアからは除外することとした(ステップS2)。これにより、雲を水滴として誤検出してしまうのを抑制することができる。したがって、実施形態に係る付着物検出方法によれば、検出精度を高めることができる。 In addition, in the deposit detection method according to the embodiment, the condition is used as an exclusion condition, and the candidate area Da that corresponds to the exclusion condition is excluded from the area where water droplets are estimated to exist (step S2). This can prevent the cloud from being erroneously detected as a water drop. Therefore, according to the deposit detection method according to the embodiment, the detection accuracy can be improved.
なお、雲を水滴として誤検出する場合の特徴、および、これに基づく除外条件の詳細については、図8を用いた説明で後述する。 Note that details of the characteristics in the case of erroneously detecting a cloud as a water drop and the exclusion conditions based on this will be described later with reference to FIG.
以下、上述した実施形態に係る付着物検出方法を適用した付着物検出装置10の実施形態について、さらに具体的に説明する。 Hereinafter, an embodiment of the adhering matter detecting device 10 to which the adhering matter detecting method according to the above-described embodiment is applied will be described more specifically.
図2は、実施形態に係る付着物検出装置10のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。 FIG. 2 is a block diagram of the adhering matter detection device 10 according to the embodiment. Note that, in FIG. 2, only the components necessary for explaining the features of the present embodiment are represented by functional blocks, and the description of general components is omitted.
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component shown in FIG. 2 is functionally conceptual, and does not necessarily have to be physically configured as shown. For example, the specific form of distribution/integration of each functional block is not limited to that shown in the figure, and all or part of the functional block may be functionally or physically distributed in arbitrary units according to various loads and usage conditions. -It can be integrated and configured.
図2に示すように、実施形態に係る付着物検出装置10は、記憶部11と、制御部12とを備える。また、付着物検出装置10は、カメラ2と、各種機器50とに接続される。 As shown in FIG. 2, the adhering matter detection device 10 according to the embodiment includes a storage unit 11 and a control unit 12. Further, the adhered matter detection device 10 is connected to the camera 2 and various devices 50.
なお、図2では、付着物検出装置10が、カメラ2および各種機器50とは別体で構成される場合を示したが、これに限らず、カメラ2および各種機器50の少なくとも一方と一体に構成されてもよい。 Note that FIG. 2 shows the case where the adhering matter detection device 10 is configured separately from the camera 2 and the various devices 50, but the present invention is not limited to this, and is integrated with at least one of the camera 2 and the various devices 50. It may be configured.
カメラ2については既に述べたため、ここでの説明を省略する。各種機器50は、付着物検出装置10の検出結果を取得して、車両の各種制御を行う機器である。各種機器50は、たとえば、カメラ2のレンズに付着物が付着していることやユーザへの付着物の拭き取り指示を通知する表示装置、流体や気体等をレンズへ向けて噴射して付着物を除去する除去装置、および、自動運転等を制御する車両制御装置などを含む。 Since the camera 2 has already been described, its description is omitted here. The various devices 50 are devices that obtain the detection result of the adhering matter detection device 10 and perform various controls of the vehicle. The various devices 50 may display, for example, a display device for notifying the user of an adhered substance on the lens of the camera 2 or a user's instruction to wipe off the adhered substance, ejecting fluid or gas toward the lens to remove the adhered substance. It includes a removal device for removal, a vehicle control device for controlling automatic driving, and the like.
記憶部11は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、テンプレート情報11aと、検出情報11bと、除外情報11cとを記憶する。 The storage unit 11 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. In the example of FIG. 2, the template information 11a and The detection information 11b and the exclusion information 11c are stored.
テンプレート情報11aは、後述するマッチング部12dが実行するマッチング処理において用いられるテンプレートに関する情報である。検出情報11bは、候補エリアDaの検出条件や、検出された候補エリアDaに関するデータを含む情報である。除外情報11cは、上述した除外条件を含む情報である。 The template information 11a is information about a template used in a matching process executed by the matching unit 12d described later. The detection information 11b is information including the detection conditions of the candidate area Da and data regarding the detected candidate area Da. The exclusion information 11c is information including the exclusion conditions described above.
制御部12は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、付着物検出装置10内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部12は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。 The control unit 12 is a controller, and various programs stored in a storage device inside the adhering matter detection device 10 work on the RAM by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). It is realized by being executed as a region. Further, the control unit 12 can be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
制御部12は、取得部12aと、抽出部12bと、変換部12cと、マッチング部12dと、検出部11eとを有し、以下に説明する情報処理の機能や作用を実現または実行する。 The control unit 12 includes an acquisition unit 12a, an extraction unit 12b, a conversion unit 12c, a matching unit 12d, and a detection unit 11e, and realizes or executes the functions and actions of information processing described below.
取得部12aは、カメラ2から1フレーム分ずつカメラ画像を取得するとともに、画像解析に必要となる前処理を実行する。 The acquisition unit 12a acquires a camera image for each frame from the camera 2 and executes a pre-process required for image analysis.
取得部12aは、前処理として、たとえばカメラ画像をグレースケール化する。なお、グレースケール化とは、カメラ画像における各画素を輝度に応じて白から黒までの各階調で表現するように変換する処理である。かかるグレースケール化は、省略されてもよい。 The acquisition unit 12a converts the camera image into grayscale, for example, as preprocessing. Note that the grayscale conversion is a process of converting each pixel in the camera image so as to be expressed by each gradation from white to black according to the brightness. Such gray scale conversion may be omitted.
また、取得部12aは、他の前処理として、たとえばカメラ画像を所定のサイズへ変更する。また、取得部12aは、前処理されたカメラ画像を抽出部12bへ出力する。 The acquisition unit 12a also changes the camera image to a predetermined size, for example, as another pre-processing. The acquisition unit 12a also outputs the preprocessed camera image to the extraction unit 12b.
抽出部12bは、取得部12aから入力されるカメラ画像にたとえばソベルフィルタを用いることで、カメラ画像における各画素のエッジ情報を抽出する。ここで、エッジ情報とは、各画素のX軸方向およびY軸方向におけるエッジ強度を指す。 The extraction unit 12b extracts edge information of each pixel in the camera image by using, for example, a Sobel filter in the camera image input from the acquisition unit 12a. Here, the edge information refers to the edge strength of each pixel in the X-axis direction and the Y-axis direction.
また、抽出部12bは、抽出したエッジ情報をグレースケール画像に対応付けて変換部12cへ出力する。なお、抽出部12bは、ソベルフィルタに代えて、たとえばラプラシアンフィルタなどの他のエッジ抽出法を用いることにしてもよい。 Further, the extraction unit 12b outputs the extracted edge information in association with the grayscale image to the conversion unit 12c. Note that the extraction unit 12b may use another edge extraction method such as a Laplacian filter instead of the Sobel filter.
変換部12cは、抽出部12bから入力される各画素のX軸方向およびY軸方向のエッジ強度に基づいて各画素のエッジのベクトルを算出し、エッジ向きをそれぞれ符号化する。なお、実施形態に係る付着物検出装置10では、たとえば、複数の画素におけるエッジの代表値を求め、かかる代表値を符号化することにしている。この点の詳細については、図4Aおよび図4Bを用いて後述する。 The conversion unit 12c calculates an edge vector of each pixel based on the edge strength in the X-axis direction and the Y-axis direction of each pixel input from the extraction unit 12b, and encodes the edge direction. In addition, in the adhering matter detection device 10 according to the embodiment, for example, a representative value of edges in a plurality of pixels is obtained, and the representative value is encoded. Details of this point will be described later with reference to FIGS. 4A and 4B.
また、変換部12cは、エッジ向きを符号化したグレースケール画像をマッチング部12dへ出力する。マッチング部12dは、変換部12cから入力される符号化されたグレースケール画像と水滴の特徴を示す符号パターンとの正規表現を用いたマッチング処理を行う。ここに言う正規表現とは、符号列の集合を一つの符号で表したものである。 Further, the conversion unit 12c outputs the grayscale image in which the edge direction is encoded to the matching unit 12d. The matching unit 12d performs a matching process using a regular expression between the coded grayscale image input from the conversion unit 12c and the code pattern indicating the characteristics of the water droplet. The regular expression mentioned here is a set of code strings represented by one code.
なお、水滴の特徴を示す符号パターンは、テンプレート情報11aに記憶される。かかる符号パターンの具体例については、図5Aを用いて後述する。また、マッチング部12dによるマッチング処理の詳細については、図5Bを用いて後述する。 The code pattern indicating the characteristics of the water droplet is stored in the template information 11a. A specific example of such a code pattern will be described later with reference to FIG. 5A. Details of the matching processing by the matching unit 12d will be described later with reference to FIG. 5B.
検出部12eは、抽出部12bによって抽出されたエッジ情報に基づく所定の検出アルゴリズムを用いて、撮像画像I中において水滴が存在すると推定される候補エリアDaを検出する。 The detection unit 12e detects a candidate area Da in which the water droplet is estimated to be present in the captured image I by using a predetermined detection algorithm based on the edge information extracted by the extraction unit 12b.
具体的には、検出部12eは、マッチング部12dが抽出した符号パターンに基づいて、水滴の存在が推定される候補エリアDaを検出する。また、検出部12eは、検出した候補エリアDaのそれぞれにつき、雲を水滴として誤検出した場合に該当していないか否かを判定する。 Specifically, the detection unit 12e detects a candidate area Da in which the presence of water droplets is estimated based on the code pattern extracted by the matching unit 12d. Further, the detection unit 12e determines, for each of the detected candidate areas Da, whether or not the cloud is erroneously detected as a water droplet.
また、検出部12eは、その判定結果により水滴であると判定される候補エリアDaについては、かかる候補エリアDaを各種機器50へ通知する。一方、検出部12eは、その判定結果により誤検出に該当すると判定される候補エリアDaについては、各種機器50への通知を行わず、後段の処理対象から除外する。 Further, regarding the candidate area Da that is determined to be a water drop based on the determination result, the detection unit 12e notifies the various devices 50 of the candidate area Da. On the other hand, the detection unit 12e does not notify the various devices 50 of the candidate area Da determined to correspond to the erroneous detection based on the determination result, and excludes it from the processing target in the subsequent stage.
すなわち、検出部12eは、信頼度の低い候補エリアDaを除外する。このように、無用の画像領域を除外することにより、付着物の検出の精度を高められるとともに、後段の処理負荷を軽減することができる。なお、検出部12eによる検出処理の詳細については、図6〜図8を用いて後述する。 That is, the detection unit 12e excludes the candidate area Da having low reliability. By excluding unnecessary image areas in this way, it is possible to improve the accuracy of detecting the adhering matter and reduce the processing load in the subsequent stage. The details of the detection processing by the detection unit 12e will be described later with reference to FIGS.
ここで、変換部12c、マッチング部12dおよび検出部12eが実行する各アルゴリズムの一例について、図3〜図8を用いて具体的に説明する。図3は、ベクトルの算出方法を示す図である。また、図4Aおよび図4Bは、代表値の算出方法の説明図(その1)および(その2)である。 Here, an example of each algorithm executed by the conversion unit 12c, the matching unit 12d, and the detection unit 12e will be specifically described with reference to FIGS. 3 to 8. FIG. 3 is a diagram showing a vector calculation method. 4A and 4B are explanatory views (No. 1) and (No. 2) of the method of calculating the representative value.
また、図5Aは、テンプレートの一例を示す図である。また、図5Bは、マッチング処理の一例を示す図である。また、図6は、検出処理の一例を示す図である。 Further, FIG. 5A is a diagram showing an example of the template. Further, FIG. 5B is a diagram showing an example of the matching process. FIG. 6 is a diagram showing an example of the detection process.
また、図7Aは、候補エリアDaの説明図である。また、図7Bは、候補エリアDaのxy座標の説明図である。また、図7Cは、検出情報11bに含まれる候補エリアDaに関するデータ内容の一例を示す図である。また、図8は、除外情報11cに含まれる除外条件の説明図である。 Further, FIG. 7A is an explanatory diagram of the candidate area Da. Further, FIG. 7B is an explanatory diagram of xy coordinates of the candidate area Da. Further, FIG. 7C is a diagram showing an example of data content regarding the candidate area Da included in the detection information 11b. Further, FIG. 8 is an explanatory diagram of exclusion conditions included in the exclusion information 11c.
まず、変換部12cは、具体的には、図3に示すように、X軸方向およびY軸方向のエッジ強度に基づき、三角関数を用いることで、各画素のベクトルを算出する。なお、以下では、図3に示す算出したベクトルと、正方向側のX軸とのなす角度θを「エッジ向き」と言い、ベクトルの長さLを各画素の「エッジ強度」と言う。 First, specifically, the conversion unit 12c calculates a vector of each pixel by using a trigonometric function based on the edge strength in the X-axis direction and the Y-axis direction, as shown in FIG. In the following, the angle θ formed by the calculated vector shown in FIG. 3 and the X axis on the positive side is referred to as “edge direction”, and the length L of the vector is referred to as “edge strength” of each pixel.
なお、変換部12cは、全ての画素についてエッジ向きを算出する必要はなく、優先度の低い領域については、所定間隔の画素ごとにエッジ向きを算出するなど、処理を簡略化することとしてもよい。 Note that the conversion unit 12c does not have to calculate the edge orientations for all the pixels, and for regions of low priority, the processing may be simplified, such as calculating the edge orientations for each pixel at a predetermined interval. ..
また、変換部12cは、算出したエッジ向きをそれぞれ符号化する。たとえば、変換部12cは、複数の画素におけるエッジの代表値を求め、かかる代表値を符号化する。具体的には、図4Aに示すように、変換部12cは、たとえば8×8ピクセルの画素単位を1つの「セル」として取り扱い、3×3セルの画素単位を1つの「ブロック」として取り扱う。また、1つのブロックの中央のセルを「注目セル」として取り扱う。 The conversion unit 12c also encodes the calculated edge direction. For example, the conversion unit 12c obtains a representative value of edges in a plurality of pixels and encodes the representative value. Specifically, as shown in FIG. 4A, the conversion unit 12c handles pixel units of 8×8 pixels as one “cell” and pixel units of 3×3 cells as one “block”, for example. In addition, the cell in the center of one block is treated as a "cell of interest".
変換部12cは、かかるブロックごとに各画素のエッジ向きおよびエッジ強度を示すヒストグラムを作成する。かかるヒストグラムについては、図4Bを用いて説明する。ここで、変換部12cは、注目セルにおける中央の座標のエッジ向きをブロックにおけるヒストグラムから導出する。 The conversion unit 12c creates a histogram indicating the edge direction and edge strength of each pixel for each block. Such a histogram will be described with reference to FIG. 4B. Here, the conversion unit 12c derives the edge direction of the center coordinate of the cell of interest from the histogram of the block.
そして、変換部12cは、1つのブロックにおいて注目セルの代表値を導出すると、ブロックを1つのセル分ずらしてヒストグラムを作成し、かかるブロックにおける注目セルの代表値を算出していく。 Then, when the conversion unit 12c derives the representative value of the target cell in one block, the block is shifted by one cell to create a histogram, and the representative value of the target cell in the block is calculated.
つまり、変換部12cは、複数の画素ごとに代表値を算出することで、データ量を削減することができる。なお、図4Aに示す例では、セルが8×8ピクセルであるため、データ量は1/64に削減されることとなる。 That is, the conversion unit 12c can reduce the data amount by calculating the representative value for each of the plurality of pixels. In the example shown in FIG. 4A, the cell size is 8×8 pixels, so the data amount is reduced to 1/64.
なお、図4Aに示したブロックおよびセルのピクセル数は一例であって、セルおよびブロックのピクセル数は、任意に設定することができる。この際、検出したい水滴の大きさに応じて各セルのピクセル数を変更することもできる。 Note that the numbers of pixels in the blocks and cells shown in FIG. 4A are examples, and the numbers of pixels in the cells and blocks can be set arbitrarily. At this time, the number of pixels in each cell can be changed according to the size of the water droplet to be detected.
たとえば、小さい水滴を検出したい場合、セルのピクセル数を少なく設定し、大きい水滴を検出したい場合は、セルのピクセル数を多く設定する。これにより、検出したい大きさの水滴を効率よく検出することができる。 For example, when detecting a small water drop, the number of pixels of the cell is set to be small, and when detecting a large water drop, the number of pixels of the cell is set to be large. As a result, it is possible to efficiently detect a water droplet having a desired size.
また、変換部12cは、単にセルごとにヒストグラムを作成し、かかるヒストグラムに基づいて各セルの代表値を算出することにしてもよい。なお、変換部12cは、代表値を算出せず、全ての画素を符号化することにしてもよい。 Alternatively, the conversion unit 12c may simply create a histogram for each cell and calculate the representative value of each cell based on the histogram. The conversion unit 12c may encode all pixels without calculating the representative value.
次に、図4Bを用いてヒストグラムについて説明する。なお、図4Bでは、縦軸にエッジ強度を示し、横軸にエッジ向きの階級を示す。図4Bに示すように、変換部12cは、たとえば、エッジ向きを20°ごとに18段階の各階級に割り当ててヒストグラムを作成する。 Next, the histogram will be described with reference to FIG. 4B. In FIG. 4B, the vertical axis represents the edge strength and the horizontal axis represents the edge-oriented class. As shown in FIG. 4B, the conversion unit 12c creates a histogram by allocating the edge direction to each of 18 grades every 20°, for example.
具体的には、変換部12cは、ブロック内の各画素のエッジ強度をエッジ向きに対応する階級に加算していくことで、ブロックにおけるヒストグラムを作成する。つづいて、変換部12cは、作成したヒストグラムからエッジ強度の和が最大となる階級を求める。 Specifically, the conversion unit 12c creates the histogram in the block by adding the edge strength of each pixel in the block to the class corresponding to the edge direction. Subsequently, the conversion unit 12c obtains the class having the maximum sum of edge strengths from the created histogram.
図4Bに示す例では、80〜100°の階級が最大の値をとる場合を示している。このとき、変換部12cは、かかる階級においてエッジ強度の和が閾値以上である場合に、かかる階級を代表値とする。 In the example shown in FIG. 4B, the case where the class of 80 to 100° takes the maximum value is shown. At this time, the conversion unit 12c sets the class as a representative value when the sum of the edge strengths in the class is equal to or more than the threshold value.
図4Bに示す例では、80〜100°の階級においてエッジ強度の和が閾値を超えているため、上記の条件を満たす。このため、かかるブロックにおける注目セルの階級は、80〜100°となる。 In the example shown in FIG. 4B, the sum of the edge strengths exceeds the threshold in the class of 80 to 100°, so the above condition is satisfied. Therefore, the class of the cell of interest in this block is 80 to 100°.
つづいて、変換部12cは、注目セルを階級に応じて割り当てられた符号に変換する。ここで、各階級には、たとえば0〜9およびA〜Hの18種類の符号がそれぞれ割り当てられる。なお、0〜9およびA〜Hは、0°から360°まで20度刻みの各階級に割り当てられる符号である。また、代表値が閾値を超えなかった場合、すなわち、エッジ強度が低いセルには、たとえばZの符号が割り当てられる。 Subsequently, the conversion unit 12c converts the cell of interest into a code assigned according to the class. Here, 18 kinds of codes, for example, 0 to 9 and A to H are assigned to each class, respectively. It should be noted that 0 to 9 and A to H are codes assigned to each class in increments of 20 degrees from 0° to 360°. Further, when the representative value does not exceed the threshold value, that is, a cell having a low edge strength is assigned a code of Z, for example.
このようにして、変換部12cは、全てのセルについて符号化を行う。これにより、符号化されたカメラ画像において、各符号が格子状に配列されることとなる。なお、変換部12cは、上記した代表値を算出する以外に、他の統計学的な算出方法を用いて代表値を算出することにしてもよい。 In this way, the conversion unit 12c encodes all cells. As a result, in the coded camera image, the codes are arranged in a grid pattern. Note that the conversion unit 12c may calculate the representative value using another statistical calculation method, instead of calculating the representative value described above.
また、図4Bでは、エッジ向きを18段階に分類する場合について説明したが、これに限られず、18段階より少なくする、あるいは、多くすることにしてもよい。また、図4Bでは、符号がA〜HおよびZである場合を示したが、符号として、平仮名や数字など、他の文字、または図形等を用いることにしてもよい。 Further, in FIG. 4B, the case where the edge direction is classified into 18 steps has been described, but the present invention is not limited to this, and the number may be less than or more than 18 steps. Further, in FIG. 4B, the case where the reference numerals are A to H and Z is shown, but other characters such as hiragana or numbers, or figures may be used as the reference numerals.
つづいて、マッチング部12dは、上述したように、符号化されたカメラ画像と、テンプレート情報11aとして記憶されたテンプレートとのマッチング処理を行う。かかるテンプレートの一例を図5Aに示す。なお、図5Aでは、視覚的に分かりやすくするために、テンプレートを上記した符号ではなく、ピン状の記号を用いて実際のエッジ向きを模式的に図示している。 Subsequently, the matching unit 12d performs the matching process between the encoded camera image and the template stored as the template information 11a, as described above. An example of such a template is shown in FIG. 5A. Note that in FIG. 5A, in order to make it easy to understand visually, the template is not shown by the above-mentioned reference symbols, but pin-shaped symbols are used to schematically show the actual edge direction.
図5Aに示すように、テンプレート情報11aは、テンプレートとして水滴の特徴を示す符号列である符号パターンを有する。具体的には、たとえば、上辺パターン、下辺パターン、左辺パターン、右辺パターンを有する。 As shown in FIG. 5A, the template information 11a has a code pattern that is a code string indicating the characteristics of water droplets as a template. Specifically, for example, it has an upper side pattern, a lower side pattern, a left side pattern, and a right side pattern.
ここで、図5Aに示す各辺のパターンは、水滴を内側に含むまたは水滴の内側に含まれる矩形の各辺に対応する。ここで、「水滴を内側に含む」とは、矩形に水滴が内接する場合を含む。また、「水滴の内側に含まれる」とは、矩形が水滴に内接する場合を含む。なお、本実施形態では、「矩形」は正方形を含む。また、図5Aでは、各辺のパターンのエッジ向きが、それぞれ中央に向かう場合について示している。この場合、水滴の輝度が端部から中央に向けて大きくなる、すなわち、中央が明るく端部が暗い水滴の特徴を示す。 Here, the pattern of each side shown in FIG. 5A corresponds to each side of a rectangle that contains a water droplet inside or is contained inside a water droplet. Here, “including a water drop inside” includes a case where the water drop is inscribed in a rectangle. Further, "included inside the water droplet" includes the case where the rectangle is inscribed in the water droplet. In the present embodiment, “rectangle” includes a square. Further, FIG. 5A shows a case where the edge direction of the pattern on each side is toward the center. In this case, the brightness of the water drop increases from the end to the center, that is, the feature of the water drop is bright in the center and dark in the end.
なお、テンプレート情報11aは、これとは逆に、水滴の輝度が中央から端部に向けて大きくなる、すなわち、中央が暗く端部が明るい水滴の特徴を示す各辺のパターンを備えていてもよい。このようにすることで、多様な水滴を検出することが可能となる。 Note that, conversely, the template information 11a may have a pattern of each side showing the feature of a water drop in which the brightness of the water drop increases from the center toward the end, that is, the center is dark and the end is bright. Good. By doing so, various water drops can be detected.
なお、同図では、上下左右の4方のパターンを例示したが、斜め方向を含むパターンを用いることもできる。このようにすることで、水滴の検出精度を向上させることができる。 It should be noted that although FIG. 4 exemplifies four patterns of up, down, left, and right, a pattern including an oblique direction can also be used. By doing so, the detection accuracy of water droplets can be improved.
つづいて、かかる各辺のパターンを用いたマッチング処理の一例を図5Bに示す。なお、ここでは、説明の便宜上、図5Aに示した上辺パターンをそれぞれA〜Fの符号を用いて示している。また、同図のaおよびbには、符号化されたカメラ画像の一部を模式的に示している。 Next, FIG. 5B shows an example of matching processing using the pattern of each side. Here, for convenience of explanation, the upper side patterns shown in FIG. 5A are shown by using the symbols A to F, respectively. Further, a and b in the same figure schematically show a part of the encoded camera image.
図5Bのaに示すように、マッチング部12dは、符号パターンがA〜Fの順に順序良く並んでいれば、かかる符号パターンを上辺パターンと一致すると判定する。 As illustrated in a of FIG. 5B, the matching unit 12d determines that the code patterns match the upper side pattern if the code patterns are arranged in order from A to F.
具体的には、マッチング部12dは、図5Bのaに示すように、たとえば、Aが3回、B、C、DおよびEがそれぞれ2回、そして、Fが3回、のように繰り返される配列を上辺パターンの各符号の配列順序を満たせば、上辺パターンとして抽出することにしている。 Specifically, the matching unit 12d is repeated, for example, A three times, B, C, D, and E two times, and F three times, as shown in a of FIG. 5B. If the arrangement satisfies the arrangement order of the respective codes of the upper side pattern, it will be extracted as the upper side pattern.
これは、水滴の大きさに応じて符号の繰り返し回数が異なるためである。すなわち、水滴が大きいほど、各符号列の長さが長くなるためである。このように、かかる符号の繰り返しを許容することで、1回のマッチング処理で、大きさが異なる複数の水滴を示す符号列を抽出することができる。 This is because the number of times the code is repeated differs depending on the size of the water droplet. That is, the larger the water droplet, the longer the length of each code string. In this way, by allowing the repetition of such codes, it is possible to extract a code string indicating a plurality of water droplets having different sizes by one matching process.
したがって、処理負荷を軽減しつつ、水滴を検出することができる。なお、マッチング部12dは、水滴の大きさに応じて符号列の長さが異なる複数の各辺のパターンを用意し、全てのかかるパターンを用いて符号列を抽出することにしてもよい。 Therefore, the water drop can be detected while reducing the processing load. Note that the matching unit 12d may prepare a pattern on each of a plurality of sides in which the length of the code string differs depending on the size of the water droplet, and extract the code string using all such patterns.
また、水滴は一般的に球状となるため、各符号の繰り返しの回数は、中心から線対称状となるはずである。このため、マッチング部12dは、抽出した符号列の中で、バランスが悪い符号列を除外することにしている。 Further, since the water droplets are generally spherical, the number of times each code is repeated should be line-symmetrical from the center. Therefore, the matching unit 12d decides to exclude the unbalanced code strings from the extracted code strings.
具体的には、図5Bのbに示すように、マッチング部12dは、たとえば、両端に位置するAとFとのバランスを精査する。ここで、同図では、Aが3回繰り返され、Fが10回繰り返される場合を示している。 Specifically, as shown in b of FIG. 5B, the matching unit 12d closely examines the balance between A and F located at both ends, for example. Here, in the figure, the case where A is repeated 3 times and F is repeated 10 times is shown.
このとき、マッチング部12dは、AおよびFの個数が2倍以上異なる場合に、配列順序を満たす場合であっても、かかる符号列パターンを除外することにしている。このようにすることで、水滴以外の不要な符号パターンの誤抽出を防ぐことができ、水滴の誤検出を抑制することができる。 At this time, the matching unit 12d excludes the code string pattern even when the arrangement order is satisfied when the numbers of A and F differ by two or more. By doing so, it is possible to prevent erroneous extraction of unnecessary code patterns other than water drops, and suppress erroneous detection of water drops.
また、マッチング部12dでは、たとえば、抽出した符号列が閾値より長い場合、かかる符号列をマッチングから除外することもできる。これは、符号列が長い場合、水滴である可能性が低いためである。これにより、水滴の誤検出を抑制することができる。なお、かかる閾値は、統計等によって最適な値を予め導出しておくものとする。 Further, in the matching unit 12d, for example, when the extracted code string is longer than the threshold value, the code string can be excluded from the matching. This is because if the code string is long, it is unlikely to be a water drop. This can prevent erroneous detection of water droplets. It should be noted that an optimum value of the threshold is derived in advance by statistics or the like.
次に、マッチング処理を経ての、検出部12eによる候補エリアDaの検出処理の一例を図6に示す。なお、図6では、図5Aと同様に、符号に代えて実際のエッジ向きを模式的に図示している。 Next, FIG. 6 shows an example of the detection processing of the candidate area Da by the detection unit 12e after the matching processing. Note that, in FIG. 6, similar to FIG. 5A, the actual edge direction is schematically illustrated instead of the reference numerals.
また、ここでは、マッチング処理によって最初に上辺パターンが抽出された場合について説明する。検出部12eは、まず抽出された上辺パターンの幅に基づき、略正方形状の候補エリアDa1を設定する。 Further, a case will be described here where the upper side pattern is first extracted by the matching process. The detection unit 12e first sets a substantially square-shaped candidate area Da1 based on the width of the extracted upper side pattern.
つづいて、候補エリアDa1から逸脱した位置に右辺パターンが抽出されたものとする。このとき、検出部12eは、右辺パターンの候補エリアDa2の中心座標が候補エリアDa1内にあれば、双方の候補エリアDa1,Da2を統合する処理を行う。 Next, it is assumed that the right side pattern is extracted at a position deviating from the candidate area Da1. At this time, if the center coordinates of the right area pattern candidate area Da2 are within the candidate area Da1, the detection unit 12e performs a process of integrating both candidate areas Da1 and Da2.
その後、検出部12eは、たとえば、統合した候補エリアDa3において、下辺パターンまたは左辺パターンが抽出された場合、水滴が存在すると推定されるエリアとして、候補エリアDa3を抽出する。換言すると、検出部12eは、異なる3方向以上の各辺を示すパターンが抽出されることを検出条件(以下、「方向条件」と言う)として、水滴が存在すると推定される候補エリアDaを検出する。 After that, for example, when the lower side pattern or the left side pattern is extracted in the integrated candidate area Da3, the detection unit 12e extracts the candidate area Da3 as an area in which it is estimated that water droplets are present. In other words, the detection unit 12e detects the candidate area Da in which water droplets are estimated to exist, with the detection condition (hereinafter, referred to as “direction condition”) that patterns indicating the respective sides in three or more different directions are extracted. To do.
なお、検出部12eは、かかる方向条件以外に、たとえば、統合した候補エリアDa3において、各辺を示すパターンが所定回数(たとえば、上下左右を含めて4回)以上抽出されることを検出条件(以下、「回数条件」と言う)としてもよい。 In addition to the direction condition, the detection unit 12e detects that the pattern indicating each side is extracted a predetermined number of times (for example, four times including up, down, left, and right) in the integrated candidate area Da3 (for example, a detection condition ( Hereinafter, it may be referred to as a “count condition”).
このように、検出条件として、3方向以上の方向条件や回数条件とすることで、上下左右の全ての辺のパターンが抽出されなくとも、水滴が存在すると推定される候補エリアDaを抽出することができる。すなわち、カメラ画像から見切れる、たとえば半円状の水滴を検出することが可能となる。なお、これら検出条件は、たとえば検出情報11bに含まれて記憶される。 As described above, by setting the direction condition of three or more directions or the number of times condition as the detection condition, the candidate area Da in which the water droplet is estimated to exist is extracted even if the patterns of all sides of the upper, lower, left, and right sides are not extracted. You can That is, it is possible to detect, for example, a semicircular water drop that can be cut off from the camera image. Note that these detection conditions are stored, for example, included in the detection information 11b.
なお、図6では、上辺パターンの候補エリアDa1内に候補エリアDa2の中心座標が収まる場合に、候補エリアDaを統合する場合について示したが、これに限定されるものではない。すなわち、候補エリアDa1および候補エリアDa2の少なくとも一部が重なっていれば双方を統合することにしてもよい。 Although FIG. 6 shows the case where the candidate area Da is integrated when the center coordinates of the candidate area Da2 are within the candidate area Da1 of the upper side pattern, the present invention is not limited to this. That is, if at least a part of the candidate area Da1 and the candidate area Da2 overlap, they may be integrated.
また、統合した候補エリアDa3を、候補エリアDa1および候補エリアDa2の論理積とすることにしてもよいし、論理和とすることにしてもよい。また、図6では、候補エリアDa1および候補エリアDa2が矩形状である場合を示したが、これに限られず、円形状など他の形状とすることにしてもよい。 Further, the integrated candidate area Da3 may be a logical product of the candidate areas Da1 and Da2 or may be a logical sum. Further, although FIG. 6 shows the case where the candidate area Da1 and the candidate area Da2 are rectangular, the present invention is not limited to this and may be another shape such as a circular shape.
そして、検出部12eは、検出した候補エリアDaに関するデータを検出情報11bへ格納する。具体的には、検出部12eは、図7Aに示すように、たとえば矩形の候補エリアDaを、左上座標(x,y)と、幅wと、高さhとで規定する。 Then, the detection unit 12e stores data regarding the detected candidate area Da in the detection information 11b. Specifically, as illustrated in FIG. 7A, the detection unit 12e defines, for example, a rectangular candidate area Da with upper left coordinates (x, y), a width w, and a height h.
なお、ここで、以下の説明の便宜のために、本実施形態では、xy座標系は、たとえば図7Bに示すように、撮像画像Iの左上隅を原点とし、水平方向右向きをx軸正方向、垂直方向下向きをy軸正方向とするものとする。また、撮像画像Iの解像度は、同図に示すように、たとえば640×480であるものとする。 Here, for the sake of convenience of the following description, in the present embodiment, the xy coordinate system has an origin in the upper left corner of the captured image I and a horizontal direction to the right in the x-axis positive direction as shown in FIG. 7B, for example. , The downward direction in the vertical direction is defined as the positive y-axis direction. The resolution of the captured image I is, for example, 640×480 as shown in FIG.
そして、検出情報11bには、図7Cに示すように、たとえば「エリアID」項目と、「エリア情報」項目と、「輝度平均」項目とが含まれる。「エリアID」項目には、候補エリアDaの識別情報が格納され、検出情報11bは、かかるエリアIDごとに管理される。 Then, as shown in FIG. 7C, the detection information 11b includes, for example, an "area ID" item, an "area information" item, and a "brightness average" item. The "area ID" item stores the identification information of the candidate area Da, and the detection information 11b is managed for each area ID.
「エリア情報」項目には、図7Aに示した候補エリアDaの左上座標(x,y)や、幅w、高さhなどが格納される。「輝度平均」項目には、検出された候補エリアDaごとの輝度平均値が格納される。すなわち、検出部12eは、検出した候補エリアDaごとに輝度平均値を算出し、かかる「輝度平均」項目へ格納する。 The “area information” item stores the upper left coordinates (x, y) of the candidate area Da shown in FIG. 7A, the width w, the height h, and the like. The “average brightness” item stores the average brightness value for each of the detected candidate areas Da. That is, the detection unit 12e calculates a brightness average value for each of the detected candidate areas Da and stores it in the "brightness average" item.
そして、検出部12eは、かかる検出情報11bと、除外情報11cとに基づいて、候補エリアDaのそれぞれにつき、雲を水滴として誤検出した場合に該当していないか否かを判定する。 Then, the detection unit 12e determines, based on the detection information 11b and the exclusion information 11c, whether each of the candidate areas Da does not correspond to a case where a cloud is erroneously detected as a water drop.
具体的には、除外情報11cには、予め除外条件が設定されている。より具体的には、図8に示すように、除外情報11cには、水滴を水滴として検出した「正検出時の候補エリアDaの特徴」と、雲を水滴として検出した「誤検出時の候補エリアDaの特徴」とに基づいて、「雲の該当条件」が予め設定されている。 Specifically, exclusion conditions are set in advance in the exclusion information 11c. More specifically, as shown in FIG. 8, the exclusion information 11c includes, in the exclusion information 11c, “features of the candidate area Da at the time of normal detection” in which a water droplet is detected as a water drop and “candidates at the time of false detection in which a cloud is detected as a water droplet. The "corresponding condition of the cloud" is set in advance based on "the characteristics of the area Da".
「正検出時の候補エリアDaの特徴」および「誤検出時の候補エリアDaの特徴」は、たとえば付着物検出装置10の開発中の実験時などにおいて収集された複数のサンプルデータに基づいて抽出される。 The “characteristics of the candidate area Da at the time of correct detection” and the “characteristics of the candidate area Da at the time of erroneous detection” are extracted based on a plurality of sample data collected, for example, at the time of an experiment during development of the adhered matter detection device 10. To be done.
たとえば本実施形態では、複数のサンプルデータから、「正検出時の候補エリアDaの特徴」は、分布が全面にわたっており、サイズが相対的に大きく(93%が一辺の長さ≧40)、明るさが相対的に暗い(76%が輝度平均<150)との結果を得ている。なお、一辺の長さは、上述した幅wおよび高さhのうちの大きな方でよい。 For example, in the present embodiment, from a plurality of sample data, the “feature of the candidate area Da at the time of correct detection” has a distribution over the entire surface, and the size is relatively large (93% is a side length≧40) and the brightness is high. Is relatively dark (76% luminance average <150). The length of one side may be the larger of the width w and the height h described above.
また、同じく、「誤検出時の候補エリアDaの特徴」は、分布が画面上部に偏っており(100%がy<200)、サイズが相対的に小さく(81%が一辺の長さ<60)、明るさが相対的に明るい(85%が輝度平均≧150)との結果を得ている。なお、ここでのyは、たとえば候補エリアDaの左下隅のy座標または右下隅のy座標である。 Similarly, the distribution of the “characteristics of the candidate area Da at the time of erroneous detection” is biased toward the upper part of the screen (100% y<200), and the size is relatively small (81% is one side length<60. ), the brightness is relatively bright (85% is luminance average ≧150). Note that y here is, for example, the y coordinate of the lower left corner or the y coordinate of the lower right corner of the candidate area Da.
この結果、本実施形態では、図8に示すように、「雲の該当条件」である除外条件を、たとえば「(y<200)AND(一辺の長さ<60)AND(輝度平均≧150)」としている。検出部12eは、検出情報11bに格納された候補エリアDaのそれぞれにつき、かかる除外条件に該当するか否かを判定し、該当する場合には誤検出と、該当しない場合には正検出と、それぞれ判定することとなる。 As a result, in the present embodiment, as shown in FIG. 8, the exclusion condition that is the “corresponding condition of the cloud” is, for example, “(y<200) AND (length of one side<60) AND (luminance average≧150). ". The detection unit 12e determines, for each of the candidate areas Da stored in the detection information 11b, whether or not the exclusion condition is satisfied, and if so, false detection is performed, and if not, correct detection is performed. Each will be judged.
なお、除外条件のうち、「y<200」は、上述した解像度である640×480に応じたものであるので、無論縦方向の解像度「480」が異なれば、これに応じたものとなるように変更することができる。たとえば縦「960」であれば、「y<400」としてもよい。あるいは、縦方向の解像度に関わらず、画像上部何%(本実施形態に沿えば約42%)内にあるといった条件の指定の仕方でもよい。 It should be noted that, of the exclusion conditions, "y<200" corresponds to the above-described resolution of 640×480, and, of course, if the vertical resolution "480" is different, it will be adapted accordingly. Can be changed to For example, in the case of vertical “960”, “y<400” may be set. Alternatively, regardless of the resolution in the vertical direction, the condition may be specified such that the percentage is in the upper part of the image (about 42% according to the present embodiment).
次に、実施形態に係る付着物検出装置10が実行する処理手順について、図9を用いて説明する。図9は、実施形態に係る付着物検出装置10が実行する処理手順を示すフローチャートである。なお、図9では、1フレーム分のカメラ画像についての処理手順を示している。 Next, a processing procedure executed by the adhering matter detection device 10 according to the embodiment will be described with reference to FIG. 9. FIG. 9 is a flowchart showing a processing procedure executed by the adhering matter detection device 10 according to the embodiment. Note that FIG. 9 shows a processing procedure for a camera image for one frame.
まず、取得部12aが、カメラ画像を取得する(ステップS101)。そして、抽出部12bが、各画素のエッジ情報を抽出する(ステップS102)。 First, the acquisition unit 12a acquires a camera image (step S101). Then, the extraction unit 12b extracts the edge information of each pixel (step S102).
つづいて、変換部12c、マッチング部12dおよび検出部12eが、抽出部12bによって抽出されたエッジ情報に基づく所定の検出アルゴリズムを実行する(ステップS103)。そして、検出部12eが、かかるアルゴリズムの実行結果に基づいて、水滴の存在が推定される候補エリアDaを抽出する(ステップS104)。 Subsequently, the conversion unit 12c, the matching unit 12d, and the detection unit 12e execute a predetermined detection algorithm based on the edge information extracted by the extraction unit 12b (step S103). Then, the detection unit 12e extracts the candidate area Da in which the presence of water droplets is estimated based on the execution result of the algorithm (step S104).
すなわち、変換部12cおよびマッチング部12dは、一例として図3〜図5Bを用いて説明した各処理を実行し、検出部12eは、図6を用いて説明した検出処理によって候補エリアDaを検出する。 That is, the conversion unit 12c and the matching unit 12d execute each process described with reference to FIGS. 3 to 5B as an example, and the detection unit 12e detects the candidate area Da by the detection process described with reference to FIG. ..
なお、かかる候補エリアDaを検出させる検出アルゴリズムは説明した例に限らず、たとえば変換部12cが、抽出部12bによって抽出されたエッジ情報に基づいて各画素のエッジ強度を算出し、カメラ2の周囲環境に応じて異なる値をとる2値化閾値と当該エッジ強度とを比較することで各画素を2値化してもよい。 The detection algorithm for detecting the candidate area Da is not limited to the example described above. For example, the conversion unit 12c calculates the edge strength of each pixel based on the edge information extracted by the extraction unit 12b, and the periphery of the camera 2 is calculated. Each pixel may be binarized by comparing the edge strength with a binarization threshold that takes a different value depending on the environment.
また、変換部12cが、抽出部12bによって抽出されたエッジ情報に基づいて各画素のエッジの向きを算出し、反対向きのエッジの向き同士が変換後に1の補数の関係となるパラメータを用いて各画素を変換するようにしてもよい。 In addition, the conversion unit 12c calculates the orientation of the edge of each pixel based on the edge information extracted by the extraction unit 12b, and uses the parameters in which the orientations of the opposite edges have a one's complement relationship after conversion. Each pixel may be converted.
かかる場合、マッチング部12dは、変換部12cによって変換されたこれらデータ形式に応じて、水滴を示す当該データ形式のテンプレートとのマッチング処理を行えばよい。 In such a case, the matching unit 12d may perform matching processing with a template of the data format indicating a water drop according to the data format converted by the conversion unit 12c.
ステップS104につづいては、検出部12eが、検出情報11bおよび除外情報11cに基づいて、検出された候補エリアDaのうち、雲に該当するエリアがあるか否かを判定する(ステップS105)。 Following step S104, the detection unit 12e determines whether or not there is an area corresponding to a cloud among the detected candidate areas Da based on the detection information 11b and the exclusion information 11c (step S105).
ここで、雲に該当するエリアがある場合(ステップS105,Yes)、検出部12eは、該当するエリアを除外する(ステップS106)。雲に該当するエリアがない場合(ステップS105,No)、ステップS107へ制御を移す。 If there is an area corresponding to the cloud (step S105, Yes), the detection unit 12e excludes the area (step S106). When there is no area corresponding to the cloud (step S105, No), the control is moved to step S107.
そして、ステップS107では、検出部12eが、各種機器50へ候補エリアDaを通知し、処理を終了する。 Then, in step S107, the detection unit 12e notifies the various devices 50 of the candidate area Da and ends the process.
上述してきたように、実施形態に係る付着物検出装置10は、抽出部12bと、検出部12eとを備える。抽出部12bは、カメラ2(「撮像装置」の一例に相当)によって撮像された撮像画像Iに含まれる各画素のエッジ情報を抽出する。検出部12eは、抽出部12bによって抽出されたエッジ情報に基づく所定の検出アルゴリズムを用いて、撮像画像I中において水滴が存在すると推定される候補エリアDa(「候補領域」の一例に相当)を検出する。また、検出部12eは、検出した候補エリアDaのうちから、候補エリアDaの位置、輝度および大きさに基づく所定の除外条件に該当する候補エリアDaを除外する。 As described above, the adhering matter detection device 10 according to the embodiment includes the extraction unit 12b and the detection unit 12e. The extraction unit 12b extracts edge information of each pixel included in the captured image I captured by the camera 2 (corresponding to an example of “imaging device”). The detection unit 12e uses a predetermined detection algorithm based on the edge information extracted by the extraction unit 12b to determine a candidate area Da (corresponding to an example of a “candidate region”) in which a water droplet is estimated to be present in the captured image I. To detect. Further, the detection unit 12e excludes, from the detected candidate areas Da, the candidate areas Da that meet a predetermined exclusion condition based on the position, brightness, and size of the candidate area Da.
したがって、実施形態に係る付着物検出装置10によれば、たとえば雲を水滴として誤検出してしまうのを抑制し、検出精度を高めることができる。 Therefore, according to the adhering matter detection device 10 according to the embodiment, it is possible to prevent erroneous detection of a cloud as a water drop, for example, and improve detection accuracy.
また、検出部12eは、候補エリアDaの位置が所定の位置より高く、候補エリアDaの平均輝度が所定の閾値より大きく、かつ、候補エリアDaの大きさが所定の閾値より小さい場合に、当該候補エリアDaを除外する。 Further, when the position of the candidate area Da is higher than the predetermined position, the average brightness of the candidate area Da is higher than the predetermined threshold, and the size of the candidate area Da is smaller than the predetermined threshold, the detection unit 12e concerned. The candidate area Da is excluded.
したがって、実施形態に係る付着物検出装置10によれば、雲を水滴として誤検出してしまうのを抑制することができる。 Therefore, according to the adhering matter detection device 10 of the embodiment, it is possible to prevent the cloud from being erroneously detected as a water drop.
なお、上述した実施形態では、除外条件における各種閾値が車両の走行状況などに対しては固定値である例を挙げて説明したが、これらは車両の走行状況などに応じて、動的に変化するものであってもよい。 In addition, in the above-described embodiment, various thresholds in the exclusion conditions are described as examples of fixed values for the traveling state of the vehicle, but these are dynamically changed according to the traveling state of the vehicle. It may be one that does.
たとえば車両が坂道などを走行中である場合、撮像画像I中において空の領域は狭くなったり広くなったりするので、かかる場合、車両に搭載された各種センサのうちの加速度センサやジャイロセンサなどのセンサ値に基づき、除外条件のうちの候補エリアDaのy座標に関する閾値を変化させてもよい。 For example, when the vehicle is traveling on a slope or the like, the sky region in the captured image I is narrowed or widened. In such a case, an acceleration sensor, a gyro sensor, or the like among various sensors mounted on the vehicle is used. The threshold value regarding the y-coordinate of the candidate area Da in the exclusion condition may be changed based on the sensor value.
また、上述した実施形態では、除外条件を、除外したい候補エリアDaのために用いる例を挙げたが、検出したい候補エリアDaのために用いてもよい。すなわち、雲に該当する候補エリアDaを検出したい場合に用いてもよい。 Further, in the above-described embodiment, the example in which the exclusion condition is used for the candidate area Da to be excluded has been described, but it may be used for the candidate area Da to be detected. That is, it may be used when it is desired to detect the candidate area Da corresponding to the cloud.
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.
2 カメラ
10 付着物検出装置
11 記憶部
11a テンプレート情報
11b 検出情報
11c 除外情報
12 制御部
12a 取得部
12b 抽出部
12c 変換部
12d マッチング部
12e 検出部
50 各種機器
Da 候補エリア
I 撮像画像
2 camera 10 adhering matter detection device 11 storage unit 11a template information 11b detection information 11c exclusion information 12 control unit 12a acquisition unit 12b extraction unit 12c conversion unit 12d matching unit 12e detection unit 50 various devices Da candidate area I captured image
Claims (3)
前記抽出部によって抽出された前記エッジ情報に基づく所定の検出アルゴリズムを用いて、前記撮像画像中において水滴が存在すると推定される候補領域を検出する検出部と
を備え、
前記検出部は、
検出した前記候補領域のうちから、該候補領域の位置、輝度および大きさに基づく所定の除外条件に該当する前記候補領域を除外する
ことを特徴とする付着物検出装置。 An extraction unit that extracts edge information of each pixel included in a captured image captured by the imaging device,
Using a predetermined detection algorithm based on the edge information extracted by the extraction unit, a detection unit that detects a candidate region in which the water droplet is estimated to be present in the captured image,
The detection unit,
An adhering matter detection device, characterized in that, from among the detected candidate areas, the candidate areas that meet predetermined exclusion conditions based on the position, brightness, and size of the candidate area are excluded.
前記候補領域の位置が所定の位置より高く、該候補領域の平均輝度が所定の閾値より大きく、かつ、該候補領域の大きさが所定の閾値より小さい場合に、当該候補領域を除外する
ことを特徴とする請求項1に記載の付着物検出装置。 The detection unit,
Excluding the candidate area when the position of the candidate area is higher than a predetermined position, the average brightness of the candidate area is larger than a predetermined threshold, and the size of the candidate area is smaller than a predetermined threshold. The adhering matter detection device according to claim 1, which is characterized in that.
前記抽出工程において抽出された前記エッジ情報に基づく所定の検出アルゴリズムを用いて、前記撮像画像中において水滴が存在すると推定される候補領域を検出する検出工程と
を含み、
前記検出工程は、
検出した前記候補領域のうちから、該候補領域の位置、輝度および大きさに基づく所定の除外条件に該当する前記候補領域を除外する
ことを特徴とする付着物検出方法。 An extraction step of extracting edge information of each pixel included in the captured image captured by the imaging device;
Using a predetermined detection algorithm based on the edge information extracted in the extraction step, a detection step of detecting a candidate region in which the water droplet is estimated to be present in the captured image,
The detection step,
An adhering matter detection method, characterized in that, from among the detected candidate areas, the candidate areas that meet predetermined exclusion conditions based on the position, brightness, and size of the candidate area are excluded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018247678A JP7175188B2 (en) | 2018-12-28 | 2018-12-28 | Attached matter detection device and attached matter detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018247678A JP7175188B2 (en) | 2018-12-28 | 2018-12-28 | Attached matter detection device and attached matter detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020106484A true JP2020106484A (en) | 2020-07-09 |
JP7175188B2 JP7175188B2 (en) | 2022-11-18 |
Family
ID=71450723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018247678A Active JP7175188B2 (en) | 2018-12-28 | 2018-12-28 | Attached matter detection device and attached matter detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7175188B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022034764A1 (en) * | 2020-08-12 | 2022-02-17 | 古野電気株式会社 | Cloud observation system, cloud observation method, and program |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001141838A (en) * | 1999-11-17 | 2001-05-25 | Nippon Seiki Co Ltd | Raindrop detector |
JP2013108830A (en) * | 2011-11-21 | 2013-06-06 | Stanley Electric Co Ltd | Weather information processing system, weather information processing server, and information processing device |
JP2013190416A (en) * | 2012-02-13 | 2013-09-26 | Ricoh Co Ltd | Deposit detection device and in-vehicle equipment controller including the same |
JP2014528064A (en) * | 2011-09-07 | 2014-10-23 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | Method and camera assembly for detecting raindrops on a vehicle windshield |
JP2015028427A (en) * | 2013-07-30 | 2015-02-12 | 株式会社リコー | Adhered substance detection device, moving body device control system, moving body, and program for detecting adhered substance |
JP2015231136A (en) * | 2014-06-05 | 2015-12-21 | 株式会社 日立産業制御ソリューションズ | Maintenance determination device for outdoor imaging apparatus, and maintenance determination method |
JP2017138736A (en) * | 2016-02-02 | 2017-08-10 | 富士通テン株式会社 | Image processor and water droplet removal system |
JP2018049568A (en) * | 2016-09-23 | 2018-03-29 | 株式会社デンソーテン | Water droplet detection device, water droplet detection method and water droplet detection program |
JP2018072312A (en) * | 2016-10-24 | 2018-05-10 | 株式会社デンソーテン | Device and method for detecting deposit |
JP2018071994A (en) * | 2016-10-24 | 2018-05-10 | 株式会社デンソーテン | Attached matter detection apparatus and attached matter detection method |
-
2018
- 2018-12-28 JP JP2018247678A patent/JP7175188B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001141838A (en) * | 1999-11-17 | 2001-05-25 | Nippon Seiki Co Ltd | Raindrop detector |
JP2014528064A (en) * | 2011-09-07 | 2014-10-23 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | Method and camera assembly for detecting raindrops on a vehicle windshield |
JP2013108830A (en) * | 2011-11-21 | 2013-06-06 | Stanley Electric Co Ltd | Weather information processing system, weather information processing server, and information processing device |
JP2013190416A (en) * | 2012-02-13 | 2013-09-26 | Ricoh Co Ltd | Deposit detection device and in-vehicle equipment controller including the same |
JP2015028427A (en) * | 2013-07-30 | 2015-02-12 | 株式会社リコー | Adhered substance detection device, moving body device control system, moving body, and program for detecting adhered substance |
JP2015231136A (en) * | 2014-06-05 | 2015-12-21 | 株式会社 日立産業制御ソリューションズ | Maintenance determination device for outdoor imaging apparatus, and maintenance determination method |
JP2017138736A (en) * | 2016-02-02 | 2017-08-10 | 富士通テン株式会社 | Image processor and water droplet removal system |
JP2018049568A (en) * | 2016-09-23 | 2018-03-29 | 株式会社デンソーテン | Water droplet detection device, water droplet detection method and water droplet detection program |
JP2018072312A (en) * | 2016-10-24 | 2018-05-10 | 株式会社デンソーテン | Device and method for detecting deposit |
JP2018071994A (en) * | 2016-10-24 | 2018-05-10 | 株式会社デンソーテン | Attached matter detection apparatus and attached matter detection method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022034764A1 (en) * | 2020-08-12 | 2022-02-17 | 古野電気株式会社 | Cloud observation system, cloud observation method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7175188B2 (en) | 2022-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7122364B2 (en) | Deposit detection device, deposit detection method | |
US10552706B2 (en) | Attachable matter detection apparatus and attachable matter detection method | |
EP1887522B1 (en) | Vehicle and road sign recognition device | |
JP6690955B2 (en) | Image processing device and water drop removal system | |
TWI494899B (en) | Method for in-image periodic noise reparation | |
US11170487B2 (en) | Adhered substance detection apparatus | |
US10984273B2 (en) | Attachable matter detection apparatus | |
JP2019133333A (en) | Adhesion detection apparatus and adhesion detection method | |
CN117237597A (en) | Data processing terminal based on Beidou satellite data and AI graph fusion | |
JP2018142828A (en) | Deposit detector and deposit detection method | |
JP4887540B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP7175188B2 (en) | Attached matter detection device and attached matter detection method | |
US11354794B2 (en) | Deposit detection device and deposit detection method | |
JP2020098389A (en) | Road sign recognition device and program thereof | |
US20210090260A1 (en) | Deposit detection device and deposit detection method | |
US10997743B2 (en) | Attachable matter detection apparatus | |
JP7283081B2 (en) | Attached matter detection device and attached matter detection method | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
US20200211194A1 (en) | Attached object detection apparatus | |
US11393128B2 (en) | Adhered substance detection apparatus | |
JP5642785B2 (en) | Vehicle periphery monitoring device | |
JP2020107232A (en) | Adhering matter detection device and adhering matter detection method | |
JP7059649B2 (en) | Deposit detection device and deposit detection method | |
CN115984806A (en) | Road marking damage dynamic detection system | |
KR101156145B1 (en) | Method and apparatus for processing image of the vehicles, and control apparatus for a vehicle using the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7175188 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |