[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011259087A - Color target position determining device - Google Patents

Color target position determining device Download PDF

Info

Publication number
JP2011259087A
JP2011259087A JP2010130249A JP2010130249A JP2011259087A JP 2011259087 A JP2011259087 A JP 2011259087A JP 2010130249 A JP2010130249 A JP 2010130249A JP 2010130249 A JP2010130249 A JP 2010130249A JP 2011259087 A JP2011259087 A JP 2011259087A
Authority
JP
Japan
Prior art keywords
color
light source
target
captured image
profile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010130249A
Other languages
Japanese (ja)
Other versions
JP5590387B2 (en
Inventor
Yukiko Donishi
幸紀子 堂西
Takeshi Naito
剛 内藤
Tsugunori Morita
貢規 森田
Tadashi Asano
義 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2010130249A priority Critical patent/JP5590387B2/en
Publication of JP2011259087A publication Critical patent/JP2011259087A/en
Application granted granted Critical
Publication of JP5590387B2 publication Critical patent/JP5590387B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a color target position determining device that reduces a color effect occurring in a pickup image achieved by imaging a color target comprising a combination of different colors under a light source.SOLUTION: A color target position determining device has a light source estimating unit 41 for estimating a light source type of a light source from a pickup image achieved by imaging a color target comprising a combination of different colors under the light source, a color profile storing unit 42 for storing a color profile which is created for each light source type so that the color profile has such a characteristic as to reduce a color effect which the color target in the pickup image suffers from the light source of each light source type, a color converter 44 for color-correcting the pickup image by using the color profile selected on the basis of the light source type estimated by the light source estimating unit 41, and a color target position determining module for identifying and determining a different color area of the color target in the color-corrected pickup image which is color-corrected, and determining a position thereof.

Description

本発明は、異なる色の組み合わせからなるカラーターゲットを光源下において撮影した撮影画像を画像処理することにより、カラーターゲットの撮影画像上での位置を決定するカラーターゲット位置決定装置に関する。 The present invention relates to a color target position determination apparatus that determines the position of a color target on a captured image by performing image processing on a captured image obtained by capturing a color target composed of a combination of different colors under a light source.

近年、車両の運転者が車両の側方や後方などの情景を車内のモニタを介して視認できるようにカメラが搭載された車両が増加している。さらに、このカメラの撮影画像を利用して画像処理などを行い、駐車などの運転を支援する装置も開発されている。特に、車両の位置決めなどに利用される情報を作り出すためのベースとなる撮影画像を取り込むカメラに関しては、光軸調整などの較正が高い精度で要求される。上記ターゲット位置特定装置は、そのような車載カメラの較正処理のために用いられる。例えば、カメラの視野内の2箇所に配置された白黒の市松模様のパターンを有するマーカ(ターゲット)を車載カメラで撮影し、画像処理を通じてマーカの中心点(較正点)を検出し、車載カメラを較正する技術が知られている(例えば、特許文献1参照)。この技術では白黒の市松模様の中心点を正確に検出する必要があるが、照明光や太陽光の状態によっては白黒領域のエッジ検出精度が不安定になり、マーカの中心点の検出精度が低下するという問題がある。   In recent years, an increasing number of vehicles are equipped with a camera so that a driver of the vehicle can visually recognize a scene such as a side or rear of the vehicle via a monitor inside the vehicle. Furthermore, an apparatus that supports driving such as parking by performing image processing using a photographed image of the camera has been developed. In particular, with respect to a camera that captures a captured image serving as a base for creating information used for vehicle positioning, calibration such as optical axis adjustment is required with high accuracy. The target position specifying device is used for the calibration process of such an in-vehicle camera. For example, a marker (target) with a black and white checkered pattern placed in two places in the camera's field of view is photographed with an in-vehicle camera, the center point (calibration point) of the marker is detected through image processing, and the in-vehicle camera is A technique for calibrating is known (see, for example, Patent Document 1). With this technology, it is necessary to accurately detect the center point of the black and white checkered pattern, but depending on the illumination light and sunlight conditions, the edge detection accuracy of the black and white area becomes unstable, and the detection accuracy of the center point of the marker decreases. There is a problem of doing.

また、照明光や太陽光といった光源の状態によっては特定色領域の検出能力が不安定になるという問題を解決するために、車載カメラによって取得された撮影画像から推定される色温度に基づき光源による影響を低減させる従来技術が知られている(例えば、特許文献2参照)。つまり、車両に搭載された撮像手段により撮像された撮像画像に基づいて車外の光源の色温度を推定するために、車両における所定の位置に無彩色部材を設け、撮像手段により、無彩色部材及び上空を含むように車両の周辺の画像を撮像する。撮像した撮像画像中の無彩色部材の画像領域についてその画像領域の色温度を推定するとともに、撮像した撮像画像中の上空の画像領域についてもその画像領域に存在する一又は複数の光源の色温度を推定する。そして、各推定結果に基づき、上空の画像領域に存在する光源の色温度のうち、無彩色部材の画像領域の色温度を含む所定の色温度判定範囲内にあるものを、最終的な色温度の推定結果とする。この技術では、車両における所定の位置に無彩色部材を配置することが必要となるだけでなく、このカラーリファレンスとなる無彩色部材が汚染されたり、局地的な光源種にさらされたりした場合には、正確な色温度の推定が不可能となる。   In addition, in order to solve the problem that the detection ability of the specific color region becomes unstable depending on the state of the light source such as illumination light or sunlight, the light source is based on the color temperature estimated from the photographed image acquired by the in-vehicle camera. A conventional technique for reducing the influence is known (for example, see Patent Document 2). In other words, in order to estimate the color temperature of the light source outside the vehicle based on the captured image captured by the imaging unit mounted on the vehicle, an achromatic member is provided at a predetermined position in the vehicle. An image of the periphery of the vehicle is taken so as to include the sky. Estimating the color temperature of the achromatic member in the captured image, and the color temperature of one or more light sources existing in the sky in the captured image Is estimated. Then, based on each estimation result, the color temperature of the light source existing in the sky image area, which is within a predetermined color temperature determination range including the color temperature of the image area of the achromatic member, is determined as the final color temperature. It is assumed that In this technology, not only is it necessary to place an achromatic member at a predetermined position in the vehicle, but the achromatic member that becomes this color reference is contaminated or exposed to a local light source species. Therefore, it is impossible to accurately estimate the color temperature.

特開2008−131250号公報(段落番号0023−0040、図1)Japanese Patent Laying-Open No. 2008-131250 (paragraph numbers 0023-0040, FIG. 1) 特開2009‐271122号公報段落番号〔0009−0021〕、図1)Japanese Patent Laid-Open No. 2009-271122, paragraph number [0009-0021], FIG. 1)

上記従来技術の実情に鑑み、異なる色の組み合わせからなるカラーターゲットを光源下において撮影した撮影画像に生じた色影響を、色補正のリファレンスのための追加的な無彩色部材などを必要とせずに、低減させ、カラーターゲット位置の検出能力を維持する技術が要望されている。   In view of the above-described prior art, color effects generated in a photographed image obtained by photographing a color target composed of a combination of different colors under a light source can be used without requiring an additional achromatic member for color correction reference. There is a need for a technique that reduces and maintains color target position detection capabilities.

本発明によるカラーターゲット位置決定装置は、異なる色の組み合わせからなるカラーターゲットを光源下において撮影した撮影画像を入力する画像入力部と、前記撮影画像から前記光源の光源種を推定する光源推定部と、前記撮影画像におけるカラーターゲットが前記光源種毎の光源によって受ける色影響を低減するような特性を持つように前記光源種毎に作成されたカラープロファイルを格納するカラープロファイル格納部と、前記光源推定部で推定された光源種に基づいて前記カラープロファイル格納部から選択出力されたカラープロファイルを用いて前記撮影画像を色補正する色変換部と、前記色変換部によって色補正された色補正撮影画像における前記カラーターゲットの異なる色領域を識別判定して前記ターゲットの前記撮影画像における位置を決定するカラーターゲット位置決定モジュールとを備えている。   A color target position determination apparatus according to the present invention includes an image input unit that inputs a captured image obtained by capturing a color target composed of a combination of different colors under a light source, and a light source estimation unit that estimates a light source type of the light source from the captured image. A color profile storage unit that stores a color profile created for each of the light source types so that a color target in the captured image has a characteristic that reduces the color influence of the light source for each of the light source types, and the light source estimation A color conversion unit that performs color correction on the captured image using a color profile that is selected and output from the color profile storage unit based on the light source type estimated by the unit, and a color-corrected captured image that is color-corrected by the color conversion unit The different color regions of the color target in And a color target location determination module for determining a position in.

この構成によれば、入力された撮影画像から、まずこの撮影画像から認識すべきカラーターゲットが受けている光源種を推定し、その光源種がカラーターゲットに及ぼす色かぶりなどの色影響を低減するような特性をもつカラープロファイルが選択され、このカラープロファイルを用いて入力された撮影画像におけるカラーターゲットが色補正される。このカラープロファイルは、予め光源種毎にカラーターゲットが受ける色影響を実験的に確認し、この色影響を低減するように作成されている。従って、推定された光源種に合った適正なカラープロファイルを用いる色変換部によって色補正された撮影画像は、その後カラーターゲットの異なる色領域を識別が十分に可能な程度にはその色影響が低減されており、その後のカラーターゲット位置の決定がスムーズに行われる。特にナトリウムランプのような光源下での撮影画像では、被写体の黄色以外の色がグレーないしは黒に判定される可能性が高いが、ナトリウムランプの色かぶり特性を考慮したカラープロファイルを用いることで、カラーターゲットの異なる色領域の識別が可能な撮影画像がカラーターゲット位置決定モジュールに与えられる。   According to this configuration, the light source type received by the color target to be recognized from the captured image is first estimated from the input captured image, and the color influence such as color cast that the light source type has on the color target is reduced. A color profile having such characteristics is selected, and the color target in the photographed image input using the color profile is color-corrected. This color profile is created in advance so as to experimentally confirm the color influence on the color target for each light source type and reduce this color influence. Therefore, the captured image that has been color-corrected by the color conversion unit that uses an appropriate color profile that matches the estimated light source type is reduced in color influence to the extent that it is possible to identify different color areas of the color target. The subsequent color target position is determined smoothly. In particular, in a photographed image under a light source such as a sodium lamp, it is highly likely that the color other than yellow of the subject is determined to be gray or black, but by using a color profile that considers the color cast characteristics of the sodium lamp, A captured image capable of identifying different color regions of the color target is provided to the color target position determination module.

光源種毎の光源によって受ける色影響を低減するような特性を持つようにカラープロファイルを作成する際の好適な実施形態の一つとして、前記カラーターゲットを構成する複数の元色(元色という語句は、理想的な太陽光の下での本来の色を表すものであるが、さらにここではそのような色を狭く限定するのではなくその元色の近似色も含む所定の色範囲を有している語句として用いられている)から、当該元色が前記光源種の色影響(色に関する影響)によって色空間上を移動することにより生じたそれぞれの変化色(ここでは変化色という語句は、特定の変化色の近似色も含む所定の色範囲を有している)への共通変換行列を近似的に求め、この変換行列の逆行列に基づいて前記カラープロファイルを作成することが提案される。例えば、カラーターゲットがある色空間における第1色と第2色とでパターン構成されているとして、特殊な光源によって、第1色と第2色はその色空間を移動して第3色と第4色となったとすると、第1色が第3色に変化(色空間上の移動)するとともに第2色が第4色に変化する(色空間上の移動)変換行列を少なくとも近似的に求めることができる。さらにこの変換行列の逆行列を少なくとも近似的に求めると、この逆行列に基づいて光源によって受ける色影響を低減するような特性を持つようにカラープロファイルを前もって作成することができる。   As one of preferred embodiments when creating a color profile so as to reduce the color influence of the light source for each light source type, a plurality of primary colors (original color) constituting the color target Represents the original color under ideal sunlight, but it does not narrowly limit such color here, but has a predetermined color range that includes approximate colors of the original color. Each of the change colors (here, the change color) generated by moving the original color in the color space due to the color influence of the light source type (influence on the color) It is proposed to approximately obtain a common transformation matrix (having a predetermined color range including an approximate color of a specific change color) and to create the color profile based on an inverse matrix of this transformation matrix . For example, assuming that a color target has a pattern composed of a first color and a second color in a certain color space, the first color and the second color are moved in the color space by a special light source, and the third color and the second color are moved. If there are four colors, the first color changes to the third color (movement on the color space) and the second color changes to the fourth color (movement on the color space). be able to. Furthermore, when an inverse matrix of the transformation matrix is at least approximately obtained, a color profile can be created in advance so as to have a characteristic that reduces the color influence received by the light source based on the inverse matrix.

車両周辺画像認識装置が認識しなければならないカラーターゲットが複数種別存在して、種別毎にその色構成が異なる場合、光源種毎にかつカラーターゲットの種別毎に専用のカラープロファイルを作成しておくと、より正確な色補正が可能となる。従って、本発明の好適な実施形態の1つでは、前記色変換部は、前記推定された光源種と前記カラーターゲットを特徴付ける特徴色とに基づいて選択されたカラープロファイルを用いて前記撮影画像を色補正するように構成されている。   If there are multiple types of color targets that must be recognized by the vehicle periphery image recognition device and the color configuration differs for each type, a dedicated color profile is created for each type of light source and for each type of color target. As a result, more accurate color correction is possible. Therefore, in one preferred embodiment of the present invention, the color conversion unit uses the color profile selected based on the estimated light source type and the characteristic color characterizing the color target to capture the captured image. It is configured to perform color correction.

本発明によるカラーターゲット位置決定装置で採用されている光源による色影響を補正する色補正原理の前半の説明図である。It is explanatory drawing of the first half of the color correction principle which correct | amends the color influence by the light source employ | adopted with the color target position determination apparatus by this invention. 本発明によるカラーターゲット位置決定装置で採用されている光源による色影響を補正する色補正原理の後半の説明図である。It is explanatory drawing of the second half of the color correction principle which correct | amends the color influence by the light source employ | adopted with the color target position determination apparatus by this invention. カメラ較正のために用いられるターゲットと車両との配置関係の一例を示す説明図である。It is explanatory drawing which shows an example of the arrangement | positioning relationship between the target used for camera calibration, and a vehicle. カラーターゲットの一例を示す説明図である。It is explanatory drawing which shows an example of a color target. カラーターゲット位置決定装置における画像処理機能を示す機能ブロック図Functional block diagram showing image processing function in color target position determination device YCbCr表色系でのターゲット画像に対する走査結果を示すグラフである。It is a graph which shows the scanning result with respect to the target image in a YCbCr color system. 閾値を算定するための演算方法を説明する説明図である。It is explanatory drawing explaining the calculation method for calculating a threshold value. カラーターゲット位置決定装置における制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control in a color target position determination apparatus. カラーターゲット位置決定処理を示すフローチャートである。It is a flowchart which shows a color target position determination process.

以下、本発明の実施の形態を図面に基づいて説明する。まず、本発明による車両周辺画像認識装置で採用されている、光源による色影響を補正する色補正技術の原理を図1と図2の説明図を用いて説明する。
ここでは、カラーターゲット2は、2つの異なる色の組み合わせ(パターン)によって構成されていることにする。図1の(a)に示すように、2つの色(近似色を含む元色)のうちの一方は第1色と名づけてC1(R1,G1,B1)(RGB表色系)で表している。2つの色のうちの他方は第2色と名づけてC2(R2,G2,B2)で表している。つまり、このカラーターゲット2を特徴付けている特徴色は、第1色と第2色であり、この第1色と第2色の境界線の検出を通じて正確な位置検出が可能となる。このカラーターゲット2が、タングステンランプやナトリウムランプなどの光源によって照明されることで、第1色と第2色はそれぞれ異なった色(近似色を含む変化色)に変化する。第1色が変化した色を第3色と名づけてC3(R3,G3,B3)で表している。第2色が変化した色を第4色と名づけてC4(R4,G4,B4)で表している。この色の変化(移行)をマトリックス表現した関係式を用いてそれぞれの色変化を示すと次のように示すことができる。
C1(R1,G1,B1)・M1 => C3(R3,G3,B3) (1)
C2(R2,G2,B2)・M2 => C4(R4,G4,B4) (2)
このような色の変化を表色系上で視覚化した模式図が図1の(b)に示されている。つまり、光源による照明により元色の座標位置が変化色の座標位置に移動するが、その移動の方向と距離が変換行列:M1、M2で表されている。
次に、光源による色影響を受けたカラーターゲット2を撮影画像上で、元通りの色になるように色補正することを考える。この補正は、変換行列:M1、M2の逆行列:M1-1、M2-1を求めることで実現することができる。つまり、光源による色影響により表色系上での第1色から第3色への移動、及び第2色から第4色への移動はその移動を逆にたどって戻すことで元色となる。このことは次のように示すことができる。
C3(R3,G3,B3)・M1-1 => C1(R1,G1,B1) (3)
C4(R4,G4,B4)・M2-1 => C2(R2,G2,B2) (4)
このような色補正を表色系上で視覚化した模式図が図1の(c)に示されている。
一般的に正確な逆行列を求めることは困難なので、近似的または実験的あるいはその両方で求めるとよい。このようにして求められたM1-1やM2-1に対応するように作成されたカラープロファイルは、カラーターゲット2が特定の光源によって受ける色影響を少なくとも低減するような特性を持つことになる。
また、色毎(第1色と第2色)に個別に作成された複数の変換行列を好ましくは最適近似させた共通変換行列を作成し、その共通変換行列の逆行列から両方の色(第1色と第2色)に適合するカラープロファイルを作成してもよい。また実質的には同じであるが、個別に作成された複数の逆行列を好ましくは最適に1つの逆行列に融合させ、この融合させた逆行列から両方の色(第1色と第2色)に適合するカラープロファイルを作成してもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, the principle of the color correction technique that is used in the vehicle peripheral image recognition apparatus according to the present invention and corrects the color effect due to the light source will be described with reference to FIGS.
Here, it is assumed that the color target 2 is configured by a combination (pattern) of two different colors. As shown in FIG. 1A, one of the two colors (original colors including approximate colors) is named as the first color and expressed in C1 (R1, G1, B1) (RGB color system). Yes. The other of the two colors is named the second color and is represented by C2 (R2, G2, B2). That is, the characteristic colors that characterize the color target 2 are the first color and the second color, and accurate position detection is possible through detection of the boundary line between the first color and the second color. When the color target 2 is illuminated by a light source such as a tungsten lamp or a sodium lamp, the first color and the second color change to different colors (change colors including approximate colors). The color in which the first color is changed is named the third color and is represented by C3 (R3, G3, B3). The color in which the second color is changed is named the fourth color and is represented by C4 (R4, G4, B4). Each color change can be expressed as follows using a relational expression expressing the color change (transition) in a matrix.
C1 (R1, G1, B1) ・ M1 => C3 (R3, G3, B3) (1)
C2 (R2, G2, B2) ・ M2 => C4 (R4, G4, B4) (2)
A schematic diagram visualizing such a color change on the color system is shown in FIG. That is, the coordinate position of the original color is moved to the coordinate position of the change color by illumination with the light source, and the direction and distance of the movement are represented by conversion matrices: M1 and M2.
Next, it is considered that the color target 2 affected by the color influence of the light source is color-corrected so that it becomes the original color on the photographed image. This correction can be realized by obtaining transformation matrices: M1 and M2 inverse matrices: M1 −1 and M2 −1 . In other words, the movement from the first color to the third color on the color system and the movement from the second color to the fourth color on the color system due to the color effect of the light source becomes the original color by reversing the movement in reverse. . This can be shown as follows.
C3 (R3, G3, B3) ・ M1 -1 => C1 (R1, G1, B1) (3)
C4 (R4, G4, B4) ・ M2 -1 => C2 (R2, G2, B2) (4)
A schematic diagram visualizing such color correction on the color system is shown in FIG.
In general, since it is difficult to obtain an accurate inverse matrix, it may be obtained approximately or experimentally or both. The color profile created so as to correspond to M1 -1 and M2 -1 obtained in this way has characteristics that at least reduce the color influence of the color target 2 on the specific light source.
In addition, a common transformation matrix is preferably created by optimally approximating a plurality of transformation matrices created individually for each color (first color and second color), and both colors (first and second colors) are obtained from the inverse matrix of the common transformation matrix. A color profile that matches one color and the second color may be created. In addition, although substantially the same, a plurality of individually created inverse matrices are preferably optimally fused into one inverse matrix, and both colors (first color and second color are selected from this fused inverse matrix. ) May be created.

強い色かぶりなどの色影響を与える光源は複数考慮しなければならい場合、その光源毎に上述したようなカラープロファイルを作成し、選択使用可能に格納する必要がある。さらに、処理対象となる撮影画像からどの種の光源によって照明されたものであるかという光源推定を行わなければならない。この光源推定は、各光源がカラーターゲット2を照明している状況下で撮影画像を取得し、その撮影画像の画像特徴量から導き出す手法が好都合である。このような手法を実現するには、実験的な学習工程を通じて、画像特性から光源種を推定できる、知識ベースやニューラルネットワークの技法が好適であるが、その他の従来からよく知られたアルゴリズムを用いても良い。図2に模式的に示すように、処理すべき撮影画像の画像特徴量を入力として、光源の推定光源種が演算出力され、その光源種に適応するカラープロファイル(逆行列)がカラープロファイル格納部から選択出力され、この出力されたカラープロファイルを用いて撮影画像を色補正することで、構成色の識別認識が容易となったカラーターゲット2が得られる。
なお、色構成等が異なる複数種のカラーターゲット2を処理しなければならない場合には、複数種のカラーターゲット2毎のカラープロファイル(逆行列)を作成するとよい。
When a plurality of light sources that have a color effect such as strong color cast have to be considered, it is necessary to create a color profile as described above for each light source and store it in a selectable manner. Furthermore, it is necessary to perform light source estimation as to what kind of light source is illuminated from the captured image to be processed. For this light source estimation, it is advantageous to obtain a captured image under the condition that each light source illuminates the color target 2 and derive it from the image feature amount of the captured image. In order to realize such a method, a knowledge base or neural network technique that can estimate the light source type from the image characteristics through an experimental learning process is preferable, but other well-known algorithms are used. May be. As schematically shown in FIG. 2, an image feature amount of a captured image to be processed is input, an estimated light source type of a light source is calculated and output, and a color profile (inverse matrix) adapted to the light source type is a color profile storage unit. The color target 2 is obtained by making it easy to identify and recognize the constituent colors by correcting the color of the captured image using the output color profile.
In addition, when it is necessary to process a plurality of types of color targets 2 having different color configurations, a color profile (inverse matrix) for each of the plurality of types of color targets 2 may be created.

次に、上述した、光源による色影響を補正する色補正技術の原理を採用した、本発明のカラーターゲット位置決定装置の実施形態を図面に基づいて説明する。図3は、較正用のターゲット2(較正指標)と車両1との配置関係の一例を示す説明図である。カメラ11(車載カメラ)は、車両1の後方のナンバープレートの上方に車体長手軸心から側方へオフセットした位置で、カメラ光軸を下方(例えば水平から30°下方)に向けて設置される。なお、この図示例では、車体長手軸心とカメラ光軸とは平行ではない。カメラ11は、例えば水平方向の視野角110〜120°の広角カメラであり、後方約8m程度までの領域を撮影可能である。このカメラ11は、車両の生産工場等で車両1に取り付けられる際に取付誤差を吸収するべく較正される。また、修理工場などにおいて、走行による振動の累積や衝撃などによるカメラ11のずれを修正するべく較正される。吸収すべき取付誤差としては、ロール角、パン角、チルト角、取付位置などが挙げられる。以下、自動車生産工場におけるカメラ較正のためのカメラ取付誤差の判定作業を例として説明する。   Next, an embodiment of the color target position determination apparatus of the present invention, which employs the principle of the color correction technique for correcting the color influence caused by the light source, will be described with reference to the drawings. FIG. 3 is an explanatory diagram illustrating an example of an arrangement relationship between the calibration target 2 (calibration index) and the vehicle 1. The camera 11 (on-vehicle camera) is installed above the license plate behind the vehicle 1 at a position offset laterally from the longitudinal axis of the vehicle body with the camera optical axis facing downward (for example, 30 ° downward from the horizontal). . In the illustrated example, the longitudinal axis of the vehicle body and the camera optical axis are not parallel. The camera 11 is, for example, a wide-angle camera with a horizontal viewing angle of 110 to 120 °, and can capture a region up to about 8 m behind. The camera 11 is calibrated to absorb mounting errors when mounted on the vehicle 1 at a vehicle production factory or the like. Further, in a repair shop or the like, calibration is performed so as to correct the displacement of the camera 11 due to accumulation of vibration caused by running or impact. Examples of attachment errors to be absorbed include roll angle, pan angle, tilt angle, and attachment position. Hereinafter, a description will be given of an example of a camera attachment error determination operation for camera calibration in an automobile production factory.

図3に示すように、カメラ11の較正は、車両1を所定位置に停車させた状態で行われる。例えば、車両1をバックまたは前進させ、所定位置に設けられたタイヤ溝やタイヤ止めによって車輪が停止するようにすれば、正確な位置で停止させることが可能である。図3に示す例では、2つのカラーターゲット(以下単にターゲットと略称する)2(2a、2b)が床面上に配置されている。図から明らかなように、2つのターゲット2a、2bの間隔は車両1のトレッド幅に比べて狭く、ターゲット2が車両1の車輪によって踏まれにくい配置となっている。この配置とは逆に、2つのターゲット2a、2bの間隔を車両1のトレッド幅に比べて広くとって、ターゲット2が車両1の車輪によって踏まれにくい配置を採用してもよい。   As shown in FIG. 3, the calibration of the camera 11 is performed in a state where the vehicle 1 is stopped at a predetermined position. For example, if the vehicle 1 is moved back or forward and the wheels are stopped by a tire groove or a tire stop provided at a predetermined position, the vehicle 1 can be stopped at an accurate position. In the example shown in FIG. 3, two color targets (hereinafter simply referred to as targets) 2 (2a, 2b) are arranged on the floor surface. As is apparent from the figure, the distance between the two targets 2 a and 2 b is narrower than the tread width of the vehicle 1, and the target 2 is not easily stepped on by the wheels of the vehicle 1. In contrast to this arrangement, an arrangement may be adopted in which the distance between the two targets 2a and 2b is wider than the tread width of the vehicle 1 so that the target 2 is not easily stepped on by the wheels of the vehicle 1.

図3において、車両1は、後端部中央の床面がワールド座標系(基準座標系、Xw,Yw,Zw)の原点Owとなるように停車されている。ここでは、カメラ11の光学中心Ocを中心とするカメラ座標系(Xc,Yc,Zc)は、ワールド座標系に対して各軸が平行とはなっていない。ワールド座標系、カメラ座標系共に右手系の座標系であり、図中では、紙面に対して鉛直方向のXw軸、及びほぼ鉛直方向のXc軸は図示していない。ワールド座標系とカメラ座標系との間の座標変換は良く知られた演算法を用いて行うことができる。   In FIG. 3, the vehicle 1 is stopped so that the floor surface at the center of the rear end is the origin Ow of the world coordinate system (reference coordinate system, Xw, Yw, Zw). Here, the axes of the camera coordinate system (Xc, Yc, Zc) centered on the optical center Oc of the camera 11 are not parallel to the world coordinate system. Both the world coordinate system and the camera coordinate system are right-handed coordinate systems, and in the drawing, the Xw axis in the vertical direction and the Xc axis in the substantially vertical direction are not shown in the drawing. Coordinate conversion between the world coordinate system and the camera coordinate system can be performed using a well-known calculation method.

ターゲット2は、カメラ11の視野範囲内において少なくとも2箇所に配置される。また、ターゲット2は、ワールド座標系においてその座標が既知となるように配置される。本例において、ターゲット2は、図4に示すように、このターゲット2を特徴付ける特徴色としての青と赤の市松模様のパターンを有している。パターン中央の点Qが較正点であり、カメラ11の較正の基準となる。つまり、この較正点Qの座標がワールド座標系においてその座標が既知となるように、ターゲット2は配置されている。尚、ここでは青の矩形2個、赤の矩形2個の計4個の矩形の例を示したが、計4個以上であっても良く、その数や形状はここで図示されているものに限定されない。   The targets 2 are arranged at least at two locations within the visual field range of the camera 11. The target 2 is arranged so that its coordinates are known in the world coordinate system. In this example, as shown in FIG. 4, the target 2 has a blue and red checkered pattern as characteristic colors that characterize the target 2. A point Q at the center of the pattern is a calibration point, which is a reference for calibration of the camera 11. That is, the target 2 is arranged so that the coordinates of the calibration point Q are known in the world coordinate system. In addition, although the example of a total of four rectangles of two blue rectangles and two red rectangles was shown here, there may be a total of four or more, and the number and shape are shown here. It is not limited to.

ターゲット2は、蛍光灯や白熱灯などのランプ光源が主体となる環境光にさらされる床面に直接的または間接的に配置されるが、いずれにしても環境光の反射状況によっては画像認識が困難となる。従って、本発明では、鉄板につや消しサテン状塗料を2度塗りする塗装法を採用することで、ターゲット2の表面をつや消し状態とし、環境光の反射等の影響を受けにくい撮影画像が得られるようにしている。   The target 2 is disposed directly or indirectly on a floor surface exposed to ambient light mainly composed of a lamp light source such as a fluorescent lamp or an incandescent lamp. It becomes difficult. Therefore, in the present invention, by adopting a coating method in which a matte satin-like paint is applied twice to the iron plate, the surface of the target 2 is made to be in a matte state, and a photographed image that is not easily affected by reflection of ambient light or the like can be obtained. I have to.

図3に示す例では、2つのターゲット2は床上に車両の主軸(ワールド座標系のZw軸)に対して左右対称に配置されている(D1=D2、W1=W2)。ただし、常に左右対称である必要はなく、カメラ11の視野内であって、座標値が既知であればその配置は自由である。つまり、工場において確保できる広さや他の設備との関係によってターゲット2の配置を任意に設定することが可能である。   In the example shown in FIG. 3, the two targets 2 are arranged on the floor symmetrically with respect to the main axis of the vehicle (Zw axis of the world coordinate system) (D1 = D2, W1 = W2). However, it is not always necessary to be left-right symmetric, and if the coordinate value is known within the field of view of the camera 11, its arrangement is free. That is, it is possible to arbitrarily set the arrangement of the target 2 depending on the area that can be secured in the factory and the relationship with other equipment.

ターゲット2の寸法は、カメラ11の解像度やカメラ11による撮影画像を処理する画像処理機能の性能、マーカの配置位置などに応じて、精度良く較正点Qを検出できるように適切に定められる。一例として、D1とD2が1〜2m、W1とW2が0.5m程度である場合には、図4に示すような、各白黒が10〜15cm四方、全体が20〜30cm四方のターゲット2が利用される。   The dimension of the target 2 is appropriately determined so that the calibration point Q can be detected with high accuracy according to the resolution of the camera 11, the performance of the image processing function for processing the image taken by the camera 11, the arrangement position of the marker, and the like. As an example, when D1 and D2 are about 1 to 2 m and W1 and W2 are about 0.5 m, a target 2 having 10 to 15 cm square for each black and white and 20 to 30 cm square as a whole is shown in FIG. Used.

この実施形態では、本発明によるターゲット位置特定装置は、実質的には、コンピュータを中核部材とする画像処理ユニットによって構成され、図4には、その画像処理機能を模式的に示すブロック図が示されている。図4に示すように、この画像処理ユニットには、画像入力部31と、色変換モジュール4と、ターゲット位置決定モジュール5と、取付精度判定モジュール32とが含まれている。画像入力部31は、カメラ11によって取得されたターゲット2を含む撮影画像を入力して、図示されていないワーキングメモリに展開する。ターゲット位置決定モジュール5は、ワーキングメモリに展開された撮影画像からターゲット2の位置、特にターゲット2の較正点Qの位置を求める。取付精度判定モジュール32は、ターゲット位置決定モジュール5によって特定されたターゲット2の較正点Qの位置と目標となる較正点位置との差からカメラ11の取付精度の判定を行う。   In this embodiment, the target position specifying apparatus according to the present invention is substantially constituted by an image processing unit having a computer as a core member. FIG. 4 is a block diagram schematically showing the image processing function. Has been. As shown in FIG. 4, the image processing unit includes an image input unit 31, a color conversion module 4, a target position determination module 5, and an attachment accuracy determination module 32. The image input unit 31 inputs a captured image including the target 2 acquired by the camera 11 and develops it in a working memory (not shown). The target position determination module 5 obtains the position of the target 2, particularly the position of the calibration point Q of the target 2 from the captured image developed in the working memory. The attachment accuracy determination module 32 determines the attachment accuracy of the camera 11 from the difference between the position of the calibration point Q of the target 2 specified by the target position determination module 5 and the target calibration point position.

色変換モジュール4は、光源推定部41と、カラープロファイル格納部42と、カラープロファイル選択部43と、色変換部44とを含んでいる。光源推定部41は、画像入力部31を通じて入力された撮影画像から算出された種々の画像特徴量、例えば、平均輝度、ヒストグラム特性、色成分割合などを入力することにより、重み演算やルール演算などの演算を通じて、推定された光源種を出力する。ここでの重み演算とは、例えばニューラルネットワークで用いられているような、各入力パラメータに重み係数を付与し、繰り返し学習によってこの重み係数の修正を行って、出力結果の誤差を最小にした演算式を用いた演算の総称である。また、ルール演算とは、ifthen文のような所定のルールに基づいて、結果を導く演算の総称である。ルール自体の内容としては、例えば、「B(青)色成分値が所定値より高くR(赤)とG(緑)の成分値が所定値より低いならば、オレンジランプの可能性が所定%以上」などが挙げられる。
なお、光源種として、タングステンランプ、ナトリウムランプ、蛍光ランプ、LEDランプなどが挙げられるが、太陽光に含めて、互い同士の組み合わせもここで推定される光源種としてもよい。また、その各ランプの強度、色影響の大きさ別に同一光源種を区分けしてもよい。
The color conversion module 4 includes a light source estimation unit 41, a color profile storage unit 42, a color profile selection unit 43, and a color conversion unit 44. The light source estimation unit 41 inputs various image feature amounts calculated from the captured image input through the image input unit 31, for example, average luminance, histogram characteristics, color component ratios, etc., thereby calculating weights, rules, etc. The estimated light source type is output through the operation. The weight calculation here is, for example, a calculation that assigns a weight coefficient to each input parameter and corrects the weight coefficient by iterative learning to minimize the error in the output result, as used in neural networks, for example. It is a general term for operations using expressions. A rule operation is a general term for operations that derive a result based on a predetermined rule such as an ifthen statement. The content of the rule itself is, for example, “If the B (blue) color component value is higher than a predetermined value and the R (red) and G (green) component values are lower than the predetermined value, the probability of an orange lamp is predetermined%. And so on. "
In addition, although a tungsten lamp, a sodium lamp, a fluorescent lamp, an LED lamp, etc. are mentioned as a light source seed | species, it is good also as light source seed | species estimated here also including in sunlight. Also, the same light source type may be classified according to the intensity of each lamp and the magnitude of color influence.

カラープロファイル格納部42は、図1を用いて説明した色補正に用いられる、色かぶり等の色影響をターゲット2の画像からできるだけ低減するための補正テーブルとしてのカラープロファイル(カラーマトリックス)を格納している。この実施形態では、各カラープロファイルは、特定の光源種とターゲット2の特定の色構成(ここでは青色と赤色)との組み合わせ毎に作成されているので、光源種とターゲット2の色構成とを検索キーワードとして検索抽出できるようにデータベース化されている。さらに、このターゲット2用として、特定の光源種による青色に対する色影響を低減させるためのカラープロファイル(青補正逆行列)と赤色に対する色影響を低減させるためのカラープロファイル(赤補正逆行列)とを融合させた青・赤共通カラープロファイル(共通逆行列)が用いられるように構成されている。なお、この青・赤共通カラープロファイルは、青色に対する色影響を低減させる変換行列と、赤色に対する色影響を低減させる変換行列とを融合した共通変換行列を近似的に求め、その共通変換行列の逆行列に基づいて作成することも可能である。
カラープロファイル選択部43は、光源推定部41によって推定された光源種と、予め設定されているターゲット2の色構成、ここでは青と赤の市松模様の色構成とから適合するカラープロファイルを選択し、色変換部44に与える。色変換部44は、カラープロファイル選択部43によって選択されたカラープロファイルを用いて撮影画像の色補正を行う。
The color profile storage unit 42 stores a color profile (color matrix) used as a correction table for reducing the color influence such as color fog from the image of the target 2 as much as possible, which is used for the color correction described with reference to FIG. ing. In this embodiment, each color profile is created for each combination of a specific light source type and a specific color configuration of the target 2 (here, blue and red). It is made into a database so that it can be searched and extracted as a search keyword. Further, for this target 2, a color profile (blue correction inverse matrix) for reducing the color influence on blue by a specific light source type and a color profile (red correction inverse matrix) for reducing the color influence on red are used. A combined blue / red common color profile (common inverse matrix) is used. This blue / red common color profile is obtained by approximating a common transformation matrix that fuses a transformation matrix that reduces the color effect on blue and a transformation matrix that reduces the color effect on red, and the inverse of the common transformation matrix. It is also possible to create based on a matrix.
The color profile selection unit 43 selects a suitable color profile from the light source type estimated by the light source estimation unit 41 and the preset color configuration of the target 2, here, the blue and red checkered pattern color configuration. To the color conversion unit 44. The color conversion unit 44 performs color correction of the captured image using the color profile selected by the color profile selection unit 43.

ターゲット位置決定モジュール5は、この実施形態では、前処理部51と、色差変換部52と、閾値設定部53と、色領域判定部54と、境界検出部55と、ターゲット位置算定部56とを含んでいる。前処理部51は、必要に応じてカメラ11のレンズ特性を起因とする画像歪の補正やレベル調整(濃度補正やコントラスト補正など)を行う。   In this embodiment, the target position determination module 5 includes a preprocessing unit 51, a color difference conversion unit 52, a threshold setting unit 53, a color area determination unit 54, a boundary detection unit 55, and a target position calculation unit 56. Contains. The pre-processing unit 51 performs image distortion correction and level adjustment (density correction, contrast correction, etc.) caused by the lens characteristics of the camera 11 as necessary.

色差変換部52は、色変換部44によって色補正された撮影画像のRGB画素値を演算して青色成分値と赤色成分値と輝度値を求めて色差画像データを生成する。この変換には、RGB表色系からYCbCr表色系への変換で用いられている、例えば次式を利用することができる。
Y=0.299×R+ 0.587×G+ 0.114×B
Cb=0.564×(B − Y)
Cr=0.713×(R − Y)
ここで、Y:輝度値、Cb:青色成分値、Cr:赤色成分値、R:R画素値、G:G画素値、B:B画素値である。この式からの理解できるように、第1の色成分値や第2の色成分値、例えば青色成分値:Cb、赤色成分値:Cr は撮影画像の輝度(明るさ)に応じて変化するものである。
The color difference conversion unit 52 calculates the RGB pixel value of the captured image color-corrected by the color conversion unit 44 to obtain a blue component value, a red component value, and a luminance value, and generates color difference image data. For this conversion, for example, the following expression used in the conversion from the RGB color system to the YCbCr color system can be used.
Y = 0.299 x R + 0.587 x G + 0.114 x B
Cb = 0.564 × (B−Y)
Cr = 0.713 × (R−Y)
Here, Y: luminance value, Cb: blue component value, Cr: red component value, R: R pixel value, G: G pixel value, B: B pixel value. As can be understood from this equation, the first color component value and the second color component value, for example, the blue component value: Cb and the red component value: Cr change according to the luminance (brightness) of the photographed image. It is.

閾値設定部53は、色差変換部52によって生成された色差画像データに含まれている輝度値(Y)に基づいて、対象画素(対象領域)が赤色であるかまたは青色であるかを判定するための判定条件としての特定色検出閾値を設定する。これは、YCbCr表色系における青色成分値や赤色成分値には輝度値の影響が入っており、撮影画像が明るいほどその成分値が大きくなり、画像が暗いほどその成分値が小さくなる。図6には、ターゲット2を含む色差画像を横方向に走査した際の、青色成分値:Cbと赤色成分値:Crの変動の様子が示されている。図6(a)は明るい環境下で取得された撮影画像に基づくもので、その輝度値:Yの値は相対的に高くなり、青色成分値:Cbと赤色成分値:Crのレベルも相対的に高くなっている。図6(b)は暗い環境下で取得された撮影画像に基づくもので、その輝度値:Yの値は相対的に低くなり、その輝度値:Yの値は相対的に低くなっている。従って、色差画像データからターゲット2の青色領域または赤色領域を精度よく検出するためには、図6(a)に示すように輝度値が高い場合には、その検出条件としての閾値(THb、THr)のレベルを相対的に高くするとよい。逆に、図6(a)に示すように輝度値が低い場合には、その検出条件としての閾値のレベルを相対的に低くするとよい。   The threshold setting unit 53 determines whether the target pixel (target region) is red or blue based on the luminance value (Y) included in the color difference image data generated by the color difference conversion unit 52. A specific color detection threshold is set as a determination condition. This is because the blue component value and the red component value in the YCbCr color system are affected by the luminance value. The brighter the captured image, the larger the component value, and the darker the image, the smaller the component value. FIG. 6 shows how the blue component value: Cb and the red component value: Cr change when the color difference image including the target 2 is scanned in the horizontal direction. FIG. 6A is based on a photographed image acquired in a bright environment. The luminance value: Y is relatively high, and the levels of the blue component value: Cb and the red component value: Cr are also relative. It is getting higher. FIG. 6B is based on a photographed image acquired in a dark environment, and its luminance value: Y is relatively low and its luminance value: Y is relatively low. Therefore, in order to accurately detect the blue region or red region of the target 2 from the color difference image data, when the luminance value is high as shown in FIG. 6A, thresholds (THb, THr as detection conditions) ) Level should be relatively high. Conversely, when the luminance value is low as shown in FIG. 6A, the threshold level as the detection condition may be relatively lowered.

このように画像の明るさ(輝度レベル)に応じて動的に閾値レベルを変動させるための好適な方法の1つとして、図7で模式的に示しているように、撮影画像における全画素の判定対象となる色成分値の平均値:VA_avgと、撮影画像における全画素のうち判定対象となる色成分値が上位レベルに属する画素(例えば最大色成分値の95%以上の色成分値を有する画素)の色成分値の色成分対応赤領域に対応する上位レベルの平均値:VH_avgと、それらの差分値:ΔV_avg(=VH_avg−VA_avg)とから、撮影画像の画素が特定色領域(ここでは青色または赤色)のいずれかに属すると判定するための特定色閾値:TH(THb、THr)を次式で求めことができる。
TH=VA_avg + K×ΔV_avg
ここで、Kは一定値であり、予め実験的に求められた値である。
このようにして算定された閾値:THは、撮影画像における輝度成分を含んだCb:青色成分値ないしはCr:赤色成分値をパラメータとする関数によって導出されているので、撮影画像における輝度レベルが高いと大きくなり、輝度レベルが低いと小さくなる。なお、この閾値を求める演算処理を簡単化するためには、青色の閾値:THbまたは赤色の閾値:THrの一方を求め、これを他方の閾値とするような閾値の共通化を行うとよい。
As one of the preferred methods for dynamically changing the threshold level according to the brightness (luminance level) of the image as described above, as schematically shown in FIG. Average value of color component values to be determined: VA_avg and pixels whose color component values to be determined belong to a higher level among all pixels in the captured image (for example, have a color component value of 95% or more of the maximum color component value) From the average value VH_avg of the upper level corresponding to the color component corresponding red region of the color component value of pixel) and the difference value thereof ΔV_avg (= VH_avg−VA_avg), the pixel of the photographed image is a specific color region (here, The specific color threshold value TH (THb, THr) for determining that it belongs to either of (blue or red) can be obtained by the following equation.
TH = VA_avg + K × ΔV_avg
Here, K is a constant value and is a value obtained experimentally in advance.
The threshold value TH calculated in this way is derived by a function including the luminance component in the captured image as a parameter of Cb: blue component value or Cr: red component value, and therefore the luminance level in the captured image is high. And increases when the luminance level is low. In order to simplify the calculation processing for obtaining this threshold value, it is preferable to obtain a common threshold value by obtaining one of the blue threshold value: THb or the red threshold value: THr and using this as the other threshold value.

撮影画像の明るさ(輝度レベル)に応じて動的に閾値レベルを変動させる方法は、上述したもの以外に種々の演算方法が考えられるが、上位概念的には次のように説明することができる。例えば、青領域判定のための閾値:THbは、Y:撮影画像の輝度または色差情報の輝度値の統計学的(平均値、中央値など)数値:f(Y)とCb:青色成分値の統計学的数値:f(Cb)とのをパラメータとする以下の関数:Fbで求めることができる。
THb=Fb(f(Y),f(Cb))
赤領域判定のための閾値:THrは、Y:撮影画像の輝度または色差情報の輝度値の統計学的数値:f(Y)とCb:赤色成分値の統計学的数値:f(Cr)とのをパラメータとする以下の関数:Frで求めることができる。
THr=Fr(f(Y),f(Cr))
なお、ここでは、青領域判定のための閾値:THbと赤領域判定のための閾値:THrの2つの閾値を求めたが、一方の閾値を兼用して使用することも可能である。
Various methods other than those described above can be considered as a method of dynamically changing the threshold level according to the brightness (luminance level) of the photographed image. The upper concept can be explained as follows. it can. For example, the threshold value THb for determining the blue region is Y: statistical (average value, median value, etc.) numerical value: f (Y) and Cb: blue component value. It can be obtained by the following function: Fb with a parameter of statistical numerical value: f (Cb).
THb = Fb (f (Y), f (Cb))
The threshold value for determining the red region: THr is Y: statistical value of the luminance value of the photographed image or the luminance value of the color difference information: f (Y) and Cb: statistical value of the red component value: f (Cr) It is possible to obtain it with the following function: Fr.
THr = Fr (f (Y), f (Cr))
Here, the two threshold values of the threshold value for determining the blue region: THb and the threshold value for determining the red region: THr are obtained, but it is also possible to use one threshold value in combination.

色領域判定部54は、閾値設定部53によって動的に、つまり撮影画像毎に、設定された閾値を用いて、ターゲット2を含む色差画像を順次走査し、青色領域と赤色領域とを判定する。その際、青色領域を判定するための判定条件として、青色成分値が閾値を上回ることと赤色成分値が閾値を下回ることとをAND条件にするとよい。同様に、赤色領域を判定するための判定条件として、赤色成分値が閾値を上回ることと青色成分値が閾値を下回ることとをAND条件にするとよい。つまり、色差信号では青色成分値と赤色成分値とが対極関係にあるため、その差分を利用することでより正確な青色領域判定が可能となるからである。しかしながら、本発明では、青色領域と赤色領域とを判定する際に、一方の色成分値が閾値を上回ることと他方の色成分値が閾値を下回ることとをAND条件にすることに限定されているわけではない。青色領域を判定するための判定条件として、青色成分値が閾値を上回ることだけを採用しても良いし、赤色領域を判定するための判定条件として、赤色成分値が閾値を上回ることだけを採用しても良い。   The color area determination unit 54 sequentially scans the color difference image including the target 2 using the threshold value set dynamically by the threshold setting unit 53, that is, for each captured image, and determines a blue area and a red area. . At this time, as a determination condition for determining the blue region, it is preferable to set the AND condition that the blue component value exceeds the threshold and the red component value falls below the threshold. Similarly, as a determination condition for determining the red region, an AND condition may be that the red component value exceeds the threshold and the blue component value falls below the threshold. That is, in the color difference signal, since the blue component value and the red component value are in a counter electrode relationship, more accurate blue region determination can be performed by using the difference. However, in the present invention, when determining the blue region and the red region, it is limited to the AND condition that one color component value exceeds the threshold value and the other color component value falls below the threshold value. I don't mean. As a determination condition for determining the blue region, only that the blue component value exceeds the threshold value may be employed, or as a determination condition for determining the red region, only that the red component value exceeds the threshold value is employed. You may do it.

境界検出部55は、色領域判定部54による青色領域と赤色領域の判定結果を利用して、ターゲットの青色領域と赤色領域との境界を検出する。境界検出部55よって検出された境界、つまり2つの境界線の交点が較正点Qとなるので、ターゲット位置算定部56は境界検出部55による境界検出結果に基づいて、撮像画像におけるターゲット2の位置、つまり較正点Qを算定することができる。   The boundary detection unit 55 detects the boundary between the blue region and the red region of the target using the determination result of the blue region and the red region by the color region determination unit 54. Since the boundary detected by the boundary detection unit 55, that is, the intersection of two boundary lines becomes the calibration point Q, the target position calculation unit 56 determines the position of the target 2 in the captured image based on the boundary detection result by the boundary detection unit 55. That is, the calibration point Q can be calculated.

カメラ11によって取得されフレームメモリに展開された撮影画像やターゲット位置決定モジュール4によって特定された較正点Qと目標較正点位置とのずれなどを示す画像は、画像信号生成部33を通じてモニタ12に表示することも可能である。その際、人間は光源による色かぶりをある程度正しい色に修正しながら理解することが可能であるので、色変換部44をスルーして色補正されていない撮影画像をモニタ12に表示するモードも備えていると好都合である。   A captured image acquired by the camera 11 and developed in the frame memory, and an image indicating a deviation between the calibration point Q specified by the target position determination module 4 and the target calibration point position are displayed on the monitor 12 through the image signal generation unit 33. It is also possible to do. At this time, since a human can understand the color cast caused by the light source while correcting the color cast to a certain degree of color, a mode is also provided in which the monitor 12 displays a photographed image that has not been color corrected through the color conversion unit 44. It is convenient.

次に、上述したように構成された色変換モジュール4とターゲット位置決定モジュール5とを備えたカラーターゲット位置決定装置における制御の流れを図8と図9を用いて説明する。図8には、色変換制御が示されており、図9にはターゲット位置決定制御が示されている。
まず、車両1は、検査場の所定位置に正確に位置決め停車される(#01)。停車の確認後、カメラ11を動作させ、車両周辺を撮影する(#02)。所定位置に停車した車両1のカメラ11による撮影画像には、カメラ11の取り付け精度が多少悪くても2つのターゲット2の画像が含まれるようにカメラ設定されている。画像入力部31を通じて入力された撮影画像(RGBカラー画像データ)は、例えば、レンズ特性を起因とする画像歪の補正などの基本的な画像処理が施される(#03)。
Next, the flow of control in the color target position determination apparatus including the color conversion module 4 and the target position determination module 5 configured as described above will be described with reference to FIGS. FIG. 8 shows color conversion control, and FIG. 9 shows target position determination control.
First, the vehicle 1 is accurately positioned and stopped at a predetermined position of the inspection site (# 01). After confirming that the vehicle has stopped, the camera 11 is operated to photograph the vicinity of the vehicle (# 02). The camera is set so that the image taken by the camera 11 of the vehicle 1 stopped at a predetermined position includes the images of the two targets 2 even if the mounting accuracy of the camera 11 is somewhat poor. The captured image (RGB color image data) input through the image input unit 31 is subjected to basic image processing such as correction of image distortion caused by lens characteristics (# 03).

次に、撮影画像がどのような光源下で撮影されたものであるかを推定するために、当該撮影画像から光源推定用の複数の画像特徴量を算出する(#04)。算出された画像特徴量を入力値として光源種推定演算を行って光源種を出力する(#05)。処理対象となっているターゲット2のカラー構成を読み出す(#06)。出力された光源種と読み出されたカラー構成とを検索キーワードとして、適合するカラープロファイルを選択する(#07)。選択されたカラープロファイルを用いて、撮影画像に対する色補正を実行する(#08)。色補正された撮影画像は、ワーキングメモリに展開され、図9で示されるターゲット位置決定モジュール5によるターゲット位置決定処理を受ける(#10)。   Next, in order to estimate under what light source the captured image was captured, a plurality of image feature quantities for light source estimation are calculated from the captured image (# 04). The light source type estimation calculation is performed using the calculated image feature quantity as an input value, and the light source type is output (# 05). The color configuration of the target 2 to be processed is read (# 06). A matching color profile is selected using the output light source type and the read color configuration as a search keyword (# 07). Using the selected color profile, color correction is performed on the captured image (# 08). The color-corrected captured image is developed in the working memory and is subjected to target position determination processing by the target position determination module 5 shown in FIG. 9 (# 10).

ターゲット位置決定処理では、まず、RGBカラー画像データからYCbCrカラー(色差)画像データへの変換を行う(#11)。
次いで、閾値設定部53が、YCbCrカラー画像データのCb:青色成分値ないしはCr:赤色成分値を、上述した式、
TH=VA_avg + K×ΔV_avg
に適用して、ターゲット2の青領域に対する検出閾値の設定と(#12)、ターゲット2の赤領域に対する検出閾値とを設定する(#13)。取得された撮影画像に応じて、ステップ#08での演算処理を通じて設定された閾値を用いて、YCbCr系の撮像画像を順次走査し、ターゲット2の青色領域の判定(#14)と赤色領域の判定(#15)を行う。青色領域の判定においては、青色成分値が青色検出閾値を上回るとともに赤色成分値が赤色検出閾値を下回ることとをその判定条件としている。同様に、赤色領域の判定においては、赤色成分値が閾値を上回るとともに青色成分値が閾値を下回ることとをその判定条件としている。
In the target position determination process, first, conversion from RGB color image data to YCbCr color (color difference) image data is performed (# 11).
Next, the threshold setting unit 53 converts the Cb: blue component value or the Cr: red component value of the YCbCr color image data to the above-described equation,
TH = VA_avg + K × ΔV_avg
, The detection threshold value for the blue region of the target 2 is set (# 12), and the detection threshold value for the red region of the target 2 is set (# 13). According to the acquired captured image, the YCbCr-based captured image is sequentially scanned using the threshold value set through the arithmetic processing in step # 08, and the blue region determination (# 14) of the target 2 and the red region are detected. Determination (# 15) is performed. In the determination of the blue region, the determination condition is that the blue component value exceeds the blue detection threshold and the red component value falls below the red detection threshold. Similarly, in the determination of the red region, the determination condition is that the red component value exceeds the threshold value and the blue component value falls below the threshold value.

次いで、青色領域と赤色領域の判定結果から、ターゲット2の青色領域と赤色領域との境界線を検出する(#16)。もちろん、ターゲット2の青色領域と赤色領域の判定及び青色領域と赤色領域との境界線の検出を同時に実施することも可能である。いずれにせよ、検出された青色領域と赤色領域との境界線は、ほぼ2本の線が直交する形態を示すことになるので、その交点を較正点として較正点座標を算定する(#17)。   Next, a boundary line between the blue region and the red region of the target 2 is detected from the determination result of the blue region and the red region (# 16). Of course, it is also possible to simultaneously determine the blue region and the red region of the target 2 and detect the boundary line between the blue region and the red region. In any case, since the boundary line between the detected blue region and red region shows a form in which almost two lines are orthogonal, the calibration point coordinates are calculated with the intersection as a calibration point (# 17). .

以上の処理ステップにより、ターゲット2の位置、つまり較正点の座標位置を求めることができる。従って、次に、予め設定されている目標較正点とステップ#17で算定された較正点とのずれ量を算定する(#18)。この算定されたずれ量に基づき、取付精度判定モジュール32が、カメラ11の取付精度の判定を行う(#19)。   Through the above processing steps, the position of the target 2, that is, the coordinate position of the calibration point can be obtained. Therefore, the deviation amount between the preset target calibration point and the calibration point calculated in step # 17 is calculated (# 18). Based on the calculated deviation amount, the mounting accuracy determination module 32 determines the mounting accuracy of the camera 11 (# 19).

〔別実施形態〕
(1) 上述した色変換モジュール4やターゲット位置決定モジュール5における各機能部は、機能としての分担を示すものであり、必ずしも独立して設けられる必要はない。マイクロコンピュータなどのハードウェアと、ハードウェア上で実行されるプログラムなどのソフトウェアとの協働によって各機能が実現されるものでも勿論構わない。
(2) 上述した実施形態では、このカラーターゲット位置決定装置の処理対象となるターゲット2は、車載カメラ取付位置の判定用ターゲット2であったが、駐車場やバッテリ充電ステーションでの停止目標用ターゲットであってもよい。また、道路上に描かれている白線や黄線などをターゲット2とみなして、本発明を適用しても良い。
(3) 上記実施形態では、ターゲット2が光源によって受ける色影響を低減する特性を持つカラープロファイルとして、第1色(青)に対する色影響を低減させるためのカラープロファイルと、第2色(赤)に対する色影響を低減させるためのカラープロファイルとを融合させた、青・赤共通カラープロファイルが用いられた。これに代えて、青色に対する色影響を低減させるための青補正カラープロファイルと赤色に対する色影響を低減させるため赤補正カラープロファイルを用意し、これらを個別に適用させる構成を採用してもよい。
[Another embodiment]
(1) Each functional unit in the color conversion module 4 and the target position determination module 5 described above indicates a sharing as a function, and does not necessarily have to be provided independently. Of course, each function may be realized by cooperation of hardware such as a microcomputer and software such as a program executed on the hardware.
(2) In the embodiment described above, the target 2 to be processed by the color target position determination device is the target 2 for determining the in-vehicle camera mounting position, but the target for stopping at a parking lot or a battery charging station. It may be. Also, the present invention may be applied by regarding the white line or yellow line drawn on the road as the target 2.
(3) In the above embodiment, the color profile for reducing the color influence on the first color (blue) and the second color (red) as the color profile having the characteristic of reducing the color influence on the target 2 by the light source. A common blue / red color profile was used, which was combined with a color profile to reduce the color effect on the image. Instead, a blue correction color profile for reducing the color influence on blue and a red correction color profile for reducing the color influence on red may be prepared, and these may be applied individually.

本発明は、異なる色の組み合わせを特徴とする被写体に及ぼされた、光源による色影響を低減する画像処理技術に広く利用することができる。   The present invention can be widely used for an image processing technique for reducing the color influence of a light source exerted on a subject characterized by a combination of different colors.

2:カラーターゲット
31:画像入力部
32:取付精度判定モジュール
4:色変換モジュール
41:光源推定部
42:カラープロファイル格納部
43:カラープロファイル選択部
44:色変換部
5:ターゲット位置決定モジュール
2: Color target 31: Image input unit 32: Mounting accuracy determination module 4: Color conversion module 41: Light source estimation unit 42: Color profile storage unit 43: Color profile selection unit 44: Color conversion unit 5: Target position determination module

Claims (3)

異なる色の組み合わせからなるカラーターゲットを光源下において撮影した撮影画像を入力する画像入力部と、
前記撮影画像から前記光源の光源種を推定する光源推定部と、
前記撮影画像におけるカラーターゲットが前記光源種毎の光源によって受ける色影響を低減するような特性を持つように前記光源種毎に作成されたカラープロファイルを格納するカラープロファイル格納部と、
前記光源推定部で推定された光源種に基づいて前記カラープロファイル格納部から選択出力されたカラープロファイルを用いて前記撮影画像を色補正する色変換部と、
前記色変換部によって色補正された色補正撮影画像における前記カラーターゲットの異なる色領域を識別判定して前記ターゲットの前記撮影画像における位置を決定するカラーターゲット位置決定モジュールと、
を備えたカラーターゲット位置決定装置。
An image input unit for inputting a photographed image obtained by photographing a color target composed of a combination of different colors under a light source;
A light source estimation unit for estimating a light source type of the light source from the captured image;
A color profile storage unit that stores a color profile created for each of the light source types so that the color target in the captured image has a characteristic that reduces the color influence of the light source for each of the light source types;
A color conversion unit that color-corrects the captured image using a color profile selected and output from the color profile storage unit based on the light source type estimated by the light source estimation unit;
A color target position determination module that identifies and determines different color regions of the color target in the color-corrected captured image that has been color-corrected by the color conversion unit, and determines the position of the target in the captured image;
A color target position determining apparatus.
前記カラーターゲットを構成する複数の元色から、当該元色が前記光源種の色影響によって色空間上を移動することにより生じたそれぞれの変化色への共通変換行列を近似的に求め、この変換行列の逆行列に基づいて前記カラープロファイルが作成される請求項1に記載のカラーターゲット位置決定装置。   From the plurality of primary colors constituting the color target, a common conversion matrix for each changed color generated by moving the primary color in the color space due to the color influence of the light source type is approximately obtained, and this conversion is performed. The color target position determination apparatus according to claim 1, wherein the color profile is created based on an inverse matrix of a matrix. 前記色変換部は、前記推定された光源種と前記カラーターゲットを特徴付ける特徴色とに基づいて選択されるカラープロファイルを用いて前記撮影画像を色補正する請求項1または2に記載のカラーターゲット位置決定装置。   The color target position according to claim 1, wherein the color conversion unit performs color correction on the captured image using a color profile selected based on the estimated light source type and a characteristic color characterizing the color target. Decision device.
JP2010130249A 2010-06-07 2010-06-07 Color target position determination device Expired - Fee Related JP5590387B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010130249A JP5590387B2 (en) 2010-06-07 2010-06-07 Color target position determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010130249A JP5590387B2 (en) 2010-06-07 2010-06-07 Color target position determination device

Publications (2)

Publication Number Publication Date
JP2011259087A true JP2011259087A (en) 2011-12-22
JP5590387B2 JP5590387B2 (en) 2014-09-17

Family

ID=45474810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010130249A Expired - Fee Related JP5590387B2 (en) 2010-06-07 2010-06-07 Color target position determination device

Country Status (1)

Country Link
JP (1) JP5590387B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022022514A (en) * 2020-06-25 2022-02-07 セイコーエプソン株式会社 Calibration device, calibration method, calibration program, and spectroscopic camera
JP2023532527A (en) * 2020-06-30 2023-07-28 ロレアル Systems and methods for personalized and accurate virtual makeup try-on

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006093770A (en) * 2004-09-21 2006-04-06 Fuji Xerox Co Ltd Image processor, processing method and program
JP2006254309A (en) * 2005-03-14 2006-09-21 Fuji Photo Film Co Ltd Photographing system
WO2010016379A1 (en) * 2008-08-05 2010-02-11 アイシン精機株式会社 Target position identifying apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006093770A (en) * 2004-09-21 2006-04-06 Fuji Xerox Co Ltd Image processor, processing method and program
JP2006254309A (en) * 2005-03-14 2006-09-21 Fuji Photo Film Co Ltd Photographing system
WO2010016379A1 (en) * 2008-08-05 2010-02-11 アイシン精機株式会社 Target position identifying apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022022514A (en) * 2020-06-25 2022-02-07 セイコーエプソン株式会社 Calibration device, calibration method, calibration program, and spectroscopic camera
JP7428090B2 (en) 2020-06-25 2024-02-06 セイコーエプソン株式会社 Calibration device, calibration method, calibration program, and spectroscopic camera
JP2023532527A (en) * 2020-06-30 2023-07-28 ロレアル Systems and methods for personalized and accurate virtual makeup try-on
JP7499362B2 (en) 2020-06-30 2024-06-13 ロレアル SYSTEM AND METHOD FOR PERSONALIZED, PRECISE VIRTUAL MAKEUP TRY-ON - Patent application

Also Published As

Publication number Publication date
JP5590387B2 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
JP4725821B2 (en) Target location device
JP5339124B2 (en) Car camera calibration system
US8498479B2 (en) Image processing device for dividing an image into a plurality of regions
CN101770646B (en) Edge detection method based on Bayer RGB images
US20140085473A1 (en) In-vehicle camera apparatus
US20060188130A1 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
JP2001091247A (en) Inspection method for distance data and inspecting device for them
CN112261390B (en) Vehicle-mounted camera equipment and image optimization device and method thereof
JP5240517B2 (en) Car camera calibration system
JP5697646B2 (en) Vehicle periphery monitoring device
JP2011254311A (en) Vehicle peripheral image processor
JP5590387B2 (en) Color target position determination device
JP5633733B2 (en) Dark region noise correction device
JP5252247B2 (en) Target position determination device
JP4804202B2 (en) Stereo monitoring device
US20230291880A1 (en) Image processing apparatus
CN113674361B (en) Vehicle-mounted all-round-looking calibration implementation method and system
CN109726708A (en) A kind of Lane detection method and device
KR20220145080A (en) Apparatus and method for determining position of dual camera for vehicle
JP2013149040A (en) Number plate color determining device, computer program, and number plate color determining method
JP4053280B2 (en) Image processing apparatus and image processing method
JP4204818B2 (en) Image processing device
JP2000356514A (en) Method and apparatus for measuring distance with use of stereo camera
CN115272781A (en) Method and apparatus for evaluating vehicle image
CN113516709A (en) Flange positioning method based on binocular vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140716

R151 Written notification of patent or utility model registration

Ref document number: 5590387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees