[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4962363B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4962363B2
JP4962363B2 JP2008066128A JP2008066128A JP4962363B2 JP 4962363 B2 JP4962363 B2 JP 4962363B2 JP 2008066128 A JP2008066128 A JP 2008066128A JP 2008066128 A JP2008066128 A JP 2008066128A JP 4962363 B2 JP4962363 B2 JP 4962363B2
Authority
JP
Japan
Prior art keywords
image
difference
input
environmental condition
specifying information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008066128A
Other languages
Japanese (ja)
Other versions
JP2009225010A (en
Inventor
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008066128A priority Critical patent/JP4962363B2/en
Publication of JP2009225010A publication Critical patent/JP2009225010A/en
Application granted granted Critical
Publication of JP4962363B2 publication Critical patent/JP4962363B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

従来から監視カメラなどを用いて異常領域を検出する画像処理装置が提案されている。異常領域の検出において、例えば、特許文献1には、既に検出された異常領域内では、異なる時刻に撮像された監視画像間の差分処理によって変化領域を算出し、異常領域外では、背景画像と監視画像との差分処理によって変化領域を算出することが開示されている。   Conventionally, an image processing apparatus that detects an abnormal region using a surveillance camera or the like has been proposed. In the detection of an abnormal area, for example, in Patent Document 1, a change area is calculated by a difference process between monitoring images captured at different times in an already detected abnormal area, and a background image is detected outside the abnormal area. It is disclosed that a change area is calculated by a difference process with a monitoring image.

ここで、特許文献1では、画像撮像時の環境条件を考慮していないため、屋外で撮像したり、屋内の照明条件が異なったりした場合には、異常領域を的確に検出できない可能性がある。そこで、特許文献2には、交通監視装置において、入力された画像における画像領域の画像特徴を抽出し、抽出した画像特徴に基づいて外部環境を判定し、判定結果に基づく閾値により、画像間の差分画像から異常領域を検出する技術が開示されている。
特開2007−180933号公報 特開2002−83301号公報
Here, in patent document 1, since environmental conditions at the time of image capturing are not taken into consideration, there is a possibility that an abnormal region cannot be accurately detected when images are taken outdoors or indoor lighting conditions are different. . Therefore, in Patent Document 2, in a traffic monitoring device, an image feature of an image region in an input image is extracted, an external environment is determined based on the extracted image feature, and a threshold based on a determination result is used to determine a difference between images. A technique for detecting an abnormal region from a difference image is disclosed.
JP 2007-180933 A JP 2002-83301 A

しかしながら、上記特許文献2では、入力された画像の環境条件に応じて、異常領域の判定に用いる閾値を変更しているが、そもそも背景画像と入力画像との関係が考慮されていない。つまり、入力された画像の環境条件に応じて閾値を変更するだけでは、環境条件による部分的な影響を取り除くことができない。係る場合について図14を例に用いて説明する。   However, in Patent Document 2, the threshold value used for determining the abnormal region is changed according to the environmental condition of the input image, but the relationship between the background image and the input image is not considered in the first place. That is, it is not possible to remove the partial influence due to the environmental condition only by changing the threshold according to the environmental condition of the input image. Such a case will be described with reference to FIG.

図14は、背景画像と入力画像とを示す図である。例えば、図14に示すように背景画像と入力画像とに異なる影Aが写りこんでいる場合に、背景画像と入力画像との差分画像において、影Aによる輝度差と異常領域(物体B)による輝度差とが同じだった場合、どちらも異常領域だと判定されてしまう可能性がある。   FIG. 14 is a diagram illustrating a background image and an input image. For example, as shown in FIG. 14, when different shadows A appear in the background image and the input image, the difference image between the background image and the input image is caused by the luminance difference due to the shadow A and the abnormal region (object B). If the difference in brightness is the same, both may be determined to be abnormal areas.

よって、異常領域判定の閾値を変更するだけでは、背景画像の環境条件を考慮しているとは言えず、異常領域を検出する画像間の環境条件を対応させることはできない。また、背景画像を1つ用いて異常領域を検出する方法では、入力画像と類似する背景画像がなかった場合には、適切に異常領域を検出することができないという問題もある。   Therefore, simply changing the threshold value for determining the abnormal region does not mean that the environmental condition of the background image is taken into consideration, and the environmental condition between images for detecting the abnormal region cannot be matched. In addition, in the method of detecting an abnormal area using one background image, there is a problem that an abnormal area cannot be detected properly if there is no background image similar to the input image.

本発明は、上記問題に鑑みてなされたものであり、複数の背景画像を用いて、画像間の環境条件を考慮しつつ適切な異常領域を検出することができる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and provides an image processing apparatus capable of detecting an appropriate abnormal region using a plurality of background images while considering environmental conditions between images. Objective.

撮像された複数の画像と前記画像を撮像した時の環境条件を特定する環境条件特定情報とを対応付けて記憶する記憶手段と、新たに撮像された入力画像を入力する第1の入力手段と、前記入力画像を撮像した時の環境条件を特定する環境条件特定情報を入力する第2の入力手段と、前記記憶手段に記憶された各画像と前記第1の入力手段により入力された入力画像とに対して差分処理を行ない、各差分画像を生成する生成手段と、前記記憶手段により記憶された各環境条件特定情報と、前記第2の入力手段により入力された環境条件特定情報とに基づいた重み係数を、前記各差分画像の画素毎に積算する積算手段と、前記積算手段により積算された各重み差分画像に対し、同じ位置にある重み付けされた差分値を加算した結果画像に基づいて、前記入力画像の異常領域を検出する検出手段と、を備えることを特徴とする。   A storage unit that stores a plurality of captured images in association with environmental condition specifying information that specifies an environmental condition when the image is captured; a first input unit that inputs a newly captured input image; , Second input means for inputting environmental condition specifying information for specifying environmental conditions when the input image is captured, each image stored in the storage means, and an input image input by the first input means Based on the generation means for generating each difference image, each environmental condition specifying information stored by the storage means, and the environmental condition specifying information input by the second input means Based on a result image obtained by adding weighted difference values at the same position to each weight difference image accumulated by the accumulation means Characterized in that it comprises a detection means for detecting an abnormal region of the input image.

本発明によれば、複数の背景画像を用いて、画像間の環境条件を考慮しつつ適切な異常領域を検出することができる。   According to the present invention, it is possible to detect an appropriate abnormal region using a plurality of background images while considering environmental conditions between images.

以下、本発明の実施例を図面に基づいて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本発明の一実施例に係る画像処理装置は、例えば、図1に示すような機能構成を成す。
図1は、本発明の一実施例に係る画像処理装置の概略機能ブロック図である。
An image processing apparatus according to an embodiment of the present invention has a functional configuration as shown in FIG.
FIG. 1 is a schematic functional block diagram of an image processing apparatus according to an embodiment of the present invention.

本実施例1に係る画像処理装置100は、データベース101、画像入力手段102、差分画像生成手段103、環境条件特定情報入力手段104、類似度算出手段105、重み差分結果画像生成手段106、異常領域検出手段109を含んで構成される。   The image processing apparatus 100 according to the first embodiment includes a database 101, an image input unit 102, a difference image generation unit 103, an environmental condition specifying information input unit 104, a similarity calculation unit 105, a weight difference result image generation unit 106, an abnormal region. The detection means 109 is included.

データベース101は、小型カメラや監視カメラなどの撮像手段により撮像された画像を記憶する(以下、データベース101に記憶された画像を背景画像という)。また、データベース101は、記憶している背景画像に対応させて環境条件特定情報を記憶する。   The database 101 stores an image captured by an imaging unit such as a small camera or a surveillance camera (hereinafter, an image stored in the database 101 is referred to as a background image). Further, the database 101 stores environmental condition specifying information in association with the stored background image.

環境条件特定情報について図2を用いて説明する。図2は、環境条件特定情報の一例を示す図である。図2に示すように、環境条件特定情報は、画像を撮像した時刻、位置、天気情報などを含む。ここで、撮像したときの天気情報とは、撮像手段により空を撮像したときの画像の全部又は一部や、撮像した空の画像から抽出した特徴量などをいう。   The environmental condition specifying information will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of environmental condition specifying information. As shown in FIG. 2, the environmental condition specifying information includes the time when the image is captured, the position, weather information, and the like. Here, the weather information at the time of imaging refers to all or part of the image when the sky is imaged by the imaging means, the feature amount extracted from the captured sky image, and the like.

図3は、晴れ、曇り、雨の典型的な天気に空を撮像した画像の一部の一例を示す図である。図3(a)は、晴れの日の画像であり、青空が撮像されている。図3(b)は、曇りの日の画像であり、くすんだ色の雲が撮像されている。図3(c)は、雨の日の画像であり、暗い色の雨雲が撮像されている。   FIG. 3 is a diagram illustrating an example of a part of an image obtained by imaging the sky in typical weather such as sunny, cloudy, and rainy. FIG. 3A is an image of a sunny day, and a blue sky is captured. FIG. 3B is an image of a cloudy day, in which a dull cloud is captured. FIG.3 (c) is an image of a rainy day, and the dark rain cloud is imaged.

また、撮像した画像から抽出した特徴量とは、図3に示すような空の画像の全部又は一部の領域の平均のRGB値や色のばらつき量などである。また、この特徴量は、人手によって抽出されてもよい。   The feature amount extracted from the captured image is an average RGB value or color variation amount of all or a part of the sky image as shown in FIG. Further, this feature amount may be manually extracted.

画像入力手段102は、撮像手段により撮像された画像(新たに撮像された画像を入力画像という)を入力し、差分画像生成手段103に出力する。   The image input unit 102 inputs an image captured by the imaging unit (a newly captured image is referred to as an input image) and outputs the image to the difference image generation unit 103.

差分画像生成手段103は、データベース101に記憶されている背景画像N枚それぞれに対して、画像入力手段102より取得した入力画像との差分画像n(1≦n≦N)を生成する。また、差分画像生成手段103は、生成した差分画像nを重み差分結果画像生成手段106に出力する。   The difference image generation unit 103 generates a difference image n (1 ≦ n ≦ N) from the input image acquired from the image input unit 102 for each of the N background images stored in the database 101. Further, the difference image generation unit 103 outputs the generated difference image n to the weight difference result image generation unit 106.

ここで、差分画像について図4と図5とを用いて説明する。図4は、入力画像と背景画像n(1≦n≦N)とを示す図である。   Here, the difference image will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram showing an input image and a background image n (1 ≦ n ≦ N).

図4(a)は、位置A、時刻Aに撮像された入力画像を示す。入力画像には、建物の影A、物体Aが撮像されている。図4(b)は、位置A、時刻Bに撮像された背景画像1を示す。背景画像1に影Bが撮像されている。図4(c)は、位置A、時刻Cに撮像された背景画像2を示す。背景画像2には、影Cが撮像されている。図4(d)は、位置B、時刻Cに撮像された背景画像Nである。背景画像Nには、物体B(信号機)、物体C(車両)が撮像されている。   FIG. 4A shows an input image captured at position A and time A. FIG. In the input image, the shadow A and the object A of the building are imaged. FIG. 4B shows the background image 1 captured at position A and time B. A shadow B is captured in the background image 1. FIG. 4C shows the background image 2 captured at position A and time C. In the background image 2, a shadow C is captured. FIG. 4D is a background image N captured at position B and time C. In the background image N, an object B (traffic light) and an object C (vehicle) are imaged.

このとき、差分画像生成手段103は、まず、入力画像と背景画像nとについて画素ごとに差分値を算出する。次に、差分値が、設定された閾値以上であれば、異常位置であると判断して差分値を1にし、設定された閾値未満であれば、画素間にさほど差はないと
判断して差分値を0にする。この処理を全画素に対して行い、各画素が1か0に変換された画像が差分画像である。
At this time, the difference image generation unit 103 first calculates a difference value for each pixel between the input image and the background image n. Next, if the difference value is equal to or greater than the set threshold value, it is determined that the position is abnormal, and the difference value is set to 1. If the difference value is less than the set threshold value, it is determined that there is not much difference between the pixels. Set the difference value to 0. This process is performed for all the pixels, and an image in which each pixel is converted to 1 or 0 is a difference image.

なお、本実施例では、差分画像は全て0か1の値を有することになるが、差分値そのものや差分値の絶対値を用いて差分画像としても良い。   In this embodiment, the difference images all have values of 0 or 1, but the difference image itself or the absolute value of the difference value may be used as the difference image.

図5は、図4に示す入力画像と、背景画像nとの差分画像nを示す図である。差分画像1では、物体Aと、影A、影Bの差分部分とが異常位置であると判断され、値が1となっている。同様の処理を行なうと、差分画像2では、物体Aと、影A、影Cの差分部分とが異常位置であると判断され、差分画像Nでは、主に物体A、物体B、物体Cが異常位置であると判断されている。   FIG. 5 is a diagram showing a difference image n between the input image shown in FIG. 4 and the background image n. In the difference image 1, it is determined that the object A and the difference portion between the shadow A and the shadow B are abnormal positions, and the value is 1. When the same processing is performed, in the difference image 2, it is determined that the object A and the difference portion of the shadow A and the shadow C are abnormal positions. In the difference image N, the object A, the object B, and the object C are mainly It is determined that the position is abnormal.

図1に戻り、環境条件特定情報入力手段104は、入力画像を撮像した時刻、位置、天気情報を入力し、これら環境条件特定情報を類似度算出手段105に出力する。より具体的に説明すると、入力画像を撮像した時刻については、内蔵する時計や電波から受信することにより時刻が入力される。   Returning to FIG. 1, the environmental condition specifying information input unit 104 inputs time, position, and weather information when the input image is captured, and outputs the environmental condition specifying information to the similarity calculation unit 105. More specifically, the time when the input image is captured is input by receiving it from a built-in clock or radio wave.

また、撮像した位置については、画像処理装置100が車両などの移動体に内蔵されている場合は、GPS機能を用いて現在位置を取得したり、画像処理装置100が監視カメラなどの静止物に接続されている場合は、直接現在位置を入力したり設定したりして入力される。   As for the imaged position, when the image processing apparatus 100 is built in a moving body such as a vehicle, the GPS function is used to acquire the current position, or the image processing apparatus 100 is used as a stationary object such as a monitoring camera. If connected, the current position is directly input or set.

また、静止物に接続されている場合には、位置は変化しないので、環境条件特定情報における位置の要素を無視してもよい。また、撮像した天気情報については、空を撮像した撮像手段により入力される。   Further, since the position does not change when connected to a stationary object, the position element in the environmental condition specifying information may be ignored. The captured weather information is input by an imaging unit that images the sky.

類似度算出手段105は、環境条件特定情報入力手段104により取得した環境条件特定情報とデータベース101から読み出した環境条件特定情報n(1≦n≦N)との類似度を計算する。また、類似度算出手段105は、算出した類似度n(1≦n≦N)を重み差分結果画像生成手段106に出力する。   The similarity calculating unit 105 calculates the similarity between the environmental condition specifying information acquired by the environmental condition specifying information input unit 104 and the environmental condition specifying information n (1 ≦ n ≦ N) read from the database 101. In addition, the similarity calculation unit 105 outputs the calculated similarity n (1 ≦ n ≦ N) to the weight difference result image generation unit 106.

ここで、類似度については図6を用いて説明する。図6は、環境情報特定情報を一次元配列にした例を示す図である。図6(a)は、環境条件特定情報の各要素を横に配列した図である。図6(b)は、各要素の具体的な値を一次元配列にした図である。図6(c)は、図6(b)の具体値を類似度が算出しやすいように要素ごとに数値で表した図である。なお、この場合、図6(c)では、RGBや北緯、東経をまとめて数値化したが、それぞれ別にしておいてもよい。   Here, the similarity will be described with reference to FIG. FIG. 6 is a diagram illustrating an example in which the environment information specifying information is arranged in a one-dimensional array. FIG. 6A is a diagram in which the elements of the environmental condition specifying information are arranged horizontally. FIG. 6B is a diagram in which specific values of the respective elements are arranged in a one-dimensional array. FIG. 6C is a diagram in which the specific values in FIG. 6B are expressed numerically for each element so that the similarity can be easily calculated. In this case, in FIG. 6C, RGB, north latitude, and east longitude are collectively digitized, but may be separately provided.

次に、類似度算出手段105は、入力した環境条件特定情報を図6(c)のように一次元配列にしてベクトル定義し、ベクトル間のユークリッド距離を類似度とする。ここで、図7を用いて、ユークリッド距離の算出方法を説明する。図7(a)は背景画像の環境条件特定情報の1次配列を示す図である。図7(b)は入力画像の環境条件特定情報の1次配列を示す図である。図7(c)はユークリッド距離の式を示す図である。図7(c)に示すようにユークリッド距離は、各要素ごとに差分値をとり、差分値の平方和を平方根して算出される。   Next, the similarity calculation unit 105 defines the input environmental condition specifying information as a one-dimensional array as shown in FIG. 6C and defines a vector, and uses the Euclidean distance between the vectors as the similarity. Here, a method of calculating the Euclidean distance will be described with reference to FIG. FIG. 7A is a diagram showing a primary array of environmental condition specifying information of a background image. FIG. 7B is a diagram showing a primary array of the environmental condition specifying information of the input image. FIG. 7C is a diagram showing an expression of the Euclidean distance. As shown in FIG. 7C, the Euclidean distance is calculated by taking a difference value for each element and square root of the sum of squares of the difference values.

また、類似度としてユークリッド距離以外にも、ベクトル間のなす角度を類似度としてもよい。ベクトル間のなす角度については、ベクトル間の内積を、各ベクトルの大きさを積算した値で除算すると、ベクトル間のなす角度の余弦値が算出される。   In addition to the Euclidean distance as the similarity, an angle between vectors may be used as the similarity. As for the angle formed between the vectors, the cosine value of the angle formed between the vectors is calculated by dividing the inner product between the vectors by the value obtained by integrating the magnitudes of the vectors.

図1に戻り、重み差分結果画像生成手段106は、積算手段107と加算手段108とを含んで構成される。積算手段107は、類似度算出手段105より取得した類似度nに応じた重み係数n(1≦n≦N)を、差分画像生成手段103より取得した差分画像nに対して画素ごとに積算して重み差分画像n(1≦n≦N)を生成する。   Returning to FIG. 1, the weight difference result image generation unit 106 includes an integration unit 107 and an addition unit 108. The accumulating unit 107 accumulates the weight coefficient n (1 ≦ n ≦ N) corresponding to the similarity n acquired from the similarity calculating unit 105 for each pixel with respect to the difference image n acquired from the difference image generating unit 103. The weight difference image n (1 ≦ n ≦ N) is generated.

ここで、重み係数nは、類似度nであるユークリッド距離が小さければ小さいほど大きい係数とする。なお、重み係数は予め実験などにより、類似度に応じた値に設定しておく。   Here, the weighting coefficient n is a larger coefficient as the Euclidean distance as the similarity n is smaller. Note that the weighting coefficient is set to a value corresponding to the degree of similarity in advance through experiments or the like.

また、ここでは、類似度であるユークリッド距離が閾値以上になれば重み係数を0とする。これより、入力画像の環境条件特定情報に対して、類似度であるユークリッド距離が大きい環境条件特定情報に対応する差分画像は、異常領域検出処理から取り除かれることになる。   Here, the weight coefficient is set to 0 if the Euclidean distance, which is the similarity, is equal to or greater than the threshold. As a result, the difference image corresponding to the environmental condition specifying information having a large Euclidean distance that is the similarity to the environmental condition specifying information of the input image is removed from the abnormal region detection process.

次に、加算手段108は、全ての重み差分画像nに対して、同じ画素位置の値を加算して、1つの重み差分結果画像を生成する。重み差分結果画像を生成する処理について図8と図9とを用いて具体的に説明する。   Next, the adding means 108 adds the values at the same pixel position to all the weight difference images n to generate one weight difference result image. The process of generating the weight difference result image will be specifically described with reference to FIGS.

図8は、差分画像nに対して重み係数nを積算する例を示す図である。図8の例では、差分画像1には重み係数15を、差分画像2には重み係数80を、差分画像Nには重み係数0を画素ごとに積算することで重み差分画像nを生成する。   FIG. 8 is a diagram illustrating an example in which the weighting coefficient n is integrated with respect to the difference image n. In the example of FIG. 8, the weighting difference image n is generated by integrating the weighting coefficient 15 for the difference image 1, the weighting coefficient 80 for the difference image 2, and the weighting coefficient 0 for the difference image N for each pixel.

図9は、重み差分結果画像の一例を示す図である。図9に示す例では、全ての重み差分画像nに対して、同じ画素位置の値を加算することで重み差分結果画像を生成する。   FIG. 9 is a diagram illustrating an example of a weight difference result image. In the example shown in FIG. 9, the weight difference result image is generated by adding the values of the same pixel position to all the weight difference images n.

ここで、重み差分画像Nの値が全て0になっていることに注目する。環境条件特定情報Nと入力画像との環境条件特定情報間の類似度を算出した結果、入力画像と背景画像Nとは異なる環境条件で撮像されたことがわかる。よって、類似度Nに応じた重み係数を0とし、異常領域検出における差分画像Nの影響を取り除いている。   Here, it is noted that the values of the weight difference image N are all 0. As a result of calculating the similarity between the environmental condition specifying information N and the input image, it can be seen that the input image and the background image N are captured under different environmental conditions. Therefore, the weighting coefficient corresponding to the similarity N is set to 0, and the influence of the difference image N in the abnormal area detection is removed.

図1に戻り、重み差分結果画像生成手段106は、加算手段108により生成された重み差分結果画像を異常領域検出手段109に出力する。   Returning to FIG. 1, the weight difference result image generation unit 106 outputs the weight difference result image generated by the addition unit 108 to the abnormal region detection unit 109.

異常領域検出手段109は、重み差分結果画像生成手段106より重み差分結果画像を取得すると、重み差分結果画像の画素ごとに閾値以上であるか否かの判定を行なう。また、異常領域検出手段109は、閾値以上と判定された位置を異常位置とし、異常位置の集合を異常領域とする。   When the abnormal area detection unit 109 acquires the weight difference result image from the weight difference result image generation unit 106, the abnormal area detection unit 109 determines whether or not each pixel of the weight difference result image is equal to or more than a threshold value. Further, the abnormal area detection unit 109 sets a position determined to be equal to or greater than the threshold as an abnormal position, and sets a set of abnormal positions as an abnormal area.

図10は、本実施例1に係る画像処理装置における異常領域検出処理を示すフローチャートである。ステップ1001では、画像入力手段102が、撮像手段により撮像された入力画像を入力し、差分画像生成手段103に出力する。   FIG. 10 is a flowchart of the abnormal area detection process in the image processing apparatus according to the first embodiment. In step 1001, the image input unit 102 inputs an input image captured by the imaging unit and outputs the input image to the difference image generation unit 103.

ステップ1001に続いてステップ1002に進み、差分画像生成手段103が、画像入力手段102より取得した入力画像と、データベース101に記憶されている背景画像nとの差分画像nを生成し、差分画像nを重み差分結果画像生成手段106に出力する。   Progressing to step 1002 following step 1001, the difference image generation unit 103 generates a difference image n between the input image acquired from the image input unit 102 and the background image n stored in the database 101, and the difference image n Is output to the weight difference result image generation means 106.

ステップ1003では、環境条件特定情報入力手段104が、入力画像に対応する環境条件特定情報を入力し、類似度算出手段105に出力する。   In step 1003, the environmental condition specifying information input unit 104 inputs the environmental condition specifying information corresponding to the input image and outputs it to the similarity calculation unit 105.

ステップ1003に続いてステップ1004に進み、類似度算出手段105は、環境条件特定情報入力手段104より取得した環境条件特定情報と、データベース101に記憶されている環境条件特定情報nとの類似度nを算出し、類似度nを重み差分結果画像生成手段106に出力する。   Proceeding to step 1004 following step 1003, the similarity calculating unit 105 calculates the similarity n between the environmental condition specifying information acquired from the environmental condition specifying information input unit 104 and the environmental condition specifying information n stored in the database 101. And the similarity n is output to the weight difference result image generation means 106.

ステップ1002、ステップ1004に続いてステップ1005に進み、積算手段107が、差分画像生成手段103より取得した差分画像nに、類似度算出手段105より取得した類似度nに応じた重み係数nを積算し、重み差分画像nを生成する。   Progressing to step 1005 following step 1002 and step 1004, the accumulating unit 107 integrates the weighting coefficient n corresponding to the similarity n acquired from the similarity calculating unit 105 to the difference image n acquired from the difference image generating unit 103. Then, a weight difference image n is generated.

また、加算手段108が、全ての重み差分画像nに対して、同じ画素位置の値を加算することで重み差分結果画像を生成する。次に、重み差分結果画像生成手段106が、重み差分結果画像を異常領域検出手段109に出力する。   Further, the adding means 108 generates a weight difference result image by adding the values of the same pixel position to all the weight difference images n. Next, the weight difference result image generation unit 106 outputs the weight difference result image to the abnormal area detection unit 109.

ステップ1005に続いてステップ1006に進み、異常領域検出手段109が、重み差分結果画像生成手段106より取得した重み差分結果画像の画素ごとに、閾値以上であるか否かの判定を行なって、閾値以上である位置を異常位置であるとし、異常位置の集合を異常領域とする。   Proceeding to step 1006 following step 1005, the abnormal area detecting unit 109 determines whether or not each pixel of the weight difference result image acquired from the weight difference result image generating unit 106 is equal to or greater than the threshold value. The position described above is an abnormal position, and a set of abnormal positions is an abnormal region.

以上、本実施例1に係る画像処理装置によれば、複数の背景画像を用いて、画像間の環境条件を考慮しつつ適切な異常領域を検出することができる。つまり、入力画像における異常領域の検出において、入力画像と類似する背景画像がない場合であっても、複数の背景画像を用いることで適切な異常領域を検出することができる。   As described above, according to the image processing apparatus according to the first embodiment, it is possible to detect an appropriate abnormal region using a plurality of background images while considering environmental conditions between images. That is, in detecting an abnormal area in an input image, even if there is no background image similar to the input image, an appropriate abnormal area can be detected by using a plurality of background images.

また、データベースに記憶されている背景画像が少ない場合であっても、記憶されている複数の背景画像を用いることで、異常領域の検出精度を上げることができる。   Further, even when the number of background images stored in the database is small, the detection accuracy of the abnormal region can be increased by using a plurality of stored background images.

ここで、上記で説明した本実施例1に係る画像処理装置の適用例を図11に示す。図11(a)は、本実施例1に係る画像処理装置を車両に搭載する場合の例を示す図である。撮像手段が車両の前方に備え付けられ、車両に搭載された画像処理装置と接続されている。   Here, FIG. 11 shows an application example of the image processing apparatus according to the first embodiment described above. FIG. 11A is a diagram illustrating an example when the image processing apparatus according to the first embodiment is mounted on a vehicle. An imaging unit is provided in front of the vehicle and is connected to an image processing device mounted on the vehicle.

図11(a)の場合、車両は同様の時刻に同じ場所を通ることを想定し、画像処理装置が異常領域を検出したときには、警告を発するなどして、運転手に対して前方に普段にはない何か(異常物)があることを知らせることができる。   In the case of FIG. 11 (a), it is assumed that the vehicle passes the same place at the same time, and when the image processing apparatus detects an abnormal area, a warning is issued, for example, to the driver as usual. Can tell you that there is something (abnormal).

図11(b)は、撮像手段が監視カメラなどで、本実施例1の画像処理装置がパーソナルコンピュータなどの場合を示す図である。図11(b)の場合、監視画面に写る物体の影の影響などを取り除いた上で、真の侵入者などを検出することができる。   FIG. 11B is a diagram illustrating a case where the imaging unit is a monitoring camera or the like, and the image processing apparatus of the first embodiment is a personal computer or the like. In the case of FIG. 11B, it is possible to detect a true intruder or the like after removing the influence of the shadow of the object on the monitoring screen.

なお、本発明の適用例として上記2つの例を示したが、複数の背景画像を用いて入力画像の異常領域を検出する目的であれば、上記例に限らず本発明を適用できることは言うまでもない。   Although the above two examples have been shown as application examples of the present invention, it goes without saying that the present invention is not limited to the above examples as long as the purpose is to detect an abnormal region of an input image using a plurality of background images. .

(変形例1)
実施例1に係る画像処理装置の変形例1は、上記で説明した類似度算出の方法とは異なる方法で類似度を算出する。変形例1では、類似度を算出する際に、入力画像に対応する環境条件特定情報の各要素のうち、特定できる要素があれば、特定できる要素について類似度の中間値を予め算出しておく。
(Modification 1)
In the first modification of the image processing apparatus according to the first embodiment, the similarity is calculated by a method different from the similarity calculation method described above. In the first modification, when calculating the similarity, if there is an identifiable element among the elements of the environmental condition specifying information corresponding to the input image, an intermediate value of the similarity is calculated in advance for the identifiable element. .

例えば、図11(a)の場合について説明すると、同様の時刻に同様の場所を通ることを想定しているため、環境条件特定情報のうち、撮像時刻と撮像位置は予め特定することができる。あとは入力画像撮像時の天気情報を入力すれば類似度を算出することができる。   For example, in the case of FIG. 11A, since it is assumed that the same place is passed at the same time, the imaging time and the imaging position can be specified in advance in the environmental condition specifying information. After that, if the weather information at the time of capturing the input image is input, the similarity can be calculated.

このとき、予め特定できる撮像時刻と撮像位置については、類似度の中間値を算出しておいて、天気情報が入力されたときに、最終的に類似度を算出するようにする。ここで、図12を用いて、中間値について説明する。   At this time, with respect to the imaging time and imaging position that can be specified in advance, an intermediate value of the similarity is calculated, and when the weather information is input, the similarity is finally calculated. Here, the intermediate value will be described with reference to FIG.

図12は、天気情報のみがわかっていない場合の中間値を示す図である。図12(a)は、背景画像の環境条件特定情報を示す。図12(b)は、入力画像の環境条件特定情報を示す。図12(c)は、類似度の中間値を示す。図12(b)に示すように、環境条件特定情報のうち天気情報の要素のみがまだ特定されていない。このとき、すでに特定されている環境条件特定情報の要素のみを用いて類似度と同様の算出処理を行い、求められた値を中間値とする。あとは天気情報が入力され次第、中間値を用いて最終的な類似度を算出する。   FIG. 12 is a diagram illustrating an intermediate value when only weather information is not known. FIG. 12A shows the environmental condition specifying information of the background image. FIG. 12B shows environmental condition specifying information of the input image. FIG. 12C shows an intermediate value of similarity. As shown in FIG. 12B, only the weather information element of the environmental condition specifying information has not been specified yet. At this time, the calculation process similar to the similarity is performed using only the elements of the already specified environmental condition specifying information, and the obtained value is set as the intermediate value. After the weather information is input, the final similarity is calculated using the intermediate value.

以上より、変形例1に係る画像処理装置によれば、中間値を算出することで、類似度算出におけるオンラインでの処理負荷を軽減させることができる。   As described above, according to the image processing apparatus according to the first modification, it is possible to reduce the online processing load in the similarity calculation by calculating the intermediate value.

(変形例2)
実施例1に係る画像処理装置の変形例2は、上記で説明した類似度算出の方法とは異なる方法で類似度を算出する。変形例2では、類似度を算出する際に、環境条件特定情報の各要素のばらつき量(例えば分散など)を計測し、ばらつき量で各要素の正規化を行なっておいてから類似度を算出する。
(Modification 2)
In the second modification of the image processing apparatus according to the first embodiment, the similarity is calculated by a method different from the similarity calculation method described above. In the second modification, when calculating the similarity, the variation amount (for example, variance) of each element of the environmental condition specifying information is measured, and the similarity is calculated after normalizing each element with the variation amount. To do.

例えば、天気情報を空のRGB値で表し、RGBをそれぞれ環境条件特定情報の要素だとした場合、RGBのそれぞれのばらつき量を予め計測しておく。つまり、空の色については、Rが一番ばらつき、G、Bはそれほどばらつかないということがわかっていれば、R、G、Bのそれぞれのばらつき量で正規化を予め行なうようにする。   For example, when the weather information is represented by an empty RGB value and RGB is an element of the environmental condition specifying information, the respective RGB variation amounts are measured in advance. That is, for the sky color, if it is known that R varies most and G and B do not vary so much, normalization is performed in advance with each variation amount of R, G, and B.

以上より、変形例2に係る画像処理装置によれば、環境条件特定情報の各要素のばらつき量を考慮した類似度を算出することができる。   As described above, according to the image processing apparatus according to the modified example 2, it is possible to calculate the similarity considering the variation amount of each element of the environmental condition specifying information.

(変形例3)
実施例1に係る画像処理装置の変形例3は、差分画像の生成よりも先に環境条件特定情報間の類似度を算出し、類似度であるユークリッド距離が大きい場合には、対応する差分画像を生成しないという構成にする。類似度であるユークリッド距離が大きいと重み係数が0になるので、差分画像を生成しても異常領域検出には考慮されなくなるからである。
(Modification 3)
The modification 3 of the image processing apparatus according to the first embodiment calculates the similarity between the environmental condition specifying information before the generation of the difference image, and when the Euclidean distance that is the similarity is large, the corresponding difference image Is configured not to generate. This is because if the Euclidean distance, which is a similarity, is large, the weighting coefficient is 0, so that even if a difference image is generated, it is not taken into account for abnormal region detection.

係る場合、類似度算出手段105は、算出した類似度m(1≦m≦N)が閾値以上になった場合(類似度mに対応する重み係数mが0になる場合)は、差分画像生成手段103に対して、対応する背景画像mと入力画像との差分画像mを生成しないよう指示する。   In this case, the similarity calculation unit 105 generates a difference image when the calculated similarity m (1 ≦ m ≦ N) is equal to or greater than a threshold value (when the weighting factor m corresponding to the similarity m is 0). The means 103 is instructed not to generate a difference image m between the corresponding background image m and the input image.

差分画像生成手段103は、類似度算出手段105より差分画像mを生成しないよう指示された場合は、差分画像mを生成しない。   When the difference image generation unit 103 is instructed not to generate the difference image m by the similarity calculation unit 105, the difference image generation unit 103 does not generate the difference image m.

以上より、変形例3に係る画像処理装置によれば、複数の背景画像を用いる場合でも、処理負荷を考慮した異常領域の検出を行なうことができる。   As described above, according to the image processing apparatus according to the third modification, even when a plurality of background images are used, an abnormal region can be detected in consideration of the processing load.

(変形例4)
実施例1に係る画像処理装置の変形例4は、データベースに記憶されている背景画像の数に応じて、異常領域検出の方法を変える構成とする。データベースに記憶されている背景画像の数が増えると処理負荷が大きくなってしまうので、背景画像の数が閾値以上になると、環境条件特定情報間の類似度に基づいて1つの背景画像を選定するようにする。
(Modification 4)
In the fourth modification of the image processing apparatus according to the first embodiment, the method for detecting an abnormal region is changed according to the number of background images stored in the database. If the number of background images stored in the database increases, the processing load increases. When the number of background images exceeds a threshold value, one background image is selected based on the similarity between the environmental condition specifying information. Like that.

これは、データベースに記憶される背景画像の数が増えれば、入力画像に類似する背景画像が少なくとも1つは見つかるという前提に基づく。   This is based on the premise that if the number of background images stored in the database increases, at least one background image similar to the input image can be found.

より具体的には、背景画像数判定手段を新たに設け、背景画像数判定手段により背景画像数が閾値未満であると判定された場合、上記実施例や変形例と同様の処理を行なう。   More specifically, a background image number determination unit is newly provided, and when the background image number determination unit determines that the number of background images is less than the threshold value, the same processing as in the above-described embodiments and modifications is performed.

また、背景画像数判定手段により背景画像数が閾値以上であると判定された場合、図13に示す処理を行なう。図13は、背景画像数が閾値以上である場合の異常領域検出処理を示すフローチャートである。   If the background image number determination means determines that the number of background images is equal to or greater than the threshold value, the process shown in FIG. 13 is performed. FIG. 13 is a flowchart illustrating an abnormal area detection process when the number of background images is equal to or greater than a threshold value.

ステップ1301では、環境条件特定情報入力手段104が、撮像手段により撮像された入力画像に対応する環境条件特定情報を入力する。   In step 1301, the environmental condition specifying information input unit 104 inputs the environmental condition specifying information corresponding to the input image captured by the imaging unit.

ステップ1301に続いてステップ1302に進み、類似度算出手段105が、環境情報特定情報入力手段104より取得した環境条件特定情報とデータベース101に記憶される環境条件特定情報との類似度を算出する。   Proceeding to step 1302 following step 1301, the similarity calculating unit 105 calculates the similarity between the environmental condition specifying information acquired from the environmental information specifying information input unit 104 and the environmental condition specifying information stored in the database 101.

ステップ1302に続いてステップ1303に進み、類似度算出手段105が、算出した類似度であるユークリッド距離が一番小さい環境条件特定情報に対応する背景画像をデータベース101から選定し、選定された背景画像を差分画像生成手段103に通知する。   Progressing to step 1303 following step 1302, the similarity calculation means 105 selects a background image corresponding to the environmental condition specifying information having the smallest Euclidean distance, which is the calculated similarity, from the database 101, and the selected background image. To the difference image generation means 103.

ステップ1303に続いてステップ1304に進み、画像入力手段102が、撮像手段により撮像された画像を入力し、差分画像生成手段103に出力する。   Progressing to step 1304 following step 1303, the image input unit 102 inputs an image captured by the imaging unit and outputs the image to the difference image generation unit 103.

ステップ1304に続いてステップ1305に進み、差分画像生成手段103が、類似度算出手段105より通知された背景画像をデータベース101から取得し、取得した背景画像と画像入力手段102より入力した画像とに対して、画素毎に差分値を算出する。また、差分画像生成手段103は、算出した差分値を異常領域検出手段109に出力する。   In step 1305 following step 1304, the difference image generation unit 103 acquires the background image notified from the similarity calculation unit 105 from the database 101, and converts the acquired background image and the image input from the image input unit 102. On the other hand, a difference value is calculated for each pixel. Further, the difference image generation unit 103 outputs the calculated difference value to the abnormal area detection unit 109.

ステップ1305に続いてステップ1306に進み、異常領域検出手段109が、差分画像生成手段103より取得した差分値の絶対値が、設定された閾値以上であるか否かを判定し、閾値以上であれば異常位置として検出し、検出した異常位置の集合を異常領域とする。   Proceeding to step 1306 following step 1305, the abnormal area detection unit 109 determines whether or not the absolute value of the difference value acquired from the difference image generation unit 103 is equal to or greater than a set threshold value. If an abnormal position is detected, a set of detected abnormal positions is defined as an abnormal region.

以上より、変形例4に係る画像処理装置によれば、データベースに記憶されている背景画像の数に応じて、適切な異常領域検出処理を選択することができる。   As described above, according to the image processing apparatus according to the modification example 4, an appropriate abnormal area detection process can be selected according to the number of background images stored in the database.

以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、上記変形例以外にも種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and other than the above-described modifications within the scope of the gist of the present invention described in the claims. In addition, various modifications and changes can be made.

本発明の一実施例に係る画像処理装置の概略機能ブロックを示す図。1 is a diagram illustrating schematic functional blocks of an image processing apparatus according to an embodiment of the present invention. 環境条件特定情報の一例を示す図。The figure which shows an example of environmental condition specific information. 空を撮像した画像の一部の一例を示す図。The figure which shows an example of a part of image which imaged the sky. 入力画像と背景画像の一例を示す図。The figure which shows an example of an input image and a background image. 差分画像の一例を示す図。The figure which shows an example of a difference image. 環境情報特定情報を一次元配列にした例を示す図。The figure which shows the example which made environmental information specific information into the one-dimensional arrangement | sequence. 環境条件特定情報に基づくユークリッド距離の求め方を示す図。The figure which shows how to obtain | require the Euclidean distance based on environmental condition specific information. 重み差分画像の算出処理を示す図。The figure which shows the calculation process of a weight difference image. 重み差分結果画像の算出処理を示す図。The figure which shows the calculation process of a weight difference result image. 本実施例1に係る画像処理装置の異常検出処理を示すフローチャート。3 is a flowchart illustrating abnormality detection processing of the image processing apparatus according to the first embodiment. 本実施例1に係る画像処理装置の適用例を示す図。FIG. 3 is a diagram illustrating an application example of the image processing apparatus according to the first embodiment. 中間値を示す図。The figure which shows an intermediate value. 変形例4に係る画像処理装置の異常領域検出処理を示すフローチャート。10 is a flowchart showing an abnormal area detection process of an image processing apparatus according to a fourth modification. 背景画像と入力画像の一例を示す図。The figure which shows an example of a background image and an input image.

符号の説明Explanation of symbols

100 画像処理装置
101 データベース
102 画像入力手段
103 差分画像生成手段
104 環境条件特定情報入力手段
105 類似度算出手段
106 重み差分結果画像生成手段
107 積算手段
108 加算手段
109 異常領域検出手段
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 101 Database 102 Image input means 103 Difference image generation means 104 Environmental condition specific information input means 105 Similarity calculation means 106 Weight difference result image generation means 107 Integration means 108 Addition means 109 Abnormal area detection means

Claims (4)

撮像された複数の画像と前記画像を撮像した時の環境条件を特定する環境条件特定情報とを対応付けて記憶する記憶手段と、
新たに撮像された入力画像を入力する第1の入力手段と、
前記入力画像を撮像した時の環境条件を特定する環境条件特定情報を入力する第2の入力手段と、
前記記憶手段に記憶された各画像と前記第1の入力手段により入力された入力画像とに対して差分処理を行ない、各差分画像を生成する生成手段と、
前記記憶手段により記憶された各環境条件特定情報と、前記第2の入力手段により入力された環境条件特定情報とに基づいた重み係数を、前記各差分画像の画素毎に積算する積算手段と、
前記積算手段により積算された各重み差分画像に対し、同じ位置にある重み付けされた差分値を加算した結果画像に基づいて、前記入力画像の異常領域を検出する検出手段と、
を備えることを特徴とする画像処理装置。
Storage means for storing a plurality of captured images in association with environmental condition specifying information for specifying environmental conditions when the images are captured;
First input means for inputting a newly captured input image;
A second input means for inputting environmental condition specifying information for specifying an environmental condition when the input image is captured;
Generating means for performing difference processing on each image stored in the storage means and the input image input by the first input means to generate each difference image;
Integration means for integrating the weighting factor based on each environmental condition specifying information stored by the storage means and the environmental condition specifying information input by the second input means for each pixel of each difference image;
Detecting means for detecting an abnormal region of the input image based on a result image obtained by adding weighted difference values at the same position to each weighted difference image accumulated by the accumulation unit;
An image processing apparatus comprising:
前記生成手段は、画素毎に画像間の差異を検出し、差異がある画素を1、差異がない画素を0とする差分画像を生成することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit detects a difference between images for each pixel, and generates a difference image in which 1 is a pixel having a difference and 0 is a pixel having no difference. 前記環境条件特定情報は、撮像時刻、撮像位置、又は撮像時の天気情報を含んでいることを特徴する請求項1又は2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the environmental condition specifying information includes an imaging time, an imaging position, or weather information at the time of imaging. 前記積算手段は、
前記記憶手段により記憶された各環境条件特定情報と、前記第2の入力手段により入力された環境条件特定情報との類似度を算出する算出手段を備え、
前記類似度に応じた重み係数を、前記各差分画像の画素毎に積算することを特徴とする請求項1ないし3いずれか一項に記載の画像処理装置。


The integrating means includes
Calculating means for calculating the similarity between each environmental condition specifying information stored by the storage means and the environmental condition specifying information input by the second input means;
The image processing apparatus according to any one of claims 1 to 3, wherein a weighting factor corresponding to the similarity is integrated for each pixel of each difference image.


JP2008066128A 2008-03-14 2008-03-14 Image processing device Expired - Fee Related JP4962363B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008066128A JP4962363B2 (en) 2008-03-14 2008-03-14 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008066128A JP4962363B2 (en) 2008-03-14 2008-03-14 Image processing device

Publications (2)

Publication Number Publication Date
JP2009225010A JP2009225010A (en) 2009-10-01
JP4962363B2 true JP4962363B2 (en) 2012-06-27

Family

ID=41241366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008066128A Expired - Fee Related JP4962363B2 (en) 2008-03-14 2008-03-14 Image processing device

Country Status (1)

Country Link
JP (1) JP4962363B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324477A (en) * 1999-05-14 2000-11-24 Hitachi Ltd Method and device for monitoring image
JP3567114B2 (en) * 1999-12-08 2004-09-22 株式会社東芝 Image monitoring apparatus and image monitoring method
JP2003199099A (en) * 2001-12-27 2003-07-11 Canon Inc Apparatus and method for processing image as well as computer program and computer readable storage medium

Also Published As

Publication number Publication date
JP2009225010A (en) 2009-10-01

Similar Documents

Publication Publication Date Title
JP7140580B2 (en) stereo imager
JP5701005B2 (en) Object detection apparatus, object detection method, surveillance camera system, and program
JP6036824B2 (en) Angle of view variation detection device, angle of view variation detection method, and field angle variation detection program
US20150086077A1 (en) System and method of alerting a driver that visual perception of pedestrian may be difficult
WO2016113983A1 (en) Image processing device, image processing method, program, and system
JP2008286725A (en) Person detector and detection method
US20090207260A1 (en) Image pickup apparatus and image pickup method
JP5259291B2 (en) White balance correction device and signal processing program
KR101758685B1 (en) Method, system for detecting camera tampering
JP2020149641A (en) Object tracking device and object tracking method
JP5155110B2 (en) Monitoring device
CN112241668A (en) Image processing method, device and equipment
KR101874968B1 (en) Visibility measuring system base on image information and method for using the same
JP2012103859A (en) Image processing device, image processing method, and image processing program
JP4533836B2 (en) Fluctuating region detection apparatus and method
US10417507B2 (en) Freespace detection apparatus and freespace detection method
JP4740755B2 (en) Monitoring device using images
JP4962363B2 (en) Image processing device
JP5754931B2 (en) Image analysis apparatus, image analysis method, and program
US20180150966A1 (en) System and method for estimating object size
US10878542B2 (en) Method and system for filtering thermal image data
JP2007011490A (en) Device and method for detecting road parameter
JP6124739B2 (en) Image sensor
JP2008040724A (en) Image processing device and image processing method
JP2009294974A (en) Intruder detection device by image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120312

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees