[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6855175B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP6855175B2
JP6855175B2 JP2016111364A JP2016111364A JP6855175B2 JP 6855175 B2 JP6855175 B2 JP 6855175B2 JP 2016111364 A JP2016111364 A JP 2016111364A JP 2016111364 A JP2016111364 A JP 2016111364A JP 6855175 B2 JP6855175 B2 JP 6855175B2
Authority
JP
Japan
Prior art keywords
image
color
image processing
color correction
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016111364A
Other languages
Japanese (ja)
Other versions
JP2017004512A (en
Inventor
椎山 弘隆
弘隆 椎山
日出来 空門
日出来 空門
昌弘 松下
昌弘 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2017004512A publication Critical patent/JP2017004512A/en
Application granted granted Critical
Publication of JP6855175B2 publication Critical patent/JP6855175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数の撮像装置によって撮像された複数の画像の色を合わせる技術に関するものである。 The present invention relates to a technique for matching the colors of a plurality of images captured by a plurality of imaging devices.

従来、複数のカメラ(撮像装置)から取得した撮像画像に映るオブジェクト(例えば人物など)の画像特徴量を検索するシステムが知られている(例えば、特許文献1)。複数の撮像装置の撮像した画像からオブジェクトの画像特徴量を検索するとき、環境光や照明などにより同一オブジェクトであるにも関わらず、色が一致しないことがあり、色情報を用いた検索では、オブジェクトの検索精度を低下させていた。 Conventionally, there is known a system for searching an image feature amount of an object (for example, a person) reflected in an captured image acquired from a plurality of cameras (imaging devices) (for example, Patent Document 1). When searching for the image features of an object from the images captured by multiple imaging devices, the colors may not match even though they are the same object due to ambient light, lighting, etc. The search accuracy of the object was reduced.

特許文献1では、自動車に取り付けられている複数の撮像装置の撮像した白色系道路標示の画像を用いて、ホワイトバランス補正を施した補正画像を生成する。又は、路面に敷設された縁石などの色成分を有する道路要素を撮像した画像を用いて、色を合わせた補正画像を生成する。 In Patent Document 1, a corrected image with white balance correction is generated by using images of white road markings taken by a plurality of image pickup devices attached to an automobile. Alternatively, a corrected image matching the colors is generated using an image of a road element having a color component such as a curb laid on the road surface.

特開2012−105090号公報Japanese Unexamined Patent Publication No. 2012-105090 特開2009−49759号公報JP-A-2009-49759 特許第4715527号Patent No. 4715527

特許文献1の方法では、複数の撮像装置の撮像した撮像画像のすべてから、白色系道路標示の画像や縁石の画像などを抽出している。しかしながら、様々な環境で撮像されたこれらの撮像画像から、色を合わせた補正画像を生成するのに適切な画像を正しく抽出することは困難であり、正しい色合わせができないという課題がある。 In the method of Patent Document 1, images of white road markings, images of curbs, and the like are extracted from all the images captured by a plurality of imaging devices. However, it is difficult to correctly extract an image suitable for generating a color-matched corrected image from these captured images captured in various environments, and there is a problem that correct color matching cannot be performed.

そこで、本発明はこのような問題点に鑑みなされたもので、同一のオブジェクトの画像を正しく特定して、複数の撮像装置の撮像したオブジェクトの画像の色合わせ精度の劣化を抑制する画像処理装置を提供することを目的とする。また、その方法、及びプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of such problems, and is an image processing device that correctly identifies an image of the same object and suppresses deterioration of the color matching accuracy of the images of the objects captured by a plurality of imaging devices. The purpose is to provide. It also aims to provide the method and program.

上述の課題を解決するための画像処理装置は、以下の構成を備える。すなわち、複数の撮像装置により撮像された複数の撮像画像に含まれるオブジェクトであって、類似度が閾値以上のオブジェクトを少なくとも1つ検出する検出手段と、前記検出されたオブジェクトの中から、予め定められた頻度より出現頻度が低い属性を有するオブジェクトを選択する選択手段と、前記選択されたオブジェクトが含まれる前記複数の撮像画像の当該オブジェクトに対応する色が一致するように、前記複数の撮像画像の色合わせに用いる色補正情報を決定する決定手段と、前記色補正情報を用いて、前記複数の撮像画像の色を補正する補正手段と、を有することを特徴とする。 The image processing apparatus for solving the above-mentioned problems has the following configurations. That is, it is determined in advance from the detection means for detecting at least one object included in a plurality of captured images captured by a plurality of imaging devices and having a similarity equal to or higher than a threshold value, and the detected objects. selection means for selecting an object occurrence frequency than the frequency has a lower attribute that is, the so color corresponding to the object of the plurality of captured images including the selected objects match, the plurality of captured images It is characterized by having a determination means for determining color correction information used for color matching, and a correction means for correcting the colors of the plurality of captured images by using the color correction information.

所定頻度以下の属性を有するオブジェクトから特定した同一のオブジェクトの画像を用いて、同一のオブジェクトの画像を正しく特定して、複数の撮像装置の撮像したオブジェクトの画像の色合わせ精度の劣化を抑制することができる。 By correctly identifying the image of the same object using the image of the same object specified from the objects having attributes of a predetermined frequency or less, the deterioration of the color matching accuracy of the image of the object captured by a plurality of imaging devices is suppressed. be able to.

本実施形態の画像処理装置のハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of the image processing apparatus of this embodiment. 本実施形態の画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the image processing apparatus of this embodiment. 本実施形態の画像処理装置で使用する画像特徴量の例を示す図である。It is a figure which shows the example of the image feature amount used in the image processing apparatus of this embodiment. 本実施形態における色合わせ処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the color matching process in this embodiment. クエリリストの作成処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the query list creation process. クエリリストの作成処理で使用するRGB色空間の一例を示す図である。It is a figure which shows an example of the RGB color space used in the query list creation process. (a)所定の条件を満たす撮像装置に関する情報を記憶するテーブルの一例である。(b)所定の条件を満たす撮像装置に関する情報を記憶するテーブルの別例である。(A) This is an example of a table that stores information about an imaging device that satisfies a predetermined condition. (B) This is another example of a table that stores information about an imaging device that satisfies a predetermined condition.

<第1の実施形態>
本実施形態の画像処理装置を構成するコンピュータ装置の構成について、図1のブロック図を参照して説明する。なお、画像処理装置は単一のコンピュータ装置で実現してもよいし、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などで接続されている。コンピュータ装置は、パーソナルコンピュータ(PC)やワークステーション(WS)等の情報処理装置によって実現することができる。
<First Embodiment>
The configuration of the computer device constituting the image processing device of the present embodiment will be described with reference to the block diagram of FIG. The image processing device may be realized by a single computer device, or each function may be distributed and realized by a plurality of computer devices as required. When it is composed of a plurality of computer devices, they are connected by a Local Area Network (LAN) or the like so that they can communicate with each other. The computer device can be realized by an information processing device such as a personal computer (PC) or a workstation (WS).

図1において、CPU101はコンピュータ装置100全体を制御するCentral Processing Unitである。ROM102は変更を必要としないプログラムやパラメータを格納するRead Only Memoryである。RAM103は外部装置などから供給されるプログラムやデータを一時記憶するRandom Access Memoryである。外部記憶装置104はコンピュータ装置100に固定して設置されたハードディスクやメモリカードなどの記憶装置である。なお、外部記憶装置104は、コンピュータ装置100から着脱可能なフレキシブルディスク(FD)やCompact Disk(CD)等の光ディスク、磁気や光カード、ICカード、メモリカードなどを含んでもよい。入力デバイスインターフェイス105はユーザの操作を受け、データを入力するポインティングデバイスやキーボードなどの入力デバイス109とのインターフェイスである。出力デバイスインターフェイス106はコンピュータ装置100の保持するデータや供給されたデータを表示するためのモニタ110とのインターフェイスである。通信インターフェイス107はインターネットなどのネットワーク回線111に接続し、外部とデータ入出力をするための通信インターフェイスである。ネットワークカメラ112は、複数の監視カメラなどの撮像装置であり、ネットワーク回線111を介してコンピュータ装置に接続されている。システムバス108は各ユニットを通信可能に接続する伝送路である。 In FIG. 1, the CPU 101 is a Central Processing Unit that controls the entire computer device 100. The ROM 102 is a Read Only Memory that stores programs and parameters that do not require changes. The RAM 103 is a Random Access Memory that temporarily stores programs and data supplied from an external device or the like. The external storage device 104 is a storage device such as a hard disk or a memory card fixedly installed in the computer device 100. The external storage device 104 may include an optical disk such as a flexible disk (FD) or a compact disk (CD) that can be attached to and detached from the computer device 100, a magnetic or optical card, an IC card, a memory card, and the like. The input device interface 105 is an interface with an input device 109 such as a pointing device or a keyboard that receives a user's operation and inputs data. The output device interface 106 is an interface with the monitor 110 for displaying the data held by the computer device 100 and the supplied data. The communication interface 107 is a communication interface for connecting to a network line 111 such as the Internet and inputting / outputting data to / from the outside. The network camera 112 is an imaging device such as a plurality of surveillance cameras, and is connected to the computer device via the network line 111. The system bus 108 is a transmission line that connects each unit in a communicable manner.

後述する各動作は、ROM102等のコンピュータ読み取り可能な記憶媒体に格納されたプログラムをCPU101が実行することにより実行される。 Each operation described later is executed by the CPU 101 executing a program stored in a computer-readable storage medium such as ROM 102.

[画像処理装置]
本実施形態の画像処理装置は、複数のカメラなどの撮像装置から取得した画像データからオブジェクトの画像領域を切りだしてオブジェクトの画像として蓄積し、蓄積したオブジェクトの画像を用いて処理する装置である。本実施形態の画像処理装置を用いて画像を照合するときは、各撮像装置の撮影した画像の色を、基準となる基準撮像装置(基準カメラ)の撮像した画像の色に合わせて補正画像を生成してから画像を照合する。
[Image processing device]
The image processing device of the present embodiment is a device that cuts out an image area of an object from image data acquired from image pickup devices such as a plurality of cameras, accumulates it as an image of the object, and processes the accumulated image of the object. .. When collating images using the image processing device of the present embodiment, a corrected image is created by matching the color of the image captured by each imaging device with the color of the image captured by the reference imaging device (reference camera) as a reference. Match the images after generating.

具体的には、複数の撮像装置の撮像したオブジェクトの画像から、色合わせに適したオブジェクト(対象オブジェクト)の画像を特定する。次に、この対象オブジェクトの画像を用いて、各撮像装置の撮像した画像の色を基準となる撮像装置(基準カメラとも言う)の撮像した画像の色に合わせる色補正パラメータを推定する。照合の際には、各撮像装置の撮像した画像と、色補正パラメータとを用いて補正画像を生成してから照合を行う。 Specifically, an image of an object (target object) suitable for color matching is specified from images of objects captured by a plurality of imaging devices. Next, using the image of the target object, a color correction parameter is estimated to match the color of the image captured by each imaging device with the color of the image captured by the reference imaging device (also referred to as a reference camera). At the time of collation, the image captured by each imaging device and the color correction parameter are used to generate a corrected image, and then the collation is performed.

なお、色合わせに適したオブジェクト(対象オブジェクト)を特定する際に、オブジェクトの画像の類似度が所定以上であるなどの条件を満たすものである。そのため、実際には複数の撮像装置間に同じオブジェクトが映っていても、所定の条件を満たさなければ、色合わせに用いるオブジェクトとして採用されないこともある。このように対象オブジェクトを選んで色合わせに使用することで、誤った色合わせが起きる確率を低減させることができる。 When specifying an object (target object) suitable for color matching, the conditions such as the similarity of the images of the objects being equal to or higher than a predetermined condition are satisfied. Therefore, even if the same object is actually projected between a plurality of imaging devices, it may not be adopted as an object used for color matching unless a predetermined condition is satisfied. By selecting the target object and using it for color matching in this way, the probability of incorrect color matching can be reduced.

本実施形態では、オブジェクトとして人物を想定するが、人物に限定する必要はなく、色合わせに適するものであればよい。 In the present embodiment, a person is assumed as an object, but it is not necessary to limit the object to a person, and any object suitable for color matching may be used.

以下、本実施形態の画像処理装置の機能構成について図2を用いて説明する。 Hereinafter, the functional configuration of the image processing apparatus of the present embodiment will be described with reference to FIG.

入力部201は、オブジェクトの画像の入力を受け付ける。具体的には、ネットワークカメラ112から取得した撮像画像から切りだされたオブジェクトの画像が入力される。あるいは、ネットワークカメラ112から取得した映像においてオブジェクトが出現するフレーム番号とオブジェクトの画像領域の座標情報が入力される。 The input unit 201 accepts the input of the image of the object. Specifically, an image of an object cut out from the captured image acquired from the network camera 112 is input. Alternatively, the frame number in which the object appears in the video acquired from the network camera 112 and the coordinate information of the image area of the object are input.

また、入力部201は、撮像画像の入力を受付けて、撮像画像からのオブジェクトの切りだしは、画像処理装置の切りだし部(非図示)で行ってもよい。あるいは、ネットワークカメラ112内で予めオブジェクトの画像を切りだして、オブジェクトの画像のみを画像処理装置に送信するように構成してもよい。 Further, the input unit 201 may accept the input of the captured image and cut out the object from the captured image by the cutting unit (not shown) of the image processing device. Alternatively, the image of the object may be cut out in advance in the network camera 112, and only the image of the object may be transmitted to the image processing device.

記憶部202は、入力部201から入力されたオブジェクトの画像を記憶する。具体的には、外部記憶装置104にオブジェクトの画像データを記憶する。加えて、オブジェクトのメタデータとして、オブジェクトのIDや撮像時刻や撮像カメラを関連付けて記憶しておく。なお、オブジェクトの画像データではなく、ネットワークカメラ112から得た映像データを記憶しておき、その該当オブジェクトが出現するフレーム番号とオブジェクトの画像領域の座標情報を記憶するようにしてもよい。 The storage unit 202 stores an image of an object input from the input unit 201. Specifically, the image data of the object is stored in the external storage device 104. In addition, as the metadata of the object, the ID of the object, the imaging time, and the imaging camera are associated and stored. Instead of the image data of the object, the video data obtained from the network camera 112 may be stored, and the frame number in which the corresponding object appears and the coordinate information of the image area of the object may be stored.

照合条件入力部203は、照合に用いるオブジェクトの画像を指定する。具体的には、記憶部202に記憶されたオブジェクトの画像をモニタ110に表示して、入力デバイス109を介して照合するオブジェクトの画像を指定する。あるいは、モニタ110に撮像時刻や画像特徴の属性値などを指定する画面を表示して、入力デバイス109で指定された条件で、記憶部202に記憶されたオブジェクトの画像を絞り込んでモニタ110に表示するようにしてもよい。あるいは、外部記憶装置104に記憶された画像データを指定して、比較元とし、記憶部202に記憶されたオブジェクトの画像データを比較先としてもよい。本実施形態の照合に用いるオブジェクト画像の指定方法はこれらに限定されるものではない。 The collation condition input unit 203 specifies an image of an object to be used for collation. Specifically, the image of the object stored in the storage unit 202 is displayed on the monitor 110, and the image of the object to be collated via the input device 109 is specified. Alternatively, a screen for specifying the imaging time, the attribute value of the image feature, and the like is displayed on the monitor 110, and the image of the object stored in the storage unit 202 is narrowed down and displayed on the monitor 110 under the conditions specified by the input device 109. You may try to do it. Alternatively, the image data stored in the external storage device 104 may be designated as the comparison source, and the image data of the object stored in the storage unit 202 may be used as the comparison destination. The method of specifying the object image used for the collation of the present embodiment is not limited to these.

照合するオブジェクトの画像を指定する際に、照合に用いるオブジェクトの画像は比較元と比較先との2つの画像をそれぞれ1つずつ指定してもよい。あるいは、比較元の画像1つに対して、比較先の画像を複数選択してもよい。あるいは、比較元の画像を1つだけ選択させて、比較先の画像として記憶部202に記憶されているオブジェクトの画像全てを自動的に選択するようにしてもよい。本実施形態における照合に用いるオブジェクトの画像の指定方法はこれらに限定されるものではない。 When specifying the image of the object to be collated, the image of the object to be collated may be two images, one for the comparison source and one for the comparison destination. Alternatively, a plurality of images to be compared may be selected for one image to be compared. Alternatively, only one image to be compared may be selected, and all the images of the objects stored in the storage unit 202 as the images to be compared may be automatically selected. The method of designating the image of the object used for collation in the present embodiment is not limited to these.

照合結果表示部204は、照合条件入力部203で指定したオブジェクトの画像同士を照合した結果を表示する。照合処理の詳細は後述するが、照合処理によって比較元と比較先とのオブジェクトの画像の間には似ている程度を表す類似度が決定される。この類似度を用いて照合結果を表示する。例えば、比較元と比較先とのオブジェクトの画像が1つずつであれば、そのオブジェクトの画像間の類似度をモニタ110に表示する。あるいは、比較元のオブジェクト画像が1つで、比較先のオブジェクト画像が複数であれば、比較先のオブジェクトの画像を類似度順にモニタ110に表示する。あるいは、所定以上の類似度を有する比較先のオブジェクト画像を、カメラごとに分類して撮像時刻順に表示するようにしてもよい。なお、本実施形態の照合結果の表示方法はこれらに限定されるものではない。 The collation result display unit 204 displays the result of collating the images of the objects specified by the collation condition input unit 203. The details of the collation process will be described later, but the collation process determines the degree of similarity indicating the degree of similarity between the images of the objects of the comparison source and the comparison destination. The collation result is displayed using this similarity. For example, if there is one image of each object of the comparison source and one image of the comparison destination, the similarity between the images of the objects is displayed on the monitor 110. Alternatively, if there is one comparison source object image and there are a plurality of comparison destination object images, the images of the comparison destination objects are displayed on the monitor 110 in order of similarity. Alternatively, the object images of the comparison destination having a degree of similarity equal to or higher than a predetermined value may be classified for each camera and displayed in order of the imaging time. The method of displaying the collation result of the present embodiment is not limited to these.

照合部205は、比較元のオブジェクト画像と比較先のオブジェクト画像との照合処理を行う。具体的には、照合部205は、比較元のオブジェクトの画像と、比較先のオブジェクトの画像のそれぞれの画像特徴量を比較することで照合する。本実施形態では、オブジェクトに人物を想定し、図3に示すような人物の画像特徴量を用いる。なお、図3に示す画像特徴量は一例であり、本実施形態はこれらの画像特徴量に限定されるものではない。 The collation unit 205 performs collation processing between the object image of the comparison source and the object image of the comparison destination. Specifically, the collation unit 205 collates by comparing the image features of the image of the object to be compared with the image of the object to be compared. In the present embodiment, a person is assumed as an object, and an image feature amount of the person as shown in FIG. 3 is used. The image feature amounts shown in FIG. 3 are examples, and the present embodiment is not limited to these image feature amounts.

これらの画像特徴量の算出方法は次の通りである。色が大きく変化しても、それほど大きく変化しない画像特徴量を、色への依存度の低い画像特徴量として、SIFT(Scale Invariant Feature Transform)を用いる。SIFTは輝度画像から得られるため、色への依存度が低い。図3の顔器官点のSIFT特徴量は、人物の顔領域を検出して、顔領域内の目・口などの器官点を求め、各器官点に対応するSIFT特徴量を求めることによって求められる。この特徴量を用いた照合処理では、照合部205が、比較元と比較先とのそれぞれの人物の画像において、顔領域内の各器官点に対応するSIFT特徴量の類似度の和を求める。あるいは、照合部205は、所定以上の類似度を有する器官点の数を用いて類似度を決定してもよい。 The calculation method of these image feature amounts is as follows. SIFT (Scale Invariant Feature Transfer) is used as an image feature amount that does not change so much even if the color changes significantly, and as an image feature amount that is less dependent on color. Since SIFT is obtained from a luminance image, it is less dependent on color. The SIFT feature amount of the facial organ points in FIG. 3 is obtained by detecting the face area of a person, obtaining the organ points such as eyes and mouth in the face area, and obtaining the SIFT feature amount corresponding to each organ point. .. In the matching process using this feature amount, the matching unit 205 obtains the sum of the similarity of the SIFT feature amounts corresponding to each organ point in the face region in the images of the respective persons of the comparison source and the comparison destination. Alternatively, the collating unit 205 may determine the similarity using the number of organ points having a similarity equal to or higher than a predetermined value.

照合部205では、肌の色又は髪の色は、顔検出で得た顔領域から、対応する部分領域を予め定めておいて、その部分領域の色ヒストグラム等を求めることによって求められる。 In the collating unit 205, the skin color or the hair color is obtained by predetermining the corresponding partial region from the face region obtained by the face detection and obtaining the color histogram of the partial region or the like.

また、照合部205では、服の色は、顔検出で得た顔領域から、その下方が胴体に対応する胴体領域であると予め定めておいて、その胴体領域の色ヒストグラム等を求めることによって求められる。 Further, in the collation unit 205, the color of the clothes is determined in advance from the face region obtained by face detection to be the torso region corresponding to the torso, and the color histogram of the torso region is obtained. Desired.

また、照合部205では、人物の各種属性である年齢や性別等は、機械学習等の技術を用いて、顔領域の画像を検出した際に、各種属性が推定できるような分類器を作成しておき、分類器を用いて各種属性を得る。また、属性の尤度が得られるときに、属性値ごとにその尤度を並べた属性ベクトルを作成して、その属性ベクトル間の類似度で属性の類似度を求めるようにする。 Further, in the collation unit 205, a classifier is created so that various attributes such as age and gender, which are various attributes of a person, can be estimated when an image of a face area is detected by using a technique such as machine learning. Then, use a classifier to obtain various attributes. In addition, when the likelihood of an attribute is obtained, an attribute vector in which the likelihoods are arranged for each attribute value is created, and the similarity of the attribute is calculated by the similarity between the attribute vectors.

SIFT特徴量、色ヒストグラムと属性ベクトルなどの類似度は各々個別に求まるため、適当に重みを付けて和をとることで、比較元のオブジェクトの画像と比較先のオブジェクトの画像との類似度を求める。 Since the similarity of SIFT features, color histogram, attribute vector, etc. can be obtained individually, the similarity between the image of the object to be compared and the image of the object to be compared can be obtained by appropriately weighting and summing. Ask.

照合部205は、撮像装置の撮像画像の色合わせに用いる対象オブジェクトの画像を検索して特定するときは、色への依存度が低い画像特徴量を用いることが望ましい。そのため、本実施形態では、図3に示す輝度画像から抽出した画像特徴量と人物の属性を用いる。これによって、複数の撮像装置が撮像した同じオブジェクトの画像の色が異なるときも、複数の撮像装置の撮像した同じオブジェクトを、同一と判断できる確率が高くなる。 When the collating unit 205 searches for and specifies an image of a target object used for color matching of an image captured by an imaging device, it is desirable to use an image feature amount having a low degree of dependence on color. Therefore, in the present embodiment, the image feature amount and the attribute of the person extracted from the luminance image shown in FIG. 3 are used. As a result, even when the colors of the images of the same object captured by the plurality of imaging devices are different, the probability that the same object captured by the plurality of imaging devices can be determined to be the same increases.

一方で、色合わせが行われた後は、全ての画像特徴量を用いて照合を行うことが望ましい。本実施形態では、図3に示す全ての特徴を用いる。これによって、色合わせをしてから色に依存する画像特徴量を用いることで、色合わせをしない場合と比べて、オブジェクトの照合精度の劣化を防ぐことができる。 On the other hand, after color matching is performed, it is desirable to perform collation using all the image feature amounts. In this embodiment, all the features shown in FIG. 3 are used. As a result, by using the image feature amount that depends on the color after the color matching, it is possible to prevent the deterioration of the matching accuracy of the objects as compared with the case where the color matching is not performed.

なお、照合部205で用いる画像特徴量は、予めオブジェクトごとに算出しておき、記憶部202に記憶しておいてもよい。例えば、色合わせ前の画像特徴量は、入力部201にオブジェクトの画像が入力されたときに算出して記憶しておく。一方で、色合わせ後の画像特徴量は、色合わせ後の画像特徴量を算出したときに、記憶部202に記憶しておく。 The image feature amount used by the collation unit 205 may be calculated in advance for each object and stored in the storage unit 202. For example, the image feature amount before color matching is calculated and stored when the image of the object is input to the input unit 201. On the other hand, the image feature amount after color matching is stored in the storage unit 202 when the image feature amount after color matching is calculated.

クエリリスト作成部206は、色合わせに用いる対象オブジェクトの画像を特定するためのクエリリストを作成する。具体的には、記憶部202に記憶されているオブジェクトの画像からいくつかのオブジェクトの画像をクエリとして選択して、優先度を付けて、クエリの候補であるクエリリストを作成する。なお、クエリは比較元のオブジェクトの画像とも記載するので、クエリリストは比較元のオブジェクトの画像候補リストとも記載する。 The query list creation unit 206 creates a query list for specifying an image of the target object used for color matching. Specifically, images of some objects are selected as queries from the images of objects stored in the storage unit 202, prioritized, and a query list that is a candidate for the query is created. Since the query is also described as the image of the comparison source object, the query list is also described as the image candidate list of the comparison source object.

次に、クエリリスト作成部206の処理の概要を説明する。 Next, an outline of the processing of the query list creation unit 206 will be described.

複数の撮像装置をまたがって映る同一オブジェクトを正しく検出するためには、比較元となるオブジェクトの画像の選択が重要である。クエリリスト作成部206が、比較元となるオブジェクトの画像を選択する条件は2つある。 In order to correctly detect the same object that appears across multiple imaging devices, it is important to select the image of the object that is the comparison source. There are two conditions for the query list creation unit 206 to select the image of the object to be compared.

第1の条件は、比較元のオブジェクトの画像がユニークであり、他のオブジェクトの画像と間違えにくいことである。非図示の抽出部によって予め属性が抽出された時に、色への依存度が低い属性(性別や年齢やメガネ有無など)の頻度の統計を取っておき、クエリリスト作成部206が、所定頻度以下の属性を持つオブジェクトを優先して特定する。これによって、比較元のオブジェクトの画像が他のオブジェクトの画像と区別しやすいので、検索が間違える確率を低減する事が可能となる。 The first condition is that the image of the object to be compared is unique and is not easily mistaken for the image of another object. When attributes are extracted in advance by an extraction unit (not shown), statistics on the frequency of attributes that are less dependent on color (gender, age, presence / absence of glasses, etc.) are saved, and the query list creation unit 206 uses attributes with a predetermined frequency or less. Priority is given to the object with. As a result, the image of the object to be compared can be easily distinguished from the image of another object, so that the probability of making a mistake in the search can be reduced.

第2の条件は、比較元のオブジェクトの画像の色が補正パラメータの算出に適していることである。比較元のオブジェクトの画像の色が単色や無彩色であると、対象オブジェクトの画像の色に基づく色補正パラメータを算出する事ができない。従って、クエリリスト作成部206が、色補正パラメータが算出されやすいように、服の色が黒やグレー等の無彩色以外の色情報を取得できるオブジェクトを優先して特定する必要がある。 The second condition is that the color of the image of the comparison source object is suitable for calculating the correction parameter. If the color of the image of the comparison source object is monochromatic or achromatic, the color correction parameter based on the color of the image of the target object cannot be calculated. Therefore, it is necessary for the query list creation unit 206 to preferentially specify an object whose clothes color can acquire color information other than achromatic colors such as black and gray so that the color correction parameter can be easily calculated.

上記の2つの条件を考慮し、クエリリスト作成部206はプライオリティ(優先度)付けした比較元のオブジェクトの画像候補リストを作成する。 In consideration of the above two conditions, the query list creation unit 206 creates an image candidate list of the comparison source object with the priority (priority).

対象オブジェクト特定部207は、撮像装置の色合わせに用いる対象オブジェクトの画像を特定する。具体的には、クエリリスト作成部206で作成された比較元のオブジェクトの画像候補リストから選ばれたオブジェクトの画像をクエリとして用いて、クエリと同一と判断できる、各撮像装置に映るオブジェクトを、記憶部202から特定する。そして、撮像装置ごとに色合わせに用いるオブジェクト(対象オブジェクト)の画像を一つ特定する。例えば、クエリとの類似度が所定以上であるとき、色合わせに用いる対象オブジェクトの画像であると判断して、対象オブジェクトの画像の候補に選択する。 The target object identification unit 207 specifies an image of the target object used for color matching of the image pickup apparatus. Specifically, using the image of the object selected from the image candidate list of the comparison source object created by the query list creation unit 206 as a query, the object displayed on each imaging device that can be determined to be the same as the query is displayed. It is specified from the storage unit 202. Then, one image of an object (target object) used for color matching is specified for each imaging device. For example, when the similarity with the query is equal to or higher than a predetermined value, it is determined that the image of the target object is used for color matching, and the image is selected as a candidate for the image of the target object.

更に、同じ対象オブジェクトを撮像した撮像装置の台数が最も多い場合を選び、最終的な対象オブジェクトの画像を特定する。 Further, the case where the number of image pickup devices that image the same target object is the largest is selected, and the final image of the target object is specified.

同一の対象オブジェクトを全ての撮像装置が撮像した画像が得られた場合には、全ての撮像装置の撮像画像の色補正パラメータを算出することが可能となる。 When the images obtained by all the imaging devices capturing the same target object are obtained, it is possible to calculate the color correction parameters of the captured images of all the imaging devices.

同一の対象オブジェクトを全ての撮像装置が撮像した画像が得られない場合でも、同一のオブジェクトを撮像した撮像装置の台数が最も多い時の同一のオブジェクトの画像を特定することで、色合わせを行える撮像装置の台数を最も多くすることが可能となる。あるいは、同一の対象オブジェクトを撮像した撮像装置の台数が、全撮像装置の台数における割合が所定値以上であれば、その同一の対象オブジェクトの画像を特定する。 Even if all the image pickup devices cannot obtain an image of the same target object, color matching can be performed by specifying the image of the same object when the number of image pickup devices that capture the same object is the largest. It is possible to increase the number of image pickup devices to the maximum. Alternatively, if the number of image pickup devices that have imaged the same target object is equal to or greater than a predetermined value in the total number of image pickup devices, the image of the same target object is specified.

また、同一のオブジェクトを同時刻又は同時間帯に撮像できない複数の撮像装置が、同時刻又は同時間帯で、複数の撮像装置に映る対象オブジェクトの候補が特定された場合は、どれかが間違っていている可能性がある。この場合は、特定された対象オブジェクトの画像を色合わせに使用しないことができる。 Also, if multiple imaging devices that cannot image the same object at the same time or time zone identify candidates for the target object to be displayed on multiple imaging devices at the same time or time zone, one of them is incorrect. It may be. In this case, the image of the specified target object can not be used for color matching.

色補正パラメータ算出部208は、色合わせに用いる色補正情報である色補正パラメータを算出する。具体的には、2つのオブジェクトの画像を用いて、2つのオブジェクトの画像同士の色が一致するように色補正パラメータを求める。色補正パラメータを求める際に、例えば、人物であればその顔領域の肌領域を用いる、あるいは、服領域を用いる。なお、色補正パラメータの算出に用いる対象オブジェクトの領域はこれらに限定されるものではない。 The color correction parameter calculation unit 208 calculates a color correction parameter which is color correction information used for color matching. Specifically, using the images of the two objects, the color correction parameters are obtained so that the colors of the images of the two objects match. When obtaining the color correction parameter, for example, in the case of a person, the skin area of the face area is used, or the clothing area is used. The area of the target object used for calculating the color correction parameter is not limited to these.

補正画像生成部209は、色補正パラメータを用いて色を補正した補正画像を生成する。 The corrected image generation unit 209 generates a corrected image in which the color is corrected by using the color correction parameter.

色補正パラメータの算出とそれを用いた補正画像の生成には、次の方法がある。例えば、特許文献2に示されるように、オブジェクト内の複数の対応点を求めて、その対応点同士の色の異なりから、ルックアップテーブルを構成して、色補正パラメータとしてもよい。補正画像を生成する際には、入力となる画像データのピクセルごとにルックアップテーブルを参照して、異なる色に置き変えていくことで補正画像が生成される。 There are the following methods for calculating the color correction parameters and generating a corrected image using the parameters. For example, as shown in Patent Document 2, a plurality of corresponding points in an object may be obtained, and a look-up table may be configured as a color correction parameter based on the difference in color between the corresponding points. When generating a corrected image, the corrected image is generated by referring to the look-up table for each pixel of the input image data and replacing the corrected image with a different color.

あるいは、特許文献3に示されるように、色補正行列を求めて、色補正パラメータとしてもよい。補正画像を生成する際には、入力となる画像データのピクセルごとに色補正行列をかけることで、異なる色に置き変えていく。本実施形態では、色補正パラメータ算出部208は、求められた色補正行列群の分布を参照し、所定以上に外れているデータを除いた平均行列を求めてもよい、又は、所定以上に外れていないデータを選んで平均行列を求めてもよい。 Alternatively, as shown in Patent Document 3, a color correction matrix may be obtained and used as a color correction parameter. When generating a corrected image, it is replaced with a different color by applying a color correction matrix for each pixel of the input image data. In the present embodiment, the color correction parameter calculation unit 208 may refer to the obtained distribution of the color correction matrix group and obtain an average matrix excluding data that deviates from a predetermined value or more, or may deviate from a predetermined value or more. You may choose the data that is not available and find the average matrix.

なお、本実施形態における色補正パラメータの算出方法はこれらに限定されるものではない。また、色補正パラメータを算出する際に、表色系などの違いがあってもよい。 The method of calculating the color correction parameter in the present embodiment is not limited to these. Further, when calculating the color correction parameter, there may be a difference in the color system or the like.

[色合わせ処理の流れ]
次に、本実施形態における色合わせ処理の流れについて、図4のフローチャートを用いて説明する。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。この処理では、まず、複数の撮像装置に共通に映る対象オブジェクトの画像を特定する。そして、各撮像装置の撮像したオブジェクトの画像の色補正パラメータを算出する。そして、各撮像装置の撮像したオブジェクトの画像の補正画像を生成して、オブジェクトの補正画像の画像特徴量を算出する。
[Flow of color matching process]
Next, the flow of the color matching process in the present embodiment will be described with reference to the flowchart of FIG. Hereinafter, it is assumed that the flowchart is realized by the CPU executing the control program. In this process, first, an image of a target object that is commonly displayed on a plurality of imaging devices is specified. Then, the color correction parameters of the image of the object captured by each imaging device are calculated. Then, a corrected image of the image of the object captured by each imaging device is generated, and the image feature amount of the corrected image of the object is calculated.

色あわせ処理の実行時には記憶部202に記憶されたオブジェクトの画像から、色合わせ前の画像特徴量が予め算出されているものとする。加えて、本処理には色合わせ処理の対象カメラのリストが与えられる。 When the color matching process is executed, it is assumed that the image feature amount before the color matching is calculated in advance from the image of the object stored in the storage unit 202. In addition, this process is given a list of cameras subject to color matching processing.

以下、具体的な処理内容について、図4のフローチャートを用いて説明する。 Hereinafter, specific processing contents will be described with reference to the flowchart of FIG.

ステップS401では、クエリリスト(比較元オブジェクトの候補リスト)を作成する。具体的には、クエリリスト作成部206が、記憶部202に記憶されているオブジェクトの画像から、いくつかのオブジェクトの画像を選択してクエリリストとする。 In step S401, a query list (candidate list of comparison source objects) is created. Specifically, the query list creation unit 206 selects images of some objects from the images of the objects stored in the storage unit 202 to form a query list.

図5を用いて、クエリリスト作成部206の処理の詳細を説明する。先に述べたように、適正な比較元のオブジェクトの画像であるための条件は2つある。 The details of the processing of the query list creation unit 206 will be described with reference to FIG. As mentioned earlier, there are two conditions for an image of an object to be compared properly.

第1の条件は、比較元のオブジェクトの画像がユニークであり、他のオブジェクトの画像と間違えにくいことである。予め属性が抽出された時に、色への依存度が低い属性(性別や年齢やメガネ有無など)の頻度の統計を取っておき、クエリリスト作成部206が、所定頻度以下の属性を持つオブジェクトを優先して特定する。これによって、比較元のオブジェクトの画像データが他のオブジェクトの画像データと区別しやすいので、検索が間違える確率を低減することが可能となる。 The first condition is that the image of the object to be compared is unique and is not easily mistaken for the image of another object. When attributes are extracted in advance, statistics on the frequency of attributes that are less dependent on color (gender, age, presence of glasses, etc.) are saved, and the query list creation unit 206 gives priority to objects with attributes that are less than or equal to the predetermined frequency. To identify. As a result, the image data of the comparison source object can be easily distinguished from the image data of other objects, so that the probability of making a mistake in the search can be reduced.

第2の条件は、比較元のオブジェクトの画像の色が補正パラメータの算出に適していることである。比較元のオブジェクトの色が単色や無彩色であると、対象オブジェクトの画像の色に基づく色補正パラメータを算出することができない。従って、クエリリスト作成部206が、色補正パラメータが算出されやすいように、服の色が黒やグレー等の無彩色以外の色情報を取得できるオブジェクトを優先して特定する必要がある。 The second condition is that the color of the image of the comparison source object is suitable for calculating the correction parameter. If the color of the comparison source object is monochromatic or achromatic, the color correction parameter based on the color of the image of the target object cannot be calculated. Therefore, it is necessary for the query list creation unit 206 to preferentially specify an object whose clothes color can acquire color information other than achromatic colors such as black and gray so that the color correction parameter can be easily calculated.

ステップS501、ステップS502及びステップS503の処理は第2の条件を満たすための処理である。ステップS504及びステップS505の処理は第1の条件を満たすための処理である。 The processes of step S501, step S502, and step S503 are processes for satisfying the second condition. The processes of steps S504 and S505 are processes for satisfying the first condition.

まず、ステップS501にて、クエリリスト作成部206が、記憶部202で記憶したオブジェクトの画像の画素単位のカラーヒストグラムを抽出する。 First, in step S501, the query list creation unit 206 extracts a pixel-by-pixel color histogram of the image of the object stored in the storage unit 202.

図6にRGB色空間を複数のビンに分けた例を示す。本実施形態では、簡易に4X4X4の64ビンに分けた例で説明する。色空間の原点を通る対角線(点線)がグレースケールの色を表し、無彩色の軸と表現している。この無彩色の軸を含むビン(グレースケールの色ビンとも記載する)に属す画素が多い場合には、色補正パラメータを得ることが困難である。記憶されたオブジェクトの画像データに対し、ステップS502でグレースケールの色ビンに属する画素数がオブジェクトの画像データの全画素数に対し、所定割合未満のオブジェクトの画像データに絞込みを行う。 FIG. 6 shows an example in which the RGB color space is divided into a plurality of bins. In this embodiment, an example of simply dividing into 64 bins of 4X4X4 will be described. The diagonal line (dotted line) that passes through the origin of the color space represents the grayscale color, and is expressed as the achromatic axis. When there are many pixels belonging to a bin (also referred to as a grayscale color bin) including this achromatic axis, it is difficult to obtain a color correction parameter. In step S502, the stored image data of the object is narrowed down to the image data of the object in which the number of pixels belonging to the grayscale color bin is less than a predetermined ratio with respect to the total number of pixels of the image data of the object.

また、オブジェクトの画像の画素のRGB値をYUV等の輝度信号と色差信号であらわす色空間に変換し、輝度成分Yの画素に対する累積値と、色差成分UVの絶対値の画素に対する累積値を求める。色差成分UVの絶対値とするのは、負の値を取りうるからである。そして、色差成分の累積値が輝度成分の累積値に対して所定の割合以上のオブジェクトに絞り込むようにしてもよい。 Further, the RGB value of the pixel of the image of the object is converted into a color space represented by a luminance signal such as YUV and a color difference signal, and the cumulative value of the luminance component Y for the pixel and the cumulative value of the absolute value of the luminance component UV for the pixel are obtained. .. The absolute value of the color difference component UV is set because it can take a negative value. Then, the cumulative value of the color difference component may be narrowed down to objects having a predetermined ratio or more with respect to the cumulative value of the luminance component.

また、色味のある(色差成分UVの絶対値が大きい)画素であっても、例えば、RGB値で、GやBが零の画素ばかりではやはり色補正パラメータを得ることは困難である。R、G、B成分のそれぞれがある程度持ったオブジェクトの画像データである必要がある。 Further, even if the pixels have a tint (the absolute value of the color difference component UV is large), it is still difficult to obtain the color correction parameter if only the pixels having RGB values and G and B are zero. It is necessary that each of the R, G, and B components has image data of an object to some extent.

そこで、ステップS503では、まず、オブジェクトの画像の画素のRGB値をYUV空間に変換し、色差信号Uの絶対値の画素平均U_meanおよび色差信号Vの絶対値の画素平均V_meanを算出する。そして、これらがともに所定の閾値以上であるR、G、Bの成分がある程度持ったオブジェクトの画像であることを判断基準として、R、G、B成分のバランスのよいものを優先的に特定することが可能である。 Therefore, in step S503, first, the RGB values of the pixels of the image of the object are converted into the YUV space, and the pixel average U_mean of the absolute value of the color difference signal U and the pixel average V_mean of the absolute value of the color difference signal V are calculated. Then, based on the fact that these are images of objects having R, G, and B components that are both equal to or higher than a predetermined threshold value to some extent, those with a good balance of R, G, and B components are preferentially specified. It is possible.

また、図6のRGB色空間のビンを用いる場合、記憶したオブジェクトの画像の画素のヒストグラムを求める。そして、R、G、Bの三色を混ぜた中間色ではないこと、R、G、Bのそれぞれの画素を全て含んでいることを確認することによって、そのオブジェクトの画像データをクエリとするか否かの判断が可能である。 Further, when the bin of the RGB color space of FIG. 6 is used, the histogram of the pixels of the image of the stored object is obtained. Then, by confirming that the color is not a neutral color that is a mixture of the three colors of R, G, and B, and that all the pixels of R, G, and B are included, whether or not to query the image data of the object. It is possible to judge whether or not.

もちろん、R、G、Bの成分のそれぞれがある程度持ったオブジェクトを推定する処理であれば、上述した方法に限定されない。 Of course, the process is not limited to the above-mentioned method as long as it is a process of estimating an object that each of the components of R, G, and B has to some extent.

更に、非図示の抽出部によって、図3に示す色への依存度が低い属性が予め抽出された時、記憶したオブジェクト全体から抽出された、それぞれの色への依存度が低い属性の頻度を予め求めておく。例えば、各オブジェクトの画像から抽出されたメガネの有無の属性について、記憶したオブジェクト全体から、メガネ有とメガネ無との頻度をそれぞれ求める。 Further, when the attributes having low dependence on color shown in FIG. 3 are extracted in advance by the extraction unit (not shown), the frequency of the attributes having low dependence on each color extracted from the entire stored object is determined. Ask in advance. For example, with respect to the attribute of the presence / absence of glasses extracted from the image of each object, the frequency of with / without glasses is obtained from the entire stored object.

ステップS504では、頻度の分布を用い、属性の組み合わせの頻度を推定する。単純に行うのであれば、各属性の頻度の積を計算すれば良い。例えば、性別と口ひげやあごひげに関しては強い相関があるため、女性と判別された場合は、年齢とメガネ有の頻度の積を用いるとしても良い。 In step S504, the frequency of attribute combinations is estimated using the frequency distribution. If you do it simply, you can calculate the product of the frequencies of each attribute. For example, since there is a strong correlation between gender and mustache or chin, if it is determined to be female, the product of age and frequency with glasses may be used.

ステップS505では、その頻度の低いものから絞り込んだオブジェクトをソートし、クエリリストの作成を完成する。 In step S505, the objects narrowed down from the infrequent ones are sorted, and the creation of the query list is completed.

これにより、色補正パラメータを取得しやすく、且つ誤検索を起こしにくいオブジェクトの画像からなるクエリリストを得る事ができる。 As a result, it is possible to obtain a query list consisting of images of objects that are easy to acquire color correction parameters and are unlikely to cause erroneous search.

ステップS402は、ステップS401で得たN個のオブジェクトの画像候補から成るクエリリスト内のクエリを順に処理するためのループであり、クエリには1から順に番号が割り当てられているものとする。変数iを用いてリスト内を参照するため、はじめにiを1に初期化する。さらに、ステップS407にてiが所定クエリ数N以下であるときステップS408へ移り、これを満たさないときループを抜けてステップS409へ移る。 Step S402 is a loop for sequentially processing the queries in the query list consisting of image candidates of N objects obtained in step S401, and it is assumed that the queries are numbered in order from 1. First, i is initialized to 1 in order to refer to the list using the variable i. Further, in step S407, when i is equal to or less than the predetermined number of queries N, the process proceeds to step S408, and when this is not satisfied, the loop is exited and the process proceeds to step S409.

ステップS403では、色への依存度の低い画像特徴量を用いて、記憶部202からi番目のクエリに類似するオブジェクトの画像を検索する。具体的には、照合部205にて、比較元のオブジェクトの画像をi番目のクエリとして、比較先のオブジェクトの画像を記憶部202に記憶されているオブジェクトの画像とする。そして、色への依存度が低い画像特徴量を用いて照合を行う。例えば、図3に示す輝度画像から抽出した画像特徴量を照合に用いる。最後に、比較先のオブジェクトの画像と類似度を関連付けて、検索結果とする。 In step S403, the image of the object similar to the i-th query from the storage unit 202 is searched by using the image feature amount having a low dependence on color. Specifically, in the collation unit 205, the image of the object to be compared is used as the i-th query, and the image of the object to be compared is used as the image of the object stored in the storage unit 202. Then, collation is performed using an image feature amount having a low degree of dependence on color. For example, an image feature amount extracted from the luminance image shown in FIG. 3 is used for collation. Finally, the image of the object to be compared is associated with the similarity to obtain the search result.

ステップS404では、所定以上の類似度と関連付けられたオブジェクトの画像のみに着目して、各オブジェクトが撮像されたカメラ等の撮像装置を特定する。この特定された撮像装置が全ての撮像装置を含む場合(YES)には、ステップS405へ移る。そうでない場合のとき(NO)、ステップS406へ移る。 In step S404, an image pickup device such as a camera in which each object is imaged is specified by paying attention only to the image of the object associated with the similarity of a predetermined degree or more. If the identified imaging device includes all the imaging devices (YES), the process proceeds to step S405. If not (NO), the process proceeds to step S406.

ステップS405では、対象オブジェクトの画像としてのクエリと所定の条件を満たす撮像装置の数などの情報を記憶する。記憶した情報を図7(a)に示すテーブルに格納する。なお、図7(a)に示すテーブルは一例である。 In step S405, information such as a query as an image of the target object and the number of imaging devices satisfying a predetermined condition is stored. The stored information is stored in the table shown in FIG. 7 (a). The table shown in FIG. 7A is an example.

図7(a)に示すようなテーブルは、各クエリに対して「どの撮像装置にクエリと類似するオブジェクトが見つかったか」を○で表している。例えば、1つ目のクエリQ1に対しては、6台の撮像装置A、B、C、D、F、Gに類似するオブジェクトが見つかったことを示している。2つ目のクエリQ2では、8台の撮像装置全てで類似するオブジェクトが見つかったことを示している。3つ目のクエリQ3は、ステップS404で処理ループを抜けるため、検索が行われず、類似するオブジェクトはないことをN/Aで示す。 In the table as shown in FIG. 7A, "in which imaging device an object similar to the query was found" is indicated by a circle for each query. For example, for the first query Q1, it is shown that objects similar to the six image pickup devices A, B, C, D, F, and G have been found. The second query, Q2, shows that similar objects were found in all eight imaging devices. Since the third query Q3 exits the processing loop in step S404, the search is not performed, and N / A indicates that there is no similar object.

他方、ステップS404において、全ての撮像装置で類似するオブジェクトが見つかっていない場合は、例えば、ステップS406で1つ目のクエリQ1で検索した場合である。この場合、対象オブジェクトの画像としてのクエリQ1と条件を満たす撮像装置を記憶する。 On the other hand, when similar objects are not found in all the imaging devices in step S404, for example, it is the case where the search is performed by the first query Q1 in step S406. In this case, the image pickup device that satisfies the query Q1 as an image of the target object and the condition is stored.

そして、ステップS407で次のクエリがあるかを式i≦Nで判断し、ある場合にはステップS408に進む。ステップS408にて式i=i+1でiを更新して次のクエリ候補に更新し、再びステップS403に戻る。 Then, in step S407, it is determined by the expression i ≦ N whether or not there is the next query, and if there is, the process proceeds to step S408. In step S408, i is updated by the expression i = i + 1, updated to the next query candidate, and the process returns to step S403 again.

ステップS409に進むのは、ステップS405にて8台の撮像装置全てで類似するオブジェクトが見つかった場合である。 The process proceeds to step S409 when a similar object is found in all eight imaging devices in step S405.

図7(a)は、クエリリストの2個目のクエリQ2で8台の撮像装置全てで類似するオブジェクトの画像が見つかった場合である。 FIG. 7A shows a case where images of similar objects are found in all eight image pickup devices in the second query Q2 of the query list.

図7(b)は、クエリリストの1個目のクエリQ1から最後の3個目のクエリQ3まで、何れも全ての撮像装置で類似するオブジェクトの画像が見つからず、ステップS409に至った場合である。 FIG. 7B shows a case where an image of a similar object was not found in all the imaging devices from the first query Q1 to the last third query Q3 in the query list, and step S409 was reached. is there.

ステップS409では、条件を満たす撮像装置の台数が最大となる場合の対象オブジェクトの画像を色補正パラメータの推定に使用することを決定する。図7(a)の場合は、クエリQ2と類似するオブジェクトの画像が8台の撮像装置の色補正パラメータの推定に使用される。図7(b)の場合は、クエリQ1と類似するオブジェクトの画像が7台の撮像装置の色補正パラメータの算出に使用される。なお、この際に、条件を満たす撮像装置の台数が所定数以上であるか否かを判断し、所定数に満たない場合には、以下の処理を行わないようにしてもよい。 In step S409, it is determined that the image of the target object when the number of image pickup devices satisfying the condition is maximized is used for estimating the color correction parameter. In the case of FIG. 7A, an image of an object similar to query Q2 is used to estimate the color correction parameters of the eight image pickup devices. In the case of FIG. 7B, an image of an object similar to query Q1 is used to calculate the color correction parameters of the seven image pickup devices. At this time, it may be determined whether or not the number of imaging devices satisfying the conditions is equal to or greater than a predetermined number, and if the number is less than the predetermined number, the following processing may not be performed.

なお、同一のオブジェクトを同時刻又は同時間帯に撮像できない複数の撮像装置が、同時刻又は同時間帯で撮像したオブジェクトの画像から、類似するオブジェクトの画像が検索されている場合は、検索が間違っている可能性が高い。検索されたオブジェクトの画像を色補正パラメータの推定から除外する処理をステップS404で行っても良い。 If a plurality of imaging devices that cannot image the same object at the same time or at the same time zone search for images of similar objects from the images of objects captured at the same time or at the same time zone, the search is performed. Most likely wrong. The process of excluding the image of the searched object from the estimation of the color correction parameter may be performed in step S404.

ステップS410では、色補正パラメータの算出基準となる画像を選択する。 In step S410, an image that serves as a reference for calculating the color correction parameter is selected.

算出基準となる画像の選択であるが、検索でヒットしたオブジェクトの画像には必ずクエリと同一の画像が入っており、これを色補正パラメータの算出基準とすることができる。 Regarding the selection of the image to be the calculation standard, the image of the object hit by the search always contains the same image as the query, and this can be used as the calculation standard of the color correction parameter.

また、検索でヒットしたオブジェクトの画像のIDの最も小さいものを基準として選んでも、差し支えない。 Further, the image ID of the object hit in the search may be selected as the reference with the smallest ID.

ステップS411では、オブジェクトの画像を用いて、各撮像装置の撮像した画像に対する色補正パラメータを算出する。ステップS410で決定した基準となる画像を撮像した撮像装置に対し、他の撮像装置で撮像した画像の色補正パラメータを求める。 In step S411, the color correction parameter for the image captured by each imaging device is calculated using the image of the object. The color correction parameter of the image captured by another imaging device is obtained from the imaging device that has captured the reference image determined in step S410.

図7では記載されていないが、各オブジェクトの画像ID等も記憶されており、この画像IDによって記憶部202からオブジェクトの画像データなどを参照することができるので、記憶された画像を用いることができる。 Although not shown in FIG. 7, the image ID and the like of each object are also stored, and the image data and the like of the object can be referred from the storage unit 202 by this image ID. Therefore, the stored image can be used. it can.

ステップS412では、色補正パラメータを反映する。具体的には、補正画像生成部209が、色補正パラメータを用いて、各撮像装置の撮像したオブジェクトの画像の色を基準となる画像の色に合わせて、補正画像を生成する。 In step S412, the color correction parameter is reflected. Specifically, the correction image generation unit 209 generates a correction image by matching the color of the image of the object captured by each imaging device with the color of the reference image by using the color correction parameter.

ステップS411における色補正パラメータの算出、およびステップS412における補正画像の生成には、次の方法を利用することができる。例えば、特許文献2に示されるように、オブジェクト内の複数の対応点を求めて、その対応点同士の色の異なりから、ルックアップテーブルを構成して、色補正パラメータとしてもよい。補正画像を生成する際には、入力となる画像データのピクセルごとにルックアップテーブルを参照して、異なる色に置き変えていくことで補正画像が生成される。 The following methods can be used for calculating the color correction parameter in step S411 and generating the corrected image in step S412. For example, as shown in Patent Document 2, a plurality of corresponding points in an object may be obtained, and a look-up table may be configured as a color correction parameter based on the difference in color between the corresponding points. When generating a corrected image, the corrected image is generated by referring to the look-up table for each pixel of the input image data and replacing the corrected image with a different color.

あるいは、特許文献3に示されるように、色補正行列を求めて、色補正パラメータとしてもよい。補正画像を生成する際には、入力となる画像データのピクセルごとに色補正行列をかけることで、異なる色に置き変えていく。 Alternatively, as shown in Patent Document 3, a color correction matrix may be obtained and used as a color correction parameter. When generating a corrected image, it is replaced with a different color by applying a color correction matrix for each pixel of the input image data.

なお、本実施形態における色補正パラメータの算出方法および補正画像の生成方法はこれらに限定されるものではない。 The method of calculating the color correction parameter and the method of generating the corrected image in the present embodiment are not limited to these.

生成した補正画像を記憶部202に記憶しておき、照合部205にて、オブジェクトの照合の際に用いるようにする。あるいは、予め、照合部205にて用いる属性情報を算出する。例えば、図3に示すカラー画像から抽出する色に依存する画像特徴量を計算し直す。そして、それを記憶部202に記憶しておいてもよい。 The generated corrected image is stored in the storage unit 202 so that the collation unit 205 can use it when collating the objects. Alternatively, the attribute information used by the collating unit 205 is calculated in advance. For example, the color-dependent image feature amount extracted from the color image shown in FIG. 3 is recalculated. Then, it may be stored in the storage unit 202.

なお、図7(a)の例では、全ての撮像装置の撮像したオブジェクトの画像の補正画像を生成することができたが、図7(b)の例では撮像装置Aの撮像したオブジェクトの画像のみは未補正の画像として残ることになる。 In the example of FIG. 7A, it was possible to generate a corrected image of the image of the object captured by all the imaging devices, but in the example of FIG. 7B, the image of the object captured by the imaging device A was generated. Only will remain as an uncorrected image.

以上によって、同一のオブジェクトを撮像した異なる撮像装置の画像の色の異なりによるオブジェクトの画像の照合精度の劣化が抑制される。例えば、監視カメラなどでは、設置環境が異なるため、物陰・日差し・光源違い等の影響によって、同一のオブジェクトでも、異なる監視カメラで撮像した画像の色が異なることが起こる。こうした影響による照合精度の劣化が抑制されることになる。 As described above, deterioration of the matching accuracy of the image of the object due to the difference in the color of the image of the image of the different imaging apparatus that imaged the same object is suppressed. For example, since the installation environment of a surveillance camera or the like is different, the colors of images captured by different surveillance cameras may differ even for the same object due to the influence of shadows, sunlight, different light sources, and the like. Deterioration of collation accuracy due to such an influence is suppressed.

また、この色補正パラメータを用いて生成した補正画像は照合だけでなく、表示に用いてもよい。例えば、照合結果表示部204に結果を表示するときに、生成した補正画像を表示するようにしてもよい。このようにすることによって、同一のオブジェクトの表示画像の色の異なりがなくなり、閲覧者が快適に画像を見ることができる。 Further, the corrected image generated by using this color correction parameter may be used not only for collation but also for display. For example, when displaying the result on the collation result display unit 204, the generated corrected image may be displayed. By doing so, the color difference of the display image of the same object is eliminated, and the viewer can comfortably view the image.

なお、以上では、2以上の撮像装置によって1つのオブジェクトが検出された場合について説明を行ってきたが、オブジェクトが複数検出された場合には、検出された各オブジェクトについて上述と同様の処理を行えばよい。 In the above, the case where one object is detected by two or more imaging devices has been described, but when a plurality of objects are detected, the same processing as described above is performed for each of the detected objects. Just do it.

<その他の実施形態>
上記各実施形態では、オブジェクトとして人物を用いる例について説明した。しかしながら、オブジェクトは人物に限定されるものではない。オブジェクトとして、車・ポスター・看板等を用いても良い。あるいは、スーパーマーケットなどのカート等を用いてもよい。また、きぐるみなどのマスコットキャラクター等を用いてもよい。すなわち、上記各実施形態のようにオブジェクトとして人物を用いた場合には、同一オブジェクト(同一人物)を抽出し、その肌領域、服装等の色を用いて色補正を行うことになる。これに対して、オブジェクトとして人物以外のものを用いれば、同一種類のオブジェクトを選択しても、精度よく色補正を行うことができる。例えば、同じ種類の赤い車であれば、一般にその車の外装の色は同一であり、このような色情報を用いることにより、同一のオブジェクトでなくとも精度よく色補正を行うことができる。
<Other Embodiments>
In each of the above embodiments, an example in which a person is used as an object has been described. However, the object is not limited to a person. As an object, a car, a poster, a signboard, or the like may be used. Alternatively, a cart such as a supermarket may be used. In addition, a mascot character such as Kigurumi may be used. That is, when a person is used as an object as in each of the above embodiments, the same object (same person) is extracted, and color correction is performed using the color of the skin area, clothes, and the like. On the other hand, if an object other than a person is used as the object, color correction can be performed with high accuracy even if the same type of object is selected. For example, in the case of red cars of the same type, the color of the exterior of the car is generally the same, and by using such color information, it is possible to perform color correction with high accuracy even if the objects are not the same.

こうした人物以外のオブジェクトを用いるとき、オブジェクト照合部205で用いたオブジェクトの特徴量としては、オブジェクトに適したものを使用することが望ましい。例えば、輝度画像から抽出した画像特徴量(図3の左上に該当)としては、SIFT特徴量などを用いることが考えられる。 When using an object other than such a person, it is desirable to use an object suitable for the object as the feature amount of the object used in the object collation unit 205. For example, it is conceivable to use SIFT feature amount or the like as the image feature amount (corresponding to the upper left of FIG. 3) extracted from the luminance image.

また、輝度画像から抽出した属性(図3の右上に該当)としては、利用するオブジェクトによって決定する。例えば、車などであれば、ナンバープレートの文字列などを用いることが考えられる。また、車であれば、車種なども考えられる。また、ポスター・看板であれば出現する文字列等を用いることが考えられる。また、これらオブジェクトを同時に用いる場合は、そのオブジェクトの種別などを用いることも考えられる。 The attributes extracted from the luminance image (corresponding to the upper right of FIG. 3) are determined by the object to be used. For example, in the case of a car or the like, it is conceivable to use a character string of a license plate or the like. Also, if it is a car, the type of car can be considered. In addition, if it is a poster or a signboard, it is conceivable to use a character string or the like that appears. When these objects are used at the same time, it is conceivable to use the type of the object.

なお、オブジェクトによっては色違いの同一形状のオブジェクトが存在することがある。例えば、車は色違いの同一車種が存在する。そのため、こうしたオブジェクトを用いるときは、属性情報が一致することで類似していると判断すべきである。例えば、車であればナンバープレートの番号が一致しているときのみ、類似していると判断する。 Depending on the object, there may be objects with the same shape in different colors. For example, there are the same models of different colors. Therefore, when using such an object, it should be judged that they are similar by matching the attribute information. For example, in the case of a car, it is judged that they are similar only when the numbers on the license plates match.

また、カラー画像から抽出した画像特徴量(図3の左下に該当)としては、オブジェクトの色ヒストグラムなどを用いることが考えられる。あるいは、領域ごとの色ヒストグラムを用いるようにしてもよい。例えば、車などであれば、領域としてボンネット・ドア・タイヤなどの領域を定義できるため、これら領域ごとに色ヒストグラムを得ることが考えられる。同様に、マスコットなども頭・胴体などの領域を定義して用いることも考えられる。 Further, as the image feature amount extracted from the color image (corresponding to the lower left of FIG. 3), it is conceivable to use the color histogram of the object or the like. Alternatively, the color histogram for each region may be used. For example, in the case of a car or the like, since areas such as the bonnet, door, and tire can be defined as areas, it is conceivable to obtain color histograms for each of these areas. Similarly, it is conceivable to use a mascot or the like by defining areas such as the head and torso.

カラー画像から抽出した属性(図3の右下に該当)としては、例えば車であれば色まで特定した車種の情報を属性とすることが考えられる。 As the attribute extracted from the color image (corresponding to the lower right of FIG. 3), for example, in the case of a car, it is conceivable to use the information of the vehicle type in which the color is specified as the attribute.

なお、オブジェクトの特徴量としては、これら以外の特徴量を用いてもよく、本発明はこれら利用する特徴量に限定されるものではない。 As the feature amount of the object, a feature amount other than these may be used, and the present invention is not limited to these feature amounts to be used.

色補正パラメータ算出部208では、オブジェクト同士の色味が合うように色補正パラメータを求める。人物であれば、肌領域や服領域などを用いていた。上記人物以外のオブジェクトにおいても、予め用いる領域を決定しておいてもよい。例えば、マスコットなどであれば、そのマスコットの種別などが特定されれば、色味が豊富なパーツがあれば、そのパーツを用いるようにすることなどが考えられる。あるいは、全領域を用いて色補正パラメータを求めるようにしてもよい。 The color correction parameter calculation unit 208 obtains the color correction parameters so that the colors of the objects match each other. For humans, the skin area and clothing area were used. For objects other than the above person, the area to be used may be determined in advance. For example, in the case of a mascot, if the type of the mascot is specified, and if there is a part with abundant colors, it is conceivable to use that part. Alternatively, the color correction parameter may be obtained using the entire area.

なお、色補正パラメータをこれら以外の方法で算出してもよく、本発明はこれら色補正パラメータの算出方法に限定されるものではない。 The color correction parameters may be calculated by methods other than these, and the present invention is not limited to the calculation methods of these color correction parameters.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

201 入力部
202 記憶部
203 照合条件入力部
204 照合結果表示部
205 照合部
206 クエリリスト作成部
207 特定部
208 色補正パラメータ算出部
209 補正画像生成部
201 Input section 202 Storage section 203 Matching condition input section 204 Matching result display section 205 Matching section 206 Query list creation section 207 Specific section 208 Color correction parameter calculation section 209 Corrected image generation section

Claims (7)

複数の撮像装置により撮像された複数の撮像画像に含まれるオブジェクトであって、類似度が閾値以上のオブジェクトを少なくとも1つ検出する検出手段と、
前記検出されたオブジェクトの中から、予め定められた頻度より出現頻度が低い属性を有するオブジェクトを選択する選択手段と、
前記選択されたオブジェクトが含まれる前記複数の撮像画像の当該オブジェクトに対応する色が一致するように、前記複数の撮像画像の色合わせに用いる色補正情報を決定する決定手段と、
前記色補正情報を用いて、前記複数の撮像画像の色を補正する補正手段と、
を有することを特徴とする画像処理装置。
A detection means for detecting at least one object included in a plurality of captured images captured by a plurality of imaging devices and having a similarity equal to or higher than a threshold value.
A selection means for selecting an object having an attribute that appears less frequently than a predetermined frequency from the detected objects, and a selection means.
A determination means for determining color correction information used for color matching of the plurality of captured images so that the colors corresponding to the objects of the plurality of captured images including the selected object match.
A correction means for correcting the colors of the plurality of captured images using the color correction information, and
An image processing device characterized by having.
前記選択手段は、前記検出されたオブジェクトそれぞれにおける、画素単位のカラーヒストグラムに基づいて、無彩色の画素数が前記オブジェクトの画像データの全画素数に対し、所定割合未満のオブジェクトを選択することを特徴とする請求項1に記載の画像処理装置。 The selection means selects an object in which the number of achromatic pixels is less than a predetermined ratio with respect to the total number of pixels in the image data of the object , based on the color histogram of each pixel in each of the detected objects. The image processing apparatus according to claim 1. 前記オブジェクトは人物であって、前記決定手段は、前記人物の画像における前記人物の顔領域又は胴体領域の色情報に基づいて、前記色補正情報を決定することを特徴とする請求項1または2に記載の画像処理装置。 It said object is a person, the determining means, based on the color information of the face area or torso region of the person in the image of the person, according to claim 1 or 2, characterized in that to determine the color correction information The image processing apparatus according to. 前記オブジェクトは人物であって、前記属性は、前記人物の年齢、性別、メガネの有無、口ひげの有無又はあごひげの有無の少なくとも1つであることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 Any one of claims 1 to 3, wherein the object is a person, and the attribute is at least one of the person's age, gender, the presence or absence of glasses, the presence or absence of a mustache, or the presence or absence of a mustache. The image processing apparatus according to the section. 前記決定手段は、前記選択されたオブジェクトのうち、撮影された撮像装置の数が最大のオブジェクトの色情報に基づいて、前記色補正情報を決定することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。 Said determining means among the selected object, based on the color information number of the largest object in the photographed image pickup device, one of claims 1 to 4, characterized in that to determine the color correction information The image processing apparatus according to item 1. 複数の撮像装置により撮像された複数の撮像画像に含まれるオブジェクトであって、類似度が閾値以上のオブジェクトを少なくとも1つ検出する検出ステップと、
前記検出されたオブジェクトの中から、予め定められた頻度より出現頻度が低い属性を有するオブジェクトを選択する選択ステップと、
前記選択されたオブジェクトが含まれる前記複数の撮像画像の当該オブジェクトに対応する色が一致するように、前記複数の撮像画像の色合わせに用いる色補正情報を決定する決定ステップと、
前記色補正情報を用いて、前記複数の撮像画像の色を補正する補正ステップと、
を有することを特徴とする画像処理方法。
A detection step of detecting at least one object included in a plurality of captured images captured by a plurality of imaging devices and having a similarity equal to or higher than a threshold value.
A selection step of selecting an object having an attribute that appears less frequently than a predetermined frequency from the detected objects, and a selection step.
A determination step of determining color correction information to be used for color matching of the plurality of captured images so that the colors corresponding to the objects of the plurality of captured images including the selected object match.
A correction step for correcting the colors of the plurality of captured images using the color correction information, and
An image processing method characterized by having.
コンピュータを、請求項1からのいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing device according to any one of claims 1 to 5.
JP2016111364A 2015-06-11 2016-06-02 Image processing equipment, image processing methods and programs Active JP6855175B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015118355 2015-06-11
JP2015118355 2015-06-11

Publications (2)

Publication Number Publication Date
JP2017004512A JP2017004512A (en) 2017-01-05
JP6855175B2 true JP6855175B2 (en) 2021-04-07

Family

ID=57752825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016111364A Active JP6855175B2 (en) 2015-06-11 2016-06-02 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6855175B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101903428B1 (en) 2017-03-30 2018-11-07 (주)잼투고 System and Method of Color Correction for Related Images
CN109753850B (en) * 2017-11-03 2022-10-25 富士通株式会社 Training method and training device for face recognition model

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5148573B2 (en) * 2009-08-31 2013-02-20 富士フイルム株式会社 Image processing system, image processing method, and program

Also Published As

Publication number Publication date
JP2017004512A (en) 2017-01-05

Similar Documents

Publication Publication Date Title
EP2490171B1 (en) Person image search starting from clothing query text.
US10242287B2 (en) Image processing apparatus, image processing method, and recording medium
JP5483961B2 (en) Image processing apparatus, subject discrimination method, program, and storage medium
JP4098021B2 (en) Scene identification method, apparatus, and program
JP2016134803A (en) Image processor and image processing method
US11023713B2 (en) Suspiciousness degree estimation model generation device
US20240104769A1 (en) Information processing apparatus, control method, and non-transitory storage medium
JP2016099835A (en) Image processor, image processing method, and program
US7403636B2 (en) Method and apparatus for processing an image
US10140555B2 (en) Processing system, processing method, and recording medium
JP6855175B2 (en) Image processing equipment, image processing methods and programs
AU2019303730B2 (en) Hash-based appearance search
JP2020047082A (en) Information processing apparatus, information processing method, and program
JP2019066909A (en) Object distribution estimation apparatus
KR101484003B1 (en) Evaluating system for face analysis
CN105868768A (en) Method and system for recognizing whether picture carries specific marker
JP6789676B2 (en) Image processing equipment, image processing methods and programs
US11954901B2 (en) Training data generation apparatus
CN114758124A (en) Occlusion detection method, device, equipment and computer readable medium for target object
WO2015136716A1 (en) Image processing device, image sensor, and image processing method
CN113095147A (en) Skin area detection method, system, image processing terminal and storage medium
JP6717769B2 (en) Information processing device and program
JP2019103029A (en) Information processing device, color correction method, and computer program
CN110517153B (en) Information generation method, information generation device, computer equipment and readable storage medium
JP7211496B2 (en) Training data generator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210317

R151 Written notification of patent or utility model registration

Ref document number: 6855175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151