[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013172311A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2013172311A
JP2013172311A JP2012035127A JP2012035127A JP2013172311A JP 2013172311 A JP2013172311 A JP 2013172311A JP 2012035127 A JP2012035127 A JP 2012035127A JP 2012035127 A JP2012035127 A JP 2012035127A JP 2013172311 A JP2013172311 A JP 2013172311A
Authority
JP
Japan
Prior art keywords
image
sample
image processing
person
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012035127A
Other languages
Japanese (ja)
Other versions
JP5845960B2 (en
Inventor
Myung-Sup Jung
明燮 鄭
Eigo Segawa
英吾 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012035127A priority Critical patent/JP5845960B2/en
Publication of JP2013172311A publication Critical patent/JP2013172311A/en
Application granted granted Critical
Publication of JP5845960B2 publication Critical patent/JP5845960B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing method, and an image processing program capable of automating luminance correction of an imaging apparatus.SOLUTION: The image processing apparatus comprises: a first extraction unit which extracts, from among plural images obtained in series by the imaging apparatus, an image of a portion expressing the clothing of a person included in each image, as a sample image; and a detection unit which detects a sample image with the largest luminance from among the sample images obtained by the first extraction unit and outputs information expressing the color represented by the detected sample image, as information representing the criterion of white in the images obtained by the imaging apparatus.

Description

本件開示は、撮影装置によって時系列的に取得される複数の画像を処理する画像処理装置および画像処理方法並びに画像処理プログラムに関する。   The present disclosure relates to an image processing apparatus, an image processing method, and an image processing program that process a plurality of images acquired in a time series by a photographing apparatus.

複数の撮影装置をそれぞれ異なる場所に設置することにより、広い範囲についての監視を実現する監視システムのために、これらの撮影装置間で色補正を行う技術が提案されている(特許文献1参照)。   For a monitoring system that realizes monitoring over a wide range by installing a plurality of imaging devices in different places, a technique for performing color correction between these imaging devices has been proposed (see Patent Document 1). .

例えば、特許文献1には、色および輝度が既知のカラーチャートを個々の撮影装置によって撮影することで得られた画像に基づいて色補正パラメータを取得する技法において、日照変動などが色補正パラメータに与える影響を補正する技術が記載されている。   For example, Patent Document 1 discloses a technique for obtaining a color correction parameter based on an image obtained by photographing a color chart with a known color and brightness using an individual photographing device. A technique for correcting the influence is described.

特開2007−183872号公報JP 2007-183872 A

上述した従来技術は、複数の撮影装置によって得られる画像において輝度の同一性を保証するために、カラーチャートなどのような既知の輝度を持つ対象を撮影する必要がある。しかしながら、多数の撮影装置が互いに離れた場所に設置されている場合に、これらの撮影装置の全てに既知の輝度を持つ対象を撮影させる作業は非常に多くの人手を必要としてしまう。   The above-described conventional technology needs to photograph an object having a known luminance such as a color chart in order to guarantee the sameness of luminance in images obtained by a plurality of photographing apparatuses. However, when a large number of imaging devices are installed at locations apart from each other, the operation of causing all of these imaging devices to capture an object having a known luminance requires a great deal of manpower.

本件開示は、撮影装置の輝度補正の自動化を実現可能な画像処理装置および画像処理方法並びに画像処理プログラムを提供することを目的とする。   It is an object of the present disclosure to provide an image processing apparatus, an image processing method, and an image processing program that can realize automation of luminance correction of a photographing apparatus.

一つの観点による画像処理装置は、撮影装置によって時系列的に取得された複数の画像から、各画像に含まれる人物の服装を表す部分の画像を当該服装の色を示す標本画像としてそれぞれ抽出する第1抽出部と、前記第1抽出部で得られた標本画像の中から最大輝度を有する標本画像を検出し、検出した標本画像で示される色を表す情報を、前記撮影装置で得られる画像における白色の基準を示す情報として出力する検出部とを備える。   An image processing apparatus according to one aspect extracts, from a plurality of images acquired in a time series by a photographing apparatus, an image of a portion representing a person's clothes included in each image as a sample image indicating the color of the clothes. An image obtained by detecting the sample image having the maximum luminance from the sample image obtained by the first extraction unit and the first extraction unit, and obtaining information indicating the color indicated by the detected sample image by the imaging device And a detector that outputs information indicating the white reference.

また、別の観点による画像処理方法は、撮影装置によって時系列的に取得された複数の画像から、各画像に含まれる人物の服装を表す部分の画像を当該服装の色を示す標本画像としてそれぞれ抽出し、前記抽出で得られた標本画像の中から最大輝度を有する標本画像を検出し、検出した標本画像で示される色を表す情報を、前記撮影装置で得られる画像における白色の基準を示す情報として出力する。   In addition, an image processing method according to another aspect includes a plurality of images acquired in a time series by a photographing device, and images of a part representing a person's clothes included in each image are used as sample images indicating the color of the clothes. The sample image having the maximum luminance is extracted from the sample image obtained by the extraction, and information indicating the color indicated by the detected sample image is used to indicate a white reference in the image obtained by the photographing apparatus. Output as information.

更に別の観点による画像処理プログラムは、撮影装置によって時系列的に取得された複数の画像から、各画像に含まれる人物の服装を表す部分の画像を当該服装の色を示す標本画像としてそれぞれ抽出し、前記抽出で得られた標本画像の中から最大輝度を有する標本画像を検出し、検出した標本画像で示される色を表す情報を、前記撮影装置で得られる画像における白色の基準を示す情報として出力する処理をコンピュータに実行させる。   Further, an image processing program according to another aspect extracts, from a plurality of images acquired in time series by a photographing device, an image of a portion representing a person's clothes included in each image as a sample image indicating the color of the clothes. Detecting a sample image having the maximum luminance from the sample images obtained by the extraction, and indicating information indicating the color indicated by the detected sample image, information indicating a white reference in the image obtained by the imaging device As a computer.

本件開示の画像処理装置および画像処理方法並びに画像処理プログラムによれば、撮影装置の輝度補正の自動化を実現することができる。   According to the image processing apparatus, the image processing method, and the image processing program of the present disclosure, it is possible to realize automation of luminance correction of the photographing apparatus.

画像処理装置の一実施形態を示す図である。It is a figure which shows one Embodiment of an image processing apparatus. 標本画像の抽出を説明する図である。It is a figure explaining extraction of a sample image. 画像処理装置の別実施形態を示す図である。It is a figure which shows another embodiment of an image processing apparatus. 背景参照画像の輝度と標本画像の輝度との相関関係を説明する図である。It is a figure explaining the correlation of the brightness | luminance of a background reference image and the brightness | luminance of a sample image. 画像処理装置の別実施形態を示す図である。It is a figure which shows another embodiment of an image processing apparatus. 人物を表す画像の範囲と標本画像との関係を示す図である。It is a figure which shows the relationship between the range of the image showing a person, and a sample image. 背景参照画像を抽出する領域の特定を説明する図である。It is a figure explaining specification of the field which extracts a background reference picture. 画像処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an image processing apparatus. 白色基準値を得る処理のフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart of a process which obtains a white reference value. 白色基準値を得る処理のフローチャートの別例を示す図である。It is a figure which shows another example of the flowchart of a process which obtains a white reference value.

以下、図面に基づいて、本発明の実施形態について詳細に説明する。
図1は、画像処理装置の一実施形態を示している。図1において、画像処理装置10は、個々の撮影装置1に対応して配置されている。この画像処理装置10は、対応する撮影装置1で得られる画像における白色の基準を示す情報を生成し、生成した情報を色補正装置2に渡す。なお、画像処理装置10は、撮影装置1に対応して設ければよいので、撮影装置1が1台であれば、画像処理装置10も1つでよい。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 shows an embodiment of an image processing apparatus. In FIG. 1, the image processing device 10 is arranged corresponding to each photographing device 1. The image processing apparatus 10 generates information indicating a white reference in an image obtained by the corresponding photographing apparatus 1 and passes the generated information to the color correction apparatus 2. Note that the image processing apparatus 10 may be provided corresponding to the photographing apparatus 1, and therefore, if the number of the photographing apparatus 1 is one, only one image processing apparatus 10 may be provided.

図1に例示した画像処理装置10は、第1抽出部11と検出部12とを含んでいる。この第1抽出部11は、対応する撮影装置1によって時系列的に取得された複数の画像から、各画像に含まれる人物の服装を表す部分の画像それぞれを当該服装の色を示す標本画像として抽出する。また、検出部12は、第1抽出部11で得られた複数の標本画像の中から最大輝度を有する標本画像を検出し、検出した標本画像の色を表す情報を、この撮影装置1で得られる画像における白色の基準を示す情報として出力する。   The image processing apparatus 10 illustrated in FIG. 1 includes a first extraction unit 11 and a detection unit 12. The first extraction unit 11 uses, as a sample image indicating the color of the clothing, each of the images representing the clothing of the person included in each image from a plurality of images acquired in time series by the corresponding imaging device 1. Extract. The detection unit 12 detects a sample image having the maximum luminance from the plurality of sample images obtained by the first extraction unit 11, and obtains information representing the color of the detected sample image by the photographing apparatus 1. Is output as information indicating the white reference in the image.

第1抽出部11は、例えば、撮影装置1によって取得された各撮影画像に含まれる人物を表す画像それぞれから、当該人物の上半身に相当する部分の画像を、標本画像として抽出してもよい。   For example, the first extraction unit 11 may extract, as a sample image, an image of a portion corresponding to the upper body of the person from each of the images representing the person included in each captured image acquired by the imaging device 1.

図2は、標本画像の抽出を説明する図である。なお、図2において、符号P1,Pj,Pkは、それぞれ撮影装置1によって時系列的に取得された複数枚の撮影画像に含まれる個々の撮影画像の例を示す。また、図2において符号tを付した矢印は、時間の経過を示している。   FIG. 2 is a diagram for explaining extraction of a specimen image. In FIG. 2, reference signs P <b> 1, Pj, and Pk indicate examples of individual captured images included in a plurality of captured images acquired in time series by the imaging apparatus 1. Moreover, the arrow which attached | subjected the code | symbol t in FIG. 2 has shown progress of time.

図2に例示した撮影画像P1,Pj,Pkは、それぞれ人物の像Ci,Cj,Ckを含んでいる。図1に例示した第1抽出部11は、例えば、図2に示した撮影画像P1,Pj,Pkからそれぞれに含まれる人物の像Ci,Cj,Ckを抽出する。そして、第1抽出部11は、抽出した人物の像Ci,Cj,Ckのうち、人物の上半身に対応する部分を抽出することにより、これらの人物の服装を表す部分に対応する標本画像Si,Sj,Skをそれぞれ抽出する。   The captured images P1, Pj, and Pk illustrated in FIG. 2 include human images Ci, Cj, and Ck, respectively. The first extraction unit 11 illustrated in FIG. 1 extracts, for example, human images Ci, Cj, and Ck included in the captured images P1, Pj, and Pk illustrated in FIG. And the 1st extraction part 11 extracts sample image Si, corresponding to the part showing the clothes of these persons by extracting the part corresponding to the upper body of a person among the extracted images Ci, Cj, Ck of the person. Sj and Sk are extracted, respectively.

ここで、図1に示した各撮影装置1が、例えば、ショッピングセンターや企業のオフィスなどのように、人の出入りの多い場所に設置されている場合には、多数の人物が各撮影装置1の視野を通過する。そして、各撮影装置1の視野を通過する多数の人物の中には、高い確度で服装の色が白色である人物が含まれている。例えば、数時間から数日に亘る期間を考えれば、各撮影装置1によってこの期間内に取得された撮影画像の中に、服装の色が白色である人物の像が含まれている確率は非常に高い。   Here, when each photographing apparatus 1 shown in FIG. 1 is installed in a place where many people go in and out, such as a shopping center or a corporate office, a large number of people are associated with each photographing apparatus 1. Pass through the field of view. And many persons who pass through the visual field of each photographing device 1 include persons whose clothes color is white with high accuracy. For example, considering a period from several hours to several days, the probability that a photographed image acquired by each photographing apparatus 1 within this period includes an image of a person whose clothing color is white is very high. Very expensive.

したがって、上述したようにして、第1抽出部11が抽出した多数の標本画像の中で最大輝度を有する標本画像は、服装の色が白色である人物の像から抽出した標本画像である可能性は非常に高い。つまり、検出部12によって最大輝度を有する標本画像として検出される標本画像の色は、高い確度で白色である。したがって、検出部12によって最大輝度を有する標本画像として検出された標本画像の色を示す情報により、撮影装置1で得られる撮影画像における白色の基準を示すことができる。例えば、検出部12によって検出された標本画像の平均輝度値を、撮影装置1で得られる撮影画像における白色の基準を示す白色基準値とすることができる。   Therefore, as described above, the sample image having the maximum luminance among the many sample images extracted by the first extraction unit 11 may be a sample image extracted from an image of a person whose clothing color is white. Is very expensive. That is, the color of the sample image detected as the sample image having the maximum luminance by the detection unit 12 is white with high accuracy. Therefore, the white reference in the captured image obtained by the image capturing apparatus 1 can be indicated by the information indicating the color of the sample image detected as the sample image having the maximum luminance by the detection unit 12. For example, the average luminance value of the sample image detected by the detection unit 12 can be used as a white reference value indicating a white reference in the captured image obtained by the imaging apparatus 1.

このように、本件開示の画像処理装置10は、対応する撮影装置1で時系列的に取得される撮影画像に服装の色が白色である人物の像が含まれる可能性の高さを利用して、当該撮影装置1で得られる撮影画像における白色の基準を示す白色基準値を取得する。つまり、本件開示の画像処理装置10は、対応する撮影装置1によってカラーチャートなどの特定の対象を撮影した画像を収集する必要がない。したがって、本件開示の画像処理装置10は、撮影装置1で得られる撮影画像における白色の基準を示す白色基準値を取得するための画像処理を自動的に行うことができる。同様に、図1に例示した各撮影装置1に対応する画像処理装置10により、個々の撮影装置1に対応する白色基準値を自動的に得ることができる。   As described above, the image processing apparatus 10 according to the present disclosure uses the high possibility that the captured image acquired in time series by the corresponding imaging apparatus 1 includes an image of a person whose clothing color is white. Thus, a white reference value indicating a white reference in the captured image obtained by the photographing apparatus 1 is acquired. That is, the image processing apparatus 10 disclosed herein does not need to collect images obtained by photographing a specific target such as a color chart by the corresponding photographing apparatus 1. Therefore, the image processing apparatus 10 according to the present disclosure can automatically perform image processing for obtaining a white reference value indicating a white reference in a captured image obtained by the imaging apparatus 1. Similarly, the white reference value corresponding to each photographing device 1 can be automatically obtained by the image processing device 10 corresponding to each photographing device 1 illustrated in FIG.

そして、図1に例示した色補正装置2は、このようにして各撮影装置1に対応して得られた白色基準値に基づいて、各撮影装置1からそれぞれ得られる撮影画像の輝度補正を行う。これにより、各撮影装置1によって既知の輝度を持つ対象を撮影した際に得られる撮影画像に基づいて、当該撮影装置1で得られる撮影画像の輝度補正を行った場合と同等の輝度補正を実現することができる。   Then, the color correction device 2 illustrated in FIG. 1 performs brightness correction of the captured image obtained from each imaging device 1 based on the white reference value obtained corresponding to each imaging device 1 in this way. . Thereby, on the basis of a captured image obtained when an object having a known luminance is imaged by each imaging device 1, luminance correction equivalent to the case where the luminance correction of the captured image obtained by the imaging device 1 is performed is realized. can do.

このように、本件開示の画像処理装置10によれば、色補正装置2が、個々の撮影装置1で得られた撮影画像に対して適用する輝度補正処理の基準となる白色基準値を取得する処理を自動化することができる。つまり、本件開示の画像処理装置10によれば、互いに離れた場所に設置された複数の撮影装置1それぞれについての輝度補正の自動化を実現することができる。   As described above, according to the image processing apparatus 10 disclosed herein, the color correction apparatus 2 acquires a white reference value that is a reference for luminance correction processing applied to the captured image obtained by each imaging apparatus 1. Processing can be automated. That is, according to the image processing apparatus 10 of the present disclosure, it is possible to realize automation of luminance correction for each of the plurality of imaging apparatuses 1 installed at locations separated from each other.

各画像処理装置10によって生成された白色基準値に基づいて、色補正装置2は、以降に、各撮影装置1によって得られる撮影画像についての輝度補正を行い、輝度補正後の撮影画像を画像蓄積装置3に蓄積する。このようにして、画像蓄積装置3に蓄積された撮影画像では、少なくとも、白色は同一の輝度で表される。したがって、異なる撮影装置1から得られた撮影画像にそれぞれ含まれる人物の服装を表す部分の画像の色に基づいて、それぞれの被写体となった人物の服装の色が同一か否かを判定することが可能となる。これにより、例えば、建物の各フロアにそれぞれ設置された複数の撮影装置1によって得られた撮影画像から服装の色が同一である人物の像を抽出することが可能となる。   Based on the white reference value generated by each image processing device 10, the color correction device 2 subsequently performs luminance correction on the captured image obtained by each imaging device 1, and stores the captured image after luminance correction as an image. Accumulate in device 3. In this way, in the captured image stored in the image storage device 3, at least white is expressed with the same luminance. Therefore, based on the color of the image of the portion representing the clothes of the person included in each of the photographed images obtained from the different photographing devices 1, it is determined whether the colors of the clothes of the persons who are the subjects are the same. Is possible. Thereby, for example, it is possible to extract an image of a person having the same clothing color from captured images obtained by a plurality of imaging devices 1 installed on each floor of a building.

例えば、建物のフロアを跨いで移動する人物を追跡するシステムなどでは、人物の服装の色は追跡対象の人物を絞り込む上で重要な手がかりとなる。したがって、本件開示の画像処理装置10は、上述したような画像に基づく追跡システムを実現する上で有用である。   For example, in a system for tracking a person who moves across a floor of a building, the color of the person's clothes is an important clue for narrowing down the person to be tracked. Therefore, the image processing apparatus 10 disclosed herein is useful for realizing a tracking system based on an image as described above.

ところで、各撮影装置1の設置場所の明るさは、時間的に変化する可能性がある。そこで、各撮影装置1が設置された設置場所における明るさの変動を考慮しながら、当該撮影装置1に対応する白色基準値を取得する方法について説明する。   By the way, the brightness of the installation location of each imaging device 1 may change over time. Therefore, a method for obtaining a white reference value corresponding to the photographing apparatus 1 will be described while taking into account fluctuations in brightness at the installation location where each photographing apparatus 1 is installed.

図3は、画像処理装置の別実施形態を示している。なお、図3に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 3 shows another embodiment of the image processing apparatus. 3 that are equivalent to the components shown in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.

図3に例示した検出部12は、第2抽出部121と、正規化部122と、特定部123とを含んでいる。第2抽出部121は、撮影装置1によって時系列的に取得された複数枚の画像から、後述する背景に含まれる領域の画像を背景参照画像としてそれぞれ抽出する。正規化部122は、第2抽出部121で得られた背景参照画像の平均輝度に基づいて、第1抽出部11で得られる各標本画像の輝度を正規化することにより、標本画像の輝度に現れる撮影装置1の設置場所の明るさの変動による影響を補正する。特定部123は、正規化された各標本画像の輝度の最大値を、撮影装置1で得られる画像において白色を示す最大輝度として特定する。   The detection unit 12 illustrated in FIG. 3 includes a second extraction unit 121, a normalization unit 122, and a specifying unit 123. The second extraction unit 121 extracts, as a background reference image, an image of a region included in the background, which will be described later, from a plurality of images acquired in time series by the photographing apparatus 1. The normalization unit 122 normalizes the luminance of each sample image obtained by the first extraction unit 11 based on the average luminance of the background reference image obtained by the second extraction unit 121, thereby obtaining the luminance of the sample image. The influence by the brightness fluctuation of the installation location of the photographing device 1 that appears is corrected. The specifying unit 123 specifies the maximum value of the brightness of each normalized sample image as the maximum brightness indicating white in the image obtained by the photographing apparatus 1.

ここで、撮影装置1によって得られる各撮影画像は、人物などの移動する被写体を含む前景と、壁や天井のように、移動する被写体の像の軌跡が通らないために、移動する被写体の像を含まない領域に対応する背景とを含んでいる。この背景は、撮影装置1の視野において、人物を含む被写体が移動する際に、この被写体の移動に伴う像の軌跡が通らない領域であり、被写体が移動しても画像に変化が現れない領域である。   Here, each captured image obtained by the image capturing apparatus 1 is an image of a moving subject because the trajectory of the moving subject image such as a wall or ceiling does not pass through the foreground including a moving subject such as a person. And a background corresponding to an area that does not include. This background is a region in which the locus of the image accompanying the movement of the subject does not pass when the subject including the person moves in the field of view of the photographing apparatus 1, and the image does not change even if the subject moves. It is.

そして、撮影装置1の設置場所における明るさの変化は、撮影装置1の視野に含まれる前景の明るさにも、背景の明るさにも同様に反映される。つまり、撮影装置1の設置場所における明るさの変化に伴って、前景に含まれる人物などの像から抽出された標本画像の輝度が変化する場合には、上述した第2抽出部121によって背景部分から抽出される背景参照画像にも、同等の輝度の変化が現れる。   The change in brightness at the installation location of the photographing apparatus 1 is similarly reflected in the brightness of the foreground included in the field of view of the photographing apparatus 1 and the brightness of the background. That is, when the brightness of the sample image extracted from the image of a person or the like included in the foreground changes with the change in brightness at the installation location of the photographing apparatus 1, the background portion is processed by the second extraction unit 121 described above. An equivalent luminance change also appears in the background reference image extracted from.

したがって、第2抽出部121によって各撮影画像から抽出される背景参照画像の平均輝度の変動と、撮影装置1の設置場所における明るさの変化による標本画像の輝度の変動との間には強い相関関係がある。   Therefore, there is a strong correlation between the variation in the average luminance of the background reference image extracted from each captured image by the second extraction unit 121 and the variation in the luminance of the sample image due to the change in brightness at the installation location of the imaging device 1. There is a relationship.

図4は、背景参照画像の輝度と標本画像の輝度との相関関係を説明する図である。なお、図4において、符号P1,P2は、同一の撮影装置1によって別の時刻に撮影された撮影画像を示している。   FIG. 4 is a diagram for explaining the correlation between the luminance of the background reference image and the luminance of the sample image. In FIG. 4, reference symbols P <b> 1 and P <b> 2 indicate captured images captured at different times by the same imaging device 1.

図4(A)に示した撮影画像P1は、撮影装置1の設置場所の照明が暗い状態となっているときに得られた撮影画像の一例である。この撮影画像P1は、人物C1の画像を含んでいる。また、図4(A)に示した符号S1は、この人物C1の画像から抽出された標本画像の例である。また、符号B1は、撮影画像P1から抽出された背景参照画像の例である。   A photographed image P1 shown in FIG. 4A is an example of a photographed image obtained when the illumination at the place where the photographing apparatus 1 is installed is dark. This captured image P1 includes an image of the person C1. Moreover, the code | symbol S1 shown to FIG. 4 (A) is an example of the sample image extracted from this person C1 image. Reference sign B1 is an example of a background reference image extracted from the captured image P1.

一方、図4(B)に示した撮影画像P2は、撮影装置1の設置場所の照明が明るい状態となっているときに得られた撮影画像の一例である。この撮影画像P2は、人物C2の画像を含んでいる。また、図4(B)に示した符号S2は、この人物C2の画像から抽出された標本画像の例である。そして、図4(B)に示した符号B2は、この撮影画像P2から抽出された背景参照画像の例である。   On the other hand, the photographed image P2 shown in FIG. 4B is an example of a photographed image obtained when the illumination of the place where the photographing apparatus 1 is installed is bright. This captured image P2 includes an image of the person C2. Moreover, the code | symbol S2 shown to FIG. 4 (B) is an example of the sample image extracted from the image of this person C2. Reference numeral B2 shown in FIG. 4B is an example of the background reference image extracted from the captured image P2.

これらの背景参照画像B1,B2は、いずれも、対応する撮影画像P1,P2の視野内の背景を表す画像領域に含まれる同一の位置および大きさの部分である。例えば、背景参照画像B1,B2は、撮影画像P1,P2に含まれる天井を表す画像の一部である。   These background reference images B1 and B2 are portions of the same position and size included in the image area representing the background in the field of view of the corresponding captured images P1 and P2. For example, the background reference images B1 and B2 are part of an image representing a ceiling included in the captured images P1 and P2.

図4(A)に示した標本画像S1と、図4(B)に示した標本画像S2とをそのまま比較すると、標本画像S2のほうが明るい色として撮影されていることが分かる。しかし、撮影画像P1および撮影画像P2にそれぞれ含まれる背景参照画像B1,B2の輝度を比べると、撮影画像P1が取得されたときに比べて、撮影画像P2が取得されたときの方が、撮影装置1の設置場所の照明が明るいことが分かる。   When the sample image S1 shown in FIG. 4A and the sample image S2 shown in FIG. 4B are directly compared, it can be seen that the sample image S2 is photographed as a brighter color. However, when the luminances of the background reference images B1 and B2 included in the captured image P1 and the captured image P2 are compared, when the captured image P2 is acquired, compared to when the captured image P1 is acquired, the captured image is captured. It turns out that the illumination of the installation place of the apparatus 1 is bright.

このような場合に、例えば、撮影画像P2に含まれる背景参照画像B2の明るさを基準にして、撮影画像P1の明るさを正規化することにより、標本画像S1,S2の輝度を互いに比較することができる。   In such a case, for example, by normalizing the brightness of the photographed image P1 on the basis of the brightness of the background reference image B2 included in the photographed image P2, the luminances of the sample images S1 and S2 are compared with each other. be able to.

図4(C)は、図4(A)に示した撮影画像P1の背景参照画像B1の明るさを、上述した背景参照画像B2の明るさと一致させるように正規化することで得られた画像P1’を示している。図4(B)に示した標本画像S2と、図4(C)に示した正規化後の標本画像S1とを比較すれば、人物C2の服装よりも、人物C1の服装のほうが白色に近いことが分かる。つまり、このような正規化を行うことにより、撮影装置1が各撮影画像を取得した際の周囲の明るさにかかわらず、被写体となった人物の服装の色を忠実に示す標本画像を得ることができる。   FIG. 4C shows an image obtained by normalizing the brightness of the background reference image B1 of the photographed image P1 shown in FIG. 4A so as to match the brightness of the background reference image B2 described above. P1 'is shown. If the sample image S2 shown in FIG. 4 (B) is compared with the normalized sample image S1 shown in FIG. 4 (C), the clothes of the person C1 are closer to white than the clothes of the person C2. I understand that. That is, by performing such normalization, it is possible to obtain a sample image that faithfully represents the color of the clothes of the person who is the subject, regardless of the surrounding brightness when the photographing apparatus 1 acquires each photographed image. Can do.

例えば、図3に例示した正規化部122は、まず、第2抽出部121が各撮影画像から抽出した背景参照画像についてそれぞれ平均輝度を算出する。次いで、正規化部122は、この平均輝度と所定の参照値との比を、撮影装置1の設置場所における明るさの変動を示す係数として算出する。このようにして各撮影画像に対応して算出した係数を、正規化部122は、当該撮影画像から第1抽出部11によって抽出された標本画像に含まれる各画素の輝度値に乗じることにより、標本画像の明るさを正規化することができる。なお、上述した参照値は、例えば、撮影装置1を設置した際などに最初に得られた撮影画像における背景部分の輝度値でもよいし、また、背景部分の明るさの時間的な変動範囲の中央値に相当する輝度値でもよい。   For example, the normalization unit 122 illustrated in FIG. 3 first calculates an average luminance for each background reference image extracted from each captured image by the second extraction unit 121. Next, the normalization unit 122 calculates the ratio between the average luminance and a predetermined reference value as a coefficient indicating the variation in brightness at the installation location of the photographing apparatus 1. In this way, the normalization unit 122 multiplies the luminance value of each pixel included in the sample image extracted by the first extraction unit 11 from the captured image by multiplying the coefficient calculated corresponding to each captured image. The brightness of the sample image can be normalized. Note that the reference value described above may be, for example, the luminance value of the background portion in the first captured image obtained when the photographing apparatus 1 is installed, or the temporal variation range of the brightness of the background portion. A luminance value corresponding to the median value may be used.

正規化部122は、例えば、各撮影画像に対応する背景参照画像の平均輝度に基づいて求めた係数kと、当該撮影画像から抽出された個々の標本画像の平均輝度Yとを用いて、式(1)のように表される正規化された平均輝度Ynを算出してもよい。
Yn=k×Y ・・・(1)
このようにして各標本画像について得られた正規化後の平均輝度は、個々の撮影画像が取得された際の周囲の明るさにかかわらず、被写体となった人物の服装の色を忠実に示している。したがって、特定部123により、正規化された標本画像の平均輝度の最大値を特定することにより、撮影装置1によって得られる撮影画像において、白色を示す輝度を特定することができる。
The normalization unit 122 uses, for example, the coefficient k obtained based on the average luminance of the background reference image corresponding to each captured image and the average luminance Y of each sample image extracted from the captured image. The normalized average luminance Yn expressed as in (1) may be calculated.
Yn = k × Y (1)
The normalized average brightness obtained for each sample image in this way faithfully represents the color of the clothes of the person who is the subject, regardless of the ambient brightness when each captured image was acquired. ing. Therefore, by specifying the maximum value of the average luminance of the normalized sample image by the specifying unit 123, it is possible to specify the luminance indicating white in the photographed image obtained by the photographing device 1.

したがって、図3に例示した検出部12を有する画像処理装置10によれば、撮影装置1の撮影範囲の明るさに変動がある場合にも、高い精度で、撮影装置1によって取得される撮影画像において白色を示す白色基準値を得ることができる。   Therefore, according to the image processing apparatus 10 having the detection unit 12 illustrated in FIG. 3, the captured image acquired by the imaging apparatus 1 with high accuracy even when the brightness of the imaging range of the imaging apparatus 1 varies. A white reference value indicating white can be obtained.

図5は、画像処理装置の別実施形態を示している。なお、図5に示した構成要素のうち、図1又は図3に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 5 shows another embodiment of the image processing apparatus. 5 that are the same as those shown in FIG. 1 or FIG. 3 are given the same reference numerals, and descriptions thereof are omitted.

図5に例示した画像処理装置10は、後述する領域判別装置3によって得られる情報を、検出部12の処理に利用する。   The image processing apparatus 10 illustrated in FIG. 5 uses information obtained by the area determination apparatus 3 described later for processing of the detection unit 12.

図5に例示した第1抽出部11は、移動体検出部111と、領域抽出部112とを含んでいる。移動体検出部111は、撮影装置1で取得された各撮影画像から人物を表す画像を検出する。領域抽出部112は、移動体検出部111による検出結果に基づいて、撮影装置1で取得された各撮影画像から、人物の服装を表す部分に相当する標本画像を抽出する。   The first extraction unit 11 illustrated in FIG. 5 includes a moving body detection unit 111 and a region extraction unit 112. The moving body detection unit 111 detects an image representing a person from each captured image acquired by the imaging device 1. The area extraction unit 112 extracts a sample image corresponding to a portion representing a person's clothes from each captured image acquired by the imaging apparatus 1 based on the detection result by the moving body detection unit 111.

移動体検出部111は、例えば、移動体が含まれない背景画像を予め用意しておき、各撮影画像とこの背景画像との差分を求めることにより、移動する物体を表す部分を検出してもよい。このような背景画像との差分に基づいて移動する物体を検出する手法として、移動体検出部111は、例えば、下記の文献1に開示された技法を利用することができる。
文献1:佐藤雄隆, 金子俊一, 丹羽義典, 山本和彦:“Radial Reach Filter(RRF)によるロバストな物体検出”, 信学論(D-II), Vol. J86-D-II No.5,pp 616-624, 2003.
なお、この手法を適用する場合に、移動体検出部111は、移動体を表す部分として検出した範囲の大きさおよび形状に基づいて、当該移動体が人物であるか否かを判断することが望ましい。そして、移動体が人物であると判断した場合に、移動体検出部111は、当該人物に対応する画像の範囲を示す情報を領域抽出部112に渡す処理を行うことが望ましい。
For example, the moving body detection unit 111 prepares a background image that does not include a moving body in advance, and obtains a difference between each captured image and the background image to detect a portion representing a moving object. Good. As a method for detecting an object that moves based on the difference from such a background image, the moving body detection unit 111 can use, for example, the technique disclosed in Document 1 below.
Reference 1: Yutaka Sato, Shunichi Kaneko, Yoshinori Niwa, Kazuhiko Yamamoto: “Robust Object Detection by Radial Reach Filter (RRF)”, Science (D-II), Vol. J86-D-II No.5, pp 616-624, 2003.
When applying this method, the moving object detection unit 111 may determine whether or not the moving object is a person based on the size and shape of the range detected as a portion representing the moving object. desirable. When it is determined that the moving body is a person, the moving body detection unit 111 desirably performs processing for passing information indicating the range of the image corresponding to the person to the region extraction unit 112.

移動体検出部111は、各撮影画像から検出した移動体の画像が人物を表すか否かを、人の輪郭が有する特徴に基づいて判断してもよい。移動体検出部111は、この判断処理に、例えば、下記の文献2に開示された技法を利用することができる。
文献2:山内悠嗣, 山下隆義, 藤吉弘亘“Boostingに基づく特徴量の共起表現による人検出”, 信学論D, Vol. J92-D, No. 8, pp. 1125-1134, 2009.
また、領域抽出部112は、移動体検出部111によって検出された人物を表す画像の範囲を示す領域のうち、当該人物の上半身に対応する領域の画像を標本画像として抽出してもよい。標本画像の抽出を行う際に、領域抽出部112は、例えば、人物を表す画像の範囲の大きさで示される人物の身長と、当該人物の上半身の位置との関係を利用して、上述した範囲に含まれる標本画像の位置を推定してもよい。
The moving body detection unit 111 may determine whether or not the moving body image detected from each captured image represents a person based on the characteristics of the person's outline. The moving body detection unit 111 can use, for example, the technique disclosed in Document 2 below for this determination process.
Reference 2: Satoshi Yamauchi, Takayoshi Yamashita, Hironobu Fujiyoshi “Human Detection by Co-occurrence Expression of Features Based on Boosting”, IEICE D, Vol. J92-D, No. 8, pp. 1125-1134, 2009 .
In addition, the region extraction unit 112 may extract an image of a region corresponding to the upper body of the person among the regions indicating the range of the image representing the person detected by the moving body detection unit 111 as a sample image. When extracting the sample image, the region extraction unit 112 uses the relationship between the height of the person indicated by the size of the range of the image representing the person and the position of the upper body of the person, for example, as described above. The position of the sample image included in the range may be estimated.

図6は、人物を表す画像の範囲と標本画像との関係を示している。図6において、符号R1は、上述した移動体検出部111が、撮影画像P1において検出した人物を表す画像の範囲の例である。また、図6において、符号S1は、この範囲R1に基づいて、領域特定部112が特定した標本画像の範囲の例である。また、図6に示した矢印は、人物を表す画像の範囲R1の下側の境界を基準とした高さを示している。   FIG. 6 shows the relationship between the image range representing a person and the sample image. In FIG. 6, a symbol R <b> 1 is an example of an image range representing a person detected by the above-described moving body detection unit 111 in the captured image P <b> 1. In FIG. 6, reference numeral S <b> 1 is an example of the range of the sample image specified by the region specifying unit 112 based on the range R <b> 1. Further, the arrow shown in FIG. 6 indicates the height with respect to the lower boundary of the range R1 of the image representing the person.

図5に例示した領域抽出部112は、例えば、図6に示した人物を表す画像の範囲R1の高さHに基づいて、この画像において、人物の上半身に対応する画像が分布する範囲の上限を示す高さHuと下限を示す高さHdとをそれぞれ求める。そして、領域抽出部112は、上述した高さHuと高さHdとの間に含まれる範囲R1内の画素と同様の特徴を持つ画像の範囲を、上述した人物の服装の色を示す標本画像として抽出してもよい。このようにして領域を抽出する手法として、領域抽出部112は、例えば、下記の文献3に開示された技法を利用することができる。
文献3:永橋知行, 藤吉弘亘, 金出武雄“平滑化処理の繰返しによるグラフカットを用いた画像セグメンテーション”,情報処理学会論文誌CVIM, Vol. 1, No. 2, pp. 10-20, 2008.
なお、人物の上半身に相当する画像の範囲の上限を示す高さHuおよび下限を示す高さHdは、例えば、上述した画像の範囲R1の撮影画像における位置に基づいて高い精度で推定することができる。撮影画像における位置に基づく3次元における被写体の位置の推定に、領域抽出部112は、例えば、下記の文献4に開示された技法を利用することができる。
文献4:早坂光晴,富永英義,小宮一三:“逆投影法とカルマンフィルタを用いた複数移動物体位置認識とその追跡”,PRMU2001-132,pp.133-138,Nov,2001.
例えば、領域抽出部112は、上述した技法を用いることにより、撮影画像における上述した範囲R1の位置に基づいて、被写体となった人物の3次元空間における身長hおよび頭頂部の位置などを推定する。この推定結果に基づいて、領域抽出部112は、3次元空間におけるこの人物の上半身に相当する範囲に対応する画像上の範囲を推定すればよい。領域抽出部112は、このような推定処理を行う際に上半身に相当する範囲として、例えば、頭頂部からh×1/8〜h×4/8の範囲などを設定することが望ましい。
The area extraction unit 112 illustrated in FIG. 5, for example, based on the height H of the range R1 of the image representing the person shown in FIG. 6, the upper limit of the range in which the image corresponding to the upper body of the person is distributed in this image And a height Hu indicating a lower limit are obtained. Then, the region extraction unit 112 uses the sample image indicating the color of the person's clothes described above as the image range having the same characteristics as the pixels in the range R1 included between the height Hu and the height Hd. May be extracted as As a method for extracting a region in this way, the region extracting unit 112 can use, for example, the technique disclosed in the following document 3.
Reference 3: Tomoyuki Nagahashi, Hironobu Fujiyoshi, Takeo Kanade “Image Segmentation Using Graph Cut by Repeating Smoothing”, IPSJ Journal CVIM, Vol. 1, No. 2, pp. 10-20, 2008.
Note that the height Hu indicating the upper limit and the height Hd indicating the lower limit of the image range corresponding to the upper body of the person can be estimated with high accuracy based on, for example, the position of the image range R1 in the captured image. it can. For the estimation of the position of the subject in three dimensions based on the position in the captured image, the region extraction unit 112 can use, for example, the technique disclosed in Document 4 below.
Reference 4: Mitsuharu Hayasaka, Hideyoshi Tominaga, Kazuzo Komiya: “Recognition and Tracking of Multiple Moving Objects Using Backprojection Method and Kalman Filter”, PRMU2001-132, pp.133-138, Nov, 2001.
For example, the region extraction unit 112 estimates the height h and the position of the top of the person in the three-dimensional space of the person who is the subject based on the position of the above-described range R1 in the captured image by using the above-described technique. . Based on the estimation result, the region extraction unit 112 may estimate a range on the image corresponding to the range corresponding to the upper half of the person in the three-dimensional space. The region extraction unit 112 desirably sets, for example, a range of h × 1/8 to h × 4/8 from the top as the range corresponding to the upper body when performing such estimation processing.

このようにして、図5に例示した移動体検出部111および領域抽出部112を含む第1抽出部11によれば、各撮影画像に含まれる人物を表す画像それぞれについて、当該人物の服装を表す標本画像を漏れなく、しかも高い精度で抽出することができる。   In this way, according to the first extraction unit 11 including the moving body detection unit 111 and the region extraction unit 112 illustrated in FIG. 5, the clothing of the person is represented for each image representing the person included in each captured image. The sample image can be extracted with high accuracy without omission.

また、図5に例示した第2抽出部121は、抽出処理部124と、領域情報保持部125とを含んでいる。領域情報保持部125は、撮影装置1で得られる撮影画像において、背景参照画像として抽出すべき範囲が占める位置を示す情報を保持している。そして、抽出処理部124は、この領域情報保持部125に保持された情報に基づいて、各撮影画像から背景参照画像を抽出する。   Further, the second extraction unit 121 illustrated in FIG. 5 includes an extraction processing unit 124 and a region information holding unit 125. The area information holding unit 125 holds information indicating the position occupied by the range to be extracted as the background reference image in the captured image obtained by the imaging apparatus 1. Then, the extraction processing unit 124 extracts a background reference image from each captured image based on the information held in the area information holding unit 125.

領域判別装置3は、例えば、画像処理装置10が白色基準値を得るための処理を開始する前に、次に説明するようにして、撮影装置1の視野において人物を含む被写体の移動の軌跡と重ならない領域を示す情報を生成する。また、この領域判別装置3は、生成した情報を、背景参照領域を示す情報として、上述した領域情報保持部125に保持する。   For example, before the image processing apparatus 10 starts the process for obtaining the white reference value, the area determination apparatus 3 determines the movement trajectory of a subject including a person in the field of view of the photographing apparatus 1 as described below. Information indicating a non-overlapping area is generated. In addition, the area determination device 3 holds the generated information in the area information holding unit 125 described above as information indicating the background reference area.

図7は、背景参照画像を抽出する領域の特定を説明する図である。図7において、符号P1,P2,…,Pnは、画像処理装置10が白色基準値を得るための処理を開始する前に、撮影装置1によって時系列的に撮影されたn枚の撮影画像を示している。   FIG. 7 is a diagram for explaining identification of a region from which a background reference image is extracted. In FIG. 7, reference numerals P1, P2,..., Pn denote n photographed images photographed in time series by the photographing apparatus 1 before the image processing apparatus 10 starts processing for obtaining a white reference value. Show.

図7に例示した撮影画像P1,P2,…,Pnは、撮影装置1の視野の左端から現れた人物C1が、撮影装置1の視野の右端まで横切っていく様子を表している。また、撮影画像P2,…,Pnは、撮影装置1の視野の右端から左端に移動していく別の人物C2の動きも捉えている。   The captured images P1, P2,..., Pn illustrated in FIG. 7 represent a situation where the person C1 that appears from the left end of the field of view of the photographing apparatus 1 crosses to the right end of the field of view of the photographing apparatus 1. The captured images P2,..., Pn also capture the movement of another person C2 moving from the right end to the left end of the field of view of the image capturing apparatus 1.

また、図7において、符号SUB1,SUB2,…、SUBnは、上述した撮影画像P1,P2,…,Pnと、上述した背景画像との差分としてそれぞれ得られた差分画像を示している。なお、図7に例示した差分画像SUB1,SUB2,…、SUBnでは、背景画像と一致している部分を網掛けで示し、不一致となった部分を点線で輪郭を囲んだ白抜きの領域として示している。各差分画像SUB1,SUB2,…、SUBnにおいて、背景画像と不一致となった部分は、上述した撮影画像P1,P2,…,Pnに含まれる人物C1あるいは人物C2の像に相当している。なお、図7に示した各差分画像SUB1,SUB2,…、SUBnにおいて、人物C1の像に対応する差分が検出された領域を符号TR1で示し、人物C2の像に対応する差分が検出された領域を符号TR2で示した。   In FIG. 7, reference numerals SUB1, SUB2,..., SUBn indicate difference images obtained as differences between the above-described captured images P1, P2,. In the difference images SUB1, SUB2,..., SUBn illustrated in FIG. 7, portions that match the background image are shaded, and portions that do not match are shown as white regions surrounded by a dotted line. ing. In each difference image SUB1, SUB2,..., SUBn, the portion that does not match the background image corresponds to the image of the person C1 or the person C2 included in the above-described captured images P1, P2,. In each of the difference images SUB1, SUB2,..., SUBn shown in FIG. 7, a region where a difference corresponding to the image of the person C1 is detected is indicated by a symbol TR1, and a difference corresponding to the image of the person C2 is detected. The region is indicated by the symbol TR2.

図5に例示した領域判別装置3は、例えば、まず、撮影装置1から取得した撮影画像P1,P2,…,Pnと背景画像とをそれぞれ比較することにより、差分がある画素の画素値を「1」とし、差分が無い画素の画素値を「0」とした差分画像SUB1,SUB2,…、SUBnを生成する。次いで、領域判別装置3は、これらの差分画像SUB1,SUB,…、SUBnにそれぞれ含まれる画素ごとに画素値の論理和を求めることにより、図7において符号CMPで示したような合成画像を生成してもよい。   For example, the region discriminating apparatus 3 illustrated in FIG. 5 first compares the captured images P1, P2,..., Pn acquired from the image capturing apparatus 1 with the background image, thereby obtaining the pixel values of the pixels having differences. Difference images SUB1, SUB2,..., SUBn, where “1” is set and the pixel value of a pixel having no difference is “0”, are generated. Next, the region discriminating apparatus 3 generates a composite image as indicated by reference numeral CMP in FIG. 7 by obtaining a logical sum of pixel values for each pixel included in each of the difference images SUB1, SUB,..., SUBn. May be.

図7に例示した合成画像CMPにおいて白色で示した部分TRは、上述した差分画像SUB1,SUB2,…、SUBnの画素値の論理和が「1」となった部分であり、撮影装置1の視野を移動した多数の被写体の像に対応する軌跡を合成した結果を示している。つまり、合成画像CMPにおいて白色で示した部分TRは、上述した差分画像SUB1,SUB2,…、SUBnのいずれかにおいて、人物を含む被写体の像の軌跡と重なったために背景画像と不一致となった部分である。一方、合成画像CMPにおいて網掛けで示した部分BGは、上述した差分画像SUB1,SUB2,…、SUBnの画素値の論理和が「0」となった部分であり、全ての差分画像において背景画像と一致するとされた部分を示している。この部分BGは、撮影画像P1,P2,…,Pnのいずれにおいても、撮影装置1の視野内を移動する被写体の像の軌跡が通らなかった部分であり、撮影装置1の視野における被写体の移動に伴う被写体の像の軌跡が全く重ならない背景領域に相当する。   A portion TR shown in white in the composite image CMP illustrated in FIG. 7 is a portion where the logical sum of the pixel values of the above-described difference images SUB1, SUB2,. The result of synthesizing the trajectories corresponding to the images of a large number of subjects that have moved is shown. That is, the portion TR shown in white in the composite image CMP is a portion that does not match the background image in any of the above-described difference images SUB1, SUB2,. It is. On the other hand, the shaded portion BG in the composite image CMP is a portion in which the logical sum of the pixel values of the above-described difference images SUB1, SUB2,... SUBn is “0”. The portion that is supposed to match is shown. This portion BG is a portion where the locus of the image of the subject moving within the field of view of the photographing apparatus 1 does not pass in any of the photographed images P1, P2,. This corresponds to a background area in which the locus of the subject image associated with is not overlapped at all.

領域判別装置3は、このようにして得られる合成画像に基づいて、全ての差分画像において背景画像と一致するとされた部分BGの内部において、図7において、符号B1で示すように、背景参照画像として抽出する領域を特定してもよい。領域判別装置3は、背景参照画像として望ましい大きさのテンプレートを用いることにより、背景参照画像B1の位置を特定してもよい。例えば、領域判別装置3は、上述した合成画像CMPの中で、上述した部分BG内の画素がテンプレート内に最も多く含まれるテンプレートの位置を検出し、検出した位置を背景参照画像B1の位置として特定してもよい。   Based on the composite image obtained in this way, the area discriminating apparatus 3 is configured to include a background reference image as indicated by reference numeral B1 in FIG. The region to be extracted may be specified. The region discriminating apparatus 3 may specify the position of the background reference image B1 by using a template having a desirable size as the background reference image. For example, the region discriminating apparatus 3 detects the position of the template in which the pixels in the partial BG are most contained in the template in the composite image CMP described above, and uses the detected position as the position of the background reference image B1. You may specify.

また、領域判別装置3は、このようにして特定した領域を示す情報を、画像処理装置10による処理の開始に先立って、領域情報保持部125に格納しておけばよい。なお、撮影装置の視野内を移動する被写体の像の軌跡が通らない部分を検出する処理の詳細については、本出願人による特開2011−259324号公報を参照されたい。   In addition, the area discriminating apparatus 3 may store information indicating the area specified in this way in the area information holding unit 125 prior to the start of processing by the image processing apparatus 10. For details of processing for detecting a portion where the locus of the image of the subject moving within the field of view of the photographing apparatus does not pass, see Japanese Patent Application Laid-Open No. 2011-259324 by the present applicant.

このようにして領域情報保持部125に保持された情報に基づいて、図5に例示した抽出処理部124が抽出処理を行うことにより、撮影装置1の視野内を移動する物体の影響を受けない背景参照画像を高い精度で抽出することができる。これにより、正規化部122は、第1抽出部11によって抽出された標本画像の平均輝度を高い精度で正規化することができる。このようにして正規化された標本画像の平均輝度を比べることにより、特定部123は、撮影装置1に対応する白色基準値を高い精度で特定することができる。   In this way, the extraction processing unit 124 illustrated in FIG. 5 performs the extraction process based on the information stored in the region information storage unit 125, so that it is not affected by the object moving within the field of view of the photographing apparatus 1. The background reference image can be extracted with high accuracy. Thereby, the normalization part 122 can normalize the average brightness | luminance of the sample image extracted by the 1st extraction part 11 with high precision. By comparing the average luminance of the sample images normalized in this way, the specifying unit 123 can specify the white reference value corresponding to the photographing apparatus 1 with high accuracy.

以上に説明した本件開示の画像処理装置10は、例えば、パーソナルコンピュータなどのコンピュータ装置を用いて実現することができる。
図8は、画像処理装置10のハードウェア構成の一例を示している。なお、図8に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
The image processing apparatus 10 of the present disclosure described above can be realized by using a computer apparatus such as a personal computer, for example.
FIG. 8 shows an example of the hardware configuration of the image processing apparatus 10. 8 that are the same as those shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.

コンピュータ装置20は、プロセッサ21と、メモリ22と、ハードディスク装置23と、表示装置24と、入力装置25と、光学ドライブ装置26と、ローカルエリアネットワーク(LAN:local Area Network)インタフェース28とを含んでいる。図8に例示したプロセッサ21と、メモリ22と、ハードディスク装置23と、表示装置24と、入力装置25と、光学ドライブ装置26と、LANインタフェース28とは、バスを介して互いに接続されている。   The computer device 20 includes a processor 21, a memory 22, a hard disk device 23, a display device 24, an input device 25, an optical drive device 26, and a local area network (LAN) interface 28. Yes. The processor 21, the memory 22, the hard disk device 23, the display device 24, the input device 25, the optical drive device 26, and the LAN interface 28 illustrated in FIG. 8 are connected to each other via a bus.

上述した光学ドライブ装置26は、光ディスクなどのリムーバブルディスク27を装着可能であり、装着したリムーバブルディスク27に記録された情報の読出および記録を行う。   The optical drive device 26 described above can be mounted with a removable disk 27 such as an optical disk, and reads and records information recorded on the mounted removable disk 27.

コンピュータ装置20は、LANインタフェース28を介して、ローカルエリアネットワーク(LAN)30に接続されている。また、このLAN30には、複数の撮影装置1が接続されている。したがって、コンピュータ装置20は、LANインタフェース28を介して、これらの撮影装置1によって得られた撮影画像を取得することができる。   The computer device 20 is connected to a local area network (LAN) 30 via a LAN interface 28. In addition, a plurality of photographing devices 1 are connected to the LAN 30. Therefore, the computer apparatus 20 can acquire the captured image obtained by these imaging apparatuses 1 via the LAN interface 28.

図8に例示した入力装置25は、例えば、キーボードやマウスなどである。画像処理装置10の操作者は、入力装置25を操作することにより、画像処理装置10に対して、例えば、各撮影装置1に対応する白色基準値を得るための画像処理を開始させる旨の指示などを入力することができる。   The input device 25 illustrated in FIG. 8 is, for example, a keyboard or a mouse. An operator of the image processing apparatus 10 operates the input device 25 to instruct the image processing apparatus 10 to start image processing for obtaining, for example, a white reference value corresponding to each photographing apparatus 1. Etc. can be entered.

図8に例示したメモリ22は、コンピュータ装置20のオペレーティングシステムとともに、プロセッサ21が上述した白色基準値を得るための画像処理を実行するための画像処理プログラムを格納している。なお、上述した画像処理プログラムは、例えば、光ディスクなどのリムーバブルディスク27に記録して頒布することができる。そして、このリムーバブルディスク27を光学ドライブ装置26に装着して読み込み処理を行うことにより、画像処理プログラムを、メモリ22およびハードディスク装置23に格納させてもよい。また、インターネットなどのネットワークに接続する通信装置(図示せず)を介して画像処理プログラムをメモリ22およびハードディスク装置23に読み込ませることもできる。   The memory 22 illustrated in FIG. 8 stores an image processing program for executing the image processing for the processor 21 to obtain the above-described white reference value together with the operating system of the computer apparatus 20. The above-described image processing program can be recorded and distributed on a removable disk 27 such as an optical disk. The image processing program may be stored in the memory 22 and the hard disk device 23 by attaching the removable disk 27 to the optical drive device 26 and performing a reading process. Further, the image processing program can be read into the memory 22 and the hard disk device 23 via a communication device (not shown) connected to a network such as the Internet.

そして、プロセッサ21は、メモリ22およびハードディスク装置23に格納された画像処理プログラムを実行することにより、図1に例示した第一抽出部11、検出部12の機能を果たす。また、プロセッサ21が、上述した画像処理プログラムを実行する過程で得られた情報は、メモリ22あるいはハードディスク装置23内に保持される。つまり、上述したコンピュータ装置20に含まれるプロセッサ21と、メモリ22と、ハードディスク装置23との協働によって、本件開示の画像処理装置10を実現することができる。   The processor 21 performs the functions of the first extraction unit 11 and the detection unit 12 illustrated in FIG. 1 by executing the image processing program stored in the memory 22 and the hard disk device 23. Further, information obtained in the process in which the processor 21 executes the above-described image processing program is held in the memory 22 or the hard disk device 23. That is, the image processing device 10 disclosed herein can be realized by the cooperation of the processor 21, the memory 22, and the hard disk device 23 included in the computer device 20 described above.

また、プロセッサ21は、メモリ22およびハードディスク装置23と、LANインタフェース28と協働することにより、LAN30を介して接続された各撮影装置1に対応する画像処理装置10としての機能を果たすこともできる。   The processor 21 can also function as the image processing device 10 corresponding to each photographing device 1 connected via the LAN 30 by cooperating with the memory 22 and the hard disk device 23 and the LAN interface 28. .

この場合に、図8に例示したように、ハードディスク装置23は、基準情報テーブル31を含んでもよい。そして、プロセッサ21は、各撮影装置1に対応して取得した白色基準値を、例えば、個々の撮影装置1を示す装置ID(IDentifier)に対応してこの基準情報テーブル31に保持することにより、これらの白色基準値を出力してもよい。   In this case, as illustrated in FIG. 8, the hard disk device 23 may include a reference information table 31. Then, the processor 21 holds the white reference value acquired corresponding to each photographing apparatus 1 in the reference information table 31 corresponding to the apparatus ID (IDentifier) indicating the individual photographing apparatus 1, for example. These white reference values may be output.

また、ハードディスク装置23は、各撮影装置1に対応して背景参照画像の位置を示す情報を保持する領域情報テーブル32を含んでもよい。このような領域情報テーブル32をハードディスク装置23内に設けることは、図5に例示した領域情報保持部125を実現する手法の一例である。   Further, the hard disk device 23 may include an area information table 32 that holds information indicating the position of the background reference image corresponding to each photographing apparatus 1. Providing such an area information table 32 in the hard disk device 23 is an example of a technique for realizing the area information holding unit 125 illustrated in FIG.

上述した画像処理プログラムは、撮影装置1で時系列的に取得される撮影画像から標本画像を抽出する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。また、この画像処理プログラムは、最大の輝度を持つ標本画像を検出する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。したがって、プロセッサ21が、この画像処理プログラムを実行することにより、本件開示の画像処理方法に従って、各撮影装置1から得られる撮影画像に基づいて、各撮影装置1対応の白色基準値を取得する画像処理を実行することができる。   The above-described image processing program includes an application program for causing the processor 21 to execute a process of extracting a specimen image from a captured image acquired in time series by the imaging apparatus 1. The image processing program also includes an application program for causing the processor 21 to execute processing for detecting a specimen image having the maximum luminance. Therefore, the processor 21 executes this image processing program, and thereby obtains a white reference value corresponding to each photographing apparatus 1 based on the photographed image obtained from each photographing apparatus 1 according to the image processing method disclosed herein. Processing can be executed.

プロセッサ21は、標本画像を抽出する処理の完了後に、最大の輝度を持つ標本画像を検出する処理を実行してもよいし、標本画像を抽出する処理を実行する過程で、最大の輝度を持つ標本画像を検出する処理の一部を並行して実行してもよい。   The processor 21 may execute a process of detecting a sample image having the maximum luminance after completion of the process of extracting the sample image, or may have the maximum luminance in the process of executing the process of extracting the sample image. A part of the processing for detecting the sample image may be executed in parallel.

まず、プロセッサ21が、複数の撮影装置1から選択した処理対象の撮影装置によって得られる撮影画像から標本画像を抽出する処理の完了後に、最大の輝度を持つ標本画像を検出する処理を実行する場合について説明する。   First, when the processor 21 executes a process of detecting a specimen image having the maximum luminance after completing a process of extracting a specimen image from a photographed image obtained by a photographing apparatus selected from a plurality of photographing apparatuses 1. Will be described.

図9は、白色基準値を得る処理のフローチャートの一例を示している。図9に示したステップS300〜ステップS305の各処理は、画像処理プログラムに含まれる処理の一例である。また、これらのステップS300〜ステップS305の各処理は、プロセッサ21によって実行される。   FIG. 9 shows an example of a flowchart of processing for obtaining the white reference value. Each process of step S300 to step S305 illustrated in FIG. 9 is an example of a process included in the image processing program. In addition, each processing of step S300 to step S305 is executed by the processor 21.

まず、プロセッサ21は、LANインタフェース28を介して撮影装置1から撮影画像を取得するとともに、取得済みの撮影画像の枚数を示す取得画像数numに数値「1」を加算する(ステップS301)。プロセッサ21は、例えば、数十ミリ秒〜数秒程度の所定の時間ごとに撮影装置1で得られる撮影画像を取得してもよい。なお、プロセッサ21は、白色基準値を得る処理の開始に先立って、取得画像数numに初期値「0」を設定しておくことが望ましい。   First, the processor 21 acquires a captured image from the imaging device 1 via the LAN interface 28, and adds a numerical value “1” to the acquired image number num indicating the number of acquired captured images (step S301). For example, the processor 21 may acquire a captured image obtained by the imaging apparatus 1 every predetermined time of several tens of milliseconds to several seconds. Note that the processor 21 preferably sets the initial value “0” to the number of acquired images num prior to the start of the process of obtaining the white reference value.

次いで、プロセッサ21は、図6を用いて説明したようにして、取得した撮影画像から標本画像を抽出する(ステップS302)。撮影画像に複数の人物の像が含まれていた場合に、プロセッサ21は、このステップS302の処理において、これらの人物の像それぞれに含まれる服装部分の画像を標本画像として抽出する。   Next, the processor 21 extracts a sample image from the acquired captured image as described with reference to FIG. 6 (step S302). When a plurality of person images are included in the photographed image, the processor 21 extracts clothes image included in each of these person images as sample images in the process of step S302.

その後、プロセッサ21は、取得画像数numが所定数Nに到達したか否かを判定する(ステップS303)。この所定数Nは、例えば、数時間から数日に亘る期間において、上述したステップS301で取得する撮影画像の枚数に基づいて予め設定しておくことができる。なお、この所定数Nの値は、各撮影装置1の設置場所において、服装の色が白色である人物が現れる確率などに基づいて、撮影装置1それぞれについて予め設定しておいてもよい。例えば、オフィスなどのように、白色の衣服を着た人物が比較的多い場所に設置された撮影装置1に対応する所定数Nには、屋外に設置された撮影装置1に対応する所定数Nよりも小さい値を設定してもよい。   Thereafter, the processor 21 determines whether or not the number of acquired images num has reached a predetermined number N (step S303). The predetermined number N can be set in advance based on the number of captured images acquired in step S301 described above, for example, in a period ranging from several hours to several days. Note that the value of the predetermined number N may be set in advance for each photographing apparatus 1 based on the probability of appearance of a person whose clothing color is white at the installation location of each photographing apparatus 1. For example, the predetermined number N corresponding to the photographing device 1 installed in a place where there are relatively many persons wearing white clothes, such as an office, has a predetermined number N corresponding to the photographing device 1 installed outdoors. A smaller value may be set.

取得画像数numが所定数N未満である場合に、プロセッサ21は、ステップS303の否定判定ルートに従ってステップS301の処理に戻り、ステップS301〜ステップS303の処理を繰り返す。このように、プロセッサ21が、ステップS301〜ステップS303の処理を繰り返すことにより、図1に例示した第1抽出部11の機能を果たすことができる。   When the acquired image number num is less than the predetermined number N, the processor 21 returns to the process of step S301 according to the negative determination route of step S303, and repeats the processes of step S301 to step S303. As described above, the processor 21 can perform the functions of the first extraction unit 11 illustrated in FIG. 1 by repeating the processes of steps S301 to S303.

そして、取得画像数numが所定数Nに到達したときに、プロセッサ21は、ステップS303の肯定判定ルートに従ってステップS304の処理に進む。このステップS304において、プロセッサ21は、上述したステップS301〜ステップS303の処理によって各撮影画像から抽出した標本画像の中から、例えば、最大の輝度を持つ標本画像を検出する。このステップS304において、プロセッサ21は、例えば、標本画像それぞれについて平均輝度Yを求め、これらの平均輝度Yにおける最大値を特定することにより、最大の輝度を持つ標本画像を検出してもよい。   When the number of acquired images num reaches the predetermined number N, the processor 21 proceeds to the process of step S304 according to the affirmative determination route of step S303. In step S304, the processor 21 detects, for example, a sample image having the maximum luminance from the sample images extracted from each captured image by the processing in steps S301 to S303 described above. In step S304, the processor 21 may detect the sample image having the maximum luminance by obtaining the average luminance Y for each sample image and specifying the maximum value in the average luminance Y, for example.

次いで、プロセッサ21は、ステップS304で検出した標本画像に基づいて、撮影装置1で得られる撮影画像における白色を示す白色基準値Ysを特定し、この白色基準値Ysを出力する(ステップS305)。ステップS305において、プロセッサ21は、例えば、ステップS304の処理において、各標本画像について得られた平均輝度Yの最大値を、当該撮影装置1に対応する白色基準値Ysとしてもよい。また、プロセッサ21は、このようにして得られた白色基準値Ysを、ハードディスク装置23に設けられた基準情報テーブル31に、撮影装置1を示す装置IDに対応して格納する。このように、プロセッサ21が、ステップS304およびステップS305の処理を実行することにより、図1に例示した検出部12の機能を実現することができる。   Next, the processor 21 specifies a white reference value Ys indicating white in the photographed image obtained by the photographing apparatus 1 based on the sample image detected in step S304, and outputs the white reference value Ys (step S305). In step S305, for example, the processor 21 may set the maximum value of the average luminance Y obtained for each sample image in the processing of step S304 as the white reference value Ys corresponding to the photographing apparatus 1. Further, the processor 21 stores the white reference value Ys thus obtained in the reference information table 31 provided in the hard disk device 23 in correspondence with the device ID indicating the photographing device 1. As described above, the processor 21 executes the processing of step S304 and step S305, thereby realizing the function of the detection unit 12 illustrated in FIG.

また、プロセッサ21は、LAN30に接続された各撮影装置1について、上述したステップS301〜ステップS305の処理を並行して実行してもよい。そして、各撮影装置1に対応する処理によって得られる白色基準値を、ハードディスク装置23内の基準情報テーブル31に格納してもよい。   In addition, the processor 21 may execute the processes in steps S301 to S305 described above in parallel for each of the imaging devices 1 connected to the LAN 30. Then, the white reference value obtained by the processing corresponding to each photographing apparatus 1 may be stored in the reference information table 31 in the hard disk device 23.

このようにして基準情報テーブル31に格納された白色基準値を図1に例示した色補正装置2に渡すことにより、色補正装置2は、各撮影装置1で得られる撮影画像について、それぞれに対応する白色基準値に基づく色補正処理を実行することが可能となる。   In this way, by passing the white reference value stored in the reference information table 31 to the color correction device 2 illustrated in FIG. 1, the color correction device 2 handles each of the captured images obtained by the respective imaging devices 1. It is possible to execute color correction processing based on the white reference value.

次に、プロセッサ21が、複数の撮影装置1から選択した処理対象の撮影装置によって得られる撮影画像から標本画像を抽出する処理を実行する過程で、最大の輝度を持つ標本画像を検出する処理の一部を並行して実行する手法について説明する。   Next, in a process in which the processor 21 executes a process of extracting a specimen image from a photographed image obtained by the photographing apparatus to be processed selected from the plurality of photographing apparatuses 1, a process of detecting a specimen image having the maximum luminance A method for executing a part in parallel will be described.

図10は、白色基準値を得る処理のフローチャートの別例を示している。なお、図10に示したステップのうち、図9に示したステップと同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 10 shows another example of a flowchart of processing for obtaining a white reference value. Note that among the steps shown in FIG. 10, the same steps as those shown in FIG. 9 are denoted by the same reference numerals, and description thereof is omitted.

図10に示したステップS300〜ステップS305およびステップS311〜ステップS317の各処理は、画像処理プログラムに含まれる処理の一例である。また、これらの各処理は、プロセッサ21によって実行される。   Each process of step S300 to step S305 and step S311 to step S317 illustrated in FIG. 10 is an example of a process included in the image processing program. Each of these processes is executed by the processor 21.

プロセッサ21は、まず、ハードディスク装置23に設けられた領域情報テーブル32を参照することにより、処理対象の撮影装置1に対応する背景参照画像の位置を示す情報を取得する(ステップS311)。また、プロセッサ21は、このステップS311の処理において、例えば、白色基準値Ysに初期値「0」を設定してもよい。   First, the processor 21 refers to the area information table 32 provided in the hard disk device 23 to obtain information indicating the position of the background reference image corresponding to the imaging device 1 to be processed (step S311). The processor 21 may set an initial value “0” for the white reference value Ys, for example, in the process of step S311.

次いで、プロセッサ21は、上述したステップS301の処理を実行することにより、撮影装置1で得られた撮影画像を取得し、次いで、この撮影画像から背景参照画像を抽出する(ステップS312)。プロセッサ21は、例えば、上述したステップS311で取得した背景参照画像の位置を示す情報に基づいて、撮影画像から上述したテンプレートに相当する大きさを持つ画像を切り出すことにより、各撮影画像に対応する背景参照画像を抽出することができる。このように、プロセッサ21が、ステップS312の処理を実行することにより、図3に例示した第2抽出部121の機能を実現することができる。ステップS312で抽出した背景参照画像に含まれる各画素の輝度値に基づいて、プロセッサ21は、この背景参照画像の平均輝度に基づいて、図4を用いて説明したようにして正規化処理のための係数kを算出する(ステップS313)。   Next, the processor 21 acquires the captured image obtained by the imaging device 1 by executing the processing of step S301 described above, and then extracts a background reference image from the captured image (step S312). For example, the processor 21 cuts out an image having a size corresponding to the template described above from the captured image based on the information indicating the position of the background reference image acquired in step S311 described above, thereby corresponding to each captured image. A background reference image can be extracted. In this way, the function of the second extraction unit 121 illustrated in FIG. 3 can be realized by the processor 21 executing the process of step S312. Based on the luminance value of each pixel included in the background reference image extracted in step S312, the processor 21 performs normalization processing as described with reference to FIG. 4 based on the average luminance of the background reference image. Is calculated (step S313).

次に、プロセッサ21は、ステップS302の処理を実行することにより、撮影画像に含まれる標本画像を抽出する。次いで、プロセッサ21は、ステップS302の処理で抽出した標本画像の一つを選択し、選択した標本画像に含まれる各画素の輝度値に基づいて、当該標本画像の平均輝度を算出する(ステップS314)。例えば、プロセッサ21は、撮影画像に含まれる人物の像のそれぞれに対応して標本画像を抽出するごとに、抽出した標本画像の平均輝度Yを算出してもよい。また、更に、プロセッサ21は、ステップS314で算出した標本画像の平均輝度Yを、上述した係数kを用いて正規化する(ステップS315)。ステップS315において、プロセッサ21は、例えば、上述した式(1)を用いることにより、各標本画像について得られた平均輝度Yに対応する正規化された平均輝度Ynを求めてもよい。   Next, the processor 21 extracts the sample image included in the captured image by executing the process of step S302. Next, the processor 21 selects one of the sample images extracted in step S302, and calculates the average luminance of the sample image based on the luminance value of each pixel included in the selected sample image (step S314). ). For example, the processor 21 may calculate the average luminance Y of the extracted sample image every time the sample image is extracted corresponding to each of the human images included in the captured image. Further, the processor 21 normalizes the average luminance Y of the sample image calculated in step S314 using the coefficient k described above (step S315). In step S315, the processor 21 may obtain the normalized average luminance Yn corresponding to the average luminance Y obtained for each sample image, for example, by using the above-described equation (1).

このように、プロセッサ21は、各撮影画像から標本画像を抽出する処理が行われる過程と並行して、ステップS314およびステップS315の処理を実行する。これにより、図3に例示した第1抽出部11による標本画像の抽出処理が行われる過程と並行して、正規化部122による個々の標本画像を正規化する機能を実現するための処理を実行することができる。   In this way, the processor 21 executes the processes of step S314 and step S315 in parallel with the process of extracting the specimen image from each captured image. Thus, in parallel with the process of performing the sample image extraction process by the first extraction unit 11 illustrated in FIG. 3, the process for realizing the function of normalizing individual sample images by the normalization unit 122 is executed. can do.

また、このようにして各標本画像の平均輝度Yを正規化するごとに、プロセッサ21は、正規化した標本画像の平均輝度Ynと白色基準値Ysとの比較を行う(ステップS316)。 そして、正規化された標本画像の平均輝度Ynが白色基準値Ysよりも大きいと判定した場合に(ステップS316の肯定判定)、プロセッサ21は、白色基準値Ysを正規化された標本画像の平均輝度Ynによって更新する(ステップS317)。一方、正規化された標本画像の平均輝度Ynが白色基準値Ys以下であると判定した場合に(ステップS316の否定判定)、プロセッサ21は、ステップS317の処理をスキップする。この場合に、白色基準値Ysの値は、それまでに設定された値を維持する。   Further, each time the average luminance Y of each sample image is normalized in this way, the processor 21 compares the normalized average luminance Yn of the sample image with the white reference value Ys (step S316). When it is determined that the average luminance Yn of the normalized sample image is greater than the white reference value Ys (affirmative determination in step S316), the processor 21 calculates the average of the sample image with the white reference value Ys normalized. Update with the brightness Yn (step S317). On the other hand, when it is determined that the average luminance Yn of the normalized sample image is equal to or less than the white reference value Ys (No determination in step S316), the processor 21 skips the process of step S317. In this case, the value of the white reference value Ys maintains the value set so far.

その後、プロセッサ21は、ステップS302において抽出された全ての標本画像について、ステップS314〜ステップS317の処理を実行したか否かを判定する(ステップS318)。未処理の標本画像がある場合に、プロセッサ21は、ステップS318のひて判定ルートに従って、ステップS314の処理に戻る。そして、未処理の標本画像について、ステップS314〜ステップS317の処理を繰り返す。   Thereafter, the processor 21 determines whether or not the processing of Steps S314 to S317 has been executed for all the sample images extracted in Step S302 (Step S318). When there is an unprocessed sample image, the processor 21 returns to the process of step S314 according to the edge determination route of step S318. And the process of step S314-step S317 is repeated about an unprocessed sample image.

このようにして、ステップS301で取得した撮影画像から抽出された全ての標本画像についての処理が終了したときに、プロセッサ21は、ステップS318の肯定判定ルートに従ってステップS303の処理に進む。   In this way, when the processing for all the sample images extracted from the captured image acquired in step S301 is completed, the processor 21 proceeds to the processing of step S303 according to the affirmative determination route of step S318.

ステップS303の否定判定ルートにおいて、プロセッサ21は、ステップS301の処理で新たに取得した撮影画像について、ステップS312〜ステップS318の処理を繰り返す。そして、取得画像数numが所定数Nに到達したときに(ステップS303の肯定判定)、プロセッサ21は、ステップS305の処理に進む。このステップS305の処理において、プロセッサ21は、各標本画像についてステップS314〜ステップS317の処理を繰り返す過程において得られた白色基準値Ysを、処理対象の撮影装置1に対応する白色基準値として出力する。   In the negative determination route in step S303, the processor 21 repeats the processes in steps S312 to S318 for the captured image newly acquired in the process in step S301. When the number of acquired images num reaches the predetermined number N (Yes determination in step S303), the processor 21 proceeds to the process of step S305. In the process of step S305, the processor 21 outputs the white reference value Ys obtained in the process of repeating the processes of step S314 to step S317 for each sample image as a white reference value corresponding to the imaging device 1 to be processed. .

このように、プロセッサ21が、各撮影画像から標本画像を抽出する処理を実行する過程で、ステップS316およびステップS317の処理を実行することにより、図3に例示した特定部123の機能を実現してもよい。   In this way, in the process of executing the process of extracting the sample image from each captured image, the processor 21 executes the process of step S316 and step S317, thereby realizing the function of the specifying unit 123 illustrated in FIG. May be.

このようにして、処理対象の撮影装置1からの撮影画像の取得および各撮影画像からの標本画像の抽出処理の完了とほぼ同時に、撮影装置1に対応する白色基準値を特定する処理を完了させることができる。   In this way, the process of specifying the white reference value corresponding to the photographing apparatus 1 is completed almost simultaneously with the acquisition of the photographed image from the photographing apparatus 1 to be processed and the extraction of the sample image from each photographed image. be able to.

また、プロセッサ21は、LAN30に接続された各撮影装置1からそれぞれ得られる撮影画像についての上述した処理を並列に実行してもよい。これにより、多数の撮影装置1がLAN30に接続されている場合においても、各撮影装置1に対応する白色基準値を短い時間で取得することができる。   Further, the processor 21 may execute the above-described processes on the captured images obtained from the respective imaging devices 1 connected to the LAN 30 in parallel. Thereby, even when a large number of photographing apparatuses 1 are connected to the LAN 30, white reference values corresponding to the respective photographing apparatuses 1 can be acquired in a short time.

以上に説明した本件開示の画像処理装置10において、検出部12は、撮影装置1で得られた各撮影画像から抽出した標本画像の平均輝度以外の指標に基づいて、最大の輝度を持つ標本画像を検出してもよい。例えば、検出部12は、標本画像に含まれる各画素の輝度値についてのソート結果から輝度値が高い順に所定数を抜き出し、抜き出した輝度値について得た平均値を、標本画像の平均輝度の代わりに用いることができる。つまり、検出部12は、標本画像によって表される人物の服装の色の明るさを示す指標であれば、いかなる指標であっても、最大の輝度を持つ標本画像を検出する処理に利用してもよい。   In the image processing device 10 disclosed herein, the detection unit 12 uses the sample image having the maximum luminance based on an index other than the average luminance of the sample image extracted from each captured image obtained by the imaging device 1. May be detected. For example, the detection unit 12 extracts a predetermined number from the sort result for the luminance value of each pixel included in the sample image in descending order of the luminance value, and uses the average value obtained for the extracted luminance value instead of the average luminance of the sample image. Can be used. In other words, the detection unit 12 is used for the process of detecting the sample image having the maximum luminance, regardless of any index, as long as the index indicates the brightness of the color of the person's clothes represented by the sample image. Also good.

1…撮影装置;2…色補正装置;3…領域判別装置;10…画像処理装置;11…第1抽出部;12…検出部;111…移動体検出部;112…領域抽出部;121…第2抽出部;122…正規化部;123…特定部;124…抽出処理部;125…領域情報保持部;21…プロセッサ;22…メモリ;23…ハードディスク装置;24…表示装置;25…入力装置;26…光学ドライブ装置;27…リムーバブルディスク;28…ローカルエリアネットワーク(LAN)インタフェース;30…ローカルエリアネットワーク(LAN);31…基準情報テーブル;32…領域情報テーブル
DESCRIPTION OF SYMBOLS 1 ... Imaging device; 2 ... Color correction device; 3 ... Area discriminating device; 10 ... Image processing device; 11 ... First extraction part; 12 ... Detection part; 111 ... Moving body detection part; Second extraction unit; 122 ... normalization unit; 123 ... identification unit; 124 ... extraction processing unit; 125 ... area information holding unit; 21 ... processor; 22 ... memory; 23 ... hard disk device; 26: Optical drive device; 27 ... Removable disk; 28 ... Local area network (LAN) interface; 30 ... Local area network (LAN); 31 ... Reference information table; 32 ... Area information table

Claims (4)

撮影装置によって時系列的に取得された複数の画像から、各画像に含まれる人物の服装を表す部分の画像を当該服装の色を示す標本画像としてそれぞれ抽出する第1抽出部と、
前記第1抽出部で得られた標本画像の中から最大輝度を有する標本画像を検出し、検出した標本画像で示される色を表す情報を、前記撮影装置で得られる画像における白色の基準を示す情報として出力する検出部と
を備えたことを特徴とする画像処理装置。
A first extraction unit for extracting, from a plurality of images acquired in time series by the imaging device, an image of a portion representing a person's clothes included in each image as a sample image indicating the color of the clothes;
A sample image having the maximum luminance is detected from the sample images obtained by the first extraction unit, and information indicating the color indicated by the detected sample image is a white reference in the image obtained by the photographing apparatus. An image processing apparatus comprising: a detection unit that outputs information.
請求項1に記載の画像処理装置において、
前記検出部は、
前記複数の画像から、前記撮影装置の視野内を移動する人物を含む被写体の像の軌跡が通らない領域の画像を背景参照画像としてそれぞれ抽出する第2抽出部と、
前記第2抽出部で得られた背景参照画像の平均輝度に基づいて、前記第1抽出部で得られる各標本画像の輝度を正規化する正規化部と、
正規化された前記各標本画像の輝度の最大値を、前記撮影装置で得られる画像における白色の輝度を示す白色基準値として特定する特定部とを有する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The detector is
A second extraction unit for extracting, as a background reference image, an image of a region through which a locus of an image of a subject including a person moving within the field of view of the photographing apparatus does not pass from the plurality of images;
A normalization unit that normalizes the luminance of each sample image obtained by the first extraction unit based on the average luminance of the background reference image obtained by the second extraction unit;
An image processing apparatus comprising: a specifying unit that specifies a maximum luminance value of each normalized specimen image as a white reference value indicating white luminance in an image obtained by the imaging apparatus.
撮影装置によって時系列的に取得された複数枚の画像から、各画像に含まれる人物の服装を表す部分の画像を当該服装の色を示す標本画像としてそれぞれ抽出し、
前記抽出で得られた標本画像の中から最大輝度を有する標本画像を検出し、検出した標本画像で示される色を表す情報を、前記撮影装置で得られる画像における白色の基準を示す情報として出力する
ことを特徴とする画像処理方法。
From a plurality of images acquired in time series by the imaging device, a part image representing a person's clothing included in each image is extracted as a sample image indicating the color of the clothing,
A sample image having the maximum luminance is detected from the sample images obtained by the extraction, and information indicating the color indicated by the detected sample image is output as information indicating a white reference in the image obtained by the photographing apparatus. An image processing method characterized by:
撮影装置によって時系列的に取得された複数の画像から、各画像に含まれる人物の服装を表す部分の画像を当該服装の色を示す標本画像としてそれぞれ抽出し、
前記抽出で得られた標本画像の中から最大輝度を有する標本画像を検出し、検出した標本画像で示される色を表す情報を、前記撮影装置で得られる画像における白色の基準を示す情報として出力する
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
From a plurality of images acquired in time series by the imaging device, each part image representing a person's clothes included in each image is extracted as a sample image indicating the color of the clothes,
A sample image having the maximum luminance is detected from the sample images obtained by the extraction, and information indicating the color indicated by the detected sample image is output as information indicating a white reference in the image obtained by the photographing apparatus. An image processing program for causing a computer to execute processing.
JP2012035127A 2012-02-21 2012-02-21 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP5845960B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012035127A JP5845960B2 (en) 2012-02-21 2012-02-21 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012035127A JP5845960B2 (en) 2012-02-21 2012-02-21 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2013172311A true JP2013172311A (en) 2013-09-02
JP5845960B2 JP5845960B2 (en) 2016-01-20

Family

ID=49265984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012035127A Expired - Fee Related JP5845960B2 (en) 2012-02-21 2012-02-21 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5845960B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184869A (en) * 2014-03-24 2015-10-22 大日本印刷株式会社 Attribute discrimination device, attribute discrimination system, attribute discrimination method and program for attribute discrimination
JP2017055242A (en) * 2015-09-09 2017-03-16 富士通株式会社 Color correction device, color correction method and computer program for color correction

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143464A (en) * 2001-10-31 2003-05-16 Konica Corp Imaging apparatus for certificate photograph and picture processing method
JP2005300639A (en) * 2004-04-07 2005-10-27 Konica Minolta Photo Imaging Inc Image display device and control method for same
JP2006018740A (en) * 2004-07-05 2006-01-19 Canon Inc Image processing means, device, and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143464A (en) * 2001-10-31 2003-05-16 Konica Corp Imaging apparatus for certificate photograph and picture processing method
JP2005300639A (en) * 2004-04-07 2005-10-27 Konica Minolta Photo Imaging Inc Image display device and control method for same
JP2006018740A (en) * 2004-07-05 2006-01-19 Canon Inc Image processing means, device, and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184869A (en) * 2014-03-24 2015-10-22 大日本印刷株式会社 Attribute discrimination device, attribute discrimination system, attribute discrimination method and program for attribute discrimination
JP2017055242A (en) * 2015-09-09 2017-03-16 富士通株式会社 Color correction device, color correction method and computer program for color correction

Also Published As

Publication number Publication date
JP5845960B2 (en) 2016-01-20

Similar Documents

Publication Publication Date Title
JP6655878B2 (en) Image recognition method and apparatus, program
JP6482195B2 (en) Image recognition apparatus, image recognition method, and program
WO2014080613A1 (en) Color correction device, method, and program
US20120321134A1 (en) Face tracking method and device
JP2010176380A (en) Information processing device and method, program, and recording medium
JP6639523B2 (en) Automatic learning image sorting device, automatic learning image sorting method, and automatic learning image sorting program
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP2012088787A (en) Image processing device, image processing method
WO2013165565A1 (en) Method of detecting a main subject in an image
JP2007249588A (en) Face image registration device, method, program, and storage medium
JP2009031939A (en) Image processing apparatus, method and program
US9349207B2 (en) Apparatus and method for parsing human body image
JP2011095862A (en) Apparatus and method for processing image and program
JP2013152669A (en) Image monitoring device
JP2017076288A (en) Information processor, information processing method and program
JP7085812B2 (en) Image processing device and its control method
JP7308421B2 (en) LEARNING DEVICE, LEARNING SYSTEM AND LEARNING METHOD
WO2012063544A1 (en) Image processing device, image processing method, and recording medium
JP2013232060A (en) Image recognition device, control method and control program of the same, and imaging device and display device
JP5845960B2 (en) Image processing apparatus, image processing method, and image processing program
JP2011239120A (en) Electronic camera
US8538142B2 (en) Face-detection processing methods, image processing devices, and articles of manufacture
JP2004295416A (en) Image processing apparatus
US11373313B2 (en) Image processing apparatus and image processing method
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R150 Certificate of patent or registration of utility model

Ref document number: 5845960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees