JP2011014052A - Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system - Google Patents
Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system Download PDFInfo
- Publication number
- JP2011014052A JP2011014052A JP2009159262A JP2009159262A JP2011014052A JP 2011014052 A JP2011014052 A JP 2011014052A JP 2009159262 A JP2009159262 A JP 2009159262A JP 2009159262 A JP2009159262 A JP 2009159262A JP 2011014052 A JP2011014052 A JP 2011014052A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- common
- category
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像識別装置、画像識別方法、識別器作成装置、識別器作成方法、および撮像システムに関する。 The present invention relates to an image identification device, an image identification method, a discriminator creation device, a discriminator creation method, and an imaging system.
従来、写真等の画像の特徴を、あらかじめカテゴリ別に分類した学習画像の特徴と比較することにより、画像を分類する方法が知られている。例えば、画像の特徴量により画像を分類する方法は、特許文献1に記載されている。 2. Description of the Related Art Conventionally, a method for classifying an image by comparing the characteristics of an image such as a photograph with the characteristics of a learning image that is classified in advance by category is known. For example, Patent Document 1 discloses a method for classifying images based on image feature amounts.
画像の特徴量に応じて画像を分類する方法においては、画像に含まれる被写体の特徴に応じて画像の特徴量が異なるという性質が利用される。例えば、被写体が花である場合の画像の特徴と、被写体が海辺である場合の画像の特徴とは異なる。そこで、分類の対象とする画像が有する特徴をそれぞれのカテゴリの画像が有する特徴と比較することで、特徴が類似するカテゴリに対象画像を分類することができる。画像の特徴は、一例として、画像の色度および輝度などのパラメータを用いて算出した特徴量を用いて表される。 In the method of classifying an image according to the feature amount of the image, the property that the feature amount of the image differs according to the feature of the subject included in the image is used. For example, the feature of the image when the subject is a flower is different from the feature of the image when the subject is a beach. Therefore, by comparing the characteristics of the images to be classified with the characteristics of the images of the respective categories, the target images can be classified into categories with similar characteristics. As an example, the feature of an image is represented using a feature amount calculated using parameters such as chromaticity and luminance of the image.
しかしながら、学習画像の中には、カテゴリの分類に必要な被写体以外の被写体が写っている場合がある。例えば、カテゴリとしては「花」に属する画像であっても、花と一緒に所定の人物が写っている場合がある。このような場合、花と一緒に所定の人物が写っている画像の特徴量と、花のみが写っている画像の特徴量とは異なる。従って、花と一緒に所定の人物が写っている画像を学習画像として用いると、画像の分類の判断に用いる特徴量の誤差が大きくなり、誤ったカテゴリに画像を分類する場合が生じる。例えば、学習画像が、カテゴリによらず写っている家族等の身内画像を含む場合には、特徴量の算出には身内画像が用いられないことが好ましい。 However, in the learning image, there may be a subject other than the subject necessary for category classification. For example, even if the image belongs to “flower” as a category, there is a case where a predetermined person is captured together with the flower. In such a case, the feature amount of an image in which a predetermined person is photographed together with a flower is different from the feature amount of an image in which only a flower is photographed. Therefore, when an image in which a predetermined person is photographed together with a flower is used as a learning image, an error in a feature amount used for image classification determination increases, and the image may be classified into an incorrect category. For example, when the learning image includes a family image of a family or the like that is shown regardless of the category, it is preferable that the personal image is not used for calculating the feature amount.
上記課題を解決するために、本発明の第1の態様においては、与えられる対象画像が、予め定められたいずれのカテゴリの画像であるかを識別する画像識別装置であって、入力される画像の特徴量を算出する特徴量算出部と、予めカテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成し、特徴量算出部に入力する共通画像除去部と、それぞれの処理済画像に対して特徴量算出部が算出した特徴量を用いた画像識別処理により、入力される画像がいずれのカテゴリの画像であるかを識別する識別器を予め生成する識別器作成部とを備え、特徴量算出部は、識別器作成部が識別器を生成した後に対象画像についてカテゴリを識別する場合に、対象画像の特徴量を算出して識別器に入力する画像識別装置を提供する。 In order to solve the above-described problem, in the first aspect of the present invention, an input image is an image identification device that identifies which category of an image to be given is a predetermined target image. Generating a processed image by removing a common image area including a predetermined common subject image from each of a plurality of learning images previously classified into categories The image to be input is an image of any category by the common image removal unit input to the feature amount calculation unit and the image identification processing using the feature amount calculated by the feature amount calculation unit for each processed image. A discriminator creating unit that pre-generates a discriminator for identifying whether or not the feature amount calculating unit identifies a category for the target image after the discriminator creating unit generates the discriminator. To provide an image identification apparatus to be input to the discriminator calculates a feature amount.
上記課題を解決するために、本発明の第2の態様においては、共通画像除去部は、共通の被写体の画像領域として指定される領域を、予め定められた拡大係数で拡大した領域を、共通画像領域とする画像識別装置を提供する。 In order to solve the above-described problem, in the second aspect of the present invention, the common image removal unit uses a common area obtained by enlarging an area designated as an image area of a common subject by a predetermined enlargement factor. Provided is an image identification device as an image region.
上記課題を解決するために、本発明の第3の態様においては、共通画像除去部は、共通の被写体の画像に外接する領域を共通の被写体の画像領域とし、当該領域を拡大係数で拡大した領域を、共通画像領域とする画像識別装置を提供する。 In order to solve the above-described problem, in the third aspect of the present invention, the common image removal unit sets a region circumscribing the common subject image as a common subject image region and enlarges the region by an enlargement factor. Provided is an image identification device in which a region is a common image region.
上記課題を解決するために、本発明の第4の態様においては、共通画像除去部は、予め与えられる参照画像を用いて画像マッチングすることで、複数の学習画像から共通の被写体の画像を抽出する画像識別装置を提供する。 In order to solve the above problem, in the fourth aspect of the present invention, the common image removal unit extracts images of a common subject from a plurality of learning images by performing image matching using a reference image given in advance. An image identification device is provided.
上記課題を解決するために、本発明の第5の態様においては、共通画像除去部は、複数の学習画像のそれぞれについて、除去された共通画像領域に隣接する画素の情報を少なくとも用いて、除去された領域の画像データを補完する画像識別装置を提供する。 In order to solve the above problem, in the fifth aspect of the present invention, the common image removal unit removes each of the plurality of learning images by using at least information on pixels adjacent to the removed common image region. Provided is an image identification device that complements image data of a specified region.
上記課題を解決するために、本発明の第6の態様においては、共通画像除去部は、学習画像全体の1辺の長さに、所定の拡大係数を乗じた大きさに基づいて、共通の被写体の画像領域を拡大する画像識別装置を提供する。 In order to solve the above-described problem, in the sixth aspect of the present invention, the common image removal unit is configured to generate a common based on a size obtained by multiplying the length of one side of the entire learning image by a predetermined enlargement factor. An image identification device for enlarging an image area of a subject is provided.
上記課題を解決するために、本発明の第7の態様においては、共通画像除去部は、学習画像全体の1辺の長さに、第1の拡大係数を乗じた大きさ、または、共通の被写体の画像領域の1辺の長さに、第2の拡大係数を乗じた大きさのいずれかを、共通の被写体の画像領域の大きさに基づいて選択して、選択した大きさに応じて共通の被写体の画像領域を拡大する画像識別装置を提供する。 In order to solve the above-described problem, in the seventh aspect of the present invention, the common image removal unit has a size obtained by multiplying the length of one side of the entire learning image by the first enlargement factor, or a common size. A size obtained by multiplying the length of one side of the image area of the subject by the second enlargement factor is selected based on the size of the image area of the common subject, and according to the selected size. An image identification device for enlarging an image area of a common subject is provided.
上記課題を解決するために、本発明の第8の態様においては、特徴量算出部は、複数種類の方法で特徴量を算出でき、特徴量算出部は、カテゴリ毎に、共通画像除去部により共通画像領域が除去されていない複数の学習画像における共通の特徴量を更に算出し、識別器は、いずれの方法で算出した特徴量を比較するかに応じて、処理済画像から算出した特徴量を用いるか、または、学習画像から算出した特徴量を用いるかを選択する画像識別装置を提供する。 In order to solve the above-described problem, in the eighth aspect of the present invention, the feature quantity calculation unit can calculate the feature quantity by a plurality of types of methods, and the feature quantity calculation unit is provided for each category by the common image removal unit. Further calculate a common feature amount in a plurality of learning images from which the common image region is not removed, and the discriminator calculates the feature amount from the processed image according to which method the feature amount calculated is compared with An image identification device that selects whether to use a feature amount calculated from a learning image is provided.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The above summary of the invention does not enumerate all necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本実施形態に係る画像識別装置100の構成を示す。画像識別装置100は、共通画像除去部20、特徴量算出部30、識別器作成部40、および、識別器50を備える。画像識別装置100は、与えられる対象画像が、予め定められたいずれのカテゴリに属する画像であるかを識別する。
FIG. 1 shows a configuration of an
共通画像除去部20は、予めカテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成し、特徴量算出部30に入力する。特徴量算出部30は、入力される画像の特徴量を算出する。
The common
識別器作成部40は、特徴量算出部30が算出した学習画像の特徴量に応じて、識別器50を予め作成する。識別器50は、それぞれの処理済画像に対して特徴量算出部30が算出した特徴量を用いた画像識別処理により、入力される画像がいずれのカテゴリの画像であるかを識別する。画像識別装置100は、対象画像の分類に先立って、画像識別装置100の製造者又は使用者により入力される学習画像に基づいて識別器50を作成してよい。以下、各部の動作について詳細を説明する。
The
共通画像除去部20は、予めカテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成する。具体的には、共通画像除去部20は、予め、「花見」、「海辺」、「祭り」、「結婚式」などのカテゴリに分類されている被写体が写った複数の学習画像を取得する。
The common
続いて、共通画像除去部20は、取得した学習画像に含まれている共通画像領域を除去する。共通画像領域は、学習画像のカテゴリによらず学習画像に含まれる所定の被写体が含まれる領域である。例えば、共通画像領域は、身内などの予め定められた人物を示す画像に外接する領域であってよい。
Subsequently, the common
共通画像除去部20は、共通画像領域を示す共通画像情報を外部から取得してよい。例えば、共通画像除去部20は、画像識別装置100の使用者が指定した位置情報に基づいて、共通画像領域を決定してよい。共通画像除去部20は、画像識別装置100の使用者に共通画像領域を指定させるべく、学習画像を表示してよい。共通画像除去部20は、共通画像領域の境界線を示す情報を当該位置情報として取得してよく、共通画像領域の四隅の位置を示す情報を当該位置情報として取得してもよい。
The common
特徴量算出部30は、共通画像除去部20が生成した処理済画像を受け取る。特徴量算出部30は、受け取った処理済画像に基づいて、カテゴリ毎に、複数の処理済画像が共通に有する特徴量を算出する。例えば、特徴量算出部30は、処理済画像に含まれるエッジの数に対応する情報を特徴量の成分としてよい。具体的には、特徴量算出部30は、処理済画像の領域を所定の画素数から成る複数の領域に分割した上で、分割した複数の領域の一部または全ての領域に含まれるエッジの数を積算してよい。なお、エッジとは、隣接する画素間で輝度または色度が所定量以上変化する箇所である。
The feature
特徴量算出部30は、処理済画像の色情報を数値化することにより、特徴量の成分を算出してもよい。例えば、特徴量算出部30は、学習画像の色空間をHSV色空間に変換した上で、色空間を構成する各色の発生頻度に基づいてヒストグラムを生成してよい。特徴量算出部30は、各色の発生頻度の数値情報を特徴量の成分としてよい。
The feature
また、特徴量算出部30は、処理済画像の輝度情報を数値化することにより、特徴量の成分を算出してもよい。例えば、特徴量算出部30は、処理済画像の輝度の平均および分散を、特徴量の成分としてよい。特徴量算出部30は、処理済画像の輝度に所定の変換を施した上で、変換後の空間におけるエネルギーおよび分散を特徴量の成分としてもよい。特徴量算出部30は、一例として、処理済画像の色空間をHSV色空間に変換した上で、変換後の色空間におけるエネルギーおよび分散を特徴量の成分としてよい。
The feature
特徴量算出部30は、学習画像に含まれるメタ情報に基づいて、特徴量の成分を算出してもよい。具体的には、学習画像がMPEG−7に準拠して生成された画像である場合には、映像信号特徴記述子に示されるエッジに関する情報、色の発生頻度に関する情報、および輝度に関する情報等を用いてよい。
The feature
識別器作成部40は、特徴量算出部30が算出したそれぞれの学習画像の特徴量、および、それぞれの学習画像のカテゴリを取得する。識別器作成部40は、学習画像が属するカテゴリと、それぞれの学習画像の特徴量との対応関係に基づいて、それぞれのカテゴリの特徴量が分布する領域の境界値を算出する。
The
例えば、学習画像の特徴量を、n個の成分を有するベクトル(すなわち、n次元のベクトル。以下、特徴量ベクトルと称する)として説明する。識別器作成部40は、第1のカテゴリおよび第2のカテゴリにおける特徴量の境界を、第1のカテゴリに属する学習画像の各特徴量ベクトルから当該境界までの距離、および、第2のカテゴリに属する学習画像の各特徴量ベクトルから当該境界までの距離に基づいて算出してよい。
For example, the feature amount of the learning image will be described as a vector having n components (that is, an n-dimensional vector, hereinafter referred to as a feature amount vector). The
一例として識別器作成部40は、第1のカテゴリに属する学習画像の各特徴量ベクトルから当該境界までの距離の最小値と、第2のカテゴリに属する学習画像の各特徴量ベクトルから当該境界までの距離の最小値とが、最も大きくなるような境界を選択してよい。また、識別器作成部40は、x軸の所定の値x1において、第1のカテゴリに属する複数の学習画像の特徴量ベクトルからの距離と、第2のカテゴリに属する複数の学習画像の特徴量ベクトルからの距離とが等しくなるy軸の値y1を算出することにより、x1およびy1を境界値としてよい。識別器作成部40は、x軸の複数の値に対して当該境界値を算出した上で、算出した複数の境界値を接続することにより、カテゴリ間の境界を決定してよい。識別器作成部40は、いわゆるサポートベクトルマシン(Support Vector Machine、SVM)により、当該境界を算出してよい。
As an example, the
また、識別器作成部40は、各学習画像の特徴量ベクトルを最大固有ベクトルの軸方向に射影した値を用いて、各カテゴリの特徴量の境界を算出してもよい。ここで、最大固有ベクトルの軸方向とは、各特徴量ベクトルをn次元空間にプロットした場合に得られる分布が、最も広く分散している方向であってよい。つまり、当該方向は、当該分布における分散の最大固有ベクトルの方向であってよい。識別器作成部40は、いわゆる判別分析法により、カテゴリ間の境界を算出してよい。
Further, the
例えば、第1のカテゴリに属する学習画像の各特徴量ベクトルを、最大固有ベクトルの軸方向に射影した値がA以上B以下(AおよびBは実数)の範囲に含まれ、第2のカテゴリに属する学習画像の各特徴量ベクトルを、当該最大固有ベクトルの軸方向に射影した値がC以上D以下(CおよびDは実数)に分布しているとする。識別器作成部40は、BおよびCの間の値を、第1のカテゴリおよび第2のカテゴリに対応する特徴量分布領域の境界値としてよい。識別器作成部40は、一例として、BおよびCの中間値を境界値としてよい。
For example, a value obtained by projecting each feature vector of the learning image belonging to the first category in the axial direction of the maximum eigenvector is included in a range of A to B (A and B are real numbers) and belongs to the second category. It is assumed that the value obtained by projecting each feature vector of the learning image in the axial direction of the maximum eigenvector is distributed between C and D (C and D are real numbers). The
識別器作成部40は、最大固有ベクトルの軸方向に特徴量ベクトルを射影した値の確率密度分布関数に基づいて、カテゴリ毎の境界値を算出してもよい。例えば、上記の例において、BがCよりも大きい場合には、第1のカテゴリに属する学習画像の特徴量分布領域と、第2のカテゴリに属する学習画像の特徴量分布領域とが重複する。そこで、識別器作成部40は、当該軸のB以上C以下の領域において、第1のカテゴリに属する学習画像における発生確率と第2のカテゴリに属する学習画像における発生確率とが等しくなる当該軸上の値を、第1のカテゴリおよび第2のカテゴリの間の境界値としてよい。
The
なお、上述したベクトルの成分は、例えば画像の色度に基づく成分、画像の輝度に基づく成分等であってよい。また、識別器作成部40は、複数種類の特徴量ベクトルを用いて、識別器を作成してもよい。例えば識別器作成部40は、特徴量ベクトルの種類ごとに下位の識別器を作成してよい。また、識別器作成部40は、複数の下位の識別器に対して、1つの上位の識別器を作成してよい。
The vector components described above may be, for example, a component based on the chromaticity of the image, a component based on the luminance of the image, or the like. Further, the
この場合、下位の識別器は、与えられる対象画像における、対応する種類の特徴量ベクトルに基づいて、上述したカテゴリの判別をそれぞれ行う。上位の識別器は、下位の識別器における判別結果に基づいて、当該対象画像のカテゴリを決定する。上位の識別器は、下位の識別器におけるカテゴリ判別結果の多数決により、対象画像のカテゴリを決定してよい。また、識別器作成部40は、複数の特徴量ベクトルを組み合わせた特徴量ベクトルを用いて、上述した識別器(または、下位の識別器)を作成してもよい。
In this case, the lower classifier performs the above-described category discrimination based on the corresponding type of feature vector in the given target image. The upper classifier determines the category of the target image based on the discrimination result in the lower classifier. The upper classifier may determine the category of the target image by majority decision of the category discrimination result in the lower classifier. Further, the
識別器作成部40は、算出したカテゴリ間の特徴量の境界値を識別器50に入力する。識別器50は、学習画像のカテゴリ、特徴量の種別、および、それぞれのカテゴリにおける特徴量の境界値を対応付けて記憶媒体に記憶する。
The
画像識別装置100の使用者が対象画像を分類する場合には、特徴量算出部30は、分類する対象画像の入力を受ける。特徴量算出部30は、学習画像の特徴量の算出に用いた方法と同一の方法を用いて、対象画像の特徴量を算出する。例えば、特徴量算出部30は、学習画像の特徴量の算出においてエッジの数に対応する情報を用いた場合には、対象画像のエッジの数を積算することにより、対象画像の特徴量を算出してよい。
When the user of the
特徴量算出部30が複数の特徴量を用いて学習画像の特徴量を生成した場合には、特徴量算出部30は、学習画像の特徴量の算出に用いた複数の方法から一つ以上の方法を選択して、対象画像の特徴量を算出してよい。例えば、特徴量算出部30が、エッジの数、色の発生頻度、および輝度に基づいて学習画像の特徴量を算出した場合、特徴量算出部30は、いずれかの方法を用いて対象画像の特徴量を算出してよい。また、特徴量算出部30は、複数の方法を組み合わせて対象画像の特徴量を算出してもよい。
When the feature
特徴量算出部30は、算出した対象画像の特徴量を識別器50に入力する。識別器50は、入力された対象画像の特徴量が、どのカテゴリに属するかを識別する。例えば、カテゴリ間の境界を、上述した判別分析法で算出する場合において、最大固有ベクトルの軸における、第1のカテゴリに対応する特徴量分布領域が10以上50以下であり、第2のカテゴリに対応する特徴量分布領域が50以上100以下とする。この場合において、例えば特徴量ベクトルを当該軸に射影した値が30の対象画像が与えられた場合、識別器50は、当該対象画像を第1のカテゴリに分類する。
The feature
以上のように、本実施形態に係る画像識別装置100は、学習画像のカテゴリによらず学習画像に共通に含まれる被写体の画像を除去した学習画像の特徴量を算出するので、特徴量算出部30において算出する学習画像の特徴量の精度が向上する。その結果、識別器50が記憶するカテゴリ間の特徴量分布領域の境界値の精度が向上する。画像識別装置100は、当該識別器50を用いて対象画像を分類することにより、対象画像を適切なカテゴリに分類することができる。
As described above, the
図2は、学習画像において共通画像領域を指定する方法の一例を示す。学習画像200(200−1、200−2)は、第1のカテゴリに属する背景(網掛け模様)を有する。学習画像210(210−1、210−2)は、第2のカテゴリに属する背景(横縞模様)を有する。共通画像領域220(220−1、220−2)および共通画像領域230(230−1、230−2)は、それぞれ学習画像200および学習画像210から除去する領域を示す。共通画像除去部20は、カテゴリによらず写っている被写体の画像に外接する領域を共通画像領域220としてよい。例えば、共通画像領域220は、学習画像200に含まれる所定の人物に外接する領域であってよい。
FIG. 2 shows an example of a method for designating a common image area in a learning image. The learning image 200 (200-1, 200-2) has a background (shaded pattern) belonging to the first category. The learning image 210 (210-1, 210-2) has a background (horizontal stripe pattern) belonging to the second category. The common image area 220 (220-1, 220-2) and the common image area 230 (230-1, 230-2) indicate areas to be removed from the learning image 200 and the learning image 210, respectively. The common
具体的には、共通画像除去部20は、学習画像200の水平方向の辺と平行な線が、除去する被写体の画像と接する位置を、共通画像領域220の水平方向の領域の端部としてよい。また、共通画像除去部20は、学習画像200の垂直方向の辺と平行な線が、除去する被写体の画像と接する位置を、共通画像領域220の垂直方向の領域の端部としてよい。
Specifically, the common
共通画像領域220は、一例として、画像識別装置100の使用者が領域を示す線を指定することにより定められてもよい。また、共通画像領域220は、画像識別装置100の使用者が指定する共通画像領域220の四隅の位置情報に基づいて定められてもよい。当該位置情報は、例えば、学習画像全体の四隅のいずれかを原点とする座標であってよい。
As an example, the common image region 220 may be determined by a user of the
なお、共通画像領域220および共通画像領域230は、学習画像200および学習画像210内のいずれの位置にあってもよい。また、共通画像領域220および共通画像領域230は、学習画像200および学習画像210の大きさに対していずれの比率を有する大きさであってもよい。 Note that the common image region 220 and the common image region 230 may be located at any position in the learning image 200 and the learning image 210. The common image region 220 and the common image region 230 may have a size having any ratio with respect to the size of the learning image 200 and the learning image 210.
共通画像除去部20は、複数の学習画像200および学習画像210のそれぞれについて、除去された共通画像領域220および共通画像領域230に隣接する画素の情報を少なくとも用いて、除去された領域の画像データを補完してよい。例えば、共通画像除去部20は、共通画像領域220に隣接する所定の数の画素と同一の画素を、除去した共通画像領域220内に複写することにより、除去された領域の画像データを補完してよい。
The common
図3は、除去した共通画像領域の画像データが補完された画像の一例を示す。学習画像300および学習画像310は、共通画像除去部20が除去した図3に示す共通画像領域220および共通画像領域230を、学習画像200および学習画像210の背景画像で補完した画像である。
FIG. 3 shows an example of an image in which the image data of the removed common image region is complemented. The learning image 300 and the learning image 310 are images obtained by complementing the common image region 220 and the common image region 230 shown in FIG. 3 removed by the common
共通画像領域320−1および共通画像領域320−2は、それぞれ、図2に示した共通画像領域220−1および共通画像領域220−2の領域を、共通画像領域320−1および共通画像領域320−2に隣接する画素の画像データにより補完した領域である。同様に、共通画像領域430−1および共通画像領域430−2は、それぞれ、共通画像領域230−1および共通画像領域230−2の領域を、共通画像領域320−1および共通画像領域320−2に隣接する画素の画像データにより補完した領域である。 The common image region 320-1 and the common image region 320-2 are respectively the common image region 220-1 and the common image region 220-2 shown in FIG. -2 is an area supplemented by image data of pixels adjacent to -2. Similarly, the common image region 430-1 and the common image region 430-2 are respectively the common image region 230-1 and the common image region 230-2, and the common image region 320-1 and the common image region 320-2. This is a region supplemented by image data of pixels adjacent to.
特徴量算出部30は、学習画像300および学習画像310の特徴量を算出する。識別器50は、学習画像300および学習画像310の特徴量を、それぞれが属するカテゴリの名称に対応付けて記憶してよい。例えば、識別器50は、学習画像300の模様が花見の風景を示す場合には、カテゴリ名「花見」に対応付けて、学習画像300−1および学習画像300−2の特徴量を記憶してよい。識別器50は、学習画像310の模様が海辺の風景を示す場合には、カテゴリ名「海辺」に対応付けて、学習画像310−1および学習画像310−2の特徴量を記憶してよい。
The feature
特徴量算出部30は、学習画像300および学習画像310のそれぞれに含まれる学習画像の特徴量の平均値を算出してもよい。識別器50は、算出した学習画像300および学習画像310のそれぞれに含まれる学習画像の特徴量の平均値を、それぞれが属するカテゴリの名称に対応付けて記憶してもよい。具体的には、識別器50は、学習画像300−1および学習画像300−2の特徴量の平均値を、「花見」に対応付けて記憶してもよい。同様に、識別器50は、学習画像510−1および学習画像510−2の特徴量の平均値を、「海辺」に対応付けて記憶してよい。
The feature
以上説明した補完処理を施すことにより、カテゴリの特徴を示す画像の領域が大きくなる。従って、画像識別装置100は、算出する学習画像特徴量の精度を向上することができる。
By performing the complementing process described above, the area of the image showing the characteristics of the category becomes large. Therefore, the
図4は、分類する対象画像の一例を示す。同図において、対象画像400−1は、図2に示した学習画像200の背景に類似する背景内に所定の人物の画像を含む画像である。対象画像400−2は、学習画像210の背景に類似する背景内に所定の人物の画像を含む画像である。 FIG. 4 shows an example of target images to be classified. In the figure, a target image 400-1 is an image including an image of a predetermined person in a background similar to the background of the learning image 200 shown in FIG. The target image 400-2 is an image including an image of a predetermined person in a background similar to the background of the learning image 210.
特徴量算出部30は、対象画像400−1および対象画像400−2の特徴量を算出する。特徴量算出部30は、所定の人物が含まれる領域の画像を除去することなく、特徴量を算出する。識別器50は、特徴量算出部30が算出したそれぞれの画像の特徴量が、どのカテゴリに属するかを識別する。
The feature
具体的には、識別器50は、対象画像400−1の特徴量と、図3に示した学習画像300および学習画像310の特徴量を用いて定めた各カテゴリの特徴量分布領域との距離を算出する。対象画像400−1の背景は、学習画像300の画像と類似しているので、対象画像400−1の特徴量は、学習画像310の特徴量分布領域よりも学習画像300の特徴量分布領域に近い値を有する。そこで、識別器50は、対象画像400−1の特徴量は学習画像300に近いと判断する。例えば、識別器50は、対象画像400−1をカテゴリ「花見」に分類する。
Specifically, the
また、対象画像400−2の背景は、学習画像310の背景と類似しているので、対象画像400−2の特徴量は、学習画像300の特徴量分布領域よりも学習画像310の特徴量分布領域に近い値を有する。そこで、識別器50は、対象画像400−2の特徴量は学習画像310に近いと判断する。例えば、識別器50は、対象画像400−2をカテゴリ「海辺」に分類する。
Further, since the background of the target image 400-2 is similar to the background of the learning image 310, the feature amount of the target image 400-2 is more than the feature amount distribution region of the learning image 300. It has a value close to the region. Therefore, the
図5は、除去した共通画像領域の画像データを補完しない場合の学習画像を示す。共通画像除去部20は、除去した共通画像領域の画像データを補完しないで、模様を有しない画像データにより補完してもよい。図5に示す学習画像500および学習画像510は、図2に示した共通画像領域220および共通画像領域230が除去された領域が、模様を有しない共通画像領域520および共通画像領域530により補完されている。
FIG. 5 shows a learning image when the image data of the removed common image region is not complemented. The common
共通画像領域520および共通画像領域530内においては、特徴量の算出に用いる色度および輝度が変化しない。また、共通画像領域520および共通画像領域530は、画像のエッジも含まないので、特徴量の算出に対する影響が小さい。従って、共通画像領域520を含む学習画像500の特徴量、および、共通画像領域530を含む学習画像510の特徴量は、それぞれ学習画像500および学習画像510の背景領域の特徴量に近い。その結果、特徴量算出部30は、学習画像500および学習画像510の特徴量を算出することにより、学習画像200および学習画像210から所定の人物が含まれる領域の画像を除去しないで特徴量を算出する場合に比べて、それぞれの背景領域の特徴量に近い特徴量を算出することができる。
In the common image area 520 and the common image area 530, the chromaticity and luminance used for calculating the feature amount do not change. Further, since the common image area 520 and the common image area 530 do not include the edge of the image, the influence on the calculation of the feature amount is small. Therefore, the feature amount of the learning image 500 including the common image region 520 and the feature amount of the learning image 510 including the common image region 530 are close to the feature amount of the background region of the learning image 500 and the learning image 510, respectively. As a result, the feature
以上のように、本実施形態に係る画像識別装置100によれば、画像の属するカテゴリごとに高い精度で特徴量を算出することができる。その結果、対象画像の分類精度が向上する。しかし、画像識別装置100の使用者が共通画像領域を指定する場合に、除去すべき画像領域を指定しなかった場合には、精度が低下する。
As described above, according to the
図6Aは、共通画像領域が正しく指定されない場合の一例を示す。同図の学習画像600に含まれる共通画像領域620は、図2における学習画像200−1に比べて小さな領域が指定されている。その結果、除去すべき所定の人物の頭部の一部および洋服の一部が除去されない。本来除去すべき被写体の一部が残った画像を用いて特徴量を算出すると、特徴量に誤差が生じる。特に、共通画像領域620に外接する画像により、共通画像領域620を補完する場合、背景の色および模様と異なる特徴を有する部分が残されると、当該部分により共通画像領域620が補完される。
FIG. 6A shows an example when the common image region is not correctly specified. In the
図6Bは、共通画像領域が正しく指定されない場合に補完された場合の画像の一例を示す。共通画像領域630の一部の領域は、図6Aに示す所定の人物の洋服の一部の模様により補完されている。その結果、特徴量算出部30は、学習画像600に含まれる背景の特徴と異なる特徴を有する画像に基づいて特徴量を算出するので、学習画像600の特徴量に含まれる誤差が大きくなる。
FIG. 6B shows an example of an image when complemented when the common image region is not correctly specified. A partial area of the
そこで、共通画像除去部20は、共通の被写体の画像領域として指定される領域を予め定められた拡大係数で拡大した領域を、共通画像領域としてよい。例えば、共通画像除去部20は、学習画像全体の1辺の長さに、所定の拡大係数を乗じた大きさに基づいて、共通の被写体の画像領域を拡大してよい。具体的には、共通画像除去部20は、学習画像全体の1辺の長さに所定の拡大係数を乗じた長さを、画像識別装置100の使用者が指定した画像領域の4辺に付加することにより、拡大した共通画像領域を生成してよい。
Therefore, the common
ここで、共通画像除去部20が除去する共通画像領域を大きくすると、除去すべき被写体が残存する可能性が低くなる反面、特徴量の算出に用いることができる画像領域が小さくなる。これに対して、共通画像除去部20が除去する共通画像領域を小さくすると、除去すべき被写体が残存する可能性が高くなる。そこで、一例として、共通画像除去部20は、学習画像全体のいずれかの1辺の長さの略1/30の長さを、画像識別装置100の使用者が指定した画像領域の4辺に付加することにより、拡大した共通画像領域を生成してよい。
Here, if the common image area to be removed by the common
図7は、拡大した共通画像領域を生成する方法の一例を示す。同図において、学習画像700−1の画像の水平方向の1辺の長さはH、垂直方向の1辺の長さはVである。共通画像領域720−1は、画像識別装置100の使用者が指定した共通画像領域である。
FIG. 7 shows an example of a method for generating an enlarged common image region. In the figure, the length of one side in the horizontal direction of the learning image 700-1 is H, and the length of one side in the vertical direction is V. The common image region 720-1 is a common image region designated by the user of the
学習画像700−2は、共通画像領域720−1を拡大した共通画像領域720−2を有する。H1は、学習画像700−1および学習画像700−2を重ね合わせた場合の、共通画像領域720−1の垂直方向の左辺と共通画像領域720−2の垂直方向の左辺との間の距離を示す。H2は、学習画像700−1および学習画像700−2を重ね合わせた場合の、共通画像領域720−1の垂直方向の右辺と共通画像領域720−2の垂直方向の右辺との間の距離を示す。H1およびH2は、学習画像700−1のいずれかの1辺の長さに所定の拡大係数を乗じた長さであってよい。 The learning image 700-2 has a common image area 720-2 obtained by enlarging the common image area 720-1. H1 represents the distance between the vertical left side of the common image region 720-1 and the vertical left side of the common image region 720-2 when the learning image 700-1 and the learning image 700-2 are superimposed. Show. H2 represents the distance between the vertical right side of the common image region 720-1 and the vertical right side of the common image region 720-2 when the learning image 700-1 and the learning image 700-2 are superimposed. Show. H1 and H2 may be a length obtained by multiplying the length of one side of the learning image 700-1 by a predetermined enlargement factor.
V1は、学習画像700−1および学習画像700−2を重ね合わせた場合の、共通画像領域720−1の水平方向の上辺と共通画像領域720−2の水平方向の上辺との間の距離を示す。V2は、学習画像700−1および学習画像700−2を重ね合わせた場合の、共通画像領域720−1の水平方向の下辺と共通画像領域720−2の水平方向の下辺との間の距離を示す。V1およびV2は、学習画像700−1のいずれかの1辺の長さに所定の拡大係数を乗じた長さであってよい。 V1 represents the distance between the upper side in the horizontal direction of the common image region 720-1 and the upper side in the horizontal direction of the common image region 720-2 when the learning image 700-1 and the learning image 700-2 are superimposed. Show. V2 represents the distance between the horizontal lower side of the common image region 720-1 and the horizontal lower side of the common image region 720-2 when the learning image 700-1 and the learning image 700-2 are superimposed. Show. V1 and V2 may be a length obtained by multiplying the length of one side of the learning image 700-1 by a predetermined enlargement factor.
共通画像除去部20は、共通画像領域720−1の4辺のそれぞれに、H1、H2、V1、またはV2の長さを付加することにより、共通画像領域720−2を生成してよい。H1、H2、V1、およびV2のそれぞれは、Hに所定の拡大係数を乗じた値であってよい。また、H1、H2、V1、およびV2は、Vに所定の拡大係数を乗じた値であってもよい。このように、共通画像除去部20が拡大した共通画像領域を生成することにより、学習画像のカテゴリに属しない被写体の画像が共通画像領域内に含まれなくなる。その結果、特徴量算出部30が算出する学習画像の特徴量の精度が向上する。
The common
図8は、拡大した共通画像領域を生成する方法の他の一例を示す。共通画像除去部20は、共通の被写体の画像に外接する領域を共通の被写体の画像領域とし、当該領域を拡大係数で拡大した領域を、共通画像領域としてもよい。具体的には、共通画像除去部20は、画像識別装置100の使用者が共通の被写体の画像にほぼ外接する共通画像領域820−1を指定した場合に、共通画像領域820−1の1辺の長さに所定の拡大係数を乗じた長さを共通画像領域820−1の4辺に付加することにより、拡大した共通画像領域820−2を生成してよい。
FIG. 8 shows another example of a method for generating an enlarged common image region. The common
共通画像除去部20は、共通画像領域820−1の水平方向の辺の長さに所定の拡大係数を乗じた長さを共通画像領域820−1の水平方向の辺に付加することにより、共通画像領域820−2の水平方向の辺の長さを決定してよい。また、共通画像除去部20は、共通画像領域820−1の垂直方向の辺の長さに所定の拡大係数を乗じた長さを共通画像領域820−1の垂直方向の辺に付加することにより、共通画像領域820−2の垂直方向の辺の長さを決定してよい。以上の手順により、共通画像除去部20は、共通画像領域820−1を拡大した共通画像領域820−2を生成することができる。
The common
具体的には、H3は、学習画像800−1および学習画像800−2を重ね合わせた場合の、共通画像領域820−1の垂直方向の左辺と共通画像領域820−2の垂直方向の左辺との間の距離を示す。H4は、学習画像800−1および学習画像800−2を重ね合わせた場合の、共通画像領域820−1の垂直方向の右辺と共通画像領域820−2の垂直方向の右辺との間の距離を示す。H3およびH4は、共通画像領域820−1の水平方向の辺の長さに所定の拡大係数を乗じた長さであってよい。 Specifically, H3 represents the left side in the vertical direction of the common image area 820-1 and the left side in the vertical direction of the common image area 820-2 when the learning image 800-1 and the learning image 800-2 are superimposed. Indicates the distance between. H4 represents the distance between the right side in the vertical direction of the common image region 820-1 and the right side in the vertical direction of the common image region 820-2 when the learning image 800-1 and the learning image 800-2 are superimposed. Show. H3 and H4 may be a length obtained by multiplying the length of the horizontal side of the common image region 820-1 by a predetermined enlargement factor.
V3は、学習画像800−1および学習画像800−2を重ね合わせた場合の、共通画像領域820−1の水平方向の上辺と共通画像領域820−2の水平方向の上辺との間の距離を示す。V4は、学習画像800−1および学習画像800−2を重ね合わせた場合の、共通画像領域820−1の水平方向の下辺と共通画像領域820−2の水平方向の下辺との間の距離を示す。V3およびV4は、共通画像領域820−1の垂直方向の辺の長さに所定の拡大係数を乗じた長さであってよい。 V3 represents the distance between the upper side in the horizontal direction of the common image region 820-2 and the upper side in the horizontal direction of the common image region 820-2 when the learning image 800-1 and the learning image 800-2 are superimposed. Show. V4 represents the distance between the horizontal lower side of the common image region 820-1 and the horizontal lower side of the common image region 820-2 when the learning image 800-1 and the learning image 800-2 are superimposed. Show. V3 and V4 may be a length obtained by multiplying the length of the side in the vertical direction of the common image region 820-1 by a predetermined enlargement factor.
共通画像除去部20は、学習画像全体の1辺の長さに、第1の拡大係数を乗じた大きさ、または、共通の被写体の画像領域の1辺の長さに、第2の拡大係数を乗じた大きさのいずれかを、共通の被写体の画像領域の大きさに基づいて選択して、選択した大きさに応じて共通の被写体の画像領域を拡大してもよい。例えば、共通の被写体の画像領域が所定の大きさ以上の場合に、学習画像全体の1辺の長さに第1の拡大係数を乗じた大きさを当該画像領域に付加すると、カテゴリに属する画像の特徴量を算出する上で十分な画像領域を確保できない場合がある。そこで、共通の被写体の画像領域が所定の大きさ以上の場合に、共通画像除去部20は、共通の被写体の画像領域の1辺の長さに第2の拡大係数を乗じた大きさを当該画像領域に付加することにより、除去する共通画像領域を生成してよい。
The common
共通の被写体の画像領域が所定の大きさ未満の場合には、学習画像全体の1辺の長さに第1の拡大係数を乗じた大きさを当該画像領域に付加しても、特徴量を算出する上で十分な画像領域を確保することができる。そこで、共通の被写体の画像領域が所定の大きさ未満の場合に、共通画像除去部20は、学習画像全体の1辺の長さに第2の拡大係数を乗じた大きさを当該画像領域に付加することにより、除去する共通画像領域を生成してよい。
If the image area of the common subject is less than a predetermined size, the feature amount can be obtained even if a size obtained by multiplying the length of one side of the entire learning image by the first enlargement factor is added to the image area. A sufficient image area can be secured for the calculation. Therefore, when the image area of the common subject is less than a predetermined size, the common
共通画像除去部20は、予め与えられる参照画像を用いて画像マッチングすることで、複数の学習画像から共通の被写体の画像を抽出してもよい。例えば、画像識別装置100の使用者が予め選択した所定の人物等の画像を参照画像として使用してよい。
The common
図9は、参照画像の一例を示す。参照画像900は、一例として、図2に示した共通画像領域220−1に含まれる画像と等しい画像であってよい。共通画像除去部20は、参照画像900の特徴量を算出して記憶する。
FIG. 9 shows an example of a reference image. For example, the reference image 900 may be an image equal to the image included in the common image region 220-1 illustrated in FIG. The common
例えば、共通画像除去部20は、学習画像800における共通画像領域820−1を抽出するにあたって、学習画像800の所定の位置から一定の間隔ごとに、参照画像900と等しい大きさの領域を選択する。共通画像除去部20は、選択したそれぞれの領域における特徴量を算出する。共通画像除去部20は、それぞれの領域における特徴量と参照画像900の特徴量とを比較し、最も近い特徴量を有する領域を共通画像領域820−1であると判断してよい。
For example, when extracting the common image area 820-1 in the learning image 800, the common
以上の実施形態においては、共通画像領域を除去した上で学習画像の特徴量を算出する方法について説明した。しかしながら、画像識別装置100は、条件に応じて、学習画像の特徴量の算出時に共通画像領域を除去するか否かを選択してもよい。
In the above embodiment, the method for calculating the feature amount of the learning image after removing the common image region has been described. However, the
図10は、共通画像領域を除去するか否かを選択することができる画像識別装置100の構成を示す。同図において、特徴量算出部30は、特徴量算出部30−1、特徴量算出部30−2、および特徴量算出部30−3を有する。識別器作成部40は、識別器作成部40−1および識別器作成部40−2を有する。識別器50は、識別器50−1、識別器50−2、および選択部52を有する。
FIG. 10 shows a configuration of the
特徴量算出部30−1は、共通画像除去部20により共通画像領域を除去された画像の特徴量を算出する。識別器作成部40−1は、特徴量算出部30−1が算出した特徴量に基づいて識別器50−1を作成する。
The feature amount calculation unit 30-1 calculates the feature amount of the image from which the common image area has been removed by the common
本実施形態において、特徴量算出部30−2の演算能力は特徴量算出部30−1の演算能力よりも高いので、特徴量算出部30−2は、所定時間内に特徴量算出部30−1よりも多くの種類の方法で高精度に特徴量を算出できる。特徴量算出部30−2が高精度に特徴量を算出できる場合には、特徴量の算出対象となる画像領域の面積が大きいことが好ましい。そこで、特徴量算出部30−2は、共通画像領域が除去されていない学習画像の特徴量を算出する。識別器作成部40−2は、特徴量算出部30−2が算出した特徴量に基づいて、識別器50−2を作成する。 In the present embodiment, since the calculation capability of the feature amount calculation unit 30-2 is higher than the calculation capability of the feature amount calculation unit 30-1, the feature amount calculation unit 30-2 may include the feature amount calculation unit 30- within a predetermined time. The feature amount can be calculated with high accuracy by more than one type of method. When the feature amount calculation unit 30-2 can calculate the feature amount with high accuracy, it is preferable that the area of the image region that is the target of the feature amount calculation is large. Therefore, the feature amount calculation unit 30-2 calculates the feature amount of the learning image from which the common image region is not removed. The discriminator creating unit 40-2 creates the discriminator 50-2 based on the feature amount calculated by the feature amount calculating unit 30-2.
選択部52は、識別器50−1および識別器50−2のいずれを用いて対象画像を分類するかを選択する。選択部52は、画像識別装置100の使用者が入力した選択情報に基づいて、使用する識別器を選択してよい。選択部52は、特徴量算出部30−3から入力される対象画像の特徴量を、選択した識別器に入力する。例えば、選択部52は、短時間で対象画像を分類する場合には識別器50−1を選択し、多くの種類の方法を用いて算出した特徴量を用いて対象画像を高精度に分類する場合には、識別器50−2を選択してよい。
The
特徴量算出部30−3は、対象画像の特徴量を算出する。特徴量算出部30−3は、選択部52が選択した識別器の作成に用いられた特徴量算出方法を用いて、対象画像の特徴量を算出する。このように、本実施形態に係る画像識別装置100においては、複数の識別器を選択できるので、分類時間、および、分類に求められる精度等に応じて、最適な識別器を用いて対象画像を分類することができる。
The feature amount calculation unit 30-3 calculates the feature amount of the target image. The feature amount calculation unit 30-3 calculates the feature amount of the target image using the feature amount calculation method used to create the classifier selected by the
なお、特徴量算出部30−1、特徴量算出部30−2、および特徴量算出部30−3は、同一のハードウェアを用いることにより構成してもよい。例えば、特徴量算出部30−1としてコンピュータを機能させるプログラム、特徴量算出部30−2としてコンピュータを機能させるプログラム、および特徴量算出部30−3としてコンピュータを機能させるプログラム等により同一のコンピュータを動作させることによって、特徴量算出部30−1、特徴量算出部30−2、および特徴量算出部30−3を構成してよい。 Note that the feature amount calculation unit 30-1, the feature amount calculation unit 30-2, and the feature amount calculation unit 30-3 may be configured by using the same hardware. For example, a program that causes a computer to function as the feature amount calculation unit 30-1, a program that causes the computer to function as the feature amount calculation unit 30-2, a program that causes the computer to function as the feature amount calculation unit 30-3, and the like can be used. You may comprise the feature-value calculation part 30-1, the feature-value calculation part 30-2, and the feature-value calculation part 30-3 by making it operate | move.
同様に、識別器40−1および識別器40−2は、同一のハードウェアを用いることにより構成してもよい。例えば、識別器40−1としてコンピュータを機能させるプログラム、および、識別器40−2としてコンピュータを機能させるプログラムによりコンピュータを動作させることによって、識別器40−1および識別器40−2を構成してよい。 Similarly, the discriminator 40-1 and the discriminator 40-2 may be configured by using the same hardware. For example, the discriminator 40-1 and the discriminator 40-2 are configured by operating the computer with a program for causing the computer to function as the discriminator 40-1 and a program for causing the computer to function as the discriminator 40-2. Good.
図11Aは、識別器50−1を作成する動作フローを示す。共通画像除去部20は、学習画像および共通画像情報を取得して(S101)、共通画像領域を除去する(S102)。特徴量算出部30−1は、共通画像領域を除去した状態における学習画像の特徴量を算出する(S103)。識別器作成部40−1は、算出された学習画像の特徴量に基づいて、共通画像領域を除去した学習画像を用いた場合の識別器50−1を作成する(S104)。
FIG. 11A shows an operation flow for creating the discriminator 50-1. The common
図11Bは、識別器50−2を作成する動作フローを示す。特徴量算出部30−2は、学習画像を取得して(S111)、学習画像の特徴量を算出する(S112)。識別器作成部40−2は、算出された学習画像の特徴量に基づいて、共通画像を除去しない学習画像を用いた場合の識別器50−2を作成する(S113)。 FIG. 11B shows an operation flow for creating the discriminator 50-2. The feature amount calculation unit 30-2 acquires a learning image (S111), and calculates a feature amount of the learning image (S112). The discriminator creating unit 40-2 creates the discriminator 50-2 when a learning image that does not remove the common image is used based on the calculated feature amount of the learning image (S113).
図11Cは、対象画像を分類する動作フローを示す。特徴量算出部30−3は、対象画像を取得する(S121)。選択部52は、外部から入力される情報に基づいて、対象画像の分類に用いる識別器を選択する(S122)。
FIG. 11C shows an operation flow for classifying target images. The feature amount calculation unit 30-3 acquires the target image (S121). The
特徴量算出部30−3は、選択部52が識別器50−1を選択した場合には(S123)、特徴量算出部30−1が用いた特徴量算出方法を用いて対象画像の特徴量を算出する(S124)。選択部52は、特徴量算出部30−3から入力された特徴量を識別器50−1に入力する。識別器50−1は、入力された特徴量に対応する対象画像を最適なカテゴリに分類する(S125)。
When the
特徴量算出部30−3は、選択部52が識別器50−2を選択した場合には(S123)、特徴量算出部30−2が用いた特徴量算出方法を用いて対象画像の特徴量を算出する(S126)。選択部52は、特徴量算出部30−4から入力された特徴量を識別器50−2に入力する。識別器50−2は、入力された特徴量に対応する対象画像を最適なカテゴリに分類する(S127)。
When the
図12は、他の実施形態に係る撮像システム150の構成を示す。撮像システム150は、図1に示した画像識別装置100に対して、撮像部120をさらに備える。例えば、撮像システム150はデジタルカメラであってよい。撮像部120は、撮像対象を撮像した対象画像を特徴量算出部30に入力する。識別器50は、特徴量算出部30が算出した対象画像の特徴量を、予め特徴量を算出した各カテゴリのうち、特徴量が最も近いカテゴリに分類する。識別器50は、分類したカテゴリに応じた情報を、対象画像のメタ情報領域に付加してよい。
FIG. 12 shows a configuration of an
撮像システム150は、撮像システム150の使用者の操作に応じて、外部の記憶媒体から取得した対象画像をカテゴリ毎に分類して表示してよい。また、撮像システム150は、対象画像のメタ情報領域に当該対象画像が属するカテゴリに応じた情報を付して、外部装置に出力してよい。このように、撮像システム150が取得した対象画像をカテゴリに分類することにより、関連する画像を検索したり、関連する画像ごとに保存したり、関連する画像だけを連続して表示したりすることができる。
The
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
20 共通画像除去部、30 特徴量算出部、40 識別器作成部、50 識別器、52 選択部、100 画像識別装置、120 撮像部、150 撮像システム、200 学習画像、210 学習画像、220 共通画像領域、230 共通画像領域、300 学習画像、310 学習画像、400 対象画像、500、学習画像、510 学習画像、520 共通画像領域、530 共通画像領域、600 学習画像、620 共通画像領域、630 共通画像領域、700 学習画像、720 共通画像領域、800 学習画像、820 共通画像領域、900 参照画像 20 common image removal unit, 30 feature quantity calculation unit, 40 classifier creation unit, 50 classifier, 52 selection unit, 100 image identification device, 120 imaging unit, 150 imaging system, 200 learning image, 210 learning image, 220 common image Area, 230 common image area, 300 learning image, 310 learning image, 400 target image, 500, learning image, 510 learning image, 520 common image area, 530 common image area, 600 learning image, 620 common image area, 630 common image Area, 700 learning image, 720 common image area, 800 learning image, 820 common image area, 900 reference image
Claims (12)
入力される画像の特徴量を算出する特徴量算出部と、
予め前記カテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成し、前記特徴量算出部に入力する共通画像除去部と、
それぞれの前記処理済画像に対して前記特徴量算出部が算出した特徴量を用いた画像識別処理により、入力される画像がいずれの前記カテゴリの画像であるかを識別する識別器を予め生成する識別器作成部と
を備え、
前記特徴量算出部は、前記識別器作成部が前記識別器を生成した後に前記対象画像についてカテゴリを識別する場合に、前記対象画像の特徴量を算出して前記識別器に入力する画像識別装置。 An image identification device for identifying a predetermined category of an image to be given,
A feature amount calculation unit for calculating a feature amount of an input image;
A processed image obtained by removing a common image area including a predetermined common subject image from each of a plurality of learning images previously classified in the category is generated and input to the feature amount calculation unit An image removal unit;
A discriminator that identifies which category of image the input image belongs to is generated in advance by image discrimination processing using the feature amount calculated by the feature amount calculation unit for each processed image. And a discriminator creation unit,
The feature quantity calculation unit calculates the feature quantity of the target image and inputs it to the classifier when the classifier creation unit identifies a category for the target image after generating the classifier. .
請求項1に記載の画像識別装置。 The image identification device according to claim 1, wherein the common image removing unit enlarges an area designated as an image area of the common subject by a predetermined enlargement factor as the common image area.
請求項2に記載の画像識別装置。 3. The common image removal unit includes a region circumscribing the common subject image as the common subject image region, and a region obtained by enlarging the region by the enlargement factor as the common image region. Image identification device.
請求項3に記載の画像識別装置。 The image identification device according to claim 3, wherein the common image removal unit extracts images of the common subject from the plurality of learning images by performing image matching using a reference image given in advance.
請求項2から4のいずれかに記載の画像識別装置。 The said common image removal part complements the image data of the removed area | region using at least the information of the pixel adjacent to the removed said common image area | region about each of these learning images. The image identification device according to any one of the above.
請求項3または4に記載の画像識別装置。 The said common image removal part expands the image area | region of the said common subject based on the magnitude | size which multiplied the length of one side of the whole learning image by the predetermined said expansion coefficient. Image identification device.
請求項3または4に記載の画像識別装置。 The common image removal unit is configured to multiply the length of one side of the entire learning image by a first enlargement factor, or to the length of one side of the image area of the common subject, The size multiplied by the coefficient is selected based on the size of the image area of the common subject, and the image area of the common subject is enlarged according to the selected size. The image identification device described in 1.
前記識別器は、前記処理済画像から算出した前記特徴量を用いるか、または、前記共通画像領域が除去されていない前記複数の学習画像から算出した前記特徴量を用いるかを選択する
請求項1から7のいずれかに記載の画像識別装置。 The feature amount calculation unit further calculates, for each category, a common feature amount in the plurality of learning images in which the common image region is not removed by the common image removal unit,
2. The classifier selects whether to use the feature amount calculated from the processed image or to use the feature amount calculated from the plurality of learning images from which the common image region is not removed. 8. The image identification device according to any one of 1 to 7.
予め前記カテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成する共通画像除去段階と、
前記共通画像除去段階で生成された処理済画像の特徴量を算出する共通特徴量算出段階と、
それぞれの前記処理済画像に対して前記特徴量算出段階において算出した特徴量を用いた画像識別処理により、入力される画像がいずれの前記カテゴリの画像であるかを識別する識別器を予め生成する識別器作成段階と
前記識別器作成段階において前記識別器を生成した後に前記対象画像についてカテゴリを識別する場合に、前記対象画像の特徴量を算出して前記識別器に入力する対象画像特徴量算出段階を備える画像識別方法。 An image identification method for identifying a predetermined category of an image to be given,
A common image removal step of generating a processed image obtained by removing a common image region including a predetermined common subject image from each of a plurality of learning images previously classified into the category;
A common feature amount calculating step of calculating a feature amount of the processed image generated in the common image removing step;
A classifier that identifies which category of image the input image belongs to is generated in advance by image identification processing using the feature amount calculated in the feature amount calculation step for each processed image. A target image feature amount calculation unit that calculates a feature amount of the target image and inputs it to the classifier when a category is identified for the target image after generating the classifier in the classifier generation step and the classifier generation step; An image identification method comprising steps.
予めカテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成し、前記特徴量算出部に入力する共通画像除去部と、
それぞれの前記処理済画像に対して前記特徴量算出部が算出した特徴量を用いた画像識別処理により、入力される画像がいずれの前記カテゴリの画像であるかを識別する識別器を生成する識別器作成部と
を備える識別器作成装置。 A feature amount calculation unit for calculating a feature amount of an input image;
A common image that is generated from each of a plurality of learning images that have been classified into categories in advance and that has been processed by removing a common image region that includes a predetermined common subject image, and that is input to the feature amount calculation unit A removal section;
Identification for generating a discriminator for identifying which category of image the input image is by image identification processing using the feature amount calculated by the feature amount calculation unit for each processed image A discriminator creating device comprising a device creating unit.
前記共通画像除去段階で生成された処理済画像の特徴量を算出する特徴量算出段階と、
それぞれの前記処理済画像に対して前記特徴量算出段階において算出した特徴量を用いた画像識別処理により、入力される画像がいずれの前記カテゴリの画像であるかを識別する識別器を生成する段階と
を備える識別器作成方法。 A common image removal step of generating a processed image obtained by removing a common image region including a predetermined common subject image from each of a plurality of learning images classified in advance into categories;
A feature amount calculating step of calculating a feature amount of the processed image generated in the common image removing step;
A step of generating a discriminator for identifying which category of image the input image is by image discrimination processing using the feature amount calculated in the feature amount calculation step for each processed image. A classifier creating method comprising:
撮像対象を撮像した対象画像を取得する撮像部と、
前記対象画像が、予め定められたいずれのカテゴリの画像であるかを識別する画像識別装置と
を備え、
前記画像識別装置は、
入力される画像の特徴量を算出する特徴量算出部と、
予め前記カテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成し、前記特徴量算出部に入力する共通画像除去部と、
それぞれの前記処理済画像に対して前記特徴量算出部が算出した特徴量を用いた画像識別処理により、入力される画像がいずれの前記カテゴリの画像であるかを識別する識別器を予め生成する識別器作成部と
を有し、
前記特徴量算出部は、前記識別器作成部が前記識別器を生成した後に前記対象画像についてカテゴリを識別する場合に、前記対象画像の特徴量を算出して前記識別器に入力する
撮像システム。 An imaging system for capturing an image,
An imaging unit for acquiring a target image obtained by imaging the imaging target;
An image identification device that identifies which category of image the target image is determined in advance, and
The image identification device includes:
A feature amount calculation unit for calculating a feature amount of an input image;
A processed image obtained by removing a common image area including a predetermined common subject image from each of a plurality of learning images previously classified in the category is generated and input to the feature amount calculation unit An image removal unit;
A discriminator that identifies which category of image the input image belongs to is generated in advance by image discrimination processing using the feature amount calculated by the feature amount calculation unit for each processed image. And a discriminator creation unit,
The said feature-value calculation part is an imaging system which calculates the feature-value of the said target image and inputs it to the said discriminator, when identifying the category about the said target image after the said discriminator preparation part produces | generates the said discriminator.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009159262A JP2011014052A (en) | 2009-07-03 | 2009-07-03 | Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009159262A JP2011014052A (en) | 2009-07-03 | 2009-07-03 | Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011014052A true JP2011014052A (en) | 2011-01-20 |
Family
ID=43592844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009159262A Withdrawn JP2011014052A (en) | 2009-07-03 | 2009-07-03 | Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011014052A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014021901A (en) * | 2012-07-23 | 2014-02-03 | Casio Comput Co Ltd | Object detection device, object detection method and program |
KR20150103443A (en) * | 2014-03-03 | 2015-09-11 | 에스케이플래닛 주식회사 | Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor |
CN111758116A (en) * | 2018-03-14 | 2020-10-09 | 欧姆龙株式会社 | Face image recognition system, recognizer generation device, recognition device, image recognition system, and recognition system |
JP2021149360A (en) * | 2020-03-18 | 2021-09-27 | 株式会社東芝 | Learned model generation device for classification apparatus and learned model generation method for classification apparatus |
-
2009
- 2009-07-03 JP JP2009159262A patent/JP2011014052A/en not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014021901A (en) * | 2012-07-23 | 2014-02-03 | Casio Comput Co Ltd | Object detection device, object detection method and program |
KR20150103443A (en) * | 2014-03-03 | 2015-09-11 | 에스케이플래닛 주식회사 | Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor |
KR102238672B1 (en) * | 2014-03-03 | 2021-04-09 | 에스케이플래닛 주식회사 | Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor |
CN111758116A (en) * | 2018-03-14 | 2020-10-09 | 欧姆龙株式会社 | Face image recognition system, recognizer generation device, recognition device, image recognition system, and recognition system |
CN111758116B (en) * | 2018-03-14 | 2023-07-14 | 欧姆龙株式会社 | Face image recognition system, recognizer generation device, recognition device, and face image recognition system |
JP2021149360A (en) * | 2020-03-18 | 2021-09-27 | 株式会社東芝 | Learned model generation device for classification apparatus and learned model generation method for classification apparatus |
JP7475910B2 (en) | 2020-03-18 | 2024-04-30 | 株式会社東芝 | Trained model generating device for classification device and trained model generating method for classification device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3271867B1 (en) | Local change detection in video | |
US8805077B2 (en) | Subject region detecting apparatus | |
JP5229744B2 (en) | Image classification device and image classification program | |
US8634659B2 (en) | Image processing apparatus, computer readable medium storing program, and image processing method | |
JP6287855B2 (en) | Image processing apparatus and image processing method | |
US10026197B2 (en) | Signal processing method, signal processing apparatus, and storage medium | |
JP2015011585A (en) | Image processing apparatus, image forming apparatus, image forming system, image processing method, and program | |
US8923610B2 (en) | Image processing apparatus, image processing method, and computer readable medium | |
JP2010079545A (en) | Image processing apparatus, image processing method and program | |
JP4772819B2 (en) | Image search apparatus and image search method | |
JP2015185034A (en) | Image recognition apparatus, image recognition method, and program | |
JP5887264B2 (en) | Object recognition apparatus, method, program, and computer-readable medium storing the software | |
JP2011014052A (en) | Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system | |
US20130142422A1 (en) | Image processing method, and image processor | |
JP2011100395A (en) | Discrimination device, discrimination method, and program | |
JPWO2013089261A1 (en) | Image processing system and image processing method | |
JP2013182330A (en) | Image processor and image processing method | |
JP2019083445A (en) | Image processing apparatus, image processing method, image processing system, and program | |
US20130058568A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
JP7264171B2 (en) | Image retrieval system, image retrieval method, and program | |
US8705934B2 (en) | Moving picture processing apparatus, moving picture processing method, and program | |
JP5702960B2 (en) | Image processing apparatus, image processing method, and program | |
JP6031566B1 (en) | Feature extraction device, image search device, method, and program | |
JP5882976B2 (en) | Learning local feature generating apparatus and learning local feature generating method | |
JP2007188176A (en) | Method and device for specifying content information, program, and computer readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120904 |