[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011014052A - Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system - Google Patents

Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system Download PDF

Info

Publication number
JP2011014052A
JP2011014052A JP2009159262A JP2009159262A JP2011014052A JP 2011014052 A JP2011014052 A JP 2011014052A JP 2009159262 A JP2009159262 A JP 2009159262A JP 2009159262 A JP2009159262 A JP 2009159262A JP 2011014052 A JP2011014052 A JP 2011014052A
Authority
JP
Japan
Prior art keywords
image
feature amount
common
category
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009159262A
Other languages
Japanese (ja)
Inventor
Takeshi Matsuo
武史 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009159262A priority Critical patent/JP2011014052A/en
Publication of JP2011014052A publication Critical patent/JP2011014052A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To classify images per category regarding an image identifying device, an image identifying method, an identifier creating device, an identifier creating method and an imaging system.SOLUTION: The image identifying device, identifying a given object image to belong to which of predefined categories, includes: a feature quantity calculation part which calculates feature quantity of an image to be input; a shared image removing part which creates processed images by removing a shared image region containing images of a predefined shared object from each of a plurality of learning images classified to the categories beforehand and inputs the processed image in the feature quantity calculation part; and an identifier creation part which creates beforehand an identifier for identifying the image to be input to belong to which of the categories by image identifying processing using the feature quantity calculated by the feature quantity calculation part for each of the processed images. When the identifier creation part identifies the category of the object image after creating the identifier by the identifier creation part, the feature quantity calculation part calculates the feature quantity of the object image and inputs the feature quantity in the identifier.

Description

本発明は、画像識別装置、画像識別方法、識別器作成装置、識別器作成方法、および撮像システムに関する。   The present invention relates to an image identification device, an image identification method, a discriminator creation device, a discriminator creation method, and an imaging system.

従来、写真等の画像の特徴を、あらかじめカテゴリ別に分類した学習画像の特徴と比較することにより、画像を分類する方法が知られている。例えば、画像の特徴量により画像を分類する方法は、特許文献1に記載されている。   2. Description of the Related Art Conventionally, a method for classifying an image by comparing the characteristics of an image such as a photograph with the characteristics of a learning image that is classified in advance by category is known. For example, Patent Document 1 discloses a method for classifying images based on image feature amounts.

特開2009−009402号公報JP 2009-009402 A

画像の特徴量に応じて画像を分類する方法においては、画像に含まれる被写体の特徴に応じて画像の特徴量が異なるという性質が利用される。例えば、被写体が花である場合の画像の特徴と、被写体が海辺である場合の画像の特徴とは異なる。そこで、分類の対象とする画像が有する特徴をそれぞれのカテゴリの画像が有する特徴と比較することで、特徴が類似するカテゴリに対象画像を分類することができる。画像の特徴は、一例として、画像の色度および輝度などのパラメータを用いて算出した特徴量を用いて表される。   In the method of classifying an image according to the feature amount of the image, the property that the feature amount of the image differs according to the feature of the subject included in the image is used. For example, the feature of the image when the subject is a flower is different from the feature of the image when the subject is a beach. Therefore, by comparing the characteristics of the images to be classified with the characteristics of the images of the respective categories, the target images can be classified into categories with similar characteristics. As an example, the feature of an image is represented using a feature amount calculated using parameters such as chromaticity and luminance of the image.

しかしながら、学習画像の中には、カテゴリの分類に必要な被写体以外の被写体が写っている場合がある。例えば、カテゴリとしては「花」に属する画像であっても、花と一緒に所定の人物が写っている場合がある。このような場合、花と一緒に所定の人物が写っている画像の特徴量と、花のみが写っている画像の特徴量とは異なる。従って、花と一緒に所定の人物が写っている画像を学習画像として用いると、画像の分類の判断に用いる特徴量の誤差が大きくなり、誤ったカテゴリに画像を分類する場合が生じる。例えば、学習画像が、カテゴリによらず写っている家族等の身内画像を含む場合には、特徴量の算出には身内画像が用いられないことが好ましい。   However, in the learning image, there may be a subject other than the subject necessary for category classification. For example, even if the image belongs to “flower” as a category, there is a case where a predetermined person is captured together with the flower. In such a case, the feature amount of an image in which a predetermined person is photographed together with a flower is different from the feature amount of an image in which only a flower is photographed. Therefore, when an image in which a predetermined person is photographed together with a flower is used as a learning image, an error in a feature amount used for image classification determination increases, and the image may be classified into an incorrect category. For example, when the learning image includes a family image of a family or the like that is shown regardless of the category, it is preferable that the personal image is not used for calculating the feature amount.

上記課題を解決するために、本発明の第1の態様においては、与えられる対象画像が、予め定められたいずれのカテゴリの画像であるかを識別する画像識別装置であって、入力される画像の特徴量を算出する特徴量算出部と、予めカテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成し、特徴量算出部に入力する共通画像除去部と、それぞれの処理済画像に対して特徴量算出部が算出した特徴量を用いた画像識別処理により、入力される画像がいずれのカテゴリの画像であるかを識別する識別器を予め生成する識別器作成部とを備え、特徴量算出部は、識別器作成部が識別器を生成した後に対象画像についてカテゴリを識別する場合に、対象画像の特徴量を算出して識別器に入力する画像識別装置を提供する。   In order to solve the above-described problem, in the first aspect of the present invention, an input image is an image identification device that identifies which category of an image to be given is a predetermined target image. Generating a processed image by removing a common image area including a predetermined common subject image from each of a plurality of learning images previously classified into categories The image to be input is an image of any category by the common image removal unit input to the feature amount calculation unit and the image identification processing using the feature amount calculated by the feature amount calculation unit for each processed image. A discriminator creating unit that pre-generates a discriminator for identifying whether or not the feature amount calculating unit identifies a category for the target image after the discriminator creating unit generates the discriminator. To provide an image identification apparatus to be input to the discriminator calculates a feature amount.

上記課題を解決するために、本発明の第2の態様においては、共通画像除去部は、共通の被写体の画像領域として指定される領域を、予め定められた拡大係数で拡大した領域を、共通画像領域とする画像識別装置を提供する。   In order to solve the above-described problem, in the second aspect of the present invention, the common image removal unit uses a common area obtained by enlarging an area designated as an image area of a common subject by a predetermined enlargement factor. Provided is an image identification device as an image region.

上記課題を解決するために、本発明の第3の態様においては、共通画像除去部は、共通の被写体の画像に外接する領域を共通の被写体の画像領域とし、当該領域を拡大係数で拡大した領域を、共通画像領域とする画像識別装置を提供する。   In order to solve the above-described problem, in the third aspect of the present invention, the common image removal unit sets a region circumscribing the common subject image as a common subject image region and enlarges the region by an enlargement factor. Provided is an image identification device in which a region is a common image region.

上記課題を解決するために、本発明の第4の態様においては、共通画像除去部は、予め与えられる参照画像を用いて画像マッチングすることで、複数の学習画像から共通の被写体の画像を抽出する画像識別装置を提供する。   In order to solve the above problem, in the fourth aspect of the present invention, the common image removal unit extracts images of a common subject from a plurality of learning images by performing image matching using a reference image given in advance. An image identification device is provided.

上記課題を解決するために、本発明の第5の態様においては、共通画像除去部は、複数の学習画像のそれぞれについて、除去された共通画像領域に隣接する画素の情報を少なくとも用いて、除去された領域の画像データを補完する画像識別装置を提供する。   In order to solve the above problem, in the fifth aspect of the present invention, the common image removal unit removes each of the plurality of learning images by using at least information on pixels adjacent to the removed common image region. Provided is an image identification device that complements image data of a specified region.

上記課題を解決するために、本発明の第6の態様においては、共通画像除去部は、学習画像全体の1辺の長さに、所定の拡大係数を乗じた大きさに基づいて、共通の被写体の画像領域を拡大する画像識別装置を提供する。   In order to solve the above-described problem, in the sixth aspect of the present invention, the common image removal unit is configured to generate a common based on a size obtained by multiplying the length of one side of the entire learning image by a predetermined enlargement factor. An image identification device for enlarging an image area of a subject is provided.

上記課題を解決するために、本発明の第7の態様においては、共通画像除去部は、学習画像全体の1辺の長さに、第1の拡大係数を乗じた大きさ、または、共通の被写体の画像領域の1辺の長さに、第2の拡大係数を乗じた大きさのいずれかを、共通の被写体の画像領域の大きさに基づいて選択して、選択した大きさに応じて共通の被写体の画像領域を拡大する画像識別装置を提供する。   In order to solve the above-described problem, in the seventh aspect of the present invention, the common image removal unit has a size obtained by multiplying the length of one side of the entire learning image by the first enlargement factor, or a common size. A size obtained by multiplying the length of one side of the image area of the subject by the second enlargement factor is selected based on the size of the image area of the common subject, and according to the selected size. An image identification device for enlarging an image area of a common subject is provided.

上記課題を解決するために、本発明の第8の態様においては、特徴量算出部は、複数種類の方法で特徴量を算出でき、特徴量算出部は、カテゴリ毎に、共通画像除去部により共通画像領域が除去されていない複数の学習画像における共通の特徴量を更に算出し、識別器は、いずれの方法で算出した特徴量を比較するかに応じて、処理済画像から算出した特徴量を用いるか、または、学習画像から算出した特徴量を用いるかを選択する画像識別装置を提供する。   In order to solve the above-described problem, in the eighth aspect of the present invention, the feature quantity calculation unit can calculate the feature quantity by a plurality of types of methods, and the feature quantity calculation unit is provided for each category by the common image removal unit. Further calculate a common feature amount in a plurality of learning images from which the common image region is not removed, and the discriminator calculates the feature amount from the processed image according to which method the feature amount calculated is compared with An image identification device that selects whether to use a feature amount calculated from a learning image is provided.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る画像識別装置100の構成を示す。1 shows a configuration of an image identification device 100 according to the present embodiment. 学習画像において共通画像領域を指定する方法の一例を示す。An example of a method for designating a common image area in a learning image is shown. 除去した共通画像領域の画像データが補完された学習画像を示す。The learning image with which the image data of the removed common image area | region was complemented is shown. 分類する対象画像の一例を示す。An example of the target image to classify is shown. 除去した共通画像領域の画像データを補完しない場合の画像の一例を示す。An example of an image when the image data of the removed common image area is not complemented is shown. 共通画像領域が正しく指定されない場合の一例を示す。An example in which the common image area is not correctly specified is shown. 共通画像領域が正しく指定されない場合に補完された画像の一例を示す。An example of an image complemented when the common image area is not correctly specified is shown. 拡大した共通画像領域を生成する方法の一例を示す。An example of a method for generating an enlarged common image region will be described. 拡大した共通画像領域を生成する方法の他の例を示す。Another example of a method for generating an enlarged common image region will be described. 参照画像の一例を示す。An example of a reference image is shown. 共通画像領域を除去するか否かを選択することができる画像識別装置100の構成を示す。The structure of the image identification apparatus 100 which can select whether a common image area | region is removed is shown. 識別器50−1を作成する動作フローを示す。The operation | movement flow which produces the discrimination device 50-1 is shown. 識別器50−2を作成する動作フローを示す。The operation | movement flow which produces the discrimination device 50-2 is shown. 対象画像を分類する動作フローを示す。The operation | movement flow which classify | categorizes a target image is shown. 他の実施形態に係る撮像システム150の構成を示す。2 shows a configuration of an imaging system 150 according to another embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る画像識別装置100の構成を示す。画像識別装置100は、共通画像除去部20、特徴量算出部30、識別器作成部40、および、識別器50を備える。画像識別装置100は、与えられる対象画像が、予め定められたいずれのカテゴリに属する画像であるかを識別する。   FIG. 1 shows a configuration of an image identification device 100 according to the present embodiment. The image identification device 100 includes a common image removal unit 20, a feature amount calculation unit 30, a classifier creation unit 40, and a classifier 50. The image identification device 100 identifies which category a predetermined target image belongs to.

共通画像除去部20は、予めカテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成し、特徴量算出部30に入力する。特徴量算出部30は、入力される画像の特徴量を算出する。   The common image removal unit 20 generates a processed image obtained by removing a common image region including a predetermined common subject image from each of a plurality of learning images classified in advance into a category, and calculates a feature amount. Input to section 30. The feature amount calculation unit 30 calculates the feature amount of the input image.

識別器作成部40は、特徴量算出部30が算出した学習画像の特徴量に応じて、識別器50を予め作成する。識別器50は、それぞれの処理済画像に対して特徴量算出部30が算出した特徴量を用いた画像識別処理により、入力される画像がいずれのカテゴリの画像であるかを識別する。画像識別装置100は、対象画像の分類に先立って、画像識別装置100の製造者又は使用者により入力される学習画像に基づいて識別器50を作成してよい。以下、各部の動作について詳細を説明する。   The discriminator creating unit 40 creates the discriminator 50 in advance according to the feature amount of the learning image calculated by the feature amount calculating unit 30. The discriminator 50 identifies which category of image the input image is by image discrimination processing using the feature amount calculated by the feature amount calculation unit 30 for each processed image. Prior to the classification of the target image, the image identification device 100 may create the classifier 50 based on a learning image input by the manufacturer or user of the image identification device 100. Hereinafter, the operation of each unit will be described in detail.

共通画像除去部20は、予めカテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成する。具体的には、共通画像除去部20は、予め、「花見」、「海辺」、「祭り」、「結婚式」などのカテゴリに分類されている被写体が写った複数の学習画像を取得する。   The common image removal unit 20 generates a processed image obtained by removing a common image region including a predetermined common subject image from each of a plurality of learning images classified in advance into categories. Specifically, the common image removal unit 20 acquires a plurality of learning images in which subjects classified into categories such as “cherry blossom viewing”, “seaside”, “festival”, and “wedding” are captured in advance.

続いて、共通画像除去部20は、取得した学習画像に含まれている共通画像領域を除去する。共通画像領域は、学習画像のカテゴリによらず学習画像に含まれる所定の被写体が含まれる領域である。例えば、共通画像領域は、身内などの予め定められた人物を示す画像に外接する領域であってよい。   Subsequently, the common image removal unit 20 removes the common image region included in the acquired learning image. The common image area is an area including a predetermined subject included in the learning image regardless of the category of the learning image. For example, the common image area may be an area circumscribing an image showing a predetermined person such as a relative.

共通画像除去部20は、共通画像領域を示す共通画像情報を外部から取得してよい。例えば、共通画像除去部20は、画像識別装置100の使用者が指定した位置情報に基づいて、共通画像領域を決定してよい。共通画像除去部20は、画像識別装置100の使用者に共通画像領域を指定させるべく、学習画像を表示してよい。共通画像除去部20は、共通画像領域の境界線を示す情報を当該位置情報として取得してよく、共通画像領域の四隅の位置を示す情報を当該位置情報として取得してもよい。   The common image removal unit 20 may acquire common image information indicating a common image region from the outside. For example, the common image removal unit 20 may determine the common image region based on position information designated by the user of the image identification device 100. The common image removal unit 20 may display a learning image so that the user of the image identification device 100 can designate a common image region. The common image removal unit 20 may acquire information indicating the boundary line of the common image area as the position information, and may acquire information indicating the positions of the four corners of the common image area as the position information.

特徴量算出部30は、共通画像除去部20が生成した処理済画像を受け取る。特徴量算出部30は、受け取った処理済画像に基づいて、カテゴリ毎に、複数の処理済画像が共通に有する特徴量を算出する。例えば、特徴量算出部30は、処理済画像に含まれるエッジの数に対応する情報を特徴量の成分としてよい。具体的には、特徴量算出部30は、処理済画像の領域を所定の画素数から成る複数の領域に分割した上で、分割した複数の領域の一部または全ての領域に含まれるエッジの数を積算してよい。なお、エッジとは、隣接する画素間で輝度または色度が所定量以上変化する箇所である。   The feature amount calculation unit 30 receives the processed image generated by the common image removal unit 20. The feature amount calculation unit 30 calculates a feature amount that a plurality of processed images have in common for each category based on the received processed images. For example, the feature amount calculation unit 30 may use information corresponding to the number of edges included in the processed image as a component of the feature amount. Specifically, the feature amount calculation unit 30 divides the processed image area into a plurality of areas each having a predetermined number of pixels, and then the edges included in some or all of the plurality of divided areas. You may accumulate numbers. Note that an edge is a portion where luminance or chromaticity changes by a predetermined amount or more between adjacent pixels.

特徴量算出部30は、処理済画像の色情報を数値化することにより、特徴量の成分を算出してもよい。例えば、特徴量算出部30は、学習画像の色空間をHSV色空間に変換した上で、色空間を構成する各色の発生頻度に基づいてヒストグラムを生成してよい。特徴量算出部30は、各色の発生頻度の数値情報を特徴量の成分としてよい。   The feature amount calculation unit 30 may calculate the component of the feature amount by digitizing the color information of the processed image. For example, the feature amount calculation unit 30 may generate a histogram based on the frequency of occurrence of each color constituting the color space after converting the color space of the learning image into the HSV color space. The feature amount calculation unit 30 may use numerical information on the occurrence frequency of each color as a component of the feature amount.

また、特徴量算出部30は、処理済画像の輝度情報を数値化することにより、特徴量の成分を算出してもよい。例えば、特徴量算出部30は、処理済画像の輝度の平均および分散を、特徴量の成分としてよい。特徴量算出部30は、処理済画像の輝度に所定の変換を施した上で、変換後の空間におけるエネルギーおよび分散を特徴量の成分としてもよい。特徴量算出部30は、一例として、処理済画像の色空間をHSV色空間に変換した上で、変換後の色空間におけるエネルギーおよび分散を特徴量の成分としてよい。   The feature amount calculation unit 30 may calculate the component of the feature amount by digitizing the luminance information of the processed image. For example, the feature amount calculation unit 30 may use the average and variance of the brightness of the processed image as the component of the feature amount. The feature amount calculation unit 30 may perform predetermined conversion on the luminance of the processed image, and may use energy and dispersion in the converted space as components of the feature amount. For example, the feature amount calculation unit 30 may convert the color space of the processed image into the HSV color space and then use the energy and dispersion in the converted color space as components of the feature amount.

特徴量算出部30は、学習画像に含まれるメタ情報に基づいて、特徴量の成分を算出してもよい。具体的には、学習画像がMPEG−7に準拠して生成された画像である場合には、映像信号特徴記述子に示されるエッジに関する情報、色の発生頻度に関する情報、および輝度に関する情報等を用いてよい。   The feature amount calculation unit 30 may calculate the component of the feature amount based on the meta information included in the learning image. Specifically, in the case where the learning image is an image generated in conformity with MPEG-7, information on the edge indicated in the video signal feature descriptor, information on the color occurrence frequency, information on the luminance, etc. May be used.

識別器作成部40は、特徴量算出部30が算出したそれぞれの学習画像の特徴量、および、それぞれの学習画像のカテゴリを取得する。識別器作成部40は、学習画像が属するカテゴリと、それぞれの学習画像の特徴量との対応関係に基づいて、それぞれのカテゴリの特徴量が分布する領域の境界値を算出する。   The discriminator creation unit 40 acquires the feature amount of each learning image calculated by the feature amount calculation unit 30 and the category of each learning image. The discriminator creating unit 40 calculates the boundary value of the region in which the feature amount of each category is distributed based on the correspondence relationship between the category to which the learning image belongs and the feature amount of each learning image.

例えば、学習画像の特徴量を、n個の成分を有するベクトル(すなわち、n次元のベクトル。以下、特徴量ベクトルと称する)として説明する。識別器作成部40は、第1のカテゴリおよび第2のカテゴリにおける特徴量の境界を、第1のカテゴリに属する学習画像の各特徴量ベクトルから当該境界までの距離、および、第2のカテゴリに属する学習画像の各特徴量ベクトルから当該境界までの距離に基づいて算出してよい。   For example, the feature amount of the learning image will be described as a vector having n components (that is, an n-dimensional vector, hereinafter referred to as a feature amount vector). The discriminator creation unit 40 converts the boundary between the feature amounts in the first category and the second category into the distance from each feature amount vector of the learning image belonging to the first category to the boundary, and the second category. You may calculate based on the distance from each feature-value vector of the learning image to which it belongs to the said boundary.

一例として識別器作成部40は、第1のカテゴリに属する学習画像の各特徴量ベクトルから当該境界までの距離の最小値と、第2のカテゴリに属する学習画像の各特徴量ベクトルから当該境界までの距離の最小値とが、最も大きくなるような境界を選択してよい。また、識別器作成部40は、x軸の所定の値x1において、第1のカテゴリに属する複数の学習画像の特徴量ベクトルからの距離と、第2のカテゴリに属する複数の学習画像の特徴量ベクトルからの距離とが等しくなるy軸の値y1を算出することにより、x1およびy1を境界値としてよい。識別器作成部40は、x軸の複数の値に対して当該境界値を算出した上で、算出した複数の境界値を接続することにより、カテゴリ間の境界を決定してよい。識別器作成部40は、いわゆるサポートベクトルマシン(Support Vector Machine、SVM)により、当該境界を算出してよい。   As an example, the classifier creation unit 40 includes the minimum value of the distance from each feature amount vector of the learning image belonging to the first category to the boundary and the feature amount vector of the learning image belonging to the second category to the boundary. The boundary may be selected such that the minimum value of the distance is the largest. Further, the discriminator creating unit 40, at a predetermined value x1 on the x-axis, the distance from the feature vector of the plurality of learning images belonging to the first category and the feature amount of the plurality of learning images belonging to the second category. By calculating the y-axis value y1 that is equal to the distance from the vector, x1 and y1 may be used as boundary values. The discriminator creation unit 40 may determine the boundary between categories by calculating the boundary value for a plurality of values on the x-axis and connecting the calculated boundary values. The discriminator creation unit 40 may calculate the boundary using a so-called support vector machine (Support Vector Machine, SVM).

また、識別器作成部40は、各学習画像の特徴量ベクトルを最大固有ベクトルの軸方向に射影した値を用いて、各カテゴリの特徴量の境界を算出してもよい。ここで、最大固有ベクトルの軸方向とは、各特徴量ベクトルをn次元空間にプロットした場合に得られる分布が、最も広く分散している方向であってよい。つまり、当該方向は、当該分布における分散の最大固有ベクトルの方向であってよい。識別器作成部40は、いわゆる判別分析法により、カテゴリ間の境界を算出してよい。   Further, the discriminator creating unit 40 may calculate the boundary between the feature amounts of each category using a value obtained by projecting the feature amount vector of each learning image in the axial direction of the maximum eigenvector. Here, the axial direction of the maximum eigenvector may be a direction in which the distribution obtained when each feature vector is plotted in the n-dimensional space is most widely dispersed. That is, the direction may be the direction of the maximum eigenvector of the variance in the distribution. The discriminator creation unit 40 may calculate a boundary between categories by a so-called discriminant analysis method.

例えば、第1のカテゴリに属する学習画像の各特徴量ベクトルを、最大固有ベクトルの軸方向に射影した値がA以上B以下(AおよびBは実数)の範囲に含まれ、第2のカテゴリに属する学習画像の各特徴量ベクトルを、当該最大固有ベクトルの軸方向に射影した値がC以上D以下(CおよびDは実数)に分布しているとする。識別器作成部40は、BおよびCの間の値を、第1のカテゴリおよび第2のカテゴリに対応する特徴量分布領域の境界値としてよい。識別器作成部40は、一例として、BおよびCの中間値を境界値としてよい。   For example, a value obtained by projecting each feature vector of the learning image belonging to the first category in the axial direction of the maximum eigenvector is included in a range of A to B (A and B are real numbers) and belongs to the second category. It is assumed that the value obtained by projecting each feature vector of the learning image in the axial direction of the maximum eigenvector is distributed between C and D (C and D are real numbers). The discriminator creation unit 40 may use the value between B and C as the boundary value of the feature quantity distribution region corresponding to the first category and the second category. For example, the discriminator creating unit 40 may use an intermediate value between B and C as a boundary value.

識別器作成部40は、最大固有ベクトルの軸方向に特徴量ベクトルを射影した値の確率密度分布関数に基づいて、カテゴリ毎の境界値を算出してもよい。例えば、上記の例において、BがCよりも大きい場合には、第1のカテゴリに属する学習画像の特徴量分布領域と、第2のカテゴリに属する学習画像の特徴量分布領域とが重複する。そこで、識別器作成部40は、当該軸のB以上C以下の領域において、第1のカテゴリに属する学習画像における発生確率と第2のカテゴリに属する学習画像における発生確率とが等しくなる当該軸上の値を、第1のカテゴリおよび第2のカテゴリの間の境界値としてよい。   The discriminator creation unit 40 may calculate the boundary value for each category based on the probability density distribution function of the value obtained by projecting the feature vector in the axial direction of the maximum eigenvector. For example, in the above example, when B is larger than C, the feature amount distribution region of the learning image belonging to the first category overlaps with the feature amount distribution region of the learning image belonging to the second category. Therefore, the discriminator creating unit 40 has an on-axis where the occurrence probability in the learning image belonging to the first category is equal to the occurrence probability in the learning image belonging to the second category in the region from B to C on the axis. May be the boundary value between the first category and the second category.

なお、上述したベクトルの成分は、例えば画像の色度に基づく成分、画像の輝度に基づく成分等であってよい。また、識別器作成部40は、複数種類の特徴量ベクトルを用いて、識別器を作成してもよい。例えば識別器作成部40は、特徴量ベクトルの種類ごとに下位の識別器を作成してよい。また、識別器作成部40は、複数の下位の識別器に対して、1つの上位の識別器を作成してよい。   The vector components described above may be, for example, a component based on the chromaticity of the image, a component based on the luminance of the image, or the like. Further, the discriminator creating unit 40 may create a discriminator using a plurality of types of feature quantity vectors. For example, the classifier creation unit 40 may create a lower classifier for each type of feature vector. Further, the discriminator creating unit 40 may create one upper discriminator for a plurality of lower discriminators.

この場合、下位の識別器は、与えられる対象画像における、対応する種類の特徴量ベクトルに基づいて、上述したカテゴリの判別をそれぞれ行う。上位の識別器は、下位の識別器における判別結果に基づいて、当該対象画像のカテゴリを決定する。上位の識別器は、下位の識別器におけるカテゴリ判別結果の多数決により、対象画像のカテゴリを決定してよい。また、識別器作成部40は、複数の特徴量ベクトルを組み合わせた特徴量ベクトルを用いて、上述した識別器(または、下位の識別器)を作成してもよい。   In this case, the lower classifier performs the above-described category discrimination based on the corresponding type of feature vector in the given target image. The upper classifier determines the category of the target image based on the discrimination result in the lower classifier. The upper classifier may determine the category of the target image by majority decision of the category discrimination result in the lower classifier. Further, the discriminator creating unit 40 may create the discriminator (or lower classifier) described above using a feature quantity vector obtained by combining a plurality of feature quantity vectors.

識別器作成部40は、算出したカテゴリ間の特徴量の境界値を識別器50に入力する。識別器50は、学習画像のカテゴリ、特徴量の種別、および、それぞれのカテゴリにおける特徴量の境界値を対応付けて記憶媒体に記憶する。   The discriminator creating unit 40 inputs the calculated boundary value of the feature quantity between the categories to the discriminator 50. The discriminator 50 stores the category of the learning image, the type of the feature amount, and the boundary value of the feature amount in each category in association with each other in the storage medium.

画像識別装置100の使用者が対象画像を分類する場合には、特徴量算出部30は、分類する対象画像の入力を受ける。特徴量算出部30は、学習画像の特徴量の算出に用いた方法と同一の方法を用いて、対象画像の特徴量を算出する。例えば、特徴量算出部30は、学習画像の特徴量の算出においてエッジの数に対応する情報を用いた場合には、対象画像のエッジの数を積算することにより、対象画像の特徴量を算出してよい。   When the user of the image identification device 100 classifies the target image, the feature amount calculation unit 30 receives an input of the target image to be classified. The feature amount calculation unit 30 calculates the feature amount of the target image using the same method as that used for calculating the feature amount of the learning image. For example, when the information corresponding to the number of edges is used in the calculation of the feature amount of the learning image, the feature amount calculation unit 30 calculates the feature amount of the target image by integrating the number of edges of the target image. You can do it.

特徴量算出部30が複数の特徴量を用いて学習画像の特徴量を生成した場合には、特徴量算出部30は、学習画像の特徴量の算出に用いた複数の方法から一つ以上の方法を選択して、対象画像の特徴量を算出してよい。例えば、特徴量算出部30が、エッジの数、色の発生頻度、および輝度に基づいて学習画像の特徴量を算出した場合、特徴量算出部30は、いずれかの方法を用いて対象画像の特徴量を算出してよい。また、特徴量算出部30は、複数の方法を組み合わせて対象画像の特徴量を算出してもよい。   When the feature amount calculation unit 30 generates a feature amount of a learning image using a plurality of feature amounts, the feature amount calculation unit 30 may select one or more of the plurality of methods used for calculating the feature amount of the learning image. A feature amount of the target image may be calculated by selecting a method. For example, when the feature amount calculation unit 30 calculates the feature amount of the learning image based on the number of edges, the color occurrence frequency, and the luminance, the feature amount calculation unit 30 uses one of the methods to The feature amount may be calculated. The feature amount calculation unit 30 may calculate the feature amount of the target image by combining a plurality of methods.

特徴量算出部30は、算出した対象画像の特徴量を識別器50に入力する。識別器50は、入力された対象画像の特徴量が、どのカテゴリに属するかを識別する。例えば、カテゴリ間の境界を、上述した判別分析法で算出する場合において、最大固有ベクトルの軸における、第1のカテゴリに対応する特徴量分布領域が10以上50以下であり、第2のカテゴリに対応する特徴量分布領域が50以上100以下とする。この場合において、例えば特徴量ベクトルを当該軸に射影した値が30の対象画像が与えられた場合、識別器50は、当該対象画像を第1のカテゴリに分類する。   The feature amount calculation unit 30 inputs the calculated feature amount of the target image to the classifier 50. The discriminator 50 identifies to which category the inputted feature quantity of the target image belongs. For example, when the boundary between categories is calculated by the discriminant analysis method described above, the feature quantity distribution region corresponding to the first category on the axis of the maximum eigenvector is 10 to 50 and corresponds to the second category. The feature amount distribution region to be set is 50 to 100. In this case, for example, when a target image whose value obtained by projecting a feature vector onto the axis is 30 is given, the classifier 50 classifies the target image into the first category.

以上のように、本実施形態に係る画像識別装置100は、学習画像のカテゴリによらず学習画像に共通に含まれる被写体の画像を除去した学習画像の特徴量を算出するので、特徴量算出部30において算出する学習画像の特徴量の精度が向上する。その結果、識別器50が記憶するカテゴリ間の特徴量分布領域の境界値の精度が向上する。画像識別装置100は、当該識別器50を用いて対象画像を分類することにより、対象画像を適切なカテゴリに分類することができる。   As described above, the image identification device 100 according to the present embodiment calculates the feature amount of the learning image from which the image of the subject commonly included in the learning image is removed regardless of the category of the learning image. The accuracy of the feature amount of the learning image calculated at 30 is improved. As a result, the accuracy of the boundary value of the feature quantity distribution region between categories stored in the classifier 50 is improved. The image identification device 100 can classify the target image into an appropriate category by classifying the target image using the classifier 50.

図2は、学習画像において共通画像領域を指定する方法の一例を示す。学習画像200(200−1、200−2)は、第1のカテゴリに属する背景(網掛け模様)を有する。学習画像210(210−1、210−2)は、第2のカテゴリに属する背景(横縞模様)を有する。共通画像領域220(220−1、220−2)および共通画像領域230(230−1、230−2)は、それぞれ学習画像200および学習画像210から除去する領域を示す。共通画像除去部20は、カテゴリによらず写っている被写体の画像に外接する領域を共通画像領域220としてよい。例えば、共通画像領域220は、学習画像200に含まれる所定の人物に外接する領域であってよい。   FIG. 2 shows an example of a method for designating a common image area in a learning image. The learning image 200 (200-1, 200-2) has a background (shaded pattern) belonging to the first category. The learning image 210 (210-1, 210-2) has a background (horizontal stripe pattern) belonging to the second category. The common image area 220 (220-1, 220-2) and the common image area 230 (230-1, 230-2) indicate areas to be removed from the learning image 200 and the learning image 210, respectively. The common image removal unit 20 may set a region circumscribing the image of the subject captured regardless of the category as the common image region 220. For example, the common image area 220 may be an area circumscribing a predetermined person included in the learning image 200.

具体的には、共通画像除去部20は、学習画像200の水平方向の辺と平行な線が、除去する被写体の画像と接する位置を、共通画像領域220の水平方向の領域の端部としてよい。また、共通画像除去部20は、学習画像200の垂直方向の辺と平行な線が、除去する被写体の画像と接する位置を、共通画像領域220の垂直方向の領域の端部としてよい。   Specifically, the common image removal unit 20 may use the position where the line parallel to the horizontal side of the learning image 200 is in contact with the image of the subject to be removed as the end of the horizontal region of the common image region 220. . Further, the common image removal unit 20 may set the position where the line parallel to the vertical side of the learning image 200 is in contact with the image of the subject to be removed as the end of the common image region 220 in the vertical direction.

共通画像領域220は、一例として、画像識別装置100の使用者が領域を示す線を指定することにより定められてもよい。また、共通画像領域220は、画像識別装置100の使用者が指定する共通画像領域220の四隅の位置情報に基づいて定められてもよい。当該位置情報は、例えば、学習画像全体の四隅のいずれかを原点とする座標であってよい。   As an example, the common image region 220 may be determined by a user of the image identification device 100 specifying a line indicating the region. Further, the common image area 220 may be determined based on position information of the four corners of the common image area 220 specified by the user of the image identification device 100. The position information may be, for example, coordinates having the origin as one of the four corners of the entire learning image.

なお、共通画像領域220および共通画像領域230は、学習画像200および学習画像210内のいずれの位置にあってもよい。また、共通画像領域220および共通画像領域230は、学習画像200および学習画像210の大きさに対していずれの比率を有する大きさであってもよい。   Note that the common image region 220 and the common image region 230 may be located at any position in the learning image 200 and the learning image 210. The common image region 220 and the common image region 230 may have a size having any ratio with respect to the size of the learning image 200 and the learning image 210.

共通画像除去部20は、複数の学習画像200および学習画像210のそれぞれについて、除去された共通画像領域220および共通画像領域230に隣接する画素の情報を少なくとも用いて、除去された領域の画像データを補完してよい。例えば、共通画像除去部20は、共通画像領域220に隣接する所定の数の画素と同一の画素を、除去した共通画像領域220内に複写することにより、除去された領域の画像データを補完してよい。   The common image removal unit 20 uses at least information on the pixels adjacent to the removed common image region 220 and the common image region 230 for each of the plurality of learning images 200 and the learning image 210, and image data of the removed region. May be supplemented. For example, the common image removal unit 20 complements the image data of the removed area by copying the same number of pixels as the predetermined number of pixels adjacent to the common image area 220 into the removed common image area 220. It's okay.

図3は、除去した共通画像領域の画像データが補完された画像の一例を示す。学習画像300および学習画像310は、共通画像除去部20が除去した図3に示す共通画像領域220および共通画像領域230を、学習画像200および学習画像210の背景画像で補完した画像である。   FIG. 3 shows an example of an image in which the image data of the removed common image region is complemented. The learning image 300 and the learning image 310 are images obtained by complementing the common image region 220 and the common image region 230 shown in FIG. 3 removed by the common image removing unit 20 with the background images of the learning image 200 and the learning image 210.

共通画像領域320−1および共通画像領域320−2は、それぞれ、図2に示した共通画像領域220−1および共通画像領域220−2の領域を、共通画像領域320−1および共通画像領域320−2に隣接する画素の画像データにより補完した領域である。同様に、共通画像領域430−1および共通画像領域430−2は、それぞれ、共通画像領域230−1および共通画像領域230−2の領域を、共通画像領域320−1および共通画像領域320−2に隣接する画素の画像データにより補完した領域である。   The common image region 320-1 and the common image region 320-2 are respectively the common image region 220-1 and the common image region 220-2 shown in FIG. -2 is an area supplemented by image data of pixels adjacent to -2. Similarly, the common image region 430-1 and the common image region 430-2 are respectively the common image region 230-1 and the common image region 230-2, and the common image region 320-1 and the common image region 320-2. This is a region supplemented by image data of pixels adjacent to.

特徴量算出部30は、学習画像300および学習画像310の特徴量を算出する。識別器50は、学習画像300および学習画像310の特徴量を、それぞれが属するカテゴリの名称に対応付けて記憶してよい。例えば、識別器50は、学習画像300の模様が花見の風景を示す場合には、カテゴリ名「花見」に対応付けて、学習画像300−1および学習画像300−2の特徴量を記憶してよい。識別器50は、学習画像310の模様が海辺の風景を示す場合には、カテゴリ名「海辺」に対応付けて、学習画像310−1および学習画像310−2の特徴量を記憶してよい。   The feature amount calculation unit 30 calculates the feature amounts of the learning image 300 and the learning image 310. The classifier 50 may store the feature quantities of the learning image 300 and the learning image 310 in association with the names of the categories to which the learning images 300 and 310 belong. For example, when the pattern of the learning image 300 indicates a cherry blossom viewing landscape, the classifier 50 stores the feature amounts of the learning image 300-1 and the learning image 300-2 in association with the category name “hanami”. Good. When the pattern of the learning image 310 indicates a seaside landscape, the classifier 50 may store the feature amounts of the learning image 310-1 and the learning image 310-2 in association with the category name “seaside”.

特徴量算出部30は、学習画像300および学習画像310のそれぞれに含まれる学習画像の特徴量の平均値を算出してもよい。識別器50は、算出した学習画像300および学習画像310のそれぞれに含まれる学習画像の特徴量の平均値を、それぞれが属するカテゴリの名称に対応付けて記憶してもよい。具体的には、識別器50は、学習画像300−1および学習画像300−2の特徴量の平均値を、「花見」に対応付けて記憶してもよい。同様に、識別器50は、学習画像510−1および学習画像510−2の特徴量の平均値を、「海辺」に対応付けて記憶してよい。   The feature amount calculation unit 30 may calculate an average value of the feature amounts of the learning images included in each of the learning image 300 and the learning image 310. The discriminator 50 may store the calculated average value of the feature amounts of the learning images included in each of the learning image 300 and the learning image 310 in association with the name of the category to which each belongs. Specifically, the discriminator 50 may store the average value of the feature values of the learning image 300-1 and the learning image 300-2 in association with “cherry blossom viewing”. Similarly, the discriminator 50 may store the average value of the feature amounts of the learning image 510-1 and the learning image 510-2 in association with the “seaside”.

以上説明した補完処理を施すことにより、カテゴリの特徴を示す画像の領域が大きくなる。従って、画像識別装置100は、算出する学習画像特徴量の精度を向上することができる。   By performing the complementing process described above, the area of the image showing the characteristics of the category becomes large. Therefore, the image identification device 100 can improve the accuracy of the calculated learning image feature amount.

図4は、分類する対象画像の一例を示す。同図において、対象画像400−1は、図2に示した学習画像200の背景に類似する背景内に所定の人物の画像を含む画像である。対象画像400−2は、学習画像210の背景に類似する背景内に所定の人物の画像を含む画像である。   FIG. 4 shows an example of target images to be classified. In the figure, a target image 400-1 is an image including an image of a predetermined person in a background similar to the background of the learning image 200 shown in FIG. The target image 400-2 is an image including an image of a predetermined person in a background similar to the background of the learning image 210.

特徴量算出部30は、対象画像400−1および対象画像400−2の特徴量を算出する。特徴量算出部30は、所定の人物が含まれる領域の画像を除去することなく、特徴量を算出する。識別器50は、特徴量算出部30が算出したそれぞれの画像の特徴量が、どのカテゴリに属するかを識別する。   The feature amount calculation unit 30 calculates the feature amounts of the target image 400-1 and the target image 400-2. The feature amount calculation unit 30 calculates a feature amount without removing an image of an area including a predetermined person. The discriminator 50 identifies to which category the feature amount of each image calculated by the feature amount calculation unit 30 belongs.

具体的には、識別器50は、対象画像400−1の特徴量と、図3に示した学習画像300および学習画像310の特徴量を用いて定めた各カテゴリの特徴量分布領域との距離を算出する。対象画像400−1の背景は、学習画像300の画像と類似しているので、対象画像400−1の特徴量は、学習画像310の特徴量分布領域よりも学習画像300の特徴量分布領域に近い値を有する。そこで、識別器50は、対象画像400−1の特徴量は学習画像300に近いと判断する。例えば、識別器50は、対象画像400−1をカテゴリ「花見」に分類する。   Specifically, the discriminator 50 determines the distance between the feature amount of the target image 400-1 and the feature amount distribution area of each category determined using the feature amounts of the learning image 300 and the learning image 310 illustrated in FIG. Is calculated. Since the background of the target image 400-1 is similar to the image of the learning image 300, the feature amount of the target image 400-1 is more in the feature amount distribution region of the learning image 300 than the feature amount distribution region of the learning image 310. Has a close value. Therefore, the classifier 50 determines that the feature amount of the target image 400-1 is close to the learning image 300. For example, the classifier 50 classifies the target image 400-1 into the category “cherry-blossom viewing”.

また、対象画像400−2の背景は、学習画像310の背景と類似しているので、対象画像400−2の特徴量は、学習画像300の特徴量分布領域よりも学習画像310の特徴量分布領域に近い値を有する。そこで、識別器50は、対象画像400−2の特徴量は学習画像310に近いと判断する。例えば、識別器50は、対象画像400−2をカテゴリ「海辺」に分類する。   Further, since the background of the target image 400-2 is similar to the background of the learning image 310, the feature amount of the target image 400-2 is more than the feature amount distribution region of the learning image 300. It has a value close to the region. Therefore, the classifier 50 determines that the feature amount of the target image 400-2 is close to the learning image 310. For example, the classifier 50 classifies the target image 400-2 into the category “seaside”.

図5は、除去した共通画像領域の画像データを補完しない場合の学習画像を示す。共通画像除去部20は、除去した共通画像領域の画像データを補完しないで、模様を有しない画像データにより補完してもよい。図5に示す学習画像500および学習画像510は、図2に示した共通画像領域220および共通画像領域230が除去された領域が、模様を有しない共通画像領域520および共通画像領域530により補完されている。   FIG. 5 shows a learning image when the image data of the removed common image region is not complemented. The common image removal unit 20 may complement the image data without the pattern without complementing the image data of the removed common image region. In the learning image 500 and the learning image 510 illustrated in FIG. 5, the area from which the common image area 220 and the common image area 230 illustrated in FIG. 2 are removed is complemented by the common image area 520 and the common image area 530 that have no pattern. ing.

共通画像領域520および共通画像領域530内においては、特徴量の算出に用いる色度および輝度が変化しない。また、共通画像領域520および共通画像領域530は、画像のエッジも含まないので、特徴量の算出に対する影響が小さい。従って、共通画像領域520を含む学習画像500の特徴量、および、共通画像領域530を含む学習画像510の特徴量は、それぞれ学習画像500および学習画像510の背景領域の特徴量に近い。その結果、特徴量算出部30は、学習画像500および学習画像510の特徴量を算出することにより、学習画像200および学習画像210から所定の人物が含まれる領域の画像を除去しないで特徴量を算出する場合に比べて、それぞれの背景領域の特徴量に近い特徴量を算出することができる。   In the common image area 520 and the common image area 530, the chromaticity and luminance used for calculating the feature amount do not change. Further, since the common image area 520 and the common image area 530 do not include the edge of the image, the influence on the calculation of the feature amount is small. Therefore, the feature amount of the learning image 500 including the common image region 520 and the feature amount of the learning image 510 including the common image region 530 are close to the feature amount of the background region of the learning image 500 and the learning image 510, respectively. As a result, the feature amount calculation unit 30 calculates the feature amount of the learning image 500 and the learning image 510, thereby removing the feature amount from the learning image 200 and the learning image 210 without removing an image of a region including a predetermined person. Compared to the case of calculating, it is possible to calculate a feature amount close to the feature amount of each background region.

以上のように、本実施形態に係る画像識別装置100によれば、画像の属するカテゴリごとに高い精度で特徴量を算出することができる。その結果、対象画像の分類精度が向上する。しかし、画像識別装置100の使用者が共通画像領域を指定する場合に、除去すべき画像領域を指定しなかった場合には、精度が低下する。   As described above, according to the image identification device 100 according to the present embodiment, it is possible to calculate a feature amount with high accuracy for each category to which an image belongs. As a result, the classification accuracy of the target image is improved. However, when the user of the image identification device 100 designates a common image area, if the image area to be removed is not designated, the accuracy is lowered.

図6Aは、共通画像領域が正しく指定されない場合の一例を示す。同図の学習画像600に含まれる共通画像領域620は、図2における学習画像200−1に比べて小さな領域が指定されている。その結果、除去すべき所定の人物の頭部の一部および洋服の一部が除去されない。本来除去すべき被写体の一部が残った画像を用いて特徴量を算出すると、特徴量に誤差が生じる。特に、共通画像領域620に外接する画像により、共通画像領域620を補完する場合、背景の色および模様と異なる特徴を有する部分が残されると、当該部分により共通画像領域620が補完される。   FIG. 6A shows an example when the common image region is not correctly specified. In the common image area 620 included in the learning image 600 in the figure, a smaller area is specified than the learning image 200-1 in FIG. As a result, part of the head and clothes of a predetermined person to be removed are not removed. If the feature amount is calculated using an image in which a part of the subject to be originally removed remains, an error occurs in the feature amount. In particular, when the common image region 620 is complemented by an image circumscribing the common image region 620, if a portion having characteristics different from the background color and pattern is left, the common image region 620 is complemented by the portion.

図6Bは、共通画像領域が正しく指定されない場合に補完された場合の画像の一例を示す。共通画像領域630の一部の領域は、図6Aに示す所定の人物の洋服の一部の模様により補完されている。その結果、特徴量算出部30は、学習画像600に含まれる背景の特徴と異なる特徴を有する画像に基づいて特徴量を算出するので、学習画像600の特徴量に含まれる誤差が大きくなる。   FIG. 6B shows an example of an image when complemented when the common image region is not correctly specified. A partial area of the common image area 630 is complemented by a partial pattern of clothes of a predetermined person shown in FIG. 6A. As a result, the feature amount calculation unit 30 calculates the feature amount based on an image having a feature different from the background feature included in the learning image 600, so that an error included in the feature amount of the learning image 600 increases.

そこで、共通画像除去部20は、共通の被写体の画像領域として指定される領域を予め定められた拡大係数で拡大した領域を、共通画像領域としてよい。例えば、共通画像除去部20は、学習画像全体の1辺の長さに、所定の拡大係数を乗じた大きさに基づいて、共通の被写体の画像領域を拡大してよい。具体的には、共通画像除去部20は、学習画像全体の1辺の長さに所定の拡大係数を乗じた長さを、画像識別装置100の使用者が指定した画像領域の4辺に付加することにより、拡大した共通画像領域を生成してよい。   Therefore, the common image removal unit 20 may set a region obtained by enlarging a region designated as a common subject image region by a predetermined enlargement factor as a common image region. For example, the common image removal unit 20 may enlarge the image area of the common subject based on a size obtained by multiplying the length of one side of the entire learning image by a predetermined enlargement factor. Specifically, the common image removal unit 20 adds a length obtained by multiplying the length of one side of the entire learning image by a predetermined enlargement factor to the four sides of the image area designated by the user of the image identification device 100. By doing so, an enlarged common image region may be generated.

ここで、共通画像除去部20が除去する共通画像領域を大きくすると、除去すべき被写体が残存する可能性が低くなる反面、特徴量の算出に用いることができる画像領域が小さくなる。これに対して、共通画像除去部20が除去する共通画像領域を小さくすると、除去すべき被写体が残存する可能性が高くなる。そこで、一例として、共通画像除去部20は、学習画像全体のいずれかの1辺の長さの略1/30の長さを、画像識別装置100の使用者が指定した画像領域の4辺に付加することにより、拡大した共通画像領域を生成してよい。   Here, if the common image area to be removed by the common image removing unit 20 is enlarged, the possibility that the subject to be removed remains low, but the image area that can be used for calculating the feature quantity is reduced. On the other hand, if the common image area to be removed by the common image removal unit 20 is reduced, the possibility that the subject to be removed remains high. Therefore, as an example, the common image removal unit 20 sets the length of about 1/30 of any one side of the entire learning image to four sides of the image region designated by the user of the image identification device 100. By adding, an enlarged common image area may be generated.

図7は、拡大した共通画像領域を生成する方法の一例を示す。同図において、学習画像700−1の画像の水平方向の1辺の長さはH、垂直方向の1辺の長さはVである。共通画像領域720−1は、画像識別装置100の使用者が指定した共通画像領域である。   FIG. 7 shows an example of a method for generating an enlarged common image region. In the figure, the length of one side in the horizontal direction of the learning image 700-1 is H, and the length of one side in the vertical direction is V. The common image region 720-1 is a common image region designated by the user of the image identification device 100.

学習画像700−2は、共通画像領域720−1を拡大した共通画像領域720−2を有する。H1は、学習画像700−1および学習画像700−2を重ね合わせた場合の、共通画像領域720−1の垂直方向の左辺と共通画像領域720−2の垂直方向の左辺との間の距離を示す。H2は、学習画像700−1および学習画像700−2を重ね合わせた場合の、共通画像領域720−1の垂直方向の右辺と共通画像領域720−2の垂直方向の右辺との間の距離を示す。H1およびH2は、学習画像700−1のいずれかの1辺の長さに所定の拡大係数を乗じた長さであってよい。   The learning image 700-2 has a common image area 720-2 obtained by enlarging the common image area 720-1. H1 represents the distance between the vertical left side of the common image region 720-1 and the vertical left side of the common image region 720-2 when the learning image 700-1 and the learning image 700-2 are superimposed. Show. H2 represents the distance between the vertical right side of the common image region 720-1 and the vertical right side of the common image region 720-2 when the learning image 700-1 and the learning image 700-2 are superimposed. Show. H1 and H2 may be a length obtained by multiplying the length of one side of the learning image 700-1 by a predetermined enlargement factor.

V1は、学習画像700−1および学習画像700−2を重ね合わせた場合の、共通画像領域720−1の水平方向の上辺と共通画像領域720−2の水平方向の上辺との間の距離を示す。V2は、学習画像700−1および学習画像700−2を重ね合わせた場合の、共通画像領域720−1の水平方向の下辺と共通画像領域720−2の水平方向の下辺との間の距離を示す。V1およびV2は、学習画像700−1のいずれかの1辺の長さに所定の拡大係数を乗じた長さであってよい。   V1 represents the distance between the upper side in the horizontal direction of the common image region 720-1 and the upper side in the horizontal direction of the common image region 720-2 when the learning image 700-1 and the learning image 700-2 are superimposed. Show. V2 represents the distance between the horizontal lower side of the common image region 720-1 and the horizontal lower side of the common image region 720-2 when the learning image 700-1 and the learning image 700-2 are superimposed. Show. V1 and V2 may be a length obtained by multiplying the length of one side of the learning image 700-1 by a predetermined enlargement factor.

共通画像除去部20は、共通画像領域720−1の4辺のそれぞれに、H1、H2、V1、またはV2の長さを付加することにより、共通画像領域720−2を生成してよい。H1、H2、V1、およびV2のそれぞれは、Hに所定の拡大係数を乗じた値であってよい。また、H1、H2、V1、およびV2は、Vに所定の拡大係数を乗じた値であってもよい。このように、共通画像除去部20が拡大した共通画像領域を生成することにより、学習画像のカテゴリに属しない被写体の画像が共通画像領域内に含まれなくなる。その結果、特徴量算出部30が算出する学習画像の特徴量の精度が向上する。   The common image removal unit 20 may generate the common image region 720-2 by adding the length of H1, H2, V1, or V2 to each of the four sides of the common image region 720-1. Each of H1, H2, V1, and V2 may be a value obtained by multiplying H by a predetermined enlargement factor. Further, H1, H2, V1, and V2 may be values obtained by multiplying V by a predetermined enlargement factor. As described above, the common image removal unit 20 generates the enlarged common image region, so that the image of the subject that does not belong to the category of the learning image is not included in the common image region. As a result, the accuracy of the feature amount of the learning image calculated by the feature amount calculation unit 30 is improved.

図8は、拡大した共通画像領域を生成する方法の他の一例を示す。共通画像除去部20は、共通の被写体の画像に外接する領域を共通の被写体の画像領域とし、当該領域を拡大係数で拡大した領域を、共通画像領域としてもよい。具体的には、共通画像除去部20は、画像識別装置100の使用者が共通の被写体の画像にほぼ外接する共通画像領域820−1を指定した場合に、共通画像領域820−1の1辺の長さに所定の拡大係数を乗じた長さを共通画像領域820−1の4辺に付加することにより、拡大した共通画像領域820−2を生成してよい。   FIG. 8 shows another example of a method for generating an enlarged common image region. The common image removal unit 20 may use a region circumscribing a common subject image as a common subject image region, and a region obtained by enlarging the region with an enlargement factor as a common image region. Specifically, when the user of the image identification device 100 designates the common image area 820-1 that substantially circumscribes the image of the common subject, the common image removal unit 20 selects one side of the common image area 820-1. An enlarged common image region 820-2 may be generated by adding a length obtained by multiplying the length of the image by a predetermined enlargement factor to the four sides of the common image region 820-1.

共通画像除去部20は、共通画像領域820−1の水平方向の辺の長さに所定の拡大係数を乗じた長さを共通画像領域820−1の水平方向の辺に付加することにより、共通画像領域820−2の水平方向の辺の長さを決定してよい。また、共通画像除去部20は、共通画像領域820−1の垂直方向の辺の長さに所定の拡大係数を乗じた長さを共通画像領域820−1の垂直方向の辺に付加することにより、共通画像領域820−2の垂直方向の辺の長さを決定してよい。以上の手順により、共通画像除去部20は、共通画像領域820−1を拡大した共通画像領域820−2を生成することができる。   The common image removal unit 20 adds a length obtained by multiplying the length of the horizontal side of the common image region 820-1 by a predetermined enlargement factor to the horizontal side of the common image region 820-1, thereby The length of the horizontal side of the image area 820-2 may be determined. Further, the common image removal unit 20 adds a length obtained by multiplying the length of the vertical side of the common image region 820-1 by a predetermined enlargement factor to the vertical side of the common image region 820-1. The length of the side of the common image region 820-2 in the vertical direction may be determined. Through the above procedure, the common image removal unit 20 can generate a common image region 820-2 in which the common image region 820-1 is enlarged.

具体的には、H3は、学習画像800−1および学習画像800−2を重ね合わせた場合の、共通画像領域820−1の垂直方向の左辺と共通画像領域820−2の垂直方向の左辺との間の距離を示す。H4は、学習画像800−1および学習画像800−2を重ね合わせた場合の、共通画像領域820−1の垂直方向の右辺と共通画像領域820−2の垂直方向の右辺との間の距離を示す。H3およびH4は、共通画像領域820−1の水平方向の辺の長さに所定の拡大係数を乗じた長さであってよい。   Specifically, H3 represents the left side in the vertical direction of the common image area 820-1 and the left side in the vertical direction of the common image area 820-2 when the learning image 800-1 and the learning image 800-2 are superimposed. Indicates the distance between. H4 represents the distance between the right side in the vertical direction of the common image region 820-1 and the right side in the vertical direction of the common image region 820-2 when the learning image 800-1 and the learning image 800-2 are superimposed. Show. H3 and H4 may be a length obtained by multiplying the length of the horizontal side of the common image region 820-1 by a predetermined enlargement factor.

V3は、学習画像800−1および学習画像800−2を重ね合わせた場合の、共通画像領域820−1の水平方向の上辺と共通画像領域820−2の水平方向の上辺との間の距離を示す。V4は、学習画像800−1および学習画像800−2を重ね合わせた場合の、共通画像領域820−1の水平方向の下辺と共通画像領域820−2の水平方向の下辺との間の距離を示す。V3およびV4は、共通画像領域820−1の垂直方向の辺の長さに所定の拡大係数を乗じた長さであってよい。   V3 represents the distance between the upper side in the horizontal direction of the common image region 820-2 and the upper side in the horizontal direction of the common image region 820-2 when the learning image 800-1 and the learning image 800-2 are superimposed. Show. V4 represents the distance between the horizontal lower side of the common image region 820-1 and the horizontal lower side of the common image region 820-2 when the learning image 800-1 and the learning image 800-2 are superimposed. Show. V3 and V4 may be a length obtained by multiplying the length of the side in the vertical direction of the common image region 820-1 by a predetermined enlargement factor.

共通画像除去部20は、学習画像全体の1辺の長さに、第1の拡大係数を乗じた大きさ、または、共通の被写体の画像領域の1辺の長さに、第2の拡大係数を乗じた大きさのいずれかを、共通の被写体の画像領域の大きさに基づいて選択して、選択した大きさに応じて共通の被写体の画像領域を拡大してもよい。例えば、共通の被写体の画像領域が所定の大きさ以上の場合に、学習画像全体の1辺の長さに第1の拡大係数を乗じた大きさを当該画像領域に付加すると、カテゴリに属する画像の特徴量を算出する上で十分な画像領域を確保できない場合がある。そこで、共通の被写体の画像領域が所定の大きさ以上の場合に、共通画像除去部20は、共通の被写体の画像領域の1辺の長さに第2の拡大係数を乗じた大きさを当該画像領域に付加することにより、除去する共通画像領域を生成してよい。   The common image removal unit 20 has a size obtained by multiplying the length of one side of the entire learning image by the first enlargement factor, or the length of one side of the image area of the common subject. May be selected based on the size of the image area of the common subject, and the image area of the common subject may be enlarged according to the selected size. For example, when the image area of a common subject is larger than a predetermined size, if a size obtained by multiplying the length of one side of the entire learning image by a first enlargement factor is added to the image area, the image belonging to the category In some cases, it is not possible to secure a sufficient image area for calculating the feature amount of the image. Therefore, when the image area of the common subject is equal to or larger than the predetermined size, the common image removal unit 20 sets the size obtained by multiplying the length of one side of the image area of the common subject by the second enlargement factor. A common image area to be removed may be generated by adding to the image area.

共通の被写体の画像領域が所定の大きさ未満の場合には、学習画像全体の1辺の長さに第1の拡大係数を乗じた大きさを当該画像領域に付加しても、特徴量を算出する上で十分な画像領域を確保することができる。そこで、共通の被写体の画像領域が所定の大きさ未満の場合に、共通画像除去部20は、学習画像全体の1辺の長さに第2の拡大係数を乗じた大きさを当該画像領域に付加することにより、除去する共通画像領域を生成してよい。   If the image area of the common subject is less than a predetermined size, the feature amount can be obtained even if a size obtained by multiplying the length of one side of the entire learning image by the first enlargement factor is added to the image area. A sufficient image area can be secured for the calculation. Therefore, when the image area of the common subject is less than a predetermined size, the common image removal unit 20 sets the size of the entire learning image by multiplying the length of one side of the entire learning image by the second enlargement factor. By adding, a common image area to be removed may be generated.

共通画像除去部20は、予め与えられる参照画像を用いて画像マッチングすることで、複数の学習画像から共通の被写体の画像を抽出してもよい。例えば、画像識別装置100の使用者が予め選択した所定の人物等の画像を参照画像として使用してよい。   The common image removal unit 20 may extract a common subject image from a plurality of learning images by performing image matching using a reference image given in advance. For example, an image of a predetermined person or the like previously selected by the user of the image identification device 100 may be used as the reference image.

図9は、参照画像の一例を示す。参照画像900は、一例として、図2に示した共通画像領域220−1に含まれる画像と等しい画像であってよい。共通画像除去部20は、参照画像900の特徴量を算出して記憶する。   FIG. 9 shows an example of a reference image. For example, the reference image 900 may be an image equal to the image included in the common image region 220-1 illustrated in FIG. The common image removal unit 20 calculates and stores the feature amount of the reference image 900.

例えば、共通画像除去部20は、学習画像800における共通画像領域820−1を抽出するにあたって、学習画像800の所定の位置から一定の間隔ごとに、参照画像900と等しい大きさの領域を選択する。共通画像除去部20は、選択したそれぞれの領域における特徴量を算出する。共通画像除去部20は、それぞれの領域における特徴量と参照画像900の特徴量とを比較し、最も近い特徴量を有する領域を共通画像領域820−1であると判断してよい。   For example, when extracting the common image area 820-1 in the learning image 800, the common image removal unit 20 selects an area having a size equal to that of the reference image 900 from the predetermined position of the learning image 800 at regular intervals. . The common image removal unit 20 calculates a feature amount in each selected region. The common image removal unit 20 may compare the feature amount in each region with the feature amount of the reference image 900 and determine that the region having the closest feature amount is the common image region 820-1.

以上の実施形態においては、共通画像領域を除去した上で学習画像の特徴量を算出する方法について説明した。しかしながら、画像識別装置100は、条件に応じて、学習画像の特徴量の算出時に共通画像領域を除去するか否かを選択してもよい。   In the above embodiment, the method for calculating the feature amount of the learning image after removing the common image region has been described. However, the image identification device 100 may select whether or not to remove the common image region when calculating the feature amount of the learning image, depending on the condition.

図10は、共通画像領域を除去するか否かを選択することができる画像識別装置100の構成を示す。同図において、特徴量算出部30は、特徴量算出部30−1、特徴量算出部30−2、および特徴量算出部30−3を有する。識別器作成部40は、識別器作成部40−1および識別器作成部40−2を有する。識別器50は、識別器50−1、識別器50−2、および選択部52を有する。   FIG. 10 shows a configuration of the image identification device 100 that can select whether or not to remove the common image region. In the figure, the feature amount calculation unit 30 includes a feature amount calculation unit 30-1, a feature amount calculation unit 30-2, and a feature amount calculation unit 30-3. The discriminator creating unit 40 includes a discriminator creating unit 40-1 and a discriminator creating unit 40-2. The discriminator 50 includes a discriminator 50-1, a discriminator 50-2, and a selection unit 52.

特徴量算出部30−1は、共通画像除去部20により共通画像領域を除去された画像の特徴量を算出する。識別器作成部40−1は、特徴量算出部30−1が算出した特徴量に基づいて識別器50−1を作成する。   The feature amount calculation unit 30-1 calculates the feature amount of the image from which the common image area has been removed by the common image removal unit 20. The discriminator creating unit 40-1 creates the discriminator 50-1 based on the feature amount calculated by the feature amount calculating unit 30-1.

本実施形態において、特徴量算出部30−2の演算能力は特徴量算出部30−1の演算能力よりも高いので、特徴量算出部30−2は、所定時間内に特徴量算出部30−1よりも多くの種類の方法で高精度に特徴量を算出できる。特徴量算出部30−2が高精度に特徴量を算出できる場合には、特徴量の算出対象となる画像領域の面積が大きいことが好ましい。そこで、特徴量算出部30−2は、共通画像領域が除去されていない学習画像の特徴量を算出する。識別器作成部40−2は、特徴量算出部30−2が算出した特徴量に基づいて、識別器50−2を作成する。   In the present embodiment, since the calculation capability of the feature amount calculation unit 30-2 is higher than the calculation capability of the feature amount calculation unit 30-1, the feature amount calculation unit 30-2 may include the feature amount calculation unit 30- within a predetermined time. The feature amount can be calculated with high accuracy by more than one type of method. When the feature amount calculation unit 30-2 can calculate the feature amount with high accuracy, it is preferable that the area of the image region that is the target of the feature amount calculation is large. Therefore, the feature amount calculation unit 30-2 calculates the feature amount of the learning image from which the common image region is not removed. The discriminator creating unit 40-2 creates the discriminator 50-2 based on the feature amount calculated by the feature amount calculating unit 30-2.

選択部52は、識別器50−1および識別器50−2のいずれを用いて対象画像を分類するかを選択する。選択部52は、画像識別装置100の使用者が入力した選択情報に基づいて、使用する識別器を選択してよい。選択部52は、特徴量算出部30−3から入力される対象画像の特徴量を、選択した識別器に入力する。例えば、選択部52は、短時間で対象画像を分類する場合には識別器50−1を選択し、多くの種類の方法を用いて算出した特徴量を用いて対象画像を高精度に分類する場合には、識別器50−2を選択してよい。   The selection unit 52 selects which of the classifier 50-1 and the classifier 50-2 is used to classify the target image. The selection unit 52 may select a classifier to be used based on selection information input by the user of the image identification device 100. The selection unit 52 inputs the feature amount of the target image input from the feature amount calculation unit 30-3 to the selected discriminator. For example, the selection unit 52 selects the discriminator 50-1 when classifying the target image in a short time, and classifies the target image with high accuracy using the feature amount calculated using many types of methods. In this case, the discriminator 50-2 may be selected.

特徴量算出部30−3は、対象画像の特徴量を算出する。特徴量算出部30−3は、選択部52が選択した識別器の作成に用いられた特徴量算出方法を用いて、対象画像の特徴量を算出する。このように、本実施形態に係る画像識別装置100においては、複数の識別器を選択できるので、分類時間、および、分類に求められる精度等に応じて、最適な識別器を用いて対象画像を分類することができる。   The feature amount calculation unit 30-3 calculates the feature amount of the target image. The feature amount calculation unit 30-3 calculates the feature amount of the target image using the feature amount calculation method used to create the classifier selected by the selection unit 52. As described above, in the image identification device 100 according to the present embodiment, since a plurality of classifiers can be selected, the target image is selected using an optimal classifier according to the classification time, the accuracy required for classification, and the like. Can be classified.

なお、特徴量算出部30−1、特徴量算出部30−2、および特徴量算出部30−3は、同一のハードウェアを用いることにより構成してもよい。例えば、特徴量算出部30−1としてコンピュータを機能させるプログラム、特徴量算出部30−2としてコンピュータを機能させるプログラム、および特徴量算出部30−3としてコンピュータを機能させるプログラム等により同一のコンピュータを動作させることによって、特徴量算出部30−1、特徴量算出部30−2、および特徴量算出部30−3を構成してよい。   Note that the feature amount calculation unit 30-1, the feature amount calculation unit 30-2, and the feature amount calculation unit 30-3 may be configured by using the same hardware. For example, a program that causes a computer to function as the feature amount calculation unit 30-1, a program that causes the computer to function as the feature amount calculation unit 30-2, a program that causes the computer to function as the feature amount calculation unit 30-3, and the like can be used. You may comprise the feature-value calculation part 30-1, the feature-value calculation part 30-2, and the feature-value calculation part 30-3 by making it operate | move.

同様に、識別器40−1および識別器40−2は、同一のハードウェアを用いることにより構成してもよい。例えば、識別器40−1としてコンピュータを機能させるプログラム、および、識別器40−2としてコンピュータを機能させるプログラムによりコンピュータを動作させることによって、識別器40−1および識別器40−2を構成してよい。   Similarly, the discriminator 40-1 and the discriminator 40-2 may be configured by using the same hardware. For example, the discriminator 40-1 and the discriminator 40-2 are configured by operating the computer with a program for causing the computer to function as the discriminator 40-1 and a program for causing the computer to function as the discriminator 40-2. Good.

図11Aは、識別器50−1を作成する動作フローを示す。共通画像除去部20は、学習画像および共通画像情報を取得して(S101)、共通画像領域を除去する(S102)。特徴量算出部30−1は、共通画像領域を除去した状態における学習画像の特徴量を算出する(S103)。識別器作成部40−1は、算出された学習画像の特徴量に基づいて、共通画像領域を除去した学習画像を用いた場合の識別器50−1を作成する(S104)。   FIG. 11A shows an operation flow for creating the discriminator 50-1. The common image removal unit 20 acquires a learning image and common image information (S101), and removes the common image region (S102). The feature amount calculation unit 30-1 calculates the feature amount of the learning image in a state where the common image region is removed (S103). The discriminator creating unit 40-1 creates the discriminator 50-1 when using the learning image from which the common image region is removed based on the calculated feature amount of the learning image (S104).

図11Bは、識別器50−2を作成する動作フローを示す。特徴量算出部30−2は、学習画像を取得して(S111)、学習画像の特徴量を算出する(S112)。識別器作成部40−2は、算出された学習画像の特徴量に基づいて、共通画像を除去しない学習画像を用いた場合の識別器50−2を作成する(S113)。   FIG. 11B shows an operation flow for creating the discriminator 50-2. The feature amount calculation unit 30-2 acquires a learning image (S111), and calculates a feature amount of the learning image (S112). The discriminator creating unit 40-2 creates the discriminator 50-2 when a learning image that does not remove the common image is used based on the calculated feature amount of the learning image (S113).

図11Cは、対象画像を分類する動作フローを示す。特徴量算出部30−3は、対象画像を取得する(S121)。選択部52は、外部から入力される情報に基づいて、対象画像の分類に用いる識別器を選択する(S122)。   FIG. 11C shows an operation flow for classifying target images. The feature amount calculation unit 30-3 acquires the target image (S121). The selection unit 52 selects a discriminator to be used for classification of the target image based on information input from the outside (S122).

特徴量算出部30−3は、選択部52が識別器50−1を選択した場合には(S123)、特徴量算出部30−1が用いた特徴量算出方法を用いて対象画像の特徴量を算出する(S124)。選択部52は、特徴量算出部30−3から入力された特徴量を識別器50−1に入力する。識別器50−1は、入力された特徴量に対応する対象画像を最適なカテゴリに分類する(S125)。   When the selection unit 52 selects the discriminator 50-1 (S123), the feature amount calculation unit 30-3 uses the feature amount calculation method used by the feature amount calculation unit 30-1 to calculate the feature amount of the target image. Is calculated (S124). The selection unit 52 inputs the feature amount input from the feature amount calculation unit 30-3 to the classifier 50-1. The discriminator 50-1 classifies the target image corresponding to the input feature amount into the optimum category (S125).

特徴量算出部30−3は、選択部52が識別器50−2を選択した場合には(S123)、特徴量算出部30−2が用いた特徴量算出方法を用いて対象画像の特徴量を算出する(S126)。選択部52は、特徴量算出部30−4から入力された特徴量を識別器50−2に入力する。識別器50−2は、入力された特徴量に対応する対象画像を最適なカテゴリに分類する(S127)。   When the selection unit 52 selects the discriminator 50-2 (S123), the feature amount calculation unit 30-3 uses the feature amount calculation method used by the feature amount calculation unit 30-2 to perform the feature amount of the target image. Is calculated (S126). The selection unit 52 inputs the feature amount input from the feature amount calculation unit 30-4 to the discriminator 50-2. The discriminator 50-2 classifies the target image corresponding to the input feature amount into the optimum category (S127).

図12は、他の実施形態に係る撮像システム150の構成を示す。撮像システム150は、図1に示した画像識別装置100に対して、撮像部120をさらに備える。例えば、撮像システム150はデジタルカメラであってよい。撮像部120は、撮像対象を撮像した対象画像を特徴量算出部30に入力する。識別器50は、特徴量算出部30が算出した対象画像の特徴量を、予め特徴量を算出した各カテゴリのうち、特徴量が最も近いカテゴリに分類する。識別器50は、分類したカテゴリに応じた情報を、対象画像のメタ情報領域に付加してよい。   FIG. 12 shows a configuration of an imaging system 150 according to another embodiment. The imaging system 150 further includes an imaging unit 120 with respect to the image identification device 100 illustrated in FIG. For example, the imaging system 150 may be a digital camera. The imaging unit 120 inputs a target image obtained by imaging the imaging target to the feature amount calculation unit 30. The discriminator 50 classifies the feature amount of the target image calculated by the feature amount calculation unit 30 into the category having the closest feature amount among the categories whose feature amounts have been calculated in advance. The discriminator 50 may add information corresponding to the classified category to the meta information area of the target image.

撮像システム150は、撮像システム150の使用者の操作に応じて、外部の記憶媒体から取得した対象画像をカテゴリ毎に分類して表示してよい。また、撮像システム150は、対象画像のメタ情報領域に当該対象画像が属するカテゴリに応じた情報を付して、外部装置に出力してよい。このように、撮像システム150が取得した対象画像をカテゴリに分類することにより、関連する画像を検索したり、関連する画像ごとに保存したり、関連する画像だけを連続して表示したりすることができる。   The imaging system 150 may classify and display the target images acquired from the external storage medium according to the category according to the operation of the user of the imaging system 150. Further, the imaging system 150 may attach information corresponding to the category to which the target image belongs to the meta information area of the target image and output the information to an external device. In this manner, by classifying the target images acquired by the imaging system 150 into categories, searching for related images, storing for each related image, or displaying only related images continuously. Can do.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

20 共通画像除去部、30 特徴量算出部、40 識別器作成部、50 識別器、52 選択部、100 画像識別装置、120 撮像部、150 撮像システム、200 学習画像、210 学習画像、220 共通画像領域、230 共通画像領域、300 学習画像、310 学習画像、400 対象画像、500、学習画像、510 学習画像、520 共通画像領域、530 共通画像領域、600 学習画像、620 共通画像領域、630 共通画像領域、700 学習画像、720 共通画像領域、800 学習画像、820 共通画像領域、900 参照画像   20 common image removal unit, 30 feature quantity calculation unit, 40 classifier creation unit, 50 classifier, 52 selection unit, 100 image identification device, 120 imaging unit, 150 imaging system, 200 learning image, 210 learning image, 220 common image Area, 230 common image area, 300 learning image, 310 learning image, 400 target image, 500, learning image, 510 learning image, 520 common image area, 530 common image area, 600 learning image, 620 common image area, 630 common image Area, 700 learning image, 720 common image area, 800 learning image, 820 common image area, 900 reference image

Claims (12)

与えられる対象画像が、予め定められたいずれのカテゴリの画像であるかを識別する画像識別装置であって、
入力される画像の特徴量を算出する特徴量算出部と、
予め前記カテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成し、前記特徴量算出部に入力する共通画像除去部と、
それぞれの前記処理済画像に対して前記特徴量算出部が算出した特徴量を用いた画像識別処理により、入力される画像がいずれの前記カテゴリの画像であるかを識別する識別器を予め生成する識別器作成部と
を備え、
前記特徴量算出部は、前記識別器作成部が前記識別器を生成した後に前記対象画像についてカテゴリを識別する場合に、前記対象画像の特徴量を算出して前記識別器に入力する画像識別装置。
An image identification device for identifying a predetermined category of an image to be given,
A feature amount calculation unit for calculating a feature amount of an input image;
A processed image obtained by removing a common image area including a predetermined common subject image from each of a plurality of learning images previously classified in the category is generated and input to the feature amount calculation unit An image removal unit;
A discriminator that identifies which category of image the input image belongs to is generated in advance by image discrimination processing using the feature amount calculated by the feature amount calculation unit for each processed image. And a discriminator creation unit,
The feature quantity calculation unit calculates the feature quantity of the target image and inputs it to the classifier when the classifier creation unit identifies a category for the target image after generating the classifier. .
前記共通画像除去部は、前記共通の被写体の画像領域として指定される領域を予め定められた拡大係数で拡大した領域を、前記共通画像領域とする
請求項1に記載の画像識別装置。
The image identification device according to claim 1, wherein the common image removing unit enlarges an area designated as an image area of the common subject by a predetermined enlargement factor as the common image area.
前記共通画像除去部は、前記共通の被写体の画像に外接する領域を前記共通の被写体の画像領域とし、当該領域を前記拡大係数で拡大した領域を、前記共通画像領域とする
請求項2に記載の画像識別装置。
3. The common image removal unit includes a region circumscribing the common subject image as the common subject image region, and a region obtained by enlarging the region by the enlargement factor as the common image region. Image identification device.
前記共通画像除去部は、予め与えられる参照画像を用いて画像マッチングすることで、前記複数の学習画像から前記共通の被写体の画像を抽出する
請求項3に記載の画像識別装置。
The image identification device according to claim 3, wherein the common image removal unit extracts images of the common subject from the plurality of learning images by performing image matching using a reference image given in advance.
前記共通画像除去部は、前記複数の学習画像のそれぞれについて、除去された前記共通画像領域に隣接する画素の情報を少なくとも用いて、除去された領域の画像データを補完する
請求項2から4のいずれかに記載の画像識別装置。
The said common image removal part complements the image data of the removed area | region using at least the information of the pixel adjacent to the removed said common image area | region about each of these learning images. The image identification device according to any one of the above.
前記共通画像除去部は、学習画像全体の1辺の長さに、所定の前記拡大係数を乗じた大きさに基づいて、前記共通の被写体の画像領域を拡大する
請求項3または4に記載の画像識別装置。
The said common image removal part expands the image area | region of the said common subject based on the magnitude | size which multiplied the length of one side of the whole learning image by the predetermined said expansion coefficient. Image identification device.
前記共通画像除去部は、学習画像全体の1辺の長さに、第1の拡大係数を乗じた大きさ、または、前記共通の被写体の画像領域の1辺の長さに、第2の拡大係数を乗じた大きさのいずれかを、前記共通の被写体の画像領域の大きさに基づいて選択して、選択した大きさに応じて前記共通の被写体の画像領域を拡大する
請求項3または4に記載の画像識別装置。
The common image removal unit is configured to multiply the length of one side of the entire learning image by a first enlargement factor, or to the length of one side of the image area of the common subject, The size multiplied by the coefficient is selected based on the size of the image area of the common subject, and the image area of the common subject is enlarged according to the selected size. The image identification device described in 1.
前記特徴量算出部は、前記カテゴリ毎に、前記共通画像除去部により前記共通画像領域が除去されていない前記複数の学習画像における共通の特徴量を更に算出し、
前記識別器は、前記処理済画像から算出した前記特徴量を用いるか、または、前記共通画像領域が除去されていない前記複数の学習画像から算出した前記特徴量を用いるかを選択する
請求項1から7のいずれかに記載の画像識別装置。
The feature amount calculation unit further calculates, for each category, a common feature amount in the plurality of learning images in which the common image region is not removed by the common image removal unit,
2. The classifier selects whether to use the feature amount calculated from the processed image or to use the feature amount calculated from the plurality of learning images from which the common image region is not removed. 8. The image identification device according to any one of 1 to 7.
与えられる対象画像が、予め定められたいずれのカテゴリの画像であるかを識別する画像識別方法であって、
予め前記カテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成する共通画像除去段階と、
前記共通画像除去段階で生成された処理済画像の特徴量を算出する共通特徴量算出段階と、
それぞれの前記処理済画像に対して前記特徴量算出段階において算出した特徴量を用いた画像識別処理により、入力される画像がいずれの前記カテゴリの画像であるかを識別する識別器を予め生成する識別器作成段階と
前記識別器作成段階において前記識別器を生成した後に前記対象画像についてカテゴリを識別する場合に、前記対象画像の特徴量を算出して前記識別器に入力する対象画像特徴量算出段階を備える画像識別方法。
An image identification method for identifying a predetermined category of an image to be given,
A common image removal step of generating a processed image obtained by removing a common image region including a predetermined common subject image from each of a plurality of learning images previously classified into the category;
A common feature amount calculating step of calculating a feature amount of the processed image generated in the common image removing step;
A classifier that identifies which category of image the input image belongs to is generated in advance by image identification processing using the feature amount calculated in the feature amount calculation step for each processed image. A target image feature amount calculation unit that calculates a feature amount of the target image and inputs it to the classifier when a category is identified for the target image after generating the classifier in the classifier generation step and the classifier generation step; An image identification method comprising steps.
入力される画像の特徴量を算出する特徴量算出部と、
予めカテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成し、前記特徴量算出部に入力する共通画像除去部と、
それぞれの前記処理済画像に対して前記特徴量算出部が算出した特徴量を用いた画像識別処理により、入力される画像がいずれの前記カテゴリの画像であるかを識別する識別器を生成する識別器作成部と
を備える識別器作成装置。
A feature amount calculation unit for calculating a feature amount of an input image;
A common image that is generated from each of a plurality of learning images that have been classified into categories in advance and that has been processed by removing a common image region that includes a predetermined common subject image, and that is input to the feature amount calculation unit A removal section;
Identification for generating a discriminator for identifying which category of image the input image is by image identification processing using the feature amount calculated by the feature amount calculation unit for each processed image A discriminator creating device comprising a device creating unit.
予めカテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成する共通画像除去段階と、
前記共通画像除去段階で生成された処理済画像の特徴量を算出する特徴量算出段階と、
それぞれの前記処理済画像に対して前記特徴量算出段階において算出した特徴量を用いた画像識別処理により、入力される画像がいずれの前記カテゴリの画像であるかを識別する識別器を生成する段階と
を備える識別器作成方法。
A common image removal step of generating a processed image obtained by removing a common image region including a predetermined common subject image from each of a plurality of learning images classified in advance into categories;
A feature amount calculating step of calculating a feature amount of the processed image generated in the common image removing step;
A step of generating a discriminator for identifying which category of image the input image is by image discrimination processing using the feature amount calculated in the feature amount calculation step for each processed image. A classifier creating method comprising:
画像を撮像する撮像システムであって、
撮像対象を撮像した対象画像を取得する撮像部と、
前記対象画像が、予め定められたいずれのカテゴリの画像であるかを識別する画像識別装置と
を備え、
前記画像識別装置は、
入力される画像の特徴量を算出する特徴量算出部と、
予め前記カテゴリに分類されている複数の学習画像のそれぞれから、予め定められた共通の被写体の画像が含まれる共通画像領域を除去した処理済画像を生成し、前記特徴量算出部に入力する共通画像除去部と、
それぞれの前記処理済画像に対して前記特徴量算出部が算出した特徴量を用いた画像識別処理により、入力される画像がいずれの前記カテゴリの画像であるかを識別する識別器を予め生成する識別器作成部と
を有し、
前記特徴量算出部は、前記識別器作成部が前記識別器を生成した後に前記対象画像についてカテゴリを識別する場合に、前記対象画像の特徴量を算出して前記識別器に入力する
撮像システム。
An imaging system for capturing an image,
An imaging unit for acquiring a target image obtained by imaging the imaging target;
An image identification device that identifies which category of image the target image is determined in advance, and
The image identification device includes:
A feature amount calculation unit for calculating a feature amount of an input image;
A processed image obtained by removing a common image area including a predetermined common subject image from each of a plurality of learning images previously classified in the category is generated and input to the feature amount calculation unit An image removal unit;
A discriminator that identifies which category of image the input image belongs to is generated in advance by image discrimination processing using the feature amount calculated by the feature amount calculation unit for each processed image. And a discriminator creation unit,
The said feature-value calculation part is an imaging system which calculates the feature-value of the said target image and inputs it to the said discriminator, when identifying the category about the said target image after the said discriminator preparation part produces | generates the said discriminator.
JP2009159262A 2009-07-03 2009-07-03 Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system Withdrawn JP2011014052A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009159262A JP2011014052A (en) 2009-07-03 2009-07-03 Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009159262A JP2011014052A (en) 2009-07-03 2009-07-03 Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system

Publications (1)

Publication Number Publication Date
JP2011014052A true JP2011014052A (en) 2011-01-20

Family

ID=43592844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009159262A Withdrawn JP2011014052A (en) 2009-07-03 2009-07-03 Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system

Country Status (1)

Country Link
JP (1) JP2011014052A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021901A (en) * 2012-07-23 2014-02-03 Casio Comput Co Ltd Object detection device, object detection method and program
KR20150103443A (en) * 2014-03-03 2015-09-11 에스케이플래닛 주식회사 Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor
CN111758116A (en) * 2018-03-14 2020-10-09 欧姆龙株式会社 Face image recognition system, recognizer generation device, recognition device, image recognition system, and recognition system
JP2021149360A (en) * 2020-03-18 2021-09-27 株式会社東芝 Learned model generation device for classification apparatus and learned model generation method for classification apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021901A (en) * 2012-07-23 2014-02-03 Casio Comput Co Ltd Object detection device, object detection method and program
KR20150103443A (en) * 2014-03-03 2015-09-11 에스케이플래닛 주식회사 Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor
KR102238672B1 (en) * 2014-03-03 2021-04-09 에스케이플래닛 주식회사 Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor
CN111758116A (en) * 2018-03-14 2020-10-09 欧姆龙株式会社 Face image recognition system, recognizer generation device, recognition device, image recognition system, and recognition system
CN111758116B (en) * 2018-03-14 2023-07-14 欧姆龙株式会社 Face image recognition system, recognizer generation device, recognition device, and face image recognition system
JP2021149360A (en) * 2020-03-18 2021-09-27 株式会社東芝 Learned model generation device for classification apparatus and learned model generation method for classification apparatus
JP7475910B2 (en) 2020-03-18 2024-04-30 株式会社東芝 Trained model generating device for classification device and trained model generating method for classification device

Similar Documents

Publication Publication Date Title
EP3271867B1 (en) Local change detection in video
US8805077B2 (en) Subject region detecting apparatus
JP5229744B2 (en) Image classification device and image classification program
US8634659B2 (en) Image processing apparatus, computer readable medium storing program, and image processing method
JP6287855B2 (en) Image processing apparatus and image processing method
US10026197B2 (en) Signal processing method, signal processing apparatus, and storage medium
JP2015011585A (en) Image processing apparatus, image forming apparatus, image forming system, image processing method, and program
US8923610B2 (en) Image processing apparatus, image processing method, and computer readable medium
JP2010079545A (en) Image processing apparatus, image processing method and program
JP4772819B2 (en) Image search apparatus and image search method
JP2015185034A (en) Image recognition apparatus, image recognition method, and program
JP5887264B2 (en) Object recognition apparatus, method, program, and computer-readable medium storing the software
JP2011014052A (en) Image identifying device, image identifying method, identifier creating device, identifier creating method and imaging system
US20130142422A1 (en) Image processing method, and image processor
JP2011100395A (en) Discrimination device, discrimination method, and program
JPWO2013089261A1 (en) Image processing system and image processing method
JP2013182330A (en) Image processor and image processing method
JP2019083445A (en) Image processing apparatus, image processing method, image processing system, and program
US20130058568A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP7264171B2 (en) Image retrieval system, image retrieval method, and program
US8705934B2 (en) Moving picture processing apparatus, moving picture processing method, and program
JP5702960B2 (en) Image processing apparatus, image processing method, and program
JP6031566B1 (en) Feature extraction device, image search device, method, and program
JP5882976B2 (en) Learning local feature generating apparatus and learning local feature generating method
JP2007188176A (en) Method and device for specifying content information, program, and computer readable recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120904