[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6897749B2 - 学習方法、学習システム、および学習プログラム - Google Patents

学習方法、学習システム、および学習プログラム Download PDF

Info

Publication number
JP6897749B2
JP6897749B2 JP2019211981A JP2019211981A JP6897749B2 JP 6897749 B2 JP6897749 B2 JP 6897749B2 JP 2019211981 A JP2019211981 A JP 2019211981A JP 2019211981 A JP2019211981 A JP 2019211981A JP 6897749 B2 JP6897749 B2 JP 6897749B2
Authority
JP
Japan
Prior art keywords
learning
weak classifier
class
weight
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019211981A
Other languages
English (en)
Other versions
JP2020053073A (ja
Inventor
利憲 細井
利憲 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2020053073A publication Critical patent/JP2020053073A/ja
Application granted granted Critical
Publication of JP6897749B2 publication Critical patent/JP6897749B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、画像から物体を検出するための学習を行う識別辞書学習システム等に関する。
画像に映った(記録された)特定の種類の物体を検出し、その物体の位置決めする場合、物体のみが映ったテンプレート画像を用意し、当該物体を表す部分画像が含まれるであろう注目画像中に探索窓を設定してテンプレート画像とのマッチング計算を繰り返すテンプレートマッチング探索手法が古くから利用されている。この手法では、単純にテンプレート画像の画素値と注目画像中の画素値を利用してマッチングを行うと精度が低い。このため、マッチング精度を高めるために、テンプレート画像や注目画像の、周辺画素との勾配情報や2次微分情報等を計算して、よりマッチングしやすい特徴量と呼ばれる数値列に変換する手法が開発された。更に、統計的パターン識別技術を用いて学習された識別辞書を用いてマッチング計算する手法が開発された。この識別辞書は物体クラスであるポジティブ(positive)クラスと、非物体クラスであるネガティブ(negative)クラスとの2クラス識別をするための辞書であり、具体的には、識別に必要なパラメータ群を格納したメモリである。
物体検出においてよく利用される統計的パターン識別技術としては、ブースティング(Boosting)と呼ばれる学習手法がある。Boostingでは、弱識別器と呼ばれる比較的単純な識別器を複数まとめることで、強識別器と呼ばれる識別精度が高い識別器が生成される。非特許文献1には、Boostingを物体検出に効果的に利用した手法が開示されている。この手法では、弱識別器にはDecision−Stump処理を採用する。この処理では、Rectangle Filterを利用して、高速な抽出処理が可能なHaarウェーブレット風の特徴量1つに対して単純に閾値処理する。強識別器の生成にはAdaBoostと呼ばれるBoostingを採用している。
非特許文献2には、AdaBoostを改良したReal AdaBoostと呼ばれるBoosting手法が開示されている。この手法では、単純なDecision−Stump処理ではなく、ポジティブクラスの特徴量を表す数値の出現確率と、ネガティブクラスの特徴量を表す数値の出現確率とに基づいた弱識別を行う。このため、学習データさえ大量にあれば、高精度な物体検出を実現できる。
また、非特許文献3では、Gentle AdaBoostと呼ばれるBoosting手法が開示されている。この手法は、Boostingで最適化する指標(損失)の定義をポジティブ化するので学習が安定的になり、これによりReal AdaBoostと同等以上の精度を得られる。非特許文献1、非特許文献2および非特許文献3を組み合わせた手法を用いれば、顔や車等の特定の物体を画像から高精度に検出できる。しかし、物体の見た目の変化が大きくない物体、例えば正面顔等しか検出できない。
注目する画像から、見た目の変化が大きい物体を検出するには、見た目の変化の種類毎に識別辞書を各々用意し、この辞書の数の分、検出処理する方式がよく利用される。しかし、この方式では、識別辞書の数だけ検出処理が必要となるので、処理時間が増加する問題がある。この問題に対して、非特許文献4は、見た目の変化を分類して別々のカテゴリ(クラス)として捉え、複数のクラス間で特徴量と弱識別器とを共有できるように学習する手法を開示している。この手法では弱識別器を共有できるため、処理時間が単純にクラス数倍まで増加することはない。よってこの手法によれば、比較的高速な処理を実現できる。このような物体検出のためクラスは、ポジティブ系のクラスが複数のサブクラス、ネガティブが1クラス、という階層的な多クラス構成になっている。階層的多クラス構成では、ポジティブ系クラス全体とネガティブクラスとの間の識別が最優先されるという条件下で、ポジティブクラス間も識別できるようにする必要がある。非特許文献4では、個々のポジティブ系クラスと、ネガティブクラスとを分類できるよう学習し、各ポジティブクラスのスコアを出力し、結果的に階層的なクラスの分類が可能である。
P. Viola and M. Jones著, 「Robust real-time object detection」, IJCV, 57(2):137-154ページ, 2004年 R. Schapire, Y. Singer著, 「Improved boosting algorithms using confidence-rated predictions」, Proc. of 11th conference on Computational Learning Theory, 1998年 J.Friedman, T. Hastie, R. Tibshirani著, 「Additive logistic regression: a statistical view of boosting」, Annals of statistics, 28(2):337-374ページ, 2000年 A. Torralba, K. P. Murphy, W. T. Freeman著, 「Sharing visual features for multiclass and multiview object detection」, PAMI 2006年
しかしながら、上述したように、非特許文献1、非特許文献2および非特許文献3を組み合わせた手法では、見た目の変化が大きくない物体、例えば正面顔等しか検出することができないという問題がある。
非特許文献4の手法では、画像上で見た目のバリエーションが大きい特定の物体を検出するための識別用辞書について、高い識別率を得られないという問題がある。これは、ポジティブ系クラスとネガティブクラスとの分類精度と、ポジティブ系クラス間の分類精度をどの程度の優先度合いで学習するかを設定することができないためである。分類精度の優先度合いが固定されている弱識別器しか学習できないと、それらを組み合わせて得られる強識別器において、識別に最適な辞書を構成できない。物体検出では、物体を検出することが最優先されるため、ポジティブ系クラスとネガティブクラスとの分類精度が特に重要である。
本発明は上記の問題点に鑑みてなされた。本発明は、画像上で見た目の変化が大きい特定の物体を高い識別率で検出することが可能な識別用辞書を作成できる、識別辞書学習システム等を提供することを主たる目的とする。
上記の問題点を鑑みて、本発明の第1の観点は、ネガティブクラスに属する学習サンプルに対し、複数のサブクラスを含むポジティブ系クラスに属する学習サンプルよりも、相対的に高い優先度を重みとして設定し、前記学習サンプルが属するクラスの識別子であるラベルを用いて、前記学習サンプルに設定した前記重みを正規化し、正規化した前記重みが大きい学習サンプルほど、弱識別器候補によるクラスの識別精度が高くなるように、前記弱識別器候補のパラメータを学習し、前記学習サンプルの特徴量を前記弱識別器候補に入力したときの前記弱識別器候補からの出力値から、前記学習サンプルの特徴量ごとの最適化指標を計算し、計算した前記最適化指標に基づいて、前記弱識別器候補の中から、1つまたは2つ以上の前記サブクラスごとに一つの弱識別器を選択し、選択した前記弱識別器の出力値を用いて、前記ポジティブ系クラスに属する学習サンプルに設定した前記重みを増加させるように、前記ポジティブ系クラスのサブクラスごとに、前記学習サンプルの前記重みを更新し、前記学習サンプルに設定した前記重みを正規化すること、正規化した前記重みを用いて、前記弱識別器候補のパラメータを学習すること、前記最適化指標に基づいて、前記弱識別器候補の中から、一つの弱識別器を確定すること、および、前記学習サンプルの前記重みを更新することを含む学習処理を、所定の条件を満たすまで繰り返す、学習方法である。
本発明の第2の観点は、ネガティブクラスに属する学習サンプルに対し、複数のサブクラスを含むポジティブ系クラスに属する学習サンプルよりも、相対的に高い優先度を重みとして設定する優先度設定手段と、前記学習サンプルが属するクラスの識別子であるラベルを用いて、前記学習サンプルに設定した前記重みを正規化する重み正規化手段と、正規化した前記重みが大きい学習サンプルほど、弱識別器候補によるクラスの識別精度が高くなるように、前記弱識別器候補のパラメータを学習する弱識別器候補学習手段と、前記学習サンプルの特徴量を前記弱識別器候補に入力したときの前記弱識別器候補からの出力値から、前記学習サンプルの特徴量ごとの最適化指標を計算し、計算した前記最適化指標に基づいて、前記弱識別器候補の中から、1つまたは2つ以上の前記サブクラスごとに一つの弱識別器を選択する共有クラス弱識別器選択部と、選択した前記弱識別器の出力値を用いて、前記ポジティブ系クラスに属する学習サンプルに設定した前記重みを増加させるように、前記ポジティブ系クラスのサブクラスごとに、前記学習サンプルの前記重みを更新する重み更新手段と、前記学習サンプルに設定した前記重みを正規化すること、正規化した前記重みを用いて、前記弱識別器候補のパラメータを学習すること、前記最適化指標に基づいて、前記弱識別器候補の中から、一つの弱識別器を確定すること、および、前記学習サンプルの前記重みを更新することを含む学習処理を終了するかどうか、所定の条件に基づいて判定する学習終了判定手段と、を備えた学習システムである。
本発明の第3の観点は、ネガティブクラスに属する学習サンプルに対し、複数のサブクラスを含むポジティブ系クラスに属する学習サンプルよりも、相対的に高い優先度を重みとして設定することと、前記学習サンプルが属するクラスの識別子であるラベルを用いて、前記学習サンプルに設定した前記重みを正規化することと、正規化した前記重みが大きい学習サンプルほど、弱識別器候補によるクラスの識別精度が高くなるように、前記弱識別器候補のパラメータを学習することと、前記学習サンプルの特徴量を前記弱識別器候補に入力したときの前記弱識別器候補からの出力値から、前記学習サンプルの特徴量ごとの最適化指標を計算し、計算した前記最適化指標に基づいて、前記弱識別器候補の中から、1つまたは2つ以上の前記サブクラスごとに一つの弱識別器を選択することと、選択した前記弱識別器の出力値を用いて、前記ポジティブ系クラスに属する学習サンプルに設定した前記重みを増加させるように、前記ポジティブ系クラスのサブクラスごとに、前記学習サンプルの前記重みを更新することと、前記学習サンプルに設定した前記重みを正規化すること、正規化した前記重みを用いて、前記弱識別器候補のパラメータを学習すること、前記最適化指標に基づいて、前記弱識別器候補の中から、一つの弱識別器を確定すること、および、前記学習サンプルの前記重みを更新することを含む学習処理を、所定の条件を満たすまで繰り返することと、をコンピュータに実行させるための学習プログラムである。
本発明によると、画像上で見た目の変化が大きい特定の物体を高い識別率で検出することが可能な識別用辞書を作成できる。
図1は、各クラスの概念を模式的に示した概念図である。 図2は、本発明の第一の実施形態の識別辞書学習システムの内部構成を示す図である。 図3は、重み記憶部の重み表のデータ構成を示す図である。 図4は、ラベル表のデータ構成を示す図である。 図5は、重み記憶部の重み表のデータ構成を示す図である。 図6Aは、ヒストグラム表(ラベル+1)のデータ構成を示す図である。 図6Bは、ヒストグラム表(ラベル−1)のデータ構成を示す図である。 図7は、識別辞書学習システムの動作を示すフロー図である。 図8は、識別辞書学習システムにて作成された識別辞書記憶部の使用例を示すシステム図である。 図9は、本発明の第二の実施形態の識別辞書学習システムの内部構成を示す図である。 図10は、本発明の実施形態を実現するための情報処理装置の構成図である。
次に図面を参照して、本発明の実施形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであることに留意すべきである。更に以下に記載される実施形態は一例であり、その本質を同一とする範囲において適宜変更可能であることに留意すべきである。
<第一の実施形態>
本発明の第一の実施形態の識別辞書学習システムは、画像検出の学習に用いる特定の物体、例えば顔が撮影(記録)されている画像データ(以下「学習サンプル」と記載)の分類において、図1に示すような、階層的な多クラス構成を用いる。図1中の○、▲、▼、◆等の各点は、学習サンプル(以下、単に「サンプル」とも記載する)を意味しており、これをある2つのクラスを表す特徴平面としてプロットした概念図である。サンプルは、上記の2つのクラスである、ポジティブクラスとネガティブクラスに分類される。ポジティブのクラスが複数のサブクラス(例えば◆印で示される正面顔クラスを表すPos(positiveの略、以下同様)1クラス、▼印で示される横顔クラスを表すPos2クラス、▲印で示される斜め顔クラスを表すPos3クラス)によって構成される。以下これらをポジティブ系クラスと記述する。○印で示されるネガティブクラスは特定の物体(顔)が映っていない画像データのクラスであり、1クラスのみである。尚、図1のポジティブ系クラスとネガティブクラスの境界は、物体と非物体の境界を概念的に示すものである。
次に、以下の説明の便宜上、本実施の形態により作成された識別辞書を用いた多クラス識別処理の枠組みについて先に説明する。上記識別辞書には学習された多数の弱識別器に関する情報が記憶されており、上記弱識別器を1つずつ順に実行することで、全体的な識別結果が得られる。
このように弱識別器を組み合わせた処理は、機械学習におけるパターン認識分野では強識別器と呼ばれ、この枠組みはBoostingと呼ばれる手法(技術)の一変種である。上記弱識別器それぞれは、1つまたは複数のポジティブ系クラスに対応しており、弱識別処理は、対応しているポジティブ系クラスのスコアと、対応していないポジティブ系クラスのスコアとの2種類を出力する。
つまり、1つの弱識別器が計算するスコアは、上記弱識別器に対応しているポジティブ系クラスについては同一の値であり、残りのポジティブ系クラスについては別の同一の値である。本実施形態に係る識別辞書学習システムは、このような弱識別器を複数処理し、ポジティブ系クラス1つずつにスコアの累積和を計算し、計算した累積和を強識別器の出力(強識別スコア)とする。つまり、強識別スコアは、ポジティブ系クラス毎に求まるので、それらの最大値をとるポジティブ系クラスに分類することができる。
以下では、個々の弱識別器に対応しているポジティブ系クラスを簡潔に表現するために、1つのポジティブ系クラスまたは複数のポジティブ系クラスの組み合わせからなる集合を、単に組み合わせSと表記する(組み合わせ数:n=1,...,組み合わせ候補数)。
上記強識別スコアの計算は、式1で表される。Hは、ポジティブ系クラスcらしさを表す強識別器の出力値、Nは弱識別器の個数、mは弱識別器番号である。強識別器も弱識別器も、どちらも個々のポジティブ系クラスc用のスコア(Hまたはh)を、すべてのポジティブ系クラス(c=1,...,N)分だけ出力する。つまり、強識別器および弱識別器は、ポジティブ系クラス個数分の数値を出力する。
Figure 0006897749
尚、このような強識別器を用いて識別処理を行う際には、必ずしも全ての弱識別器の計算を行う必要はない。弱識別器の一部のみ(m=1,...,N’:だたしN’<N)を計算することによって得られる中間出力値を取り出し、この中間出力値を閾値処理すれば残りの計算を省略できる。特に物体検出を行う場合には、識別器への入力がネガティブクラス(背景クラス)である確率が非常に高い。このため、少ない弱識別器によってネガティブクラスであると判定することができると、計算コストが非常に小さくなるので、高速に物体を検出できるようになる。
(識別辞書学習システム)
本発明の第1の実施形態の識別辞書学習システム100は、図2に示すようにデータ処理部110、重み記憶部121、識別辞書記憶部122およびラベル記憶部123を備える。データ処理部110は、優先度設定部111、重み正規化部112、弱識別器候補学習部113、最適化指標計算部114、共有クラス弱識別器選択部115、重み更新部116、優先度再設定部117を備える。
各部は、機能ブロックを示しており、各部は図10に示されるCPU(Central Processing Unit)3001によって適宜演算処理される。詳細は後述する。
重み記憶部121には、学習サンプル毎の重み係数を、ポジティブ系クラス毎に記載した重み表を格納する。重み表は、全ての学習サンプルの通し番号と、ポジティブ系クラスとが関連付けされた表に、各々重み値を割り当てた情報(データ)である。
識別辞書記憶部122には、学習処理に基づき求められた強識別器のパラメータが記憶される。強識別器は弱識別器の集合によって構成されるので、記憶される情報は、実質的には学習処理に基づき求められた複数の弱識別器のパラメータと同等である。弱識別器毎に備えるパラメータは、「選択された特徴量を特定する情報」、「弱識別器の出力値を得るための参照表」、「弱識別器に対応するポジティブクラスの組み合わせを特定する情報」である。
本実施形態において、特徴量とは、学習サンプルの特徴量となりうるあらゆる要素を指し、例えば色、画素値、勾配(画素値の1次微分)、画素値の2次微分等である。特徴量を特定する情報とは、ある弱識別器に使われる特徴量としてどの特徴量が選択されたかを特定する情報である。これは例えば、特徴量の各々に通し番号等を付した場合、この通し番号でよいし、特徴量を抽出するためのパラメータでもよい。参照表とは、弱識別器の出力値を学習サンプルの特徴量の値を基に計算するためのルックアップテーブルを構成する情報(データ)であり、詳細は後述する。
弱識別器に対応するポジティブクラスとは、ポジティブ系クラスの組み合わせSのうち、弱識別器がどの1つの組み合わせSに対応するかを特定する情報である。本実施形態による弱識別器は、Sに含まれるクラスか否かに応じて計算式が異なり、どちら(即ち、当該クラスか否か)に基づいて計算すべきかを特定する必要があるため、この情報が必要である。1つのSを保持するためには、例えばON/OFFフラグがポジティブ系クラスの個数分あればよい。
識別辞書記憶部122は、識別辞書学習システム100の動作中に得られた弱識別器のパラメータを順次記録する。識別辞書学習システム100の全動作が完了すると、識別辞書記憶部122には、全てのパラメータが記録された識別辞書が完成する。
ラベル記憶部123は、学習時に用いる+1または−1等の値であるラベルを、個々の学習サンプルについてポジティブ系クラス毎に割り当てたラベル表を格納する。
優先度設定部111は、ネガティブクラスとポジティブ系クラスとの分類の優先度として、ユーザが所望する値を重み表に反映させる。これは学習処理の最初のみ行われる。その際、ネガティブクラスの優先度をポジティブ系クラスの優先度に対して大きくなるように設定することが好ましい。これは、初期における弱識別器の学習段階でネガティブクラスとポジティブ系クラスの識別を重視した学習を行うためである。
例えば、ユーザが、ポジティブ系クラスに対するネガティブクラスの優先度の比率を2と設定する。この設定によると、ある一つの学習サンプルによるネガティブクラスの優先度はDneg={1/学習データ総数}×2となり、ポジティブ系クラスの優先度はDpos={1/学習データ総数}となる。この結果、図3に示すように、ネガティブクラスの重みはDneg=0.02、ポジティブ系クラスの重みはDpos=0.01となる。但し、「×」は積算を表し、「/」は除算を表す。
重み正規化部112は、学習サンプルの重み表の値を正規化する。具体的に、重み正規化部112は、ラベルz=+1が付与されたサンプル重みの総和と、ラベルz=−1が付与されたサンプルの重みの総和が等しくなるように正規化を実行する。ラベルとは、学習時に用いる+1または−1という値で、図4のように、個々の学習サンプルについてポジティブ系クラス毎に割り当てられる。尚、図4の表はラベル記憶部123に格納される。
図4に示す例において、個々の学習サンプルが属するクラスに対応するラベルは+1であり、その他は−1である。正規化の際には、具体的には、{ラベルz=+1が付与されたサンプル重み}/{ラベルz=+1が付与された全てのサンプル重みの総和}と、{ラベルz=−1が付与されたサンプル重み}/{ラベルz=−1が付与された全てのサンプル重みの総和}を算出し、各々算出結果に置き換えればよい。
例えば、個々の学習サンプルのラベルが図4のように割り当てられている場合に、図3の重み表を正規化すると、図5のようになる。弱識別器候補学習部113は、ある1つの特徴量と、あるポジティブ系クラスの1つの組み合わせSの場合について、弱識別器を学習(作成)し、これらを弱識別器の候補とする。この処理は、あらゆる特徴量とあらゆるポジティブ系クラスの組み合わせSに対して繰り返し実行される。但し、実装に際しては、現実的な処理時間で繰り返し処理が終了するように、組み合わせSの数量を制限すればよい。
弱識別器の学習とは、ある学習サンプルの特徴量の値が入力された場合に、その場合の弱識別器の出力値を計算するためのパラメータを求めておくことである。弱識別器は、ポジティブ系クラス毎に値が出力されるものであれば任意のモジュール(処理、機能)で構わないが、一例として、弱識別器による計算式に以下の式2を採用する場合について説明する。
Figure 0006897749
式2で用いられる文字等について説明する。hj cは弱識別器(弱識別の出力値)を表す。関数δ(・)は、引数に与えた数式が真であれば1、偽であれば0となる関数を表す。式2中の「・」は積算を表す。cは全ポジティブ系クラスN内の所定クラスを示す添字番号(N=N,...,N)を表す。iは学習サンプルの添字番号を表す。Zi cはクラスcに属する学習サンプルiのラベルを表す。xは学習サンプルiの特徴量の値を表す。Di cはクラスcに属する学習サンプルiの重みを表す。Xは特徴量の値の1区間(ビン)を表す。jは特徴量の値の区間N内の所定ビンを示す添字番号を表す。Sは先述のクラス組み合わせ集合を表す。εは小さな定数値を表す。lnは自然対数を表す。これらの記号の定義は、次式以降も同様である。
弱識別器候補学習部113を繰り返し実行することで、あらゆる特徴量、あらゆるポジティブ系クラスの組み合わせについて、全ての特徴値の区間(j=1,...,N)の式(1)の値hj cが計算される。尚、この「j、c」とhj cを関連付けた情報が上記参照表の候補であり、式2の場合、式の上段に相当する表(j個の数値)と式の下段に相当する表(c個の数値)の2つで構成される。尚、後述の最適化指標もあらゆる特徴量とあらゆるSについて計算される。後述する共有クラス弱識別器選択部115は、上記最適化指標を最小にする1つの特徴量と1つのSを選択する。
本実施形態の結果を用いた識別処理時の弱識別について説明する。クラス集合Sに含まれるポジティブ系クラスのスコアについては、識別対象であるサンプルの特徴量からビンjを特定し、例えば式2の上段の参照表を用いれば、上記サンプルの弱識別結果として1つの値hj cが計算される。
一方、Sに含まれないポジティブ系クラスのスコアについては、例えば式2の下段の参照表を用いれば、上記サンプルの弱識別結果として1つの値hj cが計算される。このように識別処理には、1つの弱識別の結果として各ポジティブ系クラスのスコアが求まる。この時、各スコアは式2の上段の値と下段の値の2種類しかない。
式2による計算処理について詳しく説明する。まず、Sに含まれるポジティブ系クラスの場合、特徴量の数値の出現頻度をサンプル重み付きでカウントすることでラベルが+1であるヒストグラムとラベルが−1であるヒストグラムとを作成し、さらにこの2つのヒストグラムの対応するビン値の比の対数を計算することで、全ての特徴量の区間(j=1,...,N)の式2の出力値hj cが計算される。
一方、Sに含まれないポジティブ系クラスの場合には、ラベルが+1である全ての学習サンプルの重み付き個数と、ラベルが−1である全ての学習サンプルの重み付き個数とを計算し、さらにこれらの比の対数を計算することで出力値が計算される。この値は特徴量の区間には依存しない。
上記ヒストグラムについて、図6Aおよび図6Bに例示して説明する。図6Aはラベルが+1である重み付きヒストグラムであり、図6Bはラベルが−1である重み付きヒストグラムである。通常のヒストグラムは、サンプル1つにつき1を足し込んで計算されるが、重み付きヒストグラムとは、サンプル1つにつきその重みの値を足し込んで計算される。このため、図6Aおよび図6Bのヒストグラムの縦軸は重み付きの出現頻度を意味し、横軸は特徴量の値を示す。例えば特徴量が0から255の整数値である場合、ヒストグラムのビン幅が例えば5であると、各ビンNは0〜4、5〜9、...、245〜249、250以上、のように設定される。ビン添字番号jは左から昇順でN、N、N、...、Nと付す。
この場合、図6Aおよび図6Bのヒストグラムにて、同じ添字jが付されたビンの出現頻度の値の比に関して対数を計算すれば出力値hが得られる。尚、式2の出力値hj cは、ラベルが+1のサンプルの出現頻度が高く、ラベルが−1のサンプルの出現頻度が低いほど、高い値となる。つまり、あるサンプルの特徴量が区間jの中に含まれる場合、hj cの値が高いと、そのサンプルが+1である確率が高いといえる。
尚、実用上は、学習サンプルの個数や変化が十分でないと、上記の重み付けラベルの出現頻度が数値的に0になる恐れがある。このため、近接するビンの値から補間、または平滑化することで、値が0になるリスクを低減することが好ましい。
一方、弱識別の出力式としては、式2の代わりに、以下の式3を使用してもよい。式2は確率の比の対数を計算することに相当していたが、式3では確率の差分を計算していることに相当する。式3の出力値hj cも式2と同様に、ラベルが+1であるサンプルの出現頻度が高く、ラベルが−1であるサンプルの出現頻度が低いほど、高い値となる。つまり、あるサンプルの特徴量が区間jの中に含まれる場合、hj cの値が高いと、そのサンプルが+1である確率が高いといえる学習サンプルほど高い値が算出される。
Figure 0006897749
最適化指標計算部114では、ある1組のポジティブ系クラスの集合Sと、ある1つの特徴量とが用いられる場合について、弱識別器の候補による出力値を用いて、学習に基づいて最適化すべき指標(以下、「最適化指標値L」と記載)が計算される。この指標は、パターン認識分野においては、損失、交差エントロピー損失、または尤度等と呼ばれる値に相当し、指標の値が小さい程、識別結果が正しいと判断される。式2にて出力値hj cを得た場合、最適化指標値Lは、以下の式4、または式5にて算出すればよい。尚、eはネイピア数を指す。式5は、計算コストを抑えるために簡略化した計算式であり、Lをクラス組み合わせ集合S内の各クラスすべてについて計算し、それらの総和をとった値を損失とする。尚、厳密には、上記の式4と式5から計算される最適化指標値L(損失)は異なる。
Figure 0006897749
Figure 0006897749
一方、式3にて出力値hj cを得た場合、最適化指標値Lは、以下の式6または式7を用いて算出すればよい。尚、厳密には上記の式6と式7から算出される最適化指標値L(損失)は異なる。
Figure 0006897749
Figure 0006897749
共有クラス弱識別器選択部115は、最適化指標計算部114で求められた最適化指標値Lが最も小さくなる「ポジティブ系クラスの組み合わせSと特徴量」を探し、この場合に相当する上記「参照表」を弱識別器として採用し、識別辞書記憶部122に弱識別器パラメータとして記憶する。
重み更新部116は、上記重み表(図3参照)の各値を、以下の式8を用いて更新する。式8では、弱識別器の出力値hを使用する。
Figure 0006897749
優先度再設定部117は、ネガティブクラスとポジティブ系クラス全体との分類の優先度を、所定の式を用いて自動的に再設定する。例えば、ネガティブクラスの重みDNeg>ポジティブ系クラスの重みDPosと設定する場合、初期値をDNeg>DPos、新しい重みDPosを「元の重みD×C」にて算出すればよい。尚、Cは重みを徐々に重くするための定数であり、例えばC=1.1等と設定する。重みの大小関係が逆転するのを防ぐためには、DNeg≧DPosを満たすよう、上限を設定すればよい。
優先度の再設定の目的は、学習処理の序盤では、ネガティブクラスとポジティブ系クラスとの識別を優先するようにネガティブサンプルの重みを重く設定するが、徐々にポジティブ系クラス間の識別を優先するように設定するのが望ましいためである。このように優先度を設定することで、序盤では弱識別器が物体と非物体を大まかに判別し、判別の後、弱識別器がポジティブ系クラス毎に詳細に判別できるようになる。
学習終了判定部118は、学習処理を終了するか判定する。この終了判定は、所定の学習回数を超えた場合に終了としても構わないし、繰り返し行う当該学習処理の中で、前回の学習処理と今回の学習処理における最適化指標値Lの差分の減少量が所定の閾値を下回った場合に終了としても構わない。例えば、相対値の減少閾値を0.2とした場合、ある回における学習処理での最適化指標値Lが0.8、その次の学習処理の最適化指標値Lが0.4、更に次の学習処理の最適化指標値Lが0.3だったとする。この場合L−L=0.4であるから閾値以上だが、L−L=0.1では閾値以下となる。この場合に、学習終了判定部118は、最適化指標値Lの算出後に学習処理を終了すると判断する。この他、別の評価用データセットを用意し、それを実際に識別させて得られた最適化指標値または識別誤り率に応じて終了と判定しても構わない。
(識別辞書学習システムの動作)
次に、識別辞書学習システム100の動作について、図7のフロー図を参照して説明する。以下の説明では、ポジティブ系クラスの数をN、特徴量の数をNとする。
(a)ステップS111において、優先度設定部111は、ネガティブクラスとポジティブ系クラスとの分類の優先度を、ユーザ指定の値に設定する。優先度設定部111は、選択または入力された優先度の値を取得し、この優先度を基に、重み表の重み値を例えば、図3に示すよう設定する。
(b)ステップS112において、重み正規化部112は、ラベルzの値に応じて、学習サンプルの重みを正規化する。ラベルzの値は、ラベル記憶部123に格納される。この処理では、ラベルz=+1が付与されたサンプル重みの総和と、ラベルz=−1が付与されたサンプルの重みの総和とが等しくなるように正規化する。例えば、正規化された重み表は、図5に示すようになる。
(c)次にステップS113において、弱識別器候補学習部113は、ある特徴量およびあるポジティブ系クラスの組み合わせSについての弱識別器候補の学習処理を行う。弱識別器候補学習部113は、例えば、式2または式3に基づいて、弱識別器の候補それぞれの上記参照表を作成する。
(d)ステップS114において、最適化指標計算部114は、ステップS113にて学習された複数の弱識別器候補の最適化指標値Lを計算する。
上述したステップS113〜ステップS114の処理は、特徴量の数N回数分繰り返し行われ、さらにポジティブ系クラスの組み合わせSの数だけ繰り返し行われる。この繰り返し処理により、あらゆる特徴量と、あらゆるポジティブ系クラスの組み合わせSと、に対応するそれぞれの弱識別器候補の最適化指標値Lが計算される。尚、実装においては、現実的な処理時間内で繰り返し処理が終了するように、特徴量および組み合わせSの数量を制限すればよい。
(e)ステップS115において、共有クラス弱識別器選択部115は、弱識別器候補の中から、ステップS114の処理で求められた最適化指標値Lが最も小さくなる、特徴量とポジティブ系クラスの組み合わせとを探す。共有クラス弱識別器選択部115は、検索された組み合わせに対応する弱識別器を採用する。これは言い換えれば、ポジティブ系クラスの組み合わせSに属するクラス間では、弱識別器(と特徴量)が共有されていると解釈することもできる。
共有クラス弱識別器選択部115は、採用された弱識別器のパラメータ(具体的には、学習サンプルの特徴量を特定する情報、弱識別器の出力値を得るための参照表、および、弱識別器が対応するポジティブクラスの組み合わせ)を識別辞書記憶部122に格納する。
ステップS115においては、クラス組み合わせ集合Sの要素の全てについて検索を繰り返すのではなく、ステップS114で計算された最適化指標に応じて、クラス組み合わせ集合Sの要素の内、検索するパターンを削減してもよい。例えば、最も最適化指標値Lが小さいポジティブクラスを1つ見つけておき、そのポジティブクラスを含むクラス組み合わせ集合Sについてのみ検索処理を行ってもよい。この他、最適化指標値Lが最も小さいポジティブクラスに、別のポジティブクラスを1つずつ追加して検索する処理を繰り返してもよい。この場合、繰り返し回数は、ポジティブクラス数にほぼ比例するため、少ない回数で近似的な結果を得ることができる。
(f)ステップS116において、重み更新部116は、図5の重み表の各値を、式8を用いて更新する。
(g)ステップS117において、優先度再設定部117は、ネガティブクラスとポジティブ系クラスとの分類の優先度を、所定の式を用いて自動的に再設定する。
(h)最後にステップS118において、学習終了判定部118は、学習処理の終了を判定する。例えば、所定の学習回数を超えた場合や、前回の学習処理と今回の学習処理における最適化指標値Lの相対値の減少量が所定の閾値を下回った場合に、学習終了判定部118は、学習処理を終了すると判定する。一方、学習処理を終了しないと判定した場合、上述した一連の処理はステップS111に戻る。学習終了判定部118が、処理を終了すると判定した場合、本学習処理は完了し、この結果、識別辞書学習システム100の動作中に得られた弱識別器のパラメータが全て記録された識別辞書記憶部122が完成する。
次に、上述した学習の結果作成された識別辞書記憶部122の使用例を、図8を用いて説明する。本実施形態の一連の学習過程にて作成された識別辞書記憶部122は、実際に物体を検出する処理を行う物体検出システム300で使用される。物体検出システム300は、データ処理部310と識別辞書記憶部122を備える。データ処理部310は、探索部311、特徴量抽出部312、弱識別部313、強識別部314を有する。
探索部311は、注目画像中の物体を探索するために当該注目画像を探索窓を用いてスキャンする。尚、探索部311は、探索窓を用いてスキャンした結果、最もポジティブらしい結果が得られた探索窓に探索すべき物体があると判断して、検出結果とすればよい。特徴量抽出部312は、スキャン中の探索窓内について識別辞書記憶部122に記憶されている特徴量と同じ特徴量、例えば画素値を抽出する。弱識別部313は、抽出された特徴量に基づいて弱識別の式を用いて出力値を求める。強識別部314は、識別辞書記憶部122内の参照式を基に各弱識別器の出力値の総和をとり、これを強識別の結果として出力する。
本発明の第一の実施形態の識別辞書学習システム100によると、注目画像内で見た目の変化が大きい特定の物体を検出するための識別用辞書の作成に際して、分類するクラス間の優先度をユーザが自由に設定することで、高い識別率を得られる識別用辞書を作成できる。この理由は、識別辞書学習システム100において識別用辞書を作成するに当たり、学習初期ではポジティブ系クラスとネガティブクラスとの分類精度を優先するよう弱識別器を設定することで、この設定条件に従って当該弱識別器が学習できるからである。更に、学習が進むにつれ、ポジティブ系クラス間の分類精度を徐々に優先するように弱識別器を自動設定することで、当該弱識別器がポジティブ系クラス間における分類精度を上げて学習できるからである。
<第二の実施形態>
第二の実施形態の識別辞書学習システム200は、図9に示すように、設定部211、識別器学習部213、選択部215および重み更新部216を備える。
設定部211は、第1のクラスと、サブクラスを含む第2のクラスとの分類の優先度をユーザ等から指定された値に設定する。識別器学習部213は、当該優先度を設定する。選択部215は、サブクラスの組み合わせ毎に、優先度に基づいて複数の識別器を学習する。重み更新部216は、選択された組み合わせで学習された識別器による識別精度に基づいて重みを更新する。
本願発明の第二の実施形態の識別辞書学習システム200によると、識別用辞書を作成するに当たり、第1のクラスと、サブクラスを含む第2のクラスとの分類の優先度をユーザが設定する。このため、本実施形態によると、注目画像内で見た目のバリエーションが大きい特定の物体を検出する場合であっても、高い識別力を備えた識別辞書を作成することができる。
また、本発明の交通費申請サーバ20にて行われる方法は、コンピュータに実行させるためのプログラムに適用しても良い。また、そのプログラムを記憶媒体に格納することも可能であり、ネットワークを介して外部に提供することも可能である。
(情報処理装置)
上述した実施形態に係る識別辞書学習システム100、200は、情報処理装置(コンピュータ)を利用しても実現することができる。この場合において、識別辞書学習システム100、200の各部のうち、以下の各構成は、ソフトウェアプログラムの機能(処理)単位(ソフトウェアモジュール)と捉えることができる。
・図2に示した、データ処理部110内の各部(優先度設定部111、重み正規化部112、弱識別器候補学習部113、最適化指標計算部114、共有クラス弱識別器選択部115、重み更新部116および優先度再設定部117)、および、
・図9に示した設定部211、識別器学習部213、選択部215および重み更新部216。
これらの機能(処理)を実現可能なハードウェア環境の一例を、図10を参照して説明する。但し、これらの図面に示した各部の区分けは、説明の便宜上の構成であり、実装に際しては、様々な構成が想定され得る。
図10は、本発明の実施形態に係る識別辞書学習システム100、200を実行可能な情報処理装置1000の構成を例示的に説明する図である。
図10に示した情報処理装置1000は、以下の構成がバス(通信線)3008を介して接続された一般的なコンピュータである。
・CPU3001、
・ROM(Read_Only_Memory)3002、
・RAM(Random_Access_Memory)3003、
・記憶装置3004(図2に示す重み記憶部121、識別辞書記憶部122およびラベル記憶部123を備える)、
・入出力ユーザインタフェース(Interface:以降、「I/F」と称する)3005、
・外部装置との通信I/F3006、
・ドライブ装置3009。
ドライブ装置3009は、記録媒体3010から、情報処理装置1000を実行するためのソフトウェア(プログラム)を読み出す。
そして、上述したハードウェア環境において、上述した実施形態は、以下の手順によって達成される。即ち、図10に示した情報処理装置1000に対して、その実施形態の説明において参照したブロック構成図(上述した図2のデータ処理部110および図9の各部)、或いはフローチャート(図7)の機能を実現可能なコンピュータ・プログラムがネットワーク3000またはドライブ装置3009から供給される。その後、そのコンピュータ・プログラムは、当該ハードウェアのCPU3001に読み出されて解釈され、CPU3001において実行される。また、当該装置1000内に供給されたコンピュータ・プログラムは、読み書き可能な揮発性の記憶デバイス(RAM3003)または記憶装置3004等の不揮発性の記憶デバイスに格納すればよい。
上記実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
[付記1]
第1のクラスと、サブクラスを含む第2のクラスから成る分類の優先度を受け付け、当該優先度を設定する設定手段と、
前記サブクラスの組み合わせ毎に、前記優先度に基づいて複数の識別器を学習する識別器学習手段と、
前記識別器について所定の最適化指標が最も良好となる前記サブクラスの組み合わせを選択する選択手段と、
前記選択された組み合わせで学習された識別器による識別精度に基づいて重みを更新する重み更新手段
を備えることを特徴とする識別辞書学習システム。
[付記2]
前記第1のクラスは、ネガティブクラスとポジティブ系クラスを有し、
前記設定手段は、ネガティブクラスとポジティブ系クラスとの分類の優先度を高く設定するよう促すことを特徴とする付記1に記載の識別辞書学習システム。
[付記3]
前記第1のクラスがポジティブ系クラスの場合、前記第2のクラスには複数のポジティブクラスを備え、
前記複数のポジティブクラス間の分類の優先度が徐々に高くなるよう前記優先度を再設定する再設定手段を更に備えることを特徴とする付記1又は2に記載の識別辞書学習システム。
[付記4]
前記識別器学習手段は複数の弱識別器を備え、
前記弱識別器は、学習サンプルの特徴量の値が所定の範囲内にある、1つのポジティブ系クラスの学習サンプルの重みの総和を、前記弱識別器を共有するクラス全体に亘りさらに総和をとった第1の値と、
前記特徴量の値が所定の範囲内にある前記1つのポジティブ系クラス以外のポジティブ系クラスおよびネガティブクラスから成る学習サンプルの重みの総和を、前記弱識別器を共有するクラス全体に亘りさらに総和をとった第2の値と、
の比率に基づいて算出されることを特徴とする付記1乃至3のいずれか1項に記載の識別辞書学習システム。
[付記5]
前記弱識別器の前記最適化指標を計算する最適化指標計算手段を更に備え、
前記最適化指標は、前記第1の値と前記第2の値の積に基づいて算出されることを特徴とする付記1乃至4のいずれか1項に記載の識別辞書学習システム。
[付記6]
識別辞書を作成する識別辞書学習システムに用いられる識別辞書学習方法であって、
第1のクラスと、サブクラスを含む第2のクラスから成る分類の優先度を受け付け、当該優先度を設定する工程と、
前記サブクラスの組み合わせ毎に、前記優先度に基づいて複数の識別器を学習する工程と、
前記識別器について所定の最適化指標が最も良好となる前記サブクラスの組み合わせを選択する工程と、
前記選択された組み合わせで学習された識別器による識別精度に基づいて重みを更新する工程を有することを特徴とする識別辞書学習方法。
[付記7]
前記第1のクラスは、ネガティブクラスとポジティブ系クラスを有し、
前記設定する工程は、ネガティブクラスとポジティブ系クラスとの分類の優先度を高く設定するよう促すことを特徴とする付記6に記載の識別辞書学習方法。
[付記8]
前記第1のクラスがポジティブ系クラスの場合、前記第2のクラスには複数のポジティブクラスを備え、
前記複数のポジティブクラス間の分類の優先度が徐々に高くなるよう前記優先度を再設定する工程を更に有することを特徴とする付記6又は7に記載の識別辞書学習方法。
[付記9]
前記学習する工程は複数の弱識別器を備え、
前記弱識別器の出力は、学習サンプルの特徴量の値が所定の範囲内にある、1つのポジティブ系クラスの学習サンプルの重みの総和を、前記弱識別器を共有するクラス全体に亘りさらに総和をとった第1の値と、
前記特徴量の値が所定の範囲内にある前記1つのポジティブ系クラス以外のポジティブ系クラスおよびネガティブクラスから成る学習サンプルの重みの総和を、前記弱識別器を共有するクラス全体に亘りさらに総和をとった第2の値と、
の比率に基づいて算出されることを特徴とする付記6乃至8のいずれか1項に記載の識別辞書学習方法。
[付記10]
前記弱識別器の前記最適化指標を計算する工程を更に備え、
前記最適化指標は、前記第1の値と前記第2の値の積に基づいて算出されることを特徴とする付記6乃至9のいずれか1項に記載の識別辞書学習方法。
[付記11]
識別辞書を作成する識別辞書学習システムに用いられる識別辞書学習プログラムであって、
第1のクラスと、サブクラスを含む第2のクラスから成る分類の優先度を受け付け、当該優先度を設定する設定手段と、
前記サブクラスの組み合わせ毎に、前記優先度に基づいて複数の識別器を学習する識別器学習手段と、
前記識別器について所定の最適化指標が最も良好となる前記サブクラスの組み合わせを選択する選択手段と、
前記選択された組み合わせで学習された識別器による識別精度に基づいて重みを更新する重み更新手段
とを有し、前記システムの有する前記各手段をコンピュータに機能させるための識別辞書学習プログラム。
[付記12]
前記第1のクラスは、ネガティブクラスとポジティブ系クラスを有し、
前記設定手段は、ネガティブクラスとポジティブ系クラスとの分類の優先度を高く設定するよう促す
ことを更に前記コンピュータに機能させるための付記11に記載の識別辞書学習プログラム。
[付記13]
前記第1のクラスがポジティブ系クラスの場合、前記第2のクラスには複数のポジティブクラスを備え、
前記複数のポジティブクラス間の分類の優先度が徐々に高くなるよう前記優先度を再設定する再設定手段
を更に前記コンピュータに機能させるための付記11又は12に記載の識別辞書学習プログラム。
[付記14]
前記識別器学習手段は複数の弱識別器を備え、
前記弱識別器の出力は、学習サンプルの特徴量の値が所定の範囲内にある、1つのポジティブ系クラスの学習サンプルの重みの総和を、前記弱識別器を共有するクラス全体に亘りさらに総和をとった第1の値と、
前記特徴量の値が所定の範囲内にある前記1つのポジティブ系クラス以外のポジティブ系クラスおよびネガティブクラスから成る学習サンプルの重みの総和を、前記弱識別器を共有するクラス全体に亘りさらに総和をとった第2の値と、の比率に基づいて算出される
ことを更に前記コンピュータに機能させるための付記11乃至13のいずれか1項に記載の識別辞書学習プログラム。
[付記15]
前記弱識別器の前記最適化指標を計算する最適化指標計算手段を更に備え、
前記最適化指標は、前記第1の値と前記第2の値の積に基づいて算出されること
を更に前記コンピュータに機能させるための付記11乃至14のいずれか1項に記載の識別辞書学習プログラム。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は2014年3月28日に出願された日本出願特願2014−067597を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100、200 識別辞書学習システム
110 データ処理部
111 優先度設定部
112 重み正規化部
113 弱識別器候補学習部
114 最適化指標計算部
115 共有クラス弱識別器選択部
116 重み更新部
117 優先度再設定部
118 学習終了判定部
121 重み記憶部
122 識別辞書記憶部
123 ラベル記憶部
300 物体検出システム
310 データ処理部
311 探索部
312 特徴量抽出部
313 弱識別部
314 強識別部

Claims (6)

  1. 情報処理装置が実行する識別辞書の学習方法であって、
    ネガティブクラスに属する学習サンプルに対し、複数のサブクラスを含むポジティブ系クラスに属する学習サンプルよりも、相対的に高い優先度を重みとして設定し、
    前記学習サンプルが属するクラスの識別子であるラベルを用いて、前記学習サンプルに設定した前記重みを正規化し、
    正規化した前記重みが大きい学習サンプルほど、弱識別器候補によるクラスの識別精度が高くなるように、前記弱識別器候補のパラメータを学習し、
    前記学習サンプルの特徴量を前記弱識別器候補に入力したときの前記弱識別器候補からの出力値から、前記学習サンプルの特徴量ごとの最適化指標を計算し、計算した前記最適化指標に基づいて、前記弱識別器候補の中から、1つまたは2つ以上の前記サブクラスごとに一つの弱識別器を選択し、
    選択した前記弱識別器の出力値を用いて、前記ポジティブ系クラスに属する学習サンプルに設定した前記重みを増加させるように、前記ポジティブ系クラスのサブクラスごとに、前記学習サンプルの前記重みを更新し、
    前記学習サンプルに設定した前記重みを正規化すること、正規化した前記重みを用いて、前記弱識別器候補のパラメータを学習すること、前記最適化指標に基づいて、前記弱識別器候補の中から、一つの弱識別器を確定すること、および、前記学習サンプルの前記重みを更新することを含む学習処理を、所定の条件を満たすまで繰り返す、
    学習方法。
  2. 前記所定の条件は、前記学習処理を所定の学習回数繰り返すことである
    請求項1に記載の学習方法。
  3. 前回の学習処理と今回の学習処理における前記最適化指標の差分の減少量が所定の閾値を下回ることである
    請求項1に記載の学習方法。
  4. 前記学習サンプルの特徴量の値の出現頻度を、前記ラベルによって分類した前記学習サンプルの前記重み付きでカウントし、
    前記ラベルによって分類した前記学習サンプルの間における前記重み付きの出現頻度の比の対数を計算することによって、前記弱識別器候補からの前記出力値が得られる
    請求項1に記載の学習方法。
  5. ネガティブクラスに属する学習サンプルに対し、複数のサブクラスを含むポジティブ系クラスに属する学習サンプルよりも、相対的に高い優先度を重みとして設定する優先度設定手段と、
    前記学習サンプルが属するクラスの識別子であるラベルを用いて、前記学習サンプルに設定した前記重みを正規化する重み正規化手段と、
    正規化した前記重みが大きい学習サンプルほど、弱識別器候補によるクラスの識別精度が高くなるように、前記弱識別器候補のパラメータを学習する弱識別器候補学習手段と、
    前記学習サンプルの特徴量を前記弱識別器候補に入力したときの前記弱識別器候補からの出力値から、前記学習サンプルの特徴量ごとの最適化指標を計算し、計算した前記最適化指標に基づいて、前記弱識別器候補の中から、1つまたは2つ以上の前記サブクラスごとに一つの弱識別器を選択する共有クラス弱識別器選択部と、
    選択した前記弱識別器の出力値を用いて、前記ポジティブ系クラスに属する学習サンプルに設定した前記重みを増加させるように、前記ポジティブ系クラスのサブクラスごとに、前記学習サンプルの前記重みを更新する重み更新手段と、
    前記学習サンプルに設定した前記重みを正規化すること、正規化した前記重みを用いて、前記弱識別器候補のパラメータを学習すること、前記最適化指標に基づいて、前記弱識別器候補の中から、一つの弱識別器を確定すること、および、前記学習サンプルの前記重みを更新することを含む学習処理を終了するかどうか、所定の条件に基づいて判定する学習終了判定手段と、
    を備えた学習システム。
  6. ネガティブクラスに属する学習サンプルに対し、複数のサブクラスを含むポジティブ系クラスに属する学習サンプルよりも、相対的に高い優先度を重みとして設定することと、
    前記学習サンプルが属するクラスの識別子であるラベルを用いて、前記学習サンプルに設定した前記重みを正規化することと、
    正規化した前記重みが大きい学習サンプルほど、弱識別器候補によるクラスの識別精度が高くなるように、前記弱識別器候補のパラメータを学習することと、
    前記学習サンプルの特徴量を前記弱識別器候補に入力したときの前記弱識別器候補からの出力値から、前記学習サンプルの特徴量ごとの最適化指標を計算し、計算した前記最適化指標に基づいて、前記弱識別器候補の中から、1つまたは2つ以上の前記サブクラスごとに一つの弱識別器を選択することと、
    選択した前記弱識別器の出力値を用いて、前記ポジティブ系クラスに属する学習サンプルに設定した前記重みを増加させるように、前記ポジティブ系クラスのサブクラスごとに、前記学習サンプルの前記重みを更新することと、
    前記学習サンプルに設定した前記重みを正規化すること、正規化した前記重みを用いて、前記弱識別器候補のパラメータを学習すること、前記最適化指標に基づいて、前記弱識別器候補の中から、一つの弱識別器を確定すること、および、前記学習サンプルの前記重みを更新することを含む学習処理を、所定の条件を満たすまで繰り返することと、
    をコンピュータに実行させるための学習プログラム。
JP2019211981A 2014-03-28 2019-11-25 学習方法、学習システム、および学習プログラム Active JP6897749B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014067597 2014-03-28
JP2014067597 2014-03-28
JP2016510017A JPWO2015146113A1 (ja) 2014-03-28 2015-03-20 識別辞書学習システム、識別辞書学習方法および識別辞書学習プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016510017A Division JPWO2015146113A1 (ja) 2014-03-28 2015-03-20 識別辞書学習システム、識別辞書学習方法および識別辞書学習プログラム

Publications (2)

Publication Number Publication Date
JP2020053073A JP2020053073A (ja) 2020-04-02
JP6897749B2 true JP6897749B2 (ja) 2021-07-07

Family

ID=54194663

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016510017A Pending JPWO2015146113A1 (ja) 2014-03-28 2015-03-20 識別辞書学習システム、識別辞書学習方法および識別辞書学習プログラム
JP2019211981A Active JP6897749B2 (ja) 2014-03-28 2019-11-25 学習方法、学習システム、および学習プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016510017A Pending JPWO2015146113A1 (ja) 2014-03-28 2015-03-20 識別辞書学習システム、識別辞書学習方法および識別辞書学習プログラム

Country Status (3)

Country Link
US (1) US10380456B2 (ja)
JP (2) JPWO2015146113A1 (ja)
WO (1) WO2015146113A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11068721B2 (en) * 2017-03-30 2021-07-20 The Boeing Company Automated object tracking in a video feed using machine learning
WO2019045091A1 (ja) * 2017-09-04 2019-03-07 日本電気株式会社 情報処理装置、計数システム、計数方法およびプログラム記憶媒体
JP2019144789A (ja) * 2018-02-20 2019-08-29 株式会社アスタワン 機械学習装置、判定装置、機械学習方法及び判定方法
JP7035827B2 (ja) * 2018-06-08 2022-03-15 株式会社リコー 学習識別装置および学習識別方法
CN112541475B (zh) 2020-12-24 2024-01-19 北京百度网讯科技有限公司 感知数据检测方法及装置
JP7568054B2 (ja) 2021-03-05 2024-10-16 日本電気株式会社 学習装置、学習方法、推論装置、推論方法、及び、プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100122A (ja) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
US20050209785A1 (en) * 2004-02-27 2005-09-22 Wells Martin D Systems and methods for disease diagnosis
US20050208519A1 (en) 2004-03-12 2005-09-22 Genenews Inc. Biomarkers for diagnosing schizophrenia and bipolar disorder
JP2008217589A (ja) 2007-03-06 2008-09-18 Toshiba Corp 学習装置及びパターン認識装置
JP2008250908A (ja) 2007-03-30 2008-10-16 Toshiba Corp 映像判別方法および映像判別装置
JP5550862B2 (ja) 2009-07-23 2014-07-16 株式会社日立ハイテクノロジーズ 欠陥分類装置及び分類調整方法
JP2011181016A (ja) * 2010-03-04 2011-09-15 Fujifilm Corp 判別器生成装置および方法並びにプログラム
JP5394959B2 (ja) 2010-03-23 2014-01-22 富士フイルム株式会社 判別器生成装置および方法並びにプログラム
JP2012010856A (ja) * 2010-06-30 2012-01-19 Advanced Telecommunication Research Institute International 状態認識装置、傾聴対話持続システム、状態認識プログラムおよび状態認識方法
JP5565869B2 (ja) 2011-08-01 2014-08-06 株式会社ユニバーサルエンターテインメント 識別装置及び識別プログラム
US9218543B2 (en) 2012-04-30 2015-12-22 Hewlett-Packard Development Company, L.P. Selecting classifier engines

Also Published As

Publication number Publication date
US20170039451A1 (en) 2017-02-09
JPWO2015146113A1 (ja) 2017-04-13
JP2020053073A (ja) 2020-04-02
WO2015146113A1 (ja) 2015-10-01
US10380456B2 (en) 2019-08-13

Similar Documents

Publication Publication Date Title
JP6897749B2 (ja) 学習方法、学習システム、および学習プログラム
US10013636B2 (en) Image object category recognition method and device
CN112966691B (zh) 基于语义分割的多尺度文本检测方法、装置及电子设备
US9002101B2 (en) Recognition device, recognition method, and computer program product
CN103136504B (zh) 人脸识别方法及装置
JP5521881B2 (ja) 画像識別情報付与プログラム及び画像識別情報付与装置
US9053358B2 (en) Learning device for generating a classifier for detection of a target
CN107683469A (zh) 一种基于深度学习的产品分类方法及装置
US9842279B2 (en) Data processing method for learning discriminator, and data processing apparatus therefor
CN107292349A (zh) 基于百科知识语义增强的零样本分类方法、装置
WO2022035942A1 (en) Systems and methods for machine learning-based document classification
CN108133224B (zh) 用于评估分类任务复杂度的方法
CN110689044A (zh) 一种结合目标间关系的目标检测方法及系统
JP5214679B2 (ja) 学習装置、方法及びプログラム
CN117992765B (zh) 基于动态新兴标记的偏标签学习方法、装置、设备及介质
JP2009129253A (ja) パターン認識装置、パターン認識プログラム及びパターン認識方法
JP2016062249A (ja) 識別辞書学習システム、認識辞書学習方法および認識辞書学習プログラム
CN117009596A (zh) 一种电网敏感数据的识别方法及装置
CN112132239B (zh) 一种训练方法、装置、设备和存储介质
JP2014199533A (ja) 画像識別装置、画像識別方法およびプログラム
CN113378707A (zh) 对象识别方法及装置
CN114463574A (zh) 一种遥感图像的场景分类方法及装置
CN113468936A (zh) 一种食材识别方法、装置和设备
JP2020181265A (ja) 情報処理装置、システム、情報処理方法及びプログラム
CN117746266B (zh) 一种基于半监督交互学习的树冠检测方法、装置及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6897749

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150