[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5500242B2 - 複数クラスの目標の検出装置および検出方法 - Google Patents

複数クラスの目標の検出装置および検出方法 Download PDF

Info

Publication number
JP5500242B2
JP5500242B2 JP2012502431A JP2012502431A JP5500242B2 JP 5500242 B2 JP5500242 B2 JP 5500242B2 JP 2012502431 A JP2012502431 A JP 2012502431A JP 2012502431 A JP2012502431 A JP 2012502431A JP 5500242 B2 JP5500242 B2 JP 5500242B2
Authority
JP
Japan
Prior art keywords
classifier
detection
classifiers
strong
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012502431A
Other languages
English (en)
Other versions
JP2012523027A (ja
Inventor
メイ,シューチィ
ウー,ウェイクオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2012523027A publication Critical patent/JP2012523027A/ja
Application granted granted Critical
Publication of JP5500242B2 publication Critical patent/JP5500242B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、目標の検出技術に関し、特に、複数クラスの目標データに対して検出を行うための検出装置およびその検出方法に関する。
機械学習方法を利用して画像およびその他の検出待ちデータに対して目標データの検出を行うことが、ますます重要になっている。特に、画像中の物体に対する検出は、すでに一つの重要な分野になっている。
同じクラスの物体でも、光の照射、視角、姿勢等の多くの要因による影響で、画像において大きな差異が発生している可能性があり、画像中の物体に対する検出の技術における大きな困難となっている。これにより、同じクラスの物体が複数のサブクラスに分けられて処理可能になるが、どのようにすれば複数のサブクラスの間の共通性を効率的に利用してその差異を正確に区別できるかということは、依然として更なる研究を要する課題である。
複数のクラスの画像物体の検出技術には、非特許文献1に提案された、複数のクラスの物体の分類器に対して統合訓練を行い、複数のクラスの間で特徴をできるだけ共有することによって、演算コストの低減の目的を達成する特徴共有技術がある。単純な特徴共有の複数のクラス統合訓練は、演算コストの低減に非常に有効であり良好な効果が得られたが、その効率は低い。また、特徴と共に弱分類器を共有するため、強分類器の後段において特徴の共有がますます困難になってしまう。非特許文献2には、これをもとに、さらに、画像において異なる視角や姿態が現れた顔を検出するベクトルBoosting木アルゴリズムを提案した。しかし、非特許文献2に提案されたアルゴリズムは、各クラスの間で特徴共有を強制する。これにより、複数のクラスのうち、あるクラスがその他の各クラスと良好に特徴共有することができない場合、強制的に特徴を共有する方式により分類器に対する更なる訓練が困難になる。
"Sharing Features:Efficient Boosting Procedures for Multiclass Object Detection",A.Torralba,K.P.Murphy,and W.T.Freeman,CVPR 2004 "Vector Boosting for Rotation Invariant Multi-View Face Detection",C.Huang,H.Ai,Y.Li,and S. Lao,ICCV 2005
本発明の目的は、上記の既存技術と異なる、複数のクラスの目標データに対して検出を行う検出装置およびその検出方法を提供することである。
本発明の一つの側面によれば、複数のクラスの目標データに対して検出を行う検出装置の訓練方法が提供され、上記訓練方法は、
上記複数のクラスのうち、特徴共有を行う最適特徴共有サンプルクラス集合を特定し、特徴トラバースにより最適特徴を選出し、
上記選出された最適特徴を使用して、上記最適特徴共有サンプルクラス集合における各クラスのそれぞれに対して弱分類器を構築し、
最適特徴の選出を反復に行うことにより現在ステージの強分類器の特徴リストを取得し、同時に、上記複数のクラスのそれぞれに対して一組の弱分類器を構築し、上記複数のクラスを処理可能な相応の複数の強分類器を含む検出装置を取得することを含む。
本発明による、複数のクラスの目標データに対して検出を行う検出装置の訓練方法は、複数のクラスの目標のサンプルで訓練を行い、上記複数のクラスのうち、どれらのクラスの間で特徴共有すれば誤差が最小になるかということを特定して、特徴共有サンプルクラス集合を取得し、上記選出された最適特徴を使用して上記最適特徴共有サンプルクラス集合のうちの各クラスのそれぞれに対して弱分類器を構築し、これにより弱分類器を含む検出装置を構築する。
上記の訓練方法により、複数のクラスの目標データに対して検出を行う検出装置および検出方法が取得された。検出装置は、検出待ちデータを入力するように配置される入力ユニットと、上記クラスの数に対応する数の強分類器であって、対応するクラスの目標データをそれぞれ検出する強分類器が含まれ、上記強分類器のそれぞれは、一組の弱分類器を加算することにより得られ、弱分類器のそれぞれは、一つの特徴を使用して上記検出待ちデータに対して弱い分類を行う組合せ分類器と、を備え、上記組合せ分類器内に共有特徴リストが含まれ、上記共有特徴リストにおける各特徴のそれぞれは、異なる強分類器にそれぞれ属する1または複数の弱分類器に共有使用され、同一の特徴を使用する、それぞれ異なる強分類器に属する弱分類器は、互いに異なるパラメータ値を有する。このように、各クラスの目標に対する強分器の間で特徴を共有して演算コストを減少するが、各クラスの間で分類器を共有せずにクラスの間の差異を体現する。
本発明の別の一つの側面によれば、r個のクラスの目標データに対して検出を行う検出装置の訓練方法が提供され、上記r個のクラスは、所定の相似性標準に従って、精から粗へステージごとに所定の多階層構造に併合可能であり、上記r個のクラスは、最も細かく区分されたクラスとして最下位層に設置され、rは1より大きい自然数であり、上記訓練方法は、
粗から細へのポリシーに従って最上位層から相応するステージ分類器を訓練し始め、各ステージ分類器は、対象となるクラスの数に対応する数の強分類器を有し、上記各ステージ分類器が直列連結されることにより上記検出装置を形成することを含み、
一ステージのm個のクラスを検出するステージ分類器に対する訓練は、
当該ステージ分類器が処理するm個のクラスのそれぞれに、正サンプル集合と負サンプル集合とを用意し(1<m≦r)、
上記m個のクラスのうち、特徴共有を行う最適クラス集合を特定し、特徴トラバースにより最適特徴を選出し、
選出された最適特徴を使用して、上記最適特徴共有サンプルクラス集合のうちの各クラスのそれぞれに、弱分類器を構築し、
最適特徴の選出を反復に行うことにより、現在ステージの強分類器の特徴リストを取得し、同時に上記m個のクラスのそれぞれに一組の弱分類器を構築して、上記m個のクラスを処理可能なm個の強分類器を含むステージ分類器を取得することを含む。
本発明の第2の側面による、複数(r個)のクラス目標データに対して検出を行う検出装置およびその検出方法によれば、上記複数のクラスが相似性標準に従ってステージごとに所定の多階層構造に併合されるとともに、上記複数のクラスが最も細かく区分されたクラスとして最下位層に設置され、上記検出装置は、
検出待ちデータを入力するように配置される入力ユニットと、
複数の直列連結されたステージ分類器を備え、上記複数のステージ分類器が、粗から細へのポリシーに従って上記所定の多階層構造における各層クラスのそれぞれに対して分類処理を行うように配置され、かつステージ分類器のそれぞれが処理されるクラスの数と対応する数の強分類器を備え、上記強分類器のそれぞれが一組の弱分類器を含み、弱分類器のそれぞれが一つの特徴を使用して上記検出待ちデータに対して弱い分類を行うカスケード分類器と、を備え、
上記ステージ分類器のそれぞれは一つの共有特徴リストを含み、上記共有特徴リストにおける各特徴のそれぞれは、異なる強分類器にそれぞれ属する1または複数の弱分類器に共有使用され、同一の特徴を使用する、それぞれ異なる強分類器に属する弱分類器は、互いに異なるパラメータ値を有する。
同様に、本発明の第2の側面によれば、カスケード分類器である検出装置は、各クラスの目標の強分類器の間で特徴を共有して演算コストを削減するが、各クラスの間で分類器を共有せずにクラス間の差異を体現させる。同時に、複数のクラスの目標を効率に処理するために、各ステージ分類器を訓練する過程において、粗から細への原則に従って、複数のクラスを先に併合処理した後に、次第にクラスを分解して精細化処理を行う。
図面を結合しながら、以下の例示的な具体実施例の説明を参照することにより、本発明自体、好適な実施形態および本発明の目標および利点がより明らかになる。
本発明の第1の実施例による複数のクラスの目標データに対して検出を行う検出装置の訓練方法を示す図である。 本発明の第1の実施例による訓練方法に使用されたHaar-like特徴のプロトタイプを示す図である。 弱分類器および強分類器の構成を示す図である。 弱分類器および強分類器の構成を示す図である。 本発明の第1の実施例による訓練方法により得られた検出装置の分類器を示す図である。 クラス木構造CTで訓練過程中のサンプルクラスの変化を示す図である。 クラス木構造CTで訓練過程中のサンプルクラスの変化を示す図である。 本発明の第3の実施例による訓練方法を示す図である。 本発明の第2または第3の実施例による訓練方法により得られた検出装置の分類器を示す図である。 本発明による検出装置が画像または動画における所定の複数のクラスの目標を検出する手順を示す図である。 本発明を実現するコンピュータの例示的な構造を示すブロック図である。
以下に、図面を結合しながら本発明を詳細に説明する。なお、説明される実施例は、本発明に対する理解を容易にさせるものであって、それに対して何らの限定作用をするわけではない。
第1の実施例の訓練方法
第1の実施例において、複数のクラスの自動車(セダン、バスおよびトラック)を検出待ち目標とする。本発明の実施例は、画像および/または動画中の自動車に対する検出に限定されず、画像および/または動画中のその他の物体(例えば、多角度の人顔)ひいてはリアルタイムネットワークデータまたはホストデータに対する侵入分類等に対して検出を行ってもよい。
図1は、本発明の第1の実施例による複数のクラスの目標データに対して検出を行う検出装置の訓練方法100を示す。
この方法は、ステップS101からスタートする。まず、上記複数のクラスのそれぞれに、正サンプル集合と負サンプル集合とを用意しておく。本実施例では、3クラスの自動車(セダン、バスおよびトラック)のそれぞれに所定の数の正サンプル集合と負サンプル集合とを用意しておく。その正サンプル集合は、3クラスの自動車(セダン、バスおよびトラック)のそれぞれの正面視角におけるサイズ同一の自動車画像集合であり、そのサイズが32×32(ピクセル)として統一される。その負サンプル集合は、背景画像集合(一組の目標物体が含まれていない画像であり、サイズに対する要求が一切なし)からサンプリングされたものであり、そのサイズが32×32(ピクセル)まで統一して拡縮される。
同時に訓練特徴プールを用意する。Haar-like特徴のプロトタイプ、例えば32×32(ピクセル)の画像に応用して数十万の具体的な訓練特徴を取得する。ただし、本発明の実施例では、使用される特徴の具体的なクラスが限定されないことが理解されるべきである。例えば、Haar-like特徴、HOG(勾配方位ヒストグラム)特徴、LBP(局所バイナリパターン)特徴またはその他の特徴であってもよい。
ここで、図2は、使用されるHaar-like特徴のプロトタイプを示す。Haar-like特徴は、画像において定義された一つの矩形であって、図2にそれぞれ白色および黒色で示された二つの部分を含む矩形であり、矩形の方位が直立と45度の傾斜とに分けられる。Haar-like特徴のプロトタイプは、矩形の画像における位置(x,y)と矩形のサイズ(幅wおよび高さh)という四つのパラメータを有する。矩形の位置、サイズおよび幅高比の変化に従って、数万程の具体的なHaar-like特徴を生成して画像に作用することができる。Haar-like特徴の値はスカラであり、白色領域内のすべてのピクセルの階調値の総和をSum(W)とし、黒色領域内のすべてのピクセルの階調値の総和をSum(B)とすると、Haar-like特徴の値は、公式featurei=Sum(W)-Sum(B)により算出される。
図1のステップS102から訓練を開始する。上記複数のクラスのうち、特徴共有を行う最適特徴共有サンプルクラス集合を特定し、特徴のトラバースによって最適特徴を選出する。例えば、複数の選択待ち訓練特徴を基に、順方向選択(前向順序選択)等の方法を利用することにより、上記複数のクラス(ここでは3つのクラス)のうち、どのクラスの間で特徴が共有されて誤差が最小になるかということを特定し、特定されたクラスからなる特徴共有サンプルクラス集合Sを選択し、特徴のトラバースによって相応する訓練特徴を選出する。
特徴共有サンプルクラス集合Sおよび相応する選択された最適特徴が特定された後に、上記選出された最適特徴を使用して上記最適特徴共有サンプルクラス集合のうちの各クラスに対してそれぞれ弱分類器を構築する(図1のステップS103)。弱分類器の構造は図3aに示される。本実施例では、決定木を弱分類器とし、各弱分類器は、一つのHaar-like特徴を用いて構築され、入力された特徴値と閾値との関係によって二つの異なる出力がある。
図1のステップS104において、最適特徴の選出を反復して行うことにより、現在のステージの強分類器の特徴リストを取得し、同時に上記複数のクラス(ここでは3つのクラス)のそれぞれに対して一組の弱分類器を構築し、上記複数のクラスを処理可能な相応する複数の強分類器を含む検出装置を取得する。各クラスに対応する強分類器(H(Ci)分類器)の構造は、図3bに示すように、その出力が+1または−1であり、かつその閾値Θは必要に応じて調節可能である。
弱分類器h(Ci)が使用するこれらの特徴は、分類器の特徴リスト(特徴セット)からのものである。分類器の訓練過程は、各H(Ci)分類器を探す過程、すなわち各クラスに対して複数の弱分類器h(Ci)を探索する過程、最終的に各弱分類器に使用される特徴を反復に探索する過程、すなわち特徴選出過程である。この過程において、最終的に一組の共有特徴fjを取得する。
反復のステップは、当業者に周知であるようになされうる。すなわち、反復回数Tを指定し、サンプル重みを調整することで次回の反復を開始して上記複数のクラス(ここでは3つのクラス)のそれぞれに対して弱分類器を再構築し、反復回数Tが満足された後に、すべての弱分類器を含む検出装置を取得し、フローを終了する(ステップS105)。
本発明によれば、好ましくは、訓練終了判定条件を採用して反復を行ってもよい。各クラスの分類器H(Ci)のそれぞれに対して訓練による所望の性能を設定し、あるクラスが訓練過程においてその所望の性能に到達すれば、このクラスは当該分類器のH(Ci)統合訓練過程から退出する。例えば、現在の特徴共有サンプルクラス集合Sに属する全てのクラス(Ci∈S)に対して誤り検出率f(Ci)=NFA/NTotal(NFAは、当該分類器により負サンプル集合のうちのサンプルが正サンプルとして誤検出された数であり、NTotalは、負サンプルの総数)を検定し、f(Ci)<fiであれば、クラスCは既に訓練終了条件を満足したものとし、当該分類器の訓練から退出する。すべてのサンプルクラスが訓練終了条件を満足すれば、当該分類器の訓練を終了する。一部のサンプルが訓練条件を満足しない場合、Sに属するCi(Ci∈S)に対しては、サンプル重みを
Figure 0005500242
のように更新し、
Figure 0005500242
に対してはサンプル重みをそのまま保持し、同時にすべてのサンプル重みを
Figure 0005500242
になるように正規化して次回の反復を行う。
本発明の第1の実施例によれば、分類器に対する訓練過程において、順方向選択法を使用して、訓練に参加するすべてのクラスのうち、どのクラスの間で特徴が共有されて全体の誤差が最小になるか、すなわち、どのクラスにより一つの特徴共有サンプルクラス集合Sを構成して特徴共有することが最適になるかということを特定する。同時に、特徴ベースで集合S内のクラスにとって分類性能が最適となる特徴を選出した後に、最適特徴を用いてSのうちのクラスのそれぞれに弱分類器を構築する。ただし、本発明は、順方向選択法に限定されず、その他の方向選択(例えば逆方向選択法)を採用して、特定されたクラスからなる特徴共有サンプルクラス集合を選択してもよい。
第1の実施例による検出装置および検出方法
第1の実施例では、クラス毎に一つの強分類器を訓練する。すべての強分類器の訓練は統合して行われ、各強分類器における弱分類器が使用する特徴は、複数のクラスの間で共有されるが、各弱分類器の訓練は、各クラスの内部においてそれぞれ独立に行われる。特徴は、すべてのクラスに共有されることには限定されず、ある特徴は、すべてのクラスに共有されてもよいし、幾つかのクラスに共有されてもよい。
本発明の第1の実施例の訓練方法により取得された検出装置は、検出待ちデータを入力するように配置される入力ユニットと、複数の強分類器を含む組合せ分類器と、判定ユニットとを備える。判定ユニットは、複数の強分類器による分類結果に基づいて、上記検出待ちデータがどのクラスの目標データに属するかを判定するように配置される。当業者には理解されるように、実際の応用では、判定ユニットの具体的な判定基準および方式を柔軟に設置してもよく、あるいは判定ユニットを設置せずに組合せ分類器による分類結果を直接に取得してもよく、上記の両者ともが本発明の要旨および範囲内に含まれる。
図4に示されるように、複数の強分類器からなる組合せ分類器は、上記クラスの数mに対応するm個の、対応するクラスの目標データをそれぞれ検出するための(本実施例においてm=3)強分類器(第1の実施例のではBoosting分類器H(Ci=Σhj(Ci))である)を含み、各強分類器のそれぞれが一つまたはそれ以上の弱分類器(hj(Ci))を含み、各上記強分類器のそれぞれが一組の弱分類器の加算により得られたものであり、各弱分類器のそれぞれが一つの特徴を使用して上記検出待ちデータに対して弱い分類を行う。組合せ分類器は、共有特徴リスト(すなわち共有特徴セット)を含み、共有特徴リストにおける各特徴(f1〜fn)がそれぞれ異なる強分類器に属する1または複数の弱分類器に共有で使用される(例えば、f3が強分類器H(C1)および強分類器H(C3)に使用されない)。同じ特徴を使用する、異なる強分類器に属する弱分類器は、互いに異なるパラメータの値を有する。このように、演算コストを減少させるために各クラスの目標に対する強分類器の間で特徴を共有したが、クラス間の差異を体現するために、各クラス間で分類器は共有されない。
この検出装置の内部において、検出待ちデータ(例えば、サンプル画像)がそれぞれすべてのクラスの強分類器により処理され、判定ユニットにより判定される。従って、一つの強分類器のみではなく、1よりも多い強分類器の出力が正と判断されることがありうる。異なるクラスの強分類器の間に相互排他的な関係はなく、ある検出待ちデータは、複数のクラスの目標データとして判断される可能性がある。1つの強分類器の出力さえ判断ユニットにより正と判断されれば、検出装置の出力は+1となり、そうでなければ、出力は−1となる。
第2の実施例
本発明の第2の実施例によれば、複数のクラスの目標データを検出するための検出装置は、複数のステージ分類器により直列連結されたカスケード構造(Cascade)の分類器に設計される。そのため、まず、カスケード分類器を訓練する各ステージ分類器(SC)に使用されるサンプルクラスを、人為的に所定の多階層構造(本発明における第1の多階層構造)として設計する。最も細かく区分されたクラス(例えば、r個のクラス、rは1より大きい自然数)を最下位層に設置し、次に所定の相似性標準により、これらのクラスを一つ上位の階層におけるより少ない幾つかの大きいクラスに併合し、その後、最上位層の例えば一つの大きいクラスになるまで順次併合する。
図5aおよび5bは、クラス木構造CTを利用して訓練過程中のサンプルクラスの変化を示す。図5aにおいて、合計で7クラスの物体のサンプルが訓練に参加し、これらの7クラスを、木の最下位層Level3に設置し、「葉のクラス」Ci L3と称す。次に、ある相似性標準に基づいて、7クラスのサンプルのうちの幾つかのクラスを併合して木のより上位の層Level2における3クラスのCi L2を取得する。最後に、Level2の3クラスを最上位層Level1の1クラスC0 L1として併合する。訓練中にサンプルを使用する場合、CTのLevel1から始めて、より上位の層におけるサンプルクラスを先に使用する、すなわち、分類器訓練の早期の目標は、全体的に目標物体と非目標物体とを区別することである。訓練の進行に従って全体的な区別が困難になった場合に、サンプルのクラスの分解を行ってCTのLevel2の3クラスのサンプルを使用する。最後に、CTの7個の葉のクラスのサンプルを使用する。図5bは、なおもセダン、トラックおよびバスの3クラスに対するものである。この3クラスは、CTの「葉のクラス」であって、併合されてCTのルートノードクラスC0 L1になる。相応する訓練は、C0 L1から始めて、適時に3個の葉のクラスCi L2に分解される。勿論、自動車をトラック、セダン、バス等の複数のクラスに分解した後に、各クラスをさらにより細かい複数のサブクラスに継続的に区分してもよい。
本発明の第2の実施例によれば、r個のクラスの目標データに対して検出を行う検出装置の訓練方法は、粗から細へのポリシーに従って最上位層のクラスから相応するステージ分類器を訓練し始め、各ステージ分類器は対象となるクラスの数に対応する数の強分類器を含み、上記各ステージ分類器が直列連結されて上記検出装置を形成する。ここで、1つのステージでm個のクラスを検出するステージ分類器に対する訓練は、
当該ステージ分類器が処理するm個のクラスのそれぞれに、正サンプル集合と負サンプル集合とを用意し(1<m≦r)、
上記m個のクラスのうち、特徴共有を行う最適クラス集合を特定し、特徴トラバースにより最適特徴を選出し、
選出された最適特徴を使用して、上記最適特徴を共有するサンプルクラス集合のうちの各クラスについて弱分類器を構築し、
最適特徴の選出を反復して行うことにより、現在のステージの強分類器の特徴リストを取得し、同時に上記m個のクラスのそれぞれに一組の弱分類器を構築して、上記m個のクラスを処理可能なm個の強分類器を含むステージ分類器を取得すること、を含む。
以上からわかるように、カスケード分類器のあるステージ分類器SCkは、このステージ分類器が処理するmクラスのサンプルに対して訓練を行って得られたものであり、m個のH(Ci)分類器を含み、それぞれmクラスのサンプルに対応する。同様に、各強分類器H(Ci)のそれぞれは、複数の弱分類器h(Ci)が加算されることにより得られたものである。H(Ci)分類器の構造は図3bに示され、決定木を例とする弱分類器h(Ci)は図3aに示される。
弱分類器h(Ci)に使用されるこれらの特徴は、ステージ分類器SCkの一組の共有特徴fjからのものである。ステージ分類器SCkの訓練過程は、各H(Ci)分類器を探す過程、つまり、各クラスに対して複数の弱分類器h(Ci)を探索する過程であり、最終的には、各弱分類器に使用される特徴を探索する過程、すなわち特徴選出過程であり、これにより上記の共有特徴セットfjが取得される。
第1の実施例と同様に、共有特徴セットのうちの特徴の何れかは、複数のクラスに使用されて弱分類器を構築する可能性がある。つまり、特徴が複数のクラスに共有される。しかし、弱分類器のパラメータは、各クラスのデータに基づいてそれぞれ算出される。つまり、弱分類器は複数のクラスの間で共有されない。
以上のように、訓練では、まずより上位の層におけるサンプルクラスを使用して訓練を行い、サンプルクラスの分解標準を設定する。訓練の進行に従って、この標準が満足された場合に、最下位層まで既存クラスをより下位の層におけるより細かいサンプルクラスに分解して訓練を継続する。
第2の実施例に採用された「設定されたサンプルクラス分解標準」は、教師ありで各ステージにサブクラス区分を指定し、人為的なサンプルクラス分解を強制的に行うことであってもよい。例えば、最上位層に第1のステージ分類器を指定し、より上位の層に第2、第3のステージ分類器を指定するなど。教師なしで自動的にサブクラスを生成し、かつ訓練を継続する方法を採用してもよい。
代替的に、第2の実施例において、好ましくは、訓練集合内の誤差をサンプルクラス分解の判断標準としてもよい。すなわち、訓練が正常に進行している場合に、訓練集合内の誤差が継続的に減少し、集合内の誤差が継続的に減少することが難しくなったとき、現在使用される幾つかのサンプルクラスのクラス内の差異が大きくて訓練の継続を妨げていると考えられるため、サンプルクラス分解を行う必要がある。この場合、最下位層以外の他の各層クラスに対する各ステージ分類器の訓練過程において、サンプルを分解する可能性があるため、訓練時に粗から細へのポリシーに従って所定の多階層構造における各層のクラスのそれぞれに、1または複数の相応するステージ分類器を訓練しても、例えば、クラス内の差異が非常に大きい場合は、ある層のクラス、特に最上位層クラスに対して、対応するステージ分類器が訓練により得られない可能性がある。訓練が完成した後に、各ステージ分類器により実際に処理された多階層構造クラス層(本発明中の第2の多階層構造)は、事前に人為的に定義された所定の多階層構造(本発明の第1の多階層構造)とは異なる可能性がある。
具体的には、最下位層クラス以外のその他の各層クラスを処理する任意のステージ分類器(すなわち、1≦m<r)に対して、毎回の反復過程において上記クラスに弱分類器を構築した後に、有効性測定を行ってサンプルクラス分解を行うか否かを判断する。上記の有効性測定は、
現在の構築された弱分類器からなる強分類器の閾値をゼロに設定し、上記強分類器の相応するクラスの正、負サンプルに対する分類誤差を測定し、
上記分類誤差が、逐次の反復過程に従って低下するか否かを判断し、
上記の分類誤差は、逐次の反復過程に従って低下しなくなり、低下が遅くなり、または振動が発生したと判断された場合に、当該ステージ分類器の訓練から退出するとともに、サンプルクラスを粗から細へと一つ下位のサンプルクラスに分解した後に、当該ステージ分類器の訓練を再開すること、を含む。
以上のように、上記所定の多階層構造クラスの最上位層は、任意の数のクラスであってもよいが、一般的には1つのクラスを有する。第2の実施例によれば、上記1つのクラスの目標データを検出するステージ分類器に対する訓練は、正サンプル集合と負サンプル集合とを用意し、上記複数の選択待ち訓練特徴に対して弱分類器を訓練して最小の分類誤差を有する弱分類器を選択し、反復処理により弱分類器を構築して、取得された弱分類器からなる、一般的に目標画像と非目標画像とを区別する第1のステージ分類器を取得することを含む。同様に、反復の回数は、予め設定されても良く、訓練終了判断条件を採用して自動的に判定されてもよい。
同様に、その他の任意のステージ分類器に対して分類器を反復して訓練するときに、その反復回数は予め設定されても良く、訓練終了判断条件を採用して自動的に判定されてもよい。訓練終了判断条件については、第1の実施例に説明されたものと同じであるため、ここでは重複して説明しない。
任意のステージ分類器に対して訓練終了判断条件を設定することが可能であるだけではなく、全体的に目標の各クラスに対して所望の訓練性能をそれぞれ設定することも可能である(例えば、最下位層クラスに対して総誤り検出率Fをそれぞれ設定する)。あるクラスの訓練がすでに所望の性能に到達した場合、このクラスは後続の各ステージ分類器の訓練には参加しない。
第3の実施例
第3の実施例では、セダン、バスおよびトラックを検出待ち目標として、カスケード分類器の分類(訓練)方法をさらに詳しく説明する。
まず、それぞれがセダン、バスとトラックに対応する3クラスの正サンプル集合(自動車画像)P(Ci)(i=1,2,3)を用意し、3クラスの正サンプルを一つのクラスの正サンプル集合P(C0)に併合する。サンプルクラス木の構造を図5bに示す。訓練は、P(Ci)(i=0)から開始し、正サンプルクラス分解を行う必要があるときに、P(Ci)(i=0)を、P(Ci)(i=1,2,3)に分解する。そして、すべての各クラスの所望の訓練目標、すなわち検出率Diおよび総誤り検出率Fiを設定する。
次に、特徴プールを用意する。例えばHaar-like特徴のプロトタイプを32×32(ピクセル)の画像に応用して数十万ほどの具体的な特徴を取得する。
その後、ステージごとに、各ステージ分類器SC1をSCnまで訓練する。図6に示されるのは、第kのステージ分類器SCk(k=1,2,3,…,n)を訓練するステップである。
ステップS601において、異なるクラスに対して、それぞれ正サンプル集合Pk Ciを用意しておく。iは、本ステージに使用される正サンプルクラス(1クラスまたは3クラス)に対応する。正サンプル集合P(Ci)に対して前のk−1ステージの分類器を使用して選別を行い、−1と判定されたサンプルを取り除くことによって現在の正サンプル集合Pk Ciを取得する。正サンプルごとに標記zj Ci=+1を付与する。
同ステップS601において、各正サンプル集合Pk Ciに対応して、負サンプル集合Nk Ciをそれぞれ用意しておく。背景画像において、ある順序に従って正サンプル画像と同じサイズを有する子図片を切り取ることによって、各クラスに負サンプル集合Nk Ciを用意することができる。
好ましくは、第2のステージ分類器からの各ステージ分類器に対して相関クラスCiに負サンプル集合を用意することは、前に既存した全てのステージ分類器のうち、Ciと相関する強分類器からなるカスケード分類器を使用して、背景画像においてウインドウトラバース探索を行い、正サンプルとして誤判断されたウインドウ画像をCiの負サンプル集合Nk Ciに追加することである。負サンプルの数は、実際の必要に応じて特定することができ、例えば、あるクラスの負サンプルの数とその正サンプルのサンプル数とが所定の比率となることを規定することができる。負サンプルごとに標記zj Ci=−1を付与する。
ここで、全体的に各サンプルクラスのそれぞれに所望の訓練性能を設定することができる。例えば、最下位層クラスCiの現在の誤り検出率をFCi=Nneg/Nwin(Nnegは検出された負サンプルの数、Nwinは探索されたすべてのウインドウ画像の数である)として定義し、クラスCiの誤り検出率FCiが既に所望の総誤り検出率Fiよりも小さい場合には、クラスCiは後続の訓練に参加しない。すべてのクラスの誤り検出率がその総誤り検出率よりも小さい場合には、すべての訓練過程から退出する。
同ステップS601において、サンプルごとに重みwj Ci=1/M(初期の重みが1/Mである)を設定する。Mはサンプルの総数である。
ステップS601において、ステージ分類器の退出条件を設定するしてもよく、例えば、T回の反復回数を指定する。ここでは、各クラス目標に対して所望の最小検出率diと所望の最大誤検出率fiとを設定する。
ステップS602から特徴選出を開始し、各クラスに対して複数の弱分類器h(Ci)を探索する過程により、最終的に各弱分類器によって繰返し使用される特徴を探索する。
t=0,1,…を設定し、t個の特徴の選出を行う。
a) ステップS602において、最適な特徴共有サンプルクラス集合Sを探索し(ここで、例えば、順方向選択を利用して、すべてのクラスとは限らず、どのクラスが当該t個の特徴を共有するかを特定する)、
i. すべてのPk CiおよびNk Ciに対して、クラスCiが特徴共有に参加しない時に、取り入れた誤差
Figure 0005500242
を算出し、
すべてのクラスに対してそれぞれ独立的に弱分類器の訓練を行い、すなわち、特徴プールから現在のクラスの正負サンプル集合に対して誤差最小の区分が可能な1つの特徴を選出し、各クラスにより選出された最適特徴ft Ciとその分類誤差et Ciとを記録し、すべてのクラスに対して、
Figure 0005500242
という計算を行い、
Figure 0005500242
を特徴共有サンプルクラス集合候補Sに優先的に入る第1のクラスとし、特徴共有サンプルクラス集合候補S1を取得し、
C1 *を他の各クラスとそれぞれ組み合わせ、2クラス統合弱分類器訓練を行い、各組み合わせで選出された

Figure 0005500242
という計算を行い、
Figure 0005500242
を特徴共有サンプルクラス集合候補Sの第2のクラスとし、特徴共有サンプルクラス集合候補Sを取得する。
すべてのクラスの処理が完成するまで、上記の処理を繰返す。
上記のように取得したすべてのSxにおいて、特徴共有誤差が最小の集合を特徴共有サンプルクラス集合Sとする。つまり、

Figure 0005500242
となる。相応するft Sxを最適特徴ft *として記録する。
b) ステップS603において、ft *を使用してSにおけるすべてのクラスに決定木弱分類器h(ft *,C)を構築する。その構造は図3aに示される。
c) ステップS604において、Ht(Ci)=Ht-1(Ci)+h(ft *,Ci)のように、特徴共有サンプルクラス集合Sのうちのすべてのサンプルクラスに対してHt(Ci)分類器を更新し、所望の最小検出率diに基づいてHt(Ci)分類器の閾値Θt(Ci)を特定し(つまり、現在の閾値の場合に、分類器の現在の正サンプル集合における検出率がdiである)、
d) ステップS605において、特徴共有サンプルクラス集合Sのうちの各クラスのサンプルの訓練に対して有効性測定を行う。例えば、各クラスのサンプルのHt(Ci)分類器の閾値をゼロに設定することによって、このときのHt(Ci)分類器の各クラス内部の正負サンプルに対する分類誤差を検定し、ステップS606において当該誤差が訓練の進行に従って減少していくか否かを判断する。この誤差が減少しなくなり、減少が遅くなり、または振動する場合に、第kのステージ分類器SCkの訓練から退出し、サンプルクラスを粗から細への階層の1つの下位におけるサンプルクラスに分解し(例えば、図5bに示されるように分解を行う)、その後に第kのステージ分類器の訓練を新たに開始する(ステップS607を参照)。
e) ステップS606での判断結果が「いいえ」である場合、ステップS608において、訓練終了判断を行う。ここで、所望の最大の誤検出率fiを用いて判断を行う。具体的には、特徴共有サンプルクラス集合Sに属するすべてのクラス(Ci∈S)に対して、誤り検出率f(Ci)=NFA/NTotal(NFAは負サンプル集合のうちのサンプルが分類器により正サンプルとして誤検出された数、NTotalは負サンプルの総数)を検定し、f(Ci)<fiであれば、クラスCiが既に訓練終了条件を満足したものとし、第kのステージ分類器の訓練から退出し、すべてのサンプルクラスが訓練終了条件を満足すれば、第kのステージ分類器の訓練を終了し、サンプル集合Ci:(Pi,Ni)を更新することにより次のステージの訓練を行う(ステップS609とS610とを参照)。
f) ステップS611において、Sに属するCi(Ci∈S)に対して、サンプル重みを
Figure 0005500242
のように更新し、
Figure 0005500242
の場合、サンプル重みをそのまま保持する。同時に、すべてのサンプル重みを
Figure 0005500242
になるように正規化させ、次回の反復を新たに開始する。
理解すべきなのは、前の幾つかのステージ分類器SCk(k=1,2,3,…,n)、特に第1のステージ分類器SC1が一つのクラスのみに対して判定を行う場合、当該ステージ分類器に対する特徴選別は、例えば順方向選択などを使用して特徴共有サンプルクラス集合Sを探索する必要がない。一方、後の幾つかのステージ分類器SCkについて、既に最下位層のサンプルクラスに対して訓練を行った場合に、有効性測定によってサンプルクラス分解が必要か否かを判断しなくてよい。
また、検出装置に対する訓練は、具体的なBoostingアルゴリズムに限定されず、Gentle-Boosting、Real-Boosting等の他のアルゴリズムであってもよいことは、理解すべきである。
第2および第3の実施例による検出装置および検出方法
本発明の第2または第3の実施例による訓練方法により取得された検出装置は、検出待ちデータを入力するように配置される入力ユニットと、カスケード分類器とを含む。カスケード分類器は、図7に示されるように、複数(n個)の直列連結されるステージ分類器を含む。
ここで、上記複数(r個)のクラスは、相似性標準に従ってステージごとに所定の多階層構造に併合可能であり、また上記複数のクラスは、最も細かく区分されたクラスとして最下位層に設置される。それに対して、上記複数のステージ分類器は、粗から細へのポリシーに従って、上記所定の多階層構造における各層のクラスに対して分類処理を行うように配置され、また各ステージ分類器のそれぞれは、処理するクラスの数に対応する数の強分類器を含む。
上記各強分類器のそれぞれは、一組の弱分類器を含む。各弱分類器は、一つの特徴を使用して上記検出待ちデータに対して弱い分類を行う。なお、上記各ステージ分類器のそれぞれは、一つの共有特徴リストを含み、上記共有特徴リストのうちの各特徴はそれぞれ異なる強分類器に属する1または複数の弱分類器に共有使用される。同じ特徴を使用する、異なる強分類器に属する弱分類器は、互いに異なるパラメータ値を有する。
第2または第3の実施例による検出装置は、全体から見ると、複数の「ステージ分類器」SCにより直列連結された一つのカスケード構造の分類器であるが、複数のクラスの物体の同時検出について設計されたものであり、各ステージ分類器内部において、複数のクラスの強分類器が共有特徴リスト(すなわち、共有特徴セット)により結合される。
第3の実施例の検出装置を例とすると、検出待ちデータが順にカスケード分類器の各ステージ分類器に入力される。
検出待ちデータは、あるステージ分類器に入るときに、順に当該ステージに含まれたm個の強分類器により判定される。ある強分類器が+1を出力した場合、当該強分類器により相応クラスの目標に該当すると判定され、この強分類器を通過すると呼ばれる。そうではなく−1を出力した場合、相応クラスの目標に該当しないと判定され、この強分類器に拒否されると呼ばれる。
上記判定過程は、現在のステージの分類器の特徴リストのうちのすべての有効特徴の値を算出し、このステージのm個の強分類器に対して、特徴リスト中の各特徴に対する共有の状態に従って、算出された特徴値に基づいて各弱分類器の出力を順に特定して相加して最終の強分類器の出力を取得することを含む。
上記判定過程において、検出待ちデータがクラスCiを検出するためのある強分類器に拒否された場合、後続のステージの分類器において、クラスCiとそのサブクラスとを検出する相応する強分類器は、上記入力された検出待ちデータに対して引き続き判定をすることがない。このとき、上記検出待ちデータは、クラスCiに対応する葉の層クラスに拒否されたと呼ばれる。
上記判定過程において、各ステージ分類器の特徴リストのうち、上記の判定過程に参加しなくなる各強分類器のみに関係する特徴は、無効特徴とみなされ、演算コストを節約するために計算に参加しなくなる。
上記判定過程において、検出待ちデータがすべての葉の層クラスに拒否されると、判定過程を中止し、この検出待ちデータは非目標データと呼ばれる。上記判定過程の最後に、検出待ちデータが最後のステージ分類器におけるある強分類器に通過されると、この検出待ちデータが上記強分類器に対応する目標クラス属性を有すると判定され、検出待ちデータが最後のステージ分類器における複数の強分類器に通過されると、この検出待ちデータが相応する多重目標クラス属性を有すると判定される。
本発明による検出装置は、各種の複数のクラスの目標データに対して検出を行うことができる。入力された画像または動画において複数のクラスの所定の目標に対して検出を行う場合に、本発明による検出装置はさらに、検出待ち画像または動画に対してウインドウトラバースを行うように配置されるウインドウトラバース部と、上記ウインドウトラバース部が生成したウインドウを併合し、所定の閾値を利用して併合されたウインドウをフィルタリングして最終の検出結果を取得するように配置される後処理部とを備える。
図8は、本発明による検出装置が画像または動画における所定の複数のクラスの目標を検出する手順を示した。
ウインドウトラバース過程810において、任意に与えられた検出待ち画像(ステップS811)、または検出待ち動画から切り取られた画像に対して、矩形ウインドウを使用して画像トラバースを行い(ステップS812)、ステップS813において順にウインドウ画像を取得する(トラバースの順序および方式が任意であり、左から右へ、上から下への順序であっても良く、右から左へ、下から上への順序であってもよい。トラバースする時に、ウインドウの平行移動のステップ幅は任意であり、ピクセルごとに行っても良く、複数のピクセルおきに行っても良く、或は、現在のウインドウのサイズに比例してもよい)。
トラバースする時に、走査過程において得られた各ウインドウに対して順に上記カスケード分類器を応用し、訓練により得られた分類器における特徴を使用してウインドウ画像に対して特徴算出を行い(ステップS814)、上記分類器を応用して分類を行う(ステップS815)。カスケード分類器は、このウインドウ画像が目標クラスであると判定すると(1つ以上の目標クラス属性を有する)、このウインドウの原始画像における位置とサイズ、および具備するすべての目標クラス属性を記録する(ステップS816)。ウインドウトラバースが終了した後に、一定の比率因子に従って画像を縮小し、上記ウインドウトラバースとウインドウ画像判定の過程を再び行う。画像がウインドウトラバースできなくなる(画像の高さがウインドウの高さより小さい、または画像の幅がウインドウの幅より小さい)程に縮小するまで、以上の過程を繰り返す(ステップS817およびS818を参照)。すべての正応答ウインドウをその対応する画像と原画像とのサイズ比率因子に従って原画像にマッピングし、すべての正応答の原画像における位置およびサイズを取得する。
画像をトラバースする時に、以上のモード、すなわちWinScanMode1(すなわち、サイズの固定したウインドウを選択して画像をトラバースし、トラバース終了後に、一定の比率に従って画像のサイズを縮小または拡大し、サイズの固定したウインドウを使用して画像を新たにトラバースする)のほかに、モードWinScanMode2を採用してもよい。当該モードにおいて、画像のサイズをそのまま保持し、初回のトラバース時のウインドウのサイズを選択し、トラバース終了後に、一定の比率に従って画像のサイズを縮小または拡大し、原画像を新たにトラバースする。
各ウインドウ画像に対して、訓練により得られたカスケード分類器を使用して判定を行った後に、分類結果が+1の場合、WinScanMode1が選択されると、現在のウインドウのサイズと位置を記録し、画像のズーム比率に従って現在のウインドウのサイズと位置とを原画像の座標空間にマッピングし、現在の応答の原画像における位置およびサイズを取得する。WinScanMode2が選択されると、現在のウインドウのサイズおよび位置を直接に記録する。
後処理手順820は、後処理部により実行されるものであって、隣接した正応答結果を併合するためのウインドウ併合ステップS821と、弱い応答を取り除くための閾値フィルタリングステップS822とを含む。そして、ウインドウ併合され、かつ閾値フィルタリングされた後に残された併合結果を最終の検出結果とする(ステップS830)。
具体的には、画像における同一の目標(自動車)の付近において多重応答を発生する場合に、近接する多重応答を一つの出力応答に併合する。
まず、上記併合過程において、“近接”を、隣接したウインドウ中心位置、近いサイズ比率および同一の目標クラス属性を有する、と定義し、その後に近接した一群の目標ウインドウの平均中心位置、平均ウインドウサイズを算出し、併合されたウインドウの数を併合結果の確信度とする。
次に、上記併合過程において、併合後の、位置中心が隣接し、およびサイズが近い併合結果に対して目標属性の併合を行い、すなわち、画像におけるある位置の付近において複数の異なる目標属性を有する併合結果があれば、各目標属性の数を統計し、数の最も多い目標属性を最終目標属性とし、各目標属性の確信度の和を最終の併合結果の確信度とする。
上記併合過程が終了した後に、併合ウインドウの確信度が予め設置された確信度の閾値よりも大きい、または等しい時にこの併合結果を受け入れ、そうでなければ、この併合結果を破棄する。
技術効果
1.本発明の各実施例によれば、複数のクラスの目標の分類器の間で特徴共有を行うが、共有特徴に関係する弱分類器が各クラス内部において単独に構築された方式により、各クラスの目標の間の差異が効率的に区分され、訓練の収束速度が向上すると共に、組合せ分類器の各クラスの目標間に対する区分性能が向上する。特徴がすべてのクラスにおいて共有されることを強制的に規定しないやり方により、必要のない演算が削減される。
2.本発明の各実施例によれば、複数のクラスの分類器の間での特徴共有により、複数のクラスの分類器の特徴の計算コストが削減される。
例えば、本発明の第3の実施例において、3クラスの自動車(セダン、トラックおよびバス)のサンプルを合計17000個与え、3つの並行するカスケード分類器と1つの特徴共有の組合せ分類器とをそれぞれ訓練した。訓練により得られた分類器に使用されるHaar-like特徴の数を、以下の表に示す。
Figure 0005500242
上記の表からわかるように、本発明の実施例の方法により、使用される特徴の数が大幅に減少した。
自動車テスト集合(集合内のサンプルは訓練に参加しておらず、3クラスの自動車のサンプルを合計2264個含む)および背景画像テスト集合(サイズが統一されておらず、ウインドウ画像が約5300000個提供される)を開放することを設定する。3クラスの自動車のカスケード分類器を並行に使用して以上のテスト集合を処理し、その後に特徴共有の組合せ分類器を使用して上記のテスト集合を処理した。テスト結果を以下の表に示す。
Figure 0005500242
上記の表からわかるように、2つの方法が類似する分類性能を有するが、組合せ分類器の方がより高い検出効率を有する。分類器に使用される特徴の計算が複雑になるほど、組合せ分類器の検出効率の有利性が明らかになる。
3.本発明の第2および第3の実施例によれば、組合せ分類器は、(複数のクラス)目標画像と非目標画像とを区別すると共に、各目標クラスの間の差異を可能な限り体現させる。粗から細への多階層サンプルクラスの使用方式により、組合せ分類器に目標と非目標との全体的な差異を優先的に体現させ、次に目標クラス間の差異が考慮され、さらに検出の効率を向上させる。
4.本発明の第2および第3の実施例によれば、複数のクラスの統合訓練を行う時に、各クラスが独立に負サンプル集合を使用する方式により、特徴共有型の分類器がCascade構造形式を採用してより高い検出効率を取得することに有利である。
その他の実施形態
なお、上記の一連の処理および装置は、ソフトウェアおよびファームウェアにより実現可能である。ソフトウェアまたはファームウェアにより実現される場合、記憶媒体またはネットワークから専用ハードウェア構造を有するコンピュータ、例えば、図9に示された汎用コンピュータ900に当該ソフトウェアを構成するプログラムをインストールする。当該コンピュータは、各種のプログラムがインストールされたときに、各種機能の実行等が可能である。
図9において、中央処理ユニット(CPU)901は、リードオンリーメモリ(ROM)902に記憶されたプログラム、または記憶部908からランダムアクセスメモリ(RAM)903にロードされたプログラムに基づいて、各種の処理を実行する。RAM903では、必要に応じて、CPU901が各種の処理等を実行するときに必要とされるデータも記憶される。
CPU901、ROM902およびRAM903は、バス904を経由して互いに接続される。入力/出力インターフェース905もバス904に接続される。
キーボード、マウス等を含む入力部906と、陰極射線管(CRT)、液晶ディスプレイ(LCD)等のようなディスプレイおよびスピーカ等を含む出力部907と、ハードディスク等を含む記憶部908と、LANカードのようなネットワークインターフェースカード、モデム等を含む通信部909とが入力/出力インターフェース905に接続される。通信部909はネットワーク、例えばインターネットを経由して通信処理を実行する。
必要に応じて、ドライバ910も入力/出力インターフェース905に接続される。リムーバブルメディア911、例えば磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等が必要に応じてドライバ910に取り付けられ、これによりその中から読み出されたコンピュータプログラムが必要に応じて記憶部908にインストールされる。
ソフトウェアにより上記の一連の処理を実現する場合は、ネットワーク、例えばインターネット、または記憶媒体、例えばリムーバブルメディア911からソフトウェアを構成するプログラムをインストールする。
このような記憶媒体は、図9に示されたような、その中にプログラムが記憶されているものであって、デバイスから離れて提供されてユーザにプログラムを提供する取り外し可能な媒体911に限定されないことを、当業者は理解するであろう。取り外し可能な媒体911の例として、磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(コンパクトディスクリードオンリーメモリ(CD−ROM)やディジタルヴァーサタイルディスク(DVD)を含む)、光磁気ディスク(ミニディスク(MD)を含む)および半導体メモリを含む。または、記憶媒体はROM902、メモリ部908に含まれるハードディスクなどであってもよい。その中にプログラムが記憶されており、かつそれらを含むデバイスと一緒にユーザに提供される。
以上に、本発明の好適な実施形態を説明した。本発明の保護範囲は、ここで開示された具体細部に限定されず、本発明の要旨の範囲内の各種の変化および効果均等の方案を含むことは、当業者にとって明らかである。

Claims (20)

  1. 複数のクラスの目標データに対して検出を行う検出装置であって、
    検出待ちデータを入力するように配置される入力ユニットと、
    数が前記クラスの数に対応し、対応するクラスの目標データをそれぞれ検出する強分類器が内部に含まれ、前記強分類器のそれぞれは一組の弱分類器を相加することにより得られ、弱分類器のそれぞれは1つの特徴を使用して前記検出待ちデータに対して弱い分類を行う組合せ分類器と、を備え、
    前記組合せ分類器は共有特徴リストを内包し、前記共有特徴リストにおける各特徴のそれぞれは異なる強分類器にそれぞれ属する1または複数の弱分類器に共有使用され、
    同一の特徴を使用しそれぞれ異なる強分類器に属する弱分類器は互いに異なるパラメータ値を有し、
    前記弱分類器は複数のクラスの間で共有されない、検出装置。
  2. 前記複数の強分類器による分類結果に基づいて、前記検出待ちデータがどのクラスの目標データに該当するかを判定するように配置される判定ユニットをさらに備える、請求項1に記載の検出装置。
  3. 複数のクラスの目標データに対して検出を行う検出装置であって、前記複数のクラスが相似性標準に従ってステージごとに所定の多階層構造に併合され、かつ前記複数のクラスが最も細かく区分されたクラスとして最下位層に設置され、前記検出装置は、
    検出待ちデータを入力するように配置される入力ユニットと、
    複数の直列連結されたステージ分類器を備え、前記複数のステージ分類器は粗から細へのポリシーに従って前記所定の多階層構造における各層クラスのそれぞれに対して分類処理を行うように配置され、かつステージ分類器のそれぞれが処理されるクラスの数と対応する数の強分類器を備え、前記強分類器のそれぞれが一組の弱分類器を含み、弱分類器のそれぞれが1つの特徴を使用して前記検出待ちデータに対して弱い分類を行うカスケード分類器と、を備え、
    前記ステージ分類器のそれぞれは共有特徴リストを含み、前記共有特徴リストにおける各特徴のそれぞれは異なる強分類器にそれぞれ属する1または複数の弱分類器に共有使用され、同一の特徴を使用しそれぞれ異なる強分類器に属する弱分類器は互いに異なるパラメータ値を有し、
    前記弱分類器は複数のクラスの間で共有されない検出装置。
  4. 前記ステージ分類器のそれぞれは、入力された検出待ちデータに対してその共有特徴リストにおける各有効特徴の特徴値を算出し、かつ前記ステージ分類器における各強分類器に対して、強分類器に対して使用された特徴に基づいて計算された特徴値リストを照合して前記強分類器の各弱分類器の出力を特定し相加して最終の強分類器の出力を取得するように配置される、請求項3に記載の検出装置。
  5. 前記カスケード分類器は、入力された検出待ちデータを、順に各ステージ分類器における各強分類器に判定させ、入力された検出待ちデータがクラスCiを検出する一つの強分類器により非目標データと判定された場合に、後続の各ステージ分類器におけるクラスCiおよび/またはそのサブクラスを検出する相応の強分類器が前記入力された検出待ちデータに対する判定を継続しないように配置される、請求項3に記載の検出装置。
  6. 前記カスケード分類器は、前記ステージ分類器のそれぞれに対して、その共有特徴リストのうち判定過程に参加しなくなる各強分類器のみに関係する特徴が存在するか否かを判定し、存在すれば、当該特徴を無効特徴として標記し、その特徴値を算出しないように配置される、請求項5に記載の検出装置。
  7. 前記カスケード分類器は、検出待ちデータが任意のステージのステージ分類器における全ての強分類器に拒否された場合、分類処理を中止するとともに、前記検出待ちデータを非目標データとして判定するように配置される、請求項3に記載の検出装置。
  8. 前記複数のステージ分類器における最後のステージのステージ分類器は、さらに、検出待ちデータがある強分類器を通過した場合、前記検出待ちデータが前記強分類器に対応する目標クラス属性を有すると判定し、検出待ちデータが最後のステージのステージ分類器において複数の強分類器に通過した場合、当該検出待ちデータが相応する多重目標クラス属性を有すると判定するように配置される判定ユニットを備える、請求項3に記載の検出装置。
  9. 入力された画像または動画において複数のクラスの所定目標に対して検出を行う検出装置であり、
    検出待ち画像または検出待ち動画から切り取られた画像に対してウインドウトラバースを行うように配置されるウインドウトラバース部をさらに備え、
    前記カスケード分類器は、前記ウインドウトラバース部により取得されたウインドウ画像に対して分類処理を行い、ウインドウ画像が目標クラスであると判定された場合に、前記ウインドウの、原画像における位置とサイズ、および具備するすべての目標クラス属性を記録するように配置される請求項3に記載の検出装置。
  10. 複数のクラスの目標データに対して検出を行う検出方法であって、
    検出待ちデータを入力すること、および
    複数の強分類器を含む組合せ分類器を使用して前記検出待ちデータに対して分類を行い、前記強分類器は数が前記クラスの数に対応し、かつそれぞれ対応するクラスの目標データに対して検出を行い、前記組合せ分類器内に共有特徴リストが含まれ、前記共有特徴リストのうちの各特徴がそれぞれ異なる強分類器に属する1または複数の弱分類器に共有使用され、同じ特徴を使用しそれぞれ異なる強分類器に属する弱分類器は互いに異なるパラメータ値を有することを含み、
    前記弱分類器は複数のクラスの間で共有されない検出方法。
  11. 前記複数の強分類器のそれぞれの分類結果に基づいて、前記検出待ちデータがどのクラスの目標データに該当するかを判定することをさらに含む、請求項10に記載の検出方法。
  12. 複数のクラスの目標データに対して検出を行う検出方法であって、前記複数のクラスが相似性標準に従ってステージごとに所定の多階層構造に併合され、かつ前記複数のクラスが最も細かく区分されたクラスとして最下位層に設置され、前記検出方法は、
    検出待ちデータを入力すること、
    複数の直列連結されたステージ分類器を含むカスケード分類器を使用して前記検出待ちデータに対して分類を行い、前記複数のステージ分類器が粗から細へのポリシーに従って、前記所定の多階層構造における各層クラスのそれぞれに対して分類処理を行い、各ステージ分類器のそれぞれが処理されるクラスの数に対応する数の強分類器を含むこと、
    前記カスケード分類器を使用して分類を行う段階は、入力された検出待ちデータを順に各ステージ分類器における各強分類器に判定させ、前記ステージ分類器のそれぞれは共有特徴リストを含み、前記共有特徴リストのうちの各特徴はそれぞれ異なる強分類器に属する1または複数の弱分類器に共有使用され、同じ特徴を使用しそれぞれ異なる強分類器に属する弱分類器は互いに異なるパラメータ値を有することを含み、
    前記弱分類器は複数のクラスの間で共有されない検出方法。
  13. 前記入力された検出待ちデータを順に各ステージ分類器における各強分類器に判定させる段階は、
    入力された検出待ちデータに対して前記ステージ分類器の共有特徴リストのうちの各有効特徴の特徴値を算出し、前記ステージ分類器における各強分類器に対して強分類器に対して使用される特徴に基づいて算出された特徴値リストを照合して当該強分類器の各弱分類器の出力を特定し相加して最終の強分類器の出力を取得することを含む、請求項12に記載の検出方法。
  14. 前記入力された検出待ちデータを順に各ステージ分類器における各強分類器に判定させる段階は、
    入力された検出待ちデータが、クラスCiを検出する一つの強分類器により非目標データと判定された場合に、後続の各ステージ分類器におけるクラスCiおよび/またはそのサブクラスを検出する相応の強分類器が前記入力された検出待ちデータに対する判定を継続しないことを含む、請求項12に記載の検出方法。
  15. 前記入力された検出待ちデータを順に各ステージ分類器における各強分類器に判定させる段階は、
    前記ステージ分類器の共有特徴リストのうち、判定過程に参加しなくなる各強分類器のみに関係する特徴が存在するか否かを判定し、存在すれば、当該特徴を無効特徴として標記し、その特徴値を算出しないことを含む、請求項14に記載の検出方法。
  16. 前記カスケード分類器を使用して分類を行う段階は、さらに
    検出待ちデータが、任意のステージのステージ分類器における全ての強分類器に拒否された場合、分類処理を中止するとともに、前記検出待ちデータを非目標データとして判定することを含む、請求項12に記載の検出方法。
  17. 最後のステージのステージ分類器を使用して分類処理を行った後に、さらに、
    検出待ちデータがある強分類器を通過した場合、前記検出待ちデータが前記強分類器に対応する目標クラス属性を有すると判定し、検出待ちデータが最後のステージのステージ分類器における複数の強分類器を通過した場合、当該検出待ちデータが相応する多重目標クラス属性を有すると判定することを含む、請求項12に記載の検出方法。
  18. 入力された画像または動画において複数のクラスの所定目標に対して検出を行う検出方法でり、
    検出待ち画像、または検出待ち動画から切り取られた画像に対してウインドウトラバースを行うことをさらに含み、
    前記カスケード分類器を使用して前記検出待ちデータに対して分類を行う段階は、
    前記カスケード分類器を使用して前記ウインドウトラバースにより取得されたウインドウ画像に対して分類処理を行い、ウインドウ画像が目標クラスであると判定された場合に、前記ウインドウの、原画像における位置とサイズ、および具備するすべての目標クラス属性を記録することを含む、請求項12に記載の検出方法。
  19. 前記ウインドウトラバースにより生成された、目標クラス属性を有するウインドウを局所近接併合することをさらに含む請求項18に記載の検出方法。
  20. 前記局所近接併合する段階は、
    隣接したウインドウ中心位置、互いに近いサイズ比率および同じ目標クラス属性を有するウインドウに対して、近接した一群の目標ウインドウの平均中心位置、平均ウインドウサイズを算出し、併合されたウインドウの数を併合結果の確信度とし、
    併合された、中心位置が隣接し、近いサイズの併合結果に対して目標属性併合を行い、すなわち、前記画像におけるある位置の付近に異なる目標属性を有する複数の併合結果があれば、各目標属性の確信度の総和を統計し、確信度の総和が最大となる目標属性を最終の目標属性とし、各目標属性の確信度の総和の和を最終の併合結果の確信度とし、
    前記最終の併合結果の確信度が所定の確信度の閾値より大きい、または等しい場合に、前記最終の併合結果を受け入れ、そうでなければ前記最終の併合結果を破棄することを含む、請求項19に記載の検出方法。
JP2012502431A 2009-04-01 2010-03-23 複数クラスの目標の検出装置および検出方法 Expired - Fee Related JP5500242B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN200910132668A CN101853389A (zh) 2009-04-01 2009-04-01 多类目标的检测装置及检测方法
CN200910132668.0 2009-04-01
PCT/CN2010/071193 WO2010111916A1 (zh) 2009-04-01 2010-03-23 多类目标的检测装置及检测方法

Publications (2)

Publication Number Publication Date
JP2012523027A JP2012523027A (ja) 2012-09-27
JP5500242B2 true JP5500242B2 (ja) 2014-05-21

Family

ID=42804869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012502431A Expired - Fee Related JP5500242B2 (ja) 2009-04-01 2010-03-23 複数クラスの目標の検出装置および検出方法

Country Status (5)

Country Link
US (1) US8843424B2 (ja)
EP (1) EP2416278A1 (ja)
JP (1) JP5500242B2 (ja)
CN (1) CN101853389A (ja)
WO (1) WO2010111916A1 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853389A (zh) * 2009-04-01 2010-10-06 索尼株式会社 多类目标的检测装置及检测方法
JP5707570B2 (ja) * 2010-03-16 2015-04-30 パナソニックIpマネジメント株式会社 物体識別装置、物体識別方法、及び、物体識別装置の学習方法
US8447139B2 (en) * 2010-04-13 2013-05-21 International Business Machines Corporation Object recognition using Haar features and histograms of oriented gradients
CN102411716A (zh) * 2010-09-21 2012-04-11 索尼公司 目标检测和分类方法和装置
US9684957B2 (en) 2011-02-11 2017-06-20 Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behalf Of Arizona State University Systems methods, and media for detecting an anatomical object in a medical device image using a multi-stage classifier
WO2012109676A1 (en) 2011-02-11 2012-08-16 Arizona Board Of Regents For And On Behalf Of Arizona State University Methods, systems, and media for determining carotid intima-media thickness
JP2012243180A (ja) * 2011-05-23 2012-12-10 Sony Corp 学習装置および方法、並びにプログラム
CN102855500A (zh) * 2011-06-27 2013-01-02 东南大学 一种基于Haar和HoG特征的前车检测方法
US9330336B2 (en) * 2011-09-16 2016-05-03 Arizona Board of Regents, a body corporate of the State of Arizona, acting for and on behalf of, Arizona State University Systems, methods, and media for on-line boosting of a classifier
US8649613B1 (en) * 2011-11-03 2014-02-11 Google Inc. Multiple-instance-learning-based video classification
WO2013116865A1 (en) 2012-02-02 2013-08-08 Arizona Board Of Regents, For And On Behalf Of, Arizona State University Systems, methods, and media for updating a classifier
US9603554B2 (en) 2012-02-03 2017-03-28 The Arizona Board Of Regents Systems, methods, and media for monitoring the condition of a patient's heart
JP5780979B2 (ja) * 2012-02-17 2015-09-16 株式会社東芝 車両状態検出装置、車両挙動検出装置及び車両状態検出方法
US9443137B2 (en) * 2012-05-08 2016-09-13 Samsung Electronics Co., Ltd. Apparatus and method for detecting body parts
US9449381B2 (en) 2012-09-10 2016-09-20 Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behalf Of Arizona State University Methods, systems, and media for generating and analyzing medical images having elongated structures
CN103150903B (zh) * 2013-02-07 2014-10-29 中国科学院自动化研究所 一种自适应学习的视频车辆检测方法
WO2015017796A2 (en) 2013-08-02 2015-02-05 Digimarc Corporation Learning systems and methods
WO2015074173A1 (en) * 2013-11-19 2015-05-28 Harman International Industries, Incorporated Object tracking
WO2015142325A1 (en) * 2014-03-19 2015-09-24 Empire Technology Development Llc Streaming analytics
KR102445468B1 (ko) 2014-09-26 2022-09-19 삼성전자주식회사 부스트 풀링 뉴럴 네트워크 기반의 데이터 분류 장치 및 그 데이터 분류 장치를 위한 뉴럴 네트워크 학습 방법
CN105718937B (zh) * 2014-12-03 2019-04-05 财团法人资讯工业策进会 多类别对象分类方法及系统
CN104809435B (zh) * 2015-04-22 2018-01-19 上海交通大学 一种基于视觉一致性约束的图像目标分类方法
CN106295666B (zh) * 2015-05-14 2020-03-03 佳能株式会社 获取分类器、检测对象的方法和装置及图像处理设备
US10157467B2 (en) 2015-08-07 2018-12-18 Arizona Board Of Regents On Behalf Of Arizona State University System and method for detecting central pulmonary embolism in CT pulmonary angiography images
US10180782B2 (en) * 2015-08-20 2019-01-15 Intel Corporation Fast image object detector
CN107924493A (zh) * 2015-08-20 2018-04-17 三菱电机株式会社 学习装置和学习识别系统
US9600717B1 (en) * 2016-02-25 2017-03-21 Zepp Labs, Inc. Real-time single-view action recognition based on key pose analysis for sports videos
WO2017155470A1 (en) 2016-03-09 2017-09-14 Agency For Science, Technology And Research Self-determining inspection method for automated optical wire bond inspection
CN107180244B (zh) * 2016-03-10 2020-10-23 北京君正集成电路股份有限公司 一种基于级联分类器的图像检测方法及装置
US9471836B1 (en) * 2016-04-01 2016-10-18 Stradvision Korea, Inc. Method for learning rejector by forming classification tree in use of training images and detecting object in test images, and rejector using the same
CN107341428B (zh) * 2016-04-28 2020-11-06 财团法人车辆研究测试中心 影像辨识系统及自适应学习方法
CN106446832B (zh) * 2016-09-27 2020-01-10 成都快眼科技有限公司 一种基于视频的实时检测行人的方法
CN108072909A (zh) * 2016-11-17 2018-05-25 富士通株式会社 物品检测方法、装置和系统
CN106951899A (zh) * 2017-02-24 2017-07-14 李刚毅 基于图像识别的异常检测方法
CN108931540A (zh) * 2017-05-27 2018-12-04 富士通株式会社 物品检测装置
CN109308480A (zh) * 2017-07-27 2019-02-05 高德软件有限公司 一种图像分类方法及装置
CN109961079B (zh) * 2017-12-25 2021-06-04 北京君正集成电路股份有限公司 图像检测方法及装置
CN110163033B (zh) * 2018-02-13 2022-04-22 京东方科技集团股份有限公司 正样本获取方法、行人检测模型生成方法和行人检测方法
CN108388919B (zh) * 2018-02-28 2021-08-10 大唐高鸿信息通信(义乌)有限公司 车载短距离通信网安全特征的识别和预警方法
CN110414541B (zh) * 2018-04-26 2022-09-09 京东方科技集团股份有限公司 用于识别物体的方法、设备和计算机可读存储介质
JP7102941B2 (ja) * 2018-05-24 2022-07-20 株式会社ジェイテクト 情報処理方法、情報処理装置、及びプログラム
CN109190455B (zh) * 2018-07-18 2021-08-13 东南大学 基于高斯混合和自回归滑动平均模型的黑烟车识别方法
CN109359683B (zh) * 2018-10-15 2021-07-27 百度在线网络技术(北京)有限公司 目标检测方法、装置、终端和计算机可读存储介质
TW202018727A (zh) * 2018-11-09 2020-05-16 財團法人工業技術研究院 整體式學習預測方法與系統
US11720621B2 (en) * 2019-03-18 2023-08-08 Apple Inc. Systems and methods for naming objects based on object content
CN110163183B (zh) * 2019-05-30 2021-07-09 北京旷视科技有限公司 目标检测算法的评估方法、装置、计算机设备和存储介质
US11120273B2 (en) * 2019-06-21 2021-09-14 Gfycat, Inc. Adaptive content classification of a video content item
US11132577B2 (en) * 2019-07-17 2021-09-28 Cognizant Technology Solutions India Pvt. Ltd System and a method for efficient image recognition
CN111144478B (zh) * 2019-12-25 2022-06-14 电子科技大学 一种穿帮镜头的自动检测方法
CN111598833B (zh) * 2020-04-01 2023-05-26 江汉大学 一种目标样本瑕疵检测的方法、装置及电子设备
US11379991B2 (en) * 2020-05-29 2022-07-05 National Technology & Engineering Solutions Of Sandia, Llc Uncertainty-refined image segmentation under domain shift
US20220301291A1 (en) * 2020-05-29 2022-09-22 National Technology & Engineering Solutions Of Sandia, Llc Uncertainty-refined image segmentation under domain shift
CN111783876B (zh) * 2020-06-30 2023-10-20 西安全志科技有限公司 自适应智能检测电路及图像智能检测方法
CN112508062B (zh) * 2020-11-20 2024-07-26 普联国际有限公司 一种开集数据的分类方法、装置、设备及存储介质
CN113673576A (zh) * 2021-07-26 2021-11-19 浙江大华技术股份有限公司 图像检测方法、终端及其计算机可读存储介质

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675711A (en) * 1994-05-13 1997-10-07 International Business Machines Corporation Adaptive statistical regression and classification of data strings, with application to the generic detection of computer viruses
EP1049030A1 (en) * 1999-04-28 2000-11-02 SER Systeme AG Produkte und Anwendungen der Datenverarbeitung Classification method and apparatus
US6424960B1 (en) * 1999-10-14 2002-07-23 The Salk Institute For Biological Studies Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US20050114313A1 (en) * 2003-11-26 2005-05-26 Campbell Christopher S. System and method for retrieving documents or sub-documents based on examples
US7769228B2 (en) * 2004-05-10 2010-08-03 Siemens Corporation Method for combining boosted classifiers for efficient multi-class object detection
KR100682906B1 (ko) * 2004-12-09 2007-02-15 삼성전자주식회사 부스트 알고리즘을 이용한 영상의 얼굴 검출 장치 및 방법
JP4667912B2 (ja) * 2005-03-09 2011-04-13 富士フイルム株式会社 判別器生成装置、判別器生成方法およびそのプログラム
US20070077987A1 (en) * 2005-05-03 2007-04-05 Tangam Gaming Technology Inc. Gaming object recognition
WO2007028166A2 (en) * 2005-09-02 2007-03-08 Blindsight, Inc. A system and method for detecting text in real-world color images
CN100472556C (zh) * 2005-10-09 2009-03-25 欧姆龙株式会社 特定被摄体检测装置及方法
US7756313B2 (en) * 2005-11-14 2010-07-13 Siemens Medical Solutions Usa, Inc. System and method for computer aided detection via asymmetric cascade of sparse linear classifiers
US20070140551A1 (en) * 2005-12-16 2007-06-21 Chao He Banknote validation
JP4221430B2 (ja) * 2006-09-06 2009-02-12 株式会社東芝 識別器及びその方法
US7840059B2 (en) * 2006-09-21 2010-11-23 Microsoft Corporation Object recognition using textons and shape filters
US7756799B2 (en) * 2006-10-27 2010-07-13 Hewlett-Packard Development Company, L.P. Feature selection based on partial ordered set of classifiers
US7962428B2 (en) * 2006-11-30 2011-06-14 Siemens Medical Solutions Usa, Inc. System and method for joint optimization of cascaded classifiers for computer aided detection
US8031961B2 (en) * 2007-05-29 2011-10-04 Hewlett-Packard Development Company, L.P. Face and skin sensitive image enhancement
US20080298643A1 (en) * 2007-05-30 2008-12-04 Lawther Joel S Composite person model from image collection
CN101315670B (zh) * 2007-06-01 2010-08-11 清华大学 特定被摄体检测装置及其学习装置和学习方法
US8160322B2 (en) * 2007-08-02 2012-04-17 Siemens Medical Solutions Usa, Inc. Joint detection and localization of multiple anatomical landmarks through learning
US20090161912A1 (en) * 2007-12-21 2009-06-25 Raviv Yatom method for object detection
CN101853389A (zh) * 2009-04-01 2010-10-06 索尼株式会社 多类目标的检测装置及检测方法
US8861842B2 (en) * 2010-02-05 2014-10-14 Sri International Method and apparatus for real-time pedestrian detection for urban driving
CN102147851B (zh) * 2010-02-08 2014-06-04 株式会社理光 多角度特定物体判断设备及多角度特定物体判断方法
US8401250B2 (en) * 2010-02-19 2013-03-19 MindTree Limited Detecting objects of interest in still images
JP2011181016A (ja) * 2010-03-04 2011-09-15 Fujifilm Corp 判別器生成装置および方法並びにプログラム
JP5394959B2 (ja) * 2010-03-23 2014-01-22 富士フイルム株式会社 判別器生成装置および方法並びにプログラム
US8879800B2 (en) * 2011-06-15 2014-11-04 Honeywell International Inc. Quality driven image processing for ocular recognition system
US20130272575A1 (en) * 2011-11-01 2013-10-17 Intel Corporation Object detection using extended surf features

Also Published As

Publication number Publication date
US20120089545A1 (en) 2012-04-12
CN101853389A (zh) 2010-10-06
WO2010111916A1 (zh) 2010-10-07
US8843424B2 (en) 2014-09-23
EP2416278A1 (en) 2012-02-08
JP2012523027A (ja) 2012-09-27

Similar Documents

Publication Publication Date Title
JP5500242B2 (ja) 複数クラスの目標の検出装置および検出方法
Mukhoti et al. Evaluating bayesian deep learning methods for semantic segmentation
US8787658B2 (en) Image segmentation using reduced foreground training data
US8675974B2 (en) Image processing apparatus and image processing method
US9152926B2 (en) Systems, methods, and media for updating a classifier
CN111767962B (zh) 基于生成对抗式网络的一阶段目标检测方法、系统及装置
Brust et al. Active and incremental learning with weak supervision
WO2023221790A1 (zh) 图像编码器的训练方法、装置、设备及介质
CN110147841A (zh) 基于弱监督及无监督部件检测和分割的细粒度分类方法
CN107844739B (zh) 基于自适应同时稀疏表示的鲁棒性目标追踪方法
WO2015146113A1 (ja) 識別辞書学習システム、識別辞書学習方法および記録媒体
Wang et al. Small vehicle classification in the wild using generative adversarial network
TW202347396A (zh) 用於晶圓之成像資料集中異常之偵測與分類的電腦實施方法以及使用此方法的系統
Jena et al. Modeling an effectual multi‐section You Only Look Once for enhancing lung cancer prediction
Khrissi et al. A performant clustering approach based on an improved sine cosine algorithm
Van Molle et al. Quantifying uncertainty of deep neural networks in skin lesion classification
CN108154511A (zh) 基于子模字典学习的sar图像分割方法
CN115713633A (zh) 动态场景下基于深度学习的视觉slam方法、系统及存储介质
CN114998592A (zh) 用于实例分割的方法、装置、设备和存储介质
CN114677576B (zh) 一种用于目标检测的自适应平衡训练损失的方法、装置及存储介质
Guermazi et al. A Dynamically Weighted Loss Function for Unsupervised Image Segmentation
Zheng et al. Marginal space learning
Khelifi et al. Semantic image segmentation using the ICM algorithm
Korobov et al. Parameters optimization method of the information-extreme object recognition system on the terrain
Zappella et al. Simultaneous motion segmentation and structure from motion

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140108

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140225

LAPS Cancellation because of no payment of annual fees