[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6590609B2 - 画像解析装置及び画像解析方法 - Google Patents

画像解析装置及び画像解析方法 Download PDF

Info

Publication number
JP6590609B2
JP6590609B2 JP2015181897A JP2015181897A JP6590609B2 JP 6590609 B2 JP6590609 B2 JP 6590609B2 JP 2015181897 A JP2015181897 A JP 2015181897A JP 2015181897 A JP2015181897 A JP 2015181897A JP 6590609 B2 JP6590609 B2 JP 6590609B2
Authority
JP
Japan
Prior art keywords
image
imaging means
hand
dimensional position
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015181897A
Other languages
English (en)
Other versions
JP2017059945A (ja
Inventor
矢野 光太郎
光太郎 矢野
内山 寛之
寛之 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015181897A priority Critical patent/JP6590609B2/ja
Priority to US15/261,601 priority patent/US10063843B2/en
Publication of JP2017059945A publication Critical patent/JP2017059945A/ja
Application granted granted Critical
Publication of JP6590609B2 publication Critical patent/JP6590609B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は画像解析装置及び画像解析方法に関し、特に、撮像装置で撮影した画像から人物の動作を解析する画像解析装置に関する。
近年、セキュリティのために店舗内への監視カメラの設置が急速に普及している。そのような監視カメラを使って、映像を取得するだけでなく、映像中の人物を検出することによって混雑度を計測したり、人物の動線を解析したりすることで、店舗のマーケティング調査に使用することも提案されている。更に、マーケティング用途においては、監視カメラに映った人物の動作を解析し、解析した人物の動作から店舗に置かれた商品を手に取る等の興味行動を分析したいという要望もある。
このような動作解析を行う場合、人物の部位の検出精度が十分でないと役に立つ情報が得られない。特許文献1では、画像中の人物の複数の部位を検出して姿勢推定を行う方法が提案されている。しかしながら、顔等の特徴のある部位の検出は比較的容易であるが、胴体や手、足と言った単純な形状の部位は背景に映っている他の物体との区別が困難であるため、精度良く検出できないといった問題点がある。
この問題に対し、特許文献2では、3Dカメラで撮影された三次元画像から人物の頭部と手を検出し、動作を認識する方法が提案されている。
また、特許文献3では、二次元距離データに含まれる人物領域を認識し、人物の行動を解析する方法が提案されている。このような従来例においては、三次元で認識を行うことで精度向上を狙っているが、距離画像の取得のための膨大な処理が必要になるといった問題がある。
更には、特許文献4のように、検出された個々の人物をステレオ立体視して、個々の人物の三次元位置を推定する方法が提案されている。この例では、複数カメラ夫々の画像から検出した頭部の検出結果を統合して三次元位置を推定、人物の移動軌跡を解析している。しかしながら、頭部位置のみからでは人物の動作の解析を行うことはできないといった問題がある。
特開2012−155391号公報 特開2008−84141号公報 特開2010−67079号公報 特開2009−143722号公報
Dalal and Triggs. Histograms of Oriented Gradients for Human Detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (2005) 徐剛、辻三郎著.「3次元ビジョン」.共立出版(1998)
前述の方式を拡張して、複数のカメラ夫々の画像から検出した複数部位の結果を統合して夫々の三次元位置を推定し、動作の解析を行うことは可能であるが、動作の解析に必要な部位が複数のカメラで映っている必要がある。
例えば、店舗に設置された監視カメラを複数台用いてこのような解析処理を行おうとすると、頭部のような部位は複数のカメラで捉えることは容易である。しかしながら、手や足と言った部位は隠れる確率が高く、三次元位置を推定することが困難であった。
本発明は前述の問題点に鑑み、複数の撮像装置で撮影した画像から人物部位を高精度に検出し、その三次元位置を推定できるようにし、更に検出対象お部位が隠れる場合も安定した人物動作の解析を実現できるようにすることを目的とする。
本発明の画像解析装置は、第1の撮像手段および第2の撮像手段から画像を取得する画像取得手段と、前記画像から一つの物体における異なる部位である第1のオブジェクトおよび第2のオブジェクトを夫々検出する検出手段と、前記第1の撮像手段から取得された画像より前記第1のオブジェクトと前記第2のオブジェクトと検出された場合に、当該第1のオブジェクトと当該第2のオブジェクトとを関連付ける関連付け手段と、前記第1の撮像手段および第2の撮像手段の夫々の視野の位置関係を記憶した記憶手段と、前記第1の撮像手段および第2の撮像手段の夫々で撮像された画像から前記第1のオブジェクトが検出された場合に、当該検出結果と前記位置関係とに基づいて前記第1のオブジェクトの三次元位置を推定する第1の推定手段と、前記第1の撮像手段から取得された画像より検出された前記第1のオブジェクトと前記第2のオブジェクトとが前記関連付け手段で関連付けられている場合に、前記第1のオブジェクトの三次元位置に基づいて前記第1の撮像手段から前記第2のオブジェクトまでの距離を推定し、当該推定された距離と、前記第1の撮像手段から取得された画像における前記第2のオブジェクトの検出結果とに基づいて、前記第2のオブジェクトの三次元位置を推定する第2の推定手段とを備えることを特徴とする。
本発明によれば、関連付け手段によって関連付けられた画像中の第1のオブジェクトと第2のオブジェクトにおいて、第1のオブジェクトの三次元位置推定結果を用いて第2のオブジェクトの三次元位置を推定するようにした。これにより、第2のオブジェクトを複数の撮像手段で同時に捉えられない場合においても、その三次元位置を推定することが可能となる。
本発明の実施形態に係る画像解析装置の機能構成を示すブロック図である。 本発明の実施形態に係る画像解析装置の撮影シーンを説明する図である。 本発明の実施形態に係る画像解析装置の処理の流れを示すフローチャートである。 本発明の実施形態に係るカメラで撮影した画像の例を示す図である。 本発明の実施形態に係る部位関連付け部の処理の流れを示すフローチャートである。 本発明の実施形態に係る頭部三次元位置推定部の処理の流れを示すフローチャートである。 本発明の実施形態に係る手三次元位置推定部の処理の流れを示すフローチャートである。 本発明の実施形態に係る画像解析装置のハードウェア構成を示すブロック図である。
以下、本発明に係る実施形態について図面に基づいて説明する。
図8は、本実施形態に係る画像解析装置100のハードウェア構成を示すブロック図である。画像解析装置100は、CPU(Central Processing Unit)1、記憶装置2、入力装置3、及び出力装置4を含んで構成される。なお、各装置は、互いに通信可能に構成され、バス5等により接続されている。
CPU1は、画像解析装置100の動作をコントロールし、記憶装置2に格納されたプログラムの実行等を行う。
記憶装置2は、磁気記憶装置、半導体メモリ等のストレージデバイスであり、CPU1の動作に基づき読み込まれたプログラム、長時間記憶しなくてはならないデータ等を記憶する。本実施形態では、CPU1が、記憶装置2に格納されたプログラムの手順に従って処理を行うことによって、画像解析装置100における各機能及び後述するフローチャートに係る処理が実現される。記憶装置2は、また、本発明の実施形態に係る画像解析装置100が処理対象とする画像および検出結果を記憶する。
入力装置3は、マウス、キーボード、タッチパネルデバイス、ボタン等であり、各種の指示を入力する。入力装置3は、また、カメラ等の撮像装置を含む。
出力装置4は、液晶パネル、外部モニタ等であり、各種の情報を出力する。
なお、画像解析装置100のハードウェア構成は、前述した構成に限られるものではない。例えば、画像解析装置100は、各種の装置間で通信を行うためのI/O装置を備えてもよい。例えば、I/O装置は、メモリーカード、USBケーブル等の入出力部、有線、無線等による送受信部である。
図1は、本実施形態に係る画像解析装置100の機能構成を示すブロック図である。画像解析装置100の処理及び機能は、図1に示す各部により実現される。
以下の実施形態では、複数のカメラで第1のオブジェクトおよび第2のオブジェクトとして、夫々、人物の頭部および人物の手を検出し、夫々の三次元位置を推定する場合について説明する。そして、推定した手の三次元位置から物を手に取る等の動作を認識することで、店舗に設置された監視カメラ映像から顧客の興味行動の解析を行うことを想定する。
第1の撮像部として機能するカメラ101および第2の撮像部として機能するカメラ102は、監視対象のシーンを撮影する。
画像取得部110は、カメラ101およびカメラ102で撮影した画像を夫々取得する。取得した画像は記憶装置2に記憶される。
頭部検出部120、手検出部130は、画像取得部110で取得した画像から夫々画像中に映っている人物の頭部および手を検出する。
部位関連付け部140は、頭部検出部120および手検出部130で検出した頭部および手を人物単位で関連付ける。
撮影情報記憶部150は、カメラ101およびカメラ102の撮影情報をカメラ毎に記憶する。ここで、撮影情報とはカメラで撮影した画像の位置座標と撮影するシーンの三次元空間座標とを対応付ける情報であり、カメラの撮影倍率、撮影方向から決定される。また、撮影情報は、カメラ101とカメラ102で撮影する画像の夫々の視野の幾何学的な位置関係を表す情報を含む。
頭部三次元位置推定部160は、カメラ101およびカメラ102で撮影した画像の夫々から頭部検出部120で検出した結果と、撮影情報記憶部150に記憶されている撮影情報とを用いて頭部の三次元空間での位置座標を推定する。
手三次元位置推定部170は、カメラ101およびカメラ102で撮影した画像の夫々から手検出部130で検出した結果と、撮影情報記憶部150に記憶されている撮影情報とを用いて手の三次元空間での位置座標を推定する。また、部位関連付け部140で頭部と手を関連付けた結果を用いて、頭部三次元位置推定部160で求めた頭部の三次元位置と手検出部130で検出した結果から手の三次元位置を推定する。
動作認識部180は、手三次元位置推定部170で求めた手の三次元位置の時系列データから手の動作を認識する。
認識結果出力部190は、動作認識部180で認識した結果を出力装置4に表示する。
以下、本実施形態の動作について説明する。なお、カメラ101およびカメラ102は図2に示すように、撮影シーンに対して視野を共有するように設置され、以下の説明では撮影するシーンの視野は固定であり、撮影情報は変わらないものとする。
本実施形態の画像解析装置100の解析処理の流れの概略を図3のフローチャートに示す。
まず、S100で、画像取得部110は、カメラ101およびカメラ102で撮影した画像を夫々取得する。ここで取得する画像は、例えば、RGB各8ビットで表現されるビットマップデータである。また、2つの画像は撮影時刻が一致するように同期して取得することが望ましい。取得した各画像は記憶装置2に記憶される。以下では、カメラ101から取得した画像を第1の画像、カメラ102から取得した画像を第2の画像として説明する。
次に、S200で、頭部検出部120、手検出部130は、第1の画像および第2の画像から夫々画像中に映っている人物の頭部および手を検出する。本実施形態では、画像から頭部および手を検出する方法として非特許文献1に記載された人の全身を検出する方法を利用する。但し、人の全身の代わりに夫々頭部および手を識別するモデルを事前学習によって構築して入力画像に適用する。
非特許文献1では、画像から勾配方向ヒストグラム特徴(Histograms of Oriented Gradients)を抽出し、抽出した特徴量をサポートベクターマシンで学習したモデルを用いて人か否かを識別するようにしている。しかし、他の方法を用いてもよい。例えば、抽出する特徴量は勾配方向ヒストグラム特徴に限らず、Haar-like特徴、LBPH特徴(Local Binary Pattern Histogram)等を用いてもよいし、それらを組み合せてもよい。抽出した特徴量は頭部および手の検出のために共用される。
また、人を識別するモデルはサポートベクターマシンに限らず、アダブースト識別器、ランダム分類木(Randomized Tree)等を用いてもよい。頭部および手のモデルが別々に学習され、頭部および手の検出のために夫々適用される。
ここでは、頭部および手の検出結果は、夫々画像中の頭部および手を囲む矩形を表す4つの頂点の位置座標として出力される。また、位置座標と共に検出部位を表すラベルと尤度を出力する。ここで、検出部位を表すラベルは頭部または手を表す。また、尤度は抽出した特徴量と頭部または手を識別するモデルとを照合した結果であり、モデルとの一致度を表す。
次に、S300で、部位関連付け部140は、頭部検出部120および手検出部130で検出した頭部および手を人物単位で関連付ける。以下、処理の詳細を図面を用いて説明する。
図4(a)および図4(b)に、夫々カメラ101およびカメラ102で撮影した画像の例を示す。この例では、カメラ101は人物を側面から捉えており、頭部、手共に見えている。
図4(a)の図中、HE11は頭部検出の結果、HA11、HA12は手検出の結果を示す矩形枠である。一方、カメラ102は人物を背面から捉えており、頭部は見えているが、手は隠れている。
図4(b)の図中、HE21は頭部検出の結果を示す矩形枠である。このように、店舗等の天井に取り付けた監視カメラで人物の動作を解析しようとする状況においては、人物の頭部は複数のカメラで捉えることは可能であるが、カメラによっては、手は隠れている場合が多い。
図5に、部位関連付け部140の処理フローを示す。
まず、S310では、部位関連付け部140は頭部検出部120および手検出部130で検出した頭部および手の検出結果を取得する。
取得した検出結果のうち、ラベルが手である結果に対して以下のS320〜S340の処理を繰り返す。図4に示した事例ではHA11およびHA12に対して処理を行う。
次に、S320では、一つの手検出結果に対して同一画像から検出した頭部を関連部位候補として抽出する。例えば、図4(a)に示した第1の画像の例では、手検出結果HA11に対してラベルが頭部である結果HE11を組として関連部位候補とする。この例では、関連部位候補として1組抽出したが、画像から複数の頭部を検出した場合には複数の組を候補として抽出する。また、それぞれの検出結果の位置座標を用いて手検出結果と頭部検出結果が所定距離内にある組のみに絞り込んで候補とする方が望ましい。
次に、S330では、CPU1は検出結果の位置座標および尤度を用いて関連部位候補の信頼度を算出する。手検出結果HA11と頭部検出結果HE11を組とした候補の夫々の位置座標から矩形枠の中心を求め、変位ベクトルを算出する。また、手および頭部の矩形枠の面積を求め、面積比を算出する。求めた変位ベクトルおよび面積比に対して人物の手と頭部の幾何的関係を表すモデル(以下、人物幾何モデルと称す)と照合し、幾何的信頼度を得る。
ここで、人物幾何モデルは予め多数の人物画像のサンプルを収集し、それらの手と頭部の位置関係の統計量を元に取得した確率モデルである。そして、求めた幾何的信頼度と手検出結果HA11、頭部検出結果HE11の夫々の尤度とを統合し、総合的な信頼度を得る。ここで、統合処理は、例えば、幾何的信頼度と尤度とを所定の重みで線形結合するものを用いる。
次に、S340では、CPU1は求めた関連部位候補の信頼度から手検出結果と頭部検出結果の関連付けを判定する。すなわち、S330で得た信頼度が所定の値以上かどうかを比較し、所定値以上の場合は手検出結果と頭部検出結果を同一人物の部位であるとして関連付ける。
手検出結果HA12に対しても同様にS320〜S340の処理を繰り返す。第2の画像についても同様の処理を繰り返すが、図4(b)に示した例では、第2の画像から手は検出されなかったので処理は行わない。
次に、S400では、頭部三次元位置推定部160は、第1の画像および第2の画像から検出した頭部検出結果から撮影情報記憶部150に記憶されている撮影情報を用いて頭部の三次元空間での位置座標を推定する。
図6に、頭部三次元位置推定部160の処理フローを示す。
S410では、頭部三次元位置推定部160は頭部検出部120で検出した頭部検出結果を取得する。
次に、S420では、CPU1は取得した頭部検出結果を撮影情報記憶部150に記憶されている撮影情報を用いて2つの画像間で対応付ける。
ここで用いる撮像情報は、カメラ101とカメラ102で撮影する画像の幾何学的関係を表す基礎行列であり、エピポーラ幾何によってカメラ間の頭部検出結果を対応付ける。
まず、カメラ101で撮影した第1の画像中の頭部検出結果の位置座標から頭部代表点の座標を求める。
頭部の代表点は、例えば、頭部矩形枠の中心点である。頭部代表点の座標を基礎行列によって射影し、第2の画像中のエピポーラ線を求める。そして、求めたエピポーラ線と第2の画像中の頭部検出結果の代表点の座標との距離を算出し、距離が所定値以下の検出結果を対応させる。
図4の例の場合は、第1の画像から検出された頭部検出結果HE11に対して、第2の画像から検出された頭部検出結果HE21が対応付くかどうかをエピポーラ線との距離によって判定することになる。
距離が所定値を超える場合は対応しない、すなわち2つの画像間で検出された頭部は同一の人物ではないことになる。
以下、HE11とHE21が同一人物として対応付けられたものとして説明する。なお、一つの頭部検出結果に対して複数の結果が対応する場合には別の尺度を利用して一つに絞り込む。例えば、検出された頭部の大きさのカメラ間での関係の整合性や画像の類似性等を用いる。第1の画像中の頭部検出結果が複数ある場合には全ての検出結果に対して対応付けを行う。なお、撮影情報を用いたエピポーラ線の推定および対応付けの詳細については非特許文献2を参照のこと。
次に、S430では、CPU1はS420で対応付けた頭部の組について三次元位置を算出する。
まず、撮影情報記憶部150に記憶されているカメラ101の撮影情報を用いて第1の画像中の頭部検出結果の代表点とカメラ101の中心とを通る三次元空間での直線を求める。
同様に、撮影情報記憶部150に記憶されているカメラ102の撮影情報を用いて第2の画像中の対応する頭部検出結果の代表点とカメラ102の中心とを通る三次元空間での直線を求める。そして、求めた2つの直線の交点を算出し、頭部の三次元位置とする。但し、実際には計算精度に誤差が発生するので2つの直線の距離が最小となる位置での夫々の直線上の点の中点を三次元位置とする。
このように、頭部三次元位置推定部160は、第1のオブジェクトである頭部の三次元位置を推定する第1の三次元位置推定処理を行う。
次に、S500では、手三次元位置推定部170は、第1の画像および第2の画像から検出した手検出結果から撮影情報記憶部150に記憶されている撮影情報を用いて手の三次元空間での位置座標を推定する。
図7に、手三次元位置推定部170の処理フローを示す。
まず、S510では、手三次元位置推定部170は手検出部130で検出した手検出結果を取得する。
次に、S520では、CPU1は取得した手検出結果を撮影情報記憶部150に記憶されている撮影情報を用いて2つの画像間で対応付ける。ここでの処理は頭部三次元位置推定部160の対応付け処理S420と同様にして行うので説明は省略する。
S521において、CPU1は、S510で取得した手検出結果が2つの画像間で対応付けられたか否かを判断する。
S521の判断の結果、対応付けられた組に対してはS530で三次元位置算出処理を行う。
S530の処理は、頭部三次元位置推定部160の三次元位置算出処理S430と同様にして行うので説明は省略する。
一方、S801の判断の結果、カメラ間で対応付けが行われなかった手検出結果(図4の例ではHA11とHA12)に対してはS540に処理を移す。
S540では、カメラ間で対応付けが行われなかった手検出結果に対して、CPU1は部位関連付け部140で関連付けられた頭部検出結果を取得する。図4の例では、HA11とHA12の夫々に対して、HE11を取得する。
次に、S550で、CPU1は取得した頭部検出結果とその三次元位置から検出した手の三次元位置を算出する。このとき、手と頭部が同一人物の部位として関連付けられているので、カメラからの距離がほぼ同じであると仮定する。
まず、撮影情報記憶部150に記憶されているカメラの撮影情報を用いて、手検出結果の代表点とカメラ中心を通る三次元空間での直線を求める。そして、求めた直線上の頭部検出結果のS400で求めた三次元位置と奥行きが同じ点を三次元空間での位置とする。例えば、図4の例では、手検出結果HA11とカメラ101の中心を通る三次元空間での直線上で頭部検出結果HE11と奥行きが同じ点の位置を求めるようにする。手検出結果HA12の三次元位置も同様にして求める。
このように、手三次元位置推定部170は、部位関連付け部140で関連付けられた第1のオブジェクトである人物の頭部の三次元位置から第2のオブジェクトである人物の手の三次元位置を推定する第2の三次元位置推定処理を行う。
第2の画像から検出された手に対しても同様に処理を行う。図4の例の場合は、第2の画像から手が検出されていないので、処理はスキップされる。
次に、S600では、動作認識部180は、手三次元位置推定部170で求めた手の三次元位置の時系列データから手の動作を認識する。すなわち、順次取得された複数の時点での手の三次元位置から手の移動軌跡を求める。例えば、店舗に置かれた商品を手に取る動作を認識する場合には、予め設定された商品棚の空間座標を参照し、求めた移動軌跡から手が商品棚に近づき、その後、離れたかどうかを判定する。
次に、S700では、認識結果出力部190は、動作認識部180で認識した結果を出力装置4に表示する。例えば、カメラで撮影した画像上に認識結果が分かるように手の検出枠を重畳して表示する。
図4の例では、手の映っている第1の画像上にHA11で示した枠を表示するようにする。あるいは、カメラ画像の枠外に「物を手に取る動作検知」等の結果を文字で表示するようにする。また、動作認識部180で認識した結果を対象とする動作毎にその回数を表示するようにしてもよい。
以上説明したS100〜S700の工程は、カメラ101およびカメラ102で撮影した画像について繰り返し行われる。
なお、以上の実施形態では、部位関連付け部140において頭部および手の全ての検出結果を関連部位候補として関連付けを行うようにしたが、カメラ間の検出結果から三次元位置推定が出来ていない検出結果のみについて関連付けを行うようにしてもよい。その場合、頭部および手のカメラ間検出結果による三次元位置推定を夫々先に行い、その結果から部位関連付けの関連部位候補を抽出するようにすればよい。
また、以上の実施形態では、2つのカメラで視野を重複するようにして撮影した画像から動作を解析するようにしたが、3台以上のカメラを用いて処理するようにしてもよい。
また、以上の実施形態では、人物の頭部と手を検出して物を手に取る動作を認識するようにしたが、検出する対象は人物の他の部位であってもよい。
また、この際、頭部の三次元位置から手の三次元位置を推定するようにしたが、頭部が一方のカメラでしか見えない場合には、更に、手の三次元位置から頭部の三次元位置を推定するようにすると、より効果的である。また、本発明は何らかの関連付けができる複数のオブジェクトを検出すれば、人物以外の対象についても適用可能である。
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101 カメラ
102 カメラ
110 画像取得部
120 頭部検出部
130 手検出部
140 部位関連付け部
150 撮影情報記憶部
160 頭部三次元位置推定部
170 手三次元位置推定部
180 動作認識部
190 認識結果出力部

Claims (9)

  1. 第1の撮像手段および第2の撮像手段から画像を取得する画像取得手段と、
    前記画像から一つの物体における異なる部位である第1のオブジェクトおよび第2のオブジェクトを夫々検出する検出手段と、
    前記第1の撮像手段から取得された画像より前記第1のオブジェクトと前記第2のオブジェクトと検出された場合に、当該第1のオブジェクトと当該第2のオブジェクトとを関連付ける関連付け手段と、
    前記第1の撮像手段および第2の撮像手段の夫々の視野の位置関係を記憶した記憶手段と、
    前記第1の撮像手段および第2の撮像手段の夫々で撮像された画像から前記第1のオブジェクトが検出された場合に、当該検出結果と前記位置関係とに基づいて前記第1のオブジェクトの三次元位置を推定する第1の推定手段と、
    前記第1の撮像手段から取得された画像より検出された前記第1のオブジェクトと前記第2のオブジェクトとが前記関連付け手段で関連付けられている場合に、前記第1のオブジェクトの三次元位置に基づいて前記第1の撮像手段から前記第2のオブジェクトまでの距離を推定し、当該推定された距離と、前記第1の撮像手段から取得された画像における前記第2のオブジェクトの検出結果とに基づいて、前記第2のオブジェクトの三次元位置を推定する第2の推定手段とを備えることを特徴とする画像解析装置。
  2. 複数の時点での前記第2のオブジェクトの三次元位置から前記第2のオブジェクトの動作を認識する動作認識手段を備えることを特徴とする請求項1に記載の画像解析装置。
  3. 前記検出手段により同一画像から検出された第1のオブジェクトと前記第2のオブジェクトとの組み合わせに対して、当該組み合わせの幾何的関係の信頼度と、前記第1のオブジェクトの尤度と、前記第2のオブジェクトの尤度とを統合して総合的な信頼度を算出する算出手段と、
    前記総合的な信頼度が所定値以上であるかを判定する判定手段とをさらに備え、
    前記関連付け手段は、前記総合的な信頼度が所定値以上であれば、前記組み合わせにおける前記第1のオブジェクトと前記第2のオブジェクトとを関連付けることを特徴とする請求項1または2に記載の画像解析装置。
  4. 前記第1のオブジェクトおよび第2のオブジェクトは人物の部位であることを特徴とする請求項1ないしのいずれか1項に記載の画像解析装置。
  5. 前記第1のオブジェクトは人物の頭部であり、前記第2のオブジェクトは人物の手であることを特徴とする請求項4に記載の画像解析装置。
  6. 複数の時点での前記人物の手の三次元位置から人物の手の動作を認識する動作認識手段を備えることを特徴とする請求項5に記載の画像解析装置。
  7. 前記人物の手の動作は人物が物を手に取る動作であることを特徴とする請求項6に記載の画像解析装置。
  8. 第1の撮像手段および第2の撮像手段から画像を取得する画像取得工程と、
    前記画像から一つの物体における異なる部位である第1のオブジェクトおよび第2のオブジェクトを夫々検出する検出工程と、
    前記第1の撮像手段から取得された画像より前記第1のオブジェクトと前記第2のオブジェクトと検出された場合に、当該第1のオブジェクトと当該第2のオブジェクトとを関連付ける関連付け工程と、
    前記第1の撮像手段および第2の撮像手段の夫々で撮像された画像から前記第1のオブジェクトが検出された場合に、当該検出結果と、前記第1の撮像手段および第2の撮像手段の夫々の視野の位置関係とに基づいて前記第1のオブジェクトの三次元位置を推定する第1の推定工程と、
    前記第1の撮像手段から取得された画像より検出された前記第1のオブジェクトと前記第2のオブジェクトとが前記関連付け工程で関連付けられている場合に、前記第1のオブジェクトの三次元位置に基づいて前記第1の撮像手段から前記第2のオブジェクトまでの距離を推定し、当該推定された距離と、前記第1の撮像手段から取得された画像における前記第2のオブジェクトの検出結果とに基づいて、前記第2のオブジェクトの三次元位置を推定する第2の推定工程とを備えることを特徴とする画像解析方法。
  9. 請求項8に記載の画像解析方法の各工程をコンピュータに実行させるためのプログラム。
JP2015181897A 2015-09-15 2015-09-15 画像解析装置及び画像解析方法 Active JP6590609B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015181897A JP6590609B2 (ja) 2015-09-15 2015-09-15 画像解析装置及び画像解析方法
US15/261,601 US10063843B2 (en) 2015-09-15 2016-09-09 Image processing apparatus and image processing method for estimating three-dimensional position of object in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181897A JP6590609B2 (ja) 2015-09-15 2015-09-15 画像解析装置及び画像解析方法

Publications (2)

Publication Number Publication Date
JP2017059945A JP2017059945A (ja) 2017-03-23
JP6590609B2 true JP6590609B2 (ja) 2019-10-16

Family

ID=58236930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181897A Active JP6590609B2 (ja) 2015-09-15 2015-09-15 画像解析装置及び画像解析方法

Country Status (2)

Country Link
US (1) US10063843B2 (ja)
JP (1) JP6590609B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10169647B2 (en) * 2016-07-27 2019-01-01 International Business Machines Corporation Inferring body position in a scan
GB2560177A (en) 2017-03-01 2018-09-05 Thirdeye Labs Ltd Training a computational neural network
GB2560387B (en) 2017-03-10 2022-03-09 Standard Cognition Corp Action identification using neural networks
US20230107110A1 (en) * 2017-04-10 2023-04-06 Eys3D Microelectronics, Co. Depth processing system and operational method thereof
EP3665647A4 (en) * 2017-08-07 2021-01-06 Standard Cognition, Corp. PREDICTION OF INVENTORY EVENTS USING FOREGROUND / BACKGROUND PROCESSING
US10474988B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
JP2019133437A (ja) 2018-01-31 2019-08-08 キヤノン株式会社 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
JP6973175B2 (ja) * 2018-02-27 2021-11-24 富士通株式会社 画像選択プログラム、情報処理装置、システム、および画像選択方法
AU2021204584A1 (en) * 2021-03-17 2022-10-06 Sensetime International Pte. Ltd. Methods, apparatuses, devices and storage media for detecting correlated objects involved in image
WO2023058241A1 (ja) * 2021-10-08 2023-04-13 富士通株式会社 追従プログラム、追従方法および情報処理装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5561526A (en) * 1994-05-26 1996-10-01 Lockheed Missiles & Space Company, Inc. Three-dimensional measurement device and system
JPH09187038A (ja) * 1995-12-27 1997-07-15 Canon Inc 3次元形状抽出装置
JPH11155152A (ja) * 1997-11-21 1999-06-08 Canon Inc 三次元形状情報入力方法及び装置及び画像入力装置
JP2002259984A (ja) * 2001-03-01 2002-09-13 Matsushita Electric Ind Co Ltd 動作解析装置及び動作解析方法
US6915008B2 (en) * 2001-03-08 2005-07-05 Point Grey Research Inc. Method and apparatus for multi-nodal, three-dimensional imaging
JP4136859B2 (ja) * 2003-01-10 2008-08-20 キヤノン株式会社 位置姿勢計測方法
EP1757087A4 (en) * 2004-04-16 2009-08-19 James A Aman AUTOMATIC VIDEO RECORDING OF EVENTS, PURSUIT AND CONTENT PRODUCTION SYSTEM
JP4182117B2 (ja) * 2006-05-10 2008-11-19 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP4922715B2 (ja) 2006-09-28 2012-04-25 タカタ株式会社 乗員検出システム、警報システム、制動システム、車両
JP4689639B2 (ja) * 2007-04-25 2011-05-25 キヤノン株式会社 画像処理システム
JP2009143722A (ja) 2007-12-18 2009-07-02 Mitsubishi Electric Corp 人物追跡装置、人物追跡方法及び人物追跡プログラム
US8229595B2 (en) * 2008-06-19 2012-07-24 Seelinger Michael J Method and system for providing autonomous control of a platform
JP2010067079A (ja) 2008-09-11 2010-03-25 Dainippon Printing Co Ltd 行動解析システムおよび行動解析方法
JP5448468B2 (ja) * 2009-01-21 2014-03-19 セコム株式会社 取引監視装置
US9536348B2 (en) * 2009-06-18 2017-01-03 Honeywell International Inc. System and method for displaying video surveillance fields of view limitations
JP5480710B2 (ja) * 2010-04-28 2014-04-23 グローリー株式会社 同一対象物判定装置および同一対象物判定方法
JP5658500B2 (ja) * 2010-07-26 2015-01-28 キヤノン株式会社 情報処理装置及びその制御方法
JP5715833B2 (ja) 2011-01-24 2015-05-13 パナソニック株式会社 姿勢状態推定装置および姿勢状態推定方法
US8638989B2 (en) * 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
JP5840022B2 (ja) * 2012-02-17 2016-01-06 キヤノン株式会社 立体画像処理装置、立体画像撮像装置、立体画像表示装置
US9779546B2 (en) * 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods

Also Published As

Publication number Publication date
US20170076454A1 (en) 2017-03-16
US10063843B2 (en) 2018-08-28
JP2017059945A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6590609B2 (ja) 画像解析装置及び画像解析方法
JP5594672B2 (ja) 物体認識装置および物体認識方法
JP6534499B1 (ja) 監視装置、監視システム、及び、監視方法
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
JP6013241B2 (ja) 人物認識装置、及び方法
JP4653606B2 (ja) 画像認識装置、方法およびプログラム
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
JP4894741B2 (ja) 情報処理装置および情報処理方法、プログラム、並びに記録媒体
JP2018116692A (ja) 人流解析装置およびシステム
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
WO2020137193A1 (ja) 人検出装置および人検出方法
JP5047658B2 (ja) カメラ装置
CN113228117B (zh) 创作装置、创作方法和记录有创作程序的记录介质
CN106406507B (zh) 图像处理方法以及电子设备
JP2005250692A (ja) 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
WO2021095095A1 (ja) カメラ校正装置、カメラ校正方法及びカメラ校正プログラムが格納された非一時的なコンピュータ可読媒体
JP2017097549A (ja) 画像処理装置、方法、及びプログラム
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
JP7152651B2 (ja) プログラム、情報処理装置、及び情報処理方法
Lora et al. A geometric approach to multiple viewpoint human body pose estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190917

R151 Written notification of patent or utility model registration

Ref document number: 6590609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151