[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019204518A - 人物追跡方法、装置、機器及び記憶媒体 - Google Patents

人物追跡方法、装置、機器及び記憶媒体 Download PDF

Info

Publication number
JP2019204518A
JP2019204518A JP2019122659A JP2019122659A JP2019204518A JP 2019204518 A JP2019204518 A JP 2019204518A JP 2019122659 A JP2019122659 A JP 2019122659A JP 2019122659 A JP2019122659 A JP 2019122659A JP 2019204518 A JP2019204518 A JP 2019204518A
Authority
JP
Japan
Prior art keywords
frame image
current frame
person
position information
persons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019122659A
Other languages
English (en)
Other versions
JP6868061B2 (ja
Inventor
ジーガン ワン、
Zhigang Wang
ジーガン ワン、
ジエン ワン、
Jian Wang
ジエン ワン、
シュビン リー、
Xubin Li
シュビン リー、
ラ カン、
Kang Le
ラ カン、
ズユ リウ、
Zeyu Liu
ズユ リウ、
シャオ リウ、
Xiao Liu
シャオ リウ、
ハオ スン、
Hao Sun
ハオ スン、
シーレイ ウエン、
Shilei Wen
シーレイ ウエン、
インズ バオ、
Yingze Bao
インズ バオ、
ミンユー チェン、
Mingyu Chen
ミンユー チェン、
エルイ ディン、
Errui Ding
エルイ ディン、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2019204518A publication Critical patent/JP2019204518A/ja
Application granted granted Critical
Publication of JP6868061B2 publication Critical patent/JP6868061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】画像内で行われる人物追跡の正確さを改善する人物追跡方法、装置、機器及び記憶媒体を提供する。【解決手段】人物追跡方法は、対象撮影機器が現時点で撮影した現フレーム画像を取得するステップと、現フレーム画像におけるすべての人物を検知して、すべての人物の第1位置情報を取得するステップと、予め設定した追跡アルゴリズムを用いて現フレーム画像の前のフレーム画像内で追跡できた第1人物の現フレーム画像における第2位置情報を計算するステップと、第2位置情報と第1位置情報とプリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、現フレーム画像におけるすべての人物の現フレーム画像における対象位置情報を確定するステップとを備える。プリセットリストに記憶されている追跡できたすべての歩行者特徴は、複数の撮影機器が撮影した過去の画像に基づいて確定されるものである。【選択図】図2

Description

本発明の実施例は、通信技術分野に関し、特に人物追跡方法、装置、機器及び記憶媒体に関する。
従来技術では、撮影機器で撮影したビデオ又は画像に人物が含まれる可能性があり、異なる画像における人物を追跡する必要がある場合もある。
しかし、空間における人物の位置は常に変化するものである可能性があり、その結果、異なる画像における同じ人物の位置も変化するもので、それにより画像内で行われる人物追跡の正確さが低い。
本発明の実施例は、画像内で行われる人物追跡の正確さを改善するために、人物追跡方法、装置、機器及び記憶媒体を提供する。
第1態様では、本発明の実施例に係る人物追跡方法は、
対象撮影機器が現時点で撮影した現フレーム画像を取得するステップと、
前記現フレーム画像におけるすべての人物を検知して、前記現フレーム画像におけるすべての人物の第1位置情報を取得するステップと、
予め設定した追跡アルゴリズムを用いて前記現フレーム画像の前のフレーム画像内で追跡できた第1人物の前記現フレーム画像における第2位置情報を計算するステップと、
前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定するステップと、を含み、
ここで、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴は、複数の撮影機器が撮影した過去の画像に基づいて確定されるものである。
第2態様では、本発明の実施例に係る人物追跡装置は、
対象撮影機器が現時点で撮影した現フレーム画像を取得するために用いられる取得モジュールと、
前記現フレーム画像におけるすべての人物を検知して、前記現フレーム画像におけるすべての人物の第1位置情報を取得するために用いられる検知モジュールと、
予め設定した追跡アルゴリズムを用いて前記現フレーム画像の前のフレーム画像内で追跡できた第1人物の前記現フレーム画像における第2位置情報を計算するために用いられる計算モジュールと、
前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定するために用いられる確定モジュールと、を含み、
ここで、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴は、複数の撮影機器が撮影した過去の画像に基づいて確定されるものである。
第3態様では、本発明の実施例に係る画像処理機器は、
メモリと、
プロセッサと、
コンピュータプログラムと、を含み、
ここで、前記コンピュータプログラムは、前記メモリに記憶され、且つ第1態様に記載の方法を実施するために、前記プロセッサにより執行されるように構成される。
第4態様では、本発明の実施例に係るコンピュータ可読記憶媒体には、第1態様に記載の方法を実施するための、プロセッサにより執行されるコンピュータプログラムが記憶されている。
本発明の実施例は、人物追跡方法、装置、機器及び記憶媒体を提供し、現フレーム画像におけるすべての人物を検知することにより、前記現フレーム画像におけるすべての人物の第1位置情報を取得し、及び予め設定した追跡アルゴリズムを用いて前記現フレーム画像の前のフレーム画像内で追跡できた第1人物の前記現フレーム画像における第2位置情報を計算し、前記第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定し、前記前記プリセットリストに記憶されている追跡できたすべての歩行者特徴は、複数の撮影機器が撮影した過去の画像に基づいて確定されるものであり、前記対象位置情報は、第1位置情報と第2位置情報のうちより正確な方の位置情報であり、それにより、画像内で行われる人物追跡の正確さを向上させる。
本発明の実施例に係る応用シーンを示す模式図である。 本発明の実施例に係る人物追跡方法のフローチャートである。 本発明の実施例に係る現フレーム画像を示す模式図である。 本発明の実施例に係る人物追跡を示す模式図である。 本発明の他の実施例に係る人物追跡方法のフローチャートである。 本発明の実施例に係る現フレーム画像を示す模式図である。 本発明の実施例に係る人物追跡装置の構造を示す模式図である。 本発明の実施例に係る画像処理機器の構造を示す模式図である。
上記の添付図面により、本発明に明確に開示された実施例を示し、より詳細な説明は後述する。これらの添付図面とテキストの説明は、いかなる方法で本発明の構想範囲を制限するためのものではなく、特定の実施例を参考としながら、当業者に本発明の概念を説明するためのものである。
ここでは、例示的な実施例について詳細に説明し、その例を添付図面に表す。図面に関する以下の説明について、特に明記しない限り、異なる添付図面における同じ数字は同じ又は同様の要素を表す。以下の例示的な実施例に記載された実施形態は、本発明と一致するすべての実施形態を示せず、特許請求の範囲に詳述した、本発明の一部の態様と一致する装置及び方法の例にすぎない。
本発明に係る人物追跡方法は、図1に示す応用シーンに適用できる。図1に示すように、前記応用シーンは、具体的には、例えばスーパーマーケット、ショッピングモールなどの図1に示すような閉鎖環境11にすることができる。閉鎖環境11には複数の撮影機器、例えば、撮影機器12、撮影機器13、撮影機器14、撮影機器15、撮影機器16が設置されており、ここは例示的な説明に過ぎず、前記閉鎖環境における撮影機器の数も、複数の撮影機器が前記閉鎖環境における位置も制限しない。具体的には、複数の撮影機器により前記閉鎖環境における異なる位置を撮影することができる。
本発明に係る人物追跡方法は、従来技術の上記のような技術的問題を解決することを目的とする。
以下、本発明の技術的解決手段及び本願の技術的解決手段でどのように上記の技術的問題を解決するかについて、具体的な実施例を参照しながら詳細に説明する。以下の具体的な実施例は組み合わせて使うことができ、一部の実施例では、同じ又は同様の概念又はプロセスについての詳細な説明を省略する。以下、添付図面を参照しながら、本発明の実施例について説明する。
図2は、本発明の実施例に係る人物追跡方法のフローチャートである。本発明の実施例は、従来技術の上記のような技術的問題に対して、人物追跡方法を提供し、前記方法は具体的に以下のステップを含む。
ステップ201では、対象撮影機器が現時点で撮影した現フレーム画像を取得する。
図1に示すような応用シーンに、人物追跡装置もさらに含まれ、前記人物追跡装置は複数の撮影機器から独立した機器であってもよく、各撮影機器に集積されている部材であってもよい。
人物追跡装置が複数の撮影機器から独立した機器である場合、前記人物追跡装置は複数の撮影機器それぞれに通信接続され、通信接続方法は有線接続でも無線接続でもよい。又は、複数の撮影機器それぞれは1つの人物追跡装置に接続され、各撮影機器に対応する人物追跡装置が互いに通信接続される。
前記人物追跡装置が各撮影機器内に集積された部材である場合、各撮影機器は1つの人物追跡装置を含み、各撮影機器に含まれている人物追跡装置が互いに通信接続される。
図1に示すように、前記人物追跡装置17は、閉鎖環境11におけるローカルコンピュータであってもよく、閉鎖環境11以外のリモートサーバ、クラウドサーバなどであってもよい。又は、前記人物追跡装置17は、具体的に画像処理機能を有する端末機器であってもよい。本実施例において、人物追跡装置17は複数の撮影機器それぞれに通信接続され、具体的には、人物追跡装置17は各撮影機器が撮影した画像情報を受信する。例えば、人物追跡装置17は、撮影機器12のような対象撮影機器が現時点で撮影した現フレーム画像を受信する。
ステップ202では、前記現フレーム画像におけるすべての人物を検知して、前記現フレーム画像におけるすべての人物の第1位置情報を取得する。
人物追跡装置17は、撮影機器12から送信された現フレーム画像を受信した後、前記現フレーム画像における人物を認識し、即ち前記現フレーム画像におけるすべての人物を検知し、且つ現フレーム画像におけるすべての人物の第1位置情報を取得する。
図3に示すように、30は撮影機器12が現時点で撮影した現フレーム画像を示し、人物追跡装置17は、訓練済みの歩行者検知モデルを用いて現フレーム画像30における人物を検知し、例えば、図3に示すような複数の人物,例えば人物A、人物B、人物C、人物D、人物Eを検知し、図3に示す複数の点線枠のような現フレーム画像30におけるすべての人物の境界枠を取得し、ここは例示的な説明に過ぎず、現フレーム画像30に含まれる人物の数と位置を制限するものではない。
例えば、点線枠31は、図3に示すように、複数の人物のうちある人物の境界枠であり、点線枠31に基づいて前記人物が現フレーム画像30における第1位置情報を確定することができ、具体的には、前記人物が現フレーム画像30における第1位置情報は、点線枠31の左上隅、例えば点32の現フレーム画像30における座標及び点線枠31の高さと幅を含む。現フレーム画像30において、その他の人物の第1位置情報はそれと同様であるため、詳細な説明を省略する。
必要に応じて、人物追跡装置17は、現フレーム画像30、現フレーム画像30における人物、及び人物の境界枠を表示しなくてもよく、現フレーム画像30におけるすべての人物の第1位置情報のみを確定した後、前記すべての人物の第1位置情報を記憶する。又は、人物追跡装置17は、現フレーム画像30、現フレーム画像30における人物、及び人物の境界枠を表示してもよく、現フレーム画像30におけるすべての人物の第1位置情報を確定した後、前記すべての人物の第1位置情報を記憶する。即ち、本実施例において、人物の第1位置情報は、人物追跡装置17が歩行者検知モデルを用いて現フレーム画像30における人物を検知して取得したものである。
ステップ203では、予め設定した追跡アルゴリズムを用いて前記現フレーム画像の前のフレーム画像内で追跡できた第1人物の前記現フレーム画像における第2位置情報を計算する。
図4に示すように,40は、現フレーム画像30の前のフレーム画像を示し、41、42、43は、人物追跡装置17が予め設定した追跡アルゴリズム、例えばカーネル化相関フィルタ(kernelized correlation filters、KCF)追跡アルゴリズムを用いて前フレーム画像40内で追跡できた人物であり、ここで、人物41、人物42、人物43を第1人物と記録する。具体的には、人物追跡装置17が前フレーム画像40における人物を追跡した結果は、人物41、人物42、人物43それぞれの前フレーム画像40における位置情報及び人物41、人物42、人物43それぞれの識別情報例えばID番号を含む。人物41、人物42、人物43の前フレーム画像40における位置情報は、具体的に各人物の境界枠の左上隅の前フレーム画像40における座標及び境界枠の高さと幅である。
人物追跡装置17が現フレーム画像30を取得した後、現フレーム画像30及び人物追跡装置17の前フレーム画像40における人物に対する追跡結果に基づいて、KCF追跡アルゴリズムを用いて前フレーム画像40内で追跡できた第1人物、例えば人物41、人物42、人物43の現フレーム画像30における位置情報を計算し、ここでは、人物41、人物42、人物43の現フレーム画像30における位置情報を第2位置情報と記録する。即ち、本実施例において、人物の第2位置情報は、人物追跡装置17が予め設定した追跡アルゴリズム、例えばKCF追跡アルゴリズムを用いて、前フレーム画像40における人物を追跡して取得した前記人物の現フレーム画像30における位置情報である。
追跡プロセスにおいて、人物の位置情報及び外観の特徴を利用する。図4に示すように、現フレーム画像30内で追跡できた人物41、人物42、人物43は、前フレーム画像40内で追跡できた人物41、人物42、人物43に比べて、各人物の位置が変化した。
ステップ204では、前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定する。
ここで、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴は、複数の撮影機器が撮影した過去の画像に基づいて確定されるものである。
本実施例において、人物追跡装置17は、複数の撮影機器が撮影した過去の画像を受信でき、各撮影機器が撮影した過去の画像に基づいて、前記過去の画像における歩行者特徴を確定することができ、且つ前記過去の画像における歩行者特徴に基づいて、プリセットリストを生成し、前記プリセットリストには歩行者特徴及び前記歩行者特徴に対応する歩行者の識別情報、例えばID番号が記憶されている。
図3に示すように、人物追跡装置17は、訓練済みの歩行者検知モデルを用いて現フレーム画像30における人物を検知して、現フレーム画像30におけるすべての人物の境界枠を取得し、それにより検知されたすべての人物の現フレーム画像30における第1位置情報を取得する。図4に示すように、処理装置17は、予め設定した追跡アルゴリズム、例えばKCF追跡アルゴリズムを用いて前フレーム画像40における人物を追跡して取得した前記人物の現フレーム画像30における第2位置情報を取得する。図3に示される人物Aと図4に示される人物41が同一人物であると、図3に示される人物Bと図4に示さるる人物42は同一人物であると、図3に示す人物Cと図4に示す人物43も同一人物であると仮定すると、人物Aの現フレーム画像30における第1位置情報と人物41の現フレーム画像30における第2位置情報は異なる可能性もあり、人物Bの現フレーム画像30における第1位置情報と人物42の現フレーム画像30における第2位置情報も異なる可能性があり、人物Cの現フレーム画像30における第1位置情報と人物43の現フレーム画像30における第2位置情報も異なる可能性があるということが理解できる。したがって、現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定する必要がある。
具体的には、前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定する前記ステップは、前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第1人物の前記現フレーム画像における対象位置情報を確定することと、前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報とに基づいて、前記現フレーム画像内で前記第2位置情報と一致しない第1位置情報に対応する第2人物を確定することと、前記第2人物の前記現フレーム画像における第1位置情報と、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第2人物の前記現フレーム画像における対象位置情報を確定することと、を含む。
例えば、人物41、人物42、人物43の現フレーム画像30における第2位置情報と、現フレーム画像30におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、人物41、人物42、人物43の現フレーム画像30における対象位置情報を確定し、前記対象位置情報は、第1位置情報と第2位置情報のうちより正確な方の位置情報である。
さらに、人物41、人物42、人物43のそれぞれの現フレーム画像30における第2位置情報を現フレーム画像30におけるすべての人物の第1位置情報と比較し、現フレーム画像30におけるすべての人物の第1位置情報から人物41、人物42又は人物43の現フレーム画像30における第2位置情報と一致する第1位置情報を確定する。例えば、比較により、人物Aの現フレーム画像30における第1位置情報と人物41の現フレーム画像30における第2位置情報が一致し、人物Bが現フレーム画像30における第1位置情報と人物42の現フレーム画像30における第2位置情報が一致し、人物Cの現フレーム画像30における第1位置情報と人物43の現フレーム画像30における第2位置情報が一致することを確定し、即ち、人物Aと人物41が一致し、人物Bと人物42が一致し、人物Cと人物43が一致する。このように、人物Dは人物41、人物42、人物43のいずれとも一致せず、人物Eは人物41、人物42、人物43のいずれとも一致せず、現フレーム画像30は撮影機器12が現時点で撮影したものであるため、人物Dと人物Eは現時点に撮影機器12の撮影範囲内に新しく入ってきた人物である可能性があることが分かる。ここでは、追跡できた人物、例えば人物41、人物42、人物43のいずれと一致しない人物を第2人物と記録し、さらに人物Dと人物Eの現フレーム画像30における第1位置情報と、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、人物Dと人物Eの現フレーム画像30における対象位置情報を確定する。
具体的には、前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第1人物の前記現フレーム画像における対象位置情報を確定することは、前記第1人物の前記現フレーム画像における第2位置情報を前記現フレーム画像におけるすべての人物の第1位置情報と比較することと、前記現フレーム画像におけるすべての人物の第1位置情報がいずれも前記第2位置情報と一致しない場合、前記現フレーム画像内で前記第2位置情報に対応する第1領域の画像特徴を抽出することと、前記現フレーム画像内で前記第2位置情報に対応する第1領域の画像特徴を前記プリセットリストに記憶されている追跡できたすべての歩行者特徴と比較することと、前記プリセットリストに前記第1領域の画像特徴と一致する歩行者特徴がある場合、前記第2位置情報を前記第1人物の前記現フレーム画像における対象位置情報とすることとを含む。例えば、人物追跡装置17が人物41の現フレーム画像30における第2位置情報を用いて現フレーム画像30における人物A、人物B、人物C、人物D、人物Eの第1位置情報それぞれとのマッチングを行う時、人物A、人物B、人物C、人物D、人物Eの第1位置情報はいずれも人物41の現フレーム画像30における第2位置情報と一致しない場合、現フレーム画像30における人物41に対応する領域の画像特徴を抽出し、ここでは、現フレーム画像30における人物41、人物42、人物43に対応する領域を第1領域と記録する。図4に示すように、点線枠44は現フレーム画像30における人物41に対応する領域である。点線枠44の位置情報は、人物41の現フレーム画像30における第2位置情報である。さらに、人物追跡装置17は、点線枠44における画像特徴をプリセットリストに記憶されている追跡できたすべての歩行者特徴と比較し、具体的には、前記プリセットリストには追跡できたすべての歩行者特徴及び前記歩行者特徴に対応する歩行者IDが記憶されている。必要に応じて、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴は、人物追跡装置17が図1に示された複数の撮影機器が過去の異なる時点で撮影した画像に基づいて確定されたものであってもよく、前記複数の撮影機器は撮影機器12のような対象撮影機器を含んでもよく、撮影機器12のような対象撮影機器を含まなくてもよい。なお、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴は、図1に示された閉鎖環境11におけるすべての歩行者特徴であってもよいことが理解できる。具体的には、前記プリセットリストに点線枠44における画像特徴と一致する歩行者特徴がある場合、人物41の現フレーム画像30における第2位置情報を人物41の現フレーム画像30における対象位置情報とする。前記プリセットリストに点線枠44における画像特徴と一致する歩行者特徴がない場合、人物41の現フレーム画像30における第2位置情報を破棄し、即ち、人物41の現フレーム画像30における第2位置情報が正確でないと見なす。
同様に、人物追跡装置17が人物42(又は人物43)の現フレーム画像30における第2位置情報を用いて現フレーム画像30における人物A、人物B、人物C、人物D、人物Eの第1位置情報それぞれとのマッチングを行うとき、人物A、人物B、人物C、人物D、人物Eの第1位置情報がいずれも人物42(又は人物43)の現フレーム画像30における第2位置情報と一致しないと、人物追跡装置17はさらに上記プリセットリストに記憶されている歩行者特徴と比較する方法を用いて、人物42(又は人物43)の現フレーム画像30における対象位置情報を確定することができる。
また、前記現フレーム画像におけるすべての人物の第1位置情報に前記第2位置情報と一致する第1位置情報がある場合、前記第2位置情報を前記第1人物の前記現フレーム画像における対象位置情報とする。
具体的には、人物追跡装置17が人物41の現フレーム画像30における第2位置情報を用いて現フレーム画像30における人物A、人物B、人物C、人物D、人物Eの第1位置情報それぞれとのマッチングを行い、人物A、人物B、人物C、人物D、人物Eのうち、例えば人物Aの第1位置情報が人物41の現フレーム画像30における第2位置情報と一致する人物があると、人物41の現フレーム画像30における第2位置情報を人物41の現フレーム画像30における対象位置情報とする。同様に、人物Bの第1位置情報が人物42の現フレーム画像30における第2位置情報と一致すると、人物42の現フレーム画像30における第2位置情報を人物42の現フレーム画像30における対象位置情報とし、人物Cの第1位置情報が人物43の現フレーム画像30における第2位置情報と一致すると、人物43の現フレーム画像30における第2位置情報を人物43の現フレーム画像30における対象位置情報とする。
本発明の実施例は、現フレーム画像におけるすべての人物を検知することにより、前記現フレーム画像におけるすべての人物の第1位置情報を取得し、且つ予め設定した追跡アルゴリズムを用いて前記現フレーム画像の前のフレーム画像内で追跡できた第1人物の前記現フレーム画像における第2位置情報を計算し、前記第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定し、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴は、複数の撮影機器が撮影した過去の画像に基づいて確定されたものであり、前記対象位置情報は、第1位置情報と第2位置情報のうちより正確な方の位置情報であり、それにより画像内で行われる人物追跡の正確さを向上させた。
図5は、本発明の他の実施例に係る人物追跡方法のフローチャートである。上記実施例を基に、前記第2人物の前記現フレーム画像における第1位置情報と、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第2人物の前記現フレーム画像における対象位置情報を確定する前記方法は、具体的に以下のステップを含む。
ステップ501では、前記現フレーム画像内で前記第2人物に対応する第2領域の画像特徴を抽出する。
図3に示すように、点線枠31は、現フレーム画像30内で人物Eが占める領域で、点線枠33は、現フレーム画像30内で人物Dが占める領域であり、ここでは、現フレーム画像30内で人物Eと人物Dが占める領域を第2領域と記録する。具体的には、人物追跡装置17が点線枠31内の画像特徴及び点線枠33内の画像特徴を抽出する。
ステップ502では、前記第2領域の画像特徴をプリセットリストに記憶されている追跡できたすべての歩行者特徴と比較する。
必要に応じて、人物追跡装置17は、点線枠31内の画像特徴をプリセットリストに記憶されている追跡できたすべての歩行者特徴と比較し、且つ点線枠33内の画像特徴をプリセットリストに記憶されている追跡できたすべての歩行者特徴と比較する。
ステップ503では、前記プリセットリストに前記第2領域の画像特徴と一致する歩行者特徴がある場合、前記第2人物の第1位置情報を前記第2人物の前記現フレーム画像における対象位置情報とする。
前記プリセットリストに点線枠31内の画像特徴と一致する歩行者特徴がある場合、人物Eの現フレーム画像30における第1位置情報を人物Eの現フレーム画像30における対象位置情報とする。前記プリセットリストに点線枠31内の画像特徴と一致する歩行者特徴がない場合、人物Eの現フレーム画像30における第1位置情報を破棄し、即ち人物Eの現フレーム画像30における第1位置情報が正確でないと見なす。
同様に、前記プリセットリストに点線枠33内の画像特徴と一致する歩行者特徴がある場合、人物Dの現フレーム画像30における第1位置情報を人物Dの現フレーム画像30における対象位置情報とする。前記プリセットリストに点線枠33内の画像特徴と一致する歩行者特徴がない場合、人物Dの現フレーム画像30における第1位置情報を破棄し、即ち人物Dの現フレーム画像30における第1位置情報が正確でないと見なす。
また、図3に示された人物A、人物Bと人物Cのうち人物Aを例として、人物Aの第1位置情報が図4に示された人物41、人物42、人物43のいずれか一人の現フレーム画像30における第2位置情報いずれとも一致しない場合、人物Dと人物Eの対象位置情報を確定する方法と同様の方法により、人物Aの現フレーム画像30における対象位置情報を確定することもできる。ここでは、具体的なプロセスの詳細な説明を省略する。
また、前記方法は、本実施例を基に、前記第1人物の前記現フレーム画像における対象位置情報と、前記第2人物の前記現フレーム画像における対象位置情報とに基づいて、前記予め設置した追跡アルゴリズムに対応する追跡器のパラメータを更新することをさらに含む。
人物41、人物42、人物43の現フレーム画像30における第2位置情報はいずれも対応する対象位置情報であり、人物Dと人物Eの現フレーム画像30における第1位置情報がいずれも対応する対象位置情報であると仮定すると、図6に示された現フレーム画像30におけるすべての人物の最終位置を確定することができる。
本実施例において、一人の歩行者に1つの追跡器が対応し、人物追跡装置17が現フレーム画像30におけるすべての人物の最終位置を確定した後、現フレーム画像30におけるすべての人物の最終位置に基づいて、現フレーム画像30におけるすべての人物のそれぞれに対応する追跡器のパラメータを更新し、なお、前記追跡器はKCF追跡アルゴリズムのような予め設置した追跡アルゴリズムに関連していることが理解できる。
さらに、前記方法は、本実施例を基に、前記第1人物の前記現フレーム画像における対象位置情報と、前記第2人物の前記現フレーム画像における対象位置情報とに基づいて、前記プリセットリストのうち追跡できた歩行者特徴を更新することを含む。
なお、プリセットリストは、人物41、人物42、人物43、人物D及び人物Eの歩行者特徴を含むが、これらに限定されず、人物追跡装置17が現フレーム画像30におけるすべての人物の最終位置を確定した後、さらに、人物41、人物42、人物43、人物D及び人物Eの現フレーム画像30における最終位置に基づいて、前記プリセットリストにおける人物41、人物42、人物43、人物D及び人物Eそれぞれに対応する歩行者特徴を更新することが理解できる。
本発明の実施例は、予め設定した追跡アルゴリズムに対応する追跡器のパラメータを常に更新することにより、予め設置した追跡アルゴリズムに対応する追跡器が追跡対象の位置と外観の変化に常に適応することができ、画像内での人物追跡の精度を向上させ、また、前記プリセットリストにおける追跡できた歩行者特徴を常に更新することにより、プリセットリストに最新の歩行者特徴が記憶されることを保証し、画像内での人物追跡の精度をさらに向上させる。
図7は、本発明の実施例に係る人物追跡装置の構造を示す模式図である。本発明の実施例に係る人物追跡装置は、人物追跡方法の実施例に係る処理フローを執行することができ、図7に示すように、人物追跡装置70は、取得モジュール71と、検知モジュール72と、計算モジュール73と、確定モジュール74とを含み、ここで、取得モジュール71は、対象撮影機器が現時点で撮影した現フレーム画像を取得するために用いられ、検知モジュール72は、前記現フレーム画像におけるすべての人物を検知して、前記現フレーム画像におけるすべての人物の第1位置情報を取得するために用いられ、計算モジュール73は予め設定した追跡アルゴリズムを用いて前記現フレーム画像の前のフレーム画像内で追跡できた第1人物の前記現フレーム画像における第2位置情報を計算するために用いられ、確定モジュール74は前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定するために用いられ、ここで、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴は、複数の撮影機器が撮影した過去の画像に基づいて確定されるものである。
必要に応じて、確定モジュール74は、具体的には、
前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第1人物の前記現フレーム画像における対象位置情報を確定することと、
前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報とに基づいて、前記現フレーム画像内で前記第2位置情報と一致しない第1位置情報に対応する第2人物を確定することと、
前記第2人物の前記現フレーム画像における第1位置情報と、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第2人物の前記現フレーム画像における対象位置情報を確定することと、に用いられる。
必要に応じて、確定モジュール74は、比較ユニット741と、特徴抽出ユニット742と、確定ユニット743とを含み、比較ユニット741は、前記第1人物の前記現フレーム画像における第2位置情報を前記現フレーム画像におけるすべての人物の第1位置情報と比較するために用いられ、特徴抽出ユニット742は前記現フレーム画像におけるすべての人物の第1位置情報がいずれも前記第2位置情報と一致しない場合、前記現フレーム画像内で前記第2位置情報に対応する第1領域の画像特徴を抽出するために用いられ、比較ユニット741は、さらに、前記現フレーム画像内で前記第2位置情報に対応する第1領域の画像特徴を前記プリセットリストに記憶されている追跡できたすべての歩行者特徴と比較するために用いられ、確定ユニット743は、前記プリセットリストに前記第1領域の画像特徴と一致する歩行者特徴がある場合、前記第2位置情報を前記第1人物の前記現フレーム画像における対象位置情報とするために用いられる。
必要に応じて、確定ユニット743は、さらに、前記現フレーム画像におけるすべての人物の第1位置情報に前記第2位置情報と一致する第1位置情報がある場合、前記第2位置情報を前記第1人物の前記現フレーム画像における対象位置情報とするために用いられる。
必要に応じて、特徴抽出ユニット742は、前記現フレーム画像内で前記第2人物に対応する第2領域の画像特徴を抽出するために用いられ、比較ユニット741は、前記第2領域の画像特徴を前記プリセットリストに記憶されている追跡できたすべての歩行者特徴と比較するために用いられ、確定ユニット743は、前記プリセットリストに前記第2領域の画像特徴と一致する歩行者特徴がある場合、前記第2人物の第1位置情報を前記第2人物の前記現フレーム画像における対象位置情報とするために用いられる。
必要に応じて、人物追跡装置70は、さらに、前記第1人物の前記現フレーム画像における対象位置情報と、前記第2人物の前記現フレーム画像における対象位置情報とに基づいて、前記予め設置した追跡アルゴリズムに対応する追跡器のパラメータを更新するために用いられる更新モジュール75を含む。
必要に応じて、更新モジュール75は、前記第1人物の前記現フレーム画像における対象位置情報と、前記第2人物の前記現フレーム画像における対象位置情報とに基づいて、前記プリセットリストのうち追跡できた歩行者特徴を更新するために用いられる。
図7に示された実施例の人物追跡装置は、上記方法の実施例の技術的解決手段を執行するために用いられることができ、その実施原理と技術効果が同様であるため、ここでは、詳細な説明を省略する。
図8は、本発明の実施例に係る画像処理機器の構造を示す模式図である。本発明の実施例に係る画像処理機器は、人物追跡方法の実施例に係る処理フローを執行することができ、図8に示すように、画像処理機器80は、メモリ81と、プロセッサ82と、コンピュータプログラムと、通信インタフェース83とを含み、ここで、上記実施例に係る人物追跡方法を執行するための、プロセッサ82により執行されるコンピュータプログラムはメモリ81に記憶される。
図8に示された実施例の画像処理機器は、上記方法実施例の技術的解決手段を執行することができ、その実施原理と技術効果が同様であるため、ここでは、詳細な説明を省略する。
また、本実施例は、さらに、プロセッサによる上記実施例に係る人物追跡方法を実施するためのコンピュータプログラムが記憶されているコンピュータ可読記憶媒体をさらに提供する。
本発明に係るいくつかの実施例において、その他の方法で開示された装置及び方法を実施できることが理解できる。例えば、上述の装置の実施例は単なる例示であり、例えば、前記ユニットの分割は論理機能の分割にすぎず、実際に執行する際には別の分割方法もありえ、例えば複数のユニット又は部品を組み合わせて1つのシステムに集積してもよく、又は一部の特徴を無視するか、執行しなくてもよい。さらに、図示又は説明した相互結合又は直接結合又は通信接続は、何らかのインタフェース、装置又はユニットの間接結合又は通信接続であっても、電気的、機械的または他の形態であってもよい。
前記分離部材として説明したユニットは、物理的に分離しても分離しなくてもよく、ユニットとして図示された部材は、物理的ユニットであってもなくてもよく、即ち、一箇所に位置してもよく、又は複数のネットワークユニットに分布してもよい。実際の必要性に応じて、本実施例の手段と目的を実施するために一部又は全部のユニットを選択することができる。
また、本発明の各実施例における各機能ユニットは、1つの処理ユニットに集積されてもよく、各ユニットが物理的に別々に存在してもよく、2つ以上のユニットが1つのユニットに集積されてもよい。上記の集積ユニットは、ハードウェアの形を用いてもよく、ソフトウェア機能ユニット付きハードウェアの形を用いてもよい。
上記ソフトウェア機能ユニットの形で実施された集積ユニットは、コンピュータ可読記憶媒体に格納される。上記ソフトウェア機能ユニットは、記憶媒体に格納され、コンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器などであり得る)又はプロセッサ(processor)に本発明の各実施例に説明された方法の一部のステップを執行させるためのコマンドを含む。前記記憶媒体は、フラッシュドライブ、モバイルハードディスク、読み取り専用メモリ(Read−Only Memory、ROM)、ランダム・アクセス・メモリ(Random Access Memory、RAM)、磁気ディスク、光ディスクなど、プログラムコードを記憶することができる様々な媒体を含む。
説明の便宜及び簡潔さのために、上記の各機能モジュールの分割を例として説明したが、実際の応用において、必要性に応じて上記機能が異なる機能モジュールにより執行されるように構成してもよく、即ち上述の全部又は一部の機能を執行するために、装置の内部構造を異なる機能モジュールに分割することは当業者には明らかであろう。上述の装置の具体的な作業プロセスは、前述方法の実施例における対応のプロセスを参考できるため、ここでは詳細な説明を省略する。
最後に、以上の各実施例は本発明の技術的解決手段を説明するものにすぎず、それに限定されない。前述の各実施例を参照しながら、本発明について詳細に説明したが、当業者であれば、前述の各実施例に記載された技術的解決手段は変更でき、又はその一部又は全部の技術特徴に対して同価置換を行うことができ、これらの変更又は置換に対応する技術的解決手段は、本発明の各実施例の技術的解決手段の範囲から逸脱しないことを理解すべきである。

Claims (16)

  1. 対象撮影機器が現時点で撮影した現フレーム画像を取得するステップと、
    前記現フレーム画像におけるすべての人物を検知して、前記現フレーム画像におけるすべての人物の第1位置情報を取得するステップと、
    予め設定した追跡アルゴリズムを用いて前記現フレーム画像の前のフレーム画像内で追跡できた第1人物の前記現フレーム画像における第2位置情報を計算するステップと、
    前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定する前記ステップと、を含み、
    ここで、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴は、複数の撮影機器が撮影した過去の画像に基づいて確定されるものであること、を特徴とする人物追跡方法。
  2. 前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定する前記ステップは、
    前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第1人物の前記現フレーム画像における対象位置情報を確定することと、
    前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報とに基づいて、前記現フレーム画像内で前記第2位置情報と一致しない第1位置情報に対応する第2人物を確定することと、
    前記第2人物の前記現フレーム画像における第1位置情報と、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第2人物の前記現フレーム画像における対象位置情報を確定することと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第1人物の前記現フレーム画像における対象位置情報を確定することは、
    前記第1人物の前記現フレーム画像における第2位置情報を前記現フレーム画像におけるすべての人物の第1位置情報と比較することと、
    前記現フレーム画像におけるすべての人物の第1位置情報がいずれも前記第2位置情報と一致しない場合、前記現フレーム画像内で前記第2位置情報に対応する第1領域の画像特徴を抽出することと、
    前記現フレーム画像内で前記第2位置情報に対応する第1領域の画像特徴を前記プリセットリストに記憶されている追跡できたすべての歩行者特徴と比較することと、
    前記プリセットリストに前記第1領域の画像特徴と一致する歩行者特徴がある場合、前記第2位置情報を前記第1人物の前記現フレーム画像における対象位置情報とすることと、を含むことを特徴とする請求項2に記載の方法。
  4. 前記現フレーム画像におけるすべての人物の第1位置情報に前記第2位置情報と一致する第1位置情報がある場合、前記第2位置情報を前記第1人物の前記現フレーム画像における対象位置情報とすること、を含むことを特徴とする請求項3に記載の方法。
  5. 前記第2人物の前記現フレーム画像における第1位置情報と、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第2人物の前記現フレーム画像における対象位置情報を確定することは、
    前記現フレーム画像内で前記第2人物に対応する第2領域の画像特徴を抽出することと、
    前記第2領域の画像特徴を前記プリセットリストに記憶されている追跡できたすべての歩行者特徴と比較することと、
    前記プリセットリストに前記第2領域の画像特徴と一致する歩行者特徴がある場合、前記第2人物の第1位置情報を前記第2人物の前記現フレーム画像における対象位置情報とすることと、を含むことを特徴とする請求項2に記載の方法。
  6. 前記方法は、さらに、
    前記第1人物の前記現フレーム画像における対象位置情報と、前記第2人物の前記現フレーム画像における対象位置情報とに基づいて、前記予め設置した追跡アルゴリズムに対応する追跡器のパラメータを更新すること、を含むことを特徴とする請求項2〜5のいずれか1項に記載の方法。
  7. 前記方法は、さらに、
    前記第1人物の前記現フレーム画像における対象位置情報と、前記第2人物の前記現フレーム画像における対象位置情報とに基づいて、前記プリセットリストのうち追跡できた歩行者特徴を更新すること、を含むことを特徴とする請求項2〜5のいずれか1項に記載の方法。
  8. 対象撮影機器が現時点で撮影した現フレーム画像を取得するために用いられる取得モジュールと、
    前記現フレーム画像におけるすべての人物を検知して、前記現フレーム画像におけるすべての人物の第1位置情報を取得するために用いられる検知モジュールと、
    予め設定した追跡アルゴリズムを用いて前記現フレーム画像の前のフレーム画像内で追跡できた第1人物の前記現フレーム画像における第2位置情報を計算するために用いられる計算モジュールと、
    前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記現フレーム画像内でのすべての人物の前記現フレーム画像における対象位置情報を確定するために用いられる確定モジュールと、を含み、
    ここで、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴は、複数の撮影機器が撮影した過去の画像に基づいて確定されるものであること、を特徴とする人物追跡装置。
  9. 前記確定モジュールは、具体的には、
    前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報と、プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第1人物の前記現フレーム画像における対象位置情報を確定することと、
    前記第1人物の前記現フレーム画像における第2位置情報と、前記現フレーム画像におけるすべての人物の第1位置情報とに基づいて、前記現フレーム画像内で前記第2位置情報と一致しない第1位置情報に対応する第2人物を確定することと、
    前記第2人物の前記現フレーム画像における第1位置情報と、前記プリセットリストに記憶されている追跡できたすべての歩行者特徴とに基づいて、前記第2人物の前記現フレーム画像における対象位置情報を確定することと、に用いられることを特徴とする請求項8に記載の人物追跡装置。
  10. 前記確定モジュールは、
    前記第1人物の前記現フレーム画像における第2位置情報を前記現フレーム画像におけるすべての人物の第1位置情報と比較するために用いられる比較ユニットと、
    前記現フレーム画像におけるすべての人物の第1位置情報がいずれも前記第2位置情報と一致しない場合、前記現フレーム画像内で前記第2位置情報に対応する第1領域の画像特徴を抽出するために用いられる特徴抽出ユニットと、
    前記現フレーム画像内で前記第2位置情報に対応する第1領域の画像特徴を前記プリセットリストに記憶されている追跡できたすべての歩行者特徴と比較するために用いられる比較ユニットと、
    前記プリセットリストに前記第1領域の画像特徴と一致する歩行者特徴がある場合、前記第2位置情報を前記第1人物の前記現フレーム画像における対象位置情報とするために用いられる確定ユニットとを含むこと、を特徴とする請求項9に記載の人物追跡装置。
  11. 前記確定ユニットは、さらに、前記現フレーム画像におけるすべての人物の第1位置情報に前記第2位置情報と一致する第1位置情報がある場合、前記第2位置情報を前記第1人物の前記現フレーム画像における対象位置情報とするために用いられること、を特徴とする請求項10に記載の人物追跡装置。
  12. 前記確定モジュールは、
    前記現フレーム画像内で前記第2人物に対応する第2領域の画像特徴を抽出するために用いられる特徴抽出ユニットと、
    前記第2領域の画像特徴を前記プリセットリストに記憶されている追跡できたすべての歩行者特徴と比較するために用いられる比較ユニットと、
    前記プリセットリストに前記第2領域の画像特徴と一致する歩行者特徴がある場合、前記第2人物の第1位置情報を前記第2人物の前記現フレーム画像における対象位置情報とするために用いられる確定ユニットとを含む、ことを特徴とする請求項9に記載の人物追跡装置。
  13. 前記第1人物の前記現フレーム画像における対象位置情報と、前記第2人物の前記現フレーム画像における対象位置情報とに基づいて、前記予め設置した追跡アルゴリズムに対応する追跡器のパラメータを更新するために用いられる更新モジュールをさらに含む、ことを特徴とする請求項9〜12のいずれか1項に記載の人物追跡装置。
  14. さらに、前記第1人物の前記現フレーム画像における対象位置情報と、前記第2人物の前記現フレーム画像における対象位置情報とに基づいて、前記プリセットリストのうち追跡できた歩行者特徴を更新するために用いられる更新モジュールをさらに含む、ことを特徴とする請求項9〜12のいずれか1項に記載の人物追跡装置。
  15. メモリと、
    プロセッサと、
    コンピュータプログラムと、を含み、
    ここで、前記コンピュータプログラムは、前記メモリに記憶され、且つ請求項1〜7のいずれか1項に記載の方法を実施するために、前記プロセッサにより執行されるように構成されること、を特徴とする画像処理機器。
  16. プロセッサによる執行で請求項1〜7のいずれか1項に記載の方法を実施するためのコンピュータプログラムが記憶されている、ことを特徴とするコンピュータ可読記憶媒体。
JP2019122659A 2018-07-02 2019-07-01 人物追跡方法、装置、機器及び記憶媒体 Active JP6868061B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810710538.XA CN110675426B (zh) 2018-07-02 2018-07-02 人体跟踪方法、装置、设备及存储介质
CN201810710538.X 2018-07-02

Publications (2)

Publication Number Publication Date
JP2019204518A true JP2019204518A (ja) 2019-11-28
JP6868061B2 JP6868061B2 (ja) 2021-05-12

Family

ID=67105930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019122659A Active JP6868061B2 (ja) 2018-07-02 2019-07-01 人物追跡方法、装置、機器及び記憶媒体

Country Status (4)

Country Link
US (1) US11348354B2 (ja)
EP (1) EP3531340B1 (ja)
JP (1) JP6868061B2 (ja)
CN (1) CN110675426B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI686748B (zh) * 2018-12-07 2020-03-01 國立交通大學 人流分析系統及人流分析方法
CN111951325B (zh) * 2019-05-14 2024-01-12 虹软科技股份有限公司 位姿跟踪方法、位姿跟踪装置及电子设备
US11043003B2 (en) * 2019-11-18 2021-06-22 Waymo Llc Interacted object detection neural network
CN112749658A (zh) * 2020-04-30 2021-05-04 杨九妹 大数据金融安防系统行人行为分析方法、系统及机器人
CN112989938A (zh) * 2021-02-07 2021-06-18 平安科技(深圳)有限公司 一种行人实时跟踪识别方法、装置、介质及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046647A (ja) * 2002-07-12 2004-02-12 Univ Waseda 動画像データに基づく移動物体追跡方法及び装置
JP2008217714A (ja) * 2007-03-07 2008-09-18 Sogo Keibi Hosho Co Ltd 追跡装置、追跡方法、及び追跡プログラム
JP2010238187A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 警備システムおよび警備方法
JP2014241578A (ja) * 2013-05-17 2014-12-25 キヤノン株式会社 カメラシステム及びカメラ制御装置
JP2017016356A (ja) * 2015-06-30 2017-01-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017163286A (ja) * 2016-03-08 2017-09-14 富士通株式会社 映像処理装置、映像処理方法および映像処理プログラム
JP2018032078A (ja) * 2016-08-22 2018-03-01 Kddi株式会社 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004146647A (ja) 2002-10-25 2004-05-20 Seiko Epson Corp 半導体装置及びその製造方法
CN101162525A (zh) * 2007-11-29 2008-04-16 哈尔滨工程大学 基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法
CN101854516B (zh) * 2009-04-02 2014-03-05 北京中星微电子有限公司 视频监控系统、视频监控服务器及视频监控方法
CN102129690B (zh) * 2011-03-21 2013-01-02 西安理工大学 一种抗环境干扰的人体运动目标的跟踪方法
CN102509306B (zh) * 2011-10-08 2014-02-19 西安理工大学 一种基于视频的特定目标的跟踪方法
CN102982598B (zh) * 2012-11-14 2015-05-20 三峡大学 基于单个摄像头场景配置的视频人数统计方法和系统
CN104050712B (zh) * 2013-03-15 2018-06-05 索尼公司 三维模型的建立方法和装置
CN104281837B (zh) * 2014-09-26 2018-05-25 哈尔滨工业大学深圳研究生院 结合卡尔曼滤波和相邻帧间roi扩大的行人跟踪方法
CN105933650A (zh) * 2016-04-25 2016-09-07 北京旷视科技有限公司 视频监控系统及方法
CN106355603B (zh) * 2016-08-29 2019-10-22 深圳市商汤科技有限公司 人体跟踪方法和人体跟踪装置
CN107341460B (zh) * 2017-06-26 2022-04-22 北京小米移动软件有限公司 人脸跟踪方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046647A (ja) * 2002-07-12 2004-02-12 Univ Waseda 動画像データに基づく移動物体追跡方法及び装置
JP2008217714A (ja) * 2007-03-07 2008-09-18 Sogo Keibi Hosho Co Ltd 追跡装置、追跡方法、及び追跡プログラム
JP2010238187A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 警備システムおよび警備方法
JP2014241578A (ja) * 2013-05-17 2014-12-25 キヤノン株式会社 カメラシステム及びカメラ制御装置
JP2017016356A (ja) * 2015-06-30 2017-01-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017163286A (ja) * 2016-03-08 2017-09-14 富士通株式会社 映像処理装置、映像処理方法および映像処理プログラム
JP2018032078A (ja) * 2016-08-22 2018-03-01 Kddi株式会社 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法

Also Published As

Publication number Publication date
US11348354B2 (en) 2022-05-31
JP6868061B2 (ja) 2021-05-12
CN110675426A (zh) 2020-01-10
EP3531340A2 (en) 2019-08-28
US20190325208A1 (en) 2019-10-24
EP3531340A3 (en) 2019-12-04
EP3531340B1 (en) 2023-05-24
CN110675426B (zh) 2022-11-22

Similar Documents

Publication Publication Date Title
JP6868061B2 (ja) 人物追跡方法、装置、機器及び記憶媒体
US10417503B2 (en) Image processing apparatus and image processing method
US9576183B2 (en) Fast initialization for monocular visual SLAM
CN112666714B (zh) 注视方向映射
JP5399502B2 (ja) 追尾対象選択装置、方法、プログラム及び回路
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
JP6456347B2 (ja) 平面固有の特徴のターゲットのinsitu生成
WO2020156341A1 (zh) 移动目标的检测方法、装置及电子设备和存储介质
CN108027884B (zh) 一种用于监测对象的方法、存储媒体、服务器及设备
KR101923177B1 (ko) 사용자 기반의 증강 현실 정보를 제공하기 위한 장치 및 방법
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20120138627A (ko) 안면 추적 장치 및 방법
KR102458242B1 (ko) 스테레오 카메라로부터 획득된 이미지 페어를 처리하는 장치 및 방법
JP5001930B2 (ja) 動作認識装置及び方法
JP7484985B2 (ja) 認証システム、認証方法、及び、プログラム
JP2022542199A (ja) キーポイントの検出方法、装置、電子機器および記憶媒体
JP2010225118A (ja) 画像処理装置、方法及びプログラム
CN116235210A (zh) 用于处理捕获的图像的系统和方法
JP2015005220A (ja) 情報表示装置及び情報表示方法
US20230351729A1 (en) Learning system, authentication system, learning method, computer program, learning model generation apparatus, and estimation apparatus
JP2017512398A (ja) 映像を提示する方法及び装置
JP6548306B2 (ja) カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法
CN112291701B (zh) 定位验证方法、装置、机器人、外部设备和存储介质
JP2017005582A (ja) 画像処理装置、画像処理方法、及びプログラム
KR102628714B1 (ko) 모바일 단말용 사진 촬영 지원 카메라 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210409

R150 Certificate of patent or registration of utility model

Ref document number: 6868061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250