[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPWO2020195376A1 - 監視装置、不審オブジェクト検出方法、およびプログラム - Google Patents

監視装置、不審オブジェクト検出方法、およびプログラム Download PDF

Info

Publication number
JPWO2020195376A1
JPWO2020195376A1 JP2021508788A JP2021508788A JPWO2020195376A1 JP WO2020195376 A1 JPWO2020195376 A1 JP WO2020195376A1 JP 2021508788 A JP2021508788 A JP 2021508788A JP 2021508788 A JP2021508788 A JP 2021508788A JP WO2020195376 A1 JPWO2020195376 A1 JP WO2020195376A1
Authority
JP
Japan
Prior art keywords
attribute
person
change
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021508788A
Other languages
English (en)
Other versions
JP7201072B2 (ja
Inventor
亮磨 大網
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020195376A1 publication Critical patent/JPWO2020195376A1/ja
Application granted granted Critical
Publication of JP7201072B2 publication Critical patent/JP7201072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

オブジェクトの行動から判別できない不審なオブジェクトの属性変化を検出できる監視装置等を提供する。対応付け部は、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクトを対応付け、属性変化検出部は、時系列の画像データから、同一のオブジェクトおよび付帯物の少なくとも一方の属性の変化を検出し、不審オブジェクト検出部は、属性の変化に基づいて、不審なオブジェクトを検出する。

Description

本発明は、監視装置、不審オブジェクト検出方法、および記録媒体に関し、特に、不審なオブジェクトを検出する監視装置に関する。
時系列の画像から検出されたオブジェクトの行動に基づいて、不審なオブジェクトを検出する関連技術が存在する。特許文献1には、監視映像に映る人物の行動を検出して、検出した人物の行動を、不審行動のパターンとマッチングすることが記載されている。不審行動のパターンには、それぞれ「不審度」(不審さの度合い)が紐付けられている。特許文献1に記載の技術は、人物の「不審度」が閾値を超えた場合に、警報を出力する。
特許文献2、3及び4には、人物の顔の特徴及び外見の特徴の少なくとも一方を用いて、指定された人物の特徴と時系列の画像から検出された人物の特徴とを照合し、この照合結果を利用することによって、人物を追跡する技術が記載されている。
具体的には、特許文献2や特許文献3では、人物の追跡において、衣服が変わった場合に、その衣服の特徴を新たに追加して人物を追跡する技術について記載されている。一方、特許文献4では、人物を追跡して万引き行為を検出する技術について記載されている。ここでは、万引きの後で衣服のポケットが膨らむ、あるいは速足になるといった変化を検知して、追跡対象である人物が不審かどうかを判定することが記載されている。
特開2011−107765号公報 特開2014−16968号公報 特開2016−127563号公報 特開2016−057908号公報
特許文献1に記載の関連技術では、例えば、人間(オブジェクト)が、監視映像に映らない場所で、変装したり、あるいは携行物を置いて来たりしたことを検出できない。
特許文献2、3に記載の技術では、衣服が変化したこと自体を不審と判定しているわけではないため、衣服を着替えた人物を不審者として抽出し、アラートを挙げることはできない。また、特許文献4に記載の技術では、万引きという特有の行為に対して想定される、同一性を逸しない範囲での人物の衣服や歩容の変化、を検知しているのみである。このため、人物の衣服や歩容自体が他のものに切り替わったことを検知し、不審者としてアラートを挙げることはできない。
本発明は、上記の課題に鑑みてなされたものであり、オブジェクトの行動から判別できない不審なオブジェクトを検出できる監視装置等を提供することを主要な目的とする。
本発明の一態様に係わる監視装置は、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクトを対応付ける対応付け手段と、前記時系列の画像データから、前記同一のオブジェクトおよびその付帯物の少なくとも一方の属性の変化を検出する属性変化検出手段と、前記属性の変化に基づいて、不審なオブジェクトを検出する不審オブジェクト検出手段とを備える。
本発明の一態様に係わる不審オブジェクト検出方法は、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクトを対応付け、前記時系列の画像データから、前記同一のオブジェクトおよびその付帯物の少なくとも一方の属性の変化を検出し、前記属性の変化に基づいて、不審なオブジェクトを検出することを含む。
本発明の一態様に係わる記録媒体は、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクトを対応付ける処理と、前記時系列の画像データから、前記同一のオブジェクトおよびその付帯物の少なくとも一方の属性の変化を検出する処理と、前記属性の変化に基づいて、不審なオブジェクトを検出する処理とをコンピュータに実行させるプログラムを記録する。
本発明の一態様によれば、オブジェクトの行動から判別できない不審なオブジェクトを検出できる。
実施形態1に係わる監視装置の構成を示すブロック図である。 実施形態1に係わる監視装置の動作フローを示すフローチャートである。 実施形態2に係わる監視装置の構成を示すブロック図である。 実施形態2に係わる監視装置の動作フローを示すフローチャートである。 実施形態3に係わる監視装置の構成を示すブロック図である。 実施形態3に係わる監視装置の動作フローを示すフローチャートである。 実施形態4に係わる監視装置の構成を示すブロック図である。 例外情報の一例を示す表である。 実施形態4に係わる監視装置の動作フローを示すフローチャートである。 実施形態5に係わる監視装置の構成を示すブロック図である。 実施形態6に係わるハードウェア構成を示す図である。
〔実施形態1〕
図1及び図2を参照して、実施形態1に関して説明する。
(監視装置100)
図1は、実施形態1に係わる監視装置100の構成を示すブロック図である。図1に示すように、監視装置100は、対応付け部110、属性変化検出部120、及び不審オブジェクト検出部130を備えている。
(対応付け部110)
対応付け部110は、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクト同士を対応付ける。対応付け部110は、対応付け手段の一例である。例えば、対応付け部110は、同一のオブジェクトの識別情報(例えば、各オブジェクトにそれぞれ付加されたラベル)を紐付けて、図示しないメモリに格納する。
オブジェクトとは、画像データにおいてモニタリングの対象となる物体である。例えば、オブジェクトは移動体(人物、車両など)、または設置物である。オブジェクトの属性情報は、オブジェクトの属性に関する情報である。オブジェクトの属性とは、オブジェクトに固有の特徴であり、オブジェクトのモダリティを形成するものである。モダリティとは、様相、雰囲気、あるいは、人間の五感による感じられ方を意味する。なお、ここでいう固有の特徴とは、観測対象期間内で固有であればよく、半永久的に固有である必要はない。
特に、オブジェクトが人物である場合、オブジェクトの属性は、人物の外見上の個性を形成する1または複数の特徴であり、具体的には、人物の顔、虹彩、歩容、体型、および髪形のうち、少なくとも一つを含む。
また、オブジェクトの付帯物の特徴もオブジェクトの属性に含まれる。付帯物とは、あるオブジェクトに付帯している他のオブジェクトのことである。例えば、オブジェクトが人物である場合、付帯物は、鞄、スーツケース、手荷物、衣服、履物、装飾品(例えば、マスク、メガネ、帽子など)、またはその他の持ち物である。さらに、付帯物は、人物の顔や髪形など、装飾と一体となった人物の部位も含む。さらに、付帯物自体の属性も、オブジェクトの属性の一部であってもよい。付帯物の属性は、付帯物の色、大きさ、形状、模様、数、位置、および質感のうち少なくとも一つを含む。
付帯物は、衣服のように、オブジェクトと区別せずに検出されるものもあれば、持ち物のように、オブジェクトから区別して検出されるものもある。あるいは、人物(オブジェクトの一例である)が背中に背負ったリュックのように、オブジェクトに密着している付帯物は、オブジェクトと一緒に(すなわち一体として)検出されることもある。ここでは、オブジェクトと付帯物とが不可分に検出されるかどうかによらず、付帯物の特徴をオブジェクトの属性の一部として扱う。
なお、オブジェクトと区別して検出される付帯物の場合には、そのオブジェクトの近傍(例えばオブジェクトの位置から所定範囲内)にあり、かつ、そのオブジェクトに付随して移動する物体が、オブジェクトの付帯物として検出される。
対応付け部110は、オブジェクトの属性情報および位置情報の少なくとも一方に基づいて、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクト同士を対応付ける。以下では、対応付け部110による同一のオブジェクトの対応付けについての第一から第三の例を説明する。
第一の例では、対応付け部110は、オブジェクトの位置情報に基づいて、複数のオブジェクトのうち、同一のオブジェクト同士を対応付ける。オブジェクトの位置情報は、各画像データにおけるオブジェクトの領域の位置座標を含む。例えば、時系列の画像データから検出されたオブジェクトの位置情報を用いて、同一のオブジェクトを対応付けることによって、オブジェクトをトラッキング(追跡)することができる。なお、オブジェクトをトラッキングする方法は、例えば特許文献2〜4に記載されている。
位置座標は、画像上の位置座標であってもよいし、画像上の位置座標をカメラの位置や姿勢を表すカメラパラメータによって変換して得られる実世界座標系であってもよい。カメラパラメータは、予めキャリブレーションを行うことで算出できる。また、オブジェクトの追跡では、対応付け部110は、オブジェクトの属性のほかに、オブジェクトの外見の類似性に関する情報も併せて用いるようにしてもよい。例えば、対応付け部110は、オブジェクトの領域の画像の視覚的特徴量(色、模様、形状など)の類似度、動きの類似度等も併せて、オブジェクトの追跡に用いてもよい。
第二の例では、対応付け部110は、オブジェクトの属性情報に基づいて、複数のオブジェクトのうち、同一のオブジェクト同士を対応付ける。この場合、対応付け部110は、オブジェクトの属性情報を用いて、オブジェクトの同一性を判定し、さらにオブジェクトの同一性判定結果を出力する。例えば、対応付け部110は、人物の属性情報の間の類似度または距離に基づくスコアを、オブジェクトを同一性判定するための尺度として算出する。
特に、オブジェクトが人物である場合、対応付け部110は、時系列の画像データにおいて検出された複数の人物の間で、顔照合、虹彩照合、またはその他の生体情報を用いた照合で人物の識別を行うことによって、同一の人物を対応付けてもよい。なお、人物の同一性判定は、図示しない識別手段によって行われてもよい。この場合、対応付け部110は、識別手段による人物の同一性判定結果に基づいて、同一の人物を対応付ける。
属性情報が複数の要素を含む場合、対応付け部110は、複数の属性情報を併用して、同一のオブジェクトを対応付けてもよい。この場合、対応付け部110は、複数の属性情報に基づくオブジェクトの同一性判定結果を、各属性情報によるオブジェクトの同一性判定精度に応じて重みを付ける。例えば、対応付け部110は、オブジェクトの同一性判定結果を示す尤度(例:オブジェクトAである可能性は30%、オブジェクトBである可能性は70%)に対し、0から1までの間の係数を付加する。
対応付け部110は、重み付けした同一性判定結果を統合する。重みづけの一つの方法は、各属性情報によるオブジェクトの同一性判定の精度に基づいて、重みを決定することである。例えば、各属性情報によるオブジェクトの同一性判定のテストを繰り返し、正しく判定できた回数または割合に基づいて、各属性情報によるオブジェクトの同一性判定の精度が決定される。対応付け部110は、各属性情報によるオブジェクトの同一性判定結果を、それぞれ重み付けしてから、足し合わせる。ただし、統合の方法はこれに限らない。あるいは、対応付け部110は、複数の属性に対する同一性判定結果を統合するために、任意の方法を用いることができる。対応付け部110は、統合した同一性判定結果に基づいて、同一のオブジェクトを対応付ける。
第三の例では、対応付け部110は、オブジェクトの属性情報および位置情報の両方を用いて、オブジェクトの同一性判定および同一のオブジェクトの対応付けを行う。この場合、対応付け部110は、属性情報に基づくオブジェクトの同一性判定結果と、位置情報に基づくオブジェクトの同一性判定結果とを、それぞれ重み付けする。そして、対応付け部110は、重み付けした2つの同一性判定結果を統合した結果に基づいて、同一のオブジェクトを対応付ける。あるいは、対応付け部110は、上述のように、他の方法によって、2つの同一性判定結果を統合してもよい。
なお、属性情報は、すべての画像データから抽出できるとは限らない。画像データから属性情報を抽出できない場合、第一の例で述べたように、対応付け部110は、位置情報をベースとした追跡により、オブジェクトの同一性を判定する。このように、時系列の画像間で同一性判定の基準が変わり得る。またその結果、同一性判定の信頼度も変化する。よって、対応付け部110は、対応付けの情報に、画像ごとの同一性判定の信頼度を表す情報も含めてもよい。
対応付けの信頼度は、オブジェクトの周囲に他のオブジェクトが存在するかどうか、そして、オブジェクト同士の属性が類似しているかどうかということにも依存する。よって、対応付け部110は、周囲の他のオブジェクトの分布状況も併せて考慮して、信頼度を求めてもよい。
対応付け部110は、上述したいずれかの方法によって、時系列の画像データから検出されたオブジェクトのうち、同一のオブジェクトを対応付ける。すなわち、対応付け部110は、オブジェクト同士の同一性を表すスコアが一定値以上の場合に、それらのオブジェクトは同一であると判定し、それらのオブジェクトを対応付ける。そして、対応付け部110は、対応付けられた同一のオブジェクトごとにグループ化する。また、対応付けられた同一のオブジェクトのそれぞれの属性情報もグループ化される。
上述のように、属性情報は、常に抽出できるとは限らないため、時系列において飛び飛びに抽出される場合もある。すなわち、ある時刻には、一部の属性情報のみが抽出され、他の時刻にはそれ以外の属性情報も抽出されるといった状況が起こる。対応付け部110は、このように抽出された属性情報も、同一のオブジェクトであると判定されたグループに対して対応付ける。
対応付け部110は、対応付けしたオブジェクトの同一性判定情報を、属性変化検出部120へ送信する。オブジェクトの同一性判定情報は、対応付け部110が同一であると判定したオブジェクトのグループを区別する情報と、そのグループに対応付けられたオブジェクトの属性情報とを含む。なお、対応付け部110が同一であると判定したオブジェクトのグループを区別する情報をグループID(IDentification)とも称する。さらに、オブジェクトの同一性判定情報は、オブジェクトの位置情報も含んでいてもよい。
なお、以下のケース1、ケース2、及びケース3に例示するように、対応付け部110は、周囲の他のオブジェクトの分布状況や、環境における制約等の情報も併せて用い、時系列の画像データから検出されたオブジェクトのうち、同一の人物(オブジェクトの一例)を間接的に対応付けてもよい。これらのケースでは、対応付け部110は、オブジェクトの属性情報およびオブジェクトの位置情報の少なくとも一方を用いるとともに、環境等に関する情報も用いて、同一の人物を対応付ける。
ケース1:検出された人物の周囲には、他の人物が存在しない。
ケース2:他の人物はすべて識別されており、ただ一人の識別されていない人物がいる。
ケース3:部屋の出入り口が一つであって、部屋の中には他の人物がいない状況で、一人が入室後に一人が退出した。
(属性変化検出部120)
属性変化検出部120は、時系列の画像データから、同一のオブジェクトおよび付帯物の少なくとも一方の属性の変化を検出する。すなわち、属性変化検出部120は、同一と判定されたオブジェクトのうち、付帯物の属性を含む一部の属性が同一性を示さないオブジェクトを検出する。属性変化検出部120は、属性変化検出手段の一例である。
具体的には、属性変化検出部120は、対応付け部110から、オブジェクトの同一性判定情報を受信する。属性変化検出部120は、オブジェクトの同一性判定情報を用いて、時系列の画像データにおいて、同一のオブジェクトごとにグループ化し、さらに同一のオブジェクトの属性の一貫性をチェックする。
より詳細には、属性変化検出部120は、時系列の画像データにおいて特定した同一のオブジェクトの属性の間の類似度を計算することによって、属性の変化を検出する。以下では、オブジェクトまたは付帯物の属性の変化を、単に属性変化と呼ぶ場合がある。
例えば、属性変化検出部120は、時系列の画像データの間で、同一のオブジェクトの付帯物の色、大きさ、形状、模様、数、位置、および質感のうち、少なくとも1つが変化したことを、属性変化として検出する。ただし、ここで説明した属性変化は一例である。属性変化検出部120は、オブジェクトまたは付帯物のどのような属性変化を検出してもよい。
例えば、オブジェクトが人物であり、歩容の情報と位置情報とから同一と判定された人物が、途中で3Dマスクをかぶったために、人物の顔が変化したことも、属性変化検出部120は、属性変化として検出してもよい。同様に、人物が衣服を着替えたために、衣服の属性が同一と変化したことも、属性変化検出部120は、属性変化として検出してもよい。
具体的には、時系列で対応付けられた同一と判定されたオブジェクトの属性の間の類似度が、一定の閾値(同一判定で用いる閾値よりも低い値)を下回ったことを、属性変化検出部120は、属性変化として検出する。ただし、環境変化等の要因で、一時的に属性間の類似度が下がることはあり得る。そのため、属性間の類似度が一定の閾値を下回った後、属性変化検出部120は、オブジェクトの変化後の属性が安定していることを確認した上で、属性変化として検出してもよい。すなわち、変化後の属性の類似度が一定の閾値以上である状態が一定期間以上継続したことに基づいて、属性変化検出部120は、属性変化を検出してもよい。
属性変化が検出された場合、属性変化検出部120は、属性変化の検出結果を、不審オブジェクト検出部130へ送信する。属性変化の検出結果は、オブジェクトを区別するグループのグループIDと、変化した属性の種別と、その属性変化の内容を表す情報とを含む。
(不審オブジェクト検出部130)
不審オブジェクト検出部130は、属性の変化に基づいて、不審なオブジェクトを検出する。不審オブジェクト検出部130は、不審オブジェクト検出手段の一例である。
具体的には、不審オブジェクト検出部130は、属性変化検出部120から、同一のオブジェクトの属性変化の検出結果を受信する。
不審オブジェクト検出部130は、属性変化が検出されたオブジェクトを、不審なオブジェクトとして検出する。
不審オブジェクト検出部130は、不審なオブジェクトを検出したことを報知してもよい。例えば、不審オブジェクト検出部130は、アラートを出力してもよいし、警備員が所持する端末に通知してもよい。
一変形例では、不審オブジェクト検出部130は、検出されたオブジェクトの属性変化を、予め定められた属性変化のパターンとマッチングすることによって、オブジェクトが不審である程度(レベル)を表す数値である「不審度」を計算してもよい。例えば、顔や服のみの属性が変化している場合、不審オブジェクト検出部130は、不審度の値を高くするようにしてもよい。そして、「不審度」を時系列に累積し、その累積値が閾値を超えたとき、不審オブジェクト検出部130は、アラートを出力してもよい。
(監視装置100の動作フロー)
図2を参照して、本実施形態1に係わる監視装置100の動作フローを説明する。図2は、監視装置100の動作フローを示すフローチャートである。
図2に示すように、対応付け部110は、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクト同士を対応付ける(S101)。
対応付け部110は、同一のオブジェクト同士の対応付けの結果を含む同一性判定情報を、属性変化検出部120へ送信する。
属性変化検出部120は、オブジェクトの同一性判定情報を用いて、時系列の画像データの間で、同一のオブジェクトの属性変化を検出する。属性変化検出部120は、同一のオブジェクトの属性変化の検出結果を、不審オブジェクト検出部130へ送信する。
属性変化検出部120が、時系列の画像データの間で、同一のオブジェクトの属性変化を検出しなかった場合(S102でNo)、図2に示すフローは終了する。
一方、属性変化検出部120が、時系列の画像データの間で、同一のオブジェクトの属性変化を検出した場合(S102でYes)、不審オブジェクト検出部130は、属性が変化したオブジェクトを、不審なオブジェクトとして検出する(S103)。
以上で、本実施形態1に係わる監視装置100の動作フローは終了する。
(本実施形態の効果)
本実施形態1の構成によれば、対応付け部110は、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクト同士を対応付ける。属性変化検出部120は、時系列の画像データから、同一のオブジェクトおよび付帯物の少なくとも一方の属性の変化を検出する。不審オブジェクト検出部130は、属性の変化に基づいて、不審なオブジェクトを検出する。したがって、本実施形態1に係わる監視装置100は、オブジェクトの行動から判別できない不審なオブジェクトを検出できる。
〔実施形態2〕
本実施形態2では、属性データ記憶部に格納された属性データを用いて、同一のオブジェクトを対応付け、さらに属性変化を検出する構成について説明する。
(監視装置200)
図3は、本実施形態2に係わる監視装置200の構成を示すブロック図である。図3に示すように、監視装置200は、不審オブジェクト検出部210、オブジェクト検出部220、属性抽出部230、対応付け部240、属性変化検出部250、および属性データ記憶部270を備えている。なお、以降の説明では、主として、オブジェクトが人物である場合について述べるが、オブジェクトは人物でなくてもよい。例えば、監視装置200は、車両をモニタリングするシステムであり、オブジェクトは車両であってもよい。
(オブジェクト検出部220)
オブジェクト検出部220は、時系列の画像データを取得する。例えば、オブジェクト検出部220は、図示しない一または複数台の監視カメラから、監視カメラが撮影した動画データを、時系列の画像データとして取得する。
オブジェクト検出部220は、受信した時系列の画像データから、複数のオブジェクトを検出する。本実施形態2では、オブジェクト検出部220は、人物や付帯物などの検出対象となるオブジェクトの特徴を学習した識別器を用いて、各画像データから、オブジェクトを検出し、また、オブジェクトの領域を抽出する。
オブジェクト検出部220は、各画像データから検出した各人物に対し、それぞれラベル(以下では、人物ラベルと呼ぶ)を付加する。そして、オブジェクト検出部220は、各画像データから抽出した人物の領域の画像データを、人物ラベルとともに、属性抽出部230へ送信する。
また、オブジェクト検出部220は、オブジェクトの付帯物を検出する。例えば、オブジェクト検出部220は、人物と密着しており、かつ、人物の領域と重なりの程度が大きいオブジェクトを、付帯物として検出する。また、オブジェクト検出部220は、検出した付帯物に対して、それぞれラベル(以下では、付帯物ラベルと呼ぶ)を付加するとともに、付帯物ラベルを前述の人物ラベルと対応付ける。
あるいは、オブジェクト検出部220は、人物と分離しているが、その人物の近傍にあるオブジェクトを、付帯物として検出し、人物と付帯物とを対応付けてもよい。この際、オブジェクト検出部220は、人物と付帯物との位置関係も併せて考慮してもよい。または、オブジェクト検出部220は、ただ一人の人物が、人物以外のオブジェクトの近くにいる場合に、そのオブジェクトを、付帯物として、その人物に対応付けてもよい。
あるいは、オブジェクト検出部220は、対応付けの確からしさを表す信頼度を考慮し、人物と付帯物とを対応付けてもよい。例えば、オブジェクトの近くに複数の人物がいる場合、オブジェクト検出部220は、各人物と付帯物とをそれぞれ対応付け、その対応付けの信頼度をそれぞれ求める。ただし、付帯物の近くに複数の人物がいる場合、各人物と付帯物との対応付けの信頼度は、付帯物の近くにただ一人の人物がいる場合よりも低くなる。なお、人物と付帯物との対応付けは、オブジェクト検出部220ではなく、後述する属性抽出部230が行ってもよい。
また、オブジェクト検出部220は、各画像データから検出した人物や付帯物の位置座標(例えば、人物や付帯物の領域の4隅の位置座標)を含む人物や付帯物の位置情報を、人物や付帯物のラベルとともに、対応付け部240へ送信する。
(属性抽出部230)
属性抽出部230は、オブジェクト検出部220から、人物の領域の画像データおよび人物ラベルと、付帯物の領域の画像データおよびそのラベルとを受信する。属性抽出部230は、人物の領域の画像データから、人物の属性情報を抽出する。例えば、属性抽出部230は、人物の属性情報として、人物の顔、虹彩、歩容、および髪形に関する情報を、人物の領域の画像データから抽出する。
属性抽出部230は、さらに、付帯物の領域の画像データから、付帯物の属性を示す属性情報を抽出する。属性抽出部230は、抽出した人物の属性情報および付帯物の属性情報と、オブジェクト検出部220から受信した人物ラベルとを紐付けた属性データを、属性データ記憶部270に格納する。
(対応付け部240)
対応付け部240は、時系列の画像データから検出された複数の人物のうち、同一の人物同士を対応付ける。対応付け部240は、対応付け手段の一例である。
具体的には、対応付け部240は、オブジェクト検出部220から、画像データにおける人物の領域の位置座標を示す人物の位置情報と、人物ラベルとを受信する。
対応付け部240は、属性データ記憶部270を参照して、オブジェクト検出部220から受信した人物ラベルと対応する属性データを取得する。属性データは、人物の属性情報および付帯物の属性情報と、人物ラベルとを紐付けている。
そして、対応付け部240は、オブジェクトの属性情報および位置情報の少なくとも一方に基づいて、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクト同士を対応付ける。
一例では、対応付け部240は、オブジェクト検出部220から受信した人物の位置情報に基づいて、時系列の画像データから検出された複数の人物のうち、同一の人物同士を対応付ける。具体的には、対応付け部240は、人物の位置情報を用いて、人物を追跡する。対応付け部240は、人物の追跡結果(人物の動線を含む)に基づいて、時系列の画像データから検出された人物の同一性を判定することによって、時系列の画像データから検出された人物のうち、同一の人物同士を対応付ける。
あるいは、対応付け部240は、属性データに含まれる人物の属性情報に基づいて、時系列の画像データから検出された複数の人物のうち、同一の人物同士を対応付けてもよい。具体的には、対応付け部240は、人物の属性情報として、人物の顔の特徴または虹彩のパターンを用いて、顔照合または虹彩照合を行うことによって、人物の同一性を判定する。対応付け部240は、人物の同一性判定結果に基づいて、時系列の画像データから検出された全ての人物のうち、同一の人物を対応付ける。
対応付け部240は、ただ一つの属性情報(例えば人物の顔の特徴、虹彩のパターンなど)のみを用いて、人物の対応付けを行ってもよい。
あるいは、人物の属性情報が複数の要素(例えば、顔、虹彩、歩容、体型、および髪型)を含む場合、対応付け部240は、属性情報の複数の要素のうち全部または一部を用いて、人物の対応付けを行ってもよい。この場合、対応付け部240は、属性情報の複数の要素に基づく人物の同一性判定結果を重み付けする。そして、対応付け部240は、重み付けした人物の同一性判定結果を統合することによって、同一の人物を対応付ける。
あるいはまた、対応付け部240は、オブジェクトの属性情報および位置情報の両方に基づいて、時系列の画像データから検出された複数の人物のうち、同一の人物同士を対応付けてもよい。例えば、対応付け部240は、人物の位置情報による人物の同一性判定結果と、人物の属性情報による人物の同一性判定結果とを重み付けして統合することによって、同一の人物を対応付ける。
より一般的には、対応付け部240は、各属性情報に基づいて、同一の人物らしさを表す尤度を属性別に求める。対応付け部240は、得られた属性別の尤度を統合する。そして、対応付け部240は、統合した尤度が一定の閾値を超えた場合に、複数の人物は同一の人物であると判定する。あるいは、対応付け部240は、複数の属性情報を入力として、統合した尤度を求めるための関数を、ニューラルネットワーク等を用いて学習してもよい。この場合、対応付け部240は、学習で得られた関数を用いて、複数の属性情報から直接に、統合した尤度を求めることができる。なお、属性抽出部230が、人物の属性情報の一部を抽出できない場合、対応付け部240は、抽出できた属性情報のみを用いて、人物の同一性を判定する。
対応付け部240は、同一性判定の信頼度も求めてもよい。同一性判定の信頼度は、対応付け部240が用いる人物の属性情報や、人物の周囲にいる他の人物の分布状況に依存する。
あるいは、対応付け部240は、他の人物の分布情報や、環境の制約情報等も用いて、同一の人物を間接的に対応付けてもよい。前記実施形態1で説明したように、例えば、オブジェクト検出部220により検出された複数の人物のうち、ただ一人を除いて識別されている場合である。このような場合、対応付け部240は、その一人の人物を識別することなしに、同一の人物を対応付ける。
対応付け部240は、上述したいずれかの方法によって、時系列の画像データから検出された人物のうち、同一の人物を対応付ける。対応付け部240は、同一の人物と対応する人物ラベルのグループを示す情報(例えばグループID)を、属性変化検出部250へ送信する。
例えば、異なる画像データから検出された人物aと人物bとが同一であるとする。この場合、対応付け部240は、人物aに付加された人物ラベルと、人物bに付加された人物ラベルとを、同一の人物のグループとする。そして、対応付け部240は、同一の人物のグループを形成する複数の人物ラベルに対し、同一のグループIDを付与して、同一の人物のグループを示す情報として、属性変化検出部250へ送信する。
(属性変化検出部250)
属性変化検出部250は、対応付け部240から、対応付け部240による人物の対応付けの結果として、同一の人物のグループを示す情報を受信する。
属性変化検出部250は、対応付け部240による人物の対応付けの結果に基づいて、時系列の画像データの間で、同一のオブジェクト(ここでは人物)の属性変化を検出する。
具体的には、属性変化検出部250は、同一の人物のグループを示す情報を用いて、一つのグループIDに対応付けられた複数の人物ラベルと対応する複数の属性データを、属性データ記憶部270から取得する。上述したように、人物の属性データは、人物の属性情報および付帯物の属性情報を含む。
属性変化検出部250は、同一の人物の属性が、互いに一致するかどうかを判定する。すなわち、属性変化検出部250は、各人物ラベルと紐付けられている人物の属性と、他の人物ラベルと紐付けられている人物の属性とが、互いに一致するかどうかを判定する。例えば、同一の人物と対応する複数の人物ラベル(すなわち一つのグループIDに対応付けられた複数の人物ラベル)を、人物ラベルL、人物ラベルL、・・・人物ラベルLとする。属性変化検出部250は、人物ラベルLと紐付けられている人物の属性と、人物ラベルL(k=2,3,・・・,n)と紐付けられている人物の属性とが、互いに一致するかどうかを判定する。
同一の人物の属性または同一の人物の付帯物の属性が一致していない場合、属性変化検出部250は、時系列の画像データの間で、人物および付帯物の少なくとも一方の属性が変化していると判定する。人物の属性または人物の付帯物の属性が変化していることを、以下では、人物の属性変化あるいは単に属性変化と呼ぶ。
ただし、前記実施形態1で述べたように、環境変化等の要因により、一時的に、同一の人物の属性間の類似度が下がることはあり得る。このため、同一の人物の属性間の類似度が下がった後、属性変化検出部250は、人物の属性の値が安定していることを確認した上で、属性変化を検出してもよい。
なお、属性抽出部230は、画像データから、人物のすべての属性情報を抽出できるとは限らない。そのため、属性変化検出部250は、属性抽出部230が抽出できた属性情報のみに基づいて、属性変化を検出する。また、同一の人物が複数の属性を有する場合、属性変化検出部250は、複数の属性のうち、少なくとも1つの属性が変化していることを、属性変化として検出する。または、属性抽出部230は、人物のある特定の付帯物の変化、消失、または出現を、属性変化として検出してもよい。例えば、ある時点から付帯物の存在が検知されなくなったこと、あるいは逆に、ある時点から付帯物が検知されるようになったことを、属性変化検出部250は、属性変化として検出してもよい。
属性変化検出部250は、属性変化の検出結果を、不審オブジェクト検出部210へ送信する。属性変化の検出結果は、変化した属性の種類と、属性変化の内容(例えば付帯物の色、数、大きさ、形状、模様、質感、数、または位置の変化など)と、属性変化した人物の同一性判定情報とを含む。なお、同一性判定情報には、同一性の確からしさを表す信頼度情報も含んでいてもよい。
(不審オブジェクト検出部210)
不審オブジェクト検出部210は、属性変化の検出結果に基づいて、不審なオブジェクトを検出する。不審オブジェクト検出部210は、不審オブジェクト検出手段の一例である。
具体的には、不審オブジェクト検出部210は、属性変化検出部250から、属性変化の検出結果を受信する。不審オブジェクト検出部210は、属性変化した人物を、不審なオブジェクトとして検出する。例えば、不審オブジェクト検出部210は、人物が持ち、伴い、背負い、抱き、装着し、押し、あるいは引いている付帯物の属性が変化した場合、その人物を、不審なオブジェクトとして検出する。また例えば、不審オブジェクト検出部210は、顔の特徴が変化した人物を、不審なオブジェクトとして検出する。
不審オブジェクト検出部210は、不審なオブジェクトを検出したことを報知してもよい。例えば、不審オブジェクト検出部210は、アラートを出力してもよいし、警備員が所持する端末に通知してもよい。また、不審オブジェクト検出部210は、検出された属性変化の内容(例えば、衣服などの付帯物の色が変化したこと)と、属性変化した人物の画像データとを、図示しない表示装置へ出力してもよい。
また、不審オブジェクト検出部210は、前記実施形態1に係わる不審オブジェクト検出部130と同様に、検出されたオブジェクトの属性変化を、予め定められた属性変化のパターンとマッチングすることによって、オブジェクトが不審である程度(レベル)を表す数値である「不審度」を計算してもよい。そして、不審オブジェクト検出部210は、時系列の「不審度」を累積し、その累積値が閾値を超えたとき、アラートを出力してもよい。
(監視装置200の動作フロー)
図4を参照して、本実施形態2に係わる監視装置200の動作フローを説明する。図4は、監視装置200の動作フローを示すフローチャートである。
図4に示すように、オブジェクト検出部220は、時系列の画像データを取得する。
本実施形態2において、オブジェクト検出部220は、監視カメラが撮影した動画データの画像フレーム(以下では画像データと呼ぶ)を、1枚ずつ、リアルタイムで受信する。オブジェクト検出部220は、受信した1枚の画像データから、1または複数のオブジェクト(ここでは人物や付帯物)を検出する(S201)。
オブジェクト検出部220は、画像データにおける各人物や付帯物の領域の画像データを、各人物や付帯物の識別情報(以下では人物ラベル、付帯物ラベルと呼ぶ)とともに、属性抽出部230へ送信する。また、オブジェクト検出部220は、各人物の位置情報を、各人物に付与された人物ラベルとともに、対応付け部240へ送信する。
属性抽出部230は、オブジェクト検出部220から、人物ラベル、付帯物ラベルとともに、人物や付帯物の領域の画像データを受信する。属性抽出部230は、人物や付帯物の領域の画像データから、人物の属性情報、および、人物の付帯物の属性情報を抽出する(S202)。
属性抽出部230は、抽出した人物および付帯物の属性情報を、オブジェクト検出部220から受信した人物ラベルと紐付けて、属性データとして、属性データ記憶部270に格納する。以下では、単に人物の属性情報と記載する場合、付帯物の属性情報も含む。
対応付け部240は、オブジェクト検出部220から、人物ラベルとともに、人物の位置情報を受信する。
対応付け部240は、人物の属性情報および位置情報の少なくとも一方に基づいて、同一の人物を対応付ける(S203)。
対応付け部240は、同一の人物と対応する複数の人物ラベルのグループを示す情報(すなわち、グループID)を、属性変化検出部250へ送信する。
属性変化検出部250は、対応付け部240から、同一の人物と対応する複数の人物ラベルのグループを示すグループIDを受信する。属性変化検出部250は、同一の人物と対応する複数の人物ラベルを用いて、同一の人物と対応する複数の属性データを、属性データ記憶部270から取得する。
そして、属性変化検出部250は、属性データ記憶部270から取得した複数の属性データを用いて、同一の人物の属性が変化しているかどうかを判定する(S204)。
例えば、対応付け部240は、同一の人物の属性の間の類似度または距離を、ステップS204における判定のための尺度として用いることができる。
同一の人物の属性が変化していない場合(S204でNo)、動作フローはステップS201に戻る。
一方、同一の人物の属性が変化している場合(S204でYes)、不審オブジェクト検出部210は、属性変化した人物を、不審なオブジェクトとして検出する(S205)。
監視装置200によるオブジェクト(人物)の監視が継続される場合(S206でYes)、動作フローはステップS201に戻る。監視装置200によるオブジェクト(人物)の監視が継続されない場合(S206でNo)、動作フローは終了する。監視装置200は、例えばタイマーによって、一定の時間帯のみ監視を継続するように制御されてもよい。
(本実施形態の効果)
本実施形態の構成によれば、対応付け部240は、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクト同士を対応付ける。属性変化検出部250は、時系列の画像データから、同一のオブジェクトおよび付帯物の少なくとも一方の属性の変化を検出する。不審オブジェクト検出部210は、属性の変化に基づいて、不審なオブジェクトを検出する。したがって、オブジェクトの行動から判別できない不審なオブジェクトを検出できる。
〔実施形態3〕
本実施形態3では、検出された属性変化の真偽を検証する構成を説明する。本実施形態3において、真の属性変化とは、実際に生じた属性変化を意味する。偽の属性変化とは、実際に生じていないにもかかわらず、誤検出された属性変化を意味する。なお、以降の説明では、主として、オブジェクトが人物の場合について述べるが、オブジェクトは車両などの人物以外のものであってもよい。
(監視装置300)
図5は、本実施形態3に係わる監視装置300の構成を示すブロック図である。図5に示すように、監視装置300は、不審オブジェクト検出部210、オブジェクト検出部220、属性抽出部230、対応付け部240、属性変化検出部250、および属性データ記憶部270を備えている。加えて、監視装置300では、不審オブジェクト検出部210が属性変化検証部290を含んでいる。
本実施形態3に係わる監視装置300の構成は、前記実施形態2に係わる監視装置200の構成に、属性変化検証部290を追加したものである。本実施形態3では、属性変化検証部290に関してのみ、以下で説明する。
(属性変化検証部290)
属性変化検証部290は、属性変化検出部250が検出したオブジェクト(ここでは人物)の属性変化の真偽を検証する。属性変化検証部290は、属性変化検証手段の一例である。
具体的には、属性変化検証部290は、属性変化検出部250から、属性変化の検出結果と、属性変化が検出された画像データを特定するための情報(例えば、画像データのフレーム番号)とを受信する。
属性変化検証部290は、属性変化が検出された画像データを特定するための情報(例えば、画像データのフレーム番号)を用いて、時系列の画像データのうち、属性変化が検出された画像データを特定する。
また、属性変化検証部290は、属性変化が検出された画像データ及びその前後の所定の時間範囲内の画像フレームに対応する1または複数の画像データ(以下では、検証用画像データと呼ぶ)を、時系列の画像データの中から取得する。
属性変化検証部290は、取得した検証用画像データを用いて、属性変化検出部250によって検出された属性変化の真偽を検証する。
ここで、偽の属性変化が検出される理由はいくつか存在する。その一例は、対応付け部240が、同一の人物の対応付けに失敗したことである。特に、多数の人物が同時に(すなわち同じ画像データ中に)存在する場合、あるいは、属性抽出部230が人物や付帯物の属性を正確に抽出できない場合、もしくは、対応付け部240が人物の位置情報のみに基づいて同一性判定を行う場合、対応付け部240は、同一の人物を正しく対応付けることに失敗しやすい。また、人物が他の人物によって遮蔽される等、他の人物の影響により、属性抽出部230が人物や付帯物の正しい属性情報の抽出に失敗することもあり得る。このように、属性変化検出部250は、対応付け部240による誤った同一人物の対応付け、あるいは属性抽出部230による誤った人物や付帯物の属性情報の抽出に起因して、属性変化を誤検出する場合がある。これらは、偽の属性変化である。
属性変化が偽である場合、属性変化検証部290は、属性変化検出部250による属性変化の検出結果を除去(以下、フィルタリング、あるいはフィルタアウトと記載する場合がある)する。
したがって、不審オブジェクト検出部210は、人物の属性の変化が真である場合に、その人物を、不審なオブジェクトとして検出する一方、人物の属性の変化が偽である場合には、その人物を、不審なオブジェクトとして検出しない。なお、真か偽かの判定は、必ずしも二値判定でなくてもよく、不審オブジェクト検出部210は、真である度合いを表す指標を算出してもよい。そして、算出した指標の値が、ユーザに指定された閾値を超えた場合に、不審オブジェクト検出部210は、検出された属性変化が真であるとみなし、人物を不審なオブジェクトとして検出してもよい。
(偽の属性変化の例)
以下のいずれかのケースに該当する場合、属性変化検証部290は、検出された属性変化が偽であると判定する。ただし、以下で説明するケースは、単なる例にすぎない。
(ケース1)人物の検出の失敗、およびそれに伴う属性情報の抽出の失敗
人物が、商品棚(コンテナ)または他の人物などによって隠れている場合、オブジェクト検出部220は、画像データから、人物の領域を正確に抽出できない場合がある。この場合、オブジェクト検出部220によって抽出された人物の領域は、背景または他のオブジェクトの領域を含む可能性がある。そのため、属性抽出部230は、オブジェクト検出部220によって抽出された人物の領域から、人物の属性情報を正しく抽出できない。
このケースでは、属性変化検証部290は、例えば背景差分法によって、検証用画像データを、人物の領域(前景)と背景とに分離し、人物とそれ以外の領域を区別する。ただし、背景差分法を用いるためには、時系列の画像データが、固定カメラによって撮影されている必要がある。
属性変化検証部290は、検証用画像データにおける背景領域(人物でないと判定された領域)と、オブジェクト検出部220が検出した人物の領域とを比較する。そして、検出された人物の領域の一部が、棚などの背景領域によって遮蔽されているため、人物の領域または付帯物の領域から抽出された属性の信頼性が低い場合、属性変化検証部290は、検出された属性変化が偽であると判定する。
あるいは、属性変化検証部290は、検証用画像データにおける人物と、他の人物との重なりを検証する。人物と他の人物との重なりが大きい場合、人物が遮蔽されている可能性が高い。その場合、属性変化検証部290は、検出された属性変化が偽であると判定する。ここで、属性変化検証部290は、人物が検出された画像フレームと対応する画像データだけでなく、その画像フレームと時間的に近接した画像フレームも含めて、人物と重なる他の人物が存在するかどうかを調べることが好ましい。これにより、人物が検出された画像フレームと対応する画像データにおいては、他の人物が未検出の場合であっても、属性変化検証部290は、その画像フレームと時間的に近接した画像フレームから、他の人物を検出できる場合がある。
(ケース2)人物の姿勢の変化によるもの
人物が首を曲げたり、しゃがむまたは屈んだりすることによって、画像データ上において、人物の属性情報(例えば、人物の顔、歩容)が、見かけ上変化する。このケースにおいて、対応付け部240は、同一の人物の対応付けに失敗する場合や、人物の属性の抽出に失敗する場合がある。
属性変化検証部290は、検証用画像データを分析することにより、人物の姿勢の変化を検出する。検証用画像データから、人物の姿勢の変化が検出された場合、属性変化検証部290は、姿勢変動の影響を受ける属性に関しては、属性変化が検出されたとしても、その属性変化は偽であると判定する。
(ケース3)照明の変動によるもの
照明の明るさまたは色が変化したとき、人物の衣服の色などの付帯物の属性が、見かけ上変化する。このケースでは、属性変化検出部250は、属性変化を誤検出する場合がある。
属性変化検証部290は、検証用画像データから、背景(あるいは特定の領域)の明るさおよび色の少なくとも一方の変化を検出する。そして、属性変化検証部290は、検証用画像データにおける背景(あるいは特定の領域)の明るさおよび色の少なくとも一方が変化している場合、照明が変動していると判定する。属性変化検証部290は、照明の変動(例えば明るさ)の影響を受ける属性変化が属性変化検出部250によって検出された場合、検出された属性変化は偽であると判定する。
あるいは、属性変化検証部290は、対応付け部240による同一の人物の対応付けの信頼度も考慮してもよい。例えば、属性変化が検出された画像フレームに対して時間的に前後の画像フレームにおいて、属性変化検証部290は、対応付け部240による同一の人物の対応付けの信頼度をチェックする。対応付け部240による同一の人物の対応付けの信頼度が低い場合、属性変化検証部290は、検出された属性変化は偽の属性変化であると判定してもよい。オブジェクト検出部220(または属性抽出部230)は、人物と付帯物との対応付けの信頼度を算出する場合、この信頼度も考慮して、属性変化の真偽を判定してもよい。
(監視装置300の動作フロー)
図6を参照して、本実施形態3に係わる監視装置300の動作フローを説明する。図6は、監視装置300の動作フローを示すフローチャートである。
図6に示すステップS301からステップS304までは、前記実施形態2で説明した監視装置200の動作フローのステップS201からステップS204までと共通である。ここでは、ステップS304以降の動作フローを説明する。
ステップS304において、属性変化検出部250は、時系列の画像データの間で、同一の人物の属性が変化しているかどうかを判定する。
時系列の画像データの間で、同一の人物の属性が変化している場合(S304でYes)、属性変化検証部290は、属性変化検出部250が検出した属性変化の真偽を検証する(S305)。
属性変化が偽である場合(S306でNo)、属性変化検証部290は、オブジェクトの属性変化の検出結果をフィルタアウトする。そして、動作フローはステップS301に戻る。
一方、属性変化が真である場合(S306でYes)、不審オブジェクト検出部210は、属性変化した人物を、不審オブジェクトとして検出する(S307)。
監視装置300によるオブジェクト(人物)の監視が継続される場合(S308でYes)、動作フローはステップS301に戻る。監視装置300によるオブジェクト(人物)の監視が継続されない場合(S308でNo)、動作フローは終了する。
監視装置300は、例えばタイマーによって、一定の時間帯のみ監視を継続するように制御されてもよい。
(本実施形態の効果)
本実施形態の構成によれば、対応付け部240は、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクト同士を対応付ける。属性変化検出部250は、時系列の画像データから、同一のオブジェクトおよび付帯物の少なくとも一方の属性の変化を検出する。不審オブジェクト検出部210は、属性の変化に基づいて、不審なオブジェクトを検出する。したがって、オブジェクトの行動から判別できない不審なオブジェクトを検出できる。
さらに、属性変化検証部290は、属性変化検出部250が検出したオブジェクトの属性変化の真偽を検証する。属性変化検証部290は、偽の属性変化をフィルタアウトする。不審オブジェクト検出部210は、属性の変化が真である場合に、同一のオブジェクトを、不審なオブジェクトとして検出する一方、属性の変化が偽である場合に、同一のオブジェクトを、不審なオブジェクトとして検出しない。そのため、真の属性変化に基づいて、不審なオブジェクトをより正確に検出できる。
〔実施形態4〕
本実施形態4では、属性変化と関連するコンテキストを分析する構成を説明する。本実施形態4において、関連するコンテキストとは、属性変化に影響する環境、および、属性変化と関連して発生した事象のうち、少なくとも一方を意味する。なお、以降の説明では、主として、オブジェクトが人物である場合について述べるが、オブジェクトは車両などの人物以外のものでもよい。
(監視装置400)
図7は、本実施形態4に係わる監視装置400の構成を示すブロック図である。図7に示すように、監視装置400は、不審オブジェクト検出部210、オブジェクト検出部220、属性抽出部230、対応付け部240、属性変化検出部250、および属性データ記憶部270を備えている。加えて、監視装置400では、不審オブジェクト検出部210がコンテキスト分析部280を含んでいる。
本実施形態4に係わる監視装置400の構成は、前記実施形態2に係わる監視装置200の構成において、コンテキスト分析部280を追加したものである。本実施形態4では、コンテキスト分析部280に関してのみ、以下で説明する。
(コンテキスト分析部280)
コンテキスト分析部280は、オブジェクトの属性変化と関連するコンテキストを分析する。コンテキスト分析部280は、コンテキスト分析手段の一例である。
具体的には、コンテキスト分析部280は、属性変化検出部250から、人物や付帯物(オブジェクトの一例である)の属性変化の検出結果と、属性変化が検出された画像データを特定するための情報(例えば、画像データのフレーム番号)とを受信する。
コンテキスト分析部280は、属性変化が検出された画像データを特定するための情報(例えば、画像データのフレーム番号)を用いて、時系列の画像データのうち、属性変化が検出された画像データを特定する。そして、コンテキスト分析部280は、属性変化が検出された画像データ及びその前後の所定の時間範囲内の画像フレームに対応する1または複数の画像データ(以下では、コンテキスト分析用画像データと呼ぶ)を、時系列の画像データの中から取得する。
コンテキスト分析部280は、取得したコンテキスト分析用画像データを分析することによって、属性変化と関連するコンテキストを特定する。具体的には、コンテキスト分析部280は、属性変化に影響する環境(気温、時間帯、天候、湿度、明るさ、人密度など)、および、属性変化と関連して発生した事象(人物の行動、事件、事故、交通状況など)のうち、少なくとも一方を特定する。
あるいは、コンテキスト分析部280は、撮像センサ以外のセンサ等を用いて、気温や天候、湿度や明るさ、人密度などの情報を取得してもよい。または、コンテキスト分析部280は、事件、事故、交通状況などの情報も、外部の他の情報源から取得してもよい。
コンテキスト分析部280は、属性変化および関連するコンテキストの組み合わせと対応する例外情報を検索する。例外情報は、監視装置400とつながったネットワーク上にあるサーバに、予め格納されていてよい。
例外情報は、特定のコンテキストにおいてのみ不審ではない特定の属性変化を記述する情報である。例えば、寒い外から暖かい室内へ移動したとき、人物は外套や帽子を脱ぐ。上記の例では、人物が外から室内へ移動したことが、特定の事象であり、人物の服装の変化が、特定の属性変化である。
例外情報は、特定のコンテキストの情報と、特定の属性変化の情報とを紐付けている。例外情報は、オブジェクトの種類ごと、また付帯物の種類ごとに、それぞれ存在することが好ましい。例外情報は、図示しない例外情報記憶部に予め蓄積されていてもよい。
一変形例では、例外情報は、コンテキスト分析部280によって生成されてもよい。具体的には、特定のコンテキスト(特定の環境および特定の事象のうち少なくとも一方)において、特定の属性変化が、属性変化検出部250によって頻繁に(例えば閾値回数以上)検出された場合、コンテキスト分析部280は、特定の属性変化と、特定のコンテキストとを紐付けた例外情報を生成する。コンテキスト分析部280は、生成した例外情報を、例外情報を格納したサーバへ送信してもよいし、図示しない例外情報記憶部に格納してもよい。
属性変化および関連するコンテキストの組み合わせと対応する例外情報が存在する場合、コンテキスト分析部280は、オブジェクトの属性変化の検出結果をフィルタアウトする。
すなわち、不審オブジェクト検出部210は、属性の変化および関連するコンテキストの組み合わせが、特定の例外に該当しない場合に、同一のオブジェクトを、不審なオブジェクトとして検出する一方、属性の変化および関連するコンテキストの組み合わせが、特定の例外に該当する場合には、同一のオブジェクトを、不審なオブジェクトとして検出しない。
なお、犯罪が起きた場合など、特別な状況において、本実施形態4に係わる不審オブジェクト検出部210は、属性変化の検出結果をコンテキスト分析部280によってフィルタアウトすることを制限してもよい。特別な状況は、特定の例外に該当する場合であっても発生し得るからである。
(特定の例外)
図8は、上述した例外情報の一例を示す図である。以下の例1〜例3は、図8に示すNo.1〜No.3に対応している。以下の例1〜例3に関して、順番に説明する。
(例1)
仕事場のロッカールームでは、人物が制服に着替える。この例では、服装の変化が、特定の例外における特定の属性変化に該当し、ロッカールームが、特定の例外における特定の環境に該当する。一方、住居ビルの入り口で、人物の服装(属性情報)が、郵便配達員や宅配業者の制服に変化することは通常では起こりにくい。したがって、後者の例における付帯物の属性変化(服装の変化)と環境(住居ビルの入り口)との組み合わせは、特定の例外に該当しない。
(例2)
鉄道の駅では、荷物がロッカーに預けられるため、人物の荷物(付帯物)の数が変化する。また、人物が背負っていた荷物(付帯物の一例である)を手で持った場合、荷物の位置が変わる。これらの例では、人物の荷物の数または位置の変化が、特定の例外における特定の属性変化に該当し、荷物の預け入れまたは荷物の持ち変えが、特定の例外における特定の事象に該当する。
(例3)
寒い外から暖かい室内へ移動したとき、人物は外套や帽子を脱ぐ。上記の例では、人物の服装の変化が、特定の例外における特定の属性変化であり、人物が外から室内へ移動したことが、特定の例外における特定の事象である。なお、本例において、例外情報は、特定の属性変化に影響する環境に関する情報、例えば、外気温、湿度、および季節などの情報も、さらに含むことが好ましい。これにより、コンテキスト分析部280は、例外情報に基づいて、特定の例外をより正確に判定することができる。
(監視装置300の動作フロー)
図9を参照して、本実施形態4に係わる監視装置400の動作フローを説明する。図9は、監視装置400の動作フローを示すフローチャートである。なお、図9に示す監視装置400の動作フローにおいて、ステップS401からステップS404までの流れは、前記実施形態2に置いて説明した、図4に示す監視装置200の動作フローのステップS201からステップS204までと共通である。
まず、オブジェクト検出部220は、時系列の画像データを取得する。本実施形態4においても、オブジェクト検出部220は、監視カメラが撮影した動画データの画像フレーム(以下では画像データと呼ぶ)を、1枚ずつ、リアルタイムで受信する。オブジェクト検出部220は、受信した1枚の画像データから、オブジェクト(ここでは人物や付帯物)を検出する(S401)。
オブジェクト検出部220は、画像データにおける人物や付帯物の領域の画像データを、人物や付帯物の領域を識別するための情報(以下ではそれぞれ、人物ラベル、付帯物ラベルと呼ぶ)とともに、属性抽出部230へ送信する。また、オブジェクト検出部220は、画像データから検出した人物の位置情報を、人物ラベルとともに、対応付け部240へ送信する。
属性抽出部230は、オブジェクト検出部220から、人物ラベル、付帯物ラベルとともに、人物や付帯物の領域の画像データを受信する。属性抽出部230は、人物の領域や付帯物の領域の画像データから、人物の属性情報、および、付帯物の属性情報を抽出する(S402)。以下では、単に人物の属性情報と記載する場合、付帯物の属性情報も含む。
属性抽出部230は、抽出した人物の属性情報(付帯物の属性情報を含む)を、人物ラベルと紐付けて、属性データとして、属性データ記憶部270に格納する。
対応付け部240は、オブジェクト検出部220から、人物ラベルとともに、人物の位置情報を受信する。
対応付け部240は、オブジェクト検出部220から受信した人物の位置情報に基づいて、同一の人物を対応付ける(S403)。
対応付け部240は、同一の人物と対応する人物ラベルのグループを生成する。対応付け部240は、同一の人物のグループを示す情報(例えば、一つのグループIDと対応付けられた複数の人物ラベル)を、属性変化検出部250へ送信する。
属性変化検出部250は、対応付け部240から、同一の人物のグループを示す情報を受信する。
属性変化検出部250は、属性データ記憶部270において、同一の人物と対応する複数の人物ラベルと紐付けられている複数の属性データを取得する。そして、属性変化検出部250は、取得した複数の属性データに含まれる属性情報が互いに一致しているかどうかを判定する(S404)。
ステップS404において、対応付け部240は、例えば、属性情報の間の類似度または距離を、ステップS404における判定のための尺度として用いることができる。
同一の人物と対応する複数の人物ラベルと紐付けられている人物の属性情報が、互いに一致している場合、属性変化検出部250は、時系列の画像データの間で、同一の人物の属性が変化していないと判定する(S404でNo)。この場合、動作フローはステップS401に戻る。
一方、同一の人物と対応する複数の人物ラベルと紐付けられている人物の属性情報の要素のうち、少なくとも一つが一致していない場合、属性変化検出部250は、時系列の画像データの間で、同一の人物の属性が変化したと判定する(S404でYes)。すなわち、属性変化検出部250は、属性変化を検出する。
本実施形態4では、属性変化検出部250は、属性変化の検出結果を、属性変化が検出された画像データを特定するための情報(例えば、画像データのフレーム番号)とともに、コンテキスト分析部280へ送信する。
コンテキスト分析部280は、属性変化検出部250から、属性変化の検出結果と、属性変化が検出された画像データを特定するための情報(例えば、画像データのフレーム番号)とを受信する。
コンテキスト分析部280は、属性変化が検出された画像データと対応するコンテキスト分析用画像データを、時系列の画像データの中から取得する。そして、コンテキスト分析部280は、コンテキスト分析用画像データを用いて、属性変化と関連するコンテキストを分析する(S405)。
具体的には、コンテキスト分析部280は、ステップS405において、属性変化に影響する環境(気温、湿度、明るさ、時間帯、天候、人密度など)、および、属性変化と関連して発生した事象(人物の行動、事件、事故、交通状況など)のうち、少なくとも一方を特定する。
コンテキスト分析部280は、検出された属性変化および関連するコンテキストの組み合わせと対応する例外情報を検索する(S406)。
検出された属性変化および関連するコンテキストの組み合わせと対応する例外情報がある場合(S406でYes)、コンテキスト分析部280は、オブジェクトの属性変化の検出結果をフィルタアウトする。そして、動作フローはステップS401へ戻る。
一方、属性変化および関連するコンテキストの組み合わせと対応する例外情報がない場合(S406でNo)、不審オブジェクト検出部210は、属性変化した人物を、不審オブジェクトとして検出する(S407)。
監視装置400によるオブジェクト(人物)の監視が継続される場合(S408でYes)、動作フローはステップS401に戻る。監視装置400によるオブジェクト(人物)の監視が継続されない場合(S408でNo)、動作フローは終了する。監視装置400は、例えばタイマーによって、一定の時間帯のみ監視を継続するように制御されてもよい。
(本実施形態の効果)
本実施形態4の構成によれば、対応付け部240は、時系列の画像データから検出された複数のオブジェクトの属性情報および位置情報の少なくとも一方に基づいて、複数のオブジェクトのうち、同一のオブジェクト同士を対応付け、属性変化検出部250は、時系列の画像データの間で、同一のオブジェクトの属性変化を検出する。したがって、不審なオブジェクトの属性変化を誤検出することを抑制することができる。
さらに、コンテキスト分析部280は、オブジェクトの属性変化と関連するコンテキストを分析する。コンテキスト分析部280は、コンテキストの分析結果に基づいて、属性変化検出部250によって検出された属性変化のうち、特定の例外と対応する属性変化をフィルタアウトする。これにより、不審ではないオブジェクトが誤検出されることを防止することができる。
(変形例)
前記実施形態3および4で説明した構成を組み合わせることができる。すなわち、不審オブジェクト検出部210は、属性変化検証部290およびコンテキスト分析部280の両方を備えていてもよい。
本変形例では、属性変化検証部290が、属性変化検出部250によって検出された属性変化の真偽を検証し、偽の属性変化をフィルタアウト(すなわち除去)する。コンテキスト分析部280は、(真の)属性変化および前記関連するコンテキストの組み合わせが、特定の例外に該当する場合に、その属性変化をさらにフィルタアウトする。
本変形例の構成によれば、偽の属性変化と、特定の例外に該当する属性変化との両方がフィルタアウトされる。そのため、不審ではないオブジェクトが誤検出されることを、より確実に防止することができる。
〔実施形態5〕
図10を参照して、実施形態5に関して説明する。
図10は、実施形態5に係わる監視装置10の構成を示すブロック図である。図10に示すように、監視装置10は、対応付け部11、属性変化検出部12、及び不審オブジェクト検出部13を備えている。
対応付け部11は、時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクトを対応付ける。
属性変化検出部12は、時系列の画像データから、同一のオブジェクトおよびその付帯物の少なくとも一方の属性の変化を検出する。
不審オブジェクト検出部13は、属性の変化に基づいて、不審なオブジェクトを検出する。
上記構成を備えることにより、本実施形態5に係わる監視装置10は、同一のオブジェクトとして対応付けされたオブジェクトについて、そのオブジェクトが検出された時刻間の属性の変化を検出することができるので、オブジェクトの行動から判別できない不審なオブジェクトを検出できる。
〔実施形態6〕
図11を参照して、実施形態6について以下で説明する。
(ハードウェア構成について)
前記実施形態1〜5で説明した監視装置10、100、200、300及び400の各構成要素は、機能単位のブロックを示している。これらの構成要素の一部又は全部は、例えば図11に示すような情報処理装置900により実現される。図11は、本実施形態6に係わる情報処理装置900のハードウェア構成の一例を示すブロック図である。
図11に示すように、情報処理装置900は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)901
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
前記実施形態1〜5で説明した監視装置10、100、200、300及び400の各構成要素は、これらの機能を実現するプログラム904をCPU901が読み込んで実行することで実現される。各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やROM902に格納されており、必要に応じてCPU901がRAM903にロードして実行される。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
(本実施形態の効果)
本実施形態の構成によれば、前記実施形態1〜5において説明した監視装置10、100、200、300及び400が、ハードウェアとして実現される。したがって、前記実施形態1〜5において説明した効果と同様の効果を奏することができる。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
本発明は、空港などの重要施設や公共施設での不審者の検出に利用することができる。他の活用方法として、オブジェクトの属性変化の検出結果を用いた機器の制御(例えば、エアコンの温度調節など)を行ってもよい。
この出願は、2019年3月27日に出願された日本出願特願2019−061223を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100 監視装置
110 対応付け部
120 属性変化検出部
130 不審オブジェクト検出部
200 監視装置
210 不審オブジェクト検出部
220 オブジェクト検出部
230 属性抽出部
240 対応付け部
250 属性変化検出部
280 コンテキスト分析部
290 属性変化検証部
300 監視装置
400 監視装置

Claims (10)

  1. 時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクトを対応付ける対応付け手段と、
    前記時系列の画像データから、前記同一のオブジェクトおよびその付帯物の少なくとも一方の属性の変化を検出する属性変化検出手段と、
    前記属性の変化に基づいて、不審なオブジェクトを検出する不審オブジェクト検出手段と
    を備えた監視装置。
  2. 前記不審オブジェクト検出手段は、前記属性の変化の真偽を検証する属性変化検証手段を含み、前記属性の変化が真である場合に、前記同一のオブジェクトを、不審なオブジェクトとして検出する一方、前記属性の変化が偽である場合に、前記同一のオブジェクトを、前記不審なオブジェクトとして検出しない
    ことを特徴とする請求項1に記載の監視装置。
  3. 前記不審オブジェクト検出手段は、前記属性の変化と関連するコンテキストを分析するコンテキスト分析手段を含み、前記属性の変化および前記関連するコンテキストの組み合わせが、特定の例外に該当しない場合に、前記同一のオブジェクトを、不審なオブジェクトとして検出する一方、前記属性の変化および前記関連するコンテキストの組み合わせが、特定の例外に該当する場合に、前記同一のオブジェクトを、前記不審なオブジェクトとして検出しない
    ことを特徴とする請求項1に記載の監視装置。
  4. 前記関連するコンテキストは、前記属性の変化に影響する環境、および、前記属性の変化と関連して発生した事象のうち、少なくとも一方である
    ことを特徴とする請求項3に記載の監視装置。
  5. 前記対応付け手段は、前記複数のオブジェクトの属性情報および位置情報のうち少なくとも一方に基づいて、前記同一のオブジェクトを対応付ける
    ことを特徴とする請求項1から4のいずれか1項に記載の監視装置。
  6. 前記オブジェクトは、人物であり、
    前記人物の属性は、前記人物の顔、虹彩、歩容、体型、および髪形のうち少なくとも一つを含む
    ことを特徴とする請求項5に記載の監視装置。
  7. 前記付帯物の属性は、前記付帯物の色、大きさ、形状、模様、数、位置、および質感のうち少なくとも一つを含む
    ことを特徴とする請求項1から6のいずれか1項に記載の監視装置。
  8. 前記不審オブジェクト検出手段は、前記不審なオブジェクトの検出結果を出力する
    ことを特徴とする請求項1から7のいずれか1項に記載の監視装置。
  9. 時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクトを対応付け、
    前記時系列の画像データから、前記同一のオブジェクトおよびその付帯物の少なくとも一方の属性の変化を検出し、
    前記属性の変化に基づいて、不審なオブジェクトを検出すること
    を含む不審オブジェクト検出方法。
  10. 時系列の画像データから検出された複数のオブジェクトのうち、同一のオブジェクトを対応付ける処理と、
    前記時系列の画像データから、前記同一のオブジェクトおよびその付帯物の少なくとも一方の属性の変化を検出する処理と、
    前記属性の変化に基づいて、不審なオブジェクトを検出する処理と
    をコンピュータに実行させるためのプログラムを記録する記録媒体。
JP2021508788A 2019-03-27 2020-02-19 監視装置、不審オブジェクト検出方法、およびプログラム Active JP7201072B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019061223 2019-03-27
JP2019061223 2019-03-27
PCT/JP2020/006589 WO2020195376A1 (ja) 2019-03-27 2020-02-19 監視装置、不審オブジェクト検出方法、および記録媒体

Publications (2)

Publication Number Publication Date
JPWO2020195376A1 true JPWO2020195376A1 (ja) 2021-12-02
JP7201072B2 JP7201072B2 (ja) 2023-01-10

Family

ID=72609455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021508788A Active JP7201072B2 (ja) 2019-03-27 2020-02-19 監視装置、不審オブジェクト検出方法、およびプログラム

Country Status (3)

Country Link
US (5) US12136324B2 (ja)
JP (1) JP7201072B2 (ja)
WO (1) WO2020195376A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021196741A (ja) * 2020-06-11 2021-12-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11640671B2 (en) 2021-03-09 2023-05-02 Motorola Solutions, Inc. Monitoring system and method for identifying an object of interest after the object of interest has undergone a change in appearance
JP2023086471A (ja) 2021-12-10 2023-06-22 トヨタ自動車株式会社 防犯システム、防犯方法、及び防犯プログラム
WO2023238614A1 (ja) * 2022-06-09 2023-12-14 コニカミノルタ株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
KR102618508B1 (ko) * 2022-09-01 2023-12-27 인빅 주식회사 엣지 cctv를 이용한 객체 탐지 및 추적 시스템과 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042270A (ja) * 2017-10-26 2018-03-15 パナソニックIpマネジメント株式会社 置去り物監視装置およびこれを備えた置去り物監視システムならびに置去り物監視方法
JP2019016098A (ja) * 2017-07-05 2019-01-31 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050104960A1 (en) * 2003-11-17 2005-05-19 Mei Han Video surveillance system with trajectory hypothesis spawning and local pruning
US7760095B2 (en) * 2006-12-15 2010-07-20 Symbol Technologies, Inc. Context-driven RFID tag and system content
JP5358851B2 (ja) 2009-11-12 2013-12-04 将文 萩原 不審行動検知方法および不審行動検知装置
JP2014016968A (ja) 2012-07-11 2014-01-30 Toshiba Corp 人物検索装置及びデータ収集装置
US9020190B2 (en) * 2013-01-31 2015-04-28 International Business Machines Corporation Attribute-based alert ranking for alert adjudication
US9685056B2 (en) * 2014-03-21 2017-06-20 Qognify Ltd. Robust change-detection system and method
US10846536B2 (en) * 2014-06-27 2020-11-24 Nec Corporation Abnormality detection device and abnormality detection method
JP2016057908A (ja) 2014-09-10 2016-04-21 宮田 清蔵 万引き予防システム及びソフトウエア
JP6128468B2 (ja) 2015-01-08 2017-05-17 パナソニックIpマネジメント株式会社 人物追尾システム及び人物追尾方法
JP6572629B2 (ja) 2015-06-03 2019-09-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11368454B2 (en) * 2016-05-19 2022-06-21 Prove Identity, Inc. Implicit authentication for unattended devices that need to identify and authenticate users
US11151481B1 (en) * 2016-09-28 2021-10-19 Amazon Technologies, Inc. Ticketless entry and tracking
CN109426785B (zh) 2017-08-31 2021-09-10 杭州海康威视数字技术股份有限公司 一种人体目标身份识别方法及装置
JP7003628B2 (ja) 2017-12-19 2022-01-20 富士通株式会社 物体追跡プログラム、物体追跡装置、及び物体追跡方法
US11048930B2 (en) * 2018-11-09 2021-06-29 Avigilon Corporation Alias capture to support searching for an object-of-interest
KR102665643B1 (ko) 2019-02-20 2024-05-20 삼성전자 주식회사 아바타 표시를 제어하기 위한 방법 및 그 전자 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016098A (ja) * 2017-07-05 2019-01-31 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2018042270A (ja) * 2017-10-26 2018-03-15 パナソニックIpマネジメント株式会社 置去り物監視装置およびこれを備えた置去り物監視システムならびに置去り物監視方法

Also Published As

Publication number Publication date
US20230394939A1 (en) 2023-12-07
JP7201072B2 (ja) 2023-01-10
WO2020195376A1 (ja) 2020-10-01
US20230394940A1 (en) 2023-12-07
US20220189264A1 (en) 2022-06-16
US20230394941A1 (en) 2023-12-07
US20230394942A1 (en) 2023-12-07
US12136324B2 (en) 2024-11-05

Similar Documents

Publication Publication Date Title
WO2020195376A1 (ja) 監視装置、不審オブジェクト検出方法、および記録媒体
US20240265705A1 (en) Face concealment detection
Panahi et al. Human fall detection using machine vision techniques on RGB–D images
Cardinaux et al. Video based technology for ambient assisted living: A review of the literature
Kwolek et al. Improving fall detection by the use of depth sensor and accelerometer
Planinc et al. Introducing the use of depth data for fall detection
JP4924607B2 (ja) 不審行動検知装置および方法、プログラムおよび記録媒体
US20140347479A1 (en) Methods, Systems, Apparatuses, Circuits and Associated Computer Executable Code for Video Based Subject Characterization, Categorization, Identification, Tracking, Monitoring and/or Presence Response
Zhong et al. Multi-occupancy fall detection using non-invasive thermal vision sensor
Volkhardt et al. Fallen person detection for mobile robots using 3D depth data
Poonsri et al. Fall detection using Gaussian mixture model and principle component analysis
Poonsri et al. Improvement of fall detection using consecutive-frame voting
KR101515214B1 (ko) 얼굴 인식을 통한 신원확인 방법과 얼굴인식을 이용한 출입관리 경보 시스템 및 출입관리 경보 제어방법
Liciotti et al. Human activity analysis for in-home fall risk assessment
KR101957677B1 (ko) 얼굴인식을 통한 학습형 실시간 안내 시스템 및 그 안내 방법
Abd et al. Human fall down recognition using coordinates key points skeleton
Pramerdorfer et al. Fall detection based on depth-data in practice
WO2020217812A1 (ja) 被写体の状態を認識する画像処理装置及びその方法
JP4797517B2 (ja) 監視装置および方法、並びにプログラム
De Silva Audiovisual sensing of human movements for home-care and security in a smart environment
US20150286865A1 (en) Coordination of object location data with video data
Bansal et al. Elderly people fall detection system using skeleton tracking and recognition
Dubois et al. Automatic fall detection system with a RGB-D camera using a hidden Markov model
US10679086B2 (en) Imaging discernment of intersecting individuals
RU2315352C2 (ru) Способ и система для автоматического обнаружения трехмерных образов

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210721

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221205

R151 Written notification of patent or utility model registration

Ref document number: 7201072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151