[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018147160A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2018147160A
JP2018147160A JP2017040411A JP2017040411A JP2018147160A JP 2018147160 A JP2018147160 A JP 2018147160A JP 2017040411 A JP2017040411 A JP 2017040411A JP 2017040411 A JP2017040411 A JP 2017040411A JP 2018147160 A JP2018147160 A JP 2018147160A
Authority
JP
Japan
Prior art keywords
area
person
information processing
region
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017040411A
Other languages
English (en)
Other versions
JP6649306B2 (ja
Inventor
小坂谷 達夫
Tatsuo Kosakaya
達夫 小坂谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017040411A priority Critical patent/JP6649306B2/ja
Priority to US15/690,700 priority patent/US10402634B2/en
Publication of JP2018147160A publication Critical patent/JP2018147160A/ja
Application granted granted Critical
Publication of JP6649306B2 publication Critical patent/JP6649306B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Alarm Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】イベントの発生履歴がない場合でも、特定の領域毎にイベントの発生確率を推定できるようにする。
【解決手段】実施形態の情報処理装置は、受付部と検出部と推定部とを備える。受付部は、画像と、第1の領域を示す領域情報とを受け付ける。検出部は、画像から物体を検出する。推定部は、第1の領域と、物体との位置関係に基づいて、第1の領域で発生するイベントの発生確率を推定する。
【選択図】図1

Description

本発明の実施形態は情報処理装置、情報処理方法及びプログラムに関する。
イベントの発生確率及び発生リスク等を推定する技術が従来から知られている。例えば特定の場所の過去の犯罪履歴、及び、周囲の店舗の情報等に応じて、犯罪の発生確率を推定する方法が従来から知られている。また例えば、不審者の周囲に存在する人物毎に犯罪の発生リスクを予測する方法が従来から知られている。
米国特許8949164号 特開2015−139007号公報
新しい特徴量を用いた人物検出技術、東芝レビュー Vol.65,No.4,2010 カメラの視界から一時的に隠れても追跡可能な人物追跡技術、東芝レビュー Vol.70,No.6,2015
しかしながら、従来の技術では、イベントの発生履歴がない場合に、特定の領域毎にイベントの発生確率を推定することが難しかった。
実施形態の情報処理装置は、受付部と検出部と推定部とを備える。受付部は、画像と、第1の領域を示す領域情報とを受け付ける。検出部は、前記画像から物体を検出する。推定部は、前記第1の領域と、前記物体との位置関係に基づいて、前記第1の領域で発生するイベントの発生確率を推定する。
第1実施形態の情報処理装置の機能構成の例を示す図。 第1実施形態の第1の領域と人物との位置関係の例を示す図。 第1実施形態の情報処理方法の例を示すフローチャート。 第2実施形態の情報処理装置の機能構成の例を示す図。 第2実施形態の情報処理方法の例を示すフローチャート。 第2実施形態の変形例4の情報処理装置の動作を説明するための図。 第1及び第2実施形態の情報処理装置のハードウェア構成の例を示す図。
以下に添付図面を参照して、情報処理装置、情報処理方法及びプログラムの実施形態を詳細に説明する。
(第1実施形態)
はじめに第1実施形態の情報処理装置の機能構成の例について説明する。
[機能構成の例]
図1は第1実施形態の情報処理装置10aの機能構成の例を示す図である。第1実施形態の情報処理装置10aは、受付部1、検出部2a、特定部3a及び推定部4aを備える。
第1実施形態の情報処理装置10aは、受付部1、検出部2a、特定部3a及び推定部4aを動作させることにより、イベントの発生確率を推定する。第1実施形態では、理解を助けるために、イベントが、小売店舗内で発生する万引きである場合を例にして説明する。
受付部1は、1以上の画像と、第1の領域を示す1以上の領域情報とを受け付ける。画像の形式は、映像(動画像)でもよいし、静止画像でもよい。第1実施形態の説明では、画像の形式が映像である場合について説明する。
映像を撮像するカメラは任意でよい。映像は、例えば可視光を使用する一般的な防犯カメラにより撮像される。また例えば、映像は、近赤外線及び遠赤外線等を使用するカメラにより撮像される。また例えば、映像は、奥行き情報を含む特殊な3次元カメラやセンサにより撮像される。カメラの撮影範囲は、第1の領域と重なっていても、重なっていなくてもよい。
第1の領域は、イベントの発生確率が推定される領域である。第1実施形態の情報処理装置10aは、第1の領域毎にイベントの発生確率を推定する。
第1の領域は、どのような形状及び面積であってもよい。第1の領域は、例えば店舗内のある棚の前等の地理的な属性に応じて決定された領域である。また例えば、第1の領域は、2次元の平面ではなく、3次元の立体的な領域でもよい。また時間に応じて領域の有無や形状等の設定が変化してもよい。
検出部2aは、受付部1により受け付けられた映像から物体を検出する。物体は人物でもよいし、人物以外の物でもよい。人物以外の物は、例えばロボット等である。第1実施形態の説明では、物体が人物である場合を例にして説明する。映像から人物を検出する方法は任意でよい。検出部2aは、例えば非特許文献1に開示されている人物検出技術を使用して、映像から人物を検出する。
映像から検出された人物の位置は、当該映像上での座標系(以下、「カメラ座標系」という。)の座標により表される。
特定部3aは、第1の領域と、人物との位置関係を特定する。具体的には、まず特定部3aは、カメラ座標系の座標情報を、共通座標系の座標情報に変換する。共通座標系は、第1の領域と人物との位置関係を計算可能な座標系である。
共通座標系は、例えば店舗の平面図上の座標系である。特定部3aは、第1の領域と、人物との両方を店舗平面図上の座標系で示すことにより、第1の領域と、人物との位置関係を特定する。
カメラ座標系から共通座標系への座標変換は、カメラの共通座標系上での位置、カメラの向き及び視野角等が分かっていれば、幾何学的に計算可能である。
また、複数のカメラにより撮像された映像から、個別に人物が検出されていたとしても、検出されたそれぞれのカメラ座標系上の人物の座標情報を、共通座標系の座標情報に変換することにより、一元的に、第1の領域と、それぞれの人物との位置関係を特定することができる。
推定部4aは、第1の領域と、人物との位置関係から、第1の領域で発生するイベントの発生確率を推定する。
第1実施形態では、イベントの発生確率は、万引きの発生確率である。万引きは、万引きを実行しようという意志を持つ人物(便宜上、犯意者という。)が存在すれば必ず発生するとは限らない。犯意者は当然、万引きが発覚することを避けるため、周囲の状況を含めて万引きを実行するかどうかを判断する。したがって、第1の領域において、犯意者だけに注目しても万引きが起こるかどうかを予測することはできず、周囲の状況も考慮される必要がある。
また、映像等から、ある人物が犯意を持っているかどうかを外部から確定的に観測することは容易ではないため、特定の人物を犯意者(不審者)として集中的に分析することも難しい。
そこで推定部4aは、第1の領域と、第1の領域の周囲に存在する人物との位置関係から、万引きが発生しやすい状況かどうかを判定することにより、当該第1の領域での万引きの発生確率を推測する。推定部4aは、例えば第1の領域と、人物との位置関係に基づいて定義された発生確率の定義情報を使用して、第1の領域で発生するイベントの発生確率を推定する。
上で述べたように、一般的に、万引きは衆人環視の下では発生しない。したがって、第1の領域との距離が閾値以下の位置に人物(第1の人物)が存在し、かつ、第1の領域が他の人物(第2の人物)から、死角となるような位置に存在するか否かで万引きの発生確率は変化する。死角は、例えば遮蔽物により生じる。遮蔽物は、例えば商品の陳列棚である。
なお上述の閾値は適宜定めてよい。以下の説明で述べられる、それぞれの処理に使用される閾値についても同様である。
遮蔽物の位置は、共通座標系上で事前に設定することができる。なお、遮蔽物の位置の他に、遮蔽物の種類及び高さ等も併せて設定しておいてもよい。
<位置関係の例>
図2は第1実施形態の第1の領域と人物との位置関係の例を示す図である。図2の例は、共通座標系により、第1の領域100の位置と、第1の人物101の位置と、第2の人物102a〜102iの位置とが示されている場合を示す。図2の例では、受付部1により受け付けられる第1の領域を示す領域情報は、共通座標系の座標情報である。
第1の人物101と、第1の領域100との距離は閾値(距離の閾値)以下である。
第1の領域100は、陳列棚によって、第2の人物102a〜102dから死角となる。第1の領域100からの距離が閾値以上の位置に存在している第2の人物102e〜102iは、現在時刻におけるイベント発生確率には影響を与えないと考えられるので排除できる。
図2の例では、最も簡単な例として、推定部4aが、第1の領域と第2の人物102との間の遮蔽物の有無に基づいて、万引きの発生確率を推定する場合を示している。第1の領域100に着目すると、5人の人物が第1の領域100の周囲に存在しているが、4人(第2の人物102a〜102d)からは、商品の陳列棚によって、第1の領域100が死角となる。
つまり、第1の領域100へは、周囲からの監視下にない第1の人物101だけが近づいている状態になり、第1の領域100での万引きの発生確率は高くなると推測できる。具体的には、推定部4aは、第1の領域100と、人物との位置関係が、周囲からの監視下にない人物(図2の例では第1の人物101)だけが第1の領域100に近づいている状態であるときの万引きの発生確率が、閾値以上の値に定義された定義情報を使用することにより、第1の領域100で発生するイベントの発生確率を推定する。
なお、第1の領域100からの距離が閾値以上の位置に存在している第2の人物102e〜102iを完全に排除するのではなく、第1の領域100からの距離に応じた重みを設定して、イベント発生確率の計算に使用してもよい。重みは、例えば第1の領域100との距離が遠い程、遮蔽物の有無に基づくイベント発生率の計算に寄与しないように設定される。
また、図2の例では、簡単のため、第1の領域100が1つの場合を示しているが、複数の第1の領域100のそれぞれに対してイベント発生確率を推定してもよい。
次に第1実施形態の情報処理方法について説明する。
[情報処理方法の例]
図3は第1実施形態の情報処理方法の例を示すフローチャートである。はじめに、受付部1が、1以上の映像と、第1の領域を示す1以上の領域情報とを受け付ける(ステップS1)。次に、検出部2aが、ステップS1の処理により受け付けられた1以上の映像から、人物を検出する(ステップS2)。
次に、特定部3aが、人物の位置を示すカメラ座標系の座標情報を、共通座標系の座標情報に変換する(ステップS3)。次に、特定部3aは、ステップS3の処理により得られた共通座標系の座標情報を使用して、第1の領域と人物との位置関係を特定する(ステップS4)。
次に、推定部4aが、ステップS4の処理により特定された第1の領域と、人物との位置関係から、第1の領域で発生するイベントの発生確率を推定する(ステップS5)。
以上、説明したように、第1実施形態の情報処理装置10aでは、受付部1が、映像と、第1の領域を示す領域情報とを受け付ける。検出部2aが、映像から人物を検出する。そして推定部4aが、第1の領域と、人物との位置関係に基づいて、第1の領域で発生するイベントの発生確率を推定する。
これにより第1実施形態の情報処理装置10aによれば、イベントの発生履歴がない場合でも、特定の領域毎にイベントの発生確率を推定することができる。
なお対象のイベントは、上述の万引きに限られない。第1実施形態の情報処理装置10は、イベントの発生確率が推定される領域と、当該領域の周囲の人物との関係によって決まる任意のイベントの発生確率を推定することができる。
例えば、駅及び店舗等で、駅員及び店員等に用事があるので声をかけたい、というようなスタッフコールのイベントを対象にしてもよい。スタッフコールのイベントも、イベントの発生確率が推定される領域の周囲に店員がいるかどうかなどの状況に応じて、当該イベントの発生確率が変わる。
スタッフコールのイベントの発生確率が推測できれば、当該イベントの発生確率に応じてスタッフを予め配置しておくことができるので、顧客満足の改善、及び、スタッフの人的配置の最適化等が期待できる。
(第1実施形態の変形例)
次に第1実施形態の変形例について説明する。第1実施形態の変形例では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
第1次実施形態の変形例では、第1の領域で発生するイベントの発生確率が閾値以上の場合、当該第1の領域で発生するイベントの発生確率が閾値以上であることを通知する通知部を備える。
第1実施形態の変形例について、イベントが万引きである場合を例にして説明する。
通知先は、例えば所定の装置である。所定の装置は任意でよい。イベントが万引きである場合、所定の装置は、例えば店舗スタッフにより携帯されるスマートデバイスである。
また通知の方法は任意でよい。通知の方法は、例えば所定の装置の表示部にメッセージを表示する方法でもよい。また例えば、通知の方法は、メール等の通信機能を使用することにより、通知する方法でもよい。
また通知先は任意でよい。通知先は、例えば第1の領域に最も近い店舗スタッフにより携帯されるスマートデバイスである。また例えば、通知先は、それぞれの店舗スタッフにより形態されている複数のスマートデバイスである。
万引きは、発生した後に店舗スタッフが対処するよりも、そもそも万引きが発生しない方が好ましい。そのため、通知部が、万引きの発生確率が閾値以上の場合に、万引きの発生確率が閾値以上であることを所定の装置に通知することにより、万引きの発生を未然に防ぐことが期待できる。その結果、顧客満足度の向上、及び、店舗運営効率の改善につなげることができる。
(第2実施形態)
次に第2実施形態について説明する。第2実施形態では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
例えばイベントが万引きである場合、第1の領域が、他の人物から死角となっている状況で、第1の領域付近に人物が1人で存在していたとしても、当然ながらその人物が必ずしも万引きを目的とする犯意者とは限らない。むしろ偶然そのような状況になっただけである可能性の方が高い。そのため、第1の領域が、他の人物から死角となっている状況で、第1の領域付近に人物が1人で存在している場合、当該第1の領域の万引きの発生確率が閾値以上であると毎回、推定すると、信頼度が低くなる恐れがある。
そこで、第2実施形態では、推定部4bが、第1の領域と、人物との位置関係以外の情報を更に使用して、イベントの発生確率を推定する場合について説明する。
[機能構成の例]
図4は第2実施形態の情報処理装置10bの機能構成の例を示す図である。第2実施形態の情報処理装置10bは、受付部1、検出部2b、特定部3b、推定部4b及び記憶部5を備える。
受付部1は、1以上の映像と、第1の領域を示す1以上の領域情報とを受け付ける。
検出部2bは、受付部1により受け付けられた映像から、人物だけでなく、当該人物の属性を示す属性情報を更に検出する。属性情報は、例えば年齢、性別、装着物、髪型及び人種のうち、少なくとも1つを含む。装着物は、例えば服装及び帽子等である。
特定部3bは、第1の領域と、人物との位置関係だけでなく、当該人物の移動軌跡と、当該人物の行動を示す行動情報とを更に特定する。
まず人物の移動軌跡の特定方法について説明する。
<人物の移動軌跡の特定方法>
第2実施形態では、特定部3bは、例えば店舗内での人物の移動軌跡を特定する。
移動軌跡の特定方法は任意でよい。例えば、同一のカメラにより撮像された映像であれば、当該映像に含まれるフレーム間で、同一の人物を追跡し続けるトラッキング技術が利用可能である。特定部3bは、例えば非特許文献2に開示されている人物追跡技術を使用して、人物の移動軌跡を特定する。
特定部3bは、検出された人物の位置、及び、追跡された人物の移動軌跡を示すカメラ座標系の座標情報を、共通座標系の座標情報に変換する。そして特定部3bは、共通座標系の座標情報を記憶部5に記憶する。さらに、特定部3bは、検出部2bにより検出された人物の属性情報と、当該人物を映像から切り出した部分画像と、を関連付けて記憶部5に記憶する。
特定部3bは、人物が映像の撮影範囲外に出てしまった場合には、カメラ間で人物の対応付けを行うことにより、同一の人物の移動軌跡を、店舗内で一貫した人物の移動軌跡に統合する。当日の店舗内における人物の対応付けなので、基本的に服装は変わらない。そのため、人物画像のパターンマッチングによって、類似する人物軌跡を統合していけばよい。
また、カメラの撮影範囲でオーバーラップする領域においては、共通座標系に変換した場合に重なっている人物の軌跡を統合することにより、人物の対応付けを行うこともできる。特定部3bは、十分な数のカメラが店舗に設置されていれば、カメラ間で人物の対応付けを行うことにより、入店時から現在時刻まで店舗内にいる人物の移動軌跡を特定することができる。
なお特定部3bは、カメラにより撮像された映像以外から人物の移動軌跡を特定してもよい。特定部3bは、例えば電波等を利用したセンサにより取得された情報を使って、人物の移動軌跡を特定してもよい。例えば、人物が携帯電話を持っている場合、特定部3bは、携帯電話が発する電波を利用して、人物の位置を特定することができる。また例えば、特定部3bは、店舗内に設置された買い物かごに、予め無線タグが組み込まれている場合、当該無線タグを読み取ることにより、人物の位置を特定することができる。
次に人物の行動の特定方法について説明する。
<人物の行動の特定方法>
人物の行動を示す行動情報の特定方法は任意でよい。特定部3bは、例えばカメラにより撮像された映像から行動情報を特定する。行動情報は、例えば人物の顔の向き、視線の向き、移動速度、手の動き、及び、滞在時間のうち、少なくとも1つを含む。
人物の顔の向き、視線の向き、及び、移動速度等は、例えば当該人物に挙動不審な動作があるか否かを示す。
手の動きは、例えば商品を手に取る、カバン等の装着物を触る、及び、携帯電話等の携行品を触る等である。
滞在時間は、第1の領域を含む第2の領域内に人物が滞在している時間である。第2の領域は、例えば店舗の売り場全体の領域を示す。入店時からの人物の移動軌跡が得られていれば、当該人物の滞在時間についても特定が可能である。
推定部4bは、第1の領域と、人物との位置関係だけでなく、当該人物の移動軌跡、属性情報及び行動情報等のうち少なくとも1つに更に基づいて、第1の領域で発生するイベントの発生確率を推定する。
人物の移動軌跡、属性情報及び行動情報は、イベントが万引きである場合には、それぞれ単体では直接の関連性は低いかもしれない。しかしながら、人物の移動軌跡、属性情報及び行動情報を組み合わせることにより、万引きの犯意者特有の情報が抽出される可能性は高まる。
この万引きの犯意者特有の情報の組み合わせは無数にある。しかしながら特定部3bは、例えば機械学習の方法を使用することにより得られた万引きの発生モデルから、万引きの犯意者特有の情報を抽出することができる。推定部4bは、例えば図2に示す人物101の移動軌跡、属性情報及び行動情報の組み合わせと、犯意者特有の情報との類似度に更に基づいて、万引きの発生確率を推定することができる。推定部4bは、例えば上述の定義情報により定義された万引きの発生確率を、人物101の移動軌跡、属性情報及び行動情報の組み合わせと、犯意者特有の情報との類似度に応じた値だけ高くする。
<機械学習を使用する場合>
具体的には、店舗内で万引きが起こり、捕まえた犯人が自供する、または、店舗内のカメラから万引きの瞬間を特定できた等、いつ、どこで、誰が万引きしたのかが判明した場合を考える。また、万引き発生時の犯人の移動軌跡、属性情報及び行動情報が得られているとする。
推定部4bは、万引きが起こった場所を第1の領域とし、万引きの発生時刻をtとする。そして推定部4bは、当該第1の領域で時刻tにおける万引き発生確率が100%となるように、人物の移動軌跡、属性情報及び行動情報の組み合わせの最適化問題を解けばよい。具体的には、推定部4bは、学習関数への入力情報として、人物の移動軌跡、属性情報及び行動情報の組み合わせを使用することにより、犯意者特有の情報の組み合わせの最適化問題を解く。
もちろん、1回の万引きにより得られた教師データだけから、万引きの発生モデルを正しく学習することは難しい。店舗内での複数回の万引きが特定できれば、それだけ学習のための教師データは増加するので、万引きの発生モデルから得られる犯意者特有の情報の推定精度は向上する。
しかし、学習対象の店舗が同一の店舗だけの場合、学習に必要となる十分な数の万引きを特定することができない可能性がある。また、教師データが揃うまでに時間がかかってしまうという懸念もある。
そこで、特定部3bは、共通座標系を、第1の領域を含む相対共通座標系に変換してもよい。
相対共通座標系は、例えば共通座標系で示された第1の領域の中心を原点とする座標を使用して、当該第1の領域と人物との位置関係を局所的に示す座標系である。相対共通座標系を使用することで、複数の店舗間で、局所的には類似する領域で得られた教師データを、当該複数の店舗間で使用することができる。
具体的には、相対共通座標系を一定のルールで正規化することにより、同一店舗だけでなく他の店舗とも教師データの比較が可能となる。一定のルールは、例えば相対共通座標系の単位を例えばメートル等で統一することを含む。また例えば、一定のルールは、店舗の入り口を特定の方向にする等により、相対共通座標系の向きを合わせることを含む。
なお相対共通座標系の原点は、第1の領域の中心に限られず、任意で定めてよい。
店舗間で教師データが相互に利用できるようにすることにより、ある店舗で最適化の学習をすることにより得られたモデルを、一般モデルとして、別の店舗でも流用できる。これにより、情報処理装置10bの導入時のコストを削減できるという利点が生じる。
また、情報処理装置10bが導入された店舗で、初期値として一般モデルを使用し、当該一般モデルを更に適応的に学習してもよい。これにより一般モデルを、情報処理装置10bが導入された店舗に適応させることができるので、イベントの発生確率の推定精度を向上させることができる。
次に第2実施形態の情報処理方法について説明する。
[情報処理方法の例]
図5は第2実施形態の情報処理方法の例を示すフローチャートである。はじめに、受付部1が、1以上の映像と、第1の領域を示す1以上の領域情報とを受け付ける(ステップS11)。
次に、検出部2bが、ステップS11の処理により受け付けられた1以上の映像から、人物を検出する(ステップS12)。次に、検出部2bが、ステップS11の処理により受け付けられた1以上の映像から、属性情報を検出する(ステップS13)。
次に、特定部3bが、人物の位置を示すカメラ座標系の座標情報を、共通座標系の座標情報に変換する(ステップS14)。次に、特定部3は、ステップS14の処理により得られた共通座標系の座標情報を使用して、第1の領域と人物との位置関係を特定する(ステップS15)。次に、特定部3は、ステップS11の処理により受け付けられた1以上の映像から、人物の移動軌跡及び行動情報を特定する(ステップS16)。
次に、推定部4bが、ステップS15の処理により特定された第1の領域と、人物との位置関係、及び、ステップS16の処理により特定された人物の移動軌跡と行動情報とから、第1の領域で発生するイベントの発生確率を推定する(ステップS17)。
以上説明したように、第2実施形態の情報処理装置10bでは、推定部4bが、移動軌跡、属性情報及び行動情報を使用することにより、第1の領域の周囲の人物の情報をより多く扱うことができるので、イベントの発生確率の推定精度をより向上させることができる。
(第2実施形態の変形例1)
次に第2実施形態の変形例1について説明する。第2実施形態の変形例1では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。
第2次実施形態の変形例1では、推定部4bが、上述の移動軌跡、属性情報及び行動情報以外の情報を更に使用することにより、イベントの発生確率の推定精度を更に向上させる場合について説明する。
第2実施形態の変形例1について、イベントが万引きである場合を例にして説明する。
推定部4bは、例えば第1の領域の属性を示す属性情報を更に使用してもよい。属性情報は、例えば調味料、生鮮品及び菓子類等の陳列棚の種類に応じて定められる。また属性情報は、例えば第1の領域の店舗内の位置に応じて定められる。
第1の領域が店舗内のどのような場所にあるかによって、万引きの発生確率は変化する可能性がある。例えば第1の領域が人目に付きにくい場所にある場合、当該第1の領域の万引きの発生確率は、他の領域よりも高くなる可能性が高い。推定部4bが、属性情報を更に使用することにより、万引きの発生確率の推定精度を更に向上させることができる。
また例えば、推定部4bは、時間、曜日及び天気等を示す情報を更に使用してもよい。推定部4bは、例えば第1の領域で発生するイベントの発生確率を、更に時刻に応じて推定すしてもよい。具体的には、推定部4bは、例えば上述の第1の領域の属性情報と、時間情報とを更に使用する。これにより推定部4bは、例えば夕方には生鮮食品の万引きが多い等の情報を更に考慮して、万引きの発生確率を推定することができる。
第2実施形態の変形例1によれば、イベントの発生確率の推定精度を更に向上させることができる。
(第2実施形態の変形例2)
次に第2実施形態の変形例2について説明する。第2実施形態の変形例2では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。
第2次実施形態の変形例2では、推定部4bが、人物の属性情報が所定の条件を満たす場合に、イベントの発生確率を変化させることにより、イベントの発生確率の推定精度を更に向上させる場合について説明する。
第2実施形態の変形例2について、イベントが万引きである場合を例にして説明する。
イベントが万引きである場合、犯意者の近くに人物がいるとき、当該人物が別の買い物客である場合よりも、警備員である場合の方が、万引きを実行する可能性は低いと考えられる。
検出部2bは、検出された人物が、店員及び警備員等の店舗のスタッフである場合、特別なラベル等の識別情報を付与する。
一般に、店員及び警備員等の店舗スタッフは、特定のユニフォーム等の装着物により、外見上、買い物客と区別することが可能である。なお、仮にユニフォーム等がなく、買い物客と店舗スタッフとの見分けが外見上付かないのであれば、そもそも万引きの発生確率に影響を与えないと考えられる。
検出部2bは、買い物客と店舗スタッフとが、外見上、区別可能である場合、パターン認識の技術を使用することにより、人物が店舗スタッフであるか否かを検出する。なお検出部2bが、店舗スタッフを検出する方法は任意でよい。検出部2bは、店舗スタッフが無線タグ等のセンサを携帯している場合、当該無線タグから発せられた電波を使用することにより、人物が店舗スタッフであるか否かを検出してもよい。
特定部3bは、第1の領域と店舗スタッフとの距離を特定する。
推定部4bは、第1の領域と店舗スタッフとの距離に応じて、万引きの発生確率を変化させる。推定部4bは、例えば第1の領域と店舗スタッフとの距離が閾値以下の場合、万引きの発生確率を低下させる。
また推定部4bは、機械学習により万引きの発生モデルを学習する場合、例えば買い物客を示す変数と、店舗スタッフを示す変数と、が区別された教師データを学習関数に入力することにより、万引きの発生モデルを学習する。また例えば、推定部4bは、買い物客を示す変数を含む教師データが入力される学習関数と、店舗スタッフを示す変数を含む教師データが入力される学習関数とを区別することにより、万引きの発生モデルを学習する。
第2実施形態の変形例2によれば、イベントの発生確率の推定精度を更に向上させることができる。
(第2実施形態の変形例3)
次に第2実施形態の変形例3について説明する。第2実施形態の変形例3では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。
第2次実施形態の変形例3では、推定部4bが、イベント発生までの予測時間を推定する場合について説明する。
第2実施形態の変形例3について、イベントが万引きである場合を例にして説明する。
推定部4bは、教師データとして、万引きが発生した時刻tが与えられた場合、時刻t−aの状況(人物の移動軌跡、属性情報及び行動情報等の入力データが得られた状況)に対して、時刻a後に万引きが発生するという教師信号を出力することができる。推定部4bは、この教師信号を最適化の指標に設定することにより、機械学習を行う。これにより任意の状況において、次はいつ万引きが発生するかという時刻を予測することが可能となる。
第2実施形態の変形例3によれば、次はいつイベントが発生するかという時刻を予測することが可能となる。
(第2実施形態の変形例4)
次に第2実施形態の変形例4について説明する。第2実施形態の変形例4では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。
第2次実施形態の変形例4では、第1の領域が、映像を撮像するカメラの死角となる領域の一部又は全部を含む場合について説明する。
第2実施形態の変形例4について、イベントが万引きである場合を例にして説明する。
図6は第2実施形態の変形例4の推定部4bの動作を説明するための図である。図6の例は、三角形ABCの領域が、カメラ20a及びカメラ20bの死角となる場合を示す。第1の領域100は、三角形ABCの領域の一部を含む。以下、カメラ20a及びカメラ20bを区別しない場合は、単にカメラ20という。
通常、カメラ20は固定されているため、カメラ20の撮影範囲は事前に把握可能である。そこで、共通座標系上で、どの座標がカメラの撮影範囲内で、どの座標がカメラの撮影範囲外なのかを示すことが可能である。
また、特定部3bが、カメラ20により撮像された映像を使用して、人物を追跡している際に、当該人物が映像を撮像するカメラ20の画角外に出てしまうこともある。
図6の例は、特定部3bが、カメラ20aにより撮像された映像により、人物101(102)を、移動軌跡110の途中まで追跡していた際に、当該人物101がカメラ20aの画角の外に出てしまった場合を示す。人物101は、カメラ20bにより撮像された映像にも含まれていない。したがって人物101が存在する可能性がある領域は、三角形ABCの領域内である。
この三角形ABCの領域と第1の領域100とが重なっている領域に、人物101が存在している可能性がある。したがって推定部4bは、カメラ20により撮像された映像に人物が含まれておらず、かつ、カメラ20の死角に人物101が存在し続けている場合を考慮して、第1の領域100で発生する万引きの発生確率を推定する。
カメラ20により撮像された映像に人物101が含まれておらず、かつ、カメラ20の死角に人物101が存在し続けている場合を考慮する方法は任意でよい。単純には、推定部4bは、例えば最適化問題を解いて万引きの発生確率を学習する際に、死角にいる人物101の存在の有無を示す状態情報を使用する。状態情報は、例えばフラグ等のパラメータである。また例えば、推定部4bは、人物101がカメラ20の死角にいる時間が、閾値以上の場合、第1の領域100で発生する万引きの発生確率を閾値以上にする。
推定部4bが、上述のようにカメラ20の死角を考慮することにより、人物101(102)が、映像を撮像するカメラ20の画角外に存在する場合が生じても、第1の領域で発生する万引きの発生確率の推定精度を向上させることができる。
第2実施形態の変形例4によれば、第1の領域が、映像を撮像するカメラの死角となる領域の一部又は全部を含む場合でも、第1の領域で発生するイベントの発生確率の推定精度を向上させることができる。
(第2実施形態の変形例5)
次に第2実施形態の変形例5について説明する。第2実施形態の変形例5では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。
第2次実施形態の変形例5では、検出部2bが、警報装置及びカメラ等の所定の物体を更に検出し、推定部4bが、当該所定の物体と第1の領域との距離に更に基づいて、イベントの発生確率を変化させることにより、イベントの発生確率の推定精度を更に向上させる場合について説明する。
第2実施形態の変形例5について、イベントが万引きである場合を例にして説明する。
イベントが万引きである場合、第1の領域又は犯意者の近くに、警報装置及びカメラ等の所定の物体がある場合、犯意者の近くに当該所定の物体がない場合よりも、万引きを実行する可能性は低いと考えられる。
検出部2bは、検出された所定の物体に、特別なラベル等の識別情報を付与する。
特定部3bは、第1の領域と所定の物体との距離を特定する。
推定部4bは、第1の領域と所定の物体との距離に基づいて、万引きの発生確率を変化させる。推定部4bは、例えば第1の領域と所定の物体との距離が閾値以下の場合、万引きの発生確率を低下させる。
また推定部4bは、機械学習により万引きの発生モデルを学習する場合、例えば所定の物体の有無等を示す変数を含む教師データを学習関数に入力することにより、万引きの発生モデルを学習する。
第2実施形態の変形例5によれば、イベントの発生確率の推定精度を更に向上させることができる。
最後に第1及び第2実施形態の情報処理装置10のハードウェア構成の例について説明する。
[ハードウェア構成の例]
図7は第1及び第2実施形態の情報処理装置10のハードウェア構成の例を示す図である。第1及び第2実施形態の情報処理装置10は、制御装置201、主記憶装置202、補助記憶装置203、表示装置204、入力装置205及び通信装置206を備える。制御装置201、主記憶装置202、補助記憶装置203、表示装置204、入力装置205及び通信装置206は、バス210を介して接続されている。
制御装置201は補助記憶装置203から主記憶装置202に読み出されたプログラムを実行する。制御装置201は、例えばCPU等の1以上のプロセッサである。主記憶装置202はROM(Read Only Memory)、及び、RAM(Random Access Memory)等のメモリである。補助記憶装置203はメモリカード、及び、HDD(Hard Disk Drive)等である。
表示装置204は情報を表示する。表示装置204は、例えば液晶ディスプレイである。入力装置205は、情報の入力を受け付ける。入力装置205は、例えばキーボード及びマウス等である。なお表示装置204及び入力装置205は、表示機能と入力機能とを兼ねる液晶タッチパネル等でもよい。通信装置206は他の装置と通信する。
第1及び第2実施形態の情報処理装置10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R、及び、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
また第1及び第2実施形態の情報処理装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また第1及び第2実施形態の情報処理装置10が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また第1及び第2実施形態の情報処理装置10で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1及び第2実施形態の情報処理装置10で実行されるプログラムは、第1及び第2実施形態の情報処理装置10の機能構成のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置201が補助記憶装置203等の記憶媒体からプログラムを読み出して実行することにより、主記憶装置202にロードされる。すなわちプログラムにより実現される機能は、主記憶装置202上に生成される。
なお第1及び第2実施形態の情報処理装置10の機能の一部を、IC(Integrated Circuit)等のハードウェアにより実現してもよい。ICは、例えば専用の処理を実行するプロセッサである。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2以上を実現してもよい。
また第1及び第2実施形態の情報処理装置10の動作形態は任意でよい。第1及び第2実施形態の情報処理装置10を、例えばネットワーク上のクラウドシステムとして動作させてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 受付部
2 検出部
3 特定部
4 推定部
5 記憶部
10 情報処理装置
201 制御装置
202 主記憶装置
203 補助記憶装置
204 表示装置
205 入力装置
206 通信装置

Claims (15)

  1. 画像と、第1の領域を示す領域情報とを受け付ける受付部と、
    前記画像から物体を検出する検出部と、
    前記第1の領域と前記物体との位置関係に基づいて、前記第1の領域で発生するイベントの発生確率を推定する推定部と、
    を備える情報処理装置。
  2. 前記物体は、人物であり、
    前記推定部は、前記第1の領域との距離が第1の閾値以下の位置に第1の人物が存在し、かつ、前記第1の領域と1以上の第2の人物との間に遮蔽物がある場合、前記第1の領域で発生するイベントの発生確率を第2の閾値以上にする、
    請求項1に記載の情報処理装置。
  3. 前記推定部は、前記物体の移動軌跡に更に基づいて、前記第1の領域で発生するイベントの発生確率を推定する、
    請求項1に記載の情報処理装置。
  4. 前記検出部は、前記物体が前記画像の撮影範囲外に移動し、かつ、前記第1の領域内に前記物体が存在する可能性がある場合、前記第1の領域内に前記物体が存在する可能性があることを示す状態情報を設定し、
    前記推定部は、前記状態情報に更に基づいて、前記第1の領域で発生するイベントの発生確率を推定する、
    請求項3に記載の情報処理装置。
  5. 前記物体は、人物であり、
    前記検出部は、前記人物の属性を示す属性情報を更に検出し、
    前記推定部は、前記属性情報に更に基づいて、前記第1の領域で発生するイベントの発生確率を推定する、
    請求項1に記載の情報処理装置。
  6. 前記属性情報は、年齢、性別、装着物、髪型及び人種のうち、少なくとも1つを含む、
    請求項5に記載の情報処理装置。
  7. 前記物体は、人物であり、
    前記推定部は、前記人物の行動を示す行動情報に更に基づいて、前記第1の領域で発生するイベントの発生確率を推定する、
    請求項1に記載の情報処理装置。
  8. 前記行動情報は、前記人物の顔の向き、視線の向き、移動速度、手の動き、及び、前記第1の領域を含む第2の領域内に前記人物が滞在している滞在時間のうち、少なくとも1つを含む、
    請求項7に記載の情報処理装置。
  9. 前記検出部は、画像から所定の物体を更に検出し、
    前記推定部は、前記所定の物体と前記第1の領域との距離に更に基づいて、前記第1の領域で発生するイベントの発生確率を推定する、
    請求項1に記載の情報処理装置。
  10. 前記推定部は、前記第1の領域の属性を示す属性情報に更に基づいて、前記第1の領域で発生するイベントの発生確率を推定する、
    請求項1に記載の情報処理装置。
  11. 前記推定部は、前記第1の領域で発生するイベントの発生確率を、更に時刻に応じて推定する、
    請求項1に記載の情報処理装置。
  12. 前記推定部は、前記第1の領域で発生するイベントの発生確率が閾値以上になる時刻を更に推定する、
    請求項1に記載の情報処理装置。
  13. 前記第1の領域で発生するイベントの発生確率が閾値以上の場合、前記第1の領域で発生するイベントの発生確率が閾値以上であることを通知する通知部、
    を更に備える請求項1に記載の情報処理装置。
  14. 画像と、第1の領域を示す領域情報とを受け付けるステップと、
    前記画像から物体を検出するステップと、
    前記第1の領域と、前記物体との位置関係に基づいて、前記第1の領域で発生するイベントの発生確率を推定するステップと、
    を含む情報処理方法。
  15. コンピュータを、
    画像と、第1の領域を示す領域情報とを受け付ける受付部と、
    前記画像から物体を検出する検出部と、
    前記第1の領域と、前記物体との位置関係に基づいて、前記第1の領域で発生するイベントの発生確率を推定する推定部、
    として機能させるためのプログラム。
JP2017040411A 2017-03-03 2017-03-03 情報処理装置、情報処理方法及びプログラム Active JP6649306B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017040411A JP6649306B2 (ja) 2017-03-03 2017-03-03 情報処理装置、情報処理方法及びプログラム
US15/690,700 US10402634B2 (en) 2017-03-03 2017-08-30 Information processing device, information processing method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017040411A JP6649306B2 (ja) 2017-03-03 2017-03-03 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018147160A true JP2018147160A (ja) 2018-09-20
JP6649306B2 JP6649306B2 (ja) 2020-02-19

Family

ID=59738224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017040411A Active JP6649306B2 (ja) 2017-03-03 2017-03-03 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10402634B2 (ja)
JP (1) JP6649306B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6525229B1 (ja) * 2019-01-25 2019-06-05 株式会社 テクノミライ デジタルサーチ・セキュリティシステム、方法及びプログラム
JP2021179691A (ja) * 2020-05-11 2021-11-18 株式会社デンソー 危険度推定装置、危険度推定方法、及びプログラム
WO2023127156A1 (ja) * 2021-12-28 2023-07-06 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP2023105741A (ja) * 2022-01-19 2023-07-31 株式会社Ridge-i 情報処理装置、情報処理方法及び情報処理プログラム
EP4459585A1 (en) * 2023-05-02 2024-11-06 sensalytics GmbH Surveillance system using 3d-cameras
WO2024236802A1 (ja) * 2023-05-18 2024-11-21 日本電気株式会社 不審者検知装置、不審者検知方法、および記録媒体
WO2025062787A1 (ja) * 2023-09-20 2025-03-27 日本電気株式会社 監視装置、監視方法、監視システム及びプログラム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11356349B2 (en) 2020-07-17 2022-06-07 At&T Intellectual Property I, L.P. Adaptive resource allocation to facilitate device mobility and management of uncertainty in communications
CN106991072B (zh) * 2016-01-21 2022-12-06 杭州海康威视数字技术股份有限公司 在线自学习事件检测模型更新方法及装置
WO2019018649A1 (en) * 2017-07-19 2019-01-24 Walmart Apollo, Llc SYSTEMS AND METHODS FOR PREDICTING AND IDENTIFYING RETAIL BRAKING ACTIVITY
JP7106851B2 (ja) * 2017-12-12 2022-07-27 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7039989B2 (ja) * 2017-12-20 2022-03-23 富士通株式会社 制御プログラム、制御方法及び制御装置
US11683578B2 (en) * 2018-01-29 2023-06-20 Nec Corporation Extraction of target person from image
US10319204B1 (en) * 2018-04-09 2019-06-11 Zebra Technologies Corporation Systems and methods for retracing shrink events
US11610385B2 (en) 2018-04-26 2023-03-21 Nec Corporation Information processing apparatus, control method, and non-transitory storage medium
US11176383B2 (en) * 2018-06-15 2021-11-16 American International Group, Inc. Hazard detection through computer vision
JP7185853B2 (ja) * 2019-01-24 2022-12-08 日本電気株式会社 探索装置、探索システム、探索方法およびプログラム
US11250243B2 (en) * 2019-03-26 2022-02-15 Nec Corporation Person search system based on multiple deep learning models
FR3104304B1 (fr) * 2019-12-05 2023-11-03 Knap Système et procédé de détection de fraude
US11915571B2 (en) * 2020-06-02 2024-02-27 Joshua UPDIKE Systems and methods for dynamically monitoring distancing using a spatial monitoring platform
US11368991B2 (en) 2020-06-16 2022-06-21 At&T Intellectual Property I, L.P. Facilitation of prioritization of accessibility of media
US11233979B2 (en) 2020-06-18 2022-01-25 At&T Intellectual Property I, L.P. Facilitation of collaborative monitoring of an event
US11184517B1 (en) 2020-06-26 2021-11-23 At&T Intellectual Property I, L.P. Facilitation of collaborative camera field of view mapping
US11037443B1 (en) 2020-06-26 2021-06-15 At&T Intellectual Property I, L.P. Facilitation of collaborative vehicle warnings
US11411757B2 (en) 2020-06-26 2022-08-09 At&T Intellectual Property I, L.P. Facilitation of predictive assisted access to content
US11768082B2 (en) 2020-07-20 2023-09-26 At&T Intellectual Property I, L.P. Facilitation of predictive simulation of planned environment
US11600085B2 (en) 2020-07-27 2023-03-07 International Business Machines Corporation Automated training data collection for object detection

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215829A (ja) * 2010-03-31 2011-10-27 Hitachi Ltd 監視装置および不審行動検出方法
JP2012133665A (ja) * 2010-12-22 2012-07-12 Sogo Keibi Hosho Co Ltd 把持物体認識装置、把持物体認識方法、及び把持物体認識プログラム
JP2013153304A (ja) * 2012-01-25 2013-08-08 Hitachi Kokusai Electric Inc 監視装置及び監視カメラシステム並びに映像送信方法
JP2014194686A (ja) * 2013-03-29 2014-10-09 Denso Corp 防犯システム
JP2015138295A (ja) * 2014-01-20 2015-07-30 株式会社竹中工務店 不審者検出装置およびプログラム
US20160351031A1 (en) * 2014-02-05 2016-12-01 Min Sung Jo Warning System and Method Using Spatio-Temporal Situation Data

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961571A (en) * 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
US5959672A (en) * 1995-09-29 1999-09-28 Nippondenso Co., Ltd. Picture signal encoding system, picture signal decoding system and picture recognition system
JP2003066321A (ja) * 2001-08-29 2003-03-05 Mega Chips Corp Af制御装置およびaf制御方法
JP3945279B2 (ja) * 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
US7369687B2 (en) * 2002-11-21 2008-05-06 Advanced Telecommunications Research Institute International Method for extracting face position, program for causing computer to execute the method for extracting face position and apparatus for extracting face position
GB2395780A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
GB2395779A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
GB2409027A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
WO2005066897A1 (ja) * 2004-01-06 2005-07-21 Sony Corporation 画像処理装置および方法、記録媒体、並びにプログラム
EP1748387B1 (en) * 2004-05-21 2018-12-05 Asahi Kasei Kabushiki Kaisha Devices for classifying the arousal state of the eyes of a driver, corresponding method and computer readable storage medium
US7880154B2 (en) * 2005-07-25 2011-02-01 Karl Otto Methods and apparatus for the planning and delivery of radiation treatments
US8145591B2 (en) 2007-07-20 2012-03-27 The Trustees Of The Stevens Institute Of Technology Detection of hostile intent from movement patterns
CA2672511A1 (en) 2008-07-16 2010-01-16 Verint Systems Inc. A system and method for capturing, storing, analyzing and displaying data relating to the movements of objects
JP5150527B2 (ja) 2009-02-03 2013-02-20 株式会社日立製作所 車両用衝突回避支援装置
JP5506273B2 (ja) * 2009-07-31 2014-05-28 富士フイルム株式会社 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム
JP2011081763A (ja) * 2009-09-09 2011-04-21 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP5489965B2 (ja) * 2009-12-24 2014-05-14 本田技研工業株式会社 行動制御システムおよびロボット
JP5488076B2 (ja) * 2010-03-15 2014-05-14 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
US20110316697A1 (en) 2010-06-29 2011-12-29 General Electric Company System and method for monitoring an entity within an area
JP5615088B2 (ja) * 2010-08-18 2014-10-29 キヤノン株式会社 画像処理装置及びその方法、プログラム、並びに撮像装置
US9472097B2 (en) * 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
US8949164B1 (en) 2011-09-08 2015-02-03 George O. Mohler Event forecasting system
JP2013065110A (ja) * 2011-09-15 2013-04-11 Omron Corp 検出装置、該検出装置を備えた表示制御装置および撮影制御装置、物体検出方法、制御プログラム、ならびに、記録媒体
US20130329068A1 (en) * 2012-06-08 2013-12-12 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2015088096A (ja) * 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP6234827B2 (ja) 2014-01-20 2017-11-22 株式会社竹中工務店 犯罪リスク値導出装置およびプログラム
WO2016160744A1 (en) * 2015-03-27 2016-10-06 Twitter, Inc. Live video streaming services

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215829A (ja) * 2010-03-31 2011-10-27 Hitachi Ltd 監視装置および不審行動検出方法
JP2012133665A (ja) * 2010-12-22 2012-07-12 Sogo Keibi Hosho Co Ltd 把持物体認識装置、把持物体認識方法、及び把持物体認識プログラム
JP2013153304A (ja) * 2012-01-25 2013-08-08 Hitachi Kokusai Electric Inc 監視装置及び監視カメラシステム並びに映像送信方法
JP2014194686A (ja) * 2013-03-29 2014-10-09 Denso Corp 防犯システム
JP2015138295A (ja) * 2014-01-20 2015-07-30 株式会社竹中工務店 不審者検出装置およびプログラム
US20160351031A1 (en) * 2014-02-05 2016-12-01 Min Sung Jo Warning System and Method Using Spatio-Temporal Situation Data

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6525229B1 (ja) * 2019-01-25 2019-06-05 株式会社 テクノミライ デジタルサーチ・セキュリティシステム、方法及びプログラム
JP2021179691A (ja) * 2020-05-11 2021-11-18 株式会社デンソー 危険度推定装置、危険度推定方法、及びプログラム
JP7472639B2 (ja) 2020-05-11 2024-04-23 株式会社デンソー 危険度推定装置、危険度推定方法、及びプログラム
WO2023127156A1 (ja) * 2021-12-28 2023-07-06 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP2023105741A (ja) * 2022-01-19 2023-07-31 株式会社Ridge-i 情報処理装置、情報処理方法及び情報処理プログラム
EP4459585A1 (en) * 2023-05-02 2024-11-06 sensalytics GmbH Surveillance system using 3d-cameras
WO2024236802A1 (ja) * 2023-05-18 2024-11-21 日本電気株式会社 不審者検知装置、不審者検知方法、および記録媒体
WO2025062787A1 (ja) * 2023-09-20 2025-03-27 日本電気株式会社 監視装置、監視方法、監視システム及びプログラム

Also Published As

Publication number Publication date
JP6649306B2 (ja) 2020-02-19
US10402634B2 (en) 2019-09-03
US20180253597A1 (en) 2018-09-06

Similar Documents

Publication Publication Date Title
JP6649306B2 (ja) 情報処理装置、情報処理方法及びプログラム
US12056932B2 (en) Multifactor checkout application
US20180115749A1 (en) Surveillance system and surveillance method
US20220198550A1 (en) System and methods for customer action verification in a shopping cart and point of sales
US20190244500A1 (en) Deep learning-based shopper statuses in a cashier-less store
US10846537B2 (en) Information processing device, determination device, notification system, information transmission method, and program
US20170068945A1 (en) Pos terminal apparatus, pos system, commodity recognition method, and non-transitory computer readable medium storing program
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
US10635908B2 (en) Image processing system and image processing method
WO2018018022A1 (en) Interactive display system with eye tracking to display content according to subject's interest
US20230368625A1 (en) Self-checkout verification systems and methods
JP7416165B2 (ja) 情報処理装置
EP3748565A1 (en) Environment tracking
JP6440327B2 (ja) 防犯システム、防犯方法、及びロボット
US11842513B2 (en) Image processing apparatus, image processing method, and storage medium
JP7590382B2 (ja) 情報処理システム、情報処理方法、および情報処理プログラム
JP7362102B2 (ja) 情報処理装置及び情報処理プログラム
CN106355137A (zh) 检测反复游荡的方法和反复游荡检测装置
US20230252753A1 (en) Image processing apparatus, image processing method, and storage medium
US20230419674A1 (en) Automatically generating best digital images of a person in a physical environment
WO2018134854A1 (en) Movement analysis from visual and audio data
Grewe et al. Health crisis situation awareness using mobile multiple modalities
JP2024138974A (ja) 監視装置
EP4490705A1 (en) Vision system for classifying persons based on visual appearance and dwell locations
WO2023026277A1 (en) Context-based moniitoring of hand actions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200116

R151 Written notification of patent or utility model registration

Ref document number: 6649306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151