JP3767898B2 - 人物行動理解システム - Google Patents
人物行動理解システム Download PDFInfo
- Publication number
- JP3767898B2 JP3767898B2 JP2004069800A JP2004069800A JP3767898B2 JP 3767898 B2 JP3767898 B2 JP 3767898B2 JP 2004069800 A JP2004069800 A JP 2004069800A JP 2004069800 A JP2004069800 A JP 2004069800A JP 3767898 B2 JP3767898 B2 JP 3767898B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- data
- behavior
- detection unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
一方、IT(情報技術)の進歩はめざましく、インターネット網の構築によって様々な情報が瞬時のうちに容易に手に入るようになってきている。
このような環境下、独居高齢者を含む高齢世帯や障害者など特に要介護者に関する異常兆候をいち早く介護者や家族に知らせる異常通報システムに対する需要が高まりつつある。このようなニーズは、家庭のみならず病院や介護施設、老人ホームなどの医療機関、福祉機関などでも大きく、安価で高精度、さらに取扱いが容易なシステムが求められている。
このようなシステムとしては、例えば、特許文献1では「行動監視装置及びその方法」として監視対象となる人物が利用する空間に設けられた撮像手段と、この画像手段による撮像された撮像信号を取り込み、この画像信号中から監視対象となる人物部分を抽象化する抽象化処理手段と、この抽象化処理手段により監視対象となる人物部分が抽象化された画像信号を圧縮して保存する画像手段と、圧縮された画像信号を外部に向けて伝統する通信手段とを備えた技術が開示されている。
また、この特許文献1に開示された発明では、抽象化する部分にモザイク処理を施したり、画像の時間差分処理を施したりする技術も開示されている。
この特許文献1に開示された技術によれば、画像信号により人物の行動を遠隔監視し、人物画像をモザイク処理や時間的差分処理により抽象化することによってプライバシーを保護しつつ監視し、その行動を支援することができる。
このシステムにおいては、侵入物体の自動検出を行うとともに、検出し演算したデータにより上下方向、左右方向へ回動する雲台を制御して侵入物体の自動追尾、ズーミング可能な撮像レンズを制御して侵入物体の拡大を行い、ビデオモニタの画面上で監視者に侵入物体の確認が容易となるという効果を発揮する。
このような装置では、自動車のドライバの顔の向きを検出可能であり、ドライバの脇見等の行動監視が可能となる。
また、特許文献3に開示された発明においては、自動車のドライバの顔の向きを検出して、顔モデル群を生成しておき、カメラから得られた顔画像がこの顔モデル群のいずれに最も一致するかを判定し、1の顔モデルを選択することから、その選択には人間の判断を要しないものである点で、特許文献1や2に開示された発明とは異なる。
しかしながら、撮像された顔画像と顔モデル群との比較によって顔が正面を向いているか否かという単純な判断のみが可能であり、顔が正面を向いている際の行動内容や横を向いている際の行動内容など、判定された顔の向きを用いてさらにその顔あるいはドライバ自身の行動内容に関する判断ができないという課題があった。
手や足など一対存在する器官の場合であれば、一対のそれぞれが検出される場合もあるが、一方が例えば布団などに隠れてしまいもう一方のみが検出されることもあるので、一対なくとも1つであっても単独の概念に含めることとした。
図1は本発明の実施の形態に係る人物行動理解システムの構成図である。図1において、人物行動理解システム1は撮像部2、システム本体3及び出力部4から構成され、さらに第1データベース17、第2データベース18、第3データベース19を備えている。
まず、撮像部2では背景の中に存在する人物を背景ごと撮影して、撮像データ20を取得する。この撮像データ20は、撮像部2に接続されている第1データベース17に格納される。この撮像部2は例えば病院などの医療施設や介護施設あるいは独居高齢者や障害者をかかえる家庭などに設置されるもので、被写対象の人物は患者や高齢者あるいは障害者など何らかの介護を必要とする人物を想定している。従って、例えば病室のベッド傍の天井などに撮像部2が設置され、患者を高い位置からベッド廻りも含めて撮像するような状態である。
撮像部2による撮像領域には、被写対象の人物が占める人物領域と予め設定される撮像領域の一部又は全部の特定領域があり、人物領域は、さらにそれぞれの部位領域から構成されている。特定領域は、人物がいない状態で予め設定されるので、その特定領域の中に人物が入る場合がありその場合には人物領域と特定領域が重複する場合もある。また、この特定領域は、例えばベッド上の患者が起き上がったときの頭部位置周辺エリアをエリア1、枕周辺をエリア2、布団の領域をエリア3、ベッド廻りでエリア1,2,3のいずれにも属さない領域をエリア4などと分割しておくとよい。
なお、撮像部2は1台の固定カメラを想定するものであり、この撮像部2から得られる動画像に後述する複数の処理部を適用させて簡素かつ安価でありながら高い測定精度を担保する人物行動理解システムを提供するものである。
さらに、部位検出部8は、部位領域候補データ抽出手段10、部位領域データ照合手段11及びタスク制御手段13から構成されており、特定領域検出部9は、特定領域データ抽出手段12を備えている。
行動特徴検出部6は、人体部位検出部5に接続されており部位領域データ変化量演算手段14a、特定領域データ変化量演算手段14b、部位存在領域検出手段14c及び行動特徴抽出手段15から構成される。さらに、行動理解部7は、人物行動抽出手段16を備えている。
なお、撮像データ20は一定のタイムスパンで撮像部2から伝送されるデータであり、それぞれの時間毎に時間をキーとして第1データベース17に格納されており、時間毎に読み出すことも可能である。また、抽出された部位領域データ21と特定領域データ22も時間毎に格納可能であり、その時間をキーとして格納されるのでその時間をキーとして読み出しも可能である。上記の一定のタイムスパンは、適宜本システムの利用者によって設定可能である。
一方、特定領域検出部9は部位検出部8と同様に特定領域データ抽出手段12によって撮像データ20の中から特定領域データ22を抽出する。抽出された特定領域データ22は第1データベース17に格納される。この特定領域データ22は予め特定されている領域(以下、エリアと呼ぶことがある。)に属する画素データを抽出するものである。
以上のとおり、人体部位検出部5では、撮像データ20に含まれる人物領域の部位領域データ21と特定領域データ22を抽出して第1データベース17に格納する。もちろん、第1データベース17に格納しなくとも行動特徴検出部6に送信してもよい。
これらの変化量の演算には、部位の位置変化量であれば部位領域データ21の基準となるような部位領域データ21と比較してその差を演算すればよく、また、フレーム間差分をとることによって、単位時間中の移動量を演算することによって部位変化速度28が得られるし、その部位変化速度28の単位時間中の変化を演算することで部位変化加速度29が得られる。また、特定領域データの変化量を示す特定領域データ変化量31であれば、特定領域データ22に含まれる領域の画素データとその画素データが撮像された時刻とは異なる時刻の画素データを比較することによって得られるものである。これによって何らかの変化がその特定領域において生じていることが把握される。また、この特定領域データ変化量31の単位時間中の変化を演算することで特定領域データ変化速度32が得られ、さらにその速度の単位時間中の変化を演算することで特定領域データ変化加速度33が得られる。
得られた部位領域データ変化量27、部位領域データ変化速度28、部位領域データ変化加速度29、特定領域データ変化量31、特定領域データ変化速度32、特定領域データ変化加速度33は演算結果を格納するための第3データベース19に格納される。
このようにして得られた部位領域データ変化量と特定領域データ変化量を用いて、行動特徴抽出手段15では第2データベース18に格納されている行動特徴データテーブル25を読み出して参照しながら、先の部位領域データ変化量と周辺領域データ変化量によって定められる行動特徴を抽出する。
なお、特定領域検出部9、特定領域データ変化量演算手段14b及び部位存在領域検出手段14cは必須ではないが、これらによって特定領域データ変化量が演算されれば、行動特徴データテーブル25に予め設定しておく行動特徴データのバリエーションを増やして詳細に行動特徴を規定しておくことが可能である。
ここで、部位検出部8に含まれているタスク制御手段13について説明する。本実施の形態に係る人物行動理解システム1は、前述のように、例えば病院の病室に入院する患者のベッド廻りを撮像して患者の行動などを監視しながらその安全を確保するためのシステムとして機能する。このようなケースで、患者の家族が見舞いに来ている状態あるいは医師や看護婦がそばについている場合であれば、たとえ容態が急変したりしても処置の対応が可能であるため特にこの様なシステムが作動していなくともよい。すなわち、患者が一人で病室にいる場合に監視が必要となるのである。したがって、撮像部2によって得られる撮像データ20において、患者一人のものと考えられる部位が検出された場合にのみ、特定領域検出部9や人体部位検出部5の後段として機能する行動特徴検出部6や行動理解部7を作動させればよいのである。
これによって複数の部位領域データを検出した際には、その後の作動を停止して、再度、部位領域候補データ抽出手段10と部位領域データ照合手段11を作動させて撮像データ20から部位領域データを抽出して単独のデータであるか否かを判断することで、効率的に行動理解を行うと同時に、行動特徴や行動の誤認による誤った判断を避けて精度の高い行動理解を促進するものである。
本実施の形態においては、このタスク制御手段13は部位検出部8に含まれているが、必ずしも部位検出部8に含まれる必要はなく、タスク制御手段13が階層構造を形成する人体部位検出部5、行動特徴検出部6及び行動理解部7以外の構成要素として単独に存在するようにしてもよいことは言うまでもない。
前述のとおり予め設定される特定領域を分割し、分割された領域にそれぞれID符号を付してエリア1などとしておき、部位検出部8によって抽出される部位領域データ21が、この分割されID符号を備えたいずれの領域に含まれるかを部位存在領域データ30として検出する手段である。
検出された部位存在領域データ30は、第3データベース19に格納される。この部位存在領域データ30は、行動特徴検出部6の行動特徴抽出手段15において、部位領域データ変化量あるいは特定領域データ変化量と組み合せられ、その組合せに対して定められる行動特徴が行動特徴データテーブル25から抽出されることになる。この具体例については後述する。
図2において、入力画像40とは、撮像データ20をシステム本体3への入力情報として捉えた場合の名称であり、実質的には撮像データ20と同一である。頭部検出部8aに入力された入力画像40は、部位領域候補データ抽出手段10の一種で頭部候補データ抽出部10aによって読み出され、この頭部候補データ抽出部10aを構成する、肌色領域抽出部44a、正規化明度背景差分抽出部44b、RGB背景差分抽出部44c及び髪色領域抽出部44dに送信される。
RGB背景差分抽出部44cでは、図3に示されるようにRGB成分を備えた入力画像40に対して第2データベース18に格納されている背景画像データ23との差分を抽出するものである。背景画像データ23は被写対象の人物が存在しない状態で撮像部2から取得されたデータであるため、入力画像40との差分を取ることによれば、被写対象の人物を中心として、さらに布団や枕など当初の状態とは異なる状態にある物が差分として抽出される。このようにして得られたのが2値画像45cである。
本実施の形態では、特に、病室にいる患者を被写対象人物として想定しており、この背景の差分では人物の他にも当初位置から移動した物も抽出されるため、人物の部位を抽出するためには、動いた布団や枕といった白色あるいは有色であっても淡色の物を可能な限り排除することが重要となる。従って、RGB背景差分抽出部44cのみならず正規化明度背景差分抽出部44bを加えているのである。
この正規化明度背景差分抽出部44bにおいてもRGB背景差分抽出部44cと同様に図5に示されるようなフロー図に従って2値化処理を行い、2値画像45bを抽出する。
このようにして肌色領域抽出部44a〜髪色領域抽出部44dで得られた2値画像45a〜2値画像45dは、共通領域抽出部46a、共通領域抽出部46bを用いて共通部分に関する2値画像47a、2値画像47bを抽出する。このように共通領域に関して2値化処理を実施してさらに2値画像を得ることによって、より精度の高い頭部領域候補が抽出される。
図7において、2値画像Aは、RGB背景差分抽出部44cで抽出された2値画像45cであり、2値画像Bは、髪色領域抽出部44dで抽出された2値画像45dである。これらの2値画像A,Bは共通領域抽出部46bによって読み出され、その2つの画像の共通の画像について1と共通部分以外では0を入力して2値画像47bを求めている。この共通領域抽出部46bにおける演算は、2値画像A上で画素(x,y)の画素値をA(x,y)とし、2値画像B上で画素(x,y)の画素値をB(x,y)とすると、出力される2値画像Cは、式(4)で示されるような式に基づいて値を求める。なお、すなわち、A(x,y)とB(x,y)がそれぞれ1であればC(x,y)も1となるが、いずれかが0であれば、C(x,y)も0となる。
頭部検出部8aでは2つの2値画像を抽出し、テンプレートマッチング部11aでは、さらにこの2値画像を予め第2データベース18に格納された頭部テンプレートデータ24cと比較して最終的な頭部領域2値画像48aを抽出する。すなわち、2値画像47a、2値画像47bの時点では、まだ頭部候補であり、その数はそれぞれ複数存在する可能性があるが、頭部テンプレートデータ24cと比較することで、最終的に被写対象の人物の頭部のデータを1つに絞り得るのである。なお、頭部テンプレートデータ24cは、詳細にいえば、顔テンプレートデータと髪テンプレートデータの2種類があり、それぞれについて2値画像47aと2値画像47bを照合して頭部領域2値画像48aを抽出するのである。
図8及び図9(a)において、共通領域抽出部46aにおいて抽出された頭部候補領域に係る2値画像47aは、それを含む長方形として捉えられ、その中心(x、y)が求められる。この中心に対して、予め第2データベース18に格納されている頭部テンプレートデータ24cの中心を(x,y−h/4)として求める。この頭部テンプレートデータ24cの中心座標は、人間の顔のつくりをベースに概略として求めるものであり、適宜修正してもよい。
次に、図9(b)に示されるように頭部テンプレートデータ24cの長軸aと短軸bを式(5)によって求める。
第2データベース18に格納されている頭部テンプレートデータ24cは、この長軸と短軸によって、適合率の演算に使用される部分を限定していることになる。
最大のものとすると、常に1つの頭部が認識されるものの、前述のとおり例えば病室に患者以外の肉親や医療関係者が存在した際に、患者以外の一人の人間が認識される可能性があるためにタスク制御手段を活用しようとしても必ず1つの部位が検出されてしまうとタスク制御手段が機能しないこととなってしまう。そこで、タスク制御手段などを作動させる場合にはしきい値を設けておき、撮像領域に人物が複数存在する際に、複数の部位すなわち、単独ではない部位が検出されるようにしておくことが望ましい。
なお、長軸aと短軸bのhを用いた式は一例であり適宜修正してもよいことは言うまでもない。
また、本実施の形態における上述の頭部領域2値画像48aの抽出は頭部テンプレートデータ24cの中でも特に顔テンプレートデータに基づくものであるが、髪テンプレートデータを用いて頭部領域2値画像48aを決定するようにしてもよい。すなわち、2値画像47bを用いる場合には、頭部テンプレートデータ24cの髪領域内にある2値画像47bの画素数と、頭部テンプレートデータ24cの顔領域内にある2値画像45cの画素数の和T'を求め、式(6)と同様に表現される適合率r'を求めるようにすればよい。なお、その際には式(5)は適宜修正して使用してもよい。
さらに、互いの適合率を各頭部領域候補において施して、最も適合率の高い領域を頭部領域としてもよい。
図10において、胴体検出部8bに入力された入力画像40は、部位領域候補データ抽出手段10の一種である胴体候補データ抽出部10bによって読み出され、この胴体候補データ抽出部10bを構成するRGB差分抽出部50に送信される。このRGB差分抽出部50は、図2に示した頭部検出部8aのRGB背景差分抽出部44cと同様のものであり、第2データベース18に格納された背景画像データ23を読み出して比較して背景差分を取るものである。
通常、被写対象の人物は何らかの衣服を着ており、その衣服は例えばパジャマなどであるが模様が施されている場合が多い。そこで、その模様の特徴を予めテンプレートデータ24内に胴体のテンプレートデータとして格納しておき、その胴体のテンプレートデータと照合するためにクラスタリングを行うものである。
(1)まず、背景差分領域51内のJN個の画素をランダムに選択し、それらを初期クラスタ中心とする。初期クラスタにおいては、JN個の画素のそれぞれの座標、色成分を各クラスタの平均ベクトルの成分とする。
(2)次に、画素pとクラスタk(k=1,2,...,JN)の平均ベクトルZkとのユークリッド距離d(k、p)を求め、画素pをd(k,p)が最小となるクラスタに統合する。
(3)背景差分領域51内の全画素に対して(2)の処理を行う。
(4)(3)により再構成されたクラスタkの平均ベクトルZkを再計算する。
(5)各クラスタの平均ベクトル間の距離を計算し、最小の距離にあるクラスタ同士を統合する。
(6)クラスタ数がJPになるまで(4)、(5)の処理を繰り返す。
(6)のクラスタ数JPは、適宜設定してよい。さらに、クラスタリング部52では、このようにクラスタリングされて求められた各クラスタにおいて、その明度の平均値に対して正規化明度を演算する。この正規化明度値と予め設定された胴体のテンプレートデータをパジャマモデルマッチング部11bで照合して胴体領域2値画像48bを抽出する。この胴体のテンプレートデータは、例えばパジャマの色の分布のモデルであり、肌色のI値の分布と同様にパジャマの色の分布モデルを正規分布と仮定してその平均μと標準偏差σを用いて表現しておき、式(3)と同様のしきい値からこのしきい値を満たす画素数が最も多いクラスタを胴体のクラスタとして検出する。但し、パジャマの色の分布モデルに含まれる画素数が予め別途設定したしきい値以下である場合には、画像内に胴体がないと判断する。
図11において、手検出部8cに入力された入力画像40は、部位領域候補データ抽出手段10の一種で手候補データ抽出部10cによって読み出され、この手候補データ抽出部10cを構成する肌色領域抽出部54a、フレーム間差分抽出部54b及びエッジ2値画像抽出部54cに送信される。
このうち、肌色領域抽出部54aは、図2に示した肌色領域抽出部44aと同様の作用と効果を有するものである。肌色領域2値画像55aを抽出するために、第2データベース18のテンプレートデータ24中に手の肌モデルデータを格納しておき、式(1)と同様な式を用いることで、2値画像45aと同様の肌色領域2値画像55aを抽出することができる。
このフレーム間差分2値画像55bの演算方法について図13を参照しながら説明する。図13は、フレーム間差分抽出部54bで実行される処理内容を示すフロー図である。図13において、ステップS21では入力画像40中の画素(x,y)の明度R(x,y),G(x,y),B(x,y)とTbフレーム前の入力画像40a中の画素(x、y)の明度RF(x,y),GF(x,y),BF(x,y)を抽出し、ステップS22でその不一致度DFを求める。ステップS23で、その不一致度DFと不一致度に対するしきい値SFを比較して、不一致度DFがしきい値SFよりも大きい場合には、画素(x,y)の値を1とし、そうでない場合には、0とする2値化処理を行うのである。これによって、図11に示されるようなフレーム間差分2値画像55bが抽出されるのである。なお、しきい値SFは適宜予め設定される数値である。
このようにして求められたエッジ成分は、ステップS33で示されるように入力画像40中の画素のエッジ成分の和Eを求め、このエッジ成分の和Eとしきい値Seを比較してエッジ成分の和Eが大きい場合には、画素値を1とし、そうでない場合には画素値を0として2値化処理が施される。このようにしてエッジ2値画像55cを抽出するのである。
この手候補領域を含む2値画像57と先に説明したエッジ2値画像55cからエッジマッチング部11cは手領域2値画像48cを抽出する。このエッジマッチング部11cによる手領域2値画像48cの抽出の作用について図15を参照しながら説明する。図15(a)は、手候補領域を含む2値画像を模式的に示す概念図であり図15(b)は、エッジ2値画像を模式的に示す概念図である。図15(a)においては、示される丸印は手候補領域を含む2値画像57の境界線を示すものである。この境界線をまず抽出し、その後、この境界線における2値画像とエッジ2値画像55cの論理積を取る。この論理積とは、先に式(4)として説明したものであり、いずれも画素値が1である場合には論理積は1となるが、その画素値が1となった画素数を計数し、一致率としてこの画素値が1となった画素数と先の境界線における画素数の比を演算する。そして、この一致率が最大となる領域を手領域とする。
なお、頭部検出部8aの箇所で説明したとおり、最大のものとすると、常に1つあるいは一対の手が認識されるものの、タスク制御手段が機能しないこととなってしまうので、タスク制御手段などを作動させる場合にはしきい値を設けておき、撮像領域に人物が複数存在する際に、複数の部位すなわち、単独ではない部位が検出されるようにしておくことが望ましい。
図16(a)は特定領域データ変化量演算手段14bの作用を説明するためのフロー図であり、図16(b)は部位存在領域検出手段14cの作用を説明するためのフロー図である。図16(a)において、特定領域検出部9で抽出された分割された特定領域の各エリアに含まれる時刻tにおけるRGB背景差分領域の画素数について、その単位時刻前の同じRGB背景差分領域の画素数を比較することによって、例えばふとん領域(エリア3)の差分が増加したかどうかを判断し、そうであれば1とし、そうでなければ0とする2値化処理を行う。このエリア3については、先にも一例として説明したが図17に示すとおりである。具体的には、ベッド上の患者が起き上がったときの頭部位置周辺エリアをエリア1、枕周辺をエリア2、布団の領域をエリア3、ベッド廻りでエリア1,2,3のいずれにも属さない領域をエリア4としている。
また、図16(b)においては、頭部検出部8aによって抽出された頭部の重心座標に着目し、その重心座標がエリア1に含まれるか否かを判断し、それであれば1とし、そうでなければ0とする2値化処理を行うものである。
特定領域検出部9で抽出された特定領域データ22を利用するだけでなく、図16(b)に示される例えば頭部検出部8aによって抽出された頭部の重心座標に関して部位存在領域検出手段14cで図16に示されるような演算と判断を行い、行動特徴抽出手段15によって第2データベース18に格納された行動特徴データテーブル25を読み出してID=a7で示される行動特徴である「頭部がエリア1に存在する」が抽出される。部位存在領域検出手段14cで演算された部位存在領域データ30は、第3データベース19に格納される。
このように行動特徴検出部6で行動特徴データテーブル25を使用して抽出された行動特徴は、図1に示される行動理解部7へ伝送される。行動理解部7では、人物行動抽出手段16が、行動特徴を組み合せることによって第2データベース18に格納されている行動理解データテーブル26を読み出して最終的な人物の行動を抽出することになる。
図21(a)において、「背景差分がエリア3で増加する」という前兆行動特徴のもとで、「頭部がエリア1に存在する」という確定行動特徴と「背景差分がエリア4に存在しない」という別の確定行動特徴を備えているならば、「寝ているから起きている」という行動と理解するものである。この他の図21(b)乃至(d)については記載のとおりであるためその説明を省略する。
図22(a)において、符号60a〜60eは人物の状態の候補を示すものであり、符号61a〜61gはその状態遷移の方向を示すものである。寝ている状態60aと起きている状態60dでは互いに遷移の可能性があるため、互いに矢印が向いているが、寝ている状態60aと転落している状態60bでは、寝ている状態60aから転落している状態60bへのみ矢印が向いている。
図21(a)の行動を見ると、「寝ている」から「起きている」への遷移であり、図22(a)の符号60aから符号60dへの矢印で符号61aとなる。
これが先に説明した前兆行動特徴と確定行動特徴と呼ぶものである。これらの2つの行動特徴が検出されてはじめて状態の遷移と判断し、その状態遷移が行動なのである。
この行動理解のための行動理解データテーブル26を利用した演算では、図19で示したようなIDをキーとすることで論理的な演算を実行するとよい。
その際には、第1データベース17乃至第3データベース19に格納されている様々なデータや演算結果を適宜表示するとよい。
図23は、人物行動理解システム1全体のフィードバックを含めた概略構成図であり、図24(a)はフィードバックの作用を説明するための概念図であり、図24(b)はフィードバックの条件を説明するためのフロー図である。
図23において、既に説明したとおり、入力画像40は人体部位検出部5によって読み出され、人体部位検出部5では頭部や手、さらに胴体などの検出を行う。検出後、それらの情報を基に行動特徴検出部6において、行動特徴の抽出を行い、さらに抽出された行動特徴を基に行動理解部7において行動理解を行うのである。そして、これら人体部位検出部5、行動特徴検出部6、行動理解部7の階層構造を利用しながら互いに協調が可能なように行動理解部7から行動特徴検出部6へ実行される第1フィードバック65と行動特徴検出部6から人体部位検出部5へ実行される第2フィードバック66が設けられている。
一方、図24(b)に示されるように、もし、「頭部がエリア4に存在する」という行動特徴が行動特徴検出部6において検出されなかったとすれば、矛盾はないので、そのままフィードバックなしとなる。このように人体部位検出部5から行動理解部7への情報の流れと、これとは逆に流れるチェック機能を備えており、階層構造を効果的に活用することにより、より精度の高い人物行動理解システムとしている。
図25(a)は、実証試験の様子を模式的に表現した概念図であり、図25(b)は固定カメラによって実際に撮像された画像例を示すものである。
患者が病院のベッドに横たわっている様子を模擬して実証試験を実施した。固定カメラは1台であり、病室の天井から患者とその周囲を撮像している。
図26(a)は、例えば図2に示した入力画像40の一例を示すものであり、(b)は同じくRGB背景差分抽出部44cによって抽出される背景差分画像を示し、(c)は同じく図2の正規化明度背景差分抽出部44bによって抽出される画像であり、(d)は肌色領域抽出部44a、(e)は髪色領域抽出部44dで抽出される画像である。最後に(f)は例えば図11に示されるフレーム間差分抽出部54bによって抽出される画像を示すものである。これらの(b)乃至(f)は(a)の入力画像をベースにそれぞれ得られた画像である。
最後に図28に入力画像とそれによって検出された例について示す。(a)は入力画像で、(b)が頭部検出例、(c)が手検出例であり、(d)が胴体の検出例である。
このように示される実証試験の結果をまとめて表1と表2に示す。
Claims (7)
- 被写対象の人物を含む人物領域と別個に予め規定される特定領域を含む撮像領域の検出を行う撮像部と、この撮像部によって撮像される前記人物領域に含まれる部位領域データを抽出する部位検出部と前記特定領域に含まれる特定領域データを抽出する特定領域検出部とを備える人体部位検出部と、前記人体部位検出部によって抽出された部位領域データと特定領域データの変化量によって行動の特徴を検出する行動特徴検出部と、前記行動特徴検出部によって検出された前記行動の特徴を組み合わせることによって前記人物の行動を判断する行動理解部と、を有する人物行動理解システムであって、
前記部位検出部は、前記撮像部によって撮像された前記人物領域に含まれる部位領域候補の部位領域候補データを抽出する手段と、この抽出された部位領域候補データと予め設定される前記部位領域のテンプレートデータとを照合して部位領域データを抽出する手段とを備え、
前記特定領域検出部は、前記撮像部によって撮像された前記特定領域に含まれる特定領域データを抽出する手段を備え、
前記行動特徴検出部は、前記部位検出部によって検出された前記部位領域データの変化量を演算する手段と、前記特定領域検出部によって検出された前記特定領域データの変化量を演算する手段と、前記部位領域データの変化量及び前記特定領域データの変化量によって定められる行動特徴を示す行動特徴データテーブルから該人物の前兆行動特徴と確定行動特徴を抽出する手段とを備え、
前記行動理解部は、前記行動特徴検出部によって抽出された前記人物の前記前兆行動特徴と前記確定行動特徴の組合せを、予め設定される前記人物の行動に対応付ける行動理解データテーブルから、該人物の行動を抽出する手段を備えることを特徴とする人物行動理解システム。 - 前記特定領域は予め分割された複数の領域であって、前記行動特徴検出部は、前記部位検出部によって抽出された該部位領域データが、前記分割された特定領域のいずれの領域に存在するかという部位存在領域データについて検出する手段を備え、前記行動特徴テーブルはこの部位存在領域データと行動特徴を対応付けることを特徴とする請求項1に記載の人物行動理解システム。
- 前記部位検出部は、人物の頭部領域の部位領域データを抽出する頭部検出部と、手領域の部位領域データを抽出する手検出部と、胴体領域の部位領域データを抽出する胴体検出部と、足領域の部位領域データを抽出する足検出部の内少なくとも1つの検出部を備えることを特徴とする請求項1又は請求項2のいずれか1項に記載の人物行動理解システム。
- 前記部位領域データの変化量は、前記部位領域のデータの変化量、この変化量の変化速度、前記変化量の変化加速度のいずれか1つであることを特徴とする請求項1乃至請求項3のいずれか1項に記載の人物行動理解システム。
- 前記行動理解部は、前記行動理解データテーブルから該人物の行動が抽出できない場合には、前記行動特徴検出部又は人体部位検出部において再検出を実行するように信号を送信することを特徴とする請求項1乃至請求項4のいずれか1項に記載の人物行動理解システム。
- 前記部位検出部は、抽出された前記部位領域データが単独である場合に、前記特定領域検出部、前記行動特徴検出部及び前記行動理解部を作動させるタスク制御手段を備えることを特徴とする請求項1乃至請求項5のいずれか1項に記載の人物行動理解システム。
- 前記部位検出部によって抽出された前記部位領域データが単独である場合に、前記特定領域検出部、前記行動特徴検出部及び前記行動理解部を作動させるタスク制御手段を備えることを特徴とする請求項1乃至請求項5のいずれか1項に記載の人物行動理解システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004069800A JP3767898B2 (ja) | 2004-03-11 | 2004-03-11 | 人物行動理解システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004069800A JP3767898B2 (ja) | 2004-03-11 | 2004-03-11 | 人物行動理解システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005258830A JP2005258830A (ja) | 2005-09-22 |
JP3767898B2 true JP3767898B2 (ja) | 2006-04-19 |
Family
ID=35084479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004069800A Expired - Fee Related JP3767898B2 (ja) | 2004-03-11 | 2004-03-11 | 人物行動理解システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3767898B2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012023566A (ja) * | 2010-07-14 | 2012-02-02 | Toshiba Teli Corp | 監視装置および挙動監視用プログラム |
JP5682203B2 (ja) * | 2010-09-29 | 2015-03-11 | オムロンヘルスケア株式会社 | 安全看護システム、および、安全看護システムの制御方法 |
JP5682204B2 (ja) * | 2010-09-29 | 2015-03-11 | オムロンヘルスケア株式会社 | 安全看護システム、および、安全看護システムの制御方法 |
JP5812948B2 (ja) * | 2012-07-13 | 2015-11-17 | アイホン株式会社 | 患者認識装置 |
JP6303779B2 (ja) * | 2014-04-30 | 2018-04-04 | 富士通株式会社 | 見守り装置、プログラム及び見守り方法 |
JP6519166B2 (ja) * | 2014-12-12 | 2019-05-29 | 富士通株式会社 | 監視制御プログラム、監視制御装置、および監視制御方法 |
WO2016199504A1 (ja) * | 2015-06-09 | 2016-12-15 | コニカミノルタ株式会社 | 行動検知装置および行動検知方法ならびに被監視者監視装置 |
WO2017150211A1 (ja) * | 2016-03-03 | 2017-09-08 | コニカミノルタ株式会社 | 行動認識装置及び行動学習装置並びに行動認識プログラム及び行動学習プログラム |
JP7110568B2 (ja) * | 2017-09-19 | 2022-08-02 | 富士フイルムビジネスイノベーション株式会社 | 行動推定装置及び行動推定プログラム |
JP7154071B2 (ja) * | 2018-09-07 | 2022-10-17 | 株式会社エヌ・ティ・ティ・データ | 運転状態監視支援システム、運転状態監視支援方法及びプログラム |
WO2021033453A1 (ja) * | 2019-08-21 | 2021-02-25 | コニカミノルタ株式会社 | 画像処理システム、画像処理プログラム、および画像処理方法 |
-
2004
- 2004-03-11 JP JP2004069800A patent/JP3767898B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005258830A (ja) | 2005-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210256835A1 (en) | System and method for monitoring clinical activities | |
US10482321B2 (en) | Methods and systems for identifying the crossing of a virtual barrier | |
US11688265B1 (en) | System and methods for safety, security, and well-being of individuals | |
WO2021163447A1 (en) | System and method for monitoring clinical activities | |
CN112784662A (zh) | 基于视频的跌倒风险评价系统 | |
JP6717235B2 (ja) | 見守り支援システム及びその制御方法 | |
Zouba et al. | Monitoring activities of daily living (ADLs) of elderly based on 3D key human postures | |
JP6392983B2 (ja) | 患者モニタリングシステム及び方法 | |
JP3767898B2 (ja) | 人物行動理解システム | |
WO2019003859A1 (ja) | 見守り支援システム及びその制御方法、及びプログラム | |
Bathrinarayanan et al. | Evaluation of a monitoring system for event recognition of older people | |
JP7403132B2 (ja) | 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法 | |
JP2019020993A (ja) | 見守り支援システム及びその制御方法 | |
JPH1199140A (ja) | 就寝状態異常検知装置 | |
US20220093241A1 (en) | Correlating interaction effectiveness to contact time using smart floor tiles | |
CN110073442A (zh) | 用于检测光学图像数据和用于确定患者支承设备的侧边界的位置的设备、方法和计算机程序 | |
Cao et al. | An event-driven context model in elderly health monitoring | |
Bauer et al. | Modeling bed exit likelihood in a camera-based automated video monitoring application | |
JP6822326B2 (ja) | 見守り支援システム及びその制御方法 | |
JP2022048830A (ja) | 検知システム、検知装置、端末装置、表示制御装置、検知方法およびプログラム | |
JP7530222B2 (ja) | 検知装置、検知方法、画像処理方法、およびプログラム | |
JP7009021B2 (ja) | 異常者予知システム、異常者予知方法、およびプログラム | |
EP4394725A1 (en) | Method and system for monitoring bedridden and bed-resting persons | |
US20240312621A1 (en) | System and a method for monitoring activities of an object | |
KR20240103137A (ko) | 어안영상에 기반한 이상행동검출을 위한 객체인식모델 생성방법 및 이를 이용한 이상행동 검출방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050719 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050830 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050830 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20050830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051018 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051208 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060130 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090210 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110210 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110210 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120210 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |