[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3767898B2 - 人物行動理解システム - Google Patents

人物行動理解システム Download PDF

Info

Publication number
JP3767898B2
JP3767898B2 JP2004069800A JP2004069800A JP3767898B2 JP 3767898 B2 JP3767898 B2 JP 3767898B2 JP 2004069800 A JP2004069800 A JP 2004069800A JP 2004069800 A JP2004069800 A JP 2004069800A JP 3767898 B2 JP3767898 B2 JP 3767898B2
Authority
JP
Japan
Prior art keywords
region
data
behavior
detection unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004069800A
Other languages
English (en)
Other versions
JP2005258830A (ja
Inventor
義彦 浜本
敬 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NATIONAL UNIVERSITY CORPORATION YAMAGUCHI UNIVERSITY
Original Assignee
NATIONAL UNIVERSITY CORPORATION YAMAGUCHI UNIVERSITY
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NATIONAL UNIVERSITY CORPORATION YAMAGUCHI UNIVERSITY filed Critical NATIONAL UNIVERSITY CORPORATION YAMAGUCHI UNIVERSITY
Priority to JP2004069800A priority Critical patent/JP3767898B2/ja
Publication of JP2005258830A publication Critical patent/JP2005258830A/ja
Application granted granted Critical
Publication of JP3767898B2 publication Critical patent/JP3767898B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、人物をテレビカメラ等のような撮像装置で監視しながら、その人物の行動を理解するためのシステムに係り、特に撮像データから人物の部位領域データと特定領域データを抽出する処理部、そしてそのデータを用いて人物の行動特徴を検出する処理部、さらにその行動特徴からその人物の行動を理解する処理部といった階層化された処理構造を備える人物行動理解システムに関する。
近年、わが国の人口に占める高齢者の割合が漸増しており、今後この傾向は益々顕著になることが確実視されている。また、晩婚化、非婚化も相まって、少子高齢化社会を迎えつつある。このような社会の変化に伴い独居高齢者あるいは障害者などが安心して健康的な自立生活を営むための安全な住環境の整備が急務の課題となっている。
一方、IT(情報技術)の進歩はめざましく、インターネット網の構築によって様々な情報が瞬時のうちに容易に手に入るようになってきている。
このような環境下、独居高齢者を含む高齢世帯や障害者など特に要介護者に関する異常兆候をいち早く介護者や家族に知らせる異常通報システムに対する需要が高まりつつある。このようなニーズは、家庭のみならず病院や介護施設、老人ホームなどの医療機関、福祉機関などでも大きく、安価で高精度、さらに取扱いが容易なシステムが求められている。
このようなシステムとしては、例えば、特許文献1では「行動監視装置及びその方法」として監視対象となる人物が利用する空間に設けられた撮像手段と、この画像手段による撮像された撮像信号を取り込み、この画像信号中から監視対象となる人物部分を抽象化する抽象化処理手段と、この抽象化処理手段により監視対象となる人物部分が抽象化された画像信号を圧縮して保存する画像手段と、圧縮された画像信号を外部に向けて伝統する通信手段とを備えた技術が開示されている。
また、この特許文献1に開示された発明では、抽象化する部分にモザイク処理を施したり、画像の時間差分処理を施したりする技術も開示されている。
この特許文献1に開示された技術によれば、画像信号により人物の行動を遠隔監視し、人物画像をモザイク処理や時間的差分処理により抽象化することによってプライバシーを保護しつつ監視し、その行動を支援することができる。
また、特許文献2では「侵入物体追尾画像処理システム」として、侵入物体の検出に使用する画像信号を出力する広域視野の撮像レンズを備えたテレビジョンカメラと、電動雲台に搭載され侵入物体を追跡し拡大された画像監視に使用する画像信号を出力するズーミング可能な撮像レンズを備えたテレビジョンカメラと、広域視野の撮像レンズを備えたテレビジョンから入力された画像信号を処理し演算して電動雲台を所要量回動させるための回動制御信号とズーミング可能な撮像レンズを所要量ズーミングさせるためのズーミング制御信号とを出力する画像処理装置とを有し、所要の監視箇所に侵入した侵入物体を自動追尾し自動ズーミングして撮像するシステムが開示されている。
このシステムにおいては、侵入物体の自動検出を行うとともに、検出し演算したデータにより上下方向、左右方向へ回動する雲台を制御して侵入物体の自動追尾、ズーミング可能な撮像レンズを制御して侵入物体の拡大を行い、ビデオモニタの画面上で監視者に侵入物体の確認が容易となるという効果を発揮する。
さらに、特許文献3では「ドライバの顔画像処理装置」として、自動車のドライバの顔を撮像するカメラと、このカメラより得られた顔画像を処理する画像処理装置にて構成され、装置の起動時においてこのカメラにより得られた該ドライバの正面顔を基にしてドライバの様々な顔の向きに対応した顔モデル群を生成し、この生成を完了した以降は、該ドライバの顔画像を循環的に入力し、顔モデル群内の最もよく一致する顔モデルを選択することによりドライバの顔の向きを検出するようにしたものである。
このような装置では、自動車のドライバの顔の向きを検出可能であり、ドライバの脇見等の行動監視が可能となる。
特開2000−216号公報 特開平11−69342号公報 特開2003−308533号公報
しかしながら、上述の特許文献1及び2に開示された発明においては、人物や侵入物体の行動等を監視することができるが、その行動等の内容を判断するのは、もっぱら人間であり、必ず監視者がその内容を把握しなければならないという課題があった。すなわち、例えば無人で監視することはできず、最終的には人間の判断を必要とするという課題を有していた。
また、特許文献3に開示された発明においては、自動車のドライバの顔の向きを検出して、顔モデル群を生成しておき、カメラから得られた顔画像がこの顔モデル群のいずれに最も一致するかを判定し、1の顔モデルを選択することから、その選択には人間の判断を要しないものである点で、特許文献1や2に開示された発明とは異なる。
しかしながら、撮像された顔画像と顔モデル群との比較によって顔が正面を向いているか否かという単純な判断のみが可能であり、顔が正面を向いている際の行動内容や横を向いている際の行動内容など、判定された顔の向きを用いてさらにその顔あるいはドライバ自身の行動内容に関する判断ができないという課題があった。
本発明はかかる従来の事情に対処してなされたものであり、簡素な構成で安価に構築できると共に、人体の部位領域や特定領域のデータを抽出しながら、その人物の行動特徴を把握し、さらに、その行動特徴をベースにしてその人物の行動を理解することができる人物行動理解システムを提供することを目的とする。
本発明の請求項1に記載の人物行動理解システムは、上述の課題を解決するために、被写対象の人物を含む人物領域と別個に予め規定される特定領域を含む撮像領域の検出を行う撮像部と、この撮像部によって撮像される人物領域に含まれる部位領域データを抽出する部位検出部と特定領域に含まれる特定領域データを抽出する特定領域検出部とを備える人体部位検出部と、人体部位検出部によって抽出された部位領域データと特定領域データの変化量によって行動の特徴を検出する行動特徴検出部と、行動特徴検出部によって検出された行動の特徴を組み合わせることによって人物の行動を判断する行動理解部と、を有する人物行動理解システムであって、部位検出部は、撮像部によって撮像された人物領域に含まれる部位領域候補の部位領域候補データを抽出する手段と、この抽出された部位領域候補データと予め設定される前記部位領域のテンプレートデータとを照合して部位領域データを抽出する手段とを備え、特定領域検出部は、撮像部によって撮像された特定領域に含まれる特定領域データを抽出する手段を備え、行動特徴検出部は、部位検出部によって検出された部位領域データの変化量を演算する手段と、特定領域検出部によって検出された特定領域データの変化量を演算する手段と、部位領域データの変化量及び特定領域データの変化量によって定められる行動特徴を示す行動特徴データテーブルから該人物の前兆行動特徴と確定行動特徴を抽出する手段とを備え、行動理解部は、行動特徴検出部によって抽出された人物の前兆行動特徴と確定行動特徴の組合せを、予め設定される人物の行動に対応付ける行動理解データテーブルから、該人物の行動を抽出する手段を備えるものである。
請求項に記載の人物行動理解システムは、請求項に記載の人物行動理解システムにおいて、特定領域は予め分割された複数の領域であって、行動特徴検出部は、部位検出部によって抽出された該部位領域データが、分割された特定領域のいずれの領域に存在するかという部位存在領域データについて検出する手段を備え、行動特徴テーブルはこの部位存在領域データと行動特徴を対応付けるものである。
請求項に記載の人物行動理解システムは、請求項1又は請求項2に記載の人物行動理解システムにおいて、部位検出部は、人物の頭部領域の部位領域データを抽出する頭部検出部と、手領域の部位領域データを抽出する手検出部と、胴体領域の部位領域データを抽出する胴体検出部と、足領域の部位領域データを抽出する足検出部の内少なくとも1つの検出部を備えるものである。
請求項に記載の人物行動理解システムは、請求項1乃至請求項のいずれか1項に記載の人物行動理解システムにおいて、部位領域データの変化量は、部位領域のデータの変化量、この変化量の変化速度、変化量の変化加速度のいずれか1つであるものである。
請求項に記載の人物行動理解システムは、請求項1乃至請求項のいずれか1項に記載の人物行動理解システムにおいて、行動理解部は、行動理解データテーブルから該人物の行動が抽出できない場合には、行動特徴検出部又は人体部位検出部において再検出を実行するように信号を送信するものである。
請求項に記載の人物行動理解システムは、請求項1乃至請求項のいずれか1項に記載の人物行動理解システムにおいて、部位検出部は、抽出された部位領域データが単独である場合に、特定領域検出部、行動特徴検出部及び行動理解部を作動させるタスク制御手段を備えるものである。なお、本願明細書において、部位領域データが「単独」であるとは、部位の器官数が1つである場合には、その器官に関する部位領域データが1つである場合を意味し、また、部位の器官数が2つで一対である場合には、その器官に関する部位領域データが1つ又は一対である場合を意味する。
手や足など一対存在する器官の場合であれば、一対のそれぞれが検出される場合もあるが、一方が例えば布団などに隠れてしまいもう一方のみが検出されることもあるので、一対なくとも1つであっても単独の概念に含めることとした。
請求項に記載の人物行動理解システムは、請求項1乃至請求項のいずれか1項に記載の人物行動理解システムにおいて、部位検出部によって抽出された部位領域データが単独である場合に、特定領域検出部、行動特徴検出部及び行動理解部を作動させるタスク制御手段を備えるものである。
本発明の人物行動理解システムにおいては、請求項1に記載の人物行動理解システムでは、撮像部で得られた画像から人体部位検出部では人物の部位領域のデータを抽出し、行動特徴検出部では抽出された部位領域のデータの変化量を用いて人物の行動特徴を抽出し、さらにこの行動特徴あるいはその組合せを用いて行動理解部で行動を抽出するという階層構造を備えており、各部毎に機能を分担させて各々で情報を選択抽出しているため、高精度で人物の行動を把握することができる。また、部位検出部に加えて特定領域検出部を備えることで、部位領域のデータのみならず特定領域のデータを抽出し、それらのデータを基に行動特徴を検出することができるので、より正確に高精度の行動理解を行うことができる。
特に、請求項に記載の人物行動理解システムでは、請求項に記載の発明の効果に加えて、部位存在領域データを検出することができるので、抽出された部位領域データが分割されたどの特定領域に存在するかが容易に把握でき、人物の部位とその存在位置の組合せが可能となることから行動特徴の検出がより容易となる。従って、人物の行動理解がより容易にしかも高精度で可能となる。
また、特に請求項に記載の人物行動理解システムにおいては、請求項1又は請求項2に記載の発明の効果に加えて、人物の特徴として捉えやすい頭部、手、胴体、足を検出することでより高精度に人物行動を把握することができる。
請求項に記載の人物行動理解システムでは、請求項1乃至請求項に記載の発明と同様の効果に加えて、特に部位領域データの変化量として位置データの変化量のみならず、変化速度や変化加速度を用いて、より詳細な行動特徴を得ることで、詳細な行動理解を行うことができる。
特に、請求項に記載の人物行動理解システムでは、請求項1乃至請求項の発明の効果に加えて、フィードバック機能を備えることで、誤検出や誤演算を正しく修正してより正確な行動理解を促進することが可能である。
請求項及び請求項に記載の発明においては、行動理解のための処理を実行するに際して、まず、部位検出部において正しい部位が検出された場合にのみ特定領域検出部や後段の行動特徴検出部及び行動理解部を作動させることで、省エネルギーで効率的に人物行動理解システムを稼動させることが可能であり、また、稼動の精度を高めることも可能である。
以下に本発明の実施の形態に係る人物行動理解システムについて図1乃至図29を参照しながら説明する。
図1は本発明の実施の形態に係る人物行動理解システムの構成図である。図1において、人物行動理解システム1は撮像部2、システム本体3及び出力部4から構成され、さらに第1データベース17、第2データベース18、第3データベース19を備えている。
まず、撮像部2では背景の中に存在する人物を背景ごと撮影して、撮像データ20を取得する。この撮像データ20は、撮像部2に接続されている第1データベース17に格納される。この撮像部2は例えば病院などの医療施設や介護施設あるいは独居高齢者や障害者をかかえる家庭などに設置されるもので、被写対象の人物は患者や高齢者あるいは障害者など何らかの介護を必要とする人物を想定している。従って、例えば病室のベッド傍の天井などに撮像部2が設置され、患者を高い位置からベッド廻りも含めて撮像するような状態である。
撮像部2による撮像領域には、被写対象の人物が占める人物領域と予め設定される撮像領域の一部又は全部の特定領域があり、人物領域は、さらにそれぞれの部位領域から構成されている。特定領域は、人物がいない状態で予め設定されるので、その特定領域の中に人物が入る場合がありその場合には人物領域と特定領域が重複する場合もある。また、この特定領域は、例えばベッド上の患者が起き上がったときの頭部位置周辺エリアをエリア1、枕周辺をエリア2、布団の領域をエリア3、ベッド廻りでエリア1,2,3のいずれにも属さない領域をエリア4などと分割しておくとよい。
なお、撮像部2は1台の固定カメラを想定するものであり、この撮像部2から得られる動画像に後述する複数の処理部を適用させて簡素かつ安価でありながら高い測定精度を担保する人物行動理解システムを提供するものである。
システム本体3は、人体部位検出部5と行動特徴検出部6と行動理解部7から構成される階層化された処理構造を備えている。第1の処理部である人体部位検出部5は、人物の部位領域を抽出するための部位検出部8と前述の特定領域を抽出するための特定領域検出部9から構成されている。これらの処理部が分散、協調して被写対象人物の行動理解を行う。
さらに、部位検出部8は、部位領域候補データ抽出手段10、部位領域データ照合手段11及びタスク制御手段13から構成されており、特定領域検出部9は、特定領域データ抽出手段12を備えている。
行動特徴検出部6は、人体部位検出部5に接続されており部位領域データ変化量演算手段14a、特定領域データ変化量演算手段14b、部位存在領域検出手段14c及び行動特徴抽出手段15から構成される。さらに、行動理解部7は、人物行動抽出手段16を備えている。
人体部位検出部5の部位検出部8は、撮像部2から直接に撮像データ20を読み出すかあるいは第1データベース17に格納された撮像データ20を読み出して、部位領域候補データ抽出手段10によって、撮像データ20の中から部位領域候補データを抽出し、さらに部位領域データ照合手段11で、第2データベース18に格納されているテンプレートデータ24から部位領域に関するデータと照合しながら、部位領域候補データの中から真の部位領域データ21を抽出する。抽出された部位領域データ21は第1データベース17に格納される。
なお、撮像データ20は一定のタイムスパンで撮像部2から伝送されるデータであり、それぞれの時間毎に時間をキーとして第1データベース17に格納されており、時間毎に読み出すことも可能である。また、抽出された部位領域データ21と特定領域データ22も時間毎に格納可能であり、その時間をキーとして格納されるのでその時間をキーとして読み出しも可能である。上記の一定のタイムスパンは、適宜本システムの利用者によって設定可能である。
また、部位領域候補データ抽出手段10における抽出は、予め撮像しておいた背景画像データ23との差分(以下、この背景画像データとの差分を背景差分と呼ぶことがある。)を取ったり、あるいは一定のタイムスパン毎に撮像されて第1データベース17に格納された撮像データ20間で差分(以下、この撮像データ20間での差分をフレーム間差分と呼ぶことがある。)を取ることによって行われる。背景差分は初期の状態からの変化を得ることができ、フレーム間差分は時々刻々と変化する動きを得ることができる。
一方、特定領域検出部9は部位検出部8と同様に特定領域データ抽出手段12によって撮像データ20の中から特定領域データ22を抽出する。抽出された特定領域データ22は第1データベース17に格納される。この特定領域データ22は予め特定されている領域(以下、エリアと呼ぶことがある。)に属する画素データを抽出するものである。
以上のとおり、人体部位検出部5では、撮像データ20に含まれる人物領域の部位領域データ21と特定領域データ22を抽出して第1データベース17に格納する。もちろん、第1データベース17に格納しなくとも行動特徴検出部6に送信してもよい。
また、行動特徴検出部6では、部位領域データ変化量演算手段14a及び特定領域データ変化量演算手段14bによって、人体部位検出部5において抽出された部位領域データ21と特定領域データ22を用いて、部位領域データの変化量や特定領域データの変化量を演算する。この変化量の具体例については後述するが、例えば部位の位置(特に重心位置)の変化量を示す部位領域データ変化量27や部位領域データ変化速度28や部位領域データ変化加速度29などがある。
これらの変化量の演算には、部位の位置変化量であれば部位領域データ21の基準となるような部位領域データ21と比較してその差を演算すればよく、また、フレーム間差分をとることによって、単位時間中の移動量を演算することによって部位変化速度28が得られるし、その部位変化速度28の単位時間中の変化を演算することで部位変化加速度29が得られる。また、特定領域データの変化量を示す特定領域データ変化量31であれば、特定領域データ22に含まれる領域の画素データとその画素データが撮像された時刻とは異なる時刻の画素データを比較することによって得られるものである。これによって何らかの変化がその特定領域において生じていることが把握される。また、この特定領域データ変化量31の単位時間中の変化を演算することで特定領域データ変化速度32が得られ、さらにその速度の単位時間中の変化を演算することで特定領域データ変化加速度33が得られる。
得られた部位領域データ変化量27、部位領域データ変化速度28、部位領域データ変化加速度29、特定領域データ変化量31、特定領域データ変化速度32、特定領域データ変化加速度33は演算結果を格納するための第3データベース19に格納される。
なお、特定領域におけるデータの増減は、被写対象の人物自体の動きがいずれの場所で起こっているのかという情報や、特定領域に存在する枕や布団の位置の変化に関する情報などを検出可能であることから、人物の行動を理解する上でより正確に判断することができ、重要な判断材料となる。
このようにして得られた部位領域データ変化量と特定領域データ変化量を用いて、行動特徴抽出手段15では第2データベース18に格納されている行動特徴データテーブル25を読み出して参照しながら、先の部位領域データ変化量と周辺領域データ変化量によって定められる行動特徴を抽出する。
なお、特定領域検出部9、特定領域データ変化量演算手段14b及び部位存在領域検出手段14cは必須ではないが、これらによって特定領域データ変化量が演算されれば、行動特徴データテーブル25に予め設定しておく行動特徴データのバリエーションを増やして詳細に行動特徴を規定しておくことが可能である。
行動特徴検出部6において抽出された行動特徴を用いて、行動理解部7の人物行動抽出手段16では、第2データベース18に格納された行動理解データテーブル26を読み出して参照しながら、この行動特徴によって定められる行動を抽出する。なお、行動特徴検出部6によって抽出される行動特徴については図20を参照しながら後述するが、かならず2つの行動特徴の組合せによって対応付けられた行動を抽出するものである。第1の行動特徴のもとで、第2の行動特徴ならば、その「行動」と理解するもので、この第1の行動特徴を本願明細書内では、前兆行動特徴と呼び、第2の行動特徴を確定行動特徴と呼ぶ。
ここで、部位検出部8に含まれているタスク制御手段13について説明する。本実施の形態に係る人物行動理解システム1は、前述のように、例えば病院の病室に入院する患者のベッド廻りを撮像して患者の行動などを監視しながらその安全を確保するためのシステムとして機能する。このようなケースで、患者の家族が見舞いに来ている状態あるいは医師や看護婦がそばについている場合であれば、たとえ容態が急変したりしても処置の対応が可能であるため特にこの様なシステムが作動していなくともよい。すなわち、患者が一人で病室にいる場合に監視が必要となるのである。したがって、撮像部2によって得られる撮像データ20において、患者一人のものと考えられる部位が検出された場合にのみ、特定領域検出部9や人体部位検出部5の後段として機能する行動特徴検出部6や行動理解部7を作動させればよいのである。
タスク制御手段13は、そのような機能を備えるもので、部位領域候補データ抽出手段10と部位領域データ照合手段11によって抽出される真の部位領域データ21が、1つである場合あるいは一対である場合、すなわち被写対象の人物の部位が単独で検出された場合にのみ、特定領域検出部9や行動特徴検出部6や行動理解部7に信号を送信して作動させるものである。
これによって複数の部位領域データを検出した際には、その後の作動を停止して、再度、部位領域候補データ抽出手段10と部位領域データ照合手段11を作動させて撮像データ20から部位領域データを抽出して単独のデータであるか否かを判断することで、効率的に行動理解を行うと同時に、行動特徴や行動の誤認による誤った判断を避けて精度の高い行動理解を促進するものである。
本実施の形態においては、このタスク制御手段13は部位検出部8に含まれているが、必ずしも部位検出部8に含まれる必要はなく、タスク制御手段13が階層構造を形成する人体部位検出部5、行動特徴検出部6及び行動理解部7以外の構成要素として単独に存在するようにしてもよいことは言うまでもない。
さらに、行動特徴検出部6に設けられている部位存在領域検出手段14cについて説明を加える。
前述のとおり予め設定される特定領域を分割し、分割された領域にそれぞれID符号を付してエリア1などとしておき、部位検出部8によって抽出される部位領域データ21が、この分割されID符号を備えたいずれの領域に含まれるかを部位存在領域データ30として検出する手段である。
検出された部位存在領域データ30は、第3データベース19に格納される。この部位存在領域データ30は、行動特徴検出部6の行動特徴抽出手段15において、部位領域データ変化量あるいは特定領域データ変化量と組み合せられ、その組合せに対して定められる行動特徴が行動特徴データテーブル25から抽出されることになる。この具体例については後述する。
次に、部位検出部8が部位領域データ21を抽出するまでの作用について図2乃至図9を参照しながら説明する。図2は、部位検出部8の一種であり、部位として頭部を想定する頭部検出部8aの構成図である。
図2において、入力画像40とは、撮像データ20をシステム本体3への入力情報として捉えた場合の名称であり、実質的には撮像データ20と同一である。頭部検出部8aに入力された入力画像40は、部位領域候補データ抽出手段10の一種で頭部候補データ抽出部10aによって読み出され、この頭部候補データ抽出部10aを構成する、肌色領域抽出部44a、正規化明度背景差分抽出部44b、RGB背景差分抽出部44c及び髪色領域抽出部44dに送信される。
まず、2つの共通領域抽出部46a,46bに関連するRGB背景差分抽出部44cから説明する。
RGB背景差分抽出部44cでは、図3に示されるようにRGB成分を備えた入力画像40に対して第2データベース18に格納されている背景画像データ23との差分を抽出するものである。背景画像データ23は被写対象の人物が存在しない状態で撮像部2から取得されたデータであるため、入力画像40との差分を取ることによれば、被写対象の人物を中心として、さらに布団や枕など当初の状態とは異なる状態にある物が差分として抽出される。このようにして得られたのが2値画像45cである。
なお、図3中に入力画像40として示されるデータは、1次元配列となっており、そのデータ数は縦横の画素(ピクセル)がそれぞれ240個と320個であり、さらにRGBの3成分を考慮するため、その3倍となっている。図4は、入力画像40の画素配置を示す概念図である。座標は図4中の左上が原点となり、そこからX軸は右方向に320ピクセル、Y軸は下方向に240ピクセル存在しており、それぞれ、X軸ではi番目、Y軸ではj番目のピクセルを(xi,yi)と表現される。
また、差分演算について図5を参照しながら説明を追加する。図5はRGB背景差分抽出部44cで実行される処理内容を示すフロー図である。図5において、ステップS11では入力画像40中の画素(x,y)の明度R(x,y),G(x,y),B(x,y)と背景画像データ23中の画素(x、y)の明度R(x,y),G(x,y),B(x,y)を抽出し、ステップS12でその不一致度Dを求める。ステップS13で、その不一致度Dと不一致度に対するしきい値Sを比較して、不一致度Dがしきい値Sよりも大きい場合には、画素(x,y)の値を1とし、そうでない場合には、0とする2値化処理を行うのである。これによって、図2に示されるような2値画像45cが抽出されるのである。なお、しきい値Sは適宜予め設定される数値である。
次に、図2に示される肌色領域抽出部44aについて、図6を参照しながら説明する。肌色領域抽出部44aは、RGB背景差分抽出部44cなどと同様に入力画像40を撮像部2から直接読み出すかあるいは第1データベース17から読み出して、肌モデルデータ24aと比較して2値画像45aを抽出する。ここで、肌モデルデータ24aについて説明を加える。肌色を示すI値は、各画素のRGB成分を用いて式(1)で示される数値として既に知られる手法であり、一般的に用いられるものである。
予め、肌モデルデータ24aとして被写対象の人物の肌色のI値の分布を正規分布と仮定しI値の平均μと標準偏差σを用いて表現しておき、入力画像40中の各画素に対して式(2)で示される判別式を用いることで、肌色と判断される画素には1を、そうでない場合には0を入力することで2値化処理を行い2値画像45aを抽出するのである。すなわち、テンプレートデータ24にはこのように式で表現される場合も含まれるのである。
次に、正規化明度背景差分抽出部44bでは、RGB背景差分抽出部44cと同様に、背景差分を抽出するが、この正規化明度背景差分抽出部44bでは正規化明度の差分を抽出するところに特徴がある。この正規化明度とは、図5のステップS11に示したそれぞれの画素のRGB毎の明度が明度の合計に占める割合を表すものであり、具体的には、下記の式(3)で表現される。
このように正規化明度の差分を取ることによれば、RGB背景の差分を取るこことに比べて照明条件が変化しても正規化明度値には影響がないという特徴があることが知られており、白色など淡色の影響を小さくすることができるため、例えば布団などを抽出することなく人物の部位をより明確に抽出することができる。
本実施の形態では、特に、病室にいる患者を被写対象人物として想定しており、この背景の差分では人物の他にも当初位置から移動した物も抽出されるため、人物の部位を抽出するためには、動いた布団や枕といった白色あるいは有色であっても淡色の物を可能な限り排除することが重要となる。従って、RGB背景差分抽出部44cのみならず正規化明度背景差分抽出部44bを加えているのである。
この正規化明度背景差分抽出部44bにおいてもRGB背景差分抽出部44cと同様に図5に示されるようなフロー図に従って2値化処理を行い、2値画像45bを抽出する。
さらに、髪色領域抽出部44dでも第2データベース18から髪モデルデータ24bを読み出して髪色領域抽出部44dから抽出されたデータと比較しながら2値化処理を施して2値画像45dを得る。
このようにして肌色領域抽出部44a〜髪色領域抽出部44dで得られた2値画像45a〜2値画像45dは、共通領域抽出部46a、共通領域抽出部46bを用いて共通部分に関する2値画像47a、2値画像47bを抽出する。このように共通領域に関して2値化処理を実施してさらに2値画像を得ることによって、より精度の高い頭部領域候補が抽出される。
図7を参照しながら2値画像45cと2値画像45dを用いて共通領域抽出部46bで共通領域を抽出して2値画像47bを取得する方法について説明する。図7は、共通領域抽出部46bがRGB背景差分と髪色の2値画像から共通画像を抽出することを説明するための概念図である。
図7において、2値画像Aは、RGB背景差分抽出部44cで抽出された2値画像45cであり、2値画像Bは、髪色領域抽出部44dで抽出された2値画像45dである。これらの2値画像A,Bは共通領域抽出部46bによって読み出され、その2つの画像の共通の画像について1と共通部分以外では0を入力して2値画像47bを求めている。この共通領域抽出部46bにおける演算は、2値画像A上で画素(x,y)の画素値をA(x,y)とし、2値画像B上で画素(x,y)の画素値をB(x,y)とすると、出力される2値画像Cは、式(4)で示されるような式に基づいて値を求める。なお、すなわち、A(x,y)とB(x,y)がそれぞれ1であればC(x,y)も1となるが、いずれかが0であれば、C(x,y)も0となる。
式(4)中の符号∩は論理積を示す。2値画像47bにおいて、黒く塗られている部分が共通部分であり、この部分がRGB背景差分によって抽出された変化のある画素と髪色として抽出された画素が混在している領域となる。従って、この領域は、頭部の中でも特に髪の領域の候補ということができる。この共通領域抽出部46bと同様に、2値画像45a〜2値画像45cを用いて共通領域を抽出して2値画像47aが求められる。この2値画像47aは、2値画像47bが髪の領域の候補であったのに対して顔の領域の候補ということができる。
頭部検出部8aでは2つの2値画像を抽出し、テンプレートマッチング部11aでは、さらにこの2値画像を予め第2データベース18に格納された頭部テンプレートデータ24cと比較して最終的な頭部領域2値画像48aを抽出する。すなわち、2値画像47a、2値画像47bの時点では、まだ頭部候補であり、その数はそれぞれ複数存在する可能性があるが、頭部テンプレートデータ24cと比較することで、最終的に被写対象の人物の頭部のデータを1つに絞り得るのである。なお、頭部テンプレートデータ24cは、詳細にいえば、顔テンプレートデータと髪テンプレートデータの2種類があり、それぞれについて2値画像47aと2値画像47bを照合して頭部領域2値画像48aを抽出するのである。
このテンプレートマッチング部11aにおいて、頭部領域2値画像48aを抽出する方法について図8及び図9を参照しながら説明する。図8は、頭部候補データを頭部テンプレートデータに照合する状態を示す概念図であり、図9(a)は頭部候補領域に係る2値画像47aを長方形のボーダーとして捉える様子を模式的に示す概念図、図9(b)は頭部テンプレートデータ24cのうち、演算に用いる部分を示すための概念図である。
図8及び図9(a)において、共通領域抽出部46aにおいて抽出された頭部候補領域に係る2値画像47aは、それを含む長方形として捉えられ、その中心(x、y)が求められる。この中心に対して、予め第2データベース18に格納されている頭部テンプレートデータ24cの中心を(x,y−h/4)として求める。この頭部テンプレートデータ24cの中心座標は、人間の顔のつくりをベースに概略として求めるものであり、適宜修正してもよい。
次に、図9(b)に示されるように頭部テンプレートデータ24cの長軸aと短軸bを式(5)によって求める。
このように定めることによって、前髪の位置は先に考えた長方形の上辺に一致することになる。従って、長方形の上辺より上側が髪領域であり、それより下が顔領域となる。そこで、頭部テンプレートデータ24cの顔領域内にある2値画像47aの画素数と、頭部テンプレートデータ24cの髪領域内にある2値画像45cの画素数の和Tを求め、式(6)で表現される適合率rを求める。
第2データベース18に格納されている頭部テンプレートデータ24cは、この長軸と短軸によって、適合率の演算に使用される部分を限定していることになる。
候補領域の中でこの適合率rが最大になったもの、あるいはしきい値を設けておき、そのしきい値を超えたものを頭部領域2値画像48aとして抽出する。
最大のものとすると、常に1つの頭部が認識されるものの、前述のとおり例えば病室に患者以外の肉親や医療関係者が存在した際に、患者以外の一人の人間が認識される可能性があるためにタスク制御手段を活用しようとしても必ず1つの部位が検出されてしまうとタスク制御手段が機能しないこととなってしまう。そこで、タスク制御手段などを作動させる場合にはしきい値を設けておき、撮像領域に人物が複数存在する際に、複数の部位すなわち、単独ではない部位が検出されるようにしておくことが望ましい。
なお、長軸aと短軸bのhを用いた式は一例であり適宜修正してもよいことは言うまでもない。
また、本実施の形態における上述の頭部領域2値画像48aの抽出は頭部テンプレートデータ24cの中でも特に顔テンプレートデータに基づくものであるが、髪テンプレートデータを用いて頭部領域2値画像48aを決定するようにしてもよい。すなわち、2値画像47bを用いる場合には、頭部テンプレートデータ24cの髪領域内にある2値画像47bの画素数と、頭部テンプレートデータ24cの顔領域内にある2値画像45cの画素数の和T'を求め、式(6)と同様に表現される適合率r'を求めるようにすればよい。なお、その際には式(5)は適宜修正して使用してもよい。
さらに、互いの適合率を各頭部領域候補において施して、最も適合率の高い領域を頭部領域としてもよい。
次に、図10を参照しながら図1に示される部位検出部8の一種である胴体検出部8bについて説明する。図10は、部位として胴体を想定する胴体検出部8bの構成図である。
図10において、胴体検出部8bに入力された入力画像40は、部位領域候補データ抽出手段10の一種である胴体候補データ抽出部10bによって読み出され、この胴体候補データ抽出部10bを構成するRGB差分抽出部50に送信される。このRGB差分抽出部50は、図2に示した頭部検出部8aのRGB背景差分抽出部44cと同様のものであり、第2データベース18に格納された背景画像データ23を読み出して比較して背景差分を取るものである。
ここで得られた背景差分領域51はクラスタリング部52に送出される。このクラスタリング部52では、背景差分領域51内の画素に対するクラスタリングを行う。クラスタリングとは、グルーピングあるいはグループ化することを意味し、同じような位置で同じような明度を備える画素をまとめることで胴体領域の検出をより容易に精度よく行うものである。
通常、被写対象の人物は何らかの衣服を着ており、その衣服は例えばパジャマなどであるが模様が施されている場合が多い。そこで、その模様の特徴を予めテンプレートデータ24内に胴体のテンプレートデータとして格納しておき、その胴体のテンプレートデータと照合するためにクラスタリングを行うものである。
具体的にクラスタリングの手順を説明する。
(1)まず、背景差分領域51内のJ個の画素をランダムに選択し、それらを初期クラスタ中心とする。初期クラスタにおいては、J個の画素のそれぞれの座標、色成分を各クラスタの平均ベクトルの成分とする。
(2)次に、画素pとクラスタk(k=1,2,...,J)の平均ベクトルZとのユークリッド距離d(k、p)を求め、画素pをd(k,p)が最小となるクラスタに統合する。
(3)背景差分領域51内の全画素に対して(2)の処理を行う。
(4)(3)により再構成されたクラスタkの平均ベクトルZを再計算する。
(5)各クラスタの平均ベクトル間の距離を計算し、最小の距離にあるクラスタ同士を統合する。
(6)クラスタ数がJになるまで(4)、(5)の処理を繰り返す。
(6)のクラスタ数Jは、適宜設定してよい。さらに、クラスタリング部52では、このようにクラスタリングされて求められた各クラスタにおいて、その明度の平均値に対して正規化明度を演算する。この正規化明度値と予め設定された胴体のテンプレートデータをパジャマモデルマッチング部11bで照合して胴体領域2値画像48bを抽出する。この胴体のテンプレートデータは、例えばパジャマの色の分布のモデルであり、肌色のI値の分布と同様にパジャマの色の分布モデルを正規分布と仮定してその平均μと標準偏差σを用いて表現しておき、式(3)と同様のしきい値からこのしきい値を満たす画素数が最も多いクラスタを胴体のクラスタとして検出する。但し、パジャマの色の分布モデルに含まれる画素数が予め別途設定したしきい値以下である場合には、画像内に胴体がないと判断する。
次に、図11を参照しながら図1に示される部位検出部8の一種である手検出部8cについて説明する。図11は、部位として手を想定する手検出部8cの構成図である。
図11において、手検出部8cに入力された入力画像40は、部位領域候補データ抽出手段10の一種で手候補データ抽出部10cによって読み出され、この手候補データ抽出部10cを構成する肌色領域抽出部54a、フレーム間差分抽出部54b及びエッジ2値画像抽出部54cに送信される。
このうち、肌色領域抽出部54aは、図2に示した肌色領域抽出部44aと同様の作用と効果を有するものである。肌色領域2値画像55aを抽出するために、第2データベース18のテンプレートデータ24中に手の肌モデルデータを格納しておき、式(1)と同様な式を用いることで、2値画像45aと同様の肌色領域2値画像55aを抽出することができる。
一方、フレーム間差分抽出部54bについて図12を参照しながら説明する。図12は、フレーム間差分抽出部54bの作用を説明するための概念図である。図12において、入力画像40を読み出して、さらにTフレーム前の入力画像40aを第1データベース17に格納されている部位領域データ21の中より読み出す。この2つの入力画像に関するフレーム間差分を取ることによって、フレーム間差分2値画像55bを演算する。
このフレーム間差分2値画像55bの演算方法について図13を参照しながら説明する。図13は、フレーム間差分抽出部54bで実行される処理内容を示すフロー図である。図13において、ステップS21では入力画像40中の画素(x,y)の明度R(x,y),G(x,y),B(x,y)とTフレーム前の入力画像40a中の画素(x、y)の明度R(x,y),G(x,y),B(x,y)を抽出し、ステップS22でその不一致度Dを求める。ステップS23で、その不一致度Dと不一致度に対するしきい値Sを比較して、不一致度Dがしきい値Sよりも大きい場合には、画素(x,y)の値を1とし、そうでない場合には、0とする2値化処理を行うのである。これによって、図11に示されるようなフレーム間差分2値画像55bが抽出されるのである。なお、しきい値Sは適宜予め設定される数値である。
次に、図14を参照しながらエッジ2値画像抽出部54cについて説明する。図14はエッジ2値画像抽出部54cにおける作用を説明するための概念図である。図14において、ステップS31として表現されている入力画像40のエッジ2値画像抽出部54cによる読み出しは、ステップS32におけるエッジ成分の検出工程につながる。このエッジ成分の検出は、示される座標から明らかなように4つの隣接する画素のそれぞれのRGB成分についてあたかもたすきがけのようにして行われる。
このようにして求められたエッジ成分は、ステップS33で示されるように入力画像40中の画素のエッジ成分の和Eを求め、このエッジ成分の和Eとしきい値Seを比較してエッジ成分の和Eが大きい場合には、画素値を1とし、そうでない場合には画素値を0として2値化処理が施される。このようにしてエッジ2値画像55cを抽出するのである。
次に、図11に戻り共通領域抽出部56について説明する。この共通領域抽出部56では、先に図7を用いて説明した共通領域抽出部46bと同様の手法によって手候補領域を含む2値画像57を抽出する。
この手候補領域を含む2値画像57と先に説明したエッジ2値画像55cからエッジマッチング部11cは手領域2値画像48cを抽出する。このエッジマッチング部11cによる手領域2値画像48cの抽出の作用について図15を参照しながら説明する。図15(a)は、手候補領域を含む2値画像を模式的に示す概念図であり図15(b)は、エッジ2値画像を模式的に示す概念図である。図15(a)においては、示される丸印は手候補領域を含む2値画像57の境界線を示すものである。この境界線をまず抽出し、その後、この境界線における2値画像とエッジ2値画像55cの論理積を取る。この論理積とは、先に式(4)として説明したものであり、いずれも画素値が1である場合には論理積は1となるが、その画素値が1となった画素数を計数し、一致率としてこの画素値が1となった画素数と先の境界線における画素数の比を演算する。そして、この一致率が最大となる領域を手領域とする。
なお、頭部検出部8aの箇所で説明したとおり、最大のものとすると、常に1つあるいは一対の手が認識されるものの、タスク制御手段が機能しないこととなってしまうので、タスク制御手段などを作動させる場合にはしきい値を設けておき、撮像領域に人物が複数存在する際に、複数の部位すなわち、単独ではない部位が検出されるようにしておくことが望ましい。
なお、本実施の形態の説明においては、足検出部については手検出部と同じアルゴリズムで抽出することができる。具体的には、例えば図11においては、手に対して構成される要素について、これを足についての構成要素とすればよい。肌色領域抽出部54a、フレーム間差分抽出部54b、エッジ2値画像抽出部54cなどについても足用に構成すればよい。その他の構成要素についても同様である。もちろん、第2データベース18には足のためのテンプレートデータを格納しておく必要がある。
以上、部位検出部8について説明した。次に、行動特徴検出部6を構成する部位領域データ変化量演算手段14aと特定領域データ変化量演算手段14bについて図16を参照しながら説明する。
図16(a)は特定領域データ変化量演算手段14bの作用を説明するためのフロー図であり、図16(b)は部位存在領域検出手段14cの作用を説明するためのフロー図である。図16(a)において、特定領域検出部9で抽出された分割された特定領域の各エリアに含まれる時刻tにおけるRGB背景差分領域の画素数について、その単位時刻前の同じRGB背景差分領域の画素数を比較することによって、例えばふとん領域(エリア3)の差分が増加したかどうかを判断し、そうであれば1とし、そうでなければ0とする2値化処理を行う。このエリア3については、先にも一例として説明したが図17に示すとおりである。具体的には、ベッド上の患者が起き上がったときの頭部位置周辺エリアをエリア1、枕周辺をエリア2、布団の領域をエリア3、ベッド廻りでエリア1,2,3のいずれにも属さない領域をエリア4としている。
また、図16(b)においては、頭部検出部8aによって抽出された頭部の重心座標に着目し、その重心座標がエリア1に含まれるか否かを判断し、それであれば1とし、そうでなければ0とする2値化処理を行うものである。
図18は、図16に示されるようにして実行された特定領域検出部9からの出力を用いた2値化処理の結果によって定められる行動特徴を表現する概念図である。図18において、例えば、現状の状態を「寝ている」状態としておき、特定領域検出部9において、時刻tと時刻t−1におけるエリア1のRGB差分の画素数の差を求め、それが増加か等しいか減少であるかを判断する。
その結果自体が、図19で示される行動特徴データテーブル25の一部に含まれている。図19は、行動特徴データテーブルの一例を示す概念図である。例えば、図18のエリア1のRGB差分の画素数が、エリア1で増加したと仮定すると、図19の行動特徴データテーブル25では、ID=b2で示される行動特徴となる。この図18に示される演算と判断が図1における特定領域データ変化量演算手段14bで実行される。また、その特定領域データ変化量演算手段14bで実行された結果得られた行動特徴データは行動特徴抽出手段15によって第2データベース18に格納された行動特徴データテーブル25を読み出して実行される。特定領域データ変化量演算手段14bで演算された特定領域データ変化量31、特定領域データ変化速度32、特定領域データ変化加速度33は第3データベース19に格納される。
特定領域検出部9で抽出された特定領域データ22を利用するだけでなく、図16(b)に示される例えば頭部検出部8aによって抽出された頭部の重心座標に関して部位存在領域検出手段14cで図16に示されるような演算と判断を行い、行動特徴抽出手段15によって第2データベース18に格納された行動特徴データテーブル25を読み出してID=a7で示される行動特徴である「頭部がエリア1に存在する」が抽出される。部位存在領域検出手段14cで演算された部位存在領域データ30は、第3データベース19に格納される。
なお、図16には図示していないが、部位領域データ変化量演算手段14aについても同様に頭部検出部8aによって抽出された頭部の重心座標の移動による変化量などを演算し、その変化量から例えば図19にID=a1で示される行動特徴である「頭部が一定速度以上で移動する」などが抽出される。部位領域データ変化量演算手段14aによって演算される部位領域データ変化量27、部位領域データ変化速度28、部位領域データ変化加速度29は第3データベース19に格納される。
このように行動特徴検出部6で行動特徴データテーブル25を使用して抽出された行動特徴は、図1に示される行動理解部7へ伝送される。行動理解部7では、人物行動抽出手段16が、行動特徴を組み合せることによって第2データベース18に格納されている行動理解データテーブル26を読み出して最終的な人物の行動を抽出することになる。
本実施の形態に係る人物行動理解システム1の大きな特徴として、前述の前兆行動特徴と確定行動特徴による行動理解プロセスがある。この行動理解のプロセスを模式的に表現したのが図20である。図20において、「行動特徴」のもとで「行動特徴」ならば「行動」と理解すると示されているが、最初の「行動特徴」が前兆行動特徴であり、後の「行動特徴」が確定行動特徴となる。この行動理解プロセスでは、1つの行動特徴で行動を理解するのではなく、前兆と確定の2つの行動特徴をもってはじめて行動と理解するものである。このように2段構えの行動理解プロセスを備えることで、行動理解を確実なものにして誤認などがないようにしている。なお、前兆行動特徴がある行動に対して複数存在する場合にはこれらはORで考えられ、確定行動特徴がある行動に対して複数存在するならば、これらはANDで考えられる。これによって、可能性は広く考えるが確定する際には絞り込むというスタンスが明確となっている。
図21及び図22を参照しながら行動理解のプロセスの具体例を説明する。図21(a)乃至(d)は、いずれも第2データベース18に格納される行動理解データテーブル26の一例である。また、図22(a)は、被写対象の人物の行動の状態遷移図を示すものであり、図22(b)は(a)の行動の状態遷移図の一部を拡大しながらさらに、その遷移の条件を示す概念図である。
図21(a)において、「背景差分がエリア3で増加する」という前兆行動特徴のもとで、「頭部がエリア1に存在する」という確定行動特徴と「背景差分がエリア4に存在しない」という別の確定行動特徴を備えているならば、「寝ているから起きている」という行動と理解するものである。この他の図21(b)乃至(d)については記載のとおりであるためその説明を省略する。
図22(a)において、符号60a〜60eは人物の状態の候補を示すものであり、符号61a〜61gはその状態遷移の方向を示すものである。寝ている状態60aと起きている状態60dでは互いに遷移の可能性があるため、互いに矢印が向いているが、寝ている状態60aと転落している状態60bでは、寝ている状態60aから転落している状態60bへのみ矢印が向いている。
図21(a)の行動を見ると、「寝ている」から「起きている」への遷移であり、図22(a)の符号60aから符号60dへの矢印で符号61aとなる。
この遷移の条件について図22(b)を参照しながらもう一度説明する。図22(b)では、行動特徴検出部6において抽出される行動特徴がいくつか存在すると考えられ、そのうち、寝ている状態で、図中、1.で表現される「起きている」への行動特徴検出があるとした場合、符号61aで示される状態遷移の方向へ進んで、「起きている」という状態になるためには、さらに、図中2.で表現される「起きている」への行動特徴検出がなされなければならないのである。
これが先に説明した前兆行動特徴と確定行動特徴と呼ぶものである。これらの2つの行動特徴が検出されてはじめて状態の遷移と判断し、その状態遷移が行動なのである。
この行動理解のための行動理解データテーブル26を利用した演算では、図19で示したようなIDをキーとすることで論理的な演算を実行するとよい。
このようにして行動として理解された内容は、図1に示されるように出力部4に表示される。
その際には、第1データベース17乃至第3データベース19に格納されている様々なデータや演算結果を適宜表示するとよい。
次に、図23及び図24を参照しながら本実施の形態に係る人物行動理解システム1のフィードバックについて説明する。
図23は、人物行動理解システム1全体のフィードバックを含めた概略構成図であり、図24(a)はフィードバックの作用を説明するための概念図であり、図24(b)はフィードバックの条件を説明するためのフロー図である。
図23において、既に説明したとおり、入力画像40は人体部位検出部5によって読み出され、人体部位検出部5では頭部や手、さらに胴体などの検出を行う。検出後、それらの情報を基に行動特徴検出部6において、行動特徴の抽出を行い、さらに抽出された行動特徴を基に行動理解部7において行動理解を行うのである。そして、これら人体部位検出部5、行動特徴検出部6、行動理解部7の階層構造を利用しながら互いに協調が可能なように行動理解部7から行動特徴検出部6へ実行される第1フィードバック65と行動特徴検出部6から人体部位検出部5へ実行される第2フィードバック66が設けられている。
この2つのフィードバックについて図24(a),(b)を参照しながら説明を加える。図24(a)において、まず行動理解部7にて「寝ている」を検出したとする。その際に、第1フィードバック65によって行動特徴検出部6で矛盾する行動特徴の有無を確認する。その結果、図24(a)に示されるように、「頭部がエリア4に存在」という行動特徴を検出したとする。このエリア4は先に説明したとおり、ベッドの下など寝ている状態では頭がそこにあるはずがないようなエリアである。従って、その行動特徴は行動理解部7における行動理解と矛盾しており、従って、本実施の形態に係る人物行動理解システム1では、行動特徴検出部6から人体部位検出部5に対して第2フィードバック66を実行させて頭部検出部による再検出を指令する。
一方、図24(b)に示されるように、もし、「頭部がエリア4に存在する」という行動特徴が行動特徴検出部6において検出されなかったとすれば、矛盾はないので、そのままフィードバックなしとなる。このように人体部位検出部5から行動理解部7への情報の流れと、これとは逆に流れるチェック機能を備えており、階層構造を効果的に活用することにより、より精度の高い人物行動理解システムとしている。
以上説明したとおり、本実施の形態に係る人物行動理解システム1は、人体部位検出部5、行動特徴検出部6、行動理解部7という階層構造を備えて分散、協調しながら入力画像を処理することができ、高い精度を発揮することができる。また、人物の部位のみならず、特定領域を想定してそれを複数に分割してエリア毎に背景差分の増減などを演算することで、被写対象となる人物のみならず、周囲の変化も捉えることが可能であると同時に、エリアに分割するに留まって、詳細に周囲を解析することはしないため処理される画素データが比較的軽い。従って、高い精度を発揮しながら行動理解の判断に必要な演算装置の性能に制限がほとんどなく、必要な時間も短くて済むという顕著な効果を有する。
次に、図25乃至図28を参照しながら発明者によって実施された実証試験について説明する。
図25(a)は、実証試験の様子を模式的に表現した概念図であり、図25(b)は固定カメラによって実際に撮像された画像例を示すものである。
患者が病院のベッドに横たわっている様子を模擬して実証試験を実施した。固定カメラは1台であり、病室の天井から患者とその周囲を撮像している。
図26(a)は、例えば図2に示した入力画像40の一例を示すものであり、(b)は同じくRGB背景差分抽出部44cによって抽出される背景差分画像を示し、(c)は同じく図2の正規化明度背景差分抽出部44bによって抽出される画像であり、(d)は肌色領域抽出部44a、(e)は髪色領域抽出部44dで抽出される画像である。最後に(f)は例えば図11に示されるフレーム間差分抽出部54bによって抽出される画像を示すものである。これらの(b)乃至(f)は(a)の入力画像をベースにそれぞれ得られた画像である。
図27(a)乃至(f)はそれぞれ「寝ている」、「起き上がる」、「ベッドの外」、「撮像領域外」、「転落」、「柵をつかむ」を示す状態を示しており、これらが本人物行動理解システム1によって検出対象となる状態例である。
最後に図28に入力画像とそれによって検出された例について示す。(a)は入力画像で、(b)が頭部検出例、(c)が手検出例であり、(d)が胴体の検出例である。
このように示される実証試験の結果をまとめて表1と表2に示す。
表1は、人体部位検出結果を示すものである。表1より、頭部及び胴体の検出率に比較して手の検出率が著しく低くなっているが、頭部と胴体については概ねほぼ検出可能なレベルとなった。
表2は、「寝ている」という初期状態からの行動理解結果を示すものである。表2より「寝ている」、「起きている」、「ベッドの外にいる」、「退室している」は90%以上の高精度で検出された。また、「転落している」と状態についても7割以上の検出率があり、本実施の形態に係る人物行動理解システムは十分実用可能といえる。
一般家庭から病院などの医療施設や介護施設などで、介護が必要な患者や高齢者などに対して幅広く利用が可能である。また、このような医療分野でなくとも危険作業の監視などにも行動特徴データテーブルや行動理解データテーブルを適宜修正すれば適用が可能である。
本発明の実施の形態に係る人物行動理解システムの構成図である。 本実施の形態に係る部位検出部の部位として頭部を想定する頭部検出部の構成図である。 RGB背景差分抽出部における作用を示すフロー図である。 入力画像の画素配置を示す概念図である。 RGB背景差分抽出部で実行される処理内容を示すフロー図である。 肌色領域抽出部における作用を示すフロー図である。 共通領域抽出部が肌色と髪色の2値画像から共通画像を抽出することを説明するための概念図である。 頭部候補データを頭部テンプレートデータに照合する状態を示す概念図である。 (a)は頭部候補領域に係る2値画像を長方形のボーダーとして捉える様子を模式的に示す概念図であり、(b)は頭部テンプレートデータのうち、演算に用いる部分を示すための概念図である。 部位として胴体を想定する胴体検出部の構成図である。 部位として手を想定する手検出部の構成図である。 フレーム間差分抽出部の作用を説明するための概念図である。 フレーム間差分抽出部で実行される処理内容を示すフロー図である。 エッジ2値画像抽出部における作用を説明するための概念図である。 (a)は、手候補領域を含む2値画像を模式的に示す概念図であり(b)は、エッジ2値画像を模式的に示す概念図である。 (a)は特定領域データ変化量演算手段の作用を説明するためのフロー図であり、(b)は部位存在領域検出手段の作用を説明するためのフロー図である。 特定領域の分割エリア例を示す概念図である。 図16に示されるようにして実行された特定領域検出部からの出力を用いた2値化処理の結果によって定められる行動特徴を表現する概念図である。 行動特徴データテーブルの一例を示す概念図である。 行動理解のプロセスを模式的に表現した概念図である。 (a)乃至(d)は、いずれも第2データベースに格納される行動理解データテーブルの一例である。 (a)は、被写対象の人物の行動の状態遷移図を示すものであり、(b)は(a)の行動の状態遷移図の一部を拡大しながらさらに、その遷移の条件を示す概念図である。 人物行動理解システム1全体のフィードバックを含めた概略構成図である。 (a)はフィードバックの作用を説明するための概念図であり、図24(b)はフィードバックの条件を説明するためのフロー図である。 (a)は、実証試験の様子を模式的に表現した概念図であり、(b)は固定カメラによって実際に撮像された画像例を示すものである。 (a)は、例えば図2に示した入力画像の一例を示すものであり、(b)は同じくRGB背景差分抽出部によって抽出される背景差分画像を示し、(c)は同じく図2の正規化明度背景差分抽出部によって抽出される画像であり、(d)は肌色領域抽出部で抽出される画像であり、(e)は髪色領域抽出部で抽出される画像であり、(f)は例えば図11に示されるフレーム間差分抽出部によって抽出される画像を示すものである。 (a)乃至(f)はそれぞれ寝ている、起き上がる、ベッドの外、撮像領域外、転落、柵をつかむを示す状態を示しており、これらが本人物行動理解システム1によって検出対象となる状態例である。 (a)は入力画像で、(b)が頭部検出例、(c)が手検出例であり、(d)が胴体の検出例である。
符号の説明
1…人物行動理解システム 2…撮像部 3…システム本体 4…出力部 5…人体部位検出部 6…行動特徴検出部 7…行動理解部 8…部位検出部 8a…頭部検出部 8b…胴体検出部 8c…手検出部 9…特定領域検出部 10…部位領域候補データ抽出手段 10a…頭部候補データ抽出部 10b…胴体候補データ抽出部 10c…手候補データ抽出部 11…部位領域データ照合手段 11a…テンプレートマッチング部 11b…パジャマモデルマッチング部 11c…エッジマッチング部 12…特定領域データ抽出手段 13…タスク制御手段 14a…部位領域データ変化量演算手段 14b…特定領域データ変化量演算手段 14c…部位存在領域検出手段 15…行動特徴抽出手段 16…人物行動抽出手段 17…第1データベース 18…第2データベース 19…第3データベース 20…撮像データ 21…部位領域データ 22…特定領域データ 23…背景画像データ 24…テンプレートデータ 24a…肌モデルデータ 24b…髪モデルデータ 24c…頭部テンプレートデータ 25…行動特徴データテーブル 26…行動理解データテーブル 27…部位領域データ変化量 28…部位領域データ変化速度 29…部位領域データ変化加速度 30…部位存在領域データ 31…特定領域データ変化量 32…特定領域データ変化速度 33…特定領域データ変化加速度 40…入力画像 40a…入力画像 44a…肌色領域抽出部 44b…正規化明度背景差分抽出部 44c…RGB背景差分抽出部 44d…髪色領域抽出部 45a…2値画像 45b…2値画像 45c…2値画像 45d…2値画像 46a…共通領域抽出部 46b…共通領域抽出部 47a…2値画像 47b…2値画像 48a…頭部領域2値画像 48b…胴体領域2値画像 48c…手領域2値画像 50…RGB差分抽出部 51…背景差分領域 52…クラスタリング部 54a…肌色領域抽出部 54b…フレーム間差分抽出部 54c…エッジ2値画像抽出部 55a…肌色領域2値画像 55b…フレーム間差分2値画像 55c…エッジ2値画像 56…共通領域抽出部 57…手候補領域を含む2値画像 60a〜60e…状態 61a〜61g…状態遷移の方向 65…第1フィードバック 66…第2フィードバック

Claims (7)

  1. 被写対象の人物を含む人物領域と別個に予め規定される特定領域を含む撮像領域の検出を行う撮像部と、この撮像部によって撮像される前記人物領域に含まれる部位領域データを抽出する部位検出部と前記特定領域に含まれる特定領域データを抽出する特定領域検出部とを備える人体部位検出部と、前記人体部位検出部によって抽出された部位領域データと特定領域データの変化量によって行動の特徴を検出する行動特徴検出部と、前記行動特徴検出部によって検出された前記行動の特徴を組み合わせることによって前記人物の行動を判断する行動理解部と、を有する人物行動理解システムであって、
    前記部位検出部は、前記撮像部によって撮像された前記人物領域に含まれる部位領域候補の部位領域候補データを抽出する手段と、この抽出された部位領域候補データと予め設定される前記部位領域のテンプレートデータとを照合して部位領域データを抽出する手段とを備え、
    前記特定領域検出部は、前記撮像部によって撮像された前記特定領域に含まれる特定領域データを抽出する手段を備え、
    前記行動特徴検出部は、前記部位検出部によって検出された前記部位領域データの変化量を演算する手段と、前記特定領域検出部によって検出された前記特定領域データの変化量を演算する手段と、前記部位領域データの変化量及び前記特定領域データの変化量によって定められる行動特徴を示す行動特徴データテーブルから該人物の前兆行動特徴と確定行動特徴を抽出する手段とを備え、
    前記行動理解部は、前記行動特徴検出部によって抽出された前記人物の前記前兆行動特徴と前記確定行動特徴の組合せを、予め設定される前記人物の行動に対応付ける行動理解データテーブルから、該人物の行動を抽出する手段を備えることを特徴とする人物行動理解システム。
  2. 前記特定領域は予め分割された複数の領域であって、前記行動特徴検出部は、前記部位検出部によって抽出された該部位領域データが、前記分割された特定領域のいずれの領域に存在するかという部位存在領域データについて検出する手段を備え、前記行動特徴テーブルはこの部位存在領域データと行動特徴を対応付けることを特徴とする請求項1に記載の人物行動理解システム。
  3. 前記部位検出部は、人物の頭部領域の部位領域データを抽出する頭部検出部と、手領域の部位領域データを抽出する手検出部と、胴体領域の部位領域データを抽出する胴体検出部と、足領域の部位領域データを抽出する足検出部の内少なくとも1つの検出部を備えることを特徴とする請求項1又は請求項2のいずれか1項に記載の人物行動理解システム。
  4. 前記部位領域データの変化量は、前記部位領域のデータの変化量、この変化量の変化速度、前記変化量の変化加速度のいずれか1つであることを特徴とする請求項1乃至請求項3のいずれか1項に記載の人物行動理解システム。
  5. 前記行動理解部は、前記行動理解データテーブルから該人物の行動が抽出できない場合には、前記行動特徴検出部又は人体部位検出部において再検出を実行するように信号を送信することを特徴とする請求項1乃至請求項4のいずれか1項に記載の人物行動理解システム。
  6. 前記部位検出部は、抽出された前記部位領域データが単独である場合に、前記特定領域検出部、前記行動特徴検出部及び前記行動理解部を作動させるタスク制御手段を備えることを特徴とする請求項1乃至請求項5のいずれか1項に記載の人物行動理解システム。
  7. 前記部位検出部によって抽出された前記部位領域データが単独である場合に、前記特定領域検出部、前記行動特徴検出部及び前記行動理解部を作動させるタスク制御手段を備えることを特徴とする請求項1乃至請求項5のいずれか1項に記載の人物行動理解システム。
JP2004069800A 2004-03-11 2004-03-11 人物行動理解システム Expired - Fee Related JP3767898B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004069800A JP3767898B2 (ja) 2004-03-11 2004-03-11 人物行動理解システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004069800A JP3767898B2 (ja) 2004-03-11 2004-03-11 人物行動理解システム

Publications (2)

Publication Number Publication Date
JP2005258830A JP2005258830A (ja) 2005-09-22
JP3767898B2 true JP3767898B2 (ja) 2006-04-19

Family

ID=35084479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004069800A Expired - Fee Related JP3767898B2 (ja) 2004-03-11 2004-03-11 人物行動理解システム

Country Status (1)

Country Link
JP (1) JP3767898B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012023566A (ja) * 2010-07-14 2012-02-02 Toshiba Teli Corp 監視装置および挙動監視用プログラム
JP5682203B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
JP5682204B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
JP5812948B2 (ja) * 2012-07-13 2015-11-17 アイホン株式会社 患者認識装置
JP6303779B2 (ja) * 2014-04-30 2018-04-04 富士通株式会社 見守り装置、プログラム及び見守り方法
JP6519166B2 (ja) * 2014-12-12 2019-05-29 富士通株式会社 監視制御プログラム、監視制御装置、および監視制御方法
WO2016199504A1 (ja) * 2015-06-09 2016-12-15 コニカミノルタ株式会社 行動検知装置および行動検知方法ならびに被監視者監視装置
WO2017150211A1 (ja) * 2016-03-03 2017-09-08 コニカミノルタ株式会社 行動認識装置及び行動学習装置並びに行動認識プログラム及び行動学習プログラム
JP7110568B2 (ja) * 2017-09-19 2022-08-02 富士フイルムビジネスイノベーション株式会社 行動推定装置及び行動推定プログラム
JP7154071B2 (ja) * 2018-09-07 2022-10-17 株式会社エヌ・ティ・ティ・データ 運転状態監視支援システム、運転状態監視支援方法及びプログラム
WO2021033453A1 (ja) * 2019-08-21 2021-02-25 コニカミノルタ株式会社 画像処理システム、画像処理プログラム、および画像処理方法

Also Published As

Publication number Publication date
JP2005258830A (ja) 2005-09-22

Similar Documents

Publication Publication Date Title
US20210256835A1 (en) System and method for monitoring clinical activities
US10482321B2 (en) Methods and systems for identifying the crossing of a virtual barrier
US11688265B1 (en) System and methods for safety, security, and well-being of individuals
WO2021163447A1 (en) System and method for monitoring clinical activities
CN112784662A (zh) 基于视频的跌倒风险评价系统
JP6717235B2 (ja) 見守り支援システム及びその制御方法
Zouba et al. Monitoring activities of daily living (ADLs) of elderly based on 3D key human postures
JP6392983B2 (ja) 患者モニタリングシステム及び方法
JP3767898B2 (ja) 人物行動理解システム
WO2019003859A1 (ja) 見守り支援システム及びその制御方法、及びプログラム
Bathrinarayanan et al. Evaluation of a monitoring system for event recognition of older people
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
JP2019020993A (ja) 見守り支援システム及びその制御方法
JPH1199140A (ja) 就寝状態異常検知装置
US20220093241A1 (en) Correlating interaction effectiveness to contact time using smart floor tiles
CN110073442A (zh) 用于检测光学图像数据和用于确定患者支承设备的侧边界的位置的设备、方法和计算机程序
Cao et al. An event-driven context model in elderly health monitoring
Bauer et al. Modeling bed exit likelihood in a camera-based automated video monitoring application
JP6822326B2 (ja) 見守り支援システム及びその制御方法
JP2022048830A (ja) 検知システム、検知装置、端末装置、表示制御装置、検知方法およびプログラム
JP7530222B2 (ja) 検知装置、検知方法、画像処理方法、およびプログラム
JP7009021B2 (ja) 異常者予知システム、異常者予知方法、およびプログラム
EP4394725A1 (en) Method and system for monitoring bedridden and bed-resting persons
US20240312621A1 (en) System and a method for monitoring activities of an object
KR20240103137A (ko) 어안영상에 기반한 이상행동검출을 위한 객체인식모델 생성방법 및 이를 이용한 이상행동 검출방법

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050830

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060130

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120210

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees