[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7311299B2 - 人認識システムおよび人認識プログラム - Google Patents

人認識システムおよび人認識プログラム Download PDF

Info

Publication number
JP7311299B2
JP7311299B2 JP2019074567A JP2019074567A JP7311299B2 JP 7311299 B2 JP7311299 B2 JP 7311299B2 JP 2019074567 A JP2019074567 A JP 2019074567A JP 2019074567 A JP2019074567 A JP 2019074567A JP 7311299 B2 JP7311299 B2 JP 7311299B2
Authority
JP
Japan
Prior art keywords
distance image
cross
human
human recognition
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019074567A
Other languages
English (en)
Other versions
JP2020173145A (ja
Inventor
隆弘 足立
学 岸本
悦子 速水
浩 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2019074567A priority Critical patent/JP7311299B2/ja
Publication of JP2020173145A publication Critical patent/JP2020173145A/ja
Application granted granted Critical
Publication of JP7311299B2 publication Critical patent/JP7311299B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

この発明は人認識システムおよび人認識プログラムに関し、特にたとえば、通路やゲート、店舗やイベント会場,住居などの人が滞留もしくは通過する領域に設けた距離画像センサからの距離画像に基づいて人とその人の属性を認識する、人認識システムおよび人認識プログラムに関する。
この種の技術は、たとえば、部屋や建物の入り口やゲートを通過する人数計測やエリア内の動線調査、デバイスを持たない不特定多数を対象とした映像を用いない個人情報に配慮した種々の計測等のために利用され得る。
例えばこの発明の背景となる人数カウント装置の一例が特許文献1に開示されている。特許文献1では、人物存在領域として矩形情報を出力し、その矩形情報の縦横比または縦と横の長さに応じて人物存在状況を推定するが、その矩形比が異なる場合には、オクルージョンが発生していると判定し、上半身、下半身、右半身、左半身のような部分を検出することによって、人物が重なっている場合でも人数カウントができるとしている。
特開2012-108785号公報[G06T 1/00, 7/00, G06M 11/00]
特許文献1の人数カウント装置では、矩形比で人だけを検出するので、複数の人が互いに密着している場合には、正確に人数カウントを行うのは困難である。
それゆえに、この発明の主たる目的は、新規な、人認識システムおよび人認識プログラムを提供することである。
この発明の他の目的は、距離画像を処理することによって正確に人の位置の検出および数のカウントを行うことができる、人認識システムおよび人認識プログラムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。
第1の発明は、人が滞留するまたは通過する計測領域を上方から撮影して距離画像を出力する距離画像センサ、距離画像から人の形状に類似した塊りを選別してその塊りを含む塊り距離画像を抽出する塊り距離画像抽出部、塊り距離画像から高さの異なる複数の切断面で距離画像を切断した複数の横断面画像を生成する横断面画像生成部、および複数の横断面画像に基づいて、塊り距離画像に含まれる人の位置および数を認識し、塊り距離画像の数および塊り距離画像に含まれる人の位置および数に応じて、計測領域に存在する人の位置および数を認識する人認識部を備える、人認識システムである。
第1の発明では、距離画像センサ(12)は、人が滞留するまたは通過する計測領域を上方から撮影した距離画像を出力する。塊り距離画像抽出部(14、S9)は、距離画像から人の形状に類似した塊り距離画像を抽出する。横断面画像生成部(14、S11、S21、S23、S41)は、塊り距離画像から少なくとも人の体の一部を通る高さの複数の切断面で距離画像を切断した複数の横断面画像を生成する。人認識部(14、S25‐S35、S43)は、複数の横断面画像に基づいて、塊り距離画像に含まれる人の位置および数を認識し、塊り距離画像の数および塊り距離画像に含まれる人の位置および数に応じて、計測領域に存在する人の位置および数を認識する。
第1の発明によれば、距離画像を処理することによって正確に計測領域内の人の位置の検出または人数カウントを行うことができる。
第2の発明は、第1の発明に従属し、人認識部は、複数の横断面画像から人の頭部と推定できるオブジェクトを検出することによって頭部を検出する頭部検出部を含み、前記頭部検出部で検出された頭部の位置および数を、前記計測領域に存在する人の位置および数として認識する、人認識システムである。
第2の発明では、人認識部(14、S25‐S35、S43)は、複数の横断面画像から人の頭部と推定できるオブジェクトを検出することによって頭部を検出する頭部検出部(14、S25)を含み、さらには、検出された頭部の位置および数を、計測領域に存在する人の位置および数として認識する。
第2の発明によれば、人の頭部を検出し、頭部の位置および数を人の位置および数として認識するので、計測領域に存在する人の正確な位置および数が計測可能となる。
第3の発明は、第2の発明に従属し、頭部検出部は、複数の横断面画像に含まれる物体の輪郭線の大きさおよび当該輪郭線の形状に基づいて、頭部を検出する、人認識システムである。
第3の発明によれば、頭部の検出が一層正確に行える。
第4の発明は、第2または第3の発明に従属し、頭部検出部は、一定の高さ範囲における大きさ、形状および範囲から、独立した頭部として推定できなくなったオブジェクトを除外する除外部を含む、人認識システムである。
第4の発明では、除外部(14、S31‐S33)は、たとえば、一定の高さ範囲において、他のオブジェクトと分離できないオブジェクト(他のオブジェクトと一体化したオブジェクト)や、オブジェクトの変化傾向から頭部として推定できなくなったオブジェクト等を除外オブジェクトとして除外する。
第4の発明では、たとえば、矩形形状などの丸みを帯びていない形状(荷物等であると推定される形状)のオブジェクト、頭部としては大きすぎる若しくは小さすぎるオブジェクト等を除外オブジェクトとして除外するので、人認識部によって正確に、人の位置および数を認識することができる。
第5の発明は、第2から第4までのいずれかの発明に従属し、人認識部は、頭部検出部が複数の頭部を検出した場合に、2以上の横断面画像における複数の頭部の互いの距離に応じて、計測領域に存在する人の数を検出する、人認識システムである。
第5の発明によれば、複数の人が近接している場合であっても、人数の計測を正確に行える。
第6の発明は、人が滞留するまたは通過する計測領域を上方から撮影して距離画像を出力する距離画像センサを備える人認識システムのコンピュータを、距離画像から人の形状に類似した塊りを選別してその塊りを含む塊り距離画像を抽出する塊り距離画像抽出部、塊り距離画像から高さの異なる複数の切断面で距離画像を切断した複数の横断面画像を生成する横断面画像生成部、および複数の横断面画像に基づいて、塊り距離画像に含まれる人の位置および数を認識し、塊り距離画像の数および塊り距離画像に含まれる人の位置および数に応じて、計測領域に存在する人の位置および数を認識する人認識部として機能させる、人認識プログラムである。
第6発明においても、第1の発明と同様の効果が期待できる。
この発明によれば、距離画像を処理することによって正確に人の位置の検出および数のカウントを行うことができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の人認識システムを示す図解図である。 図2は図1実施例を示すブロック図である。 図3は図2に示すメモリのメモリマップの一例を示す図解図である。 図4は図2に示すコンピュータが実行する人認識動作の一例を示すフロー図である。 図5は図4実施例において取得した距離画像の一例を示す図解図である。 図6は図4実施例において前処理を施した距離画像の一例を示す図解図である。 図7は図4実施例における人認識ステップを詳細に示すフロー図である。 図8は人認識ステップにおける認識結果の一例を示す図解図である。 図9は人認識ステップにおける認識結果の他の例を示す図解図である。 図10は人認識ステップにおける認識結果の他の例を示す図解図である。 図11は図2に示すコンピュータが実行する、他の実施例における人認識動作の一例を示すフロー図である。 図12は図11実施例における人認識ステップを詳細に示すフロー図である。 図13は人認識ステップにおける認識結果の一例を示す図解図である。
<第1実施例>
図1を参照して、この実施例の人認識システム10は、人PSNが滞留するまたは通過する計測領域を規定するゲートGTの上方に設けられる距離画像センサ12を含む。また、人認識システム10に含まれる距離画像センサ12の数は、単数(1つ)であっても良いし、複数(2以上)であっても良い。本実施例では、人認識システム10には、1つの距離画像センサ12が含まれる。距離画像センサ12は、一例として、前後左右にそれぞれ40°の視野角または画角を有する。
なお、この実施例はゲートGTで規定された計測領域に存在する人を認識する実施例であるが、計測領域は、ゲートGT等で規定される領域に限定されず、オープンスペースであっても良い。すなわち、この発明は、オープンスペースの一定の領域に存在する人を認識するシステムとしても利用可能であり、この発明の人認識システムは、オープンスペースにおける人を認識するためのシステムとしても利用できる、ということを予め指摘しておく。
距離画像センサ12は、所定領域(撮影領域)の距離画像を取得するためのセンサである。ただし、距離画像センサ12の撮影領域には、少なくとも、ゲートGTで規定された計測領域が含まれる。すなわち、距離画像センサ12は、計測領域の距離画像を取得するためのセンサである。この距離画像センサ12は、赤外光またはレーザなどの光を照射し、対象物から反射した光(反射光)をCCD(Charge Coupled Device)センサなどの光学センサによって捉える。距離画像センサ12は、光が戻るまでの時間を画素毎に計測または位相差を計算することで、対象物までの実際の距離を測定する。実施例の距離画像センサ12には、ASUS(登録商標)製のXtion(登録商標)と言われる製品が採用されている。なお、他の実施例では、距離画像センサ12は、Microsoft(登録商標)製のKinect(登録商標)センサ、パナソニック(登録商標)製の3次元距離画像センサD-IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと言われる場合もある。
なお、距離画像センサとしては、たとえばLiDAR(たとえば、Velodine社製のイメージングユニットLiDAR(HDL‐32e)(商品名))のような全方位レーザ距離計や、ステレオカメラなども利用可能である。
距離画像センサ12からの距離画像信号は、図2に示すように、コンピュータ14に入力され、コンピュータ14では、その距離画像信号をディジタルデータとして、たとえばRAMのようなメモリ16に記憶する。詳細は後述するが、コンピュータ14は、メモリ16に記憶された距離画像データを処理した結果から計測領域に存在する人の数を認識し、その結果をディスプレイ18に表示しおよび/またはプリンタ(図示せず)に出力する。
メモリ16は、図3に示すように、プログラム記憶領域20およびデータ記憶領域22を含む。
プログラム記憶領域20には、データ取得プログラム20a、前処理プログラム20b、塊り認識プログラム20cおよび人認識プログラム20dが予め設定されている。
データ取得プログラム20aは、距離画像センサ12からの距離画像信号を、撮影領域の全体の距離画像(全体距離画像)についての距離画像データ(3次元距離画像データ)として取り込んで、データ記憶領域22の取得距離画像データ領域22aに記憶するプログラムである。
前処理プログラム20bは、取得距離画像データ領域22aに記憶した距離画像データのノイズ除去などの前処理を行うためのプログラムである。
塊り認識プログラム20cは、前処理を終えた距離画像データから所定形状の塊り距離画像についての距離画像データ(塊り距離画像データ)を抽出して、データ記憶領域22の塊り距離画像データ領域22cに記憶するプログラムである。
人認識プログラム20dは、上述の塊り距離画像から人の頭部の形状を抽出し、塊り距離画像に含まれる頭部の数を検出し、頭部の数を塊り距離画像毎の人数として認識して、データ記憶領域22の人認識データ領域22dに記憶するプログラムである。
データ記憶領域22は、上述の取得距離画像データ領域22a、塊り距離画像データ領域22cおよび人認識データ領域22dの他に、背景距離画像データ領域22bを含む。この背景距離画像データ領域22bには、図1に示すゲートGに人が存在しない背景だけの、距離画像センサ12からの距離画像(背景距離画像)を記憶するための領域であり、この背景距離画像データは後述のように前処理プログラム20bによる前処理に利用される。
図4はこの実施例の人認識システム10におけるコンピュータ14の人認識動作のメイン処理を示すフロー図である。
コンピュータ14は、人認識動作のメイン処理を開始すると、ステップS1で、データ取得プログラム20aに従って、距離画像センサ12からの距離画像信号を、距離画像データとして取得して取得距離画像データ領域22aに記憶する。この距離画像データが示す距離画像(3次元距離画像)24の一例が、図5に示される。この図面は、以降の同様の図面と同じく、発明者等が実験で実際に取得したり処理したりした距離画像をグレースケールで示している。
ただし、図5において濃い灰色の部分と薄い灰色の部分とが見えるが、濃い部分が薄い部分に比べて、距離画像センサ12に近い部分である。また、図5は撮影領域に複数の人が存在する場合の距離画像を示す。
次にステップS3、S5およびS7において、コンピュータ14は前処理プログラム20bに従って、図5のような距離画像のノイズ除去(ステップS3)、歪み補正(ステップS5)および背景情報除去(ステップS7)のような前処理を実行する。
距離画像センサ12の計測値には様々なノイズが混入しているので、必要に応じて、この種のノイズを、ステップS3で、平滑化やメディアンフィルタ等のフィルタを使用して除去する。具体的には、計測値の外れ値を除去し、平滑化(粗い量子化)し、小さすぎる物体、細すぎる物体を除去し、その結果を取得距離画像データ領域22a(図3)または別の領域(図示せず)に記憶する。
次のステップS5では、前処理の一環として、歪み補正を行う。赤外線レーザなどの光軸をレンズ等で曲げて広範囲の計測を行う距離画像センサの場合、歪曲収差等が発生するので、必要に応じて、ステップS5でこの補正を行い、その結果を取得距離画像データ領域22a(図3)または別の領域(図示せず)に記憶する。
ステップS7では背景情報除去処理を実行する。人や動きのあるもののみを検出するため、静的に存在するものの反射を学習し、計測値から除去する。具体的には、予め記憶している背景距離画像データをデータ記憶領域22(図3)の背景距離画像データ領域22bから読み出し、処理中の距離画像データからこの背景距離画像データを減算する。併せて、予め設定している計測領域の外側のデータを消去し、その結果(前処理が終わった距離画像データ)を取得距離画像データ領域22a(図3)に記憶する。
このような前処理が終わった距離画像24の一例が、図6に示される。この図6で濃い灰色の部分26が前処理の結果残った距離画像であり、薄い灰色の部分28は範囲外などの理由で除去される。
ステップS9では塊り分離処理を実行する。ここでは、前処理を終えた距離画像データ(図6)から、濃い灰色の部分26のうち、人の形状に類似した塊りを選別して、塊りを含む所定形状の画像(塊り距離画像)30(図8(A))として抽出し、塊り距離画像30毎の距離画像データ(塊り距離画像データ)に分離する。塊り距離画像30の選別方法としては、たとえば、前処理を終えた距離画像に含まれる濃い灰色の部分26のうち、2次元の大きさで考えると、X軸Y軸がそれぞれ所定以上の長さおよびそれぞれ所定の長さ以下を有するサイズの画像であって、その画像に外接する長方形の面積とその画像の面積の比率が一定以上であり、縦横比が所定の比率の範囲であるなど、輪郭が人の形状に類似した画像を塊り距離画像として抽出する。したがって、人の形状に類似しない画像、たとえば矩形形状などの丸みを帯びていない形状の画像および大きすぎるまたは小さすぎる画像等については、塊り距離画像として抽出されない。すなわち、人の形状に類似しない画像は、人認識処理の対象から除外される。そして、前処理を終えた距離画像データから分離された塊り距離画像データは、塊り距離画像データ領域22cに記憶される。
なお、塊り距離画像30の別の選別方法としては、距離画像に代えて、所定の高さ(たとえば1200mm)の横断面画像を生成して、横断面画像に含まれる画像のうち、輪郭が人の形状に類似した画像を塊り距離画像として抽出するようにしても良い。
続くステップS11では、図7に示すサブルーチンに従って、塊り距離画像30毎に人認識処理を実行する。簡単に説明すると、人認識処理は、塊り距離画像30についての塊り距離画像データから複数の横断面画像32を生成して、複数の横断面画像32に基づいて、塊り距離画像30に含まれる人の数を認識するための処理である。複数の横断面画像32のそれぞれは、高さ(Z軸方向)において、たとえば600‐1800mmの範囲(切断範囲)の任意の高さで塊り距離画像データを切断した画像である(図8(B)、図9(B)および図10(B))。
コンピュータ14は、人認識処理を開始すると、最初のステップS21で、切断高さを第1の高さに設定する。ただし、第1の高さとは、切断範囲の上限または下限のうち、いずれか一方の高さのことである。この実施例では、第1の高さは、切断範囲の上限の高さであり、たとえば1800mmである。
続いて、ステップS23で、図8(B)、図9(B)および図10(B)に示すように、切断高さで塊り距離画像を切断した横断面画像32を生成する。ステップS25で、生成した横断面画像32からオブジェクト34を検出する。ただし、オブジェクト34とは、横断面画像32に含まれる、人の頭部の形状に類似する物体(人の頭部として推定できる物体)のことである。ここでは、横断面画像32の切断高さ、横断面画像32に含まれる物体の輪郭線の大きさおよび当該輪郭線の形状(たとえば略丸い形状)等から、横断面画像32に人の頭部として推定できるオブジェクト34が存在するかどうかを検出する。つまり、一定の高さ範囲において略丸い閉じた領域は人の頭であると推定できる。また、ステップS25では、人の頭部として推定できる複数のオブジェクト34が互いに離れていれば、別のオブジェクト34として検出する。
続いて、ステップS27では、新規オブジェクトが存在するかどうかを判断する。新規オブジェクトとは、直前のステップS25で検出されたオブジェクト34が、他の切断高さの横断面画像32で既に検出されているオブジェクト34とは異なるオブジェクト34のことをいう。
また、直前のステップS25で検出されたオブジェクト34が既に検出されているオブジェクト34と異なるかどうかは、横断面画像32の高さ、各オブジェクト34の中心位置の距離および各オブジェクト34同士が重複する面積の割合等に応じて判断される。つまり、これらの同一性判断のためのパラメータに従って、直前のステップS25で検出されたオブジェクト34が既に検出されているオブジェクト34と同じオブジェクト34であるか、別のオブジェクト34であるかが判断される。なお、1つの塊り距離画像に複数のオブジェクト34が存在するケースとしては、しがみついている、抱き合っている、子供を抱っこしている、または複数の人が密着している場合等、複数の人が近接している場合が考えられる(図8(A)または図10(A))。このようなケースを想定して、ステップS25で検出されたオブジェクト34が既に検出されているオブジェクト34と異なるかどうかが判断される。
たとえば、図8(B)の上から3つ目の横断面画像32Cまたは図10(B)の上から2つ目の横断面画像32Bでは、それまでに検出されている第1のオブジェクト34aとは異なる第2のオブジェクト34bが検出される。これらの例では、第1のオブジェクト34aおよび第2のオブジェクト34bは、横断面画像32の高さ、中心位置の距離および重複する面積の割合等から、それぞれ別のオブジェクトとして認識される。すなわち、第2のオブジェクト34bは、新規オブジェクトとして認識される。したがって、図8(B)および図10(B)の例では、第2のオブジェクト34bが検出されたときに、新規オブジェクトが存在すると判断される。
図7に戻って、ステップS27で“YES”であれば、つまり、新規オブジェクトが存在すると判断した場合は、ステップS29で、新規オブジェクトを追跡リストに登録して、ステップS35に進む。なお、追跡リストは、或る横断面画像32から検出されたオブジェクト34を追跡して、他の切断高さの横断面画像32での当該オブジェクト34の変化傾向を判定するためのリストである。この追跡リストは、人認識データ領域22dに記憶される。
一方、ステップS27で“NO”であれば、つまり、新規オブジェクトが存在しないと判断した場合は、ステップS31で、除外オブジェクトが存在するかどうかを判断する。除外オブジェクトとは、一定の高さ範囲における大きさ、形状および範囲等から、独立した頭部として推定できなくなったオブジェクトのことである。たとえば、除外オブジェクトとしては、一定の高さ範囲において、他のオブジェクト34と分離できないオブジェクト(他のオブジェクトと一体化したオブジェクト)34や、オブジェクト34の変化傾向から頭部として推定できなくなったオブジェクト34等が該当する。
なお、頭部として推定できなくなったオブジェクト34としては、矩形形状などの丸みを帯びていない形状(荷物等であると推定される形状)のオブジェクト34、または、頭部としては大きすぎる若しくは小さすぎるオブジェクト34等が該当する。
また、或るオブジェクトが比較的低い高さ(たとえば1000mm以下)で他のオブジェクトと一体化した場合であっても、一定の高さ範囲において分離している場合には、除外オブジェクトとして認識されないことがある。
たとえば、図9(B)の上から1つ目の横断面画像32Aでは、第1のオブジェクト34aおよび第2のオブジェクト34bが検出される。第1のオブジェクト34aおよび第2のオブジェクト34bは、互いに離れているので、この段階では、別のオブジェクトとして認識される。したがって、第1のオブジェクト34aおよび第2のオブジェクト34bの各々は、個別に追跡リストに登録される。しかしながら、図9(B)の上から2つ目より下の横断面画像32B~32Dでは、第1のオブジェクト34aおよび第2のオブジェクト34bの両方を含む1つのオブジェクトのみが検出される。この場合には、1つ目の横断面画像32Aにおいて、本来1つのオブジェクトを、軽微な凹凸等によって2つのオブジェクトを検出したと判断する。したがって、横断面画像32B~32Dでは、一方のオブジェクトのみが追跡され、他方のオブジェクトは除外オブジェクトとして認識される。
図9に示す例では、横断面画像32Aにおいて面積が大きい第1のオブジェクト34aのみが追跡され、第2のオブジェクト34bは、除外オブジェクトとして認識される。なお、図9(A)に示すような軽微な凹凸は、塊り距離画像30に含まれる人の姿勢、帽子等の被り物等によって生じることがある。
図7に戻って、ステップS31で“YES”であれば、つまり、除外オブジェクトが存在すると判断した場合は、ステップS33で、除外オブジェクトを追跡リストから除外(追跡リストから削除)して、ステップS35に進む。このように、一定の高さ範囲に独立した頭部として推定できないオブジェクトは、追跡リストから削除(枝刈り)される。一方、ステップS31で“NO”であれば、つまり、除外オブジェクトが存在しないと判断した場合は、ステップS33を経ずにステップS35に進む。
そして、ステップS35で、切断高さが第2の高さかどうかを判断する。ただし、第2の高さとは、切断範囲の上限または下限のうち、第1の高さと異なる方の高さのことである。この実施例では、第1の高さは、切断範囲の上限の高さであるので、第2の高さは、切断範囲の下限の高さ、たとえば600mmである。
ステップS35で“YES”であれば、つまり、切断高さが第2の高さであると判断した場合は、後述するステップS41に進む。一方、ステップS35で“NO”であれば、つまり、切断高さが第2の高さでないと判断した場合は、ステップS37で、オブジェクト34の面積(断面積)が所定面積以上かどうかを判断する。ここでは、塊り距離画像30に含まれる全てのオブジェクト34の合計面積が、塊り距離画像30の全面積(横断面画像32の全面積)に対して所定の割合(75~90%)を超えるかどうかを判断する。
ステップS37で“NO”であれば、つまり、オブジェクトの面積が所定面積以上でないと判断した場合は、ステップS39で、切断高さを変更して、ステップS23に戻る。ここでは、切断高さは、第1の高さから第2の高さに近づくように変更される。すなわち、切断高さは、切断範囲の上限または下限のうち、いずれか一方の高さから、他方の高さに近づくように変更される。この実施例では、切断高さは、切断範囲の上限の高さ(1800mm)から切断範囲の下限の高さ(600mm)に近づくように変更される。
切断高さが変更される幅(変更幅)は、たとえば5~40mmである。ただし、切断高さの変更幅は、距離画像センサ12の検出精度およびオブジェクトの状況によって適宜調整される。この実施例では、切断高さの変更幅は、初期設定としては、距離画像センサ12の検出精度を考慮して10~40mmに設定されている。ただし、横断面画像32に含まれるオブジェクトの合計面積が、塊り距離画像30の全面積(横断面画像32の全面積)に対して所定の割合(10~20%)を超える場合、または直前の横断面画像32に複数のオブジェクトが含まれる場合には、切断高さの変更幅が小さく(たとえば5~20mm)設定される。また、直前の横断面画像32にオブジェクトが含まれない場合には、切断高さの変更幅が大きく設定されても良い。
一方、ステップS37で“YES”であれば、つまり、オブジェクトの面積が所定面積以上であると判断した場合は、ステップS41で、追跡リストに登録されたオブジェクト34の頭部の数を、塊り距離画像30に含まれる人数としてカウントして、ステップS43で、追跡リストに登録されたオブジェクト34の頭部の位置を、塊り距離画像30に含まれる人の位置として検出して、メイン処理にリターンする。
このように、第1実施例によれば、塊り距離画像30毎に人認識処理を実行することによって、塊り距離画像30毎の人の位置と数が認識される。そして、全体距離画像に含まれる塊り距離画像30毎の人数を合計することによって、計測領域(全体距離画像)に存在する人数を認識することができる。また、計測領域(全体距離画像)に存在する人の位置を検出することができる。すなわち、或るタイミングで撮影された1フレームの距離画像を処理することによって正確に当該1フレームの距離画像内における、人数カウントおよび人の位置の検出を行うことができる。

さらに、第1実施例によれば、横断面画像32に含まれる物体の輪郭線の大きさおよび当該輪郭線の形状から、人の頭部として推定できるオブジェクト34が存在するかどうかを検出するので、頭部の検出が正確に行える。
さらにまた、第1実施例によれば、或る横断面画像32で複数のオブジェクト34が検出された場合には、複数の横断面画像32における各オブジェクト34の互いの距離に応じて、別のオブジェクト34であるかどうかを検出するので、複数の人が近接している場合であっても、人数の計測を正確に行える。たとえば、親が子を抱っこしているような状態であっても、親子を分離して検出することができる。
<第2実施例>
第2実施例の人認識システム10は、塊り分離処理を省略し、全体距離画像24から複数の横断面画像32を生成して、計測領域(全体距離画像)に存在する人の数を認識するようにした以外は第1実施例と同じである。以下、第2実施例の人認識システム10について説明するが、第1実施例で説明した内容と重複する内容については省略することにする。
図11に示すように、第2実施例の人認識システム10では、人認識動作のメイン処理においては、第1実施例で説明したステップS9の塊り分離処理が省略される。したがって、第2実施例では、ステップS7までの前処理が終わった全体距離画像24に基づいて、ステップS11で、人認識処理が実行される。
コンピュータ14は、人認識処理を開始すると、ステップS21で、切断高さを第1の高さに設定し、ステップS51で、設定された切断高さで全体距離画像24を切断した横断面画像32を生成する。
そして、ステップS25からステップS35までの処理を第1実施例と同様に実行し、ステップS35で“YES”であれば、つまり、切断高さが第2の高さであると判断した場合は、ステップS53で、追跡リストに登録されたオブジェクト34の数を、全体距離画像24(計測領域)に含まれる人数としてカウントして、ステップS55で、追跡リストに登録されたオブジェクト34の頭部の位置を、全体距離画像24(計測領域)に含まれる人の位置として検出して、メイン処理にリターンする。また、第2実施例の人認識処理では、第1実施例で説明したステップS37が省略される。したがって、ステップS35で“NO”であれば、つまり、切断高さが第2の高さでないと判断した場合はステップS39で、切断高さを変更して、ステップS23に戻る。
このように、第2実施例によれば、図13に示すように、全体距離画像24に基づいて人認識処理を実行することによって、全体距離画像24に含まれるオブジェクト34の数を、全体距離画像24に含まれる人数としてカウントして、計測領域に存在する人数を認識することができる。また、計測領域(全体距離画像)に存在する人の位置を検出することができる。すなわち、或るタイミングで撮影された1フレームの距離画像を処理することによって正確に人数カウントを行うことができる。
上述の実施例では、図4(図7、図11、図12)のすべてのステップを1つのコンピュータ14が実行するものとして説明したが、複数のコンピュータを用いてもよく、あるいは特定の処理をコンピュータではなくDSPのような専用処理回路で処理するようにしてもよい。
なお、上で挙げた角度、距離、時間の長さ、割合および変更幅などの具体的数値はいずれも単なる一例であり、必要に応じて適宜変更可能である。
10 …人認識システム
12 …距離画像センサ
14 …コンピュータ
16 …メモリ
18 …ディスプレイ

Claims (6)

  1. 人が滞留するまたは通過する計測領域を上方から撮影して距離画像を出力する距離画像センサ、
    前記距離画像から人の形状に類似した塊りを選別してその塊りを含む塊り距離画像を抽出する塊り距離画像抽出部、
    前記塊り距離画像から高さの異なる複数の切断面で距離画像を切断した複数の横断面画像を生成する横断面画像生成部、および
    前記複数の横断面画像に基づいて、前記塊り距離画像に含まれる人の位置および数を認識し、前記塊り距離画像の数および前記塊り距離画像に含まれる人の位置および数に応じて、前記計測領域に存在する人の位置および数を認識する人認識部を備える、人認識システム。
  2. 前記人認識部は、前記複数の横断面画像から人の頭部と推定できるオブジェクトを検出することによって頭部を検出する頭部検出部を含み、前記頭部検出部で検出された頭部の位置および数を、前記計測領域に存在する人の位置および数として認識する、請求項1記載の人認識システム。
  3. 前記頭部検出部は、前記複数の横断面画像に含まれる物体の輪郭線の大きさおよび当該輪郭線の形状に基づいて、頭部を検出する、請求項2記載の人認識システム。
  4. 前記頭部検出部は、一定の高さ範囲における大きさ、形状および範囲から、独立した頭部として推定できなくなったオブジェクトを除外する除外部を含む、請求項2または3記載の人認識システム。
  5. 前記人認識部は、前記頭部検出部が複数の頭部を検出した場合に、2以上の前記横断面画像における前記複数の頭部の互いの距離に応じて、前記計測領域に存在する人の数を検出する、請求項2から4までのいずれかに記載の人認識システム。
  6. 人が滞留するまたは通過する計測領域を上方から撮影して距離画像を出力する距離画像センサを備える人認識システムのコンピュータを、
    前記距離画像から人の形状に類似した塊りを選別してその塊りを含む塊り距離画像を抽出する塊り距離画像抽出部、
    前記塊り距離画像から高さの異なる複数の切断面で距離画像を切断した複数の横断面画像を生成する横断面画像生成部、および
    前記複数の横断面画像に基づいて、前記塊り距離画像に含まれる人の位置および数を認識し、前記塊り距離画像の数および前記塊り距離画像に含まれる人の位置および数に応じて、前記計測領域に存在する人の位置および数を認識する人認識部として機能させる、人認識プログラム。
JP2019074567A 2019-04-10 2019-04-10 人認識システムおよび人認識プログラム Active JP7311299B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019074567A JP7311299B2 (ja) 2019-04-10 2019-04-10 人認識システムおよび人認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019074567A JP7311299B2 (ja) 2019-04-10 2019-04-10 人認識システムおよび人認識プログラム

Publications (2)

Publication Number Publication Date
JP2020173145A JP2020173145A (ja) 2020-10-22
JP7311299B2 true JP7311299B2 (ja) 2023-07-19

Family

ID=72830985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019074567A Active JP7311299B2 (ja) 2019-04-10 2019-04-10 人認識システムおよび人認識プログラム

Country Status (1)

Country Link
JP (1) JP7311299B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012922A (ja) 1999-06-29 2001-01-19 Minolta Co Ltd 3次元データ処理装置
JP2003057007A (ja) 2001-08-10 2003-02-26 Matsushita Electric Works Ltd 距離画像を用いた人体検知方法
JP2003058884A (ja) 2001-08-13 2003-02-28 Nippon Signal Co Ltd:The 物体存在密度測定装置
JP2005134120A (ja) 2003-10-28 2005-05-26 Matsushita Electric Works Ltd 複合型人感スイッチ
JP2006064695A (ja) 2004-07-30 2006-03-09 Matsushita Electric Works Ltd 個体検出器及び共入り検出装置
JP2007213353A (ja) 2006-02-09 2007-08-23 Honda Motor Co Ltd 三次元物体を検出する装置
JP2009086986A (ja) 2007-09-28 2009-04-23 Jr East Mechatronics Co Ltd 改札システム、人物検知ユニット及び自動改札機
JP2011185664A (ja) 2010-03-05 2011-09-22 Panasonic Electric Works Co Ltd 対象物検出装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3081396B2 (ja) * 1992-12-09 2000-08-28 東京電力株式会社 画像処理装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012922A (ja) 1999-06-29 2001-01-19 Minolta Co Ltd 3次元データ処理装置
JP2003057007A (ja) 2001-08-10 2003-02-26 Matsushita Electric Works Ltd 距離画像を用いた人体検知方法
JP2003058884A (ja) 2001-08-13 2003-02-28 Nippon Signal Co Ltd:The 物体存在密度測定装置
JP2005134120A (ja) 2003-10-28 2005-05-26 Matsushita Electric Works Ltd 複合型人感スイッチ
JP2006064695A (ja) 2004-07-30 2006-03-09 Matsushita Electric Works Ltd 個体検出器及び共入り検出装置
JP2007213353A (ja) 2006-02-09 2007-08-23 Honda Motor Co Ltd 三次元物体を検出する装置
JP2009086986A (ja) 2007-09-28 2009-04-23 Jr East Mechatronics Co Ltd 改札システム、人物検知ユニット及び自動改札機
JP2011185664A (ja) 2010-03-05 2011-09-22 Panasonic Electric Works Co Ltd 対象物検出装置

Also Published As

Publication number Publication date
JP2020173145A (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
US11360571B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US10893251B2 (en) Three-dimensional model generating device and three-dimensional model generating method
US9818023B2 (en) Enhanced face detection using depth information
CN105631515B (zh) 人流计数系统
JP6125188B2 (ja) 映像処理方法及び装置
EP3241151B1 (en) An image face processing method and apparatus
US9305206B2 (en) Method for enhancing depth maps
WO2016199244A1 (ja) 物体認識装置及び物体認識システム
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
JP2006268345A (ja) 画像処理装置および画像処理方法
US10991124B2 (en) Determination apparatus and method for gaze angle
JP2018156408A (ja) 画像認識撮像装置
JP4288428B2 (ja) 映像解析システムおよび映像解析方法
JP7255173B2 (ja) 人検出装置および人検出方法
CN112257617B (zh) 多模态目标识别方法和系统
JP2009211122A (ja) 画像処理装置およびオブジェクト推定プログラム。
CN115457176A (zh) 一种图像生成方法、装置、电子设备及存储介质
KR101889051B1 (ko) 모니터링 시스템들에서 신뢰성을 증가시키는 방법
JP7311299B2 (ja) 人認識システムおよび人認識プログラム
JP7079466B2 (ja) 人属性認識システムおよびプログラム
JP5935118B2 (ja) 物体検出装置および物体検出方法
KR101355206B1 (ko) 영상분석을 이용한 출입 계수시스템 및 그 방법
JP3810755B2 (ja) 位置判別装置、移動経路算出装置、位置判別方法およびプログラム
CN113062421A (zh) 一种健康检测的智能马桶及其健康检测方法
JP4628910B2 (ja) 長さ測定装置および身長測定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7311299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150