[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7549478B2 - 物体検出装置、システム、および方法 - Google Patents

物体検出装置、システム、および方法 Download PDF

Info

Publication number
JP7549478B2
JP7549478B2 JP2020125153A JP2020125153A JP7549478B2 JP 7549478 B2 JP7549478 B2 JP 7549478B2 JP 2020125153 A JP2020125153 A JP 2020125153A JP 2020125153 A JP2020125153 A JP 2020125153A JP 7549478 B2 JP7549478 B2 JP 7549478B2
Authority
JP
Japan
Prior art keywords
image
distance
wavelength band
imaging device
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020125153A
Other languages
English (en)
Other versions
JP2022021535A (ja
Inventor
佑人 小松
宏一 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020125153A priority Critical patent/JP7549478B2/ja
Priority to PCT/JP2021/009387 priority patent/WO2022018902A1/ja
Publication of JP2022021535A publication Critical patent/JP2022021535A/ja
Application granted granted Critical
Publication of JP7549478B2 publication Critical patent/JP7549478B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Geophysics And Detection Of Objects (AREA)

Description

本開示は、物体を検出する技術に関する。
特許文献1には物体検出装置が開示されている。特許文献1の物体検出装置は、撮影装置で取得された画像に含まれる物体を検出する。その撮影装置は、近赤外線カメラまたは可視光カメラである。すなわち、特許文献1の物体検出装置は、近赤外線カメラまたは可視光カメラで取得された画像に含まれる物体を検出するものである。
特開2020-027405号公報
特許文献1に開示された物体検出装置は、近赤外線カメラまたは可視光カメラのいずれか一方の撮影装置から画像を取得し、その画像における物体を検出する。例えば、物体検出装置が可視光カメラの画像を取得するものである場合、近赤外線カメラの画像からであれば検出できるであろう物体を検出できないという事態が起こり得る。また、その逆に、近赤外線カメラの画像を用いていることで、可視光カメラの画像からであれば検出できるであろう物体を検出できないという事態が起こり得る。
本開示のひとつの目的は、多様な環境での物体の検出を可能にする技術を提供することである。
本開示のひとつの態様に従う物体検出装置は、所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置により所定の空間を撮影した第1画像を取得する第1画像取得部と、前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得する第2画像取得部と、前記第1画像と前記第2画像から物体検出に用いる利用画像を決定する判定部と、前記利用画像に含まれる検出対象である所定の対象物体を検出する検出処理部と、を有する。
本開示のひとつの態様によれば、多様な環境での物体の検出を可能にする技術を提供することが可能となる。
物体検出システムの概略構成図である。 物体検出装置のブロック図である。 判定部13および検出処理部14による一連の処理を示すフローチャートである。 ルールベース物体検出処理のフローチャートである。 ルールベース物体検出処理のフローチャートである。 領域分割処理のフローチャートである。 物体検出システムの利用イメージを示す図である。 物体検出装置のハードウェア構成を示す図である。 変形例における判定部13および検出処理部14による一連の処理を示すフローチャートである。
以下、本開示の実施形態について図面を参照して説明する。
図1は、物体検出システムの概略構成図である。物体検出システムは、空間90内で所定の検出対象の物体(以下「対象物体」ともいう)を検出するシステムであり、物体検出装置10と、TOF(Time-of-Flight)センサ81と、可視光カメラ82と、モニタ83とを有している。TOFセンサ81と可視光カメラ82は、対象物体の検出を行う空間90に設置される。空間90は、例えば、同一空間に多種類のエッジデバイスが併設されるマルチモーダル環境である。空間90内には物体の例として人物91、92が存在している。TOFセンサ81および可視光カメラ82は有線や無線の通信回線により物体検出装置10に接続される。
TOFセンサ81は、近赤外線の光源を備え、光源からの光が物体で反射した光を検出することにより、空間90内の画像(以下「近赤外線画像」ともいう)を撮影する撮像装置である。一例として、TOFセンサ81は、更に、画素毎の物体までの距離を示す画像(以下「距離画像」ともいう)も撮影する。なお、近赤外線画像を撮影するTOFセンサ81の代わりに、サーモグラフィカメラを用いてもよいサーモグラフィカメラは、物体から入射する遠赤外線の強度を検出し、画素毎に遠赤外線の強度すなわち物体の温度に応じた色を示す温度分布画像を撮影する。この温度分布画像を、TOFセンサ81による近赤外線画像の代わりに用いればよい。
可視光カメラ82は、物体から入射する可視光を検出することにより、空間90内の画像(以下「可視光画像」ともいう)を撮影する撮像装置である。
物体検出装置10は、例えば、マルチモーダル環境の空間90で取得されるセンサデータから、好適なデータを自動的に取捨選択し、対象物体の良好な検出を実現する装置である。物体検出装置10は、近赤外線画像と可視光画像から、物体の検出に用いる画像(以下「利用画像」ともいう)を決定し、その利用画像に含まれる対象物体を検出する装置である。物体検出装置10は、例えば、近赤外線画像、可視光画像、および距離画像のいずれか1つあるいは複数に基づいて、利用画像を決定する。
物体検出装置10は、一例として、コンピュータがソフトウェアプログラムを実行することにより実現される。コンピュータの構成および配置は特に限定されない。例えば、コンピュータは、ユーザ自身が所有し管理するエッジコンピュータであってもよいし、クラウド上に提供されるクラウドコンピュータであってもよい。物体検出装置10の構成および動作の詳細は後述する。
モニタ83は、物体検出装置10による検出結果等を画面に表示する表示装置である。
図2は、物体検出装置のブロック図である。物体検出装置10は、近赤外線画像取得部11と、近赤外線画像取得部12と、判定部13と、検出処理部14と、ユーザインタフェース(UI)部15とを有している。
近赤外線画像取得部11は、TOFセンサ81から近赤外線画像のデータを取得する。また、近赤外線画像取得部11は、TOFセンサ81から距離画像のデータも取得してよい。可視光画像取得部12は、可視光カメラ82から可視光画像のデータを取得する。
判定部13は、近赤外線画像、可視光画像、距離画像のいずれか1つあるいは複数に基づいて、近赤外線画像と可視光画像から、利用画像を決定する。検出処理部14は、利用画像を分析し、利用画像内に含まれる対象物体を検出する。判定部13および検出処理部14による一連の処理の詳細は後述する。
ユーザインタフェース部15は、物体検出装置10が各種情報をユーザに提示し、またユーザから各種情報を取得するためのインタフェース部である。例えば、ユーザインタフェース部15は、タッチパネル式ディスプレイのモニタ83に表示する画面を生成し、モニタ83の画面に対するタッチ操作により入力された情報を取得するものであってよい。
図3は、判定部13および検出処理部14による一連の処理を示すフローチャートである。まず、判定部13は、ステップ101にて、空間90の奥行を算出する。空間90の奥行を算出する手法は特に限定されないが、本実施形態では、距離画像に基づいて空間90の奥行を算出する。例えば、距離画像における最も大きな距離値(画素値)を空間90の奥行としてもよい。他の手法として、例えば、近赤外線画像を用い、TOFセンサ81の焦点位置と近赤外線画像のぼやけ具合とから距離(奥行き)を推定することにしてもよい。TOFセンサ81の代わりにサーモグラフィカメラを用いる場合には、距離画像が得られないので、本手法が有効である。なお、ここでいう奥行は、必ずしも水平方向の距離を意味するものではなく、例えば垂直方向など他の方向の距離であってもよい。次に、判定部13は、ステップ102にて、空間90の奥行が所定の閾値を超える値であるか否か判定する。閾値は任意に定めてよく、例えば5メートルとしてよい。
ステップ102の判定で空間90の奥行が閾値を超える値であれば、判定部13は、ステップ103にて、近赤外線画像を利用画像として決定する。続いて、検出処理部14は、ステップ104にて、ルールベース物体検出処理を実行することにより、空間90内の対象物体を検出する。ルールベース物体検出処理は、予め設定された規則に従って対象物体を検出する処理である。ルールベース物体検出処理は、学習データを準備し学習する必要が無く、後述する学習ベース物体検出処理に比べると比較的簡易的な手法である。ルールベース物体検出処理の詳細は後述する。
一方、ステップ102の判定で空間の奥行が閾値以下であれば、判定部13は、ステップ105にて、可視光画像を利用画像として決定する。続いて、検出処理部14は、ステップ106にて、学習ベース物体検出処理を実行することにより、空間90内の対象物体を検出する。学習ベース物体検出処理では、予め収集された画像データを学習データとして、ディープラーニング等の学習を行い、予測モデルを生成しておき、検出処理部14は、その予測モデルに基づいて、利用画像から対象物体を検出する。
ステップ104の後またはステップ106の後、ユーザインタフェース部15は、ステップ107にて、検出処理部14による検出結果をモニタ83の画面に表示することにより、ユーザに提示する。
図4、図5は、ルールベース物体検出処理のフローチャートである。本実施形態による近赤外線画像は、複数のフレーム画像が時系列に連なる映像であるものとする。所定の初期画像とその後に連なる後続画像とに分けて異なる処理を行う。初期画像は1つである必要はなく、時間間隔を空けて繰り返し設けるといったように、任意に設けることができる。例えば、一定時間間隔で初期画像を設けてもよいし、30フレーム毎、60フレーム毎というように一定フレーム数間隔で初期画像を設けてもよい。
図4に初期画像に対する処理が示され、図5に後続画像に対する処理が示されている。
図4を参照すると、検出処理部14は、ステップ201にて初期画像が入力すると、ステップ202にてその初期画像をグレースケールに変換する。続いて、検出処理部14は、ステップ203にて前処理を実行する。
前処理は、ステップ204の領域分割処理と、ステップ205のラベリングとを含む。ステップ204の領域分割処理にて、検出処理部14は、初期画像における対象物体の領域を特定する。領域分割処理の詳細は後述する。ステップ205のラベリングにて、検出処理部14は、ステップ204で特定された対象物体の領域にその領域を識別する固有の識別番号を付与する。この前処理にて、特定され、識別番号が付与された対象物体の領域が、後続画像において追跡される追跡領域となる。
その後、ステップ206にて、検出処理部14は、初期画像から特定された対象物体の領域の識別番号および特徴量を含むフレーム情報を保存する。領域の特徴量は、特に限定されないが、例えば、円形度、面積、濃淡、重心などであってよい。更に、ステップ207にて、ユーザインタフェース部15は、ステップ201~206の一連の処理により初期画像から得られた情報を出力する。
図5を参照すると、検出処理部14は、ステップ301にて後続画像が入力すると、ステップ302にてその後続画像をグレースケールに変換する。続いて、検出処理部14は、ステップ303にて追跡処理を実行する。
追跡処理は、ステップ304の動きベクトル算出と、ステップ305の追跡領域毎の動きベクトルを算出とを含む。ステップ304の動きベクトル算出にて、検出処理部14は、処理の対象となっている後続画像の前の画像に対するブロック単位の移動量を表す動きベクトルを算出する。ステップ305の追跡領域毎の移動ベクトルを算出にて、検出処理部14は、ステップ304で算出された動きベクトルから、処理の対象となっている後続画像の前の画像に対する各追跡領域の移動量を表す動きベクトルを算出する。
その後、ステップ306にて、検出処理部14は、後続画像における追跡領域の識別番号および動きベクトルを含むフレーム情報を保存する。更に、ステップ307にて、ユーザインタフェース部15は、ステップ301~306の一連の処理により後続画像から得られた情報を出力する。
図6は、領域分割処理のフローチャートである。なお、ここでは一例として対象物体の形状は直線的でないものとする。
まず、検出処理部14は、ステップ401にて、上記したステップ202でグレースケールに変換された初期画像を取得する。検出処理部14は、続いてステップ402にて、グレースケールの初期画像に対してエッジ検出を行い、検出されたエッジを表す画像(以下「エッジ画像」という)を生成する。エッジは、濃淡の変化が大きい部分であり、物体の輪郭に生じやすい。更に、検出処理部14は、ステップ403にて、エッジ画像にハイパスフィルタを適用してノイズを除去し、ステップ404にて、ハイパスフィルタでノイズを除去したエッジ画像を2値化する。2値化したエッジ画像ではエッジが強調される。
2値化したエッジ画像に対して、ステップ405~407の処理とステップ408~410の処理の2通りの処理が行われる。
ステップ405では、検出処理部14は、2値化したエッジ画像を、画素値によって区切られる領域に分割する。続いて、ステップ406では、検出処理部14は、ステップ405で得られた各領域の特徴量を抽出する。領域の特徴量は、特に限定されないが、例えば、円形度、面積、濃淡、重心などであってよい。更に、ステップ407にて、検出処理部14は、ステップ406で抽出された特徴量に基づき、ステップ405で得られた領域のうち対象物体と異なる特徴量を有する領域を除外し、対象物体の領域の候補を絞り込む。
一方、ステップ408では、検出処理部14は、2値化したエッジ画像から直線を検出する。続いて、ステップ409にて、検出処理部14は、2値化したエッジ画像から、ステップ409で検出された直線の領域(以下「直線領域」という)を分割する。更に、ステップ410にて、検出処理部14は、ステップ410で得られた直線領域の特徴量を抽出する。直線領域の特徴量は特に限定されないが、例えば、円形度、面積、濃淡、重心などであってよい。
2値化したエッジ画像に対する2通りの処理が終わった後、ステップ411にて、検出処理部14は、ステップ407で得られた領域のうちステップ410で得られた直線領域を除外し、残った領域を対象物体の領域とする。そして、ステップ412にて、検出処理部14は、ステップ401~411の一連の処理により得られた対象物体の領域の情報を出力する。
なお、上述した学習ベース物体検出処理において、本実施形態による可視光画像は、複数のフレーム画像が時系列に連なる映像であるものとし、予測モデルにより検出された対象物体の領域に対して、ステップ303の追跡処理を行って対象物体の領域の動きベクトルを算出し、ステップ306と同様に、その動きベクトルをフレーム情報として保存することにしてもよい。
図7は、物体検出システムの利用イメージを示す図である。図7には、リビングを監視するシステムが例示されている。物体監視システムはリビングへの不審者の侵入を検出すると、検出結果の情報を出力する。したがって、この場合、人物が対象物体である。パーソナルコンピュータやスマートフォンなどの端末装置で物体検出装置10に接続し、その画面により検出結果をリアルタイムで確認できる。
TOFセンサ81および可視光カメラ82がリビングの空間90を撮影可能に設置され、物体検出装置10はクラウド上に構築されている。ユーザ93は、パーソナルコンピュータ84を用いて物体検出装置10に接続し、リアルタイムで検出結果を確認している。
パーソナルコンピュータ84の画面には、監視場所85として、システムによって監視している場所がリビングルームであり、利用画像86として、可視光カメラ82により撮影される可視光画像が画像となっていることが表示されている。更に、画面には、異常検知レベル87としてレベル1と、近赤外線画像および可視光画像の時系列の物体検出精度88と、トータルでのリアルタイムの物体検出精度89とが示されている。また、パーソナルコンピュータ84の画面に、TOFセンサ81で撮影された近赤外線画像および可視光カメラ82で撮影された可視光画像を切り替え可能に表示できてもよい。
図8は、物体検出装置のハードウェア構成を示す図である。図8には、一例として、エッジコンピュータにより物体検出装置10のハードウェア構成が示されている。
物体検出装置10は、ハードウェアとして、プロセッサ31、メインメモリ32、記憶装置33、通信装置34、入力装置35、および表示装置36を有し、それらがバス37に接続されている。
記憶装置33は、書込みおよび読み出しが可能にデータを記憶するものであって、この記憶装置33に各種データが記録される。プロセッサ31は、記憶装置33に記憶されたデータをメインメモリ32に読み出し、メインメモリ32を利用してソフトウェアプログラムの処理を実行する。プロセッサ31によって、図2に示した近赤外線画像取得部11、可視光画像取得部12、判定部13、検出処理部14、およびユーザインタフェース部15が実現される。通信装置34は、プロセッサ31にて処理された情報を有線または無線あるいはそれら両方を含む通信ネットワークを介して送信し、また通信ネットワークを介して受信した情報をプロセッサ31に伝達する。受信した情報はプロセッサ31にてソフトウェアの処理に利用される。入力装置35は、キーボードやマウスなどオペレータによる操作入力による情報を受け付ける装置であり、入力された情報はプロセッサ31にてソフトウェア処理に利用される。例えば、学習データは通信装置34や入力装置35を介して記憶装置33に入力される。表示装置36は、プロセッサ31によるソフトウェア処理に伴って画像やテキストの情報をディスプレイ画面に表示する装置である。
上述した本実施形態は、本開示の説明のための例示であり、発明の範囲をそれらの実施形態に限定する趣旨ではない。当業者は、発明の範囲を逸脱することなしに、他の様々な態様の実施が可能である。
上述した実施形態では、物体検出装置10は、図3にも示した通り、空間90の奥行によって近赤外線画像か可視光画像のいずれかを利用画像として選択するものであった。しかし、変形例として、空間90の奥行ではなく、物体までの距離によって近赤外線画像か可視光画像のいずれかを利用画像として選択することにしてもよい。そして、その際、空間90内に複数の物体が存在する場合、近赤外線画像と可視光画像のいずれを利用画像とするかを物体毎あるいは空間90内の領域毎に選択してもよい。
以下、変形例について説明する。変形例における物体検出システムおよび物体検出装置の構成は基本的に図1、図2にも示した本実施形態のものと同様である。
図9は、変形例における判定部13および検出処理部14による一連の処理を示すフローチャートである。まず、判定部13は、ステップ501にて、空間90に存在する物体までの距離を算出する。物体までの距離を算出する手法は特に限定されないが、本実施形態では、距離画像に基づいて物体までの距離を算出する。例えば、距離画像における、予め設定された奥行きよりも近い距離にある領域を物体とし、その距離(画素値)を物体までの距離としてもよい。物体は1つだけとは限らず、複数の物体があればそれぞれの物体までの距離を算出し、以下の処理をそれぞれの物体に対して実行してもよい。また、ここでいう距離は、必ずしも水平方向の距離を意味するものではなく、例えば垂直方向など他の方向の距離であってもよい。
次に、判定部13は、ステップ502にて、物体までの距離が所定の閾値を超える値であるか否か判定する。
ステップ502の判定で物体までの距離が閾値を超える値であれば、判定部13は、ステップ503にて、近赤外線画像を利用画像として決定する。続いて、検出処理部14は、ステップ504にて、ルールベース物体検出処理を実行することにより、空間90内の対象物体を検出する。ルールベース物体検出処理上述したものと同様である。
一方、ステップ502の判定で物体までの距離が閾値以下であれば、判定部13は、ステップ505にて、可視光画像を利用画像として決定する。続いて、検出処理部14は、ステップ506にて、学習ベース物体検出処理を実行することにより、空間90内の対象物体を検出する。学習ベース物体検出処理は上述したものと同様である。
ステップ504の後またはステップ506の後、ユーザインタフェース部15は、ステップ507にて、検出処理部14による検出結果をモニタ83の画面に表示することにより、ユーザに提示する。
以上説明したように、本実施形態による物体検出装置10は、第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置(TOFセンサ81)により所定の空間90を撮影した第1画像を取得する第1画像取得部(近赤外線画像取得部11)と、第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置(可視光カメラ82)により空間90を撮影した第2画像を取得する第2画像取得部(可視光画像取得部12)と、第1画像と第2画像から物体検出に用いる利用画像を決定する判定部13と、利用画像に含まれる検出対象である所定の対象物体を検出する検出処理部14と、を有する。これにより、性質の異なる第1画像と第2画像から利用画像を決定し、その利用画像から物体を検出するので、多様な環境における物体の良好な検出が可能になる。
また、本実施形態では、物体検出装置10において、判定部13は、空間90の奥行または空間90にある物体までの距離を取得し、その奥行または距離に基づいて利用画像を決定する。これにより、検出対象の物体が置かれる環境に応じて第1画像または第2画像を利用するので、環境に適した画像により、物体の良好な検出が可能となる。
また、本実施形態では、第1画像は所定の第1波長帯による画像であり、第2画像は、第1波長帯よりも短波長である第2波長帯による画像であり、判定部13は、空間90の奥行が所定の閾値以下であれば第1画像を選択し、空間90の奥行が閾値より大きければ第2画像を選択する。これにより、検出対象の物体が比較的近距離の位置に置かれる環境では比較的長波長の第1画像を用い、検出対象の物体が比較的遠距離の位置に置かれる可能性のある環境では比較的短波長の第2画像を用いるので、距離に応じて好適な波長帯の光による画像により、物体の良好な検出が可能となる。
あるいは、本実施形態において、第1画像は所定の第1波長帯による画像であり、第2画像は、第1波長帯よりも短波長である第2波長帯による画像であり、判定部13は、物体までの距離が所定の閾値以下であれば第1画像を選択し、物体までの距離が閾値より大きければ第2画像を選択することにしてもよい。これにより、物体が比較的近距離の位置にある状況では比較的長波長の第1画像を用い、物体が比較的遠距離の位置にある状況では比較的短波長の第2画像を用いるので、状況応じた好適な波長帯の光による画像により、物体の良好な検出が可能となる。
また、本実施形態の物体検出装置10では、検出処理部14は、第1画像が選択されたら、第1画像からルールベースで対象物体を検出し、第2画像が選択されたら、第2画像から学習ベースで対象物体を検出する。これにより、長波長で撮影した画像による比較的近距離にある物体の検出については比較的簡易的なルールベースにより物体の検出を行い、短波長で撮影した画像による比較的遠距離にある物体の検出については比較的緻密な学習ベースにより物体の検出を行うので、画像の種類に応じて所望の精度で物体を検出できる。
また、本実施形態の物体検出装置10では、第1画像は、時系列に連なる複数の画像であり、検出処理部14は、第1画像における所定の初期画像からエッジを検出し、エッジに基づく領域分割により、初期画像から対象物体の領域を特定し、初期画像の後に連なる後続画像において、対象物体の領域の動きベクトルを算出する。
また、検出処理部14は、エッジに基づく領域分割により生じた領域から、対象物体が有する特徴量を有する領域を抽出し、対象物体が有しない特徴量を有する領域を除外することにより、対象物体の領域を特定する。これにより、対象物体が有する特徴量を有する領域を残し、対象物体が有しない特徴量を有する領域を除外するように、領域を絞り込むので、対象物体の領域を良好に特定することができる。
また、本実施形態の物体検出装置10では、第1画像が近赤外線による画像であり、第2画像が可視光による画像である。画像データが比較的少なく十分な学習データを収集するのが比較的困難な近赤外線画像についてはルールベースで物体の検出を行い、画像データが比較的豊富で学習データを比較的容易に収集できる可視光画像については学習ベースにより物体の検出を行うので、画像の種類に応じた好適な手法により、所望の精度で良好に物体の検出を行うことが可能となる。
あるいは、本実施形態の物体検出装置10では、第1画像が遠赤外線による温度分布画像であり、第2画像が可視光による画像であるとしてもよい。この場合も、画像データが比較的少なく十分な学習データを収集するのが比較的困難な遠赤外線による温度分布画像についてはルールベースで物体の検出を行い、画像データが比較的豊富で学習データを比較的容易に収集できる可視光画像については学習ベースにより物体の検出を行うので、画像の種類に応じた好適な手法により、所望の精度で良好に物体の検出を行うことが可能となる。
また、本実施形態の物体検出装置10では、利用画像が第1撮像装置により撮影された画像か第2撮像装置により撮影された画像かを示す画像属性情報と、第1撮像装置および第2撮像装置が設置された場所を示す観測場所情報と、利用画像とを画面に表示するユーザインタフェース部を更に有する。
また、本実施形態の物体検出装置10では、第1撮像装置は、第1波長帯の光源を備え光源からの光が物体から反射した光を検出することにより第1画像を撮影するものであり、光源からの光が物体で反射して戻るまでの時間に基づいて画素毎の物体までの距離を表す距離画像を更に撮影し、第1画像取得部は、距離画像を更に取得し、判定部13は、距離画像に基づいて、第1画像と第2画像から利用画像を決定する。距離画像に基づいて利用画像を決定するので、多様な距離の物体の良好な検出が可能になる。
10…物体検出装置、11…近赤外線画像取得部、12…可視光画像取得部、13…判定部、14…検出処理部、15…ユーザインタフェース部、31…プロセッサ、32…メインメモリ、33…記憶装置、34…通信装置、35…入力装置、36…表示装置、37…バス、81…TOFセンサ、82…可視光カメラ、83…モニタ、84…パーソナルコンピュータ、85…監視場所、86…利用画像、87…異常検知レベル、88…物体検出精度、89…物体検出精度、90…空間、91、92…人物、93…ユーザ

Claims (12)

  1. 所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置により所定の空間を撮影した第1画像を取得する第1画像取得部と、
    前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得する第2画像取得部と、
    前記空間にある物体までの距離を取得し、前記距離に基づいて、前記第1画像と前記第2画像から物体検出に用いる利用画像を決定する判定部と、
    前記利用画像に含まれる検出対象である所定の対象物体を検出する検出処理部と、
    を有し、
    前記第1画像は所定の第1波長帯による画像であり、前記第2画像は、前記第1波長帯よりも短波長である第2波長帯による画像であり、
    前記判定部は、前記物体までの距離が所定の閾値以下であれば前記第1画像を選択し、前記物体までの距離が前記閾値より大きければ前記第2画像を選択する
    体検出装置。
  2. 前記検出処理部は、前記第1画像が選択されたら、前記第1画像からルールベースで前記対象物体を検出し、前記第2画像が選択されたら、前記第2画像から学習ベースで前記対象物体を検出する、
    請求項に記載の物体検出装置。
  3. 前記第1画像は、時系列に連なる複数の画像であり、
    前記検出処理部は、
    前記第1画像における所定の初期画像からエッジを検出し、前記エッジに基づく領域分割により、前記初期画像から対象物体の領域を特定し、
    前記初期画像の後に連なる後続画像において、前記対象物体の領域の動きベクトルを算出する、
    請求項に記載の物体検出装置。
  4. 前記検出処理部は、前記エッジに基づく領域分割により生じた領域から、前記対象物体が有する特徴量を有する領域を抽出し、前記対象物体が有しない特徴量を有する領域を除外することにより、前記対象物体の領域を特定する、
    請求項に記載の物体検出装置。
  5. 前記第1画像が近赤外線による画像であり、前記第2画像が可視光による画像である、
    請求項に記載の物体検出装置。
  6. 前記第1画像が遠赤外線による温度分布画像であり、前記第2画像が可視光による画像である、
    請求項に記載の物体検出装置。
  7. 前記利用画像が前記第1撮像装置により撮影された画像か前記第2撮像装置により撮影された画像かを示す画像属性情報と、前記第1撮像装置および前記第2撮像装置が設置された場所を示す観測場所情報と、前記利用画像とを画面に表示するユーザインタフェース部を更に有する、
    請求項1に記載の物体検出装置。
  8. 所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置により所定の空間を撮影した第1画像を取得する第1画像取得部と、
    前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得する第2画像取得部と、
    前記第1画像と前記第2画像から物体検出に用いる利用画像を決定する判定部と、
    前記利用画像に含まれる検出対象である所定の対象物体を検出する検出処理部と、
    を有し、
    前記第1撮像装置は、前記第1波長帯の光源を備え該光源からの光が物体から反射した光を検出することにより前記第1画像を撮影するものであり、前記光源からの光が前記物体で反射して戻るまでの時間に基づいて画素毎の前記物体までの距離を表す距離画像を更に撮影し、
    前記第1画像取得部は、前記距離画像を更に取得し、
    前記判定部は、前記距離画像に基づいて、前記第1画像と前記第2画像から前記利用画像を決定する
    体検出装置。
  9. 所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置と、
    前記第1波長帯よりも短波長である第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置と、
    前記第1撮像装置により所定の空間を撮影した第1画像を取得し、前記第2撮像装置により前記空間を撮影した第2画像を取得し、前記空間にある物体までの距離を取得し、前記物体までの距離が所定の閾値以下であれば前記第1画像を選択し、前記物体までの距離が前記閾値より大きければ前記第2画像を選択することにより、前記第1画像と前記第2画像から物体検出に用いる利用画像を決定し、前記利用画像に含まれる検出対象である所定の対象物体を検出する物体検出装置と、
    を有する物体検出システム。
  10. 所定の第1波長帯の光源を備え該光源からの光が物体から反射した光を検出することにより画像を撮影するものであり、前記光源からの光が前記物体で反射して戻るまでの時間に基づいて画素毎の前記物体までの距離を表す距離画像を更に撮影する第1撮像装置と、
    前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置と、
    前記第1撮像装置により所定の空間を撮影した第1画像と前記距離画像とを取得し、前記第2撮像装置により前記空間を撮影した第2画像を取得し、前記距離画像に基づいて、前記第1画像と前記第2画像から物体検出に用いる利用画像を決定し、前記利用画像に含まれる検出対象である所定の対象物体を検出する物体検出装置と、
    を有する物体検出システム。
  11. コンピュータが、
    所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置により所定の空間を撮影した第1画像を取得し、
    前記第1波長帯よりも短波長である第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得し、
    前記空間にある物体までの距離を取得し、前記物体までの距離が所定の閾値以下であれば前記第1画像を選択し、前記物体までの距離が前記閾値より大きければ前記第2画像を選択することにより、前記第1画像と前記第2画像から物体検出に用いる利用画像を決定し、
    前記利用画像に含まれる検出対象である所定の対象物体を検出する、
    ことを実行する物体検出方法。
  12. コンピュータが、
    所定の第1波長帯における物体からの光を検出することにより画像を撮影し、前記第1波長帯の光源を備え該光源からの光が物体から反射した光を検出することにより前記画像を撮影するものであり、前記光源からの光が前記物体で反射して戻るまでの時間に基づいて画素毎の前記物体までの距離を表す距離画像を更に撮影する第1撮像装置により所定の空間を撮影した第1画像と前記距離画像を取得し、
    前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得し、
    前記距離画像に基づいて、前記第1画像と前記第2画像から物体検出に用いる利用画像を決定し、
    前記利用画像に含まれる検出対象である所定の対象物体を検出する、
    ことを実行する物体検出方法。
JP2020125153A 2020-07-22 2020-07-22 物体検出装置、システム、および方法 Active JP7549478B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020125153A JP7549478B2 (ja) 2020-07-22 2020-07-22 物体検出装置、システム、および方法
PCT/JP2021/009387 WO2022018902A1 (ja) 2020-07-22 2021-03-09 物体検出装置、システム、および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020125153A JP7549478B2 (ja) 2020-07-22 2020-07-22 物体検出装置、システム、および方法

Publications (2)

Publication Number Publication Date
JP2022021535A JP2022021535A (ja) 2022-02-03
JP7549478B2 true JP7549478B2 (ja) 2024-09-11

Family

ID=79729383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020125153A Active JP7549478B2 (ja) 2020-07-22 2020-07-22 物体検出装置、システム、および方法

Country Status (2)

Country Link
JP (1) JP7549478B2 (ja)
WO (1) WO2022018902A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162795A (ja) 2001-11-22 2003-06-06 Nec Corp 気象データを用いたセンサ選択方法とこれを用いた道路交通監視システム
JP2006338594A (ja) 2005-06-06 2006-12-14 Toyota Motor Corp 歩行者認識装置
JP2020014109A (ja) 2018-07-18 2020-01-23 株式会社日立製作所 検出システム、および検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162795A (ja) 2001-11-22 2003-06-06 Nec Corp 気象データを用いたセンサ選択方法とこれを用いた道路交通監視システム
JP2006338594A (ja) 2005-06-06 2006-12-14 Toyota Motor Corp 歩行者認識装置
JP2020014109A (ja) 2018-07-18 2020-01-23 株式会社日立製作所 検出システム、および検出方法

Also Published As

Publication number Publication date
WO2022018902A1 (ja) 2022-01-27
JP2022021535A (ja) 2022-02-03

Similar Documents

Publication Publication Date Title
JP6125188B2 (ja) 映像処理方法及び装置
JP6554169B2 (ja) 物体認識装置及び物体認識システム
KR100519782B1 (ko) 스테레오 카메라를 이용한 사람 검출 방법 및 장치
RU2607774C2 (ru) Способ управления в системе захвата изображения, устройство управления и машиночитаемый носитель данных
JP6764481B2 (ja) 監視装置
JP4689518B2 (ja) 火災検出装置
US20150016671A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP2012108785A (ja) 人数カウント装置、人数カウント方法及び人数カウントプログラム
JP2008269063A (ja) 多重分割画像を用いた異常動作検出装置、異常動作検出方法及び異常動作検出用プログラム
JP5290227B2 (ja) 対象物検知装置及びその学習装置
JP2010057105A (ja) オブジェクトの3次元追跡方法およびシステム
JP6630341B2 (ja) シンボルの光学的検出方法
JP7210890B2 (ja) 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体
JP2021118001A (ja) 画像内で群衆の中の人間を識別する方法
JP2019029747A (ja) 画像監視システム
WO2016019973A1 (en) Method for determining stationary crowds
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
JP7549478B2 (ja) 物体検出装置、システム、および方法
Luna et al. Fast heuristic method to detect people in frontal depth images
KR100543706B1 (ko) 비젼기반 사람 검출방법 및 장치
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JP2019066909A (ja) 物体分布推定装置
JP2011090708A (ja) 対象個数検出装置および対象個数検出方法
JP5935118B2 (ja) 物体検出装置および物体検出方法
JP6851246B2 (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240830

R150 Certificate of patent or registration of utility model

Ref document number: 7549478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150