JP2022021535A - Object detection device, system, and method - Google Patents
Object detection device, system, and method Download PDFInfo
- Publication number
- JP2022021535A JP2022021535A JP2020125153A JP2020125153A JP2022021535A JP 2022021535 A JP2022021535 A JP 2022021535A JP 2020125153 A JP2020125153 A JP 2020125153A JP 2020125153 A JP2020125153 A JP 2020125153A JP 2022021535 A JP2022021535 A JP 2022021535A
- Authority
- JP
- Japan
- Prior art keywords
- image
- wavelength band
- object detection
- predetermined
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 149
- 238000000034 method Methods 0.000 title abstract description 37
- 238000012545 processing Methods 0.000 claims abstract description 62
- 238000003384 imaging method Methods 0.000 claims abstract description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000001931 thermography Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
Description
本開示は、物体を検出する技術に関する。 The present disclosure relates to a technique for detecting an object.
特許文献1には物体検出装置が開示されている。特許文献1の物体検出装置は、撮影装置で取得された画像に含まれる物体を検出する。その撮影装置は、近赤外線カメラまたは可視光カメラである。すなわち、特許文献1の物体検出装置は、近赤外線カメラまたは可視光カメラで取得された画像に含まれる物体を検出するものである。 Patent Document 1 discloses an object detection device. The object detection device of Patent Document 1 detects an object included in an image acquired by a photographing device. The photographing device is a near-infrared camera or a visible light camera. That is, the object detection device of Patent Document 1 detects an object included in an image acquired by a near-infrared camera or a visible light camera.
特許文献1に開示された物体検出装置は、近赤外線カメラまたは可視光カメラのいずれか一方の撮影装置から画像を取得し、その画像における物体を検出する。例えば、物体検出装置が可視光カメラの画像を取得するものである場合、近赤外線カメラの画像からであれば検出できるであろう物体を検出できないという事態が起こり得る。また、その逆に、近赤外線カメラの画像を用いていることで、可視光カメラの画像からであれば検出できるであろう物体を検出できないという事態が起こり得る。 The object detection device disclosed in Patent Document 1 acquires an image from an imaging device of either a near-infrared camera or a visible light camera, and detects an object in the image. For example, when the object detection device acquires an image of a visible light camera, a situation may occur in which an object that could be detected from an image of a near-infrared camera cannot be detected. On the contrary, by using the image of the near-infrared camera, a situation may occur in which an object that could be detected from the image of the visible light camera cannot be detected.
本開示のひとつの目的は、多様な環境での物体の検出を可能にする技術を提供することである。 One object of the present disclosure is to provide a technique that enables detection of an object in various environments.
本開示のひとつの態様に従う物体検出装置は、所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置により所定の空間を撮影した第1画像を取得する第1画像取得部と、前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得する第2画像取得部と、前記第1画像と前記第2画像から物体検出に用いる利用画像を決定する判定部と、前記利用画像に含まれる検出対象である所定の対象物体を検出する検出処理部と、を有する。 The object detection device according to one aspect of the present disclosure acquires a first image obtained by capturing a predetermined space by a first image pickup device that captures an image by detecting light from an object in a predetermined first wavelength band. A second image that acquires a second image of the space by a first image acquisition unit and a second image pickup device that captures an image by detecting light from an object in a second wavelength band different from the first wavelength band. An acquisition unit, a determination unit that determines a use image to be used for object detection from the first image and the second image, and a detection processing unit that detects a predetermined target object included in the use image. Have.
本開示のひとつの態様によれば、多様な環境での物体の検出を可能にする技術を提供することが可能となる。 According to one aspect of the present disclosure, it is possible to provide a technique that enables detection of an object in various environments.
以下、本開示の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
図1は、物体検出システムの概略構成図である。物体検出システムは、空間90内で所定の検出対象の物体(以下「対象物体」ともいう)を検出するシステムであり、物体検出装置10と、TOF(Time-of-Flight)センサ81と、可視光カメラ82と、モニタ83とを有している。TOFセンサ81と可視光カメラ82は、対象物体の検出を行う空間90に設置される。空間90は、例えば、同一空間に多種類のエッジデバイスが併設されるマルチモーダル環境である。空間90内には物体の例として人物91、92が存在している。TOFセンサ81および可視光カメラ82は有線や無線の通信回線により物体検出装置10に接続される。
FIG. 1 is a schematic configuration diagram of an object detection system. The object detection system is a system that detects a predetermined object to be detected (hereinafter, also referred to as "object") in the
TOFセンサ81は、近赤外線の光源を備え、光源からの光が物体で反射した光を検出することにより、空間90内の画像(以下「近赤外線画像」ともいう)を撮影する撮像装置である。一例として、TOFセンサ81は、更に、画素毎の物体までの距離を示す画像(以下「距離画像」ともいう)も撮影する。なお、近赤外線画像を撮影するTOFセンサ81の代わりに、サーモグラフィカメラを用いてもよいサーモグラフィカメラは、物体から入射する遠赤外線の強度を検出し、画素毎に遠赤外線の強度すなわち物体の温度に応じた色を示す温度分布画像を撮影する。この温度分布画像を、TOFセンサ81による近赤外線画像の代わりに用いればよい。
The
可視光カメラ82は、物体から入射する可視光を検出することにより、空間90内の画像(以下「可視光画像」ともいう)を撮影する撮像装置である。
The
物体検出装置10は、例えば、マルチモーダル環境の空間90で取得されるセンサデータから、好適なデータを自動的に取捨選択し、対象物体の良好な検出を実現する装置である。物体検出装置10は、近赤外線画像と可視光画像から、物体の検出に用いる画像(以下「利用画像」ともいう)を決定し、その利用画像に含まれる対象物体を検出する装置である。物体検出装置10は、例えば、近赤外線画像、可視光画像、および距離画像のいずれか1つあるいは複数に基づいて、利用画像を決定する。
The
物体検出装置10は、一例として、コンピュータがソフトウェアプログラムを実行することにより実現される。コンピュータの構成および配置は特に限定されない。例えば、コンピュータは、ユーザ自身が所有し管理するエッジコンピュータであってもよいし、クラウド上に提供されるクラウドコンピュータであってもよい。物体検出装置10の構成および動作の詳細は後述する。
The
モニタ83は、物体検出装置10による検出結果等を画面に表示する表示装置である。
The
図2は、物体検出装置のブロック図である。物体検出装置10は、近赤外線画像取得部11と、近赤外線画像取得部12と、判定部13と、検出処理部14と、ユーザインタフェース(UI)部15とを有している。
FIG. 2 is a block diagram of the object detection device. The
近赤外線画像取得部11は、TOFセンサ81から近赤外線画像のデータを取得する。また、近赤外線画像取得部11は、TOFセンサ81から距離画像のデータも取得してよい。可視光画像取得部12は、可視光カメラ82から可視光画像のデータを取得する。
The near-infrared
判定部13は、近赤外線画像、可視光画像、距離画像のいずれか1つあるいは複数に基づいて、近赤外線画像と可視光画像から、利用画像を決定する。検出処理部14は、利用画像を分析し、利用画像内に含まれる対象物体を検出する。判定部13および検出処理部14による一連の処理の詳細は後述する。
The
ユーザインタフェース部15は、物体検出装置10が各種情報をユーザに提示し、またユーザから各種情報を取得するためのインタフェース部である。例えば、ユーザインタフェース部15は、タッチパネル式ディスプレイのモニタ83に表示する画面を生成し、モニタ83の画面に対するタッチ操作により入力された情報を取得するものであってよい。
The user interface unit 15 is an interface unit for the
図3は、判定部13および検出処理部14による一連の処理を示すフローチャートである。まず、判定部13は、ステップ101にて、空間90の奥行を算出する。空間90の奥行を算出する手法は特に限定されないが、本実施形態では、距離画像に基づいて空間90の奥行を算出する。例えば、距離画像における最も大きな距離値(画素値)を空間90の奥行としてもよい。他の手法として、例えば、近赤外線画像を用い、TOFセンサ81の焦点位置と近赤外線画像のぼやけ具合とから距離(奥行き)を推定することにしてもよい。TOFセンサ81の代わりにサーモグラフィカメラを用いる場合には、距離画像が得られないので、本手法が有効である。なお、ここでいう奥行は、必ずしも水平方向の距離を意味するものではなく、例えば垂直方向など他の方向の距離であってもよい。次に、判定部13は、ステップ102にて、空間90の奥行が所定の閾値を超える値であるか否か判定する。閾値は任意に定めてよく、例えば5メートルとしてよい。
FIG. 3 is a flowchart showing a series of processes by the
ステップ102の判定で空間90の奥行が閾値を超える値であれば、判定部13は、ステップ103にて、近赤外線画像を利用画像として決定する。続いて、検出処理部14は、ステップ104にて、ルールベース物体検出処理を実行することにより、空間90内の対象物体を検出する。ルールベース物体検出処理は、予め設定された規則に従って対象物体を検出する処理である。ルールベース物体検出処理は、学習データを準備し学習する必要が無く、後述する学習ベース物体検出処理に比べると比較的簡易的な手法である。ルールベース物体検出処理の詳細は後述する。
If the depth of the
一方、ステップ102の判定で空間の奥行が閾値以下であれば、判定部13は、ステップ105にて、可視光画像を利用画像として決定する。続いて、検出処理部14は、ステップ106にて、学習ベース物体検出処理を実行することにより、空間90内の対象物体を検出する。学習ベース物体検出処理では、予め収集された画像データを学習データとして、ディープラーニング等の学習を行い、予測モデルを生成しておき、検出処理部14は、その予測モデルに基づいて、利用画像から対象物体を検出する。
On the other hand, if the depth of the space is equal to or less than the threshold value in the determination in
ステップ104の後またはステップ106の後、ユーザインタフェース部15は、ステップ107にて、検出処理部14による検出結果をモニタ83の画面に表示することにより、ユーザに提示する。
After
図4、図5は、ルールベース物体検出処理のフローチャートである。本実施形態による近赤外線画像は、複数のフレーム画像が時系列に連なる映像であるものとする。所定の初期画像とその後に連なる後続画像とに分けて異なる処理を行う。初期画像は1つである必要はなく、時間間隔を空けて繰り返し設けるといったように、任意に設けることができる。例えば、一定時間間隔で初期画像を設けてもよいし、30フレーム毎、60フレーム毎というように一定フレーム数間隔で初期画像を設けてもよい。 4 and 5 are flowcharts of the rule-based object detection process. The near-infrared image according to the present embodiment is assumed to be an image in which a plurality of frame images are connected in chronological order. Different processing is performed separately for a predetermined initial image and subsequent subsequent images. The initial image does not have to be one, and can be arbitrarily provided, such as being repeatedly provided at time intervals. For example, initial images may be provided at regular time intervals, or initial images may be provided at regular frame number intervals such as every 30 frames and every 60 frames.
図4に初期画像に対する処理が示され、図5に後続画像に対する処理が示されている。 FIG. 4 shows the processing for the initial image, and FIG. 5 shows the processing for the succeeding image.
図4を参照すると、検出処理部14は、ステップ201にて初期画像が入力すると、ステップ202にてその初期画像をグレースケールに変換する。続いて、検出処理部14は、ステップ203にて前処理を実行する。
Referring to FIG. 4, when the initial image is input in
前処理は、ステップ204の領域分割処理と、ステップ205のラベリングとを含む。ステップ204の領域分割処理にて、検出処理部14は、初期画像における対象物体の領域を特定する。領域分割処理の詳細は後述する。ステップ205のラベリングにて、検出処理部14は、ステップ204で特定された対象物体の領域にその領域を識別する固有の識別番号を付与する。この前処理にて、特定され、識別番号が付与された対象物体の領域が、後続画像において追跡される追跡領域となる。
The preprocessing includes the area division process of
その後、ステップ206にて、検出処理部14は、初期画像から特定された対象物体の領域の識別番号および特徴量を含むフレーム情報を保存する。領域の特徴量は、特に限定されないが、例えば、円形度、面積、濃淡、重心などであってよい。更に、ステップ207にて、ユーザインタフェース部15は、ステップ201~206の一連の処理により初期画像から得られた情報を出力する。
After that, in
図5を参照すると、検出処理部14は、ステップ301にて後続画像が入力すると、ステップ302にてその後続画像をグレースケールに変換する。続いて、検出処理部14は、ステップ303にて追跡処理を実行する。
Referring to FIG. 5, when the succeeding image is input in
追跡処理は、ステップ304の動きベクトル算出と、ステップ305の追跡領域毎の動きベクトルを算出とを含む。ステップ304の動きベクトル算出にて、検出処理部14は、処理の対象となっている後続画像の前の画像に対するブロック単位の移動量を表す動きベクトルを算出する。ステップ305の追跡領域毎の移動ベクトルを算出にて、検出処理部14は、ステップ304で算出された動きベクトルから、処理の対象となっている後続画像の前の画像に対する各追跡領域の移動量を表す動きベクトルを算出する。
The tracking process includes calculation of the motion vector in
その後、ステップ306にて、検出処理部14は、後続画像における追跡領域の識別番号および動きベクトルを含むフレーム情報を保存する。更に、ステップ307にて、ユーザインタフェース部15は、ステップ301~306の一連の処理により後続画像から得られた情報を出力する。
After that, in
図6は、領域分割処理のフローチャートである。なお、ここでは一例として対象物体の形状は直線的でないものとする。 FIG. 6 is a flowchart of the area division process. Here, as an example, it is assumed that the shape of the target object is not linear.
まず、検出処理部14は、ステップ401にて、上記したステップ202でグレースケールに変換された初期画像を取得する。検出処理部14は、続いてステップ402にて、グレースケールの初期画像に対してエッジ検出を行い、検出されたエッジを表す画像(以下「エッジ画像」という)を生成する。エッジは、濃淡の変化が大きい部分であり、物体の輪郭に生じやすい。更に、検出処理部14は、ステップ403にて、エッジ画像にハイパスフィルタを適用してノイズを除去し、ステップ404にて、ハイパスフィルタでノイズを除去したエッジ画像を2値化する。2値化したエッジ画像ではエッジが強調される。
First, in
2値化したエッジ画像に対して、ステップ405~407の処理とステップ408~410の処理の2通りの処理が行われる。
The binarized edge image is subjected to two types of processing, steps 405 to 407 and
ステップ405では、検出処理部14は、2値化したエッジ画像を、画素値によって区切られる領域に分割する。続いて、ステップ406では、検出処理部14は、ステップ405で得られた各領域の特徴量を抽出する。領域の特徴量は、特に限定されないが、例えば、円形度、面積、濃淡、重心などであってよい。更に、ステップ407にて、検出処理部14は、ステップ406で抽出された特徴量に基づき、ステップ405で得られた領域のうち対象物体と異なる特徴量を有する領域を除外し、対象物体の領域の候補を絞り込む。
In
一方、ステップ408では、検出処理部14は、2値化したエッジ画像から直線を検出する。続いて、ステップ409にて、検出処理部14は、2値化したエッジ画像から、ステップ409で検出された直線の領域(以下「直線領域」という)を分割する。更に、ステップ410にて、検出処理部14は、ステップ410で得られた直線領域の特徴量を抽出する。直線領域の特徴量は特に限定されないが、例えば、円形度、面積、濃淡、重心などであってよい。
On the other hand, in
2値化したエッジ画像に対する2通りの処理が終わった後、ステップ411にて、検出処理部14は、ステップ407で得られた領域のうちステップ410で得られた直線領域を除外し、残った領域を対象物体の領域とする。そして、ステップ412にて、検出処理部14は、ステップ401~411の一連の処理により得られた対象物体の領域の情報を出力する。
After the two processings for the binarized edge image are completed, in
なお、上述した学習ベース物体検出処理において、本実施形態による可視光画像は、複数のフレーム画像が時系列に連なる映像であるものとし、予測モデルにより検出された対象物体の領域に対して、ステップ303の追跡処理を行って対象物体の領域の動きベクトルを算出し、ステップ306と同様に、その動きベクトルをフレーム情報として保存することにしてもよい。
In the learning-based object detection process described above, the visible light image according to the present embodiment is assumed to be an image in which a plurality of frame images are continuous in time series, and a step is taken with respect to the region of the target object detected by the prediction model. The tracking process of 303 may be performed to calculate the motion vector of the region of the target object, and the motion vector may be saved as frame information in the same manner as in
図7は、物体検出システムの利用イメージを示す図である。図7には、リビングを監視するシステムが例示されている。物体監視システムはリビングへの不審者の侵入を検出すると、検出結果の情報を出力する。したがって、この場合、人物が対象物体である。パーソナルコンピュータやスマートフォンなどの端末装置で物体検出装置10に接続し、その画面により検出結果をリアルタイムで確認できる。
FIG. 7 is a diagram showing a usage image of the object detection system. FIG. 7 illustrates a system for monitoring the living room. When the object monitoring system detects the intrusion of a suspicious person into the living room, it outputs the information of the detection result. Therefore, in this case, the person is the target object. A terminal device such as a personal computer or a smartphone can be connected to the
TOFセンサ81および可視光カメラ82がリビングの空間90を撮影可能に設置され、物体検出装置10はクラウド上に構築されている。ユーザ93は、パーソナルコンピュータ84を用いて物体検出装置10に接続し、リアルタイムで検出結果を確認している。
The
パーソナルコンピュータ84の画面には、監視場所85として、システムによって監視している場所がリビングルームであり、利用画像86として、可視光カメラ82により撮影される可視光画像が画像となっていることが表示されている。更に、画面には、異常検知レベル87としてレベル1と、近赤外線画像および可視光画像の時系列の物体検出精度88と、トータルでのリアルタイムの物体検出精度89とが示されている。また、パーソナルコンピュータ84の画面に、TOFセンサ81で撮影された近赤外線画像および可視光カメラ82で撮影された可視光画像を切り替え可能に表示できてもよい。
On the screen of the
図8は、物体検出装置のハードウェア構成を示す図である。図8には、一例として、エッジコンピュータにより物体検出装置10のハードウェア構成が示されている。
FIG. 8 is a diagram showing a hardware configuration of the object detection device. FIG. 8 shows, as an example, the hardware configuration of the
物体検出装置10は、ハードウェアとして、プロセッサ31、メインメモリ32、記憶装置33、通信装置34、入力装置35、および表示装置36を有し、それらがバス37に接続されている。
The
記憶装置33は、書込みおよび読み出しが可能にデータを記憶するものであって、この記憶装置33に各種データが記録される。プロセッサ31は、記憶装置33に記憶されたデータをメインメモリ32に読み出し、メインメモリ32を利用してソフトウェアプログラムの処理を実行する。プロセッサ31によって、図2に示した近赤外線画像取得部11、可視光画像取得部12、判定部13、検出処理部14、およびユーザインタフェース部15が実現される。通信装置34は、プロセッサ31にて処理された情報を有線または無線あるいはそれら両方を含む通信ネットワークを介して送信し、また通信ネットワークを介して受信した情報をプロセッサ31に伝達する。受信した情報はプロセッサ31にてソフトウェアの処理に利用される。入力装置35は、キーボードやマウスなどオペレータによる操作入力による情報を受け付ける装置であり、入力された情報はプロセッサ31にてソフトウェア処理に利用される。例えば、学習データは通信装置34や入力装置35を介して記憶装置33に入力される。表示装置36は、プロセッサ31によるソフトウェア処理に伴って画像やテキストの情報をディスプレイ画面に表示する装置である。
The
上述した本実施形態は、本開示の説明のための例示であり、発明の範囲をそれらの実施形態に限定する趣旨ではない。当業者は、発明の範囲を逸脱することなしに、他の様々な態様の実施が可能である。 The embodiments described above are examples for the purposes of the present disclosure and are not intended to limit the scope of the invention to those embodiments. One of ordinary skill in the art can implement various other embodiments without departing from the scope of the invention.
上述した実施形態では、物体検出装置10は、図3にも示した通り、空間90の奥行によって近赤外線画像か可視光画像のいずれかを利用画像として選択するものであった。しかし、変形例として、空間90の奥行ではなく、物体までの距離によって近赤外線画像か可視光画像のいずれかを利用画像として選択することにしてもよい。そして、その際、空間90内に複数の物体が存在する場合、近赤外線画像と可視光画像のいずれを利用画像とするかを物体毎あるいは空間90内の領域毎に選択してもよい。
In the above-described embodiment, as shown in FIG. 3, the
以下、変形例について説明する。変形例における物体検出システムおよび物体検出装置の構成は基本的に図1、図2にも示した本実施形態のものと同様である。 Hereinafter, a modified example will be described. The configurations of the object detection system and the object detection device in the modified example are basically the same as those of the present embodiment shown in FIGS. 1 and 2.
図9は、変形例における判定部13および検出処理部14による一連の処理を示すフローチャートである。まず、判定部13は、ステップ501にて、空間90に存在する物体までの距離を算出する。物体までの距離を算出する手法は特に限定されないが、本実施形態では、距離画像に基づいて物体までの距離を算出する。例えば、距離画像における、予め設定された奥行きよりも近い距離にある領域を物体とし、その距離(画素値)を物体までの距離としてもよい。物体は1つだけとは限らず、複数の物体があればそれぞれの物体までの距離を算出し、以下の処理をそれぞれの物体に対して実行してもよい。また、ここでいう距離は、必ずしも水平方向の距離を意味するものではなく、例えば垂直方向など他の方向の距離であってもよい。
FIG. 9 is a flowchart showing a series of processes by the
次に、判定部13は、ステップ502にて、物体までの距離が所定の閾値を超える値であるか否か判定する。
Next, in
ステップ502の判定で物体までの距離が閾値を超える値であれば、判定部13は、ステップ503にて、近赤外線画像を利用画像として決定する。続いて、検出処理部14は、ステップ504にて、ルールベース物体検出処理を実行することにより、空間90内の対象物体を検出する。ルールベース物体検出処理上述したものと同様である。
If the distance to the object exceeds the threshold value in the determination in
一方、ステップ502の判定で物体までの距離が閾値以下であれば、判定部13は、ステップ505にて、可視光画像を利用画像として決定する。続いて、検出処理部14は、ステップ506にて、学習ベース物体検出処理を実行することにより、空間90内の対象物体を検出する。学習ベース物体検出処理は上述したものと同様である。
On the other hand, if the distance to the object is equal to or less than the threshold value in the determination in
ステップ504の後またはステップ506の後、ユーザインタフェース部15は、ステップ507にて、検出処理部14による検出結果をモニタ83の画面に表示することにより、ユーザに提示する。
After
以上説明したように、本実施形態による物体検出装置10は、第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置(TOFセンサ81)により所定の空間90を撮影した第1画像を取得する第1画像取得部(近赤外線画像取得部11)と、第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置(可視光カメラ82)により空間90を撮影した第2画像を取得する第2画像取得部(可視光画像取得部12)と、第1画像と第2画像から物体検出に用いる利用画像を決定する判定部13と、利用画像に含まれる検出対象である所定の対象物体を検出する検出処理部14と、を有する。これにより、性質の異なる第1画像と第2画像から利用画像を決定し、その利用画像から物体を検出するので、多様な環境における物体の良好な検出が可能になる。
As described above, the
また、本実施形態では、物体検出装置10において、判定部13は、空間90の奥行または空間90にある物体までの距離を取得し、その奥行または距離に基づいて利用画像を決定する。これにより、検出対象の物体が置かれる環境に応じて第1画像または第2画像を利用するので、環境に適した画像により、物体の良好な検出が可能となる。
Further, in the present embodiment, in the
また、本実施形態では、第1画像は所定の第1波長帯による画像であり、第2画像は、第1波長帯よりも短波長である第2波長帯による画像であり、判定部13は、空間90の奥行が所定の閾値以下であれば第1画像を選択し、空間90の奥行が閾値より大きければ第2画像を選択する。これにより、検出対象の物体が比較的近距離の位置に置かれる環境では比較的長波長の第1画像を用い、検出対象の物体が比較的遠距離の位置に置かれる可能性のある環境では比較的短波長の第2画像を用いるので、距離に応じて好適な波長帯の光による画像により、物体の良好な検出が可能となる。
Further, in the present embodiment, the first image is an image in a predetermined first wavelength band, the second image is an image in a second wavelength band having a shorter wavelength than the first wavelength band, and the
あるいは、本実施形態において、第1画像は所定の第1波長帯による画像であり、第2画像は、第1波長帯よりも短波長である第2波長帯による画像であり、判定部13は、物体までの距離が所定の閾値以下であれば第1画像を選択し、物体までの距離が閾値より大きければ第2画像を選択することにしてもよい。これにより、物体が比較的近距離の位置にある状況では比較的長波長の第1画像を用い、物体が比較的遠距離の位置にある状況では比較的短波長の第2画像を用いるので、状況応じた好適な波長帯の光による画像により、物体の良好な検出が可能となる。
Alternatively, in the present embodiment, the first image is an image in a predetermined first wavelength band, the second image is an image in a second wavelength band having a shorter wavelength than the first wavelength band, and the
また、本実施形態の物体検出装置10では、検出処理部14は、第1画像が選択されたら、第1画像からルールベースで対象物体を検出し、第2画像が選択されたら、第2画像から学習ベースで対象物体を検出する。これにより、長波長で撮影した画像による比較的近距離にある物体の検出については比較的簡易的なルールベースにより物体の検出を行い、短波長で撮影した画像による比較的遠距離にある物体の検出については比較的緻密な学習ベースにより物体の検出を行うので、画像の種類に応じて所望の精度で物体を検出できる。
Further, in the
また、本実施形態の物体検出装置10では、第1画像は、時系列に連なる複数の画像であり、検出処理部14は、第1画像における所定の初期画像からエッジを検出し、エッジに基づく領域分割により、初期画像から対象物体の領域を特定し、初期画像の後に連なる後続画像において、対象物体の領域の動きベクトルを算出する。
Further, in the
また、検出処理部14は、エッジに基づく領域分割により生じた領域から、対象物体が有する特徴量を有する領域を抽出し、対象物体が有しない特徴量を有する領域を除外することにより、対象物体の領域を特定する。これにより、対象物体が有する特徴量を有する領域を残し、対象物体が有しない特徴量を有する領域を除外するように、領域を絞り込むので、対象物体の領域を良好に特定することができる。
Further, the
また、本実施形態の物体検出装置10では、第1画像が近赤外線による画像であり、第2画像が可視光による画像である。画像データが比較的少なく十分な学習データを収集するのが比較的困難な近赤外線画像についてはルールベースで物体の検出を行い、画像データが比較的豊富で学習データを比較的容易に収集できる可視光画像については学習ベースにより物体の検出を行うので、画像の種類に応じた好適な手法により、所望の精度で良好に物体の検出を行うことが可能となる。
Further, in the
あるいは、本実施形態の物体検出装置10では、第1画像が遠赤外線による温度分布画像であり、第2画像が可視光による画像であるとしてもよい。この場合も、画像データが比較的少なく十分な学習データを収集するのが比較的困難な遠赤外線による温度分布画像についてはルールベースで物体の検出を行い、画像データが比較的豊富で学習データを比較的容易に収集できる可視光画像については学習ベースにより物体の検出を行うので、画像の種類に応じた好適な手法により、所望の精度で良好に物体の検出を行うことが可能となる。
Alternatively, in the
また、本実施形態の物体検出装置10では、利用画像が第1撮像装置により撮影された画像か第2撮像装置により撮影された画像かを示す画像属性情報と、第1撮像装置および第2撮像装置が設置された場所を示す観測場所情報と、利用画像とを画面に表示するユーザインタフェース部を更に有する。
Further, in the
また、本実施形態の物体検出装置10では、第1撮像装置は、第1波長帯の光源を備え光源からの光が物体から反射した光を検出することにより第1画像を撮影するものであり、光源からの光が物体で反射して戻るまでの時間に基づいて画素毎の物体までの距離を表す距離画像を更に撮影し、第1画像取得部は、距離画像を更に取得し、判定部13は、距離画像に基づいて、第1画像と第2画像から利用画像を決定する。距離画像に基づいて利用画像を決定するので、多様な距離の物体の良好な検出が可能になる。
Further, in the
10…物体検出装置、11…近赤外線画像取得部、12…可視光画像取得部、13…判定部、14…検出処理部、15…ユーザインタフェース部、31…プロセッサ、32…メインメモリ、33…記憶装置、34…通信装置、35…入力装置、36…表示装置、37…バス、81…TOFセンサ、82…可視光カメラ、83…モニタ、84…パーソナルコンピュータ、85…監視場所、86…利用画像、87…異常検知レベル、88…物体検出精度、89…物体検出精度、90…空間、91、92…人物、93…ユーザ 10 ... Object detection device, 11 ... Near infrared image acquisition unit, 12 ... Visible light image acquisition unit, 13 ... Judgment unit, 14 ... Detection processing unit, 15 ... User interface unit, 31 ... Processor, 32 ... Main memory, 33 ... Storage device, 34 ... communication device, 35 ... input device, 36 ... display device, 37 ... bus, 81 ... TOF sensor, 82 ... visible light camera, 83 ... monitor, 84 ... personal computer, 85 ... monitoring location, 86 ... use Image, 87 ... Abnormality detection level, 88 ... Object detection accuracy, 89 ... Object detection accuracy, 90 ... Space, 91, 92 ... Person, 93 ... User
Claims (13)
前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得する第2画像取得部と、
前記第1画像と前記第2画像から物体検出に用いる利用画像を決定する判定部と、
前記利用画像に含まれる検出対象である所定の対象物体を検出する検出処理部と、
を有する物体検出装置。 A first image acquisition unit that acquires a first image captured in a predetermined space by a first image pickup device that captures an image by detecting light from an object in a predetermined first wavelength band.
A second image acquisition unit that acquires a second image of the space taken by a second image pickup device that captures an image by detecting light from an object in a second wavelength band different from the first wavelength band.
A determination unit that determines a usage image to be used for object detection from the first image and the second image,
A detection processing unit that detects a predetermined target object included in the image to be detected, and a detection processing unit.
Object detection device with.
請求項1に記載の物体検出装置。 The determination unit acquires the depth of the space or the distance to the object in the space, and determines the image to be used based on the depth or the distance.
The object detection device according to claim 1.
前記判定部は、前記空間の奥行が所定の閾値以下であれば前記第1画像を選択し、前記空間の奥行が前記閾値より大きければ前記第2画像を選択する、
請求項2に記載の物体検出装置。 The first image is an image in a predetermined first wavelength band, and the second image is an image in a second wavelength band having a shorter wavelength than the first wavelength band.
The determination unit selects the first image if the depth of the space is equal to or less than a predetermined threshold value, and selects the second image if the depth of the space is larger than the threshold value.
The object detection device according to claim 2.
前記判定部は、前記物体までの距離が所定の閾値以下であれば前記第1画像を選択し、前記物体までの距離が前記閾値より大きければ前記第2画像を選択する、
請求項2に記載の物体検出装置。 The first image is an image in a predetermined first wavelength band, and the second image is an image in a second wavelength band having a shorter wavelength than the first wavelength band.
The determination unit selects the first image if the distance to the object is equal to or less than a predetermined threshold value, and selects the second image if the distance to the object is larger than the threshold value.
The object detection device according to claim 2.
請求項3または4に記載の物体検出装置。 When the first image is selected, the detection processing unit detects the target object from the first image on a rule basis, and when the second image is selected, the target object is learned from the second image. To detect,
The object detection device according to claim 3 or 4.
前記検出処理部は、
前記第1画像における所定の初期画像からエッジを検出し、前記エッジに基づく領域分割により、前記初期画像から対象物体の領域を特定し、
前記初期画像の後に連なる後続画像において、前記対象物体の領域の動きベクトルを算出する、
請求項5に記載の物体検出装置。 The first image is a plurality of images connected in chronological order, and is a plurality of images.
The detection processing unit
An edge is detected from a predetermined initial image in the first image, and a region of a target object is specified from the initial image by region division based on the edge.
In the subsequent images following the initial image, the motion vector of the region of the target object is calculated.
The object detection device according to claim 5.
請求項6に記載の物体検出装置。 The detection processing unit extracts a region having a feature amount possessed by the target object from a region generated by the region division based on the edge, and excludes a region having a feature amount not possessed by the target object. Identify the area of the target object,
The object detection device according to claim 6.
請求項5に記載の物体検出装置。 The first image is an image by near infrared rays, and the second image is an image by visible light.
The object detection device according to claim 5.
請求項5に記載の物体検出装置。 The first image is a temperature distribution image by far infrared rays, and the second image is an image by visible light.
The object detection device according to claim 5.
請求項1に記載の物体検出装置。 Image attribute information indicating whether the image to be used is an image taken by the first image pickup device or an image taken by the second image pickup device, and a place where the first image pickup device and the second image pickup device are installed. It further has a user interface unit that displays the observation location information to be shown and the used image on the screen.
The object detection device according to claim 1.
前記第1画像取得部は、前記距離画像を更に取得し、
前記判定部は、前記距離画像に基づいて、前記第1画像と前記第2画像から前記利用画像を決定する、
請求項1に記載の物体検出装置。 The first image pickup apparatus includes a light source in the first wavelength band, and captures the first image by detecting the light reflected from the object by the light from the light source, and the light from the light source is the light from the light source. Further, a distance image showing the distance to the object for each pixel is taken based on the time until the object reflects and returns.
The first image acquisition unit further acquires the distance image and obtains the distance image.
The determination unit determines the image to be used from the first image and the second image based on the distance image.
The object detection device according to claim 1.
前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置と、
前記第1撮像装置により所定の空間を撮影した第1画像を取得し、前記第2撮像装置により前記空間を撮影した第2画像を取得し、前記第1画像と前記第2画像から物体検出に用いる利用画像を決定し、前記利用画像に含まれる検出対象である所定の対象物体を検出する物体検出装置と、
を有する物体検出システム。 A first image pickup device that captures an image by detecting light from an object in a predetermined first wavelength band.
A second imaging device that captures an image by detecting light from an object in a second wavelength band different from the first wavelength band.
The first image of a predetermined space is acquired by the first image pickup device, the second image of the space is captured by the second image pickup device, and the object is detected from the first image and the second image. An object detection device that determines a usage image to be used and detects a predetermined target object included in the usage image.
Object detection system with.
所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置により所定の空間を撮影した第1画像を取得し、
前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得し、
前記第1画像と前記第2画像から物体検出に用いる利用画像を決定し、
前記利用画像に含まれる検出対象である所定の対象物体を検出する、
ことを実行する物体検出方法。 The computer
An image is taken by detecting light from an object in a predetermined first wavelength band. A first image in which a predetermined space is photographed is acquired by a first image pickup device.
A second image of the space is acquired by a second image pickup device that captures an image by detecting light from an object in a second wavelength band different from the first wavelength band.
The image to be used for object detection is determined from the first image and the second image, and the image to be used is determined.
Detects a predetermined target object included in the used image, which is a detection target.
An object detection method that does that.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020125153A JP7549478B2 (en) | 2020-07-22 | 2020-07-22 | OBJECT DETECTION DEVICE, SYSTEM, AND METHOD |
PCT/JP2021/009387 WO2022018902A1 (en) | 2020-07-22 | 2021-03-09 | Object detection apparatus, system, and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020125153A JP7549478B2 (en) | 2020-07-22 | 2020-07-22 | OBJECT DETECTION DEVICE, SYSTEM, AND METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022021535A true JP2022021535A (en) | 2022-02-03 |
JP7549478B2 JP7549478B2 (en) | 2024-09-11 |
Family
ID=79729383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020125153A Active JP7549478B2 (en) | 2020-07-22 | 2020-07-22 | OBJECT DETECTION DEVICE, SYSTEM, AND METHOD |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7549478B2 (en) |
WO (1) | WO2022018902A1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003162795A (en) | 2001-11-22 | 2003-06-06 | Nec Corp | Sensor selecting method using weather data and road traffic monitoring system using the same |
JP4872245B2 (en) | 2005-06-06 | 2012-02-08 | トヨタ自動車株式会社 | Pedestrian recognition device |
JP7094814B2 (en) | 2018-07-18 | 2022-07-04 | 株式会社日立製作所 | Detection system and detection method |
-
2020
- 2020-07-22 JP JP2020125153A patent/JP7549478B2/en active Active
-
2021
- 2021-03-09 WO PCT/JP2021/009387 patent/WO2022018902A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022018902A1 (en) | 2022-01-27 |
JP7549478B2 (en) | 2024-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11710075B2 (en) | Hazard recognition | |
JP6125188B2 (en) | Video processing method and apparatus | |
JP6534499B1 (en) | MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD | |
JP6428266B2 (en) | COLOR CORRECTION DEVICE, COLOR CORRECTION METHOD, AND COLOR CORRECTION PROGRAM | |
JP6554169B2 (en) | Object recognition device and object recognition system | |
RU2607774C2 (en) | Control method in image capture system, control apparatus and computer-readable storage medium | |
US9875408B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
JP4689518B2 (en) | Fire detection equipment | |
KR102199094B1 (en) | Method and Apparatus for Learning Region of Interest for Detecting Object of Interest | |
JP4999794B2 (en) | Still region detection method and apparatus, program and recording medium | |
JP7210890B2 (en) | Behavior recognition device, behavior recognition method, its program, and computer-readable recording medium recording the program | |
JP7266599B2 (en) | Devices, systems and methods for sensing patient body movement | |
JP2019029747A (en) | Image monitoring system | |
JP7074174B2 (en) | Discriminator learning device, discriminator learning method and computer program | |
KR101290517B1 (en) | Photographing apparatus for tracking object and method thereof | |
KR101640527B1 (en) | Method and Apparatus for Monitoring Video for Estimating Size of Single Object | |
WO2022018902A1 (en) | Object detection apparatus, system, and method | |
JP2009301242A (en) | Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program | |
JP6893812B2 (en) | Object detector | |
CN110853127A (en) | Image processing method, device and equipment | |
JP6369058B2 (en) | Image processing device | |
Tupper et al. | Pedestrian proximity detection using RGB-D data | |
JP6124739B2 (en) | Image sensor | |
JP2011237884A (en) | Object detection size calculation system and object detection size calculation program | |
JP6780639B2 (en) | Image analysis device, image analysis method, and image analysis program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7549478 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |