JP6898587B2 - Object tracking methods, object tracking programs, and object tracking systems - Google Patents
Object tracking methods, object tracking programs, and object tracking systems Download PDFInfo
- Publication number
- JP6898587B2 JP6898587B2 JP2017116144A JP2017116144A JP6898587B2 JP 6898587 B2 JP6898587 B2 JP 6898587B2 JP 2017116144 A JP2017116144 A JP 2017116144A JP 2017116144 A JP2017116144 A JP 2017116144A JP 6898587 B2 JP6898587 B2 JP 6898587B2
- Authority
- JP
- Japan
- Prior art keywords
- unrecognized
- moving
- class
- candidate
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、物体追跡方法、物体追跡プログラム、および物体追跡システムに関する。 The present invention relates to object tracking methods, object tracking programs, and object tracking systems.
物体追跡は、時系列に並んだ複数の画像(フレーム)内から、それら複数の画像内で移動する物体を識別して追跡する技術である。 Object tracking is a technique for identifying and tracking an object moving in a plurality of images (frames) arranged in a time series.
従来の物体追跡技術としては、たとえば、先行車を検出する技術がある。この技術では、ミリ波レーダにより検出された計測点のうち、互いに近接し、かつ同じ相対速度を有する計測点どうしをグルーピングして計測点グループを生成する。生成された計測点グループのうち、先行車両の条件を満たす計測点グループを抽出し、時間の経過に応じて所定回数以上抽出された計測点グループを先行車両として検出している(特許文献1)。 As a conventional object tracking technology, for example, there is a technology for detecting a preceding vehicle. In this technique, among the measurement points detected by the millimeter-wave radar, the measurement points that are close to each other and have the same relative velocity are grouped to generate a measurement point group. From the generated measurement point groups, the measurement point groups that satisfy the conditions of the preceding vehicle are extracted, and the measurement point groups extracted more than a predetermined number of times according to the passage of time are detected as the preceding vehicle (Patent Document 1). ..
しかしながら、従来技術では、現在時点で検出された計測点が、先行車として認識された測定点グループの測定点と同じであるか否かを判断する段階では、すべての測定点グループと、現在時点における計測点との関連度を調べている。このため、過去の時間経過で認識された先行車(物体)と現在の測定点との対応関係を計算する際の負荷が大きい。 However, in the prior art, at the stage of determining whether or not the measurement point detected at the present time is the same as the measurement point of the measurement point group recognized as the preceding vehicle, all the measurement point groups and the current time point are determined. We are investigating the degree of relevance to the measurement points in. Therefore, the load of calculating the correspondence between the preceding vehicle (object) recognized in the past time and the current measurement point is large.
そこで、本発明の目的は、物体追跡の計算負荷を軽減できる物体追跡方法を提供することである。また、本発明の他の目的は、物体追跡の計算負荷を軽減できる物体追跡プログラムを提供することである。さらに、本発明の他の目的は、物体追跡の計算負荷を軽減できる物体追跡システムを提供することである。 Therefore, an object of the present invention is to provide an object tracking method capable of reducing the computational load of object tracking. Another object of the present invention is to provide an object tracking program that can reduce the computational load of object tracking. Furthermore, another object of the present invention is to provide an object tracking system capable of reducing the computational load of object tracking.
上記の目的は、以下の手段により達成される。 The above objectives are achieved by the following means.
(1)時系列に沿って複数のフレームが並んでいる動画の中で検出された物体であって、検出されてからの経過時間が、あらかじめ決められた所定時間以上継続している物体を第1種物体と分類し、前記所定時間未満の物体を第2種物体と分類しておく段階(a)と、
現在フレームで検出した物体を未認識物体として、当該未認識物体と前記第1種物体との対応を調べる段階(b)と、
前記段階(b)において、前記未認識物体と前記第1種物体とが対応していると判断された場合は前記未認識物体と前記第1種物体とを対応付けする段階(c)と、
前記段階(b)において、前記未認識物体と前記第1種物体が対応していないと判断された場合は、前記未認識物体と前記第2種物体との対応を調べる段階(d)と、
前記段階(d)において、前記未認識物体と前記第2種物体とが対応していると判断された場合は前記未認識物体と前記第2種物体とを対応付けする段階(e)と、
を有する、物体追跡方法。
(1) An object that is detected in a moving image in which a plurality of frames are arranged in chronological order and whose elapsed time since the detection continues for a predetermined time or longer is the first. The step (a) of classifying an object as a first-class object and classifying an object less than a predetermined time as a second-class object.
The step (b) of investigating the correspondence between the unrecognized object and the first-class object, using the object detected in the current frame as an unrecognized object,
In the step (b), when it is determined that the unrecognized object and the first-class object correspond to each other, the step (c) of associating the unrecognized object with the first-class object is determined.
When it is determined in the step (b) that the unrecognized object and the first-class object do not correspond to each other, the step (d) of examining the correspondence between the unrecognized object and the second-class object is performed.
In the step (d), when it is determined that the unrecognized object and the second-class object correspond to each other, the step (e) of associating the unrecognized object with the second-class object is performed.
An object tracking method that has.
(2)前記段階(e)において、前記未認識物体と対応付けた前記第2種物体が、物体として検出されてからの経過時間が前記所定時間以上経過していれば前記第2種物体を前記第1種物体に分類する段階(e1)を有する、上記(1)記載の物体追跡方法。 (2) In the step (e), if the elapsed time from the detection of the second-class object associated with the unrecognized object as an object has passed the predetermined time or more, the second-class object is used. The object tracking method according to (1) above, which comprises the step (e1) of classifying the object into the first type object.
(3)前記段階(a)において、前記第2種物体は、物体として検出されてからの経過時間と関連付けておき、
前記段階(d)において、前記第2種物体は、物体として検出されてからの経過時間が長い方から順に前記未認識物体との対応を調べる、上記(1)または(2)に記載の物体追跡方法。
(3) In the step (a), the
The object according to (1) or (2) above, wherein in the step (d), the second-class object examines the correspondence with the unrecognized object in order from the one having the longest elapsed time since it was detected as an object. Tracking method.
(4)前記段階(a)において、前記第1種物体は、物体として検出されてからの経過時間と関連付けておき、
前記段階(b)において、前記第1種物体は、物体として検出されてからの経過時間が長い方から順に前記未認識物体との対応を調べる、上記(1)〜(3)のいずれか1つに記載の物体追跡方法。
(4) In the step (a), the first-class object is associated with the elapsed time since it was detected as an object.
In the step (b), any one of the above (1) to (3), wherein the first-class object examines the correspondence with the unrecognized object in order from the one having the longest elapsed time since it was detected as an object. The object tracking method described in 1.
(5)前記段階(a)において、前記段階(b)で前記未認識物体と対応していない前記第1種物体を第3種物体として分類しておき、
前記段階(d)において、前記未認識物体と前記第2種物体とが対応していないと判断された場合は前記未認識物体と前記第3種物体との対応を調べる段階(f)と、
前記段階(f)において、前記未認識物体と前記第3種物体とが対応していると判断された場合は前記未認識物体と前記第3種物体とを対応付けして、前記第3種物体を前記第1種物体に分類し直す段階(g)と、
前記段階(f)において、前記未認識物体と前記第3種物体とが対応していないと判断された場合は前記未認識物体を前記第2種物体に分類する段階(h)と、
を有する、上記(1)〜(4)のいずれか1つに記載の物体追跡方法。
(5) In the step (a), the first-class object that does not correspond to the unrecognized object in the step (b) is classified as a third-class object.
In the step (d), when it is determined that the unrecognized object and the second-class object do not correspond to each other, the step (f) of examining the correspondence between the unrecognized object and the third-class object is performed.
In the step (f), when it is determined that the unrecognized object and the third-class object correspond to each other, the unrecognized object and the third-class object are associated with each other, and the third-class object is associated with the third-class object. At the stage (g) of reclassifying an object into the first-class object,
In the step (f), when it is determined that the unrecognized object and the third-class object do not correspond to each other, the unrecognized object is classified into the second-class object (h).
The object tracking method according to any one of (1) to (4) above.
(6)前記段階(d)において、前記未認識物体がいずれの前記第2種物体とも対応していないと判断された場合は前記未認識物体を前記第2種物体に分類する段階(d1)、を有する、上記(1)〜(4)のいずれか1つに記載の物体追跡方法。 (6) In the step (d), if it is determined that the unrecognized object does not correspond to any of the second-class objects, the unrecognized object is classified into the second-class object (d1). The object tracking method according to any one of (1) to (4) above.
(7)前記所定時間は、0.2秒以上1秒未満である、上記(1)〜(6)のいずれか1つに記載の物体追跡方法。 (7) The object tracking method according to any one of (1) to (6) above, wherein the predetermined time is 0.2 seconds or more and less than 1 second.
(8)前記時間は前記フレームを単位としてカウントする、上記(1)〜(7)のいずれか1つに記載の物体追跡方法。 (8) The object tracking method according to any one of (1) to (7) above, wherein the time is counted in units of the frame.
(9)前記第1種物体を、動体であることを表す情報とともに表示する段階(i)を有する、上記(1)〜(8)のいずれか1つに記載の物体追跡方法。 (9) The object tracking method according to any one of (1) to (8) above, which has a step (i) of displaying the first-class object together with information indicating that it is a moving object.
(10)上記(1)〜(9)のいずれか1つに記載の物体追跡方法をコンピューターに実行させるための物体追跡プログラム。 (10) An object tracking program for causing a computer to execute the object tracking method according to any one of (1) to (9) above.
(11)時系列に沿ってフレームを取得する画像取得センサーと、
上記(10)に記載のプログラムを実行するコンピューターと、
を有する、物体追跡システム。
(11) An image acquisition sensor that acquires frames in chronological order,
A computer that executes the program described in (10) above,
Has an object tracking system.
本発明によれば、前フレームまでで所定時間以上に継続して検出されている第1種物体から先に未認識物体と対応するかを調べ、第1種物体と対応した場合は、その未認識物体を第1種物体と対応付けし、対応しない場合にだけ、検出されてからの経過時間が第1種物体より短い第2種物体との対応を調べることとした。これにより第1種物体と未認識物体が対応付けされたなら、第2種物体については調べなくても済む。このため、その分、計算負荷を減らすことができる。 According to the present invention, it is investigated whether or not the first-class object that has been continuously detected up to the previous frame for a predetermined time or longer corresponds to the unrecognized object, and if it corresponds to the first-class object, it is not yet. It was decided to associate the perceptible object with the first-class object and investigate the correspondence with the second-class object whose elapsed time from detection is shorter than that of the first-class object only when it does not correspond. As a result, if the first-class object and the unrecognized object are associated with each other, it is not necessary to investigate the second-class object. Therefore, the calculation load can be reduced accordingly.
以下、添付した図面を参照しながら、本発明の実施形態を説明する。本発明は、以下の実施形態に限定されない。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。また、以下の説明において、時系列に並んだフレームで、現在のフレームを現在フレームと称し、現在フレームより過去のフレームを過去フレームと称し、中でも現在フレームの1つ前のフレームを前フレームと称する。 Hereinafter, embodiments of the present invention will be described with reference to the attached drawings. The present invention is not limited to the following embodiments. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios. Further, in the following description, among the frames arranged in chronological order, the current frame is referred to as the current frame, the frame past the current frame is referred to as the past frame, and the frame immediately before the current frame is referred to as the previous frame. ..
(物体追跡システム)
図1は物体追跡システムの全体構成を説明するための説明図である。図2は物体追跡装置の構成を説明するためのブロック図である。
(Object tracking system)
FIG. 1 is an explanatory diagram for explaining the overall configuration of the object tracking system. FIG. 2 is a block diagram for explaining the configuration of the object tracking device.
物体追跡システムは、時系列に並んだフレームを取得するレーザーレーダー101と、時系列に並んだフレームの中にある動体を時系列に沿って追跡する物体追跡装置102を有する。時系列に並んだフレームが時系列に再生(表示)されることで動画となる。
The object tracking system includes a
レーザーレーダー101は画像取得センサーである。このレーザーレーダー101の詳細は後述するが、レーザーを走査してその反射光から物体までの距離をリアルタイム計測する。このため、レーザーレーダー101の設置位置から未認識物体までの距離および大きさ(高さや幅など)が得られる。またこれにより距離画像といわれる画像を得ることができる。この距離画像を1走査1フレームとして時系列に沿って並べる(つまり連続して表示する)ことで動画となる。レーザーレーダー101からの距離画像(フレーム)は物体追跡装置102に送信される。
The
物体追跡装置102は、コンピューターであり、一般的なパソコンでもよいし、専用のコンピューターでもよい。物体追跡装置102の構成は、図2に示すように、CPU(Central Processing Unit)11、RAM(Random access memory)12、ROM(Read Only Memory)13、HDD(Hard Disk Drive)14を備える。
The
RAM12は、CPU11がワークエリアとして使用する記憶部であり、たとえば処理に必要なプログラムやデータを一時記憶する。
The
ROM13は、物体追跡装置102の起動やコンピューターとしての基本動作に必要な基本プログラムを記憶している。
The
CPU11は処理内容に応じたプログラムをHDD14から読み出してRAM12に展開し、展開したプログラムを実行する。ここでは主に、レーザーレーダー101から得られるフレームをもとに動画を構成し、動画内の物体追跡を行う。
The
HDD14は各処理に必要なプログラムや、データを記憶している。HDDに代えて不揮発性の半導体メモリ(たとえばフラッシュメモリ)でもよい。
The
また、物体追跡装置102は、マウスやキーボードなどの入力装置15、画像(動画)を表示するディスプレイ16、さらに外部機器を接続するためのネットワークインターフェース17を備える。
Further, the
ネットワークインターフェース17は、たとえば、イーサネット(登録商標)などであり、レーザーレーダー101との通信に使用される。また、ネットワークインターフェース17は、LAN(Local Area Network)などとも接続され、サーバー(後述)との通信にも使用される。
The
物体追跡装置102は、このようなコンピューターが後述する物体追跡方法の処理手順を実行することで達成されている。なお、物体追跡装置102はレーザーレーダー101からの計測値だけを取得して、距離画像およびその動画を構成するようにしてもよい。
The
物体追跡装置102は、また、たとえばサーバー103がネットワークにより接続されている。サーバー103は、時系列に並んだフレームからなる動画を物体追跡装置102から受け取って記憶する。また、サーバー103はその他の動画を記憶していて、物体追跡装置102からの読み出しに応じて提供する。その他の動画は、レーザーレーダー101によって取得した動画に限らず、通常のムービーカメラの動画などを含む。
The
(物体追跡方法)
本実施形態の物体追跡方法について説明する。
(Object tracking method)
The object tracking method of the present embodiment will be described.
本実施形態では、物体追跡のために、レーザーレーダー101が取得したフレーム内の、背景や静止物以外の物体について以下のように分類する。
In the present embodiment, for object tracking, objects other than backgrounds and stationary objects in the frame acquired by the
(1)「動体」(第1種物体):あらかじめ決められた第1所定時間以上連続して認識された物体。
(1) "Moving body" (
(2)「第1動体候補」(第2種物体):第2所定時間以上、第1所定時間未満連続して認識された物体。
(2) "First moving object candidate" (
(3)「第2動体候補」(第2種物体):第3所定時間以上、第2所定時間未満連続して認識された物体。
(3) "Second moving object candidate" (
(4)「未認識物体」:現在フレーム(現在時点)で検出された物体。 (4) "Unrecognized object": An object detected in the current frame (current time).
各所定時間の長さは、第1所定時間>第2所定時間>第3所定時間である。 The length of each predetermined time is 1st predetermined time> 2nd predetermined time> 3rd predetermined time.
時間の計測は、物体追跡装置102を構成するコンピューターのシステムクロックをカウントすることで可能である。第1所定時間は、たとえば、0.2秒以上1秒未満とすることが好ましく、0.3秒以上0.5秒未満とすることがより好ましい。このような時間とすることで、ごく短時間の間現れて消えてしまうノイズや、風で揺れている草花や木々を動体と認識しないようにできる。もちろん、第1所定時間とする時間は任意であり、たとえば、センサーによる計測範囲の広さや奥行き、監視対象などに合わせて設定すればよい。
The time can be measured by counting the system clock of the computer constituting the
ここで、レーザーレーダー101が取得する距離画像、すなわちフレームは、たとえば、1秒あたり10フレームなどである。この場合、1フレームの時間は1/10秒となる。そこで、本実施形態では、直接システムクロックをカウントする代わりに、フレーム単位で時間をカウントすることとした。つまり、時間の代わりにフレームの数をカウントするのである。
Here, the distance image acquired by the
そこで、所定時間についてもフレーム単位で再定義すると以下のとおりである。なお、ここでは、1秒あたり10フレームの場合である。 Therefore, the predetermined time is also redefined in frame units as follows. Here, the case is 10 frames per second.
(1)「動体」:過去フレームの内、直前の3フレーム以上で連続して認識された物体。 (1) "Moving object": An object that has been continuously recognized in the immediately preceding 3 frames or more of the past frames.
(2)「第1動体候補」:過去フレームの内、直前の2フレームで連続して認識された物体。 (2) "First moving object candidate": An object that is continuously recognized in the immediately preceding two frames of the past frames.
(3)「第2動体候補」:過去フレームの内、直前の1フレームのみで認識された物体。 (3) "Second moving object candidate": An object recognized only in the immediately preceding frame among the past frames.
(4)「未認識物体」:現在フレームで検出された物体。 (4) "Unrecognized object": An object currently detected in the frame.
以上により定義された動体、第1動体候補、および第2動体候補は、それぞれリストにして分類し、RAM12に記憶しておく。RAM以外の記憶装置であってもよいが、少なくとも物体追跡の処理が可能となるように、高速で読み書き可能な記憶装置であることが好ましい。
The moving body, the first moving body candidate, and the second moving body candidate defined as described above are classified as a list and stored in the
なお、本発明はこのようなフレーム数や時間に限定されるものではない。1秒あたりのフレーム数が変われば、1フレームの時間も変わることになる。たとえば、監視カメラなどで使用されている1秒当たり5フレームでは、1フレーム1/5秒となる。逆に1秒あたり30フレームの動画では1/30秒となる。 The present invention is not limited to such a number of frames and time. If the number of frames per second changes, the time of one frame also changes. For example, in the case of 5 frames per second used in surveillance cameras and the like, 1 frame is 1/5 second. On the contrary, it is 1/30 second for a moving image of 30 frames per second.
図3は物体を分類したリストの一例を示すリスト図である。 FIG. 3 is a list diagram showing an example of a list in which objects are classified.
図3に示すように、動体、第1動体候補、および第2動体候補がそれぞれリストとして分類される。つまり動体は動体リスト(3フレーム以上継続)、第1動体候補は第1動体候補リスト(2フレーム継続)、第2動体候補は第2動体候補リスト(1フレームのみ)に分類される。 As shown in FIG. 3, the moving body, the first moving body candidate, and the second moving body candidate are classified as a list. That is, the moving body is classified into a moving body list (3 frames or more continuous), the 1st moving body candidate is classified into the 1st moving body candidate list (2 frames continuous), and the 2nd moving body candidate is classified into the 2nd moving body candidate list (only 1 frame).
さらに本実施形態では、ロスト動体リストを設けている。ロスト動体リストは、一時的に動体が見えなくなった場合に備えるリストである。つまり、動体は、センサーの計測範囲であるフレーム内から去って消える場合もあるが、フレーム内において一時的に見えなくなる場合もある。一時的に見えなくなる場合とは、たとえば、センサー設置位置から見て、動体が静止物の向こう側に隠れた場合、複数の動体があって1つの動体が他の動体の向こう側に隠れた場合などである。このような場合は、現在フレームにおいて未認識物体が検出されないか、または過去フレームで認識されている動体のいずれとも対応が付かなくなる。そこでロスト動体リストを設け、このような対応が付かない動体をロスト動体(第3種物体)として登録することにした。そして、未認識物体が検出されたときに、動体や動体候補と対応がなければ、このロスト動体リストの中のロスト動体との対応を調べることにより、前にあった動体と同じ物体かどうか対応付けることができる。このロスト動体リストに登録したロスト動体は、システムを停止するまで継続して記憶しておいてもよいが、一定時間経過または所定時間になったら削除してもよい。たとえば、数秒〜数分または数時間経過したら削除したり、毎日0時になったら削除したりなどである。
Further, in the present embodiment, a lost moving body list is provided. The lost moving object list is a list in case the moving object disappears temporarily. That is, the moving object may disappear from the frame, which is the measurement range of the sensor, but may be temporarily invisible in the frame. Temporarily invisible means, for example, when a moving object is hidden behind a stationary object when viewed from the sensor installation position, or when there are multiple moving objects and one moving object is hidden behind another moving object. And so on. In such a case, an unrecognized object is not detected in the current frame, or no correspondence is made with any of the moving objects recognized in the past frame. Therefore, we decided to set up a list of lost moving objects and register moving objects that do not have such a correspondence as lost moving objects (
なお、ロスト動体リストはなくてもよく、その場合は、未認識物体と対応付かない動体は動体リストから削除するだけでよい。その場合でも、動体リストから削除された物体と同じ物体が再び現れた場合には、新規に表れた物体になるが、物体追跡は行われる。 The lost moving object list does not have to be provided. In that case, moving objects that do not correspond to the unrecognized object need only be deleted from the moving object list. Even in that case, if the same object as the object deleted from the moving object list reappears, it will be a newly appearing object, but object tracking will be performed.
これらのリストはRAM12に記憶する。図3では各リストをひとまとめにしているが、これに限らず、たとえば、リストごとに独立して記憶してもよい。
These lists are stored in the
各リストに分類された物体は、たとえば識別番号(ID)を付けて管理する。図3においては、動体をM1、M2、M3、…、動体候補を(第1と第2の区別なく)C1、C2、C3、…、未認識物体をOb1、Ob2、Ob3、…とした。なお、ここでは、説明の便宜上、動体M、動体候補C、未認識物体Obなどと分けて示したが、実際の処理においては、動体、動体候補、未認識物体に付与するIDやタグなどは、これらの区別なく通し番号としたり、時間に基づく番号や符号としたりしてもよく、限定されない。
物体追跡方法の処理手順を説明する。
Objects classified in each list are managed by, for example, assigning an identification number (ID). In FIG. 3, the moving objects are M1, M2, M3, ..., The moving object candidates are C1, C2, C3, ... (No distinction between the first and second), and the unrecognized objects are Ob1, Ob2, Ob3, .... Here, for convenience of explanation, the moving body M, the moving body candidate C, the unrecognized object Ob, etc. are shown separately, but in the actual processing, the moving body, the moving body candidate, the ID and the tag given to the unrecognized object, etc. are shown. , These may be serial numbers without distinction, or may be numbers or codes based on time, and are not limited.
The processing procedure of the object tracking method will be described.
図4〜6は、本実施形態の物体追跡方法の処理手順を説明するためのフローチャートである。 4 to 6 are flowcharts for explaining the processing procedure of the object tracking method of the present embodiment.
この処理手順は物体追跡装置102によって実施される。なお、以下の説明において、未認識物体とは既に定義したとおり、現在フレームにおいて検出され、いずれにも分類されていない物体である。
This processing procedure is carried out by the
まず、レーザーレーダー101から計測データ、すなわち現在フレームを取得する(S1)。このS1では、ここで説明する処理手順によって、過去フレームにおいて認識された動体、第1動体候補、および第2動体候補のリスト化が行われているものとする。 First, the measurement data, that is, the current frame is acquired from the laser radar 101 (S1). In this S1, it is assumed that the moving body, the first moving body candidate, and the second moving body candidate recognized in the past frame are listed by the processing procedure described here.
続いて、取得した現在フレームの中から未認識物体を検出する(S2)。未認識物体の検出は、たとえば、あらかじめ決められた基準となるフレームと現在フレームとの差分を取り、現在フレームにのみ存在する物体を未認識物体とする。基準となるフレームは、たとえば、過去フレームのいずれか(たとえば前フレーム)でもよいし、動体のない背景のみのフレームを用意しておいてもよい(ユーザーが目視で見つけ出し選択した、動体のないフレームなど)。なお、このような基準となるフレームはHDD14に記憶しておいて、動作中はRAM12に展開して、現在フレームとの比較に用いる。
Subsequently, an unrecognized object is detected from the acquired current frame (S2). In the detection of an unrecognized object, for example, the difference between a predetermined reference frame and the current frame is taken, and an object existing only in the current frame is set as an unrecognized object. The reference frame may be, for example, one of the past frames (for example, the previous frame), or a frame with only a background without moving objects may be prepared (a frame without moving objects visually found and selected by the user). Such). It should be noted that such a reference frame is stored in the
このS2においては、複数の未認識物体があればそれらすべてを検出する。検出した未認識物体には、処理に必要となるIDやラベルなどが付与される(たとえば、未認識物体Ob1、Ob2、Ob3、…など)。 In this S2, if there are a plurality of unrecognized objects, all of them are detected. An ID, a label, or the like required for processing is assigned to the detected unrecognized object (for example, unrecognized objects Ob1, Ob2, Ob3, ..., Etc.).
また、このS2では、検出された物体についてクラスタリングすることで、動体となり得る未認識物体か否かを選別してもよい。たとえば、レーザーレーダー101による計測データの中の物体を一定サイズ(画素数)にクラスタリングする。物体が複数あればそれぞれの物体ごとにクラスタリングする。そして、あらかじめ決められたサイズ閾値以上であれば未認識物体とする。サイズ閾値は、監視場所や監視対象などにより任意に決めればよい。たとえば、人を追跡して監視するのであれば、通常の人の大きさの最小値を、クラスタリングする場合のサイズ閾値とすればよい。逆にあらゆる物体を追跡するのであれば、サイズ閾値は小さな値、たとえば1〜数画素程度などとしてもよいし、あるいはサイズ閾値を設けなくてもよい。
Further, in this S2, by clustering the detected objects, it may be selected whether or not they are unrecognized objects that can be moving objects. For example, objects in the measurement data of the
続いて、S2の結果(または後述するステップから戻った後)、未認識物体がなければ(S3:NO)、S40へ進む(図6)、一方、未認識物体があれば(S3:YES)、続いて、未認識物体のうちの1つを選択する(S4)。これはS2で複数の未認識物体が検出された場合に、未認識物体を1つずつ調べるためである。選択する順番は特に限定されず、たとえば、S2で付与したIDの順番としたり、フレーム内に座標系を設定して原点に近い方(座標値の小さな方)から順にするなどである。 Then, as a result of S2 (or after returning from the step described later), if there is no unrecognized object (S3: NO), the process proceeds to S40 (FIG. 6), while if there is an unrecognized object (S3: YES). , Subsequently, one of the unrecognized objects is selected (S4). This is because when a plurality of unrecognized objects are detected in S2, the unrecognized objects are examined one by one. The order of selection is not particularly limited, and for example, the order of the IDs assigned in S2 may be used, or the coordinate system may be set in the frame and the order may be set from the one closest to the origin (the one with the smaller coordinate value).
続いて、動体リストの中に未対応の動体があるか否かを確認する(S5)。未対応の動体は、この処理手順の中で、未認識物体と対応付けがなされていない動体である。ここで、動体リストに未対応の動体がなければ(S5:NO)、S8へ進む。一方、動体リストの中に未対応の動体が存在していれば(S5:YES)、続いて、動体リストの中の未対応の動体(以下単に動体という)とS4で選択した未認識物体との対応を調べる(S6)。 Then, it is confirmed whether or not there is an unsupported moving object in the moving object list (S5). An unsupported moving object is a moving object that is not associated with an unrecognized object in this processing procedure. Here, if there is no unsupported moving object in the moving object list (S5: NO), the process proceeds to S8. On the other hand, if there is an unsupported moving object in the moving object list (S5: YES), then the unsupported moving object in the moving object list (hereinafter simply referred to as the moving object) and the unrecognized object selected in S4. Check the correspondence of (S6).
この動体と未認識物体との対応を調べる処理は、それらの関連度を調べることにより行う。関連度について説明する。 The process of investigating the correspondence between the moving object and the unrecognized object is performed by examining the degree of relevance between them. The degree of relevance will be described.
関連度は、たとえば、距離、移動速度、センサーからの距離、サイズ、画素数、色などを指標として調べることができる。 The degree of relevance can be examined using, for example, distance, moving speed, distance from the sensor, size, number of pixels, color, and the like as indexes.
距離は、画像取得センサーがレーザーレーダー101の場合は、動体のうち前フレームの動体と未認識物体との間の距離の値を関連度とする。前フレームの動体と未認識物体との間の距離は、レーザーレーダー101の場合、計測データから物体の3次元での位置がわかるので、たとえばフレームに3次元座標系を設定して、前フレームの動体の位置および未認識物体の位置がそれぞれ座標値としてわかる。したがってそれらの間の距離は座標値の差分として得られる。ムービーカメラの場合は前フレームの動体と未認識物体とのフレーム内における距離を比較して、その値を関連度とする。ムービーカメラの画像の場合はフレームに2次元座標系を設定して、上記同様に座標値の差分として求めることができる。いずれの場合も距離が近い(値が小さい)ほど関連度が高い。以下の説明においても「位置」は同様に座標値とする。
When the image acquisition sensor is the
移動速度は、動体の移動速度と未認識物体の移動速度とを比較して、その値を関連度とする。動体の移動速度は、たとえば前々フレームにおける動体の位置と前フレームにおける動体の位置との差が動体の移動距離になるので、これを時間(1フレームの時間)で割って求める。未認識物体の移動速度は、仮に、対応を調べている動体が未認識物体と同じ物体であったとして、その動体の前フレームの位置と未認識物体の位置との差を時間(1フレームの時間)で割って求める。移動速度が近いほど関連度が高い。 The moving speed is determined by comparing the moving speed of the moving object with the moving speed of the unrecognized object and using the value as the relevance. The moving speed of the moving body is obtained by dividing this by the time (time of one frame) because, for example, the difference between the position of the moving body in the frame before the previous frame and the position of the moving body in the previous frame is the moving distance of the moving body. The moving speed of an unrecognized object is the time (1 frame) of the difference between the position of the front frame of the moving object and the position of the unrecognized object, assuming that the moving object whose correspondence is being investigated is the same object as the unrecognized object. Divide by time) to find. The closer the movement speed is, the higher the relevance is.
センサーからの距離は、レーザーレーダー101から前フレームの動体までの距離とレーザーレーダー101から未認識物体までの距離を比較して、その値を関連度とする。距離の値同士が近いものほど関連度が高い。
The distance from the sensor is determined by comparing the distance from the
サイズはレーザーレーダー101で計測される前フレームの動体と未認識物体の大きさを比較して、その値を関連度とする。サイズの値が近いほど関連度が高い。
For the size, the size of the moving object in the front frame measured by the
画素数はムービーカメラで撮影された前フレームの動体と未認識物体がそれぞれ占める画素数を比較して、その値を関連度とする。画素数が近いほど関連度が高い。 The number of pixels is determined by comparing the number of pixels occupied by the moving object in the previous frame taken by the movie camera and the unrecognized object, and using that value as the degree of relevance. The closer the number of pixels, the higher the degree of relevance.
色はカラームービーカメラで撮影された前フレームの動体の色と未認識物体の色を比較して、その値を関連度とする。色は、たとえばLab値などの色情報による色差を比較してもよいし、単純にRGBの階調値の差を比較してもよい。色差が少ないほど関連度が高い。また、もっとも多い色の数(画素数)、色の平均値などでもよい。 For the color, the color of the moving object in the previous frame taken by the color movie camera is compared with the color of the unrecognized object, and the value is used as the degree of relevance. For the colors, for example, the color difference based on the color information such as the Lab value may be compared, or the difference in the RGB gradation values may be simply compared. The smaller the color difference, the higher the relevance. Further, the number of colors (the number of pixels) having the largest number, the average value of colors, and the like may be used.
これらの指標は、単独で用いてもよいし、いずれかを複数組み合わせてもよい。指標を複数組み合わせて用いる場合は、たとえば、カラームービーカメラ(2次元画像)の場合、距離と色を用いて関連度を調べる。この場合、距離と色それぞれに重み付けをして関連度を調べる。たとえば、「距離×0.6+色差×0.4」などとする。ここで用いた重み付け定数は経験値や実験などで求めた値である。そのほか、ムービーカメラの用いている場合は、距離と画素数、移動速度と色、画素数と色など、様々に組み合わせて、それぞれに経験値や実験値などにより重み付けをして関連度を調べる。 These indicators may be used alone or in combination of two or more. When a plurality of indexes are used in combination, for example, in the case of a color movie camera (two-dimensional image), the degree of relevance is examined using the distance and the color. In this case, the distance and the color are weighted to check the degree of relevance. For example, "distance x 0.6 + color difference x 0.4". The weighting constants used here are empirical values and values obtained through experiments. In addition, when a movie camera is used, various combinations such as distance and number of pixels, moving speed and color, number of pixels and color, etc. are combined, and each is weighted by experience value or experimental value to examine the degree of relevance.
また、レーザーレーダー101の場合は、たとえば、距離とサイズを用いて関連度を調べる。また、レーザーレーダー101の場合は、センサーからの距離とサイズなどを組み合わせてもよい。さらに、移動速度とサイズなどでもよい。複数の指標を用いて関連度を調べることで、より精度の高い関連度を得られる。
Further, in the case of the
ここで、前フレームの動体および未認識物体がいずれも1つずつの場合は、関連度を調べることなく、それらは関連していると判定してもよい。これは、動体および未認識物体がともに1つずつであるなら、前フレームの動体が現在フレームで未認識物体として検出された可能性が極めて高いからである。しかし、未認識物体がノイズであったり、突発的に出現したものであったりする可能性もある。そこで前フレームの動体および未認識物体がともに1つずつであっても関連度を調べることが好ましい。そして、関連度があらかじめ決めた閾値以上である場合に、それらは同じものであるとして対応付けする。この場合、あらかじめ決めた閾値は、それぞれの指標ごとに異なるが、経験値や実験値としてあらかじめ求めておくとよい。 Here, when there is one moving object and one unrecognized object in the previous frame, it may be determined that they are related without checking the degree of relevance. This is because if there is one moving object and one unrecognized object, it is highly probable that the moving object in the previous frame was detected as an unrecognized object in the current frame. However, there is a possibility that the unrecognized object is noise or suddenly appears. Therefore, it is preferable to check the degree of relevance even if there is one moving object and one unrecognized object in the front frame. Then, when the degree of relevance is equal to or higher than a predetermined threshold value, they are associated with each other as being the same. In this case, the predetermined threshold value differs for each index, but it is preferable to obtain it in advance as an empirical value or an experimental value.
一方、動体リストの動体が2つ以上の場合は、それら相互の関連度を調べて関連度の高い組み合わせを対応付けする。 On the other hand, when there are two or more moving objects in the moving object list, the degree of relevance between them is examined and a combination having a high degree of relevance is associated.
たとえば、S6に来た段階で動体リストに2つの動体M1とM2がある場合、動体M1と未認識物体Ob1との関連度、動体M2と未認識物体Ob1との関連度をそれぞれ調べ、より関連度の高い方の組み合わせを対応付けする。 For example, if there are two moving objects M1 and M2 in the moving object list at the stage of coming to S6, the degree of relevance between the moving body M1 and the unrecognized object Ob1 and the degree of relevance between the moving body M2 and the unrecognized object Ob1 are examined and more related. The combination with the higher degree is associated.
なお、動体が複数ある場合にどちらの動体との対応を先に調べるかは、たとえば時系列で古い動体と未認識物体との関連度を先に調べる。時系列で古い動体と未認識物体との関連度を先に調べる場合、動体リストにおいては、その動体が物体として検出された時間(時刻)、または検出されてからの経過時間をタグなどとして付与しておく。付与する時間(時刻)は、たとえば実時間である。また経過時間は時間そのものでもよいが、検出されてからのフレーム数をカウントすることでもよい。なお、「物体として検出された」とは、現在フレームにおいて物体(すなわち未認識物体)として検出された時点である。 When there are a plurality of moving objects, which moving object should be checked first is, for example, the degree of relevance between the old moving body and the unrecognized object in chronological order. When checking the relevance between an old moving object and an unrecognized object in chronological order, the time (time) when the moving object was detected as an object or the elapsed time since it was detected is added as a tag in the moving object list. I will do it. The time (time) to be given is, for example, real time. The elapsed time may be the time itself, but it may also be the number of frames since it was detected. Note that "detected as an object" is the time when it is detected as an object (that is, an unrecognized object) in the current frame.
またたとえば、フレームに座標系を設定し(レーザーレーダー101のフレームでは3次元座標系、ムービーカメラのフレームでは2次元座標系)、原点に近い方から先に調べるなどとしてもよい。さらにこれらに限らず任意の順番で調べてもよい。
Further, for example, a coordinate system may be set in the frame (three-dimensional coordinate system in the frame of the
フローチャートに戻り説明を続ける。S6で動体と未認識物体との対応を調べた結果、対応していると判断されたなら(S7:YES)、動体と未認識物体を対応付けして、動体は動体リストの中で対応付けしたことをタグなどで記録して更新する(S30)。その後、S3へ戻り、処理を継続する。 Return to the flowchart and continue the explanation. As a result of examining the correspondence between the moving object and the unrecognized object in S6, if it is determined that they correspond (S7: YES), the moving object and the unrecognized object are associated with each other, and the moving object is associated in the moving object list. It records what has been done with a tag or the like and updates it (S30). After that, the process returns to S3 and the process is continued.
一方、S7で動体と未認識物体とが対応しないと判断されたなら(S7:NO)、続いて、第1動体候補リストに第1動体候補があるか否かを確認して(S8)、第1動体候補がなければ(S8:NO)、S11へ進む(図5参照)。一方、第1動体候補リストに第1動体候補があれば(S8:YES)、第1動体候補とS4で選択された未認識物体との対応を調べる(S9)。ここではS6と同様に第1動体候補と未認識物体の関連度を求め、対応しているか調べる。関連度の調べ方はS6における動体が第1動体候補に変わっただけであるので説明は省略する。 On the other hand, if it is determined in S7 that the moving object and the unrecognized object do not correspond (S7: NO), then it is confirmed whether or not there is the first moving object candidate in the first moving object candidate list (S8). If there is no first moving object candidate (S8: NO), the process proceeds to S11 (see FIG. 5). On the other hand, if there is a first moving object candidate in the first moving object candidate list (S8: YES), the correspondence between the first moving object candidate and the unrecognized object selected in S4 is examined (S9). Here, as in S6, the degree of relevance between the first moving object candidate and the unrecognized object is obtained, and it is examined whether or not they correspond. The method of checking the relevance is omitted because the moving body in S6 is only changed to the first moving body candidate.
S9の結果、第1動体候補と未認識物体とが対応していると判断されたなら(S10:YES)、対応付けされた第1動体候補を動体に変更して動体リストへ移動する(S31)。つまり、この段階で、2フレーム連続して認識されていた第1動体候補が未認識物体と同じものと認識されたので3フレーム連続して認識されたことになる。このため第1動体候補を動体に変更する。その後、S3へ戻り、処理を継続する。 As a result of S9, if it is determined that the first moving object candidate and the unrecognized object correspond to each other (S10: YES), the associated first moving object candidate is changed to a moving object and moved to the moving object list (S31). ). That is, at this stage, the first moving object candidate that has been recognized for two consecutive frames is recognized as the same as the unrecognized object, so that it is recognized for three consecutive frames. Therefore, the first moving body candidate is changed to a moving body. After that, the process returns to S3 and the process is continued.
一方、S9の結果、第1動体候補と未認識物体とが対応しないと判断されたなら(S10:NO)、続いて(以降図5参照)、第2動体候補リストに第2動体候補があるか否かを確認して(S11)、第2動体候補がなければ(S11:NO)、S15へ進む。一方、第2動体候補リストに第2動体候補があければ(S11:YES)、第2動体候補とS4で選択された未認識物体との対応を調べる(S12)。ここではS6と同様に第2動体候補と未認識物体の関連度を求めて対応しているか調べる。関連度などの調べ方はS6における動体が第2動体候補に変わっただけであるので説明は省略する。 On the other hand, if it is determined as a result of S9 that the first moving object candidate and the unrecognized object do not correspond (S10: NO), then (see FIG. 5 below), the second moving object candidate is in the second moving object candidate list. It is confirmed whether or not (S11), and if there is no second moving object candidate (S11: NO), the process proceeds to S15. On the other hand, if there is a second moving object candidate in the second moving object candidate list (S11: YES), the correspondence between the second moving object candidate and the unrecognized object selected in S4 is examined (S12). Here, as in S6, the degree of relevance between the second moving object candidate and the unrecognized object is obtained and checked whether they correspond to each other. As for the method of checking the degree of relevance, the explanation is omitted because the moving body in S6 is only changed to the second moving body candidate.
S12の結果、第2動体候補と未認識物体とが対応していると判断されたなら(S13:YES)、その第2動体候補は第1動体候補に変更して第1動体候補リストに移動させる(S32)。つまり、この段階で、1フレームだけ認識されていた第2動体候補が未認識物体と同じものと認識されたので2フレーム連続して認識されたことになる。このため第2動体候補を第1動体候補に変更する。 As a result of S12, if it is determined that the second moving object candidate and the unrecognized object correspond to each other (S13: YES), the second moving object candidate is changed to the first moving object candidate and moved to the first moving object candidate list. (S32). That is, at this stage, the second moving object candidate, which was recognized only for one frame, was recognized as the same as the unrecognized object, so that it was recognized for two frames in a row. Therefore, the second moving body candidate is changed to the first moving body candidate.
一方、S12の結果、第2動体候補と未認識物体とが対応しないと判断されたなら(S13:NO)、続いて、ロスト動体リストにロスト動体があるか否かを確認して(S15)、ロスト動体リストにロスト動体がなければ(S15:NO)、S4で選択された未認識物体を第2動体候補として第2動体候補リストに入れる(S33)。一方、ロスト動体リストにロスト動体があければ(S15:YES)、ロスト動体と未認識物体との対応を調べる(S16)。ここでも、S6と同様にロスト動体と未認識物体の関連度を求めて対応しているか調べる。関連度などの調べ方はS6と同様であるので説明は省略する。 On the other hand, if it is determined as a result of S12 that the second moving object candidate and the unrecognized object do not correspond (S13: NO), then it is confirmed whether or not there is a lost moving object in the lost moving object list (S15). If there is no lost moving object in the lost moving object list (S15: NO), the unrecognized object selected in S4 is included in the second moving object candidate list as the second moving object candidate (S33). On the other hand, if there is a lost moving object in the lost moving object list (S15: YES), the correspondence between the lost moving object and the unrecognized object is examined (S16). Here, as in S6, the degree of relevance between the lost moving object and the unrecognized object is obtained and checked to see if they correspond to each other. Since the method of checking the degree of relevance is the same as in S6, the description thereof will be omitted.
S16の結果、ロスト動体と未認識物体とが対応していると判断されたなら(S17:YES)、そのロスト動体は動体としてロスト動体リストから動体リストに移動する(S18)。 As a result of S16, if it is determined that the lost moving object and the unrecognized object correspond to each other (S17: YES), the lost moving object moves from the lost moving object list to the moving object list as a moving object (S18).
S16の結果、動体と未認識物体とが対応しないと判断されたなら(S17:NO)、S4で選択された未認識物体を第2動体候補として第2動体候補リストに入れる(S33)。その後、S3へ戻り、処理を継続する。 If it is determined as a result of S16 that the moving object and the unrecognized object do not correspond to each other (S17: NO), the unrecognized object selected in S4 is included in the second moving object candidate list as the second moving object candidate (S33). After that, the process returns to S3 and the process is continued.
S3において未認識物体がない場合(S3:NO)を説明する(図6参照)。未認識物体がない場合は、そもそも現在フレームで未認識物体が検出されなかった場合と、既に説明した処理により、未認識物体と動体、第1および第2動体候補、ロスト動体との対応関係を調べた後、未認識物体が存在しなくなった場合である。 A case where there is no unrecognized object in S3 (S3: NO) will be described (see FIG. 6). When there is no unrecognized object, the correspondence between the unrecognized object and the moving object, the first and second moving object candidates, and the lost moving object is determined by the case where the unrecognized object is not detected in the current frame in the first place and the processing already described. This is the case when the unrecognized object disappears after the investigation.
S3において未認識物体がない場合(S3:NO)は、続いて動体リストに未対応の動体があるか否かを確認する(S40)。 When there is no unrecognized object in S3 (S3: NO), it is subsequently confirmed whether or not there is an unrecognized moving object in the moving object list (S40).
ここで、動体リストに未対応の動体があれば(S40:YES)、動体リスト内の未対応の動体をすべてロスト動体としてロスト動体リストに移動する(S41)。一方、動体リストに未対応の動体がなければ(S40:NO)、そのままS42へ進む。 Here, if there is an unsupported moving body in the moving body list (S40: YES), all the unsupported moving bodies in the moving body list are moved to the lost moving body list as lost moving bodies (S41). On the other hand, if there is no unsupported moving object in the moving object list (S40: NO), the process proceeds to S42 as it is.
続いて、第1動体候補リストおよび第2動体候補リスト内の第1動体候補および第2動体候補を削除して(S42)、処理を終了する。処理終了後は、S1へ戻り、次の処理を継続することになる。 Subsequently, the first moving body candidate and the second moving body candidate in the first moving body candidate list and the second moving body candidate list are deleted (S42), and the process ends. After the processing is completed, the process returns to S1 and the next processing is continued.
以上説明した処理手順では、複数の未認識物体がある場合に、対応を調べる未認識物体を1つずつ選択している(S4の処理)。これに代えて、複数の未認識物体について、同時に(時間的な差があっても同じステップとして)、対応関係を調べてそれぞれの対応に応じた処理、すなわち動体、動体候補、ロスト動体などとの対応付け、またはいずれとも対応しない処理などを並列に実行させてもよい。 In the processing procedure described above, when there are a plurality of unrecognized objects, the unrecognized objects to be checked for correspondence are selected one by one (processing in S4). Instead of this, for multiple unrecognized objects, at the same time (as the same step even if there is a time difference), the correspondence relationship is examined and the processing according to each correspondence, that is, moving body, moving body candidate, lost moving body, etc. Or the processing that does not correspond to any of the above may be executed in parallel.
次に、物体追跡方法を、動体、第1動体候補、第2動体候補、および未認識物体の事例を挙げて説明する。 Next, the object tracking method will be described with reference to examples of a moving object, a first moving object candidate, a second moving object candidate, and an unrecognized object.
図7は、前フレームまでで認識されている動体、第1動体候補、および第2動体候補の例を説明する説明図である。図示する状態は、上記処理手順のS1において、現在フレームが取得される時点の前フレームを示している。このとき、動体M1、第1動体候補C1、および第2動体候補C2が認識されている。図8は、図7のときの各リストを示すリスト図である。動体M1、第1動体候補C1、および第2動体候補C2がそれぞれ分類されて、登録されている。なお、ここではロスト動体リストにロスト動体はない。 FIG. 7 is an explanatory diagram illustrating an example of a moving body, a first moving body candidate, and a second moving body candidate recognized up to the previous frame. The illustrated state indicates the previous frame at the time when the current frame is acquired in S1 of the above processing procedure. At this time, the moving body M1, the first moving body candidate C1, and the second moving body candidate C2 are recognized. FIG. 8 is a list diagram showing each list in the case of FIG. 7. The moving body M1, the first moving body candidate C1, and the second moving body candidate C2 are classified and registered, respectively. There is no lost motion in the lost motion list here.
図9は、現在フレームで未認識物体を検出した例を説明する説明図である。図示する状態は、S1で取得した現在フレーム内において、S2で未認識物体Ob1およびOb2が検出されている。 FIG. 9 is an explanatory diagram illustrating an example in which an unrecognized object is detected in the current frame. In the illustrated state, the unrecognized objects Ob1 and Ob2 are detected in S2 in the current frame acquired in S1.
図10は、図7に示した前フレームと図9に示した現在フレームを重ね合わせた説明図である。なお、実際の処理においては、このような前フレームと現在フレームの重ね合わせ(画像合成)は必要ない。 FIG. 10 is an explanatory view in which the front frame shown in FIG. 7 and the current frame shown in FIG. 9 are superimposed. In the actual processing, such superposition (image composition) of the previous frame and the current frame is not necessary.
この例では、S6において、動体M1と未認識物体Ob1との対応を調べることになる。 In this example, in S6, the correspondence between the moving object M1 and the unrecognized object Ob1 will be investigated.
S6の処理の結果、ここでは動体M1と未認識物体Ob1が対応したものとする。図11は動体M1と未認識物体Ob1が対応した状態を説明する説明図である。図11では、動体M1と未認識物体Ob1が対応している(Ob1=C2)。図においては、動体M1が未認識物体Ob1へ移動したことを矢印で示した。 As a result of the processing of S6, it is assumed here that the moving body M1 and the unrecognized object Ob1 correspond to each other. FIG. 11 is an explanatory diagram illustrating a state in which the moving body M1 and the unrecognized object Ob1 correspond to each other. In FIG. 11, the moving body M1 and the unrecognized object Ob1 correspond to each other (Ob1 = C2). In the figure, the arrow indicates that the moving body M1 has moved to the unrecognized object Ob1.
この段階で、未認識物体Ob1については動体M1と対応付けされる。このため、前フレームに存在している第1動体候補C1、第2動体候補C2などとの対応について調べる必要はない。したがって、その分、物体追跡のための計算負荷が少なくなる。 At this stage, the unrecognized object Ob1 is associated with the moving body M1. Therefore, it is not necessary to investigate the correspondence with the first moving body candidate C1 and the second moving body candidate C2 existing in the previous frame. Therefore, the calculation load for tracking the object is reduced accordingly.
この点、従来の方法では、現在フレームで検出された未認識物体と、前フレームまでで認識されているすべての物体(この例では、動体M1、第1動体候補C1、第2動体候補C2)との対応関係を総当たりで調べる。図12は、比較例として、現在フレームで検出された未認識物体と、前フレームまでで認識しているすべての物体を総当たりで調べる例を説明する説明図である。 In this regard, in the conventional method, the unrecognized object currently detected in the frame and all the objects recognized up to the previous frame (in this example, the moving body M1, the first moving body candidate C1, and the second moving body candidate C2). Investigate the correspondence with. FIG. 12 is an explanatory diagram illustrating an example in which an unrecognized object detected in the current frame and all the objects recognized up to the previous frame are brute-forced as a comparative example.
図12に示すように、従来の方法による比較例では、未認識物体Ob1と、動体M1、第1動体候補C1、および第2動体候補C2との対応をすべて調べることになる。その結果、未認識物体Ob1に対して、第2動体候補C2が動体M1よりも近い位置にある場合、近くにある第2動体候補C2を前フレームからの動体と同じであると誤認識して、未認識物体Ob1と第2動体候補C2が対応すると判断されてしまう場合がある(Ob1=C2)。この場合、図中の矢印で示したように第2動体候補C2が未認識物体Ob1へ移動したことになる。また、未認識物体と、過去フレームにあるすべての物体との対応を調べるため、多く時間がかかる。なお、この比較例の説明では、わかりやすくするために、動体M1、第1動体候補C1、第2動体候補C2などと分類して示したが、従来の方法において過去フレームで認識されている物体についての分類はない。 As shown in FIG. 12, in the comparative example by the conventional method, all the correspondences between the unrecognized object Ob1 and the moving body M1, the first moving body candidate C1, and the second moving body candidate C2 are investigated. As a result, when the second moving body candidate C2 is closer to the unrecognized object Ob1 than the moving body M1, the nearby second moving body candidate C2 is erroneously recognized as the same as the moving body from the previous frame. , It may be determined that the unrecognized object Ob1 and the second moving object candidate C2 correspond to each other (Ob1 = C2). In this case, the second moving object candidate C2 has moved to the unrecognized object Ob1 as shown by the arrow in the figure. In addition, it takes a lot of time to check the correspondence between the unrecognized object and all the objects in the past frame. In the explanation of this comparative example, for the sake of clarity, the objects are classified into the moving body M1, the first moving body candidate C1, the second moving body candidate C2, and the like, but the object recognized in the past frame in the conventional method. There is no classification for.
これに対し、本実施形態では、過去フレームで所定時間(第1所定時間)以上連続して認識した動体との対応を先に調べるため、比較例のような誤認識はない。また、本実施形態では、過去フレームから既に動体と認識されている物体(すなわちここで動体に分類されている物体)との対応を先に調べているため、未認識物体が対応する可能性が高くなる。そうすると他の物体との対応を調べなくてもよくなる。特に、1フレームや2フレームなどの短時間しか出現していない物体との対応を調べなくてもよくなるので、その分、計算負荷が少なくなり、また処理時間も短くなる。 On the other hand, in the present embodiment, since the correspondence with the moving body recognized continuously for a predetermined time (first predetermined time) or more in the past frame is investigated first, there is no erroneous recognition as in the comparative example. Further, in the present embodiment, since the correspondence with the object already recognized as a moving object from the past frame (that is, the object classified as a moving object here) is investigated first, there is a possibility that the unrecognized object corresponds. It gets higher. Then, it is not necessary to check the correspondence with other objects. In particular, since it is not necessary to check the correspondence with an object that appears only for a short time such as one frame or two frames, the calculation load is reduced and the processing time is shortened accordingly.
図11の事例に戻って説明を続ける。未認識物体Ob1の対応結果が出た後、引き続き未認識物体Ob2について対応を調べる。この段階では、動体M1は既に対応付けが終わっているので、S8に処理が進むことになる。S8では、未認識物体Ob2と第1動体候補C1との対応を調べることになる。その結果、ここでは未認識物体Ob2と第1動体候補C1とが対応するものとする。図13は未認識物体Ob2と第1動体候補C1とが対応した状態を説明する説明図である。図13では、2フレーム連続して認識されていた第1動体候補C1が、ここでさらに未認識物体Ob2と同じものと認識されたので、3フレーム連続して認識されたことになる。これにより第1動体候補C1は動体M2となる。また矢印で示すように、第1動体候補C1は動体M2へ移動したことなる。 The explanation will be continued by returning to the case of FIG. After the correspondence result of the unrecognized object Ob1 is obtained, the correspondence of the unrecognized object Ob2 is continuously investigated. At this stage, since the moving body M1 has already been associated, the process proceeds to S8. In S8, the correspondence between the unrecognized object Ob2 and the first moving object candidate C1 will be investigated. As a result, here, it is assumed that the unrecognized object Ob2 and the first moving object candidate C1 correspond to each other. FIG. 13 is an explanatory diagram illustrating a state in which the unrecognized object Ob2 and the first moving object candidate C1 correspond to each other. In FIG. 13, the first moving object candidate C1 that has been recognized for two consecutive frames is further recognized here as the same as the unrecognized object Ob2, so that it is recognized for three consecutive frames. As a result, the first moving body candidate C1 becomes the moving body M2. Further, as shown by the arrow, the first moving body candidate C1 has moved to the moving body M2.
その後、さらに処理が進むと、第2動体候補C2には対応する物体がないので、第2に動体候補リストから削除される。この時点で第2動体候補C2は、たとえば、ノイズなどということになる。 After that, when the processing proceeds further, since there is no corresponding object in the second moving object candidate C2, it is secondly deleted from the moving object candidate list. At this point, the second moving object candidate C2 is, for example, noise.
図14は、処理が最後まで進んだ時点での各リストを示すリスト図である。図示するように、動体リストに動体M1およびM2が登録され、第1動体候補リストおよび第2動体候補リストは登録がなくなる。ロスト動体リストは元々登録がない。 FIG. 14 is a list diagram showing each list at the time when the processing has progressed to the end. As shown in the figure, the moving objects M1 and M2 are registered in the moving object list, and the first moving object candidate list and the second moving object candidate list are not registered. The lost motion list is not originally registered.
図15は、処理終了時の現在フレームを説明する説明図である。図15に示すように、処理終了時には現在フレームにおいて、動体M1とM2が認識されることになる。 FIG. 15 is an explanatory diagram illustrating a current frame at the end of processing. As shown in FIG. 15, at the end of processing, the moving objects M1 and M2 are recognized in the current frame.
(レーザーレーダー101)
次に、レーザーレーダー101について説明する。
(Laser radar 101)
Next, the
レーザーレーダー101はライダー(LiDAR(Light Detection And Ranging))などとも称されており、レーザーを打ち出し、それが物体に反射して戻ってくるまでの時間を計測(TOF(Time of Flight))し、距離を求める。それを一定範囲内を走査しながら行うことで3次元の距離画像が得られる。図16は、レーザーレーダー101により得られる3次元の距離画像の例を示す図である。このような距離画像1枚1枚がフレームとなって、時系列に連続することで動画となる。
The
距離画像では、図示するように、レーザーレーダー101の設置位置からの距離が判明した3次元画像が得られる。ここでは、複数の動体M1、M2、M3などが映っている。また、静止物St1、St2、St3なども映っている。これらは、レーザーレーダー101による測定結果が描画されて画像化されているものである。そして、この画像例では、動体として認識された物体に対して、動体であることを表す情報を重ねて表示している。ここでは動体であることを表す情報として直方体の枠(図示白線の枠)で物体(動体)を囲んでいる。このようにすることで、ユーザーが画面(動画)を見たときに、動体として認識されている物体がわかりやすくなる。なお、このような枠線はなくてもよいし、またユーザーからの指令により付けたり消したりできるようにしてもよい。また、動体であることを表す情報は、枠線に限らず三角や矢印など任意の印、さらには文字情報などであってもよい。
In the distance image, as shown in the figure, a three-dimensional image in which the distance from the installation position of the
図17は、レーザーレーダー101の構成を説明する断面図である。
FIG. 17 is a cross-sectional view illustrating the configuration of the
図17に示したレーザーレーダー101は、監視装置MDとして用いられている例である。監視装置MDは、傾いた壁面WLに取り付けられた状態で示しているが、構成要素の形状や長さ等、実際と異なる場合がある。また、図17では監視装置MDが天地を逆にした状態で設置されているものとする。
The
監視装置MDは、たとえば、レーザー光束を出射するパルス式の半導体レーザーLDと、半導体レーザーLDからの発散光を平行光に変換するコリメートレンズCLと、コリメートレンズCLで平行とされたレーザー光を、回転するミラー面により監視空間に向かって走査投光するとともに、未認識物体からの反射光を反射させるミラーユニットMUと、ミラーユニットMUで反射された未認識物体からの反射光を集光するレンズLSと、レンズLSにより集光された光を受光するフォトダイオードPDと、半導体レーザーLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める処理回路(処理部)PROCと、ミラーユニットMUを回転駆動するモータMTと、これらを収容する筐体CSとを有する。フォトダイオードPDは、Y方向に並んだ複数の画素を有する。 The monitoring device MD is, for example, a pulse type semiconductor laser LD that emits a laser beam, a collimating lens CL that converts divergent light from the semiconductor laser LD into parallel light, and a laser beam paralleled by the collimating lens CL. A mirror unit MU that scans and projects light toward the surveillance space by a rotating mirror surface and reflects the reflected light from an unrecognized object, and a lens that collects the reflected light from the unrecognized object reflected by the mirror unit MU. The LS, the photodiode PD that receives the light collected by the lens LS, and the processing circuit (processing unit) PROC that obtains the distance information according to the time difference between the emission timing of the semiconductor laser LD and the reception timing of the photodiode PD. , A motor MT for rotationally driving the mirror unit MU, and a housing CS for accommodating these. The photodiode PD has a plurality of pixels arranged in the Y direction.
半導体レーザーLDとコリメートレンズCLとで出射部LPSを構成し、レンズLSとフォトダイオードPDとで受光部RPSを構成し、ミラーユニットMUが走査部を構成し、さらにこれらで投受光ユニットを構成する。 The semiconductor laser LD and the collimating lens CL form an exit LPS, the lens LS and the photodiode PD form a light receiving unit RPS, the mirror unit MU constitutes a scanning unit, and these form a light emitting / receiving unit. ..
出射部LPS、受光部RPSの光軸は、ミラーユニットMUの回転軸ROに対して直交していると好ましい。 It is preferable that the optical axes of the emitting unit LPS and the light receiving unit RPS are orthogonal to the rotation axis RO of the mirror unit MU.
壁面WL等に固定されたボックス状の筐体CSは、上壁CSaと、これに対向する下壁CSbと、上壁CSaと下壁CSbとを連結する側壁CScとを有する。側壁CScの一部に開口CSdが形成され、開口CSdには透明板TRが取り付けられている。 The box-shaped housing CS fixed to the wall surface WL or the like has an upper wall CSa, a lower wall CSb facing the upper wall CSa, and a side wall CSc connecting the upper wall CSa and the lower wall CSb. An opening CSd is formed in a part of the side wall CSc, and a transparent plate TR is attached to the opening CSd.
ミラーユニットMUは、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面MR1、MR2を4対(ただし4対に限られない)有している。ミラー面MR1、MR2は、ミラーユニットの形状をした樹脂素材(たとえばPC(Polycarbonate))の表面に、反射膜を蒸着することにより形成されていると好ましい。 The mirror unit MU has a shape in which two quadrangular pyramids are joined in opposite directions and integrated, that is, four pairs (but not limited to four pairs) of mirror surfaces MR1 and MR2 tilted in a pair and facing each other. ) Have. The mirror surfaces MR1 and MR2 are preferably formed by depositing a reflective film on the surface of a resin material (for example, PC (Polycarbonate)) in the shape of a mirror unit.
ミラーユニットMUは、筐体CSに固定されたモータMTの軸MTaに連結され、回転駆動されるようになっている。ここでは、軸MTaの軸線(回転軸線)が鉛直方向に対して傾いたY方向に延在しており、またY方向に直交するZ方向およびX方向によりなすZX平面が水平面に対して傾いているが、軸MTaの軸線を鉛直方向に一致させてもよい。 The mirror unit MU is connected to the shaft MTa of the motor MT fixed to the housing CS and is rotationally driven. Here, the axis (rotational axis) of the axis MTa extends in the Y direction inclined with respect to the vertical direction, and the ZX plane formed by the Z direction orthogonal to the Y direction and the X direction is inclined with respect to the horizontal plane. However, the axis of the axis MTa may be aligned in the vertical direction.
監視装置MDの未認識物体検出原理について説明する。図17において、半導体レーザーLDからパルス状に間欠的に出射された発散光は、コリメートレンズCLで平行光束に変換され、回転するミラーユニットMUの第1ミラー面MR1に入射し、ここで反射され、さらに第2ミラー面MR2で反射した後、透明板TRを透過して外部の監視空間に向けて、たとえば縦長の矩形断面を持つレーザースポット光として走査投光される。なお、出射されたレーザースポット光が未認識物体で反射し、反射光として戻ってくる方向を投受光方向という。同一投受光方向に進行するレーザースポット光束は、同一の画素で検出される。 The principle of detecting an unrecognized object of the monitoring device MD will be described. In FIG. 17, the divergent light emitted intermittently in a pulse shape from the semiconductor laser LD is converted into a parallel light beam by the collimated lens CL, is incident on the first mirror surface MR1 of the rotating mirror unit MU, and is reflected here. Further, after being reflected by the second mirror surface MR2, it is scanned and projected as laser spot light having a vertically long rectangular cross section, for example, through the transparent plate TR and directed toward the external monitoring space. The direction in which the emitted laser spot light is reflected by an unrecognized object and returned as reflected light is called the light emitting / receiving direction. The laser spot luminous flux traveling in the same light emitting / receiving direction is detected by the same pixel.
図18は、ミラーユニットMUの回転に応じて、出射するレーザースポット光SB(ハッチングで示す)で、監視装置MDの監視空間内を走査する状態を説明する説明図である。 FIG. 18 is an explanatory diagram illustrating a state in which the laser spot light SB (shown by hatching) emitted in response to the rotation of the mirror unit MU scans in the monitoring space of the monitoring device MD.
ここで、ミラーユニットMUの第1ミラー面MR1と第2ミラー面MR2の組み合わせにおいて、それぞれ交差角が異なっている。 Here, the crossing angles are different in the combination of the first mirror surface MR1 and the second mirror surface MR2 of the mirror unit MU.
レーザー光は、回転する第1ミラー面MR1と第2ミラー面MR2にて、順次反射される。まず1番対の第1ミラー面MR1と第2ミラー面MR2にて反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の一番上の領域Ln1を水平方向に左から右へと走査される。 The laser light is sequentially reflected by the rotating first mirror surface MR1 and the second mirror surface MR2. First, the laser beam reflected by the first pair of first mirror surface MR1 and second mirror surface MR2 horizontally moves from left to right in the uppermost region Ln1 of the monitoring space according to the rotation of the mirror unit MU. Is scanned.
次に、2番対の第1ミラー面MR1と第2ミラー面MR2で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の上から2番目の領域Ln2を水平方向に左から右へと走査される。 Next, the laser light reflected by the second pair of the first mirror surface MR1 and the second mirror surface MR2 horizontally covers the second region Ln2 from the top of the monitoring space from the left in accordance with the rotation of the mirror unit MU. Scanned to the right.
次に、3番対の第1ミラー面MR1と第2ミラー面MR2で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の上から3番目の領域Ln3を水平方向に左から右へと走査される。 Next, the laser light reflected by the third pair of the first mirror surface MR1 and the second mirror surface MR2 horizontally covers the third region Ln3 from the top of the monitoring space from the left in accordance with the rotation of the mirror unit MU. Scanned to the right.
次に、4番対の第1ミラー面MR1と第2ミラー面MR2で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間のもっとも下の領域Ln4を水平方向に左から右へと走査される。 Next, the laser light reflected by the 4th pair of the first mirror surface MR1 and the second mirror surface MR2 horizontally moves from left to right in the lowermost region Ln4 of the monitoring space according to the rotation of the mirror unit MU. Is scanned.
これにより監視装置MDが監視可能な監視空間全体の1回の走査が完了する。このようにレーザースポット光束が2次元的に隙間なく走査される(走査されたレーザースポット光束の軌跡が隣接する場合(たとえば領域Ln1と領域Ln2)において、隣接する軌跡が隙間なく接することをいうが、一部重なり合う場合を含む)と、監視装置MDの設定時に、ユーザーが直感的に空間把握しやすい距離画像が得られることになり、好ましい。 This completes one scan of the entire monitoring space that can be monitored by the monitoring device MD. In this way, when the laser spot luminous flux is two-dimensionally scanned without a gap (when the trajectories of the scanned laser spot luminous flux are adjacent to each other (for example, region Ln1 and region Ln2), the adjacent trajectories are in contact with each other without a gap. , Including the case where some of them overlap), and when the monitoring device MD is set, a distance image that is easy for the user to intuitively grasp the space can be obtained, which is preferable.
この領域Ln1〜Ln4の走査により得られた画像を組み合わせて、1つのフレームFLが得られる。そして、ミラーユニットMUが1回転した後、1番対の第1ミラー面MR1と第2ミラー面MR2が戻ってくれば、再び監視空間の一番上の領域Ln1からもっとも下の領域Ln4までの走査を繰り返し、次のフレームFLが得られる。 The images obtained by scanning the regions Ln1 to Ln4 are combined to obtain one frame FL. Then, if the first pair of first mirror surface MR1 and second mirror surface MR2 return after one rotation of the mirror unit MU, the area from the top region Ln1 to the bottom region Ln4 of the monitoring space is restored again. The scanning is repeated to obtain the next frame FL.
図17を参照して、走査投光された光束のうち未認識物体に当たって反射したレーザー光の一部は、再び透明板TRを透過して筐体CS内のミラーユニットMUの第2ミラー面MR2に入射し、ここで反射され、さらに第1ミラー面MR1で反射されて、レンズLSにより集光され、それぞれフォトダイオードPDの受光面で画素ごとに検知されることとなる。 With reference to FIG. 17, a part of the laser light reflected by the unrecognized object among the light beams scanned and projected passes through the transparent plate TR again and is transmitted through the transparent plate TR again to the second mirror surface MR2 of the mirror unit MU in the housing CS. Is incident on the light, is reflected here, is further reflected by the first mirror surface MR1, is condensed by the lens LS, and is detected pixel by pixel on the light receiving surface of the photodiode PD.
さらに、処理回路(不図示)が、半導体レーザーLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める。これにより監視空間内の全領域で未認識物体の検出を行って、画素(測定点)ごとに距離情報(3次元の計測値)を持つ距離画像(測定点マーカー群ともいわれている)としてのフレームFL(図18参照)を得ることができる。距離画像の形状は、実際に走査されるスポット光束SBの形状と同じである。距離画像は処理回路から物体追跡装置102に送られて、物体追跡が行われる。また距離画像は必要に応じてサーバー103に送られて記憶される。
Further, the processing circuit (not shown) obtains the distance information according to the time difference between the emission timing of the semiconductor laser LD and the light reception timing of the photodiode PD. As a result, unrecognized objects are detected in the entire area in the monitoring space, and as a distance image (also called a measurement point marker group) having distance information (three-dimensional measurement value) for each pixel (measurement point). A frame FL (see FIG. 18) can be obtained. The shape of the distance image is the same as the shape of the spot luminous flux SB actually scanned. The distance image is sent from the processing circuit to the
以上説明した実施形態によれば、以下のような効果を奏する。 According to the embodiment described above, the following effects are obtained.
(1)本実施形態は、前フレームまでで、所定時間以上継続して検出している物体を第1種物体と分類し、所定時間未満の物体を第2種物体と分類した。本実施形態では第1種物体を動体、第2種物体を動体候補と称した。そして、現在フレームで検出された未認識物体は、動体から先に対応するかを調べる。未認識物体が動体と対応した場合は、その未認識物体を動体と対応付けすることで動体と認識し、未認識物体が動体と対応付かなければ動体候補との対応を調べることとした。これにより、動体と未認識物体が対応付けされたなら、動体候補については調べなくてもよくなる。このため、その分、計算負荷を低減することができ、処理時間も短くすることができる。また、1フレームや2フレームなどごく短い時間しか出現しないようなノイズや木々の揺れなどのようなものは動体候補として後回しで評価される。このため、そのようなノイズなどが物体追跡データ全体の中に紛れ込んでしまうことがなくなる。
(1) In the present embodiment, an object that has been continuously detected for a predetermined time or longer up to the previous frame is classified as a
(2)未認識物体と対応付けた動体候補は、物体として検出されてからの経過時間が所定時間以上経過していれば動体に分類することとした。これにより、時間経過とともに同じ物体が認識されると動体候補を動体に分類して物体追跡することができる。 (2) A moving object candidate associated with an unrecognized object is classified as a moving object if the elapsed time from being detected as an object has passed a predetermined time or more. As a result, when the same object is recognized over time, the moving object candidates can be classified into moving objects and the object can be tracked.
(3)動体候補は、物体として検出されてからの経過時間が長い方(フレーム数の多い方)から順に第1動体候補、第2動体候補などと、複数の段階に分類することとした。そして経過時間が長い方(フレーム数の多い方)から順に未認識物体との対応を調べることとした。これにより、より細かく計算量の削減、ノイズの影響の低減を行うことができる。 (3) The moving body candidates are classified into a plurality of stages, such as the first moving body candidate and the second moving body candidate, in order from the one having the longest elapsed time since being detected as an object (the one having the largest number of frames). Then, it was decided to investigate the correspondence with the unrecognized object in order from the one with the longest elapsed time (the one with the largest number of frames). As a result, the amount of calculation can be reduced and the influence of noise can be reduced more finely.
(4)動体についても、物体として検出されてからの経過時間が長い方(フレーム数の多い方)から順に複数の段階に分類しておき、経過時間が長い方から順に未認識物体との対応を調べることとした。これにより、より長い時間動体として認識されている物体から順に追跡できるようになる。 (4) Moving objects are also classified into multiple stages in order from the one with the longest elapsed time since being detected as an object (the one with the largest number of frames), and the correspondence with unrecognized objects in order from the one with the longest elapsed time. I decided to investigate. This makes it possible to track objects that are recognized as moving objects for a longer period of time.
(5)さらに、本実施形態では、未認識物体と対応していない動体を第3種物体と分類した。ここでも本実施形態では、第3種物体をロスト動体と称している。そして、未認識物体がロスト動体と対応した場合は、動体に分類し直すこととした。これにより、フレーム内で一時的に隠れた物体を再出現時に同一の動体として認識することができる。
(5) Further, in the present embodiment, a moving object that does not correspond to an unrecognized object is classified as a
(6)未認識物体がいずれの動体候補とも対応していないと判断された場合は、未認識物体を現在フレームで新規に出現したものとして動体候補に分類することとした。これにより、現在フレームだけで出現した物体を動体候補として分類しておいて、時間経過とともに同じ物体が認識されなければ動体とせずに排除することができる。 (6) When it is determined that the unrecognized object does not correspond to any of the moving object candidates, the unrecognized object is classified as a moving object candidate as if it newly appeared in the current frame. As a result, an object that appears only in the current frame can be classified as a moving object candidate, and if the same object is not recognized with the passage of time, it can be excluded without being a moving object.
(7)所定時間を0.2秒以上1秒未満とすることでごく短時間の間現れて消えてしまうノイズや、風で揺れて生きる草花や木々を動体と認識しないようにできる。 (7) By setting the predetermined time to 0.2 seconds or more and less than 1 second, it is possible to prevent the noise that appears and disappears for a very short time, and the flowers and trees that live swaying in the wind from being recognized as moving objects.
(8)時間のカウントをフレーム単位で行うこととした。これにより、経過時間がフレームを数えることでわかるようになる。また、フレーム内における物体の認識はフレーム単位で行われるため、物体を認識するための時間間隔として切りの良い時間でカウントすることができる。 (8) It was decided to count the time in frame units. This makes it possible to know the elapsed time by counting the frames. Further, since the recognition of the object in the frame is performed in frame units, it is possible to count the object as a time interval for recognizing the object in a well-cut time.
(9)認識した動体には、動体であることを表す情報とともに表示することとした。これによりユーザーが画面を見た時に、認識されている動体をわかりやすくなる。 (9) It was decided to display the recognized moving object together with the information indicating that it is a moving object. This makes it easier for the user to see the recognized moving object when looking at the screen.
以上本発明を適用した実施形態を説明したが、本発明はこれら実施形態に限定されるものではない。 Although the embodiments to which the present invention is applied have been described above, the present invention is not limited to these embodiments.
画像取得センサーは、レーザーレーダー101ではなく、普通のムービーカメラを用いることもできる。ムービーカメラを用いた場合、3次元の距離情報は得られないが、フレーム内において物体がどの程度の時間(フレーム数)継続して存在しているかを認識することは可能である。したがって、ムービーカメラを用いた動画(時系列に並んだフレーム)から上述した実施形態同様に(3次元計測することを除いて)、物体追跡を行うことができる。
As the image acquisition sensor, an ordinary movie camera can be used instead of the
また、実施形態では、動体候補(第2種物体)は、第1動体候補と第2動体候補の2段階とした。つまり物体として検出してから2つの経過時間(フレーム数)に関連付けしたものである。しかし、これは1つの経過時間に関連付けて1段階としてよいし、さらに複数の経過時間に関連付けて、n段階(第n動体候補(ただしnは自然数))でもよい。
Further, in the embodiment, the moving body candidate (
また、動体についても経過時間(フレーム数)によって多段階に分けて管理してもよい。たとえば、物体として検出されてからの経過時間(フレーム数)ごとに、第1から第n動体(ただしnは自然数)とする。このようにすることで、過去フレームにおいて認識されている時間が長い(フレーム数が多い)方の動体から順に未認識物体との対応を調べることができる。 Further, the moving body may be managed in multiple stages according to the elapsed time (number of frames). For example, for each elapsed time (number of frames) since it was detected as an object, the first to nth moving objects (where n is a natural number) are set. By doing so, it is possible to investigate the correspondence with the unrecognized object in order from the moving object having the longer recognized time (the larger number of frames) in the past frame.
そのほか本発明は特許請求の範囲に記載された構成に基づき様々な改変が可能であり、それらについても本発明の範疇である。 In addition, the present invention can be modified in various ways based on the configurations described in the claims, and these are also within the scope of the present invention.
11 CPU、
12 RAM、
14 HDD、
101 レーザーレーダー、
102 物体追跡装置。
11 CPU,
12 RAM,
14 HDD,
101 laser radar,
102 Object tracking device.
Claims (11)
現在フレームで検出した物体を未認識物体として、当該未認識物体と前記第1種物体との対応を調べる段階(b)と、
前記段階(b)において、前記未認識物体と前記第1種物体とが対応していると判断された場合は前記未認識物体と前記第1種物体とを対応付けする段階(c)と、
前記段階(b)において、前記未認識物体と前記第1種物体が対応していないと判断された場合は、前記未認識物体と前記第2種物体との対応を調べる段階(d)と、
前記段階(d)において、前記未認識物体と前記第2種物体とが対応していると判断された場合は前記未認識物体と前記第2種物体とを対応付けする段階(e)と、
を有する、物体追跡方法。 A first-class object is an object that is detected in a moving image in which multiple frames are lined up in chronological order, and the elapsed time since it was detected continues for a predetermined time or longer. In the step (a), in which an object having less than a predetermined time is classified as a second-class object.
The step (b) of investigating the correspondence between the unrecognized object and the first-class object, using the object detected in the current frame as an unrecognized object,
In the step (b), when it is determined that the unrecognized object and the first-class object correspond to each other, the step (c) of associating the unrecognized object with the first-class object is determined.
When it is determined in the step (b) that the unrecognized object and the first-class object do not correspond to each other, the step (d) of examining the correspondence between the unrecognized object and the second-class object is performed.
In the step (d), when it is determined that the unrecognized object and the second-class object correspond to each other, the step (e) of associating the unrecognized object with the second-class object is performed.
An object tracking method that has.
前記段階(d)において、前記第2種物体は、物体として検出されてからの経過時間が長い方から順に前記未認識物体との対応を調べる、請求項1または2に記載の物体追跡方法。 In the step (a), the type 2 object is associated with the elapsed time since it was detected as an object.
The object tracking method according to claim 1 or 2, wherein in the step (d), the second-class object examines the correspondence with the unrecognized object in order from the one having the longest elapsed time since it was detected as an object.
前記段階(b)において、前記第1種物体は、物体として検出されてからの経過時間が長い方から順に前記未認識物体との対応を調べる、請求項1〜3のいずれか1つに記載の物体追跡方法。 In the step (a), the first-class object is associated with the elapsed time since it was detected as an object.
The first-class object according to any one of claims 1 to 3, wherein in the step (b), the correspondence with the unrecognized object is examined in order from the one having the longest elapsed time since the first-class object was detected as an object. Object tracking method.
前記段階(d)において、前記未認識物体と前記第2種物体とが対応していないと判断された場合は前記未認識物体と前記第3種物体との対応を調べる段階(f)と、
前記段階(f)において、前記未認識物体と前記第3種物体とが対応していると判断された場合は前記未認識物体と前記第3種物体とを対応付けして、前記第3種物体を前記第1種物体に分類し直す段階(g)と、
前記段階(f)において、前記未認識物体と前記第3種物体とが対応していないと判断された場合は前記未認識物体を前記第2種物体に分類する段階(h)と、
を有する、請求項1〜4のいずれか1つに記載の物体追跡方法。 In the step (a), the first-class object that does not correspond to the unrecognized object in the step (b) is classified as a third-class object.
In the step (d), when it is determined that the unrecognized object and the second-class object do not correspond to each other, the step (f) of examining the correspondence between the unrecognized object and the third-class object is performed.
In the step (f), when it is determined that the unrecognized object and the third-class object correspond to each other, the unrecognized object and the third-class object are associated with each other, and the third-class object is associated with the third-class object. At the stage (g) of reclassifying an object into the first-class object,
In the step (f), when it is determined that the unrecognized object and the third-class object do not correspond to each other, the unrecognized object is classified into the second-class object (h).
The object tracking method according to any one of claims 1 to 4.
請求項10に記載のプログラムを実行するコンピューターと、
を有する、物体追跡システム。 An image acquisition sensor that acquires frames in chronological order, and
A computer that executes the program according to claim 10
Has an object tracking system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017116144A JP6898587B2 (en) | 2017-06-13 | 2017-06-13 | Object tracking methods, object tracking programs, and object tracking systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017116144A JP6898587B2 (en) | 2017-06-13 | 2017-06-13 | Object tracking methods, object tracking programs, and object tracking systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019003334A JP2019003334A (en) | 2019-01-10 |
JP6898587B2 true JP6898587B2 (en) | 2021-07-07 |
Family
ID=65006085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017116144A Active JP6898587B2 (en) | 2017-06-13 | 2017-06-13 | Object tracking methods, object tracking programs, and object tracking systems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6898587B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7364079B2 (en) * | 2020-06-26 | 2023-10-18 | 日本電気株式会社 | Information processing device, information processing method, and computer program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002077898A (en) * | 2000-08-23 | 2002-03-15 | Hitachi Ltd | Moving object detecting system |
JP2002334338A (en) * | 2001-05-09 | 2002-11-22 | National Institute Of Advanced Industrial & Technology | Device and method for object tracking and recording medium |
JP5459674B2 (en) * | 2010-09-13 | 2014-04-02 | 株式会社東芝 | Moving object tracking system and moving object tracking method |
-
2017
- 2017-06-13 JP JP2017116144A patent/JP6898587B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019003334A (en) | 2019-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230016568A1 (en) | Scenario recreation through object detection and 3d visualization in a multi-sensor environment | |
US9483839B1 (en) | Occlusion-robust visual object fingerprinting using fusion of multiple sub-region signatures | |
US9836635B2 (en) | Systems and methods for tracking optical codes | |
US20160093101A1 (en) | Method And System For Generating A Three-Dimensional Model | |
KR20100105591A (en) | Method and device for finding and tracking pairs of eyes | |
WO2003029046A1 (en) | Apparatus and method for sensing the occupancy status of parking spaces in a parking lot | |
JPH05509394A (en) | Real-time three-dimensional sensing device | |
US11354885B1 (en) | Image data and simulated illumination maps | |
CN106663196A (en) | Computerized prominent person recognition in videos | |
CN109727275A (en) | Object detection method, device, system and computer readable storage medium | |
CN111397586B (en) | Measurement system and method for verifying pre-configured target attributes using the same | |
JP2023036793A (en) | Method and apparatus for using range data to predict object features | |
Velázquez et al. | Analysis of thermal imaging performance under extreme foggy conditions: Applications to autonomous driving | |
Azimi et al. | Multiple pedestrians and vehicles tracking in aerial imagery using a convolutional neural network | |
JP6932971B2 (en) | Motion tracking methods, motion tracking programs, and motion tracking systems | |
JP6898587B2 (en) | Object tracking methods, object tracking programs, and object tracking systems | |
EP2579209A1 (en) | Method for recognizing objects | |
JP7020096B2 (en) | Object detection device, control method of object detection device, and control program of object detection device | |
JP2005069977A (en) | Device and method for tracking moving route of object | |
WO2021045813A1 (en) | Improved 3d mapping by distinguishing between different environmental regions | |
JP2018181114A (en) | Intrusion monitoring method, intrusion monitoring program, and intrusion monitoring system | |
Börcs et al. | Dynamic 3D environment perception and reconstruction using a mobile rotating multi-beam Lidar scanner | |
CN114581889A (en) | Fusion method, device, equipment, medium and product | |
CN110291557B (en) | Monitoring device | |
CN115482352A (en) | Method and apparatus for training machine learning algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210525 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6898587 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |