[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7509040B2 - Apparatus and method for tracking objects in roadway surveillance video - Google Patents

Apparatus and method for tracking objects in roadway surveillance video Download PDF

Info

Publication number
JP7509040B2
JP7509040B2 JP2021003668A JP2021003668A JP7509040B2 JP 7509040 B2 JP7509040 B2 JP 7509040B2 JP 2021003668 A JP2021003668 A JP 2021003668A JP 2021003668 A JP2021003668 A JP 2021003668A JP 7509040 B2 JP7509040 B2 JP 7509040B2
Authority
JP
Japan
Prior art keywords
information
tracking
matching
detection information
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021003668A
Other languages
Japanese (ja)
Other versions
JP2021128761A (en
Inventor
ジャン・ナヌ
タヌ・ジミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2021128761A publication Critical patent/JP2021128761A/en
Application granted granted Critical
Publication of JP7509040B2 publication Critical patent/JP7509040B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、ビデオ監視技術分野に関する。 The present invention relates to the field of video surveillance technology.

ビデオ監視システムが日常生活に幅広く応用されており、例えば、カメラヘッドにより道路を監視し、複数種の交通イベントを検出することができる。イベントを検出するために、一般的には、ビデオ監視の設定情報、例えば、関心領域(ROI、Region of Interest)、車道の幅、車道の方向などを事前設定することができる。 Video surveillance systems are widely applied in daily life, for example, a camera head can monitor a road and detect various types of traffic events. In order to detect an event, the video surveillance configuration information, such as a region of interest (ROI), road width, road direction, etc., can generally be pre-set.

交通監視ビデオにおいて、検出オブジェクト(対象とも言い、例えば、車両である)のサイズが近くから遠くに向かって小さくなり、また、障害物やその他の物体が検出対象をブロックする可能性もある。スケール(scale)の変化及びブロッキング(blocking)が従来のオブジェクト追跡の問題の1つである。 In traffic surveillance videos, the size of detected objects (also called targets, e.g., vehicles) decreases from near to far, and obstacles and other objects may block the detected targets. Scale changes and blocking are one of the problems in traditional object tracking.

人工智能(AI)技術に基づく交通分析が注目の研究分野であり、これにより、交通イベントを検出し、車両の速度を測定し、また、交通量を計算することができる。これらのアプリケーションのほとんどすべては、幾つかの基本モジュール、例えば、オブジェクト(objection)検出、マルチオブジェクト追跡(tracking)、イベント判断などに基づいている。交通オブジェクトの追跡にとって最も重要な部分の1つである。 Traffic analysis based on artificial intelligence (AI) technology is a hot research field, which can detect traffic events, measure vehicle speed, and calculate traffic volume. Almost all of these applications are based on some basic modules, such as object detection, multi-object tracking, event judgment, etc. It is one of the most important parts for tracking traffic objects.

発明者が次のようなことを発見した。即ち、深層学習に基づく最新の追跡方法により、スケールの変化及びブロッキングの一部の問題を解決することができるが、大量の計算が要され、また、応用シナリオについて事前訓練することも必要である。 The inventors discovered that although state-of-the-art tracking methods based on deep learning can solve some of the problems of scale change and blocking, they are computationally intensive and require pre-training on the application scenario.

リアルタイム道路監視システムについて言えば、連携を必要とするモジュールが複数あり、例えば、シナリオの理解、オブジェクトの検出、追跡などを含む。そのため、各モジュールの処理時間のバランスを取る必要がある。通常、検出モジュールは最も時間がかかる。よって、追跡モジュールに必要な時間は短くなる必要がある。深層学習に基づく追跡方法は、リアルタイム道路監視システムに応用することが困難である。 When it comes to real-time road monitoring systems, there are multiple modules that need to work together, including scenario understanding, object detection, tracking, etc. Therefore, the processing time of each module needs to be balanced. Usually, the detection module takes the longest time. Therefore, the time required for the tracking module needs to be short. Tracking methods based on deep learning are difficult to apply to real-time road monitoring systems.

上述の問題の少なくとも1つに鑑み、本発明の実施例は、道路監視ビデオのオブジェクト追跡装置及び方法を提供し、これにより、リアルタイム道路監視ビデオに係るスケールの変化及び/又はブロッキングの問題を解決することができる。 In view of at least one of the above problems, embodiments of the present invention provide an apparatus and method for object tracking in road surveillance videos, which can solve the problems of scale changes and/or blocking in real-time road surveillance videos.

本発明の実施例の第一側面によれば、道路監視ビデオのオブジェクト追跡装置が提供され、それは、
道路関心領域のリアルタイム監視ビデオに対してオブジェクト検出を行い、1つ又は複数のオブジェクトの検出情報を取得するオブジェクト検出ユニット;
前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行う追跡マッチングユニット;
マッチング結果に基づいて前記追跡情報を更新する追跡更新ユニット;及び
前記検出情報及び/又は前記追跡情報に基づいて前記関心領域の道路情報を更新する道路更新ユニットを含む。
According to a first aspect of an embodiment of the present invention, there is provided an object tracking apparatus for road surveillance video, comprising:
an object detection unit for performing object detection on a real-time monitoring video of a road area of interest and obtaining detection information of one or more objects;
a tracking matching unit for matching the detection information of the one or more objects with tracking information for object tracking;
a tracking update unit for updating the tracking information based on a matching result; and a road update unit for updating road information of the region of interest based on the detection information and/or the tracking information.

本発明の実施例の第二側面によれば、道路監視ビデオのオブジェクト追跡方法が提供され、それは、
道路関心領域のリアルタイム監視ビデオに対してオブジェクト検出を行い、1つ又は複数のオブジェクトの検出情報を取得し;
前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行い;
マッチング結果に基づいて前記追跡情報を更新し;及び
前記検出情報及び/又は前記追跡情報に基づいて前記関心領域の道路情報を更新することを含む。
According to a second aspect of an embodiment of the present invention, there is provided a method for tracking objects in road surveillance videos, comprising:
Performing object detection on the real-time surveillance video of the road area of interest, and obtaining detection information of one or more objects;
Matching the one or more object detection information with tracking information for object tracking;
updating the tracking information based on the matching result; and updating road information of the area of interest based on the detection information and/or the tracking information.

本発明の実施例の有益な効果の1つは次の通りであり、1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行い、そして、マッチング結果に基づいて前記追跡情報を更新し、及び検出情報及び/又は追跡情報に基づいて関心領域の道路情報を更新することにより、迅速なオブジェクト追跡を実現することができ、リアルタイム道路監視ビデオに係るスケールの変化及び/又はブロッキングの問題を解決することができる。 One of the beneficial effects of the embodiment of the present invention is that by matching detection information of one or more objects with tracking information for object tracking, and updating the tracking information based on the matching result, and updating road information of the region of interest based on the detection information and/or tracking information, rapid object tracking can be achieved, and problems of scale change and/or blocking in real-time road surveillance video can be solved.

本発明の実施例における道路監視ビデオのオブジェクト追跡方法を示す図である。FIG. 2 illustrates a method for tracking objects in road surveillance video in an embodiment of the present invention. 本発明の実施例における車道幅更新の一例を示す図である。FIG. 13 is a diagram showing an example of updating a roadway width in an embodiment of the present invention. 本発明の実施例における追跡マッチングのためのパラメータの一例を示す図である。FIG. 11 is a diagram showing an example of parameters for tracking matching in an embodiment of the present invention. 本発明の実施例において検出情報とマッチしない或る追跡情報に対しての処理方法を示す図である。FIG. 11 is a diagram showing a processing method for certain tracking information that does not match detection information in an embodiment of the present invention. 本発明の実施例におけるカレントフレームの一例を示す図である。FIG. 4 is a diagram showing an example of a current frame in an embodiment of the present invention. 本発明の実施例においてテンプレートマッチングを行うための入力画像の一例を示す図である。FIG. 2 is a diagram showing an example of an input image for performing template matching in an embodiment of the present invention. 本発明の実施例においてテンプレートマッチングを行うためのテンプレート画像の一例を示す図である。FIG. 4 is a diagram showing an example of a template image for performing template matching in the embodiment of the present invention. 本発明の実施例における道路監視ビデオのオブジェクト追跡装置を示す図である。FIG. 2 illustrates an object tracking device for road surveillance video in an embodiment of the present invention. 本発明の実施例における電子機器を示す図である。1 is a diagram showing an electronic device according to an embodiment of the present invention;

以下、添付した図面を参照しながら、本発明を実施するための好ましい実施例について詳細に説明する。 Below, a preferred embodiment for carrying out the present invention will be described in detail with reference to the attached drawings.

本発明の実施例では、交通イベント及び道路監視を例にとって説明を行い、カメラヘッドにより複数のフレームを含むビデオ画像を取得することができ、該カメラヘッドはインテリジェント交通(Intelligent Transportation)ビデオ監視に用いられるPTZカメラヘッドであっても良く、それは、絶えずに道路監視領域に対して撮影を行うことができる。なお、本発明はこれに限定されない。 In the embodiment of the present invention, a traffic event and road monitoring are taken as an example, and a video image including multiple frames can be captured by a camera head, which may be a PTZ camera head used in intelligent transportation video monitoring, which can continuously capture images of a road monitoring area. However, the present invention is not limited thereto.

<第一側面の実施例>
本発明の実施例は道路監視ビデオのオブジェクト追跡方法を提供する。図1は本発明の実施例における道路監視ビデオのオブジェクト追跡方法を示す図である。図1に示すように、該方法は以下のステップを含む。
<Example of the first aspect>
An embodiment of the present invention provides a method for tracking objects in road surveillance videos. Figure 1 is a diagram showing the method for tracking objects in road surveillance videos in an embodiment of the present invention. As shown in Figure 1, the method includes the following steps:

101:道路関心領域(ROI)のリアルタイム監視ビデオに対してオブジェクト検出を行い、1つ又は複数のオブジェクトの検出情報を取得し;
102:1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行い;
103:マッチング結果に基づいて前記追跡情報を更新し;及び
104:検出情報及び/又は追跡情報に基づいて前記関心領域の道路情報を更新する。
101: Perform object detection on a real-time surveillance video of a road region of interest (ROI) to obtain detection information of one or more objects;
102: Matching detection information of one or more objects with tracking information for object tracking;
103: Updating the tracking information based on the matching result; and 104: Updating road information of the area of interest based on the detection information and/or tracking information.

図1に示すように、オプションとして、該方法はさらに以下のステップを含んでも良い。 As shown in FIG. 1, optionally, the method may further include the following steps:

105:初期化段階にあるかを確定し、初期化段階にある場合、前記検出情報に基づいて前記関心領域の道路情報を更新し(104);前記初期化段階にない場合、前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行う(102)。 105: Determine whether the system is in an initialization phase, and if so, update road information for the area of interest based on the detection information (104); if not, match the detection information of the one or more objects with tracking information for object tracking (102).

なお、上述の図1は本発明の実施例を例示的に説明するためのものに過ぎず、本発明はこれに限られない。例えば、各操作(ステップ)間の実行順序を適切に調整したり、幾つかの操作(ステップ)を増減したりしても良い。即ち、当業者は、図1の記載をもとに、上述の内容に対して適切に変更しても良い。 Note that the above-mentioned FIG. 1 is merely for illustrative purposes of an embodiment of the present invention, and the present invention is not limited thereto. For example, the execution order between each operation (step) may be appropriately adjusted, or some operations (steps) may be increased or decreased. In other words, a person skilled in the art may make appropriate changes to the above-mentioned content based on the description in FIG. 1.

幾つかの実施例において、カメラヘッドのビデオシーケンス及び設定ファイルに基づいてオブジェクトの検出及び追跡を行うことができる。設定ファイルはROI領域を含んでも良く、道路情報は車道の幅及び車道の方向を含んでも良く、行列(matrix)で表すことができる。 In some embodiments, object detection and tracking can be performed based on the video sequence of the camera head and a configuration file. The configuration file may include an ROI region, and the road information may include road width and road direction, which may be represented as a matrix.

例えば、2つの行列を用いて各ROIにおける各Y位置の車道幅の値及び車道方向の値(走行(進行)角度)を格納することができ、この2つの行列はそれぞれlane_width_mat及びlane_dir_matと記される。例えば、2つのROIがあり、且つ画像の高さが360(ピクセル)である場合、この2つの行列のサイズは2*360である。 For example, two matrices can be used to store the lane width and lane direction values (travel (heading) angles) for each Y position in each ROI, and these two matrices are denoted as lane_width_mat and lane_dir_mat, respectively. For example, if there are two ROIs and the image height is 360 (pixels), the size of these two matrices is 2*360.

幾つかの実施例において、ハードウェア構成の計算能力に基づいてオブジェクト検出の方法、モデル又は検出子を選択することができ、例えば、機械学習又は深層学習モデルによりオブジェクトを検出することができる。初期段階において、ROI領域により検出の範囲を調整することができ、オブジェクト検出モジュールは、検出した各オブジェクトの検出情報(矩形、類型及び属性を含む)を追跡モジュールに出力することができる。以下、検出モジュールが検出した検出情報をブラッブ(Blob)情報と称する。 In some embodiments, an object detection method, model, or detector can be selected based on the computing power of the hardware configuration, for example, objects can be detected by machine learning or deep learning models. In the initial stage, the detection range can be adjusted according to the ROI region, and the object detection module can output detection information (including rectangle, type, and attributes) of each detected object to the tracking module. Hereinafter, the detection information detected by the detection module is referred to as blob information.

例えば、枝刈り(pruning)後のYOLO V3モデルを検出子として使用し、監視カメラヘッドのサンプルを用いて該モデルを訓練することができる。該モデルは、7種の物体、即ち、自動車、トラック、バス、バン(van)、オートバイ、自転車及び人を検出することができる。なお、具体的にどのようにオブジェクト検出を行うかについては、関連技術を参照することができる。 For example, the YOLO V3 model after pruning can be used as a detector, and the model can be trained using surveillance camera head samples. The model can detect seven types of objects, namely, cars, trucks, buses, vans, motorcycles, bicycles, and people. For details on how to perform object detection, please refer to the related art.

幾つかの実施例において、追跡子を用いてオブジェクト追跡のための追跡情報を格納することができる。例えば、各車両追跡子はコンテナに1つのバッファがあり、追跡の目的は追跡子のバッファのコンテナを更新し、また、コンテナからROI領域を離れた追跡子を削除することにある。 In some embodiments, the trackers can be used to store tracking information for tracking objects. For example, each vehicle tracker has one buffer in the container, and the goal of tracking is to update the container of tracker buffers and also remove trackers that have left the ROI region from the container.

例えば、新しく検出した各車両のために1つの格納スペースを割り当てることができる。新しく検出した車両は、該車両が何れのバッファのブラッブとマッチしないことを示す。例えば、バッファのデータ構造は表1に示す通りであり、ここで、新しいバッファにおいて“track_rect”のために検出した車両の矩形を割り当てる。バッファにおける他の情報は0と設定され、また、その後のステップで更新され得る。

Figure 0007509040000001
For example, one storage space can be allocated for each newly detected vehicle. A newly detected vehicle indicates that the vehicle does not match the blob of any buffer. For example, the data structure of the buffer is as shown in Table 1, where we allocate the rectangle of the detected vehicle for "track_rect" in the new buffer. Other information in the buffer is set to 0 and can be updated in the subsequent steps.
Figure 0007509040000001

本発明の実施例では、道路情報を用いてスケールの変化及びブロッキングの問題を解決することができる。例えば、車道幅の値は追跡を行う距離閾値を調整するために用いられ得る。1つの固定した閾値を用いて追跡マッチングを行う場合、車両が遠い領域又は近い領域に入るときに、追跡の正確性が低下することがある。追跡子と、検出されたブラッブとがマッチしないときに、車道幅の値はさらにテンプレートマッチングの前にスケールを調整するために用いられ得る。 In an embodiment of the present invention, road information can be used to solve the problems of scale change and blocking. For example, the road width value can be used to adjust the distance threshold for tracking. When a single fixed threshold is used for track matching, the tracking accuracy may decrease when the vehicle enters a distant or nearby area. When the tracker and the detected blob do not match, the road width value can be further used to adjust the scale before template matching.

幾つかの実施例において、検出情報の矩形の幅に所定スケール値をかける(掛け算)ことで、前記検出情報に対応する所定高さ範囲内の道路の幅を更新し、及び/又は、前記検出情報の底辺の中点に基づいて複数のフレームの間のベクトルの角度を計算することで、前記検出情報に対応する所定高さ範囲内の道路方向を更新することができる。 In some embodiments, the width of the rectangle in the detection information is multiplied by a predetermined scale value to update the width of the road within a predetermined height range corresponding to the detection information, and/or the direction of the road within a predetermined height range corresponding to the detection information is updated by calculating the angle of the vector between multiple frames based on the midpoint of the base of the detection information.

例えば、初期化段階において、車道幅の更新はオブジェクト検出モジュールの後にあり、初期化段階の後に、車道幅の更新は追跡モジュールの後にある。車道の幅は“自動車”の矩形の幅を参照することができる。実際の車道の幅は通常3.5m乃至4mであり、自動車の幅は1.6m乃至1.8mである。よって、車道の幅が自動車の幅の1.5倍(即ち、所定スケール値)であるとすることができる。なお、ここでの該所定スケール値は1.5に限定されず、他の値であっても良い。 For example, in the initialization phase, the roadway width update is after the object detection module, and after the initialization phase, the roadway width update is after the tracking module. The roadway width can refer to the width of the "car" rectangle. The actual roadway width is usually 3.5m to 4m, and the car width is 1.6m to 1.8m. Therefore, the roadway width can be 1.5 times the car width (i.e., the predetermined scale value). Note that the predetermined scale value here is not limited to 1.5 and may be other values.

図2は本発明の実施例における車道幅更新の一例を示す図であり、検出情報に基づいて車道幅の値を適応的に更新するケースを示している。該道路監視領域はROI 1及びROI 2を含み、車道に沿う線201と線202との間の距離は各Y位置の適応車道幅である。 Figure 2 shows an example of roadway width updating in an embodiment of the present invention, illustrating a case where the roadway width value is adaptively updated based on detection information. The road monitoring area includes ROI 1 and ROI 2, and the distance between line 201 and line 202 along the roadway is the adaptive roadway width for each Y position.

図2に示すように、例えば、1つの自動車Blob 203が検出されたときに、その底部のY坐標がyであり、ROI 1においてその幅がwである場合、lane_width_matの第一行のy-10とy+10との間の車道幅の値を1.5*wに更新する。そのうち、10ピクセルシフトすることは、更新が所定期間後に上から下へROI領域をカバーし得ることを確保するためである。 As shown in FIG. 2, for example, when a car blob 203 is detected, its bottom Y coordinate is y and its width is w in ROI 1, the lane width value between y-10 and y+10 in the first row of lane_width_mat is updated to 1.5*w. The 10 pixel shift is to ensure that the update can cover the ROI area from top to bottom after a certain period of time.

また、例えば、車道方向の更新は追跡モジュールの後にあり、追跡モジュールにおける誤ったマッチングを削除するために用いられ得る。オブジェクトが所定期間追跡されている場合、走行角度(0°~360°)は安定したものである。底辺の中点を基準点として、2つの追跡子の間の角度を計算することができる。フレームの持続時間はt(例えば、5)である。 Also, for example, roadway direction updates are after the tracking module and can be used to remove false matches in the tracking module. When an object is tracked for a period of time, the driving angle (0°-360°) is stable. Taking the midpoint of the base as the reference point, the angle between the two trackers can be calculated. The duration of a frame is t (e.g., 5).

例えば、1つのオブジェクトについて、5つのフレームを追跡し、現在のi番目のフレームの基準点が(x,y)であり、i-5番目のフレームの基準点が(xi-5,yi-5)である場合、この2つの点の間のベクトルの角度はlane_dir_matに更新される。車道幅の更新と同様に、現在のY位置の上下領域(例えば、y-10とy+10との間の領域)を更新することもできる。 For example, for an object, if five frames are tracked and the reference point of the current i-th frame is (x i , y i ) and the reference point of the (i-5)th frame is (x i-5 , y i-5 ), the angle of the vector between these two points is updated to lane_dir_mat. Similar to updating the roadway width, the area above and below the current Y position (e.g., the area between y-10 and y+10) can also be updated.

幾つかの実施例において、或る検出情報と或る追跡情報がマッチし得るかを確定する。具体的には、以下のような条件のうちの少なくとも1つ又は任意の組み合わせが満足される場合、或る検出情報と或る追跡情報がマッチングし得ると確定することができ、即ち、
前記検出情報に対応するオブジェクトが、前記追跡情報に対応するオブジェクトと同じ関心領域に位置し;
前記検出情報の底辺の中点と、前記追跡情報の底辺の中点との間の距離が、前記追跡情報に対応する車道の幅に第一所定係数をかけた値よりも小さく;
前記検出情報の矩形の面積と、前記追跡情報の矩形の面積との差が、両面積のうちの比較的小さい面積に第二所定係数をかけた値よりも小さく;及び
前記検出情報のマッチングベクトル方向と、前記追跡情報に対応する車道走行方向(車道上の車の走行方向)との間の角度が所定角度よりも小さい。
In some embodiments, determining whether a certain detection information and a certain tracking information can be matched can be performed. Specifically, it can be determined that a certain detection information and a certain tracking information can be matched when at least one or any combination of the following conditions is satisfied:
an object corresponding to the detection information is located in the same region of interest as an object corresponding to the tracking information;
The distance between the midpoint of the base of the detection information and the midpoint of the base of the tracking information is smaller than a value obtained by multiplying the width of the roadway corresponding to the tracking information by a first predetermined coefficient;
The difference between the area of the rectangle of the detection information and the area of the rectangle of the tracking information is smaller than a value obtained by multiplying the relatively smaller area of the two areas by a second predetermined coefficient; and the angle between the matching vector direction of the detection information and the roadway driving direction (the driving direction of the vehicle on the roadway) corresponding to the tracking information is smaller than a predetermined angle.

例えば、リアルタイム道路ビデオを監視するため、これは、1秒内で十数個のフレームを処理し得ることを意味する。よって、物体の移動距離は長すぎてはならない。追跡子自身の距離、面積及び履歴情報に基づいて、検出した各Blobとバッファ追跡子との比較を行うことができる。 For example, to monitor real-time road video, this means that we can process dozens of frames within one second, so the moving distance of an object cannot be too long. A comparison can be made between each detected blob and the buffer tracker based on the tracker's own distance, area and history information.

例えば、検出したblobがblob[i]であり、バッファ追跡子がtracker[j]であり、tracker[j]の車道幅の値がlane_wjであり、tracker[j]の走行角度がanglejである場合、マッチング条件は、
1)対応するオブジェクトが同じROIに位置し;
2)2つの底辺の中点の間の距離が0.5*lane_wjよりも小さく;
3)2つの矩形の間の面積の差がそのうちの比較的小さい面積の0.3倍よりも小さく;及び
4)追跡子[j]の車道走行方向とマッチングベクトルの角度が45°よりも小さい。
For example, if the detected blob is blob[i], the buffer tracker is tracker[j], the value of the lane width of tracker[j] is lane_wj, and the driving angle of tracker[j] is anglej, the matching condition is:
1) corresponding objects are located in the same ROI;
2) The distance between the midpoints of the two bases is less than 0.5*lane_wj;
3) the difference in area between the two rectangles is less than 0.3 times the smaller area of the two rectangles; and 4) the angle between the roadway driving direction of the tracker [j] and the matching vector is less than 45°.

なお、以上のマッチング方法及び条件は本発明の具体例に過ぎず、本発明はこれに限られない。 Note that the above matching methods and conditions are merely specific examples of the present invention, and the present invention is not limited to these.

図3は、本発明の実施例における追跡マッチングのためのパラメータの一例を示す図である。図3に示すように、tracker[j]の下方の点線は履歴軌迹であり、tracker[j]の下方の車道走行方向はベクトル方向301であり、tracker[j]の底辺の中点のY坐標のlane_dir_matにおける方向角度値であり;さらにblob[i]とtracker[j]の底辺の中点の間の角度(マッチングベクトル方向とも言い、即ち、ベクトル302の方向である)を算出することができる。上述の条件4)の角度は、ベクトル301(車道走行方向)とベクトル302(マッチングベクトル方向)との間の角度であり、該角度は、45°よりも小さい。 Figure 3 is a diagram showing an example of parameters for tracking matching in an embodiment of the present invention. As shown in Figure 3, the dotted line below tracker[j] is the historical trajectory, and the roadway driving direction below tracker[j] is vector direction 301, which is the direction angle value in lane_dir_mat of the Y coordinate of the midpoint of the base of tracker[j]; and the angle between blob[i] and the midpoint of the base of tracker[j] (also called the matching vector direction, i.e., the direction of vector 302) can be calculated. The angle of the above condition 4) is the angle between vector 301 (roadway driving direction) and vector 302 (matching vector direction), and the angle is less than 45°.

幾つかの実施例において、或る追跡情報が1つ又は複数の検出情報に対応している場合、最も一致した検出情報を選択して前記追跡情報を更新し;或る検出情報が1つ又は複数の追跡情報に対応している場合、前記検出情報を最も一致した追跡情報の更新のために用い;或る検出情報が追跡情報とマッチしない場合、前記検出情報を新しいオブジェクトとする。 In some embodiments, if a certain tracking information corresponds to one or more detection information, the most matching detection information is selected to update the tracking information; if a certain detection information corresponds to one or more tracking information, the detection information is used to update the most matching tracking information; if a certain detection information does not match the tracking information, the detection information is a new object.

例えば、検出した各ブラッブと追跡子とのマッチングを行った後に、1つの名前がmatch_matである行列を得ることができる。カレント(current)フレームにおいてN個のブラッブを検出し、M個の追跡子がある場合、マッチング行列のサイズはN*Mである。追跡コンテナは以下のケースに基づいて更新される。 For example, after matching each detected blob with a tracker, we can obtain a matrix named match_mat. If we detect N blobs in the current frame and have M trackers, the size of the matching matrix is N*M. The tracking container is updated based on the following cases:

1つの追跡子[j]について、それとマッチした検出ブラッブが1つ又は複数ある場合、即ち、

Figure 0007509040000002
である場合、最も一致した検出ブラッブを選択して追跡子[j]を更新し、j番目の列における他のマッチングフラグが0に設定される。 For a given tracker [j], if there are one or more detection blobs that match it, i.e.,
Figure 0007509040000002
If so, select the best matching detection blob and update the tracker[j], and the other matching flags in the jth column are set to 0.

検出した1つのblob[i]について、それとマッチした追跡子が1つ又は複数ある場合、即ち、

Figure 0007509040000003
である場合、最も一致した追跡子を選択し、blob[i]を用いてそれを更新し、i番目の行における他のマッチングフラグが0に設定される。 If one or more tracers match a detected blob[i], that is,
Figure 0007509040000003
If so, select the best matching tracker, update it with blob[i], and set the other matching flag in the i-th row to 0.

検出したblob[i]とマッチする追跡子がない場合、即ち、

Figure 0007509040000004
である場合、検出した該ブラッブを、ROIに入った新しいオブジェクトと見なし、その後、それに対して初期化を行い、また、それを追跡コンテナにプッシュすることができる。 If there is no tracer that matches the detected blob[i], i.e.,
Figure 0007509040000004
If so, then we consider the detected blob as a new object that has entered the ROI, and we can then perform initialization on it and push it into the tracking container.

幾つかの実施例において、或る追跡情報が検出情報とマッチしない場合、前記追跡情報のために予測情報を構成し、又は、前記追跡情報を除去する。 In some embodiments, if a tracking information does not match the detection information, prediction information is constructed for the tracking information or the tracking information is removed.

例えば、該追跡子とマッチするブラッブ[j]を検出しない場合、即ち、

Figure 0007509040000005
である場合、2つの可能性を含み、1つは、該オブジェクトがROIを離れており、もう1つは、検出モジュールが一時的に該オブジェクトを見逃している。後者の場合、本発明の実施例は、テンプレートマッチング方法により矩形を見つけ、又は、履歴情報に基づいて予測操作を行うことができる。 For example, if no blob[j] matching the tracker is found, i.e.,
Figure 0007509040000005
If , there are two possibilities: the object has left the ROI, and the detection module misses the object temporarily. In the latter case, the embodiment of the present invention can find the rectangle by template matching method, or perform predictive operation based on historical information.

図4は本発明の実施例において検出情報とマッチしない或る追跡情報に対しての処理方法を示す図である。図4に示すように、検出情報とマッチしない或る追跡情報について、該処理方法は以下のステップを含む。 Figure 4 illustrates a processing method for certain tracking information that does not match the detection information in an embodiment of the present invention. As shown in Figure 4, for certain tracking information that does not match the detection information, the processing method includes the following steps:

401:テンプレートマッチングフレーム数(matching-cnt)が第一閾値(threshold 1)よりも小さいかを判断し、はいの場合、402を実行し、いいえの場合、405を実行する。 401: Determine whether the number of template matching frames (matching-cnt) is less than a first threshold (threshold 1). If yes, execute 402; if no, execute 405.

例えば、該テンプレートマッチングフレーム数(matching-cnt)は、表1におけるframe_cntからpredict_cnt及びvehicle_cntをマイナスしたものであっても良い。 For example, the number of template matching frames (matching-cnt) may be frame_cnt in Table 1 minus predict_cnt and vehicle_cnt.

402:現在のフレームを用いて入力画像を構成し、及び前のフレーム(例えば、1つ前のフレーム)を用いてテンプレート画像を構成する。 402: Construct an input image using the current frame, and construct a template image using the previous frame (e.g., the previous frame).

幾つかの実施例において、現在のフレームにおいて1つの矩形を見つけて、テンプレートマッチングのための入力画像を作成しても良い。そのうち、カルマンフィルターを用いてフレームの間の変位ベクトル(dx,dy)を予測することができる。 In some implementations, a rectangle may be found in the current frame to create an input image for template matching, where a Kalman filter can be used to predict the displacement vector (dx, dy) between frames.

例えば、矩形の底辺の中点を基準点とし、フレームの間の基準点の変位が(dx,dy)である。カルマンフィルターを初期化するために、4つの状態値の次元、即ち、dx、dy、dx’、dy’があって良い。遷移行列Aが以下のように定義される。

Figure 0007509040000006
For example, the midpoint of the bottom edge of the rectangle is taken as the reference point, and the displacement of the reference point between frames is (dx, dy). To initialize the Kalman filter, there may be four state value dimensions, namely dx, dy, dx', and dy'. The transition matrix A is defined as follows:
Figure 0007509040000006

追跡モジュールの更新過程において、カルマンフィルターは測定結果に基づいて予測状態を更新する。1つ前のフレームの測定行列を用いて予測関数を呼び出すと、それは、カレントフレームの予測結果をリターンし、例えば、予測基準点の位置はpredict_pointである。 During the update process of the tracking module, the Kalman filter updates the prediction state based on the measurement results. When the prediction function is called with the measurement matrix of the previous frame, it returns the prediction result of the current frame, for example, the position of the prediction reference point is predict_point.

幾つかの実施例において、カルマンフィルターに基づいてカレントフレームの予測点を計算することで、対応する第一車道幅を取得し;前記予測情報の底辺の中点に基づいて対応する第二車道幅を取得し;前記第一車道幅及び前記第二車道幅に基づいて車道幅の比率を計算し;前記車道幅の比率に基づいて前記カレントフレームから前記入力画像を取得し、及び/又は、前記車道幅の比率に基づいて前記前のフレームから前記テンプレート画像を取得する。 In some embodiments, a corresponding first road width is obtained by calculating a predicted point of the current frame based on a Kalman filter; a corresponding second road width is obtained based on the midpoint of the base of the predicted information; a road width ratio is calculated based on the first road width and the second road width; the input image is obtained from the current frame based on the road width ratio, and/or the template image is obtained from the previous frame based on the road width ratio.

図5は本発明の実施例におけるカレントフレームの一例を示す図である。例えば、まず、カレントフレームにおいて入力画像の範囲を確定する。“predict_point”は予測の底辺の中点であり、カルマンフィルターの予測からのものであり、図5における501に示すようである。track_rectは追跡子における該追跡情報の矩形であり、図5における502に示すようである。 Figure 5 shows an example of a current frame in an embodiment of the present invention. For example, first, determine the range of the input image in the current frame. "predict_point" is the midpoint of the prediction base from the Kalman filter prediction, as shown at 501 in Figure 5. track_rect is the rectangle of the tracking information in the tracker, as shown at 502 in Figure 5.

track_rectのY坐標がy1であり、predict_pointのY坐標がy2であり、対応する車道幅の値がそれぞれlane_width_mat[y1]及びlane_width_mat[y2]である場合、車道幅の比率はlane_width_mat[y2]/lane_width_mat[y1]である。 If the Y coordinate of track_rect is y1, the Y coordinate of predict_point is y2, and the corresponding lane width values are lane_width_mat[y1] and lane_width_mat[y2], respectively, then the lane width ratio is lane_width_mat[y2]/lane_width_mat[y1].

次に、“track_rect”の底辺の中点を“predict_point”に移動し、track_rectの枠のサイズを上述の車道幅の比率に従って調整することができ、比率調整後の新しい矩形は“predict_rect”と称され、図5における枠503に示すようである。その後、この矩形の範囲を0.1倍拡大して誤差を減少させることで、マッチング範囲(matching range)を形成し、例えば、図5における範囲枠504に示すようである。 Then, the midpoint of the bottom side of "track_rect" is moved to "predict_point", and the size of the box of track_rect can be adjusted according to the ratio of the roadway width mentioned above, and the new rectangle after the ratio adjustment is called "predict_rect", as shown in box 503 in FIG. 5. Then, the range of this rectangle is expanded by 0.1 times to reduce the error, thereby forming a matching range, as shown in box 504 in FIG. 5, for example.

最後に、カレントフレームにおけるマッチング範囲内の画像をカットすることで、テンプレートマッチングを行うための入力画像を得ることができる。 Finally, the input image for template matching can be obtained by cutting the image within the matching range in the current frame.

図6は本発明の実施例においてテンプレートマッチングを行うための入力画像の一例を示す図である。 Figure 6 shows an example of an input image for performing template matching in an embodiment of the present invention.

幾つかの実施例において、1つ前のフレームに基づいてテンプレートマッチングのためのテンプレート画像を構成しても良い。1台の車のサイズのフレーム間の変化が大きい可能性があるので、テンプレート画像も車道幅の比率に基づいて調整される必要がある。 In some embodiments, a template image for template matching may be constructed based on the previous frame. Since the frame-to-frame variation in the size of a car may be large, the template image also needs to be adjusted based on the roadway width ratio.

図7は本発明の実施例においてテンプレートマッチングを行うためのテンプレート画像の一例を示す図である。図7に示すように、左の図は、1つ前のフレームにおける小さい画像であり、右の図は、それに対するサイズ調整後の画像であり、例えば、上述の車道幅の比率をかけたものであり、該調整後の画像はテンプレート画像とされる。 Figure 7 shows an example of a template image for performing template matching in an embodiment of the present invention. As shown in Figure 7, the image on the left is a small image in the previous frame, and the image on the right is an image after size adjustment, for example multiplied by the roadway width ratio described above, and the adjusted image is used as the template image.

図4に示すように、該処理方法はさらに以下のステップを含んでも良い。 As shown in FIG. 4, the processing method may further include the following steps:

403:前記入力画像と前記テンプレート画像とのテンプレートマッチングを行う。 403: Perform template matching between the input image and the template image.

幾つかの実施例において、マッチング範囲がW×Hであり、且つブラッブテンプレートがw×hである。この場合、各ブラッブのグレースケール画像をテンプレートとしても良い。マッチング機能は、W×Hの方式で背景画像においてスライドし、w×hの重畳(overlap)色ブロックを比較し、そして、比較結果をmatに保存する。該matのサイズは(W-w+1)×(H-h+1)である。 In some embodiments, the matching range is WxH and the blob template is wxh. In this case, the grayscale image of each blob can be used as the template. The matching function slides in the background image in the manner of WxH, compares the overlapping color blocks of wxh, and stores the comparison results in mat. The size of the mat is (W-w+1)x(H-h+1).

例えば、正規化相関係数方法によりテンプレートマッチングを行うことができ、以下の公式に示すようである。そのうち、Iは画像(マッチング範囲内のバッファリング背景画像)を表し、Tはテンプレート(ブラッブ領域中のグレースケール画像)であり、Rは結果行列である。類似度計算前に画像及びテンプレートに対して正規化処理を行い、この操作は、照明の変化によるエラーを避けることができる。Rの値は-1乃至1の範囲内である。1は画像がテンプレートと同じであることを示し、-1はその逆(即ち、両者が異なること)を示し、0はそれらの間に線形関係がないことを示す。

Figure 0007509040000007
For example, template matching can be performed by the normalized correlation coefficient method, as shown in the following formula: where I represents the image (the buffered background image in the matching range), T represents the template (the grayscale image in the blob area), and R represents the result matrix. A normalization process is performed on the image and the template before the similarity calculation, which can avoid errors caused by changes in illumination. The value of R ranges from -1 to 1. 1 indicates that the image is the same as the template, -1 indicates the opposite (i.e., the two are different), and 0 indicates that there is no linear relationship between them.
Figure 0007509040000007

なお、以上、テンプレートマッチングのみについて例示的に説明したが、本発明はこれに限られない。テンプレートマッチングの具体的な内容については、関連技術を参照することができる。 Note that although only template matching has been described above as an example, the present invention is not limited to this. For specific details of template matching, please refer to related art.

図4に示すように、該処理方法はさらに以下のステップを含んでも良い。 As shown in FIG. 4, the processing method may further include the following steps:

404:前記テンプレートマッチングのマッチング度が第二閾値(threshold 2)よりも大きいかを判断し、はいの場合、405を実行し、いいえの場合、406を実行し;
405:前記予測情報としての前記入力画像に基づいて前記追跡情報を更新する。
404: Determine whether the matching degree of the template matching is greater than a second threshold (threshold 2); if yes, execute 405; if no, execute 406;
405: Updating the tracking information based on the input image as the predicted information.

幾つかの実施例において、上述のテンプレート画像と入力画像とのテンプレートマッチングを行った後に、結果行列R及び対応するマッチング矩形を得ることができる。Rの中の最大値は最終マッチング度match_degree(-1乃至1の間)である。match_degreeの対応する矩形はマッチング矩形match_rectである。 In some embodiments, after performing the template matching between the above template image and the input image, a result matrix R and corresponding matching rectangles can be obtained. The maximum value in R is the final matching degree match_degree (between -1 and 1). The corresponding rectangle of match_degree is the matching rectangle match_rect.

幾つかの実施例において、マッチング度の閾値を設定して、有効なマッチング結果であるかを判断しても良い。例えば、該閾値が0.7であろ、マッチング度が0.7よりも大きい場合、該テンプレートマッチングが有効であることを示し、この場合、追跡情報更新の405に進み、そうでない場合、該テンプレートマッチングが失敗したことを意味し、予測操作の406に移行する。 In some embodiments, a matching degree threshold may be set to determine whether the matching result is valid. For example, the threshold may be 0.7, and if the matching degree is greater than 0.7, it indicates that the template matching is valid, and in this case, proceed to 405 for updating tracking information; otherwise, it means that the template matching has failed, and proceed to 406 for prediction operation.

本発明の実施例では、検出情報とマッチする追跡情報が存在せず、且つテンプレートマッチング過程にも失敗した場合、依然としてオブジェクトを、離れている対象と判定することができない。なぜなら、該オブジェクトが一時的に障害物又は他の物体によりブロッキングされ得るからである。よって、予測操作を用いて継続して幾つかのフレームを追跡しても良い。 In an embodiment of the present invention, if there is no tracking information that matches the detection information and the template matching process also fails, the object still cannot be determined as a distant target because the object may be temporarily blocked by an obstacle or other object. Therefore, a prediction operation may be used to continue tracking for several frames.

図4に示すように、該処理方法はさらに以下のステップを含んでも良い。 As shown in FIG. 4, the processing method may further include the following steps:

406:予測フレーム数(predict-cnt)が第三閾値(threshold 3)よりも小さいか、且つ総フレーム数(frame-cnt)が第四閾値(threshold 4)よりも小さいかを判断し、はいの場合、407を実行し、いいえの場合、411を実行する。 406: Determine whether the predicted frame count (predict-cnt) is less than a third threshold (threshold 3) and whether the total frame count (frame-cnt) is less than a fourth threshold (threshold 4). If yes, execute 407; if no, execute 411.

407:カレントフレームを用いて前記予測情報としての予測画像を構成する。 407: A predicted image is constructed as the prediction information using the current frame.

例えば、上述の入力画像を該予測画像としても良いが、本発明はこれに限られない。 For example, the input image described above may be the predicted image, but the present invention is not limited to this.

図4に示すように、該処理方法はさらに以下のステップを含んでも良い。 As shown in FIG. 4, the processing method may further include the following steps:

408:該予測画像が有効であるかを判断し、前記予測画像が有効である場合、409を実行し、前記予測画像が無効である場合、410を実行し;
409:前記予測画像に基づいて前記追跡情報を更新し;
410:前記追跡情報を除去する。
408: Determine whether the predicted image is valid, and if the predicted image is valid, execute 409; if the predicted image is invalid, execute 410;
409: Updating the tracking information based on the predicted image;
410: Remove the tracking information.

幾つかの実施例において、予測操作はずっと実行することができず、predict_cntは連続して予測したフレーム数を保存する。predict_cntが閾値よりも高い場合、予測の矩形を採用せず、且つこの追跡子に対して削除操作を行う。予測の矩形をtrack_rectに更新した後、predict_cntに1をプラスする。或いは、検出したブラッブ又はテンプレートマッチング結果によりtrack_rectを更新する場合、predict_cntを0に設定する。 In some embodiments, the prediction operation cannot be performed forever, and predict_cnt stores the number of consecutive predicted frames. If predict_cnt is higher than a threshold, the prediction rectangle is not adopted and a delete operation is performed on this tracker. After updating the prediction rectangle to track_rect, add 1 to predict_cnt. Alternatively, if track_rect is updated according to the detected blob or template matching result, set predict_cnt to 0.

なお、上述の図4は本発明の実施例を例示的に説明するものに過ぎず、本発明はこれに限られない。例えば、各操作(ステップ)間の実行順序を適切に調整したり、幾つかの操作(ステップ)を増減したりしても良い。即ち、当業者は図4の記載をもとに上述の内容に対して適切に変更しても良い。 Note that the above-mentioned FIG. 4 merely illustrates an example embodiment of the present invention, and the present invention is not limited thereto. For example, the execution order between each operation (step) may be appropriately adjusted, or some operations (steps) may be added or removed. In other words, a person skilled in the art may make appropriate changes to the above content based on the description of FIG. 4.

幾つかの実施例において、追跡マッチングにより得られたブラッブ、又は、テンプレートマッチングにより得られたブラッブ、又は、予測操作により得られたブラッブの結果に基づいて、追跡子を更新する。track_rectはこの3種のブラッブのうちの1つの矩形により更新され、frame_cntは1がプラスされ、この新しい矩形の底辺の中点はkalman_filterを更新する度量(Measurement)とされる。該矩形が追跡マッチングからのものである場合、vehicle_cntは1がプラスされ、該矩形が予測操作からのものである場合、predict_cntは1がプラスされる。 In some embodiments, the tracker is updated based on the results of a blob obtained by track matching, or a blob obtained by template matching, or a blob obtained by a prediction operation. track_rect is updated with a rectangle of one of the three types of blobs, frame_cnt is incremented by 1, and the midpoint of the base of this new rectangle is taken as the measurement for updating kalman_filter. If the rectangle is from track matching, vehicle_cnt is incremented by 1, and if the rectangle is from a prediction operation, predict_cnt is incremented by 1.

幾つかの実施例において、後続のモジュールが軌跡情報を必要とする場合、追跡子の構造には、コンテナが軌迹点を保存するために追加されても良い。その後、交通イベントを判断するために用いられる。交通分析システムにおいて、追跡結果は、交通目標のカウント、混雑の検出、逆方向の検出、車線変更の検出、違法駐車の検出などのために用いられ得る。 In some embodiments, if subsequent modules require the trajectory information, a container may be added to the tracker structure to store the trajectory points, which are then used to determine traffic events. In a traffic analysis system, the tracking results can be used for traffic target counting, congestion detection, wrong direction detection, lane change detection, illegal parking detection, etc.

以上、本発明に係る各ステップ又はプロセスのみについて説明したが、本発明はこれに限られない。オブジェクト追跡方法はさらに他のステップ又はプロセスを含んでも良く、これらのステップ又はプロセスの具体的な内容については、従来技術を参照することができる。また、上述の公式を例にとって本発明の実施例について例示的に説明したが、本発明はこれらの公式に限定されず、これらの公式を適切に変更しても良いが、そのすべては、本発明の実施例の技術的範囲内に属する。 Although only each step or process according to the present invention has been described above, the present invention is not limited thereto. The object tracking method may further include other steps or processes, and the specific contents of these steps or processes may be referred to in the prior art. In addition, although the above formulas have been used as examples to explain the embodiments of the present invention, the present invention is not limited to these formulas, and these formulas may be modified as appropriate, all of which fall within the technical scope of the embodiments of the present invention.

さらに、上述の各実施例は本発明の実施例を例示的に説明するものに過ぎず、本発明はこれに限られず、上述の各実施例をもとに適切な変形を行っても良い。例えば、上述の各実施例を単独で使用しても良く、上述の各実施例のうちの1つ又は複数を組み合わせて使用しても良い。 Furthermore, the above-mentioned embodiments are merely illustrative examples of the present invention, and the present invention is not limited thereto. Appropriate modifications may be made based on the above-mentioned embodiments. For example, the above-mentioned embodiments may be used alone, or one or more of the above-mentioned embodiments may be used in combination.

上述の実施例から分かるように、1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行い、そして、マッチング結果に基づいて前記追跡情報を更新し、及び、検出情報及び/又は追跡情報に基づいて関心領域の道路情報を更新することにより、迅速なオブジェクト追跡を実現し、リアルタイム道路監視ビデオに係るスケールの変化及び/又はブロッキングの問題を解決することができる。 As can be seen from the above embodiments, by matching detection information of one or more objects with tracking information for object tracking, updating the tracking information based on the matching result, and updating road information of the region of interest based on the detection information and/or tracking information, fast object tracking can be achieved and problems of scale change and/or blocking in real-time road surveillance video can be solved.

<第二側面の実施例>
本発明の実施例は道路監視ビデオのオブジェクト追跡装置を提供し、ここでは第一側面の実施例と同じ内容が省略される。
<Example of the second aspect>
An embodiment of the present invention provides an object tracking apparatus for road surveillance video, and the same contents as those of the embodiment of the first aspect are omitted here.

図8は本発明の実施例における道路監視ビデオのオブジェクト追跡装置を示す図である。図8に示すように、道路監視ビデオのオブジェクト追跡装置800は以下のものを含む。 Figure 8 illustrates an object tracking device for road surveillance video in an embodiment of the present invention. As shown in Figure 8, the object tracking device for road surveillance video 800 includes:

オブジェクト検出ユニット801:道路関心領域のリアルタイム監視ビデオに対してオブジェクト検出を行い、1つ又は複数のオブジェクトの検出情報を取得し;
追跡マッチングユニット802:前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行い;
追跡更新ユニット803:マッチング結果に基づいて前記追跡情報を更新し;及び
道路更新ユニット(道路情報更新ユニット)804:前記検出情報及び/又は前記追跡情報に基づいて前記関心領域の道路情報を更新する。
Object detection unit 801: performs object detection on the real-time surveillance video of the road area of interest, and obtains detection information of one or more objects;
A tracking matching unit 802: matches the detection information of the one or more objects with tracking information for object tracking;
A tracking update unit 803: updates the tracking information based on the matching result; and a road update unit (road information update unit) 804: updates the road information of the area of interest based on the detection information and/or the tracking information.

幾つかの実施例において、図8に示すように、道路監視ビデオのオブジェクト追跡装置800はさらに以下のものを含んでも良い。 In some embodiments, as shown in FIG. 8, the road surveillance video object tracking device 800 may further include:

初期化確定ユニット805:初期化段階にあるかを確定し、前記初期化段階にある場合、道路更新ユニット804は前記検出情報に基づいて前記関心領域の道路情報を更新し、前記初期化段階にない場合、追跡マッチングユニット802は前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行う。 Initialization determination unit 805: determines whether it is in the initialization phase, and if it is, the road update unit 804 updates the road information of the area of interest based on the detection information, and if it is not in the initialization phase, the tracking matching unit 802 matches the detection information of the one or more objects with tracking information for object tracking.

幾つかの実施例において、道路更新ユニット804は、
前記検出情報の矩形の幅に所定スケール値をかけて、前記検出情報に対応する所定高さ範囲内の道路幅を更新;及び/又は
前記検出情報の底辺の中点に基づいて複数のフレームの間のベクトルの角度を計算し、前記検出情報に対応する所定高さ範囲内の道路方向を更新するように用いられる。
In some embodiments, the road update unit 804 includes:
It is used to update the road width within a predetermined height range corresponding to the detection information by multiplying the width of the rectangle of the detection information by a predetermined scale value; and/or to calculate the angle of a vector between multiple frames based on the midpoint of the base of the detection information, and update the road direction within a predetermined height range corresponding to the detection information.

幾つかの実施例において、追跡マッチングユニット802は、以下のような条件のうちの少なくとも1つ又は任意の組み合わせが満足される場合、或る検出情報と或る追跡情報がマッチングし得ると判定し、即ち、
前記検出情報に対応するオブジェクトと、前記追跡情報に対応するオブジェクトが同じ関心領域に位置し;
前記検出情報の底辺の中点と、前記追跡情報の底辺の中点との間の距離が、前記追跡情報に対応する車道幅に第一所定係数をかけた値よりも小さく;
前記検出情報の矩形の面積と、前記追跡情報の矩形の面積との差が、両面積のうちの比較的小さいものに第二所定係数をかけた値よりも小さく;及び
前記検出情報のマッチングベクトル方向と、前記追跡情報に対応する車道走行方向との間の角度が所定角度よりも小さいという条件である。
In some embodiments, the tracking matching unit 802 determines that a given detection information and a given tracking information can be matched if at least one or any combination of the following conditions is satisfied:
an object corresponding to the detection information and an object corresponding to the tracking information are located in the same region of interest;
The distance between the midpoint of the base of the detection information and the midpoint of the base of the tracking information is smaller than a value obtained by multiplying the road width corresponding to the tracking information by a first predetermined coefficient;
The condition is that the difference between the area of the rectangle of the detection information and the area of the rectangle of the tracking information is smaller than a value obtained by multiplying the smaller of the two areas by a second predetermined coefficient; and the angle between the matching vector direction of the detection information and the roadway driving direction corresponding to the tracking information is smaller than a predetermined angle.

幾つかの実施例において、追跡更新ユニット803は、或る追跡情報が1つ又は複数の検出情報に対応している場合、最も一致した検出情報を選んで前記追跡情報を更新し;或る検出情報が1つ又は複数の追跡情報に対応している場合、前記検出情報を、最も一致した追跡情報を更新するために使用するために用いられる。 In some embodiments, the tracking update unit 803 is used to, when a piece of tracking information corresponds to one or more pieces of detection information, select the most matching detection information to update the tracking information; when a piece of detection information corresponds to one or more pieces of tracking information, use the detection information to update the most matching tracking information.

追跡更新ユニット803はさらに、或る検出情報とマッチする追跡情報がない場合、前記検出情報を新しいオブジェクトとし;或る追跡情報とマッチングする検出情報がない場合、前記追跡情報のために予測情報を構成し、又は、前記追跡情報を削除するために用いられる。 The tracking update unit 803 is further used to: make the detection information a new object when there is no matching tracking information with the detection information; construct prediction information for the tracking information when there is no matching detection information with the tracking information, or delete the tracking information.

幾つかの実施例において、追跡更新ユニット803は、
テンプレートマッチングフレーム数が第一閾値よりも小さい場合、現在のフレームを用いて入力画像を構成し、及び前のフレームを用いてテンプレート画像を構成し;
前記入力画像と前記テンプレート画像とのテンプレートマッチングを行い;及び
前記テンプレートマッチングのマッチング度が第二閾値よりも大きい場合、前記予測情報としての前記入力画像に基づいて前記追跡情報を更新するために用いられる。
In some embodiments, the tracking update unit 803 includes:
If the number of template matching frames is less than a first threshold, construct an input image using the current frame, and construct a template image using the previous frame;
Perform template matching between the input image and the template image; and when the matching degree of the template matching is greater than a second threshold, it is used to update the tracking information based on the input image as the prediction information.

幾つかの実施例において、追跡更新ユニット803はさらに、
カルマンフィルターに基づいてカレントフレームの予測点を計算し、対応する第一車道幅を取得し;
前記予測情報の底辺の中点に基づいて対応する第二車道幅を取得し;
前記第一車道幅及び前記第二車道幅に基づいて車道幅の比率を計算し;及び
前記車道幅の比率に基づいて前記現在のフレームから前記入力画像を取得し、及び/又は、前記車道幅の比率に基づいて前記前のフレームから前記テンプレート画像を取得するために用いられる。
In some embodiments, the tracking update unit 803 further comprises:
Calculate a predicted point of the current frame based on the Kalman filter, and obtain the corresponding first roadway width;
Obtain a corresponding second roadway width based on the midpoint of the base of the predicted information;
Calculate a roadway width ratio based on the first roadway width and the second roadway width; and used to obtain the input image from the current frame based on the roadway width ratio and/or obtain the template image from the previous frame based on the roadway width ratio.

幾つかの実施例において、追跡更新ユニット803はさらに、
前記テンプレートマッチングフレーム数が前記第一閾値以上であり、又は、前記テンプレートマッチングのマッチング度が前記第二閾値以下である場合、予測フレーム数が第三閾値よりも小さいか、且つ総フレーム数が第四閾値よりも小さいかを判断し;
前記予測フレーム数が前記第三閾値よりも小さく、且つ前記総フレーム数が前記第四閾値よりも小さい場合、カレントフレームを用いて前記予測情報としての予測画像を構成し;及び
前記予測画像が有効である場合、前記予測画像に基づいて前記追跡情報を更新するために用いられる。
In some embodiments, the tracking update unit 803 further comprises:
When the number of template matching frames is equal to or greater than the first threshold, or the matching degree of the template matching is equal to or less than the second threshold, determine whether the number of predicted frames is smaller than a third threshold and whether the total number of frames is smaller than a fourth threshold;
When the number of predicted frames is smaller than the third threshold and the total number of frames is smaller than the fourth threshold, using the current frame to construct a predicted image as the prediction information; and when the predicted image is valid, it is used to update the tracking information based on the predicted image.

幾つかの実施例において、追跡更新ユニット803はさらに
前記予測フレーム数が前記第三閾値以上であり、又は、前記総フレーム数が前記第四閾値以上であり、又は、前記予測画像が無効である場合、前記追跡情報を削除するように用いられる。
In some embodiments, the tracking update unit 803 is further configured to delete the tracking information when the predicted frame number is greater than or equal to the third threshold, or the total frame number is greater than or equal to the fourth threshold, or the predicted image is invalid.

便宜のため、図8では各部品又はモジュールの間の接続関係又は信号方向のみを示しているが、当業者が理解すべきは、バスによる接続などの各種の関連技術を採用しても良いということである。また、上述の各部品又はモジュールは、例えば、処理器、記憶器などのハードウェアにより実現されても良いが、本発明の実施例はこれについて限定しない。 For convenience, FIG. 8 shows only the connection relationships or signal directions between each component or module, but those skilled in the art should understand that various related technologies, such as connection by a bus, may also be adopted. In addition, each of the above-mentioned components or modules may be realized by hardware, such as a processor, a memory, etc., but the embodiment of the present invention is not limited thereto.

上述の各実施例は本発明の実施例を例示的に説明するためのものに過ぎず、本発明はこれに限られず、上述の各実施例をもとに適切な変更を行っても良い。例えば、上述の各実施例を単独で使用しても良く、上述の各実施例のうちの1つ又は複数を組み合わせて使用しても良い。 The above-mentioned embodiments are merely illustrative of the embodiments of the present invention, and the present invention is not limited thereto. Appropriate modifications may be made based on the above-mentioned embodiments. For example, the above-mentioned embodiments may be used alone, or one or more of the above-mentioned embodiments may be used in combination.

上述の実施例から分かるように、1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行い、そして、マッチング結果に基づいて前記追跡情報を更新し、及び検出情報及び/又は追跡情報に基づいて関心領域の道路情報を更新することにより、迅速なオブジェクト追跡を実現し、リアルタイム道路監視ビデオに係るスケールの変化及び/又はブロッキングの問題を解決することができる。 As can be seen from the above embodiments, by matching detection information of one or more objects with tracking information for object tracking, and then updating the tracking information based on the matching result, and updating road information of the region of interest based on the detection information and/or tracking information, rapid object tracking can be achieved and problems of scale change and/or blocking in real-time road surveillance video can be solved.

<第三側面の実施例>
本発明の実施例は電子機器を提供し、それは第二側面の実施例に記載の道路監視ビデオのオブジェクト追跡装置を含み、その内容はここに合併される。該電子機器は例えば、計算機、サーバー、ワークステーション、ノートパソコン、スマートフォンなどであっても良いが、本発明の実施例はこれに限定されない。
<Example of the third aspect>
An embodiment of the present invention provides an electronic device, which includes the road surveillance video object tracking device according to the embodiment of the second aspect, the contents of which are incorporated herein by reference. The electronic device may be, for example, a computer, a server, a workstation, a laptop, a smartphone, etc., but the embodiment of the present invention is not limited thereto.

図9は本発明の実施例における電子機器を示す図である。図9に示すように、電子機器900は処理器(例えば中央処理器CPU)910及び記憶器920を含んでも良く、記憶器920は中央処理器910に接続される。そのうち、該記憶器920は各種のデータを記憶することができ、また、情報処理用のプログラム921を記憶し、且つ処理器910の制御下で該プログラム921を実行することもできる。 Figure 9 is a diagram showing an electronic device in an embodiment of the present invention. As shown in Figure 9, the electronic device 900 may include a processor (e.g., a central processing unit CPU) 910 and a memory 920, and the memory 920 is connected to the central processing unit 910. The memory 920 can store various data, and can also store a program 921 for information processing, and can execute the program 921 under the control of the processor 910.

幾つかの実施例において、道路監視ビデオのオブジェクト追跡装置800の機能が処理器910に統合されて実現される。そのうち、処理器910は第一側面の実施例に記載の道路監視ビデオのオブジェクト追跡方法を実現するように構成される。 In some embodiments, the functionality of the road surveillance video object tracking device 800 is integrated into the processor 910. The processor 910 is configured to implement the road surveillance video object tracking method described in the embodiments of the first aspect.

幾つかの実施例において、道路監視ビデオのオブジェクト追跡装置800が処理器910と別々で配置され、例えば、道路監視ビデオのオブジェクト追跡装置800を、処理器910に接続されるチップとして構成し、処理器910の制御により道路監視ビデオのオブジェクト追跡装置800の機能を実現しても良い。 In some embodiments, the road surveillance video object tracking device 800 may be located separately from the processor 910, for example, the road surveillance video object tracking device 800 may be configured as a chip connected to the processor 910, and the functions of the road surveillance video object tracking device 800 may be realized under the control of the processor 910.

幾つかの実施例において、処理器910は次のような制御を行うように構成されても良く、即ち、道路関心領域のリアルタイム監視ビデオに対してオブジェクト検出を行い、1つ又は複数のオブジェクトの検出情報を取得し;前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行い;マッチング結果に基づいて前記追跡情報を更新し;及び、前記検出情報及び/又は前記追跡情報に基づいて前記関心領域の道路情報を更新する。 In some embodiments, the processor 910 may be configured to perform the following controls: perform object detection on real-time surveillance video of a road area of interest to obtain detection information of one or more objects; match the detection information of the one or more objects with tracking information for object tracking; update the tracking information based on the matching result; and update road information of the area of interest based on the detection information and/or the tracking information.

幾つかの実施例において、処理器910はさらに次のような制御を行うように構成されても良く、即ち、初期化段階にあるかを確定し;前記初期化段階にある場合、前記検出情報に基づいて前記関心領域の道路情報を更新し;前記初期化段階にない場合、前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行う。 In some embodiments, the processor 910 may be further configured to perform the following controls: determine whether it is in an initialization phase; if it is, update road information for the region of interest based on the detection information; if it is not in the initialization phase, match the detection information of the one or more objects with tracking information for object tracking.

幾つかの実施例において、処理器910はさらに次のような制御を行うように構成されても良く、即ち、前記検出情報の矩形の幅に所定スケール値をかけ、前記検出情報に対応する所定高さ範囲内の道路幅を更新し;及び/又は、前記検出情報の底辺の中点に基づいて複数のフレームの間のベクトルの角度を計算し、前記検出情報に対応する所定高さ範囲内の道路方向を更新する。 In some embodiments, the processor 910 may be further configured to perform the following controls: multiplying the width of the rectangle of the detection information by a predetermined scale value to update the road width within a predetermined height range corresponding to the detection information; and/or calculating the angle of the vector between multiple frames based on the midpoint of the base of the detection information to update the road direction within a predetermined height range corresponding to the detection information.

幾つかの実施例において、処理器910はさらに次のような制御を行うように構成されても良く、即ち、以下の条件のうちの少なくともの1つ又は任意の組み合わせが満足される場合、或る検出情報と或る追跡情報がマッチし得ると判断し、即ち、
前記検出情報に対応するオブジェクトと、前記追跡情報に対応するオブジェクトとが同じ関心領域に位置し;
前記検出情報の底辺の中点と、前記追跡情報の底辺の中点との間の距離が、前記追跡情報に対応する車道幅に第一所定係数をかけた値よりも小さく;
前記検出情報の矩形の面積と、前記追跡情報の矩形の面積との差が、両面積のうちの比較的小さいものに第二所定係数をかけた値よりも小さく;及び
前記検出情報のマッチングベクトル方向と、前記追跡情報に対応する車道走行方向との間の角度が所定角度よりも小さい。
In some embodiments, the processor 910 may be further configured to perform the following control: determine that a given detection information and a given tracking information may match if at least one or any combination of the following conditions is satisfied:
an object corresponding to the detection information and an object corresponding to the tracking information are located in the same region of interest;
The distance between the midpoint of the base of the detection information and the midpoint of the base of the tracking information is smaller than a value obtained by multiplying the road width corresponding to the tracking information by a first predetermined coefficient;
The difference between the area of the rectangle of the detection information and the area of the rectangle of the tracking information is smaller than a value obtained by multiplying the smaller of the two areas by a second predetermined coefficient; and the angle between the matching vector direction of the detection information and the roadway driving direction corresponding to the tracking information is smaller than a predetermined angle.

幾つかの実施例において、処理器910はさらに次のような制御を行うように構成されても良く、即ち、或る追跡情報が1つ又は複数の検出情報に対応している場合、最も一致した検出情報を選択して前記追跡情報を更新し;或る検出情報が1つ又は複数の追跡情報に対応している場合、前記検出情報を、最も一致した追跡情報を更新するために使用しい;及び、或る検出情報とマッチする追跡情報がない場合、前記検出情報を新しいオブジェクトとし;或る追跡情報とマッチする検出情報がない場合、前記追跡情報のために予測情報を構成し又は前記追跡情報を削除する。 In some embodiments, the processor 910 may be further configured to perform the following controls: if a certain tracking information corresponds to one or more detection information, select the most matching detection information to update the tracking information; if a certain detection information corresponds to one or more tracking information, use the detection information to update the most matching tracking information; and if there is no tracking information that matches the certain detection information, make the detection information a new object; if there is no detection information that matches the certain tracking information, construct prediction information for the tracking information or delete the tracking information.

幾つかの実施例において、処理器910はさらに次のような制御を行うように構成されても良く、即ち、テンプレートマッチングフレーム数が第一閾値よりも小さい場合、現在のフレームを用いて入力画像を構成し、及び前のフレームを用いてテンプレート画像を構成し;前記入力画像と前記テンプレート画像とのテンプレートマッチングを行い;及び、前記テンプレートマッチングのマッチング度が第二閾値よりも大きい場合、前記予測情報としての前記入力画像を用いて前記追跡情報を更新する。 In some embodiments, the processor 910 may be further configured to perform the following control: if the number of template matching frames is less than a first threshold, construct an input image using the current frame and construct a template image using the previous frame; perform template matching between the input image and the template image; and if the matching degree of the template matching is greater than a second threshold, update the tracking information using the input image as the prediction information.

幾つかの実施例において、処理器910はさらに次のような制御を行うように構成されても良く、即ち、カルマンフィルターに基づいてカレントフレームの予測点を計算し、対応する第一車道幅を取得し;前記予測情報の底辺の中点に基づいて対応する第二車道幅を取得し;前記第一車道幅と前記第二車道幅に基づいて車道幅の比率を計算し;及び、前記車道幅の比率に基づいて前記カレントフレームから前記入力画像を取得し、及び/又は、前記車道幅の比率に基づいて前記前のフレームから前記テンプレート画像を取得する。 In some embodiments, the processor 910 may be further configured to perform the following controls: calculate a predicted point of the current frame based on a Kalman filter and obtain a corresponding first road width; obtain a corresponding second road width based on the midpoint of the base of the predicted information; calculate a road width ratio based on the first road width and the second road width; and obtain the input image from the current frame based on the road width ratio and/or obtain the template image from the previous frame based on the road width ratio.

幾つかの実施例において、処理器910はさらに次のような制御を行うように構成されても良く、即ち、前記テンプレートマッチングフレーム数が第一閾値以上であり、又は、前記テンプレートマッチングのマッチング度が前記第二閾値以下である場合、予測フレーム数が第三閾値よりも小さいか、且つ総フレーム数が第四閾値よりも小さいかを判断し;前記予測フレーム数が前記第三閾値よりも小さく、且つ前記総フレーム数が前記第四閾値よりも小さい場合、カレントフレームを用いて前記予測情報としての予測画像を構成し;及び、前記予測画像が有効である場合、前記予測画像に基づいて前記追跡情報を更新する。 In some embodiments, the processor 910 may be further configured to perform the following control: if the number of template matching frames is equal to or greater than a first threshold, or the matching degree of the template matching is equal to or less than the second threshold, determine whether the number of predicted frames is smaller than a third threshold and whether the total number of frames is smaller than a fourth threshold; if the number of predicted frames is smaller than the third threshold and the total number of frames is smaller than the fourth threshold, use the current frame to construct a predicted image as the prediction information; and if the predicted image is valid, update the tracking information based on the predicted image.

幾つかの実施例において、処理器910はさらに次のような制御を行うように構成されても良く、即ち、前記予測フレーム数が前記第三閾値以上であり、又は前記総フレーム数が前記第四閾値以上であり、又は予測画像が無効な場合、前記追跡情報を削除する。 In some embodiments, the processor 910 may be further configured to perform the following control: delete the tracking information if the number of predicted frames is greater than or equal to the third threshold, or the total number of frames is greater than or equal to the fourth threshold, or the predicted image is invalid.

また、図9に示すように、電子機器900はさらに入出力(I/O)装置930、表示器940などを含んでも良く、そのうち、これらの部品の機能が従来技術と類似しているから、ここではその詳しい説明を省略す。なお、電子機器900は図9におけるすべての部品を含む必要がない。また、電子機器900は図9に無い部品を含んでも良いが、これについては関連技術を参照することができる。 As shown in FIG. 9, the electronic device 900 may further include an input/output (I/O) device 930, a display 940, etc., of which the functions of these components are similar to those of the prior art, and therefore detailed description thereof will be omitted here. Note that the electronic device 900 does not need to include all of the components shown in FIG. 9. The electronic device 900 may also include components not shown in FIG. 9, but reference can be made to related art regarding this.

本発明の実施例はさらに計算機可読プログラムを提供し、そのうち、電子機器の中で前記プログラムを実行するときに、前記プログラムは計算機に、前記電子機器の中で第一側面の実施例に記載の道路監視ビデオのオブジェクト追跡方法を実行させる。 An embodiment of the present invention further provides a computer-readable program, which, when executed in an electronic device, causes a computer to execute the method for tracking objects in road surveillance video described in the embodiment of the first aspect in the electronic device.

本発明の実施例はさらに計算機可読プログラムを記録した記憶媒体を提供し、そのうち、前記計算機可読プログラムは計算機に、電子機器の中で第一側面の実施例に記載の道路監視ビデオのオブジェクト追跡方法を実行させる。 An embodiment of the present invention further provides a storage medium having a computer-readable program recorded thereon, in which the computer-readable program causes a computer to execute the method for tracking objects in road surveillance video described in the embodiment of the first aspect in an electronic device.

本発明の実施例を参照しながら説明した装置や方法は、ハードウェア、処理器により実行されるソフトウェアモジュール、又は両者の組み合わせにより実現することができる。例えば、機能ブロック図における1つ又は複数の機能及び/又は機能ブロック図における1つ又は複数の機能の組み合わせは、コンピュータプログラムにおける各ソフトウェアモジュールに対応しても良く、各ハードウェアモジュールに対応しても良い。また、これらのソフトウェアモジュールは、それぞれ、方法を示す図に示す各ステップに対応することができる。これらのハードウェアモジュールは、例えば、FPGA(field-programmable gate array)を用いてこれらのソフトウェアモジュールを固化して実現することができる。 The apparatus and methods described with reference to the embodiments of the present invention can be realized by hardware, software modules executed by a processor, or a combination of both. For example, one or more functions in the functional block diagram and/or one or more combinations of functions in the functional block diagram may correspond to each software module in a computer program or each hardware module. Furthermore, each of these software modules may correspond to each step shown in the diagram illustrating the method. These hardware modules can be realized by solidifying these software modules using, for example, an FPGA (field-programmable gate array).

また、本発明の実施例による装置、方法などは、ソフトウェアにより実現されても良く、ハードェアにより実現されてもよく、ハードェア及びソフトウェアの組み合わせにより実現されても良い。本発明は、このようなコンピュータ可読プログラムにも関し、即ち、前記プログラムは、ロジック部品により実行される時に、前記ロジック部品に、上述の装置又は構成要素を実現させることができ、又は、前記ロジック部品に、上述の方法又はそのステップを実現させることができる。さらに、本発明は、上述のプログラムを記憶した記憶媒体、例えば、ハードディスク、磁気ディスク、光ディスク、DVD、フレッシュメモリなどにも関する。 In addition, the devices, methods, etc. according to the embodiments of the present invention may be realized by software, by hardware, or by a combination of hardware and software. The present invention also relates to such computer-readable programs, i.e., the programs, when executed by logic components, can cause the logic components to realize the above-mentioned devices or components, or cause the logic components to realize the above-mentioned methods or steps thereof. Furthermore, the present invention also relates to storage media, such as hard disks, magnetic disks, optical disks, DVDs, flash memories, etc., that store the above-mentioned programs.

また、以上の実施例などに関し、さらに以下の付記を開示する。 In addition, the following notes are provided regarding the above examples.

(付記1)
道路監視ビデオのオブジェクト追跡方法であって、
道路関心領域のリアルタイム監視ビデオに対してオブジェクト検出を行い、1つ又は複数のオブジェクトの検出情報を取得し;
前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行い;
前記マッチング結果に基づいて前記追跡情報を更新し;及び
前記検出情報及び/又は前記追跡情報に基づいて前記関心領域の道路情報を更新することを含む、方法。
(Appendix 1)
1. A method for tracking objects in road surveillance videos, comprising:
Performing object detection on the real-time surveillance video of the road area of interest, and obtaining detection information of one or more objects;
Matching the one or more object detection information with tracking information for object tracking;
updating the tracking information based on the matching result; and updating road information for the area of interest based on the detection information and/or the tracking information.

(付記2)
付記1に記載の方法であって、
前記方法はさらに、
初期化段階にあるかを確定することを含み、
前記初期化段階にある場合、前記検出情報に基づいて前記関心領域の道路情報を更新し、前記初期化段階にない場合、前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行う、方法。
(Appendix 2)
2. The method according to claim 1, comprising:
The method further comprises:
determining whether it is in an initialization phase;
A method comprising: if the initialization phase is in progress, updating road information for the area of interest based on the detection information; and if the initialization phase is not in progress, matching the detection information of the one or more objects with tracking information for object tracking.

(付記3)
付記1又は2に記載の方法であって、
前記検出情報の矩形の幅に所定スケール値をかけ、前記検出情報に対応する所定高さ範囲内の道路幅を更新し;及び/又は
前記検出情報の底辺の中点に基づいて複数のフレームの間のベクトルの角度を計算し、前記検出情報に対応する所定高さ範囲内の道路方向を更新する、方法。
(Appendix 3)
3. The method according to claim 1 or 2,
A method for updating a road width within a predetermined height range corresponding to the detection information by multiplying the rectangular width of the detection information by a predetermined scale value; and/or calculating an angle of a vector between multiple frames based on the midpoint of the base of the detection information, and updating a road direction within a predetermined height range corresponding to the detection information.

(付記4)
付記1乃至3の任意の1項に記載の方法であって、
以下の条件のうちの少なくとも1つ又は任意の組み合わせが満足される場合、或る検出情報と或る追跡情報がマッチし得ると確定し、即ち、
前記検出情報に対応するオブジェクトと、前記追跡情報に対応するオブジェクトとが同じ関心領域に位置し;
前記検出情報の底辺の中点と、前記追跡情報の底辺の中点との間の距離が、前記追跡情報に対応する車道の幅に第一所定係数をかけた値よりも小さく;
前記検出情報の矩形の面積と、前記追跡情報の矩形の面積との差が、両面積のうちの小さい面積に第二所定係数をかけた値よりも小さく;及び
前記検出情報のマッチングベクトル方向と、前記追跡情報に対応する車道走行方向との間の角度が所定角度よりも小さいことである、方法。
(Appendix 4)
4. The method according to any one of claims 1 to 3, comprising:
Determine that a certain detection information and a certain tracking information can be matched if at least one or any combination of the following conditions is satisfied:
an object corresponding to the detection information and an object corresponding to the tracking information are located in the same region of interest;
The distance between the midpoint of the base of the detection information and the midpoint of the base of the tracking information is smaller than a value obtained by multiplying the width of the roadway corresponding to the tracking information by a first predetermined coefficient;
a difference between an area of the rectangle of the detection information and an area of the rectangle of the tracking information is smaller than the smaller of the two areas multiplied by a second predetermined coefficient; and an angle between a matching vector direction of the detection information and a roadway driving direction corresponding to the tracking information is smaller than a predetermined angle.

(付記5)
付記1乃至4の任意の1項に記載の方法であって、
或る追跡情報が1つ又は複数の検出情報に対応している場合、最も一致した検出情報を選択して前記追跡情報を更新し、或る検出情報が1つ又は複数の追跡情報に対応している場合、前記検出情報を、最も一致した追跡情報を更新するために使用し;及び
或る検出情報とマッチする追跡情報がない場合、前記検出情報を新しいオブジェクトとし、或る追跡情報とマッチする検出情報がない場合、前記追跡情報のために予測情報を構成し、又は前記追跡情報を削除する、方法。
(Appendix 5)
5. The method according to any one of claims 1 to 4, comprising:
When a certain tracking information corresponds to one or more detection information, select the most matching detection information and update the tracking information, and when a certain detection information corresponds to one or more tracking information, use the detection information to update the most matching tracking information; and when there is no tracking information that matches a certain detection information, make the detection information a new object, and when there is no detection information that matches a certain tracking information, construct prediction information for the tracking information or delete the tracking information.

(付記6)
付記5に記載の方法であって、
前記方法はさらに、
テンプレートマッチングフレーム数が第一閾値よりも小さい場合、現在のフレームを用いて入力画像を構成し、及び前のフレームを用いてテンプレート画像を構成し;
前記入力画像と前記テンプレート画像とのテンプレートマッチングを行い;及び
前記テンプレートマッチングのマッチング度が第二閾値よりも大きい場合、前記予測情報としての前記入力画像に基づいて前記追跡情報を更新することを含む、方法。
(Appendix 6)
6. The method according to claim 5, comprising:
The method further comprises:
If the number of template matching frames is less than a first threshold, construct an input image using the current frame, and construct a template image using the previous frame;
performing template matching between the input image and the template image; and updating the tracking information based on the input image as the predicted information when a matching degree of the template matching is greater than a second threshold.

(付記7)
付記6に記載の方法であって、
前記方法はさらに、
カルマンフィルターに基づいてカレントフレームの予測点を計算し、対応する第一車道幅を取得し;
前記予測情報の底辺の中点に基づいて対応する第二車道幅を取得し;
前記第一車道幅と前記第二車道幅に基づいて車道幅の比率を計算し;及び
前記車道幅の比率に基づいて前記カレントフレームから前記入力画像を取得し、及び/又は、前記車道幅の比率に基づいて前記前のフレームから前記テンプレート画像を取得することを含む、方法。
(Appendix 7)
7. The method according to claim 6, comprising:
The method further comprises:
Calculate the predicted point of the current frame based on the Kalman filter, and obtain the corresponding first roadway width;
Obtain a corresponding second roadway width based on the midpoint of the base of the predicted information;
calculating a roadway width ratio based on the first roadway width and the second roadway width; and obtaining the input image from the current frame based on the roadway width ratio and/or obtaining the template image from the previous frame based on the roadway width ratio.

(付記8)
付記6又は7に記載の方法であって、
前記方法はさらに、
前記テンプレートマッチングフレーム数が前記第一閾値以上であり、又は前記テンプレートマッチングのマッチング度が前記第二閾値以下である場合、予測フレーム数が第三閾値よりも小さいか、且つ総フレーム数が第四閾値よりも小さいかを確定し;
前記予測フレーム数が前記第三閾値よりも小さく、且つ前記総フレーム数が前記第四閾値よりも小さい場合、カレントフレームを用いて前記予測情報としての予測画像を構成し;及び
前記予測画像が有効である場合、前記予測画像に基づいて前記追跡情報を更新することを含む、方法。
(Appendix 8)
8. The method according to claim 6 or 7,
The method further comprises:
If the number of template matching frames is equal to or greater than the first threshold, or the matching degree of the template matching is equal to or less than the second threshold, determine whether the number of predicted frames is less than a third threshold and whether the total number of frames is less than a fourth threshold;
if the number of predicted frames is less than the third threshold and the total number of frames is less than the fourth threshold, using a current frame to construct a predicted image as the prediction information; and if the predicted image is valid, updating the tracking information based on the predicted image.

(付記9)
付記8に記載の方法であって、
前記方法はさらに、
前記予測フレーム数が前記第三閾値以上であり、又は、前記総フレーム数が前記第四閾値以上であり、又は、前記予測画像が無効である場合、前記追跡情報を削除することを含む、方法。
(Appendix 9)
9. The method of claim 8, further comprising:
The method further comprises:
removing the tracking information if the predicted number of frames is greater than or equal to the third threshold, or if the total number of frames is greater than or equal to the fourth threshold, or if the predicted image is invalid.

(付記10)
道路監視ビデオのオブジェクト追跡装置であって、
道路関心領域のリアルタイム監視ビデオに対してオブジェクト検出を行い、1つ又は複数のオブジェクトの検出情報を取得するオブジェクト検出ユニット;
前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行う追跡マッチングユニット;
マッチング結果に基づいて前記追跡情報を更新する追跡更新ユニット;及び
前記検出情報及び/又は前記追跡情報に基づいて前記関心領域の道路情報を更新する道路更新ユニットを含む、装置。
(Appendix 10)
1. A road surveillance video object tracking device, comprising:
an object detection unit for performing object detection on a real-time monitoring video of a road area of interest and obtaining detection information of one or more objects;
a tracking matching unit for matching the detection information of the one or more objects with tracking information for object tracking;
a tracking update unit for updating the tracking information based on a matching result; and a road update unit for updating road information of the region of interest based on the detection information and/or the tracking information.

(付記11)
付記10に記載の装置であって、
前記装置はさらに、
初期化段階にあるかを確定する初期化確定ユニットを含み、
前記初期化段階にある場合、前記道路更新ユニットは前記検出情報に基づいて前記関心領域の道路情報を更新し、前記初期化段階にない場合、前記追跡マッチングユニットは前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行う、装置。
(Appendix 11)
11. The apparatus of claim 10, further comprising:
The apparatus further comprises:
An initialization determination unit for determining whether the device is in an initialization stage;
When in the initialization phase, the road update unit updates road information of the area of interest based on the detection information, and when not in the initialization phase, the tracking matching unit matches the detection information of the one or more objects with tracking information for object tracking.

(付記12)
付記10又は11に記載の装置であって、
前記道路更新ユニットは、
前記検出情報の矩形の幅に所定スケール値をかけ、前記検出情報に対応する所定高さ範囲内の道路幅を更新し;及び/又は
前記検出情報の底辺の中点を基づいて複数のフレームの間のベクトルの角度を計算し、前記検出情報に対応する所定高さ範囲内の道路方向を更新する、装置。
(Appendix 12)
12. The apparatus of claim 10 or 11,
The road update unit includes:
The device multiplies the width of the rectangle of the detection information by a predetermined scale value to update the road width within a predetermined height range corresponding to the detection information; and/or calculates the angle of a vector between multiple frames based on the midpoint of the base of the detection information to update the road direction within a predetermined height range corresponding to the detection information.

(付記13)
付記10乃至12の任意の1項に記載の装置であって、
前記追跡マッチングユニットは、以下の条件のうちの少なくとも1つ又は任意の組み合わせが満足される場合、或る検出情報と或る追跡情報がマッチし得ると確定し、即ち、
前記検出情報に対応するオブジェクトと、前記追跡情報に対応するオブジェクトとが同じ関心領域に位置し;
前記検出情報の底辺の中点と、前記追跡情報の底辺の中点との間の距離が、前記追跡情報に対応する車道の幅に第一所定係数をかけた値よりも小さく;
前記検出情報の矩形の面積と、前記追跡情報の矩形の面積との差が、両面積のうちの小さい面積に第二所定係数をかけた値よりも小さく;及び
前記検出情報のマッチングベクトル方向と、前記追跡情報に対応する車道走行方向との間の角度が所定角度よりも小さいことである、装置。
(Appendix 13)
13. The apparatus of any one of claims 10 to 12, further comprising:
The tracking matching unit determines that a certain detection information can be matched with a certain tracking information if at least one or any combination of the following conditions is satisfied:
an object corresponding to the detection information and an object corresponding to the tracking information are located in the same region of interest;
The distance between the midpoint of the base of the detection information and the midpoint of the base of the tracking information is smaller than a value obtained by multiplying the width of the roadway corresponding to the tracking information by a first predetermined coefficient;
a difference between an area of the rectangle of the detection information and an area of the rectangle of the tracking information is smaller than the smaller of the two areas multiplied by a second predetermined coefficient; and an angle between a matching vector direction of the detection information and a roadway driving direction corresponding to the tracking information is smaller than a predetermined angle.

(付記14)
付記10乃至13の任意の1項に記載の装置であって、
前記追跡更新ユニットは、
或る追跡情報が1つ又は複数の検出情報に対応している場合、最も一致した検出情報を選択して前記追跡情報を更新し、或る検出情報が1つ又は複数の追跡情報に対応している場合、前記検出情報を、最も一致した追跡情報を更新するために使用し;及び
或る検出情報とマッチする追跡情報がない場合、前記検出情報を新しいオブジェクトとして、或る追跡情報とマッチする検出情報がない場合、前記追跡情報のために予測情報を構成し、又は前記追跡情報を削除する、装置。
(Appendix 14)
14. The apparatus of any one of claims 10 to 13, further comprising:
The tracking update unit is
When a certain tracking information corresponds to one or more detection information, the most matching detection information is selected to update the tracking information, and when a certain detection information corresponds to one or more tracking information, the detection information is used to update the most matching tracking information; and when there is no tracking information that matches a certain detection information, the detection information is treated as a new object, and when there is no detection information that matches a certain tracking information, the device constructs prediction information for the tracking information, or deletes the tracking information.

(付記15)
付記14に記載の装置であって、
前記追跡更新ユニットは、
テンプレートマッチングフレーム数が第一閾値よりも小さい場合、現在のフレームを用いて入力画像を構成し、及び前のフレームを用いてテンプレート画像を構成し;
前記入力画像と前記テンプレート画像とのテンプレートマッチングを行い;及び
前記テンプレートマッチングのマッチング度が第二閾値よりも大きい場合、前記予測情報としての前記入力画像に基づいて前記追跡情報を更新することを含む、装置。
(Appendix 15)
15. The apparatus of claim 14, further comprising:
The tracking update unit is
If the number of template matching frames is less than a first threshold, construct an input image using the current frame, and construct a template image using the previous frame;
performing template matching between the input image and the template image; and updating the tracking information based on the input image as the predicted information when a matching degree of the template matching is greater than a second threshold.

(付記16)
付記15に記載の装置であって、
前記追跡更新ユニットはさらに、
カルマンフィルターに基づいてカレントフレームの予測点を計算し、対応する第一車道幅を取得し;
前記予測情報の底辺の中点に基づいて対応する第二車道幅を取得し;
前記第一車道幅と前記第二車道幅に基づいて車道幅の比率を計算し;及び
前記車道幅の比率に基づいて前記カレントフレームから前記入力画像を取得し、及び/又は、前記車道幅の比率に基づいて前記前のフレームから前記テンプレート画像を取得することを含む、装置。
(Appendix 16)
16. The apparatus of claim 15, further comprising:
The tracking update unit further comprises:
Calculate a predicted point of the current frame based on the Kalman filter, and obtain the corresponding first roadway width;
Obtain a corresponding second roadway width based on the midpoint of the base of the predicted information;
calculating a roadway width ratio based on the first roadway width and the second roadway width; and obtaining the input image from the current frame based on the roadway width ratio and/or obtaining the template image from the previous frame based on the roadway width ratio.

(付記17)
付記15又は16に記載の装置であって、
前記追跡更新ユニットはさらに、
前記テンプレートマッチングフレーム数が前記第一閾値以上であり、又は前記テンプレートマッチングのマッチング度が前記第二閾値以下である場合、予測フレーム数が第三閾値よりも小さいか、且つ総フレーム数が第四閾値よりも小さいかを確定し;
前記予測フレーム数が前記第三閾値よりも小さく、且つ前記総フレーム数が前記第四閾値よりも小さい場合、カレントフレームを用いて前記予測情報としての予測画像を構成し;及び
前記予測画像が有効である場合、前記予測画像に基づいて前記追跡情報を更新する、装置。
(Appendix 17)
17. The apparatus of claim 15 or 16,
The tracking update unit further comprises:
If the number of template matching frames is equal to or greater than the first threshold, or the matching degree of the template matching is equal to or less than the second threshold, determine whether the number of predicted frames is less than a third threshold and whether the total number of frames is less than a fourth threshold;
If the number of predicted frames is less than the third threshold and the total number of frames is less than the fourth threshold, using a current frame to construct a predicted image as the prediction information; and if the predicted image is valid, updating the tracking information based on the predicted image.

(付記18)
付記17に記載の装置であって、
前記追跡更新ユニットはさらに、
前記予測フレーム数が前記第三閾値以上であり、又は、前記総フレーム数が前記第四閾値以上であり、又は、前記予測画像が無効である場合、前記追跡情報を削除する、装置。
(Appendix 18)
18. The apparatus of claim 17, further comprising:
The tracking update unit further comprises:
The apparatus deletes the tracking information if the predicted number of frames is greater than or equal to the third threshold, or if the total number of frames is greater than or equal to the fourth threshold, or if the predicted image is invalid.

(付記19)
電子機器であって、
記憶器及び処理器を含み、
前記記憶器にはコンピュータプログラムが記憶されており、前記処理器は前記コンピュータプログラムを実行して付記1乃至9の任意の1項に記載の道路監視ビデオのオブジェクト追跡方法を実現するように構成される、電子機器。
(Appendix 19)
An electronic device,
A memory and a processor are included,
An electronic device, wherein the memory stores a computer program, and the processor is configured to execute the computer program to implement the method for tracking objects in road surveillance videos described in any one of Supplementary Notes 1 to 9.

以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は本発明の技術的範囲に属する。 The above describes a preferred embodiment of the present invention, but the present invention is not limited to this embodiment, and any modification to the present invention falls within the technical scope of the present invention as long as it does not deviate from the spirit of the present invention.

Claims (9)

道路監視ビデオにおけるオブジェクトを追跡する装置であって、
道路の関心領域のリアルタイム監視ビデオに対してオブジェクト検出を行い、1つ又は複数のオブジェクトの検出情報を取得するオブジェクト検出ユニット;
初期化段階にあるかを確定する初期化確定ユニット;
前記初期化段階にない場合、前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行う追跡マッチングユニット;
マッチング結果に基づいて前記追跡情報を更新する追跡更新ユニット;及び
前記初期化段階にある場合、前記検出情報及び/又は前記追跡情報に基づいて前記関心領域の道路情報を更新する道路更新ユニットを含む、装置。
1. An apparatus for tracking an object in a road surveillance video, comprising:
an object detection unit for performing object detection on a real-time surveillance video of a road area of interest and obtaining detection information of one or more objects;
an initialization determination unit for determining whether the device is in the initialization phase;
a tracking matching unit for matching the detection information of the one or more objects with tracking information for object tracking if not in the initialization stage ;
a tracking update unit for updating the tracking information based on a matching result; and
A road updating unit for updating road information of said area of interest based on said detection information and/or said tracking information when in said initialization phase .
請求項1に記載の装置であって、
前記道路更新ユニットは、
前記検出情報の矩形の幅に所定スケール値をかけ、前記検出情報に対応する所定高さ範囲内の道路幅を更新し;及び/又は
前記検出情報の底辺の中点を基づいて複数のフレームの間のベクトルの角度を計算し、前記検出情報に対応する所定高さ範囲内の道路方向を更新する、装置。
2. The apparatus of claim 1,
The road update unit includes:
The device multiplies the width of the rectangle of the detection information by a predetermined scale value to update the road width within a predetermined height range corresponding to the detection information; and/or calculates the angle of a vector between multiple frames based on the midpoint of the base of the detection information to update the road direction within a predetermined height range corresponding to the detection information.
請求項1に記載の装置であって、
前記追跡マッチングユニットは、
以下の条件のうちの少なくとも1つ又は任意の組み合わせが満足される場合、或る検出情報と或る追跡情報がマッチし得ると確定し、即ち、
前記検出情報に対応するオブジェクトと、前記追跡情報に対応するオブジェクトとが同じ関心領域に位置し;
前記検出情報の底辺の中点と、前記追跡情報の底辺の中点との間の距離が、前記追跡情報に対応する車道の幅に第一所定係数をかけた値よりも小さく;
前記検出情報の矩形の面積と、前記追跡情報の矩形の面積との差が、両面積のうちの小さい面積に第二所定係数をかけた値よりも小さく;及び
前記検出情報のマッチングベクトル方向と、前記追跡情報に対応する車道走行方向との間の角度が所定角度よりも小さいという条件である、装置。
2. The apparatus of claim 1,
The tracking matching unit includes:
Determine that a certain detection information and a certain tracking information can be matched if at least one or any combination of the following conditions is satisfied:
an object corresponding to the detection information and an object corresponding to the tracking information are located in the same region of interest;
The distance between the midpoint of the base of the detection information and the midpoint of the base of the tracking information is smaller than a value obtained by multiplying the width of the roadway corresponding to the tracking information by a first predetermined coefficient;
The device has the following conditions: a difference between an area of the rectangle of the detection information and an area of the rectangle of the tracking information is smaller than the smaller of the two areas multiplied by a second predetermined coefficient; and an angle between a matching vector direction of the detection information and a roadway driving direction corresponding to the tracking information is smaller than a predetermined angle.
請求項1に記載の装置であって、
前記追跡更新ユニットは、
或る追跡情報が1つ又は複数の検出情報に対応している場合、最も一致した検出情報を選択して前記追跡情報を更新し、或る検出情報が1つ又は複数の追跡情報に対応している場合、前記検出情報を、最も一致した追跡情報を更新するために使用し;及び
或る検出情報とマッチする追跡情報がない場合、前記検出情報を新しいオブジェクトとし、或る追跡情報とマッチする検出情報がない場合、前記追跡情報のために予測情報を構成し、又は前記追跡情報を削除する、装置。
2. The apparatus of claim 1,
The tracking update unit is
When a certain tracking information corresponds to one or more detection information, select the most matching detection information and update the tracking information, and when a certain detection information corresponds to one or more tracking information, use the detection information to update the most matching tracking information; and when there is no tracking information that matches a certain detection information, make the detection information a new object, and when there is no detection information that matches a certain tracking information, construct prediction information for the tracking information, or delete the tracking information.
請求項に記載の装置であって、
前記追跡更新ユニットは、
テンプレートマッチングフレーム数が第一閾値よりも小さい場合、現在のフレームを用いて入力画像を構成し、及び前のフレームを用いてテンプレート画像を構成し;
前記入力画像と前記テンプレート画像とのテンプレートマッチングを行い;及び
前記テンプレートマッチングのマッチング度が第二閾値よりも大きい場合、前記予測情報としての前記入力画像に基づいて前記追跡情報を更新することを含む、装置。
5. The apparatus of claim 4 ,
The tracking update unit is
If the number of template matching frames is less than a first threshold, construct an input image using the current frame, and construct a template image using the previous frame;
performing template matching between the input image and the template image; and updating the tracking information based on the input image as the predicted information when a matching degree of the template matching is greater than a second threshold.
請求項に記載の装置であって、
前記追跡更新ユニットはさらに、
カルマンフィルターに基づいてカレントフレームの予測点を計算し、対応する第一車道幅を取得し;
前記予測情報の底辺の中点に基づいて対応する第二車道幅を取得し;
前記第一車道幅及び前記第二車道幅に基づいて車道幅の比率を計算し;及び
前記車道幅の比率に基づいて前記カレントフレームから前記入力画像を取得し、及び/又は、前記車道幅の比率に基づいて前記前のフレームから前記テンプレート画像を取得することを含む、装置。
6. The apparatus of claim 5 ,
The tracking update unit further comprises:
Calculate a predicted point of the current frame based on the Kalman filter, and obtain the corresponding first roadway width;
Obtain a corresponding second roadway width based on the midpoint of the base of the predicted information;
calculating a roadway width ratio based on the first roadway width and the second roadway width; and obtaining the input image from the current frame based on the roadway width ratio and/or obtaining the template image from the previous frame based on the roadway width ratio.
請求項に記載の装置であって、
前記追跡更新ユニットはさらに、
前記テンプレートマッチングフレーム数が前記第一閾値以上であり、又は前記テンプレートマッチングのマッチング度が前記第二閾値以下である場合、予測フレーム数が第三閾値よりも小さいか、且つ総フレーム数が第四閾値よりも小さいかを確定し;
前記予測フレーム数が前記第三閾値よりも小さく、且つ前記総フレーム数が前記第四閾値よりも小さい場合、現在のフレームを用いて前記予測情報としての予測画像を構成し;及び
前記予測画像が有効である場合、前記予測画像に基づいて前記追跡情報を更新する、装置。
6. The apparatus of claim 5 ,
The tracking update unit further comprises:
If the number of template matching frames is equal to or greater than the first threshold, or the matching degree of the template matching is equal to or less than the second threshold, determine whether the number of predicted frames is less than a third threshold and whether the total number of frames is less than a fourth threshold;
If the number of predicted frames is less than the third threshold and the total number of frames is less than the fourth threshold, constructing a predicted image as the prediction information using a current frame; and if the predicted image is valid, updating the tracking information based on the predicted image.
請求項に記載の装置であって、
前記追跡更新ユニットはさらに、
前記予測フレーム数が前記第三閾値以上であり、又は、前記総フレーム数が前記第四閾値以上であり、又は、前記予測画像が無効である場合、前記追跡情報を削除する、装置。
8. The apparatus of claim 7 ,
The tracking update unit further comprises:
The apparatus deletes the tracking information if the predicted number of frames is greater than or equal to the third threshold, or if the total number of frames is greater than or equal to the fourth threshold, or if the predicted image is invalid.
道路監視ビデオにおけるオブジェクトを追跡する方法であって、
道路の関心領域のリアルタイム監視ビデオに対してオブジェクト検出を行い、1つ又は複数のオブジェクトの検出情報を取得し;
初期化段階にあるかを確定し;
前記初期化段階にない場合、前記1つ又は複数のオブジェクトの検出情報と、オブジェクト追跡のための追跡情報とのマッチングを行い;
マッチング結果に基づいて前記追跡情報を更新し;及び
前記初期化段階にある場合、前記検出情報及び/又は前記追跡情報に基づいて前記関心領域の道路情報を更新することを含む、方法。
1. A method for tracking an object in a road surveillance video, comprising:
Performing object detection on a real-time surveillance video of a road area of interest, and obtaining detection information of one or more objects;
Determine if we are in the initialization phase;
If not in the initialization stage, matching the detection information of the one or more objects with tracking information for object tracking;
updating the tracking information based on the matching results; and
If in said initialization phase, the method comprises updating road information for said area of interest based on said detection information and/or said tracking information.
JP2021003668A 2020-02-14 2021-01-13 Apparatus and method for tracking objects in roadway surveillance video Active JP7509040B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010092661.7 2020-02-14
CN202010092661.7A CN113269007A (en) 2020-02-14 2020-02-14 Target tracking device and method for road monitoring video

Publications (2)

Publication Number Publication Date
JP2021128761A JP2021128761A (en) 2021-09-02
JP7509040B2 true JP7509040B2 (en) 2024-07-02

Family

ID=77227235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021003668A Active JP7509040B2 (en) 2020-02-14 2021-01-13 Apparatus and method for tracking objects in roadway surveillance video

Country Status (2)

Country Link
JP (1) JP7509040B2 (en)
CN (1) CN113269007A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114821364B (en) * 2022-03-29 2024-11-08 南京邮电大学 DeepSort garden garbage statistics method based on unmanned aerial vehicle motion state
CN115861379B (en) * 2022-12-21 2023-10-20 山东工商学院 Video tracking method for updating templates based on local trusted templates by twin network
CN116645810B (en) * 2023-05-22 2024-06-07 南京理工大学 Mobile traffic perception edge computing device based on video identification, traffic flow statistics system and method
CN117098295B (en) * 2023-09-08 2024-09-10 湖北市政建设集团有限公司 Urban road illumination control method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357489A (en) 2000-06-14 2001-12-26 Public Works Research Institute Ministry Of Land Infrastructure & Transport Traveling vehicle detector
JP2018018393A (en) 2016-07-29 2018-02-01 オムロン株式会社 Image processing device and image processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109478333A (en) * 2016-09-30 2019-03-15 富士通株式会社 Object detection method, device and image processing equipment
CN115690697A (en) * 2021-07-29 2023-02-03 富士通株式会社 Target distance detection device and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357489A (en) 2000-06-14 2001-12-26 Public Works Research Institute Ministry Of Land Infrastructure & Transport Traveling vehicle detector
JP2018018393A (en) 2016-07-29 2018-02-01 オムロン株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
CN113269007A (en) 2021-08-17
JP2021128761A (en) 2021-09-02

Similar Documents

Publication Publication Date Title
JP7509040B2 (en) Apparatus and method for tracking objects in roadway surveillance video
Xu et al. An enhanced Viola-Jones vehicle detection method from unmanned aerial vehicles imagery
Gurghian et al. Deeplanes: End-to-end lane position estimation using deep neural networksa
US8355539B2 (en) Radar guided vision system for vehicle validation and vehicle motion characterization
Ferrier et al. Real-time traffic monitoring.
CN110651310A (en) Deep learning method for estimating object density and/or flow and related method and software
Wang et al. Overtaking vehicle detection using dynamic and quasi-static background modeling
Zhang et al. Monocular visual traffic surveillance: A review
Mithun et al. Video-based tracking of vehicles using multiple time-spatial images
Kim Multiple vehicle tracking and classification system with a convolutional neural network
Flohr et al. Joint probabilistic pedestrian head and body orientation estimation
WO2022217630A1 (en) Vehicle speed determination method and apparatus, device, and medium
CN115063454B (en) Multi-target tracking matching method, device, terminal and storage medium
Van Pham et al. Front-view car detection and counting with occlusion in dense traffic flow
Liu et al. Vehicle detection and ranging using two different focal length cameras
Rezaei et al. Traffic-Net: 3D traffic monitoring using a single camera
Esfahani et al. DeepDSAIR: Deep 6-DOF camera relocalization using deblurred semantic-aware image representation for large-scale outdoor environments
Prokaj et al. Using 3d scene structure to improve tracking
Lashkov et al. Edge-Computing-Empowered Vehicle Tracking and Speed Estimation Against Strong Image Vibrations Using Surveillance Monocular Camera
Lim et al. Integrated position and motion tracking method for online multi-vehicle tracking-by-detection
Kanhere Vision-based detection, tracking and classification of vehicles using stable features with automatic camera calibration
Revaud et al. Robust automatic monocular vehicle speed estimation for traffic surveillance
WO2023108931A1 (en) Vehicle model determining method based on video-radar fusion perception
Liu et al. Vehicle classification system based on dynamic Bayesian network
Mohamed et al. Real-time moving objects tracking for mobile-robots using motion information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240603