[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH09270014A - Extraction device for moving body - Google Patents

Extraction device for moving body

Info

Publication number
JPH09270014A
JPH09270014A JP8081263A JP8126396A JPH09270014A JP H09270014 A JPH09270014 A JP H09270014A JP 8081263 A JP8081263 A JP 8081263A JP 8126396 A JP8126396 A JP 8126396A JP H09270014 A JPH09270014 A JP H09270014A
Authority
JP
Japan
Prior art keywords
contour
contour model
image
model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8081263A
Other languages
Japanese (ja)
Other versions
JP3750184B2 (en
Inventor
Shoichi Araki
昭一 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP08126396A priority Critical patent/JP3750184B2/en
Publication of JPH09270014A publication Critical patent/JPH09270014A/en
Application granted granted Critical
Publication of JP3750184B2 publication Critical patent/JP3750184B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To correctly extract moving bodies even when they cross each other by separating an outline model into plural outline models at its self-crossing part or integrating different outline models which cross each other into one. SOLUTION: An outline model self-crossing decision part 6 decides whether or not part of an outline model deformed by an outline model deformation part 5 crosses or touches another part of the outline model and an outline model separation part 7 cuts the outline model at the touching or crossing part and separates it into plural outline models. An outline model mutual- crossing decision part 8 decides whether or not plural different outline models stored in an outline model storage part 4 contact or cross each other. An outline model integration part 9 integrates different outline models, decided by the outline model mutul-crossing decision part 8, to contact or cross each other, into one outline model.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、CCDや赤外線カ
メラ等から得られる動画像からの複数移動物体の抽出装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for extracting a plurality of moving objects from a moving image obtained from a CCD, an infrared camera or the like.

【0002】[0002]

【従来の技術】画像から対象物を抽出・追跡する技術と
しては、特にノイズなどの影響を受けにくい抽出・追跡
技術として、情報処理Vol.30、No.9、pp.1047〜pp.1057
等に記載されているSNAKESが知られている。この
技術によれば、抽出したい対象物の概略の輪郭をあらか
じめ初期輪郭として与えてやれば、エッジなどの画像特
徴に初期輪郭が引き寄せられて変形し、対象物の輪郭を
抽出することができる。このSNAKESによる移動物
体の追跡は、動画像のあるフレームでの抽出結果の輪郭
を次のフレームにおける初期輪郭として設定するだけで
あり、設定された輪郭は同様にエッジなどの画像特徴に
引き寄せられ、移動した物体を抽出できる。SNAKE
Sによる追跡法は、SNAKES以前の追跡法で困難と
されていた動画像の各フレームで独立に抽出された移動
物体のフレーム間での対応付けが必要ないという利点を
持ち、特開平5-12443の動物体の輪郭追跡方法や特開平5
-242247の画像処理装置が知られている。
2. Description of the Related Art As a technique for extracting and tracking an object from an image, an information processing Vol. 30, No. 9, pp. 1047 to pp. 1057 is especially used as an extraction and tracking technique that is not easily affected by noise.
SNAKES described in US Pat. According to this technique, if the outline of the object to be extracted is given in advance as the initial outline, the initial outline is attracted to the image feature such as an edge and deformed, and the outline of the object can be extracted. The tracking of a moving object by this SNAKE only sets the contour of the extraction result in a frame of a moving image as an initial contour in the next frame, and the set contour is also attracted to an image feature such as an edge, It can extract moving objects. SNAKE
The tracking method by S has an advantage that it is not necessary to associate moving objects independently extracted in each frame of a moving image with each other, which is difficult in the tracking method before SNAKES. Contour tracking method for moving objects and
-242247 image processing device is known.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
ようなSNAKESでは、抽出・追跡したい物体につい
て予めその数と概略の領域を指定しなければ、複数の物
体を抽出・追跡できないという課題があった。したがっ
て、物体の数や処理する画像の枚数が多い場合、この設
定に対する処理負担が増大し、また、画像に含まれる対
象物がいくつあるかを自動的に知りたいという、例え
ば、セキュリティシステムにおける侵入者数の検知や、
空調制御における在室者数の検知等における要求に対応
できないなどの問題を抱えていた。さらに、SNAKE
Sに基づく従来の追跡装置では、複数物体を同時に追跡
する場合、移動中にそれらの物体が交差すれば、おのお
ののSNAKESは自分自身が追跡している物体以外に
も引き寄せられ、正しく追跡することができない。ま
た、途中で第3の物体が現れることに対しては考慮され
ておらず、人間が介在して新たに輪郭を追加しなければ
ならなかった。
However, in the above-mentioned SNAKES, there is a problem that a plurality of objects cannot be extracted and tracked unless the number of objects to be extracted and tracked and a rough area are specified in advance. . Therefore, when the number of objects or the number of images to be processed is large, the processing load on this setting increases, and it is desired to automatically know how many objects are included in the image. The number of people
There was a problem that it could not meet the demand for detecting the number of people in the air conditioning control. In addition, SNAKE
In the conventional tracking device based on S, when tracking multiple objects at the same time, if the objects intersect each other while moving, each SNAKES is attracted to other than the object that it is tracking itself and must be tracked correctly. I can't. Further, the appearance of the third object on the way was not considered, and a human had to intervene to add a new contour.

【0004】本発明は、かかる点に鑑み、抽出・追跡し
たい移動物体の数とその概略輪郭を予め与えることなし
に、複数物体の追跡中にそれらが交差しても、誤りなく
自動抽出・追跡できる移動物体の抽出・追跡装置を提供
することを目的とする。
In view of such a point, the present invention automatically and accurately extracts and tracks even if they intersect during the tracking of a plurality of objects without giving the number of moving objects to be extracted and tracked and their outlines in advance. It is an object of the present invention to provide a moving object extraction / tracking device that can be used.

【0005】また本発明は、追跡の途中で新たな移動物
体が出現しても人間が介在することなく自動的に抽出・
追跡することができる移動物体の抽出・追跡装置を提供
することを目的とする。
Further, according to the present invention, even if a new moving object appears in the middle of tracking, it is automatically extracted and extracted without human intervention.
An object is to provide a device for extracting and tracking a moving object that can be tracked.

【0006】さらに本発明は、1種の画像では情報の欠
落やノイズ等により正確な抽出・追跡ができない場合に
も、熱画像や可視画像といった異種の画像情報を統合
し、より正確に複数の移動物体の自動抽出・追跡ができ
る移動物体の抽出・追跡装置を提供することを目的とす
る。
Further, the present invention integrates heterogeneous image information such as a thermal image and a visible image even if one image cannot be accurately extracted / tracked due to information loss, noise, etc. It is an object of the present invention to provide a moving object extraction / tracking device capable of automatically extracting / tracking a moving object.

【0007】また本発明は、移動物体毎に他の移動物体
との交差回数を記録し、その大小により他の移動物体に
対して不整合な動きをしている物体の検出を可能とし、
例えば、空港、ホテルのロビー、コンビニエンスストア
等で不審な動きをしている人物を抽出可能な移動物体の
抽出・追跡装置を提供することを目的とする。
Further, according to the present invention, the number of times of intersection with another moving object is recorded for each moving object, and it is possible to detect an object which is inconsistent with another moving object according to its size.
For example, it is an object of the present invention to provide a moving object extraction / tracking device capable of extracting a person who is suspiciously moving at an airport, a hotel lobby, a convenience store, or the like.

【0008】さらに本発明は、抽出・追跡の結果から移
動物体の速度や、移動物体間の距離を算出することによ
り複数の移動物体が置かれている状況の認識を可能と
し、例えば、高速道路等で車の動きを監視し、事故や渋
滞、車間距離不保持などの危険な運転等を認識できる移
動物体の抽出装置を提供することを目的とする。
Further, the present invention makes it possible to recognize the situation where a plurality of moving objects are placed by calculating the speed of the moving objects and the distance between the moving objects from the extraction / tracking results. An object of the present invention is to provide a device for extracting a moving object, which can monitor a movement of a vehicle by such as a vehicle and can recognize a dangerous driving such as an accident, a traffic jam, or an inability to keep a distance between vehicles.

【0009】[0009]

【課題を解決するための手段】請求項1の本発明は、時
系列で入力される画像を少なくとも2枚連続して記憶す
る画像記憶部と、前記画像から動きの情報を検出する動
き検出部と、前記画像に含まれる少なくとも1つの移動
物体を囲む輪郭モデルを記憶する輪郭モデル記憶部と、
前記輪郭モデルを所定の規則にしたがって変形させる輪
郭モデル変形部と、前期輪郭モデル変形部により収縮変
形された輪郭モデルの一部がその輪郭モデルの別の部分
に接触または交差の有無を判定する輪郭モデル自己交差
判定部と、前記輪郭モデル自己交差判定部により接触ま
たは交差があると判定された場合に接触または交差部分
で前記輪郭モデルを切断し複数の輪郭モデルに分裂させ
る輪郭モデル分裂部と、前記輪郭モデル記憶部に記憶さ
れている複数の異なる輪郭モデル相互の接触または交差
の有無を判定する輪郭モデル相互交差判定部と、前記輪
郭モデル相互交差判定部により接触または交差が検知さ
れた少なくとも2つの異なる輪郭モデルを1つの輪郭モ
デルに統合する輪郭モデル統合部と、所定の条件を満た
す前記輪郭モデルの変形を停止させて移動物体の抽出完
了と判定する抽出完了判定部と、前記抽出完了判定部に
より収縮変形を停止させられた前記輪郭モデルが囲む画
像中の領域の特徴量を移動物体の特徴量として抽出し記
憶する特徴量抽出記憶部と、異なる時刻の画像間で移動
物体を対応付ける移動物体照合部とを備えたことを特徴
とする移動物体の抽出装置である。
According to a first aspect of the present invention, there is provided an image storage unit for continuously storing at least two images input in time series, and a motion detection unit for detecting motion information from the images. And a contour model storage unit for storing a contour model surrounding at least one moving object included in the image,
A contour model deforming unit that deforms the contour model according to a predetermined rule, and a contour that determines whether or not a part of the contour model contracted and deformed by the contour model deforming unit contacts or intersects another portion of the contour model. A model self-intersection determining unit, and a contour model splitting unit that splits the contour model into a plurality of contour models by cutting the contour model at a contact or intersection when it is determined that there is contact or intersection by the contour model self-intersection determining unit, A contour model mutual intersection determination unit that determines presence or absence of mutual contact or intersection of a plurality of different contour models stored in the contour model storage unit, and at least 2 that contact or intersection is detected by the contour model mutual intersection determination unit. A contour model integration unit that integrates two different contour models into one contour model, and the contour model that satisfies a predetermined condition An extraction completion determination unit that determines that extraction of a moving object is completed by stopping deformation, and a feature amount of a region in an image surrounded by the contour model whose contraction deformation has been stopped by the extraction completion determination unit is a feature amount of a moving object. And a moving object collating unit that associates moving objects between images at different times, and a moving object extraction device.

【0010】請求項2の本発明は、時系列で処理対象の
画像が更新される毎に新たに画像の枠と同じ大きさの輪
郭モデルを1つ追加する輪郭モデル追加部を付加したこ
とを特徴とする移動物体の抽出装置である。
According to the second aspect of the present invention, a contour model adding section is added to newly add one contour model having the same size as the frame of the image each time the image to be processed is updated in time series. It is a device for extracting a characteristic moving object.

【0011】請求項3の本発明は、時系列で同一視野で
入力される可視画像および熱画像をそれぞれ少なくとも
2枚づつ連続して記憶する異種画像記憶部と、前記可視
画像および熱画像から動きの情報を検出する異種画像情
報統合動き検出部と、前記画像に含まれる少なくとも1
つの移動物体を囲む輪郭モデルを記憶する輪郭モデル記
憶部と、前記輪郭モデルを所定の規則にしたがって変形
させる輪郭モデル変形部と、前期輪郭モデル変形部によ
り変形された輪郭モデルの一部がその輪郭モデルの別の
部分に接触または交差したか否かを判定する輪郭モデル
自己交差判定部と、前記輪郭モデル自己交差判定部によ
り接触または交差があると判定された場合に接触または
交差部分で前記輪郭モデルを切断し複数の輪郭モデルに
分裂させる輪郭モデル分裂部と、前記輪郭モデル記憶部
に記憶されている複数の異なる輪郭モデルが相互に接触
または交差したか否かを判定する輪郭モデル相互交差判
定部と、前記輪郭モデル相互交差判定部により接触また
は交差があると判定された少なくとも2つの異なる輪郭
モデルを1つの輪郭モデルに統合する輪郭モデル統合部
と、所定の条件を満たす前記輪郭モデルの変形を停止し
移動物体の抽出完了と判定する抽出完了判定部と、前記
抽出完了判定部により変形を停止された前記輪郭モデル
が囲む前記可視画像および熱画像のおのおのの領域の特
徴量を抽出・記憶する異種画像特徴量抽出記憶部と、前
記異種画像特徴抽出記憶部に記憶されている異種画像か
らの複数の特徴量により異なる時刻の画像間で移動物体
の対応付けを行う異種画像特徴量統合照合部とを備えた
ことを特徴とする移動物体の抽出装置である。
According to a third aspect of the present invention, there is provided a heterogeneous image storage unit for continuously storing at least two visible images and thermal images input in the same field of view in a time series, and moving from the visible image and the thermal image. Heterogeneous image information integrated motion detection section for detecting information of at least one, and at least one included in the image
A contour model storage unit that stores a contour model surrounding one moving object, a contour model transformation unit that transforms the contour model according to a predetermined rule, and a portion of the contour model transformed by the previous contour model transformation unit A contour model self-intersection determination unit that determines whether or not another part of the model has touched or intersected, and the contour at the contact or intersection portion when the contour model self-intersection determination unit determines that there is contact or intersection. A contour model splitting unit that cuts the model and divides it into a plurality of contour models, and a contour model mutual intersection determination that determines whether or not a plurality of different contour models stored in the contour model storage unit contact or intersect each other Section and at least two different contour models determined to have contact or intersection by the contour model mutual intersection determination section as one ring. A contour model integration unit that integrates into a model, an extraction completion determination unit that determines that the extraction of a moving object is completed by stopping the deformation of the contour model that satisfies a predetermined condition, and the contour whose deformation is stopped by the extraction completion determination unit. A heterogeneous image feature amount extraction storage unit that extracts and stores the feature amount of each region of the visible image and the thermal image surrounded by the model, and a plurality of feature amounts from the heterogeneous images stored in the heterogeneous image feature extraction storage unit And a heterogeneous image feature amount integrated collating unit that associates moving objects between images at different times according to the above.

【0012】請求項4の本発明は、移動物体毎に相互交
差の回数を記録する輪郭モデル別相互交差回数計数部
と、前記輪郭モデル別相互交差回数計数部により数えら
れた相互交差回数が単位時間当り所定の回数以上である
輪郭モデルが抽出・追跡している物体を他の移動物体に
対して不整合な動きの物体と判定する不整合移動物体判
定部を付加したことを特徴とする移動物体の抽出装置で
ある。
According to a fourth aspect of the present invention, a unit for counting the number of mutual intersections for each moving object is the unit for counting the number of mutual intersections for each contour model, and the number of mutual intersections counted by the unit for counting the number of mutual intersections for each contour model. A movement characterized by adding an unmatched moving object determination unit that determines an object that is extracted and tracked by a contour model that is a predetermined number of times or more per hour as an object that has a mismatched movement with respect to other moving objects. It is an object extraction device.

【0013】請求項5の本発明は、時系列で得られる各
画像における輪郭モデルの位置から移動物体の速度を算
出する移動速度算出部と、異なる輪郭モデル間の距離を
算出する輪郭モデル間距離算出部を付加したことを特徴
とする移動物体の抽出装置である。
According to a fifth aspect of the present invention, a moving speed calculation unit for calculating the speed of a moving object from the position of the contour model in each image obtained in time series and a distance between contour models for calculating the distance between different contour models. A moving object extraction device characterized by adding a calculation unit.

【0014】[0014]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0015】(実施の形態1)図1は、第1の実施の形
態を示す構成図である。図1において、1は移動物体を
撮像するためのカメラ、2はカメラ1により時系列で撮
像された画像をデジタル化し少なくとも2枚連続して記
憶する画像記憶部、3は画像記憶部2に記憶されている
時間的に連続した画像から動きの情報を検出する動き検
出部、4は画像記憶部2に記憶されている画像中の移動
物体の輪郭位置を探索する輪郭候補点とその連結順序を
記憶する輪郭モデル記憶部、5は輪郭モデル記憶部4に
記憶されている輪郭候補点をその位置および前記画像か
ら定義される評価関数を最小にする方向に移動すること
により輪郭モデルを変形する輪郭モデル変形部、6は輪
郭モデル変形部5により変形された輪郭モデルの一部が
その輪郭モデルの別の部分に接触または交差の有無を判
定する輪郭モデル自己交差判定部、7は輪郭モデル自己
交差判定部6により接触または交差があると判定された
場合に接触または交差部分でその輪郭モデルを切断し複
数の輪郭モデルに分裂させる輪郭モデル分裂部、8は輪
郭モデル記憶部4に記憶されている複数の異なる輪郭モ
デル相互の接触または交差の有無を判定する輪郭モデル
相互交差判定部、9は輪郭モデル相互交差判定部8によ
り接触または交差があると判定された少なくとも2つの
異なる輪郭モデルを1つの輪郭モデルに統合する輪郭モ
デル統合部、10は輪郭モデル記憶部4に記憶されてい
る連結順序により互いに連結された2つの輪郭候補点間
の距離が所定の範囲にあるときそれらの輪郭候補点の間
に少なくとも1つの新規の輪郭候補点を追加し、前記連
結順序により互いに連結された3つの輪郭候補点からな
る連結された2線分のなす角が所定の範囲にあるとき前
記2線分の連結点である輪郭候補点を削除する輪郭候補
点生成・消滅部、11は所定の数の前記輪郭候補点につ
いてその移動により前記評価関数が減少しない場合に前
記輪郭候補点の移動を停止させて前記輪郭モデルの変形
を停止し移動物体の抽出完了と判定する抽出完了判定
部、12は抽出完了判定部11により変形を停止させら
れた輪郭モデルが囲む画像中の領域の特徴量を移動物体
の特徴量として抽出し記憶する特徴量抽出記憶部、異な
る時刻の画像間で移動物体を対応付ける移動物体照合部
である。また、15は1〜14の各部と接続され各部の
動作の開始や停止あるいは各部間のデータのやりとりを
制御する制御部で、ROMやRAMなどのメモリとCP
Uから構成されるコンピュータであって、各種のインタ
フェースを介することにより、図1に示すようなキーボ
ードやマウスなどの入力装置16およびCRTなどの表
示装置17と接続されている。
(First Embodiment) FIG. 1 is a configuration diagram showing a first embodiment. In FIG. 1, 1 is a camera for capturing a moving object, 2 is an image storage unit that digitizes images captured by the camera 1 in time series, and stores at least two consecutive images, and 3 is stored in the image storage unit 2. The motion detection unit 4 for detecting motion information from the temporally continuous images, and the contour candidate points for searching the contour position of the moving object in the image stored in the image storage unit 2 and the connecting order thereof. The stored contour model storage unit 5 is a contour for deforming the contour model by moving the contour candidate points stored in the contour model storage unit 4 in a direction that minimizes the position and the evaluation function defined from the image. The model deforming unit 6 is a contour model self-intersection judging unit for judging whether or not a part of the contour model deformed by the contour model deforming unit 5 is in contact with or intersecting another part of the contour model, and 7 is a ring. When the model self-intersection determination unit 6 determines that there is a contact or an intersection, the contour model dividing unit that cuts the contour model at the contact or intersection portion and divides it into a plurality of contour models, 8 is stored in the contour model storage unit 4. Contour model mutual intersection determination unit for determining the presence or absence of mutual contact or intersection of a plurality of different contour models, and 9 is at least two different contour models for which the contour model mutual intersection determination unit 8 determines that there is contact or intersection. Is integrated into one contour model, the contour model integration unit 10 is configured to store contours stored in the contour model storage unit 4 when the distance between two contour candidate points connected to each other is within a predetermined range. At least one new contour candidate point is added between the candidate points, and a series of three contour candidate points connected to each other by the connection order is added. A contour candidate point generating / erasing unit that deletes contour candidate points that are connecting points of the two line segments when the angle formed by the two line segments is within a predetermined range. When the evaluation function does not decrease due to the movement, the movement of the contour candidate points is stopped to stop the deformation of the contour model and it is determined that the extraction of the moving object is completed. Is a feature amount extraction storage unit that extracts and stores the feature amount of the region in the image surrounded by the stopped contour model as the feature amount of the moving object, and the moving object matching unit that associates the moving objects between images at different times. A control unit 15 is connected to each unit of 1 to 14 and controls the start and stop of the operation of each unit or the exchange of data between each unit, such as a memory such as a ROM or a RAM and a CP.
The computer is composed of U, and is connected to an input device 16 such as a keyboard and a mouse as shown in FIG. 1 and a display device 17 such as a CRT via various interfaces.

【0016】次に本実施の形態の動作について説明す
る。図2は本実施の形態の移動物体の抽出・追跡装置の
動作を示すフローチャートである。図3は本実施の形態
の動作をより分かりやすく説明するための互いにすれ違
う移動物体の画像の一部である。すなわち本発明は、こ
のような画像から移動物体を抽出・追跡できるため、例
えば、ビル内外のセキュリティにおける人物の監視シス
テム等に応用できる。画像記憶部1は通常RAMで構成
されており、デジタル化された画像の各画素データは、
例えば、その輝度を8ビットで表すなどして記憶されて
いる。以下に本実施の形態の動作手順を示す。
Next, the operation of this embodiment will be described. FIG. 2 is a flowchart showing the operation of the moving object extraction / tracking device according to the present embodiment. FIG. 3 is a part of an image of a moving object passing each other in order to explain the operation of the present embodiment more clearly. That is, since the present invention can extract and track a moving object from such an image, it can be applied to, for example, a person monitoring system in security inside and outside a building. The image storage unit 1 is usually composed of a RAM, and each pixel data of the digitized image is
For example, the brightness is stored by representing it with 8 bits. The operation procedure of this embodiment is shown below.

【0017】[STEP1a]画像の取り込み カメラ1から時系列的に得られる映像をデジタル化し
て、画像IT,T=0,1,…として画像記憶部2に記憶する。
以下、画像ITをT=0から順に処理する。
[STEP1a] Capture of Image A video obtained in time series from the camera 1 is digitized and stored in the image storage unit 2 as an image I T , T = 0, 1, ....
Hereinafter, the image I T is processed in order from T = 0.

【0018】[STEP2a]初期輪郭の設置 T=0の時、画像記憶部2に記憶されている画像I0(x,y)中
の移動物体すべてを包含する1つの多角形(輪郭モデ
ル)を構成するNm個の点を、初期の輪郭候補点vmi(x
mi(0),ymi(0))(i=1,2,…,Nm;m=1,2,…,m_max)として輪
郭モデル記憶部4に記憶する。mは複数の輪郭モデルに
つけられた番号を表し、最初はm_max=1である。またiは
輪郭モデルを構成する輪郭候補点の連結順序を表す。輪
郭モデル記憶部4は通常RAMで構成されている。な
お、操作者が表示装置16に表示された画像を見ながら
キーボードやマウスなどの入力装置15を操作して初期
の輪郭候補点を入力して輪郭モデル記憶部4に記憶させ
てもよい。あるいは、画像の大きさにほぼ等しい長方形
の辺をNm等分した点を初期の輪郭候補点としてあらかじ
め輪郭モデル記憶部4に記憶させてもよい。
[STEP2a] Installation of initial contour When T = 0, one polygon (contour model) including all moving objects in the image I 0 (x, y) stored in the image storage unit 2 is set. The initial contour candidate points v mi (x
It is stored in the contour model storage unit 4 as mi (0), y mi (0)) (i = 1,2, ..., Nm; m = 1,2, ..., m_max). m represents a number given to a plurality of contour models, and initially m_max = 1. Further, i represents the connecting order of the contour candidate points forming the contour model. The contour model storage unit 4 is usually composed of a RAM. The operator may operate the input device 15 such as a keyboard or a mouse while watching the image displayed on the display device 16 to input an initial contour candidate point and store it in the contour model storage unit 4. Alternatively, a point obtained by equally dividing a side of a rectangle approximately equal to the size of an image into Nm may be stored in the contour model storage unit 4 in advance as an initial contour candidate point.

【0019】[STEP3a]動きの検出 動き検出部3により、画像記憶部2に記憶されている2
枚の画像IT、IT+1から輪郭モデルの各輪郭候補点vmi(x
mi,ymi)の位置における移動ベクトルを検出する。移動
ベクトルは、例えば、勾配法に基づき最小2乗法により
求めることができる。勾配法では、画像の輝度をIT(x,
y)とすると、その時間・空間に関する偏微分と、画像中
の点(x,y)における物体の見かけの速度(u,v)=(dx/dt,dy
/dt)に関する次の拘束式を用いる。
[STEP 3a] Motion Detection The motion detection unit 3 stores the 2 values stored in the image storage unit 2.
From each of the images I T and I T + 1 , each contour candidate point v mi (x
The movement vector at the position of mi , y mi ) is detected. The movement vector can be obtained by the method of least squares based on the gradient method, for example. In the gradient method, the intensity of the image is I T (x,
y), the partial derivative with respect to the time and space, and the apparent velocity (u, v) = (dx / dt, dy of the object at the point (x, y) in the image.
Use the following constraint equation for / dt).

【0020】[0020]

【数1】 [Equation 1]

【0021】今、各輪郭候補点近傍の局所的な小領域で
移動ベクトルが均一、すなわち、局所的な小領域Sで数
1式の拘束式が同じ解を持つと仮定すれば、各輪郭候補
点の位置における動きベクトルは次式を最小にする(u,
v)として求められる。
Assuming now that the movement vector is uniform in the local small area near each contour candidate point, that is, the constraint equation of the equation 1 has the same solution in the local small area S, each contour candidate The motion vector at the point position minimizes (u,
v) is required.

【0022】[0022]

【数2】 [Equation 2]

【0023】したがって、∂E/∂u=0, ∂E/∂v=0を満た
す(u,v)を次式により求めればよい。ただし、(i,j)は点
(x,y)の近傍領域S内の点の座標を表す。
Therefore, (u, v) satisfying ∂E / ∂u = 0 and ∂E / ∂v = 0 may be obtained by the following equation. However, (i, j) is a point
Represents the coordinates of a point in the neighborhood area S of (x, y).

【0024】[0024]

【数3】 (Equation 3)

【0025】ただし、i,jはそれぞれ画像中の小領域Sに
属する画素のx,y座標であり、Σは(i,j)∈Sについて算
出する。また、Detは次式により計算される。
However, i and j are the x and y coordinates of the pixels belonging to the small area S in the image, and Σ is calculated for (i, j) εS. Det is calculated by the following formula.

【0026】[0026]

【数4】 (Equation 4)

【0027】[STEP4a]輪郭モデルの変形 輪郭モデル変形部5は、以下の式で表される各エネルギ
ー項の和で定義される輪郭モデルのエネルギーEsnake(v
mi)を最小にするように、輪郭モデル記憶部に記憶され
ている輪郭候補点を移動させることにより輪郭モデルを
変形する。
[STEP4a] Deformation of Contour Model The contour model deformation section 5 defines the energy E snake (v of the contour model defined by the sum of the energy terms represented by the following equations.
The contour model is deformed by moving the contour candidate points stored in the contour model storage unit so as to minimize mi ).

【0028】1)輪郭モデルの滑らかさを表すEspline 1) E spline representing the smoothness of the contour model

【0029】[0029]

【数5】 (Equation 5)

【0030】数5を最小にするような輪郭候補点の移動
方向は、輪郭モデルが収縮するような方向である。
The moving direction of the contour candidate point that minimizes the equation 5 is such that the contour model contracts.

【0031】2)輪郭モデルの囲む閉領域の面積に相当す
るEarea
2) E area corresponding to the area of the closed region surrounded by the contour model

【0032】[0032]

【数6】 (Equation 6)

【0033】ただし、xmNm+1=xm1,ymNm+1=ym1とする。
数6を最小にするような輪郭候補点の移動方向は、輪郭
モデルに対して垂直な方向である。Eareaを用いれば、
くぼんだ形状の対象物の輪郭が抽出できる。
However, x mNm + 1 = x m1 and y mNm + 1 = y m1 .
The movement direction of the contour candidate point that minimizes the equation 6 is a direction perpendicular to the contour model. If you use E area ,
The contour of the concave object can be extracted.

【0034】3)輪郭候補点間の距離を平均化するEdist 3) E dist that averages the distances between contour candidate points

【0035】[0035]

【数7】 (Equation 7)

【0036】ただし、davは輪郭候補点間の平均距離で
ある。 4)画像の輝度IT(vmi)の勾配の大きさEedge
However, d av is the average distance between contour candidate points. 4) Gradient magnitude of the image brightness I T (v mi ) E edge

【0037】[0037]

【数8】 (Equation 8)

【0038】数8を最小にするような輪郭候補点の移動
方向は、輝度勾配の大きくなる方向、すなわち対象物の
輪郭部分へ向かう方向である。ここで、数5〜9の
wsp1,wsp 2,warea,wdist,wedge>0は、それぞれ各エネル
ギー項の重み係数である。
The moving direction of the contour candidate point that minimizes the equation (8) is the direction in which the brightness gradient increases, that is, the direction toward the contour portion of the object. Here, the number 5-9
w sp1, w sp 2, w area, w dist, w edge> 0 are the respective weight coefficients of each energy terms.

【0039】具体的な輪郭モデルの変形は、例えば、輪
郭候補点vmi(xmi(t),ymi(t))(i=1,2,…,Nm;m=1,2,…)を
画素単位でその近傍の位置に移動させたときのエネルギ
ーEs nake(vmi)が最小となる位置に1回移動させることに
より行われる。t(i=0,1,…)は各点の移動回数を表し、
輪郭候補点vmi(xmi,ymi)の近傍の位置は、例えば、v
m i(xmi-1,ymi-1)、vmi(xmi-1,ymi)、vmi(xmi-1,
ymi+1)、vmi(xmi,ymi-1)、vmi(xm i,ymi+1)、vmi(xmi+1,
ymi-1)、vmi(xmi+1,ymi)、vmi(xmi+1,ymi+1)の8近傍を
考えればよい。ただし、移動によりエネルギーEsnake(v
mi)が増加する場合には移動させない。このとき、移動
した輪郭候補点の数をCmoveに記憶する。
A concrete deformation of the contour model is, for example, contour candidate points v mi (x mi (t), y mi (t)) (i = 1,2, ..., Nm; m = 1,2 ,. ) energy when moving to a position in the vicinity in a pixel unit E s nake (v mi) is carried out by moving once smallest position. t (i = 0,1, ...) represents the number of movements of each point,
The position near the contour candidate point v mi (x mi , y mi ) is, for example, v
m i (x mi-1 , y mi-1 ), v mi (x mi-1 , y mi ), v mi (x mi-1 ,
y mi + 1 ), v mi (x mi , y mi-1 ), v mi (x m i , y mi + 1 ), v mi (x mi + 1 ,
It suffices to consider 8 neighborhoods of y mi-1 ), v mi (x mi + 1 , y mi ), and v mi (x mi + 1 , y mi + 1 ). However, the energy E snake (v
If mi ) increases, do not move. At this time, the number of contour candidate points that have moved is stored in C move .

【0040】ここで、移動物体を抽出するので、各輪郭
候補点の移動に際しては、STEP2aで求められた各輪郭候
補点の位置での動きベクトルの絶対値が所定の値以下の
時、画像の輝度IT(vmi)の勾配の大きさを表すエネルギ
ーEedgeの重み係数wedgeを0とする。これにより動きの
あるエッジにのみ輪郭モデルが引き寄せられ、移動物体
を抽出できる。
Here, since a moving object is extracted, when moving each contour candidate point, when the absolute value of the motion vector at the position of each contour candidate point obtained in STEP 2a is less than a predetermined value, the image of the image is The weight coefficient w edge of the energy E edge representing the magnitude of the gradient of the brightness IT (v mi ) is set to 0. As a result, the contour model is drawn only to the moving edge, and the moving object can be extracted.

【0041】[STEP5a]輪郭モデルの自己交差判定 輪郭モデル自己交差判定部6により、輪郭モデル上の異
なる2線分vmkvmk+1と線分vmhvmh+1(k=1,2,…,Nm;h=1,
2,…,Nm)のすべての組合せについて接触または交差を判
定する。ただし、連結している2線分は除く。線分vmkv
mk+1と線分vmhv mh+1が接触または交差するならば、次式
を満たす実数p(0≦p≦1),q(0≦q≦1)が存在する。
[STEP 5a] Judgment of Self-Intersection of Contour Model
2 segment vmkvmk + 1And line segment vmhvmh + 1(k = 1,2, ..., Nm; h = 1,
2, ..., Nm) for all combinations of contacts or intersections
Set. However, the two connected lines are excluded. Line segment vmkv
mk + 1And line segment vmhv mh + 1If touches or intersects, then
There are real numbers p (0 ≤ p ≤ 1) and q (0 ≤ q ≤ 1) that satisfy.

【0042】[0042]

【数9】 [Equation 9]

【0043】数9は、p,qに関する連立方程式であり、
次式で計算される行列式detが0でないとき解を持つ。な
お、det=0のとき、線分vmkvmk+1と線分vmhvmh+1が一致
する場合があるため、この場合の交差は、行列式detの
計算前にこの一致を判定しておく。
Equation 9 is a simultaneous equation concerning p and q,
It has a solution when the determinant det calculated by the following equation is not 0. Note that when det = 0, the line segment v mk v mk + 1 and the line segment v mh v mh + 1 may match.Therefore , in this case, the intersection is determined before the calculation of the determinant det. I'll do it.

【0044】[0044]

【数10】 (Equation 10)

【0045】det≠0のとき次式により算出されるp,q
が、それぞれ0≦p≦1,0≦q≦1を満たすとき、輪郭モデ
ルは、線分vmkvmk+1と線分vmhvmh+1の交点(p,q)で自己
交差または接触したと判定しSTEP6aを実行、それ以外は
STEP7aを実行する。
When det ≠ 0, p, q calculated by the following equation
Respectively satisfy 0 ≦ p ≦ 1,0 ≦ q ≦ 1, the contour model self-intersects at the intersection (p, q) of the line segment v mk v mk + 1 and the line segment v mh v mh + 1. It is judged that the contact is made and STEP6a is executed.
Execute STEP7a.

【0046】[0046]

【数11】 [Equation 11]

【0047】[STEP6a]輪郭モデルの分裂 輪郭モデル自己交差判定部6により自己交差があると判
定された輪郭モデルに対し、輪郭モデル分裂部7はその
輪郭モデルを複数に分裂させ、STEP2aへ戻る。自己交差
した輪郭モデルは、交点を持つ線分を構成する輪郭候補
点で分裂させる。輪郭モデルのエネルギーとしてEarea
を用いた場合に起こる典型的な輪郭モデルの自己交差の
例を図4に示す。図4に示すように、自己交差した輪郭
モデルは、輪郭候補点vmkとvmh+1、vmhとvmk+1とをそれ
ぞれ連結することにより2つに分裂される。これによ
り、連結順序が{vm1,…,vmk,vmh+1,…,vmn}と{vmk+1,
…,vmh}である輪郭候補点の組が、それぞれ新たに分裂
し独立した輪郭モデルとなる。これらの新たに独立した
輪郭モデルは、輪郭モデル記憶部4に記憶される。ま
た、分裂により輪郭モデルの数が増加するので、その数
m_maxの値を更新する。
[STEP6a] Division of Contour Model With respect to the contour model judged by the contour model self-intersection judging section 6 to have self-intersection, the contour model dividing section 7 divides the contour model into a plurality of pieces and returns to STEP2a. The self-intersecting contour model is split at contour candidate points that form a line segment having an intersection. E area as the energy of the contour model
An example of the self-intersection of a typical contour model that occurs when is used is shown in FIG. As shown in FIG. 4, the self-intersecting contour model is split into two by connecting contour candidate points v mk and v mh + 1 , and v mh and v mk + 1 , respectively. As a result, the concatenation order is {v m1,, ..., v mk , v mh + 1 , ..., v mn } and {v mk + 1 , ...
, V mh }, the set of contour candidate points is newly divided into independent contour models. These newly independent contour models are stored in the contour model storage unit 4. Also, since the number of contour models increases due to division,
Update the value of m_max.

【0048】[STEP7a]輪郭モデルの相互交差判定 輪郭モデル相互交差判定部8により、異なる2つの輪郭
モデルvfkとvgh(f=1,2,…,m_max;k=1,2,…,Nf;g=1,2,
…,m_max;h=1,2,…,Ng;f≠g)のすべての組合せについて
相互の接触または交差を判定する。具体的には、輪郭モ
デルvfkを構成する線分vfkvfk+1と輪郭モデルvghを構成
する線分vghvgh+1のすべての組合せについて接触または
交差を判定する。異なる2つの輪郭モデルvfkとvghの相
互接触または相互交差、すなわち線分vfkvfk+1と線分v
ghvgh+1が接触または交差しているならば、次式を満た
す実数p(0≦p≦1),q(0≦q≦1)が存在する。
[STEP 7a] Judgment of Mutual Intersection of Contour Model The contour model mutual intersection judgment unit 8 determines two different contour models v fk and v gh (f = 1,2, ..., m_max; k = 1,2, ...,). Nf; g = 1,2,
,, m_max; h = 1,2, ..., Ng; f ≠ g), the mutual contact or intersection is determined. Specifically, contact or intersection is determined for all combinations of the line segment v fk v fk + 1 forming the contour model v fk and the line segment v gh v gh + 1 forming the contour model v gh . Mutual contact or intersection of two different contour models v fk and v gh , ie line segment v fk v fk + 1 and line segment v
If gh v gh + 1 touches or intersects, there exist real numbers p (0 ≦ p ≦ 1) and q (0 ≦ q ≦ 1) that satisfy the following equation.

【0049】[0049]

【数12】 (Equation 12)

【0050】数12は、p,qに関する連立方程式であ
り、次式で計算される行列式detが0でないとき解を持
つ。なお、det=0のとき、線分vfkvfk+1と線分vghvgh+1
が一致する場合があるため、この場合の交差は、行列式
detの計算前にこの一致を判定しておく。
Equation 12 is a simultaneous equation regarding p and q, and has a solution when the determinant det calculated by the following equation is not zero. When det = 0, the line segment v fk v fk + 1 and the line segment v gh v gh + 1
May intersect, so the intersection in this case is the determinant
This match is judged before the calculation of det.

【0051】[0051]

【数13】 (Equation 13)

【0052】det≠0のとき次式により算出されるp,q
が、それぞれ0≦p≦1,0≦q≦1を満たすとき、2つの異
なる輪郭モデルは、線分vfkvfk+1と線分vghvgh+1の交点
(p,q)で相互に接触または交差したと判定しSTEP8aを実
行、それ以外はSTEP9aを実行する。
When det ≠ 0, p, q calculated by the following equation
, Respectively, satisfying 0 ≦ p ≦ 1, 0 ≦ q ≦ 1, the two different contour models are the intersection points of the line segment v fk v fk + 1 and the line segment v gh v gh + 1 .
At (p, q), it is determined that they have touched or intersected with each other, and STEP8a is executed. Otherwise, STEP9a is executed.

【0053】[0053]

【数14】 [Equation 14]

【0054】[STEP8a]輪郭モデルの統合 輪郭モデル相互交差判定部8により相互に接触または交
差していると判定された少なくとも2つの輪郭モデルを
について、輪郭モデル統合部9により、それらを構成す
るすべての輪郭候補点を包含する凸多角形を求め、その
凸多角形を構成する輪郭候補点の組を統合された輪郭モ
デルとして輪郭モデル記憶部4に記憶する。また、統合
により輪郭モデルの数が減少するので、その数m_maxの
値を更新する。図5は、異なる2つの輪郭モデルに起こ
る典型的な相互交差と、それらを1つに統合した輪郭モ
デルを示している。
[STEP8a] Consolidation of Contour Models With respect to at least two contour models that are determined to be in contact with or intersecting each other by the contour model mutual intersection determination unit 8, the contour model integration unit 9 configures all of them. The convex polygon including the contour candidate points is obtained, and the set of contour candidate points forming the convex polygon is stored in the contour model storage unit 4 as an integrated contour model. Also, since the number of contour models decreases due to the integration, the value of the number m_max is updated. FIG. 5 shows typical mutual intersections that occur in two different contour models and a contour model obtained by integrating them.

【0055】[STEP9a]輪郭候補点の生成・消滅判定 輪郭候補点生成・消滅部10により、新たな輪郭候補点
の生成・消滅を行う。例えば、次のような場合に輪郭候
補点の生成を行う。輪郭候補点生成・消滅部10は、隣
接する輪郭候補点間の距離が|vmi+1-vmi|>DThを満たす
とき、2点vmi,vm i+1間に新たに離散点を生成する。ただ
し、DThはあらかじめ定められた輪郭候補点間の最大距
離である。このとき、輪郭候補点を1つでも生成すれば
Gflag=1、生成しなければGflag=0とする。この輪郭候補
点の追加生成により、分裂により減少する対象物1つあ
たりの輪郭候補点の数を補って、複数対象物の輪郭を正
しく抽出することができる。
[STEP 9a] Determining Generation / Elimination of Contour Candidate Points The contour candidate point generation / elimination unit 10 produces / eliminates new contour candidate points. For example, contour candidate points are generated in the following cases. When the distance between adjacent contour candidate points satisfies | v mi + 1 -v mi |> D Th , the contour candidate point generation / annihilation unit 10 newly separates between the two points v mi and v m i + 1. Generate points. However, D Th is the maximum distance between predetermined contour candidate points. At this time, if even one contour candidate point is generated
G flag = 1 and G flag = 0 if not generated. By the additional generation of contour candidate points, it is possible to compensate for the number of contour candidate points per object, which decreases due to division, and to correctly extract the contours of a plurality of objects.

【0056】また、輪郭候補点生成・消滅部10は、例
えば、cosθ>θTh(θはvmivmi-1とvmivmi+1のなす角)
を満たす輪郭候補点vmiを消滅させる。ただし、θTh
あらかじめ定められた輪郭モデルの尖りを判定するしき
い値である。このとき輪郭候補点が1つでも消滅すれば
Dflag=1、消滅しなければDflag=0とする。この輪郭候補
点の消滅手順により、対象物の輪郭以外の位置でノイズ
の影響などにより停止している輪郭候補点が削除され、
誤った輪郭抽出を避けることができる。
[0056] In addition, the contour candidate point creation and annihilation unit 10 is, for example, cosθ> θ Th (θ is vmi v mi-1 and v mi v angle of mi + 1)
The contour candidate points v mi satisfying are deleted. However, θ Th is a threshold value for determining the sharpness of a predetermined contour model. At this time, if even one contour candidate point disappears
D flag = 1, and D flag = 0 if it does not disappear. By this procedure of disappearing contour candidate points, contour candidate points that are stopped due to noise at positions other than the contour of the object are deleted,
False contour extraction can be avoided.

【0057】[STEP10a]抽出完了判定 抽出完了判定部11により、画像ITにおける移動物体の
抽出完了を判定する。すべての輪郭モデルについて、輪
郭候補点に移動がなく(Cmove≦CTh;CTh≧0はあらかじ
め定められた移動した輪郭候補点の個数に対するしきい
値)かつ新たな輪郭候補点の生成・消滅がないとき(G
flag=0かつDflag=0)、あるいはt≧tmax(tmaxはあらか
じめ定められた輪郭候補点の移動回数の最大値)のと
き、画像ITでの移動物体の抽出が完了したと判定しSTEP
11aへ。それ以外はT=T+1としてSTEP3aへ戻る。なお、抽
出が完了した際、異なる輪郭モデルに異なる色をつけて
表示部16に表示すれば、例えば監視システム等におい
ては、異なる移動物体の視認性が向上する。
[0057] [STEP10a] Extraction completion determination extraction completion determination section 11 determines completion of the extraction of the moving object in the image I T. For all contour models, no contour candidate points have moved (C move ≤ C Th ; C Th ≥ 0 is a threshold value for the number of contour candidate points that have been moved in advance) and new contour candidate points are generated. When there is no disappearance (G
If flag = 0 and D flag = 0), or t ≥ tmax (tmax is the maximum number of movements of the contour candidate points set in advance), it is determined that the extraction of the moving object in the image I T is completed, and STEP
Go to 11a. Otherwise, set T = T + 1 and return to STEP3a. When the extraction is completed, if different contour models are displayed in different colors on the display unit 16, the visibility of different moving objects is improved, for example, in a surveillance system.

【0058】[STEP11a]移動物体の特徴量抽出 特徴量抽出記憶部12により、輪郭モデルvmi(m=1,2,
…,m_max)が囲む画像I Tの領域の特徴量を移動物体の特
徴量として抽出する。例えば、輝度のヒストグラムの累
積分布Hm(k)(8bitの場合k=0,1,…,255)が特徴量とし
て利用できる。T=0のとき、特徴量Hm(k)を特徴量抽出記
憶部12にHl(k)(l=1,2,…,l_max;l_maxは特徴量が記
憶されている移動物体の数)として記憶し、T=T+1とし
てSTEP3aへ戻る。T>0のとき特徴量Hm(k)を抽出しSTEP12
aへ。
[STEP 11a] Extraction of feature quantity of moving objectmi(M = 1,2,
,, image surrounded by m_max) I TThe feature amount of the region of
Extract as a trait. For example, the luminance histogram
Product distribution Hm(k) (k = 0,1, ..., 255 for 8bit) is the feature quantity
Available. When T = 0, the feature quantity Hm(k) is the feature extraction
H in memory 12l(k) (l = 1,2, ..., l_max; l_max is the feature quantity
The number of moving objects remembered), and T = T + 1
Then go back to STEP 3a. Feature value H when T> 0m(k) is extracted and STEP12
to a.

【0059】[STEP12a]移動物体の照合 移動物体照合部13により、現在(T=T_present)の処
理対象の画像IT_presen t(T_present>0)で抽出された移
動物体が、特徴量抽出記憶部12に記憶されている過去
(T=T_past;T_past<T_present)に抽出されたどの移動
物体であるかを、特徴量の類似度(ヒストグラム間の距
離d)により照合する。具体的には、次式で表されるヒ
ストグラム間の距離dをmとlのすべての組合せについて
求め、その値があらかじめ定められたしきい値Dmatch
下のものについて、最小値を持つ組合せから順に、輪郭
モデルvmiが抽出している特徴量Hm(k)の移動物体と、特
徴量抽出記憶部12に記憶されている特徴量Hl(k)を持
つ移動物体とを対応付ける。
[STEP12a] Collation of Moving Object The moving object extracted by the moving object collating unit 13 at the current (T = T_present) image I T_presen t (T_present> 0) to be processed is the feature amount extraction storage unit 12 Which moving object is extracted in the past (T = T_past; T_past <T_present) stored in is compared with the feature similarity (distance d between histograms). Specifically, the distance d between the histograms represented by the following equation is obtained for all combinations of m and l, and for those whose value is less than or equal to a predetermined threshold D match , from the combination having the minimum value, In order, the moving object having the characteristic amount H m (k) extracted by the contour model v mi and the moving object having the characteristic amount H l (k) stored in the characteristic amount extraction storage unit 12 are associated with each other.

【0060】[0060]

【数15】 (Equation 15)

【0061】ここで、抽出された領域の大きさによりヒ
ストグラムの度数が異なるので、最大度数で正規化して
おく。さらに、対応付けられた移動物体については、特
徴量抽出記憶部12に記憶されている特徴量Hl(k)を、
輪郭モデルvmiが抽出している特徴量Hm(k)で置き換え
る。また、対応の付かなかった移動物体については、そ
の特徴量を新たに特徴量抽出記憶部12に記憶する。移
動物体の照合が終われば、T=T+1としてSTEP3aへ戻る。
Here, since the frequency of the histogram differs depending on the size of the extracted area, it is normalized with the maximum frequency. Further, for the associated moving object, the feature amount H l (k) stored in the feature amount extraction storage unit 12 is
The contour model v mi is replaced with the feature amount H m (k) extracted. Further, regarding the moving objects that are not associated with each other, the feature amount is newly stored in the feature amount extraction storage unit 12. When the matching of the moving object is completed, T = T + 1 is set and the process returns to STEP 3a.

【0062】なお、対応付けは必ずしもすべての輪郭モ
デルと特徴量抽出記憶部12に記憶されているすべての
移動物体について行う必要はなく、例えば、一旦融合し
た輪郭モデルについては再び分裂したときに行えばよ
い。また、特徴量抽出記憶部12には、特徴量と共にそ
の移動物体を抽出した輪郭モデルの色も記憶しておけ
ば、対応のついた移動物体を抽出している輪郭モデルの
色を記憶されている色で表示部16に表示でき、同一移
動物体の抽出・追跡の視認性が向上する。
The correspondence does not necessarily have to be performed for all contour models and all moving objects stored in the feature amount extraction storage unit 12. For example, for a contour model that has been fused once, it is performed when it is divided again. I'll do it. Further, in the feature amount extraction storage unit 12, if the color of the contour model from which the moving object is extracted is also stored together with the feature amount, the color of the contour model from which the corresponding moving object is extracted is stored. The same color can be displayed on the display unit 16, and the visibility of extraction / tracking of the same moving object is improved.

【0063】以上の手順によれば、図6に示すように、
移動物体(ここでは歩行者)の集合全体を包含した1つ
の輪郭モデル(図6(a))が、2つに分裂して2人の歩
行者それぞれを抽出・追跡し(図6(b)〜(d))、2人の
歩行者が重なる(図6(e))と同時に、2つの輪郭モデ
ルが1つに統合して(図6(f))さらに追跡を続け(図
6(g))、やがて2人の歩行者がすれ違い離れると1つ
の輪郭モデルも再び2つに分裂し、2人の歩行者を独立
に抽出・追跡することができる(図6(h)〜(i))。
According to the above procedure, as shown in FIG.
One contour model (Fig. 6 (a)) that includes the whole set of moving objects (here, pedestrians) is divided into two and each of two pedestrians is extracted and tracked (Fig. 6 (b)). (D)) Two pedestrians overlap (Fig. 6 (e)), and at the same time, the two contour models are integrated into one (Fig. 6 (f)) and tracking continues (Fig. 6 (g). )), And eventually, when two pedestrians pass each other, one contour model is divided into two again, and two pedestrians can be independently extracted and tracked (Figs. 6 (h) to (i)). ).

【0064】以上説明したように、第1の実施の形態に
よれば、輪郭モデルの自己交差および相互交差を判定し
て輪郭モデルを分裂および統合させることにより、複数
の移動物体がすれ違う場合にも抽出・追跡することがで
きる。
As described above, according to the first embodiment, even when a plurality of moving objects pass each other by dividing the contour models by judging the self-intersection and the mutual intersection of the contour models. Can be extracted and tracked.

【0065】(実施の形態2)次に本発明の移動物体の
抽出・追跡装置に係る第2の実施の形態について説明す
る。第1の実施の形態では、輪郭モデルの自己交差およ
び相互交差を判定して輪郭モデルを分裂および統合させ
ることにより、複数移動物体がすれ違う場合にも抽出・
追跡できることを説明した。第2の実施の形態は、最初
カメラの画角内に存在しなかった他の移動物体が途中で
カメラの画角内に新たに入ってくる場合にも、その移動
物体を抽出・追跡できるように考慮したものである。第
1の実施の形態では、カメラの画角内には常に同じ移動
物体がある場合を例として説明したが、ビルやプラント
内外の監視システム等においては、次々に画角内に入っ
てくる移動物体を抽出・追跡することが必要である。
(Second Embodiment) Next, a second embodiment of the moving object extracting / tracking apparatus according to the present invention will be described. In the first embodiment, the self-intersection and the mutual intersection of the contour models are determined, and the contour models are divided and integrated to extract and extract even a plurality of moving objects.
Explained that you can trace. In the second embodiment, even when another moving object that was not initially within the view angle of the camera newly enters the view angle of the camera on the way, the moving object can be extracted and tracked. It has been taken into consideration. In the first embodiment, the case where there is always the same moving object within the field of view of the camera has been described as an example. However, in a monitoring system inside or outside a building or plant, movements that come into the field of view one after another. It is necessary to extract and track objects.

【0066】図7は第2の実施の形態の構成図であり、
図1に示した第1の実施の形態と同じ構成部分には同一
番号を付して詳細な説明は省略する。第2の実施の形態
と第1の実施の形態の相違点は、第1の実施の形態に、
画像記憶部2に次の時刻の画像が記憶される毎に、画像
の枠と同じ大きさの輪郭モデルを新たに1つ追加しその
輪郭モデル追加部17を付加したことである。これによ
り、次々に新しく画角内に入ってくる移動物体を抽出・
追跡することが可能となる。
FIG. 7 is a block diagram of the second embodiment.
The same components as those of the first embodiment shown in FIG. 1 are designated by the same reference numerals, and detailed description thereof will be omitted. The difference between the second embodiment and the first embodiment is that in the first embodiment,
Every time an image at the next time is stored in the image storage unit 2, one contour model having the same size as the frame of the image is newly added and the contour model adding unit 17 is added. As a result, moving objects that come into the angle of view one after another are extracted.
It becomes possible to track.

【0067】以上のように構成された第2の実施の形態
の輪郭抽出装置の動作を、図8のフローチャートを参照
しながら説明する。ただし、第2の実施の形態のSTEP1b
〜STEP2b、STEP4b、STEP6b〜STEP7bおよびSTEP9b〜STEP
13bは、それぞれ第1の実施の形態のSTEP1a〜STEP2a、S
TEP3a、STEP5a〜STEP6aおよびSTEP8a〜STEP12aと全く同
様の手順であるため、異なるSTEP3b、STEP5bおよびSTEP
8bのみを説明する。
The operation of the contour extracting apparatus of the second embodiment having the above configuration will be described with reference to the flowchart of FIG. However, STEP1b of the second embodiment
~ STEP2b, STEP4b, STEP6b ~ STEP7b and STEP9b ~ STEP
13b are STEP1a to STEP2a, S of the first embodiment, respectively.
Since the procedure is exactly the same as that of STEP3a, STEP5a to STEP6a and STEP8a to STEP12a, different STEP3b, STEP5b and STEP
Only 8b will be described.

【0068】[STEP3b]輪郭モデルの追加 輪郭モデル追加部15は、T>0の時、画像記憶部2に記
憶されている画像IT(x,y)の大きさにほぼ等しい長方形
状の輪郭モデルを、新たに輪郭モデル記憶部4に記憶す
る。このとき輪郭モデルの数をm_max=m_max+1と更新す
る。
[STEP3b] Addition of Contour Model The contour model addition unit 15 has a rectangular contour which is approximately equal to the size of the image I T (x, y) stored in the image storage unit 2 when T> 0. The model is newly stored in the contour model storage unit 4. At this time, the number of contour models is updated to m_max = m_max + 1.

【0069】[STEP5b]輪郭モデルの変形 輪郭モデル変形部5により輪郭モデルを変形する際、新
たに追加された輪郭モデルの輪郭候補点が、既存の輪郭
モデルモデル内にある時、画像の輝度IT(vmi)の勾配の
大きさを表すエネルギーEedgeの重み係数wedgeを0とす
る。これにより、新たに追加された輪郭モデルが、既存
の輪郭モデルがすでに抽出している移動物体を再度抽出
することがない。なお、新たに追加された輪郭モデルが
自己交差により分裂した輪郭モデルについても同様の処
理を行う。
[STEP5b] Deformation of Contour Model When the contour model deforming unit 5 deforms the contour model, when the contour candidate points of the newly added contour model are in the existing contour model model, the brightness of the image I The weight coefficient w edge of the energy E edge representing the magnitude of the gradient of T (v mi ) is set to 0. This prevents the newly added contour model from extracting again the moving object already extracted by the existing contour model. Note that the same processing is performed for the contour model in which the newly added contour model is divided by self-intersection.

【0070】[STEP8b]輪郭モデルの相互交差判定 輪郭モデル相互交差判定部7により、異なる2つの輪郭
モデルの相互の接触または交差を判定する際、新たに追
加された輪郭モデルおよびその輪郭モデルの分裂によっ
て新たに生じた輪郭モデルとの相互交差判定は行わな
い。これにより、既存の輪郭モデルが抽出している移動
物体を再び抽出しなおすことがなくなる。
[STEP8b] Judgment of Mutual Intersection of Contour Model When the contour model mutual intersection judgment unit 7 judges mutual contact or intersection of two different contour models, the newly added contour model and the division of the contour model. Mutual intersection with the newly generated contour model is not determined. This prevents the moving object extracted by the existing contour model from being extracted again.

【0071】以上の手順によれば、図9に示すように、
新たな移動物体が出現した場合には新たに追加した輪郭
モデルが(図9(b))、既存の輪郭モデルが抽出してい
る移動物体を再度抽出することなく(図9(c))新たに出
現した移動物体のみを抽出することができる(図9
(d))。
According to the above procedure, as shown in FIG.
When a new moving object appears, the newly added contour model is added (Fig. 9 (b)), and the moving object extracted by the existing contour model is not extracted again (Fig. 9 (c)). It is possible to extract only moving objects that appear in (Fig. 9
(d)).

【0072】以上説明したように、第2の実施の形態に
よれば、新しい画像を入力する毎に、画像の大きさに相
当する輪郭モデルを新たに1つ追加し、既存の輪郭モデ
ルとは相互交差の判定を行わず、かつ既存の輪郭モデル
が囲む領域内のエッジには引き寄せられないようにした
ため、既存の移動物体を再度抽出することなく、新たに
出現した移動物体を抽出・追跡することができる。
As described above, according to the second embodiment, each time a new image is input, a new contour model corresponding to the size of the image is newly added. Extraction and tracking of a newly appearing moving object without re-extracting the existing moving object because the mutual intersection is not judged and the edge in the area surrounded by the existing contour model is not drawn. be able to.

【0073】(実施の形態3)次に本発明の輪郭抽出装
置に係る第3の実施の形態について説明する。第1、第
2の実施の形態では、1種類の画像を利用して、複数移
動物体の抽出・追跡ができることを説明した。さらに第
3の実施の形態は、1種類の画像では情報の欠落やノイ
ズ等により正確な抽出・追跡ができない場合に、熱画像
や可視画像等の異種の画像情報を統合し、より正確な複
数の移動物体の抽出・追跡を考慮したものである。
(Third Embodiment) Next, a third embodiment of the contour extracting apparatus of the present invention will be described. In the first and second embodiments, it has been described that a plurality of moving objects can be extracted and tracked using one type of image. Furthermore, the third embodiment integrates different types of image information such as a thermal image or a visible image when accurate extraction / tracking cannot be performed with one type of image due to information loss, noise, etc. It considers the extraction and tracking of moving objects.

【0074】図10は本実施の形態の構成図であり、図
1に示した第1の実施の形態と同じ構成部分には同一番
号を付して詳細な説明は省略する。第3の実施の形態と
第1の実施の形態との相違点は、第1の実施の形態に、
可視画像と同一視野の熱画像を撮像するための赤外線カ
メラ18、ハーフミラー19およびミラー20を付加
し、さらに第1の実施の形態における画像記憶部2を熱
画像と可視画像の異種の画像情報を記憶する異種画像記
憶部21で置き換え、同動き検出部3を、赤外線カメラ
の熱画像とCCDカメラの可視画像から動きの情報を検
出する異種画像情報統合動き検出部22で置き換え、同
特徴抽出・記憶部12を熱画像と可視画像おのおのから
輪郭モデルの囲む領域の特徴量を抽出・記憶する異種画
像特徴抽出・記憶部23で置き換え、同移動物体照合部
13を、異種画像特徴抽出・記憶部23に記憶されてい
る異種画像からの複数の特徴量により移動物体の対応付
けを行う異種画像特徴量統合照合部24で置き換えたこ
とである。
FIG. 10 is a block diagram of the present embodiment. The same components as those of the first embodiment shown in FIG. 1 are designated by the same reference numerals and detailed description thereof will be omitted. The difference between the third embodiment and the first embodiment is that in the first embodiment,
An infrared camera 18, a half mirror 19, and a mirror 20 for picking up a thermal image having the same field of view as the visible image are added, and further, the image storage unit 2 in the first embodiment is provided with different image information of the thermal image and the visible image. Is replaced with a heterogeneous image storage unit 21 for storing the same, and the same motion detection unit 3 is replaced with a heterogeneous image information integrated motion detection unit 22 that detects motion information from a thermal image of an infrared camera and a visible image of a CCD camera, and the same feature extraction is performed. The storage unit 12 is replaced with a different image feature extraction / storage unit 23 that extracts and stores the feature amount of the area surrounded by the contour model from each of the thermal image and the visible image, and the same moving object matching unit 13 is used to extract and store the different image feature. That is, the replacement is performed by the heterogeneous image feature amount integrated collating unit 24 which associates a moving object with a plurality of feature amounts from heterogeneous images stored in the unit 23.

【0075】以上のように構成された第3の実施の形態
の輪郭抽出装置の動作を、図11のフローチャートを参
照しながら説明する。ただし、第1の実施の形態とは異
なるSTEP1c、STEP3c、STEP4c、STEP11cおよびSTEP12cの
みを説明する。
The operation of the contour extracting apparatus according to the third embodiment having the above configuration will be described with reference to the flowchart of FIG. However, only STEP1c, STEP3c, STEP4c, STEP11c, and STEP12c different from the first embodiment will be described.

【0076】[STEP1c]画像の取り込み カメラ1および赤外線カメラ18から時系列的に得られ
る映像をデジタル化して、それぞれ可視画像IT CCDおよ
び熱画像IT TH,T=0,1,…として異種画像記憶部21に記
憶する。以下、画像をIT CCDおよび熱画像IT THをT=0から
順に処理する。
[STEP1c] Capture of image Digitize the images obtained in time series from the camera 1 and the infrared camera 18 and digitize them as visible images I T CCD and thermal images I T TH , T = 0,1, ... The image is stored in the image storage unit 21. Hereinafter, the image is processed by the I T CCD and the thermal image I T TH in order from T = 0.

【0077】[STEP3c]動きの検出 異種画像情報統合動き検出部22により、異種画像記憶
部21に記憶されている可視画像IT CCD、IT+1 CCDおよび
熱画像IT TH、IT+1 THの4枚の画像情報を統合して各輪郭
候補点vmi(xmi,ymi)の位置における移動ベクトルを検出
する。(数1)に示した勾配法の拘束式は、可視画像IT
CCDおよび熱画像IT THのそれぞれについて成り立つの
で、一般に画像中の点(x,y)における移動ベクトル(u,v)
は、次の連立方程式を解くことにより求めることができ
る。
[STEP3c] Motion Detection The heterogeneous image information integrated motion detector 22 detects the visible images I T CCD , I T + 1 CCD and the thermal images I T TH , I T + stored in the heterogeneous image storage 21. The image information of four pieces of 1 TH is integrated to detect the movement vector at the position of each contour candidate point v mi (x mi , y mi ). The constraint method of the gradient method shown in (Equation 1) is the visible image I T
Since it holds for each of the CCD and the thermal image I T TH , generally the movement vector (u, v) at the point (x, y) in the image
Can be obtained by solving the following simultaneous equations.

【0078】[0078]

【数16】 (Equation 16)

【0079】ただし、However,

【0080】[0080]

【数17】 [Equation 17]

【0081】とする。しかし、ここでは、各輪郭候補点
vmi(xmi,ymi)近傍の、可視画像および熱画像について同
一の局所的な小領域S((x,y)∈S)で移動ベクトルが均
一、すなわち、可視画像および熱画像について同一の局
所的な小領域Sで(数16)の拘束式がじ解を持つと仮
定し、最小2乗法により求める。これにより、ノイズの
影響の低減および各画像単独では写っていない情報を補
って、より正確に移動ベクトルを算出することができ
る。
It is assumed that But here, each contour candidate point
v The movement vector is uniform in the local small area S ((x, y) ∈ S) in the vicinity of mi (x mi , y mi ) for the visible image and the infrared image, that is, the same for the visible image and the infrared image. It is obtained by the least squares method, assuming that the constraint equation of (Equation 16) has the same solution in the local small area S of. As a result, it is possible to more accurately calculate the movement vector by reducing the influence of noise and supplementing the information that is not captured in each image alone.

【0082】[STEP4c]輪郭モデルの変形 輪郭モデル変形部5では、輪郭モデルのエネルギーE
snake(vmi)を最小にするように輪郭モデルを変形する
が、新たなエネルギーとして可視画像の輝度勾配に加
え、次式の熱画像の輝度勾配を加える。
[STEP4c] Deformation of Contour Model In the contour model deforming section 5, the energy E of the contour model is
The contour model is transformed so as to minimize the snake (v mi ), but the brightness gradient of the thermal image given by the following equation is added as new energy in addition to the brightness gradient of the visible image.

【0083】[0083]

【数18】 (Equation 18)

【0084】数18を最小にするような輪郭候補点の移
動方向は、熱画像におけるエッジへ向かう方向である。
ここで、wedge TH>0は、このエネルギー項の重み係数で
ある。このエネルギーの導入により、例えば、可視画像
では存在しない白い壁の前にいる白い服を着た人物の輪
郭も、熱画像中にはその輪郭が現れるので抽出すること
ができる。
The moving direction of the contour candidate point that minimizes the equation 18 is the direction toward the edge in the thermal image.
Here, w edge TH > 0 is a weighting coefficient of this energy term. By introducing this energy, for example, the contour of a person in white clothes in front of a white wall, which does not exist in the visible image, can be extracted because the contour appears in the thermal image.

【0085】[STEP11c]移動物体の特徴量抽出 異種画像特徴量抽出記憶部23により、輪郭モデルvmi
(m=1,2,…,m_max)が囲む可視画像IT CCDおよび熱画像I
T THの領域の特徴量をそれぞれ移動物体の特徴量として
抽出する。特徴量としては、例えば、輝度および温度の
ヒストグラムの累積分布が利用できる。
[STEP 11c] Extraction of feature quantity of moving object The heterogeneous image feature quantity extraction storage unit 23 allows the contour model vmi to be extracted.
Visible image I T CCD and thermal image I surrounded by (m = 1,2, ..., m_max)
The feature amount of the area of T TH is extracted as the feature amount of the moving object. As the feature amount, for example, a cumulative distribution of a histogram of brightness and temperature can be used.

【0086】[STEP12c]移動物体の照合 異種情報統合移動物体照合部24により、例えば、輝度
および温度のヒストグラムの累積分布などの異種の特徴
量を統合して移動物体の対応付けを行う。複数の異種の
特徴量の統合は、例えば、信学技報PRU94-131(1995-03)
pp.9-16に記載されているDempster-Shafer理論に基づく
方法により行うことができる。本実施の形態では、可視
画像および熱画像それぞれから抽出された特徴量の類似
度から、どの移動物体であるかの確信度を求めてそれら
を統合し、確信度が最大となる移動物体同士を対応付け
ればよい。ここでは、輪郭モデルvmiが抽出している移
動物体が、特徴量抽出記憶部12に特徴量が記憶されて
いるl_max個の移動物体w l(l=1,2,…,l_max)のいずれ
であるかの照合の手順を説明する。
[STEP12c] Collation of moving object The heterogeneous information-integrated moving object collating unit 24 determines, for example, the luminance.
Features such as cumulative distribution of temperature and temperature histograms
The quantities are integrated to associate moving objects. Multiple different
For the integration of features, see Technical Report PRU94-131 (1995-03).
Based on the Dempster-Shafer theory described in pp.9-16
It can be done by a method. In this embodiment, visible
Similarity of features extracted from each image and thermal image
From the degrees, the confidence level of which moving object
To associate moving objects with the highest certainty
Just do it. Here, the contour model vmiIs being extracted by
When the moving image is stored in the feature extraction storage unit 12,
L_max moving objects w lAny of (l = 1,2, ..., l_max)
The procedure of checking whether or not is described.

【0087】今、輪郭モデルvmiが抽出している移動物
体について、可視および熱画像から特徴量として抽出し
た輝度および温度のヒストグラムをそれぞれHm CCDおよ
びHm T H、特徴量抽出記憶部12に記憶されている移動物
体wlについての熱および可視画像から抽出した特徴量を
それぞれHl CCDおよびHl THとし、輪郭モデルvmiが抽出し
た移動物体と移動物体wlについて、その特徴量の類似度
SCCD(wl)およびSTH(wl)をそれぞれ以下の式で与える。
Now, for the moving object extracted by the contour model v mi , histograms of brightness and temperature extracted from the visible and thermal images as feature amounts are H m CCD and H m T H , respectively, and the feature amount extraction storage unit 12 Let H l CCD and H l TH be the features extracted from the thermal and visible images of the moving object w l stored in, respectively, and the features of the moving object and the moving object w l extracted by the contour model v mi. Similarity of
S CCD (w l ) and S TH (w l ) are given by the following formulas.

【0088】[0088]

【数19】 [Equation 19]

【0089】ただし、類似度は、α1≧α2≧…≧α
l_max、β1≧β2≧…≧βl_maxのように並べ変えてお
く。このとき、可視および熱画像から抽出された各特徴
量について、輪郭モデルvmiにより抽出された移動物体
が、どの移動物体wl(の集合A)である(に含まれる)
かの確信度(基本確率)は次の数20、21により表さ
れる。
However, the similarity is α 1 ≧ α 2 ≧ ... ≧ α
The rearrangement is performed as l_max , β 1 ≧ β 2 ≧ ... ≧ β l_max . At this time, for each of the feature amounts extracted from the visible and thermal images, which moving object w l (set A) is (is included in) which moving object is extracted by the contour model v mi.
The certainty factor (basic probability) is expressed by the following equations 20 and 21.

【0090】[0090]

【数20】 (Equation 20)

【0091】[0091]

【数21】 (Equation 21)

【0092】これらの異種の特徴量から求められた確信
度(基本確率)を次式により統合する。
The certainty factors (basic probabilities) obtained from these different types of feature quantities are integrated by the following equation.

【0093】[0093]

【数22】 (Equation 22)

【0094】(数22)の統合された基本確率m
CCD_TH(A) から次式により算出される決定確率P(wl)
が最大の移動物体を、輪郭モデルvmiが抽出した移動物
体と判定する。
The integrated basic probability m of (Equation 22)
Probability of decision P (w l ) calculated from CCD_TH (A) by the following formula
Is determined to be the moving object extracted by the contour model v mi .

【0095】[0095]

【数23】 (Equation 23)

【0096】|A|はAの要素数を表す。以上説明した
ように、第3の実施の形態によれば、可視画像だけでな
く熱画像の情報を統合して移動ベクトルを算出、輪郭モ
デルの変形、さらにはそれらの画像から抽出される複数
の特徴量を用いた移動物体の照合を行うので、より正確
に人物などの移動物体を抽出・追跡することができる。
| A | represents the number of elements of A. As described above, according to the third embodiment, not only visible images but also thermal images are integrated to calculate a movement vector, a contour model is transformed, and a plurality of images extracted from those images are extracted. Since the moving object is collated using the feature amount, the moving object such as a person can be more accurately extracted and tracked.

【0097】(実施の形態4)次に、本発明の輪郭抽出
装置の第4の実施の形態について説明する。第1〜第3
の実施の形態では、CCDカメラなどから得られる画像
からの複数移動物体を抽出・追跡について説明した。さ
らに第4の実施の形態は、抽出・追跡している移動物体
毎に他の移動物体との交差回数を記録し、その大小によ
り他の移動物体に対して不整合な動きをしている移動物
体の検出を可能とし、例えば、空港、ホテルのロビー、
コンビニエンスストア等で不審な動きをしている人物を
抽出することを考慮したものである。
(Fourth Embodiment) Next, a fourth embodiment of the contour extracting apparatus of the present invention will be described. First to third
In the above embodiment, extraction and tracking of a plurality of moving objects from an image obtained from a CCD camera or the like have been described. Furthermore, in the fourth embodiment, the number of times of intersection with another moving object is recorded for each moving object that is being extracted and tracked, and the movement that is inconsistent with the other moving object depending on its size. It enables the detection of objects, such as airports, hotel lobbies,
This is in consideration of extracting a person who is suspiciously moving at a convenience store or the like.

【0098】図12は第4の実施の形態の構成図であ
り、図1に示した第1の実施の形態と同じ構成部分には
同一番号を付して詳細な説明は省略する。第4の実施の
形態と第1の実施の形態との相違点は、移動物体毎に毎
に相互交差の回数を記録する移動物体別相互交差回数記
憶部25と、移動物体別相互交差回数記憶部25により
数えられた相互交差回数が単位時間当り所定の回数以上
である輪郭モデルが抽出・追跡している物体を他の移動
物体に対して不整合な動きの物体と判定する不整合移動
物体判定部26を付加したことである。
FIG. 12 is a block diagram of the fourth embodiment. The same components as those of the first embodiment shown in FIG. 1 are designated by the same reference numerals and detailed description thereof will be omitted. The difference between the fourth embodiment and the first embodiment is that the moving object-based mutual intersection number storage unit 25 records the number of mutual intersections for each moving object and the moving object-based mutual intersection number storage. An inconsistent moving object in which an object which is extracted and tracked by a contour model whose number of mutual intersections counted by the unit 25 is a predetermined number of times or more per unit time is determined as an object having an inconsistent motion with respect to other moving objects. That is, the determination unit 26 is added.

【0099】以上のように構成された第4の実施の形態
の輪郭抽出装置の動作を、図13のフローチャートを参
照しながら説明する。ただし、第1の実施の形態と異な
るSTEP8dおよびSTEP14dのみを説明する。
The operation of the contour extracting apparatus of the fourth embodiment configured as above will be described with reference to the flowchart of FIG. However, only STEP8d and STEP14d different from the first embodiment will be described.

【0100】[STEP8d]輪郭モデルの相互交差判定および
交差回数の記憶 輪郭モデル相互交差判定部7により、輪郭モデル記憶部
4に記憶されている異なる2つの輪郭モデルvfkとvgh(f
=1,2,…,m_max;k=1,2,…,Nf;g=1,2,…,m_max;h=1,2,…,
Ng;f≠g)のすべての組合せについて相互の接触または交
差を判定し、接触または交差があった場合、特徴量抽出
記憶部12に記憶されている移動物体毎にその回数を移
動物体別相互交差回数記憶部25に記憶する。
[STEP8d] Mutual Intersection Determination of Contour Model and Storage of Number of Intersections The contour model mutual intersection determination unit 7 stores two different contour models v fk and v gh (f), which are stored in the contour model storage unit 4.
= 1,2, ..., m_max; k = 1,2, ..., Nf; g = 1,2, ..., m_max; h = 1,2, ...,
Ng; f ≠ g) mutual contact or intersection is determined for all combinations, and when there is contact or intersection, the number of times for each moving object stored in the feature amount extraction storage unit 12 is calculated for each moving object. It is stored in the intersection count storage unit 25.

【0101】[STEP14d]不整合移動物体の判定 不整合移動物体判定部26は、移動物体別相互交差回数
記憶部25に記憶されている相互交差回数が、あらかじ
め定められた単位時間当りの相互交差回数のしきい値以
上の移動物体を、その他の移動物体とは不整合な異なる
動きをしている物体として判定する。なお、不整合な動
きをしている物体を抽出している輪郭モデルに対して、
その他の輪郭モデルとは異なる色をつけて表示部16に
表示すれば、例えば監視システム等においては、不審人
物等の視認性が向上する。
[STEP14d] Judgment of Inconsistent Moving Object The inconsistent moving object determination unit 26 determines that the number of mutual intersections stored in the moving object-specific mutual intersection number storage unit 25 is a predetermined mutual intersection per unit time. A moving object that is equal to or greater than the threshold value of the number of times is determined as an object that is in a different motion that is inconsistent with other moving objects. In addition, for the contour model that is extracting the object with inconsistent movement,
If the color is displayed on the display unit 16 in a color different from that of the other contour models, the visibility of a suspicious person or the like is improved in, for example, a surveillance system.

【0102】以上説明したように、第4の実施の形態に
よれば、抽出・追跡している移動物体毎に他の移動物体
との交差回数を記録することにより、交差回数の大小に
より他の移動物体に対して不整合な動きをしている移動
物体の検出が可能となる。
As described above, according to the fourth embodiment, by recording the number of times of intersection with another moving object for each moving object that is being extracted and tracked, it is possible to determine whether the number of times of intersection is large or small. It is possible to detect a moving object that is inconsistent with the moving object.

【0103】(実施の形態5)次に、本発明の輪郭抽出
装置の第5の実施の形態について説明する。第1〜第4
の実施の形態では、CCDカメラ等から得られる画像か
ら移動物体を抽出・追跡でき、また不審な動きなど移動
物体に関するおおまかな情報が得られることを説明し
た。さらに第5の実施の形態は、抽出・追跡の結果から
移動物体の速度や、移動物体間の距離を算出することに
より複数の移動物体が置かれている状況が認識でき、例
えば、高速道路等で車の動きを監視し、事故や渋滞、車
間距離不保持などの危険な運転等を認識し、運転者や管
制局にそれら情報を伝えることができるようなシステム
の実現を考慮したものである。
(Fifth Embodiment) Next, a fifth embodiment of the contour extracting apparatus of the present invention will be described. First to fourth
In the above embodiment, it was explained that a moving object can be extracted and tracked from an image obtained from a CCD camera or the like, and rough information about the moving object such as suspicious movement can be obtained. Furthermore, the fifth embodiment can recognize the situation in which a plurality of moving objects are placed by calculating the speed of moving objects and the distance between moving objects from the results of extraction / tracking. Considering the realization of a system that can monitor the movement of the vehicle with the vehicle, recognize dangerous driving such as accidents, traffic jams, and inability to keep the distance between vehicles, and transmit the information to the driver and the control station. .

【0104】図14は第5の実施の形態の構成図であ
り、図1に示した第1の実施の形態と同じ構成部分には
同一番号を付して詳細な説明は省略する。第5の実施の
形態と第1の実施の形態との相違点は、輪郭モデル記憶
部4に記憶されている異なる輪郭モデル間の距離を算出
する輪郭モデル間距離算出部27と、移動物体毎に時系
列の各画像における輪郭モデルの位置から移動物体の速
度を算出する移動速度算出部28とを付加したことであ
る。
FIG. 14 is a block diagram of the fifth embodiment. The same components as those of the first embodiment shown in FIG. 1 are designated by the same reference numerals and detailed description thereof will be omitted. The difference between the fifth embodiment and the first embodiment is that there is an inter-contour model distance calculation unit 27 that calculates the distance between different contour models stored in the contour model storage unit 4, and for each moving object. In addition, a moving speed calculation unit 28 that calculates the speed of the moving object from the position of the contour model in each time-series image is added.

【0105】以上のように構成された第5の実施の形態
の移動物体の抽出・追跡装置の動作を、図15のフロー
チャートを参照しながら説明する。ただし、第1の実施
の形態と異なるSTEP1e、STEP11e、STEP14eのみを説明す
る。
The operation of the moving object extracting / tracking apparatus of the fifth embodiment configured as described above will be described with reference to the flowchart of FIG. However, only STEP1e, STEP11e, and STEP14e different from the first embodiment will be described.

【0106】[STEP1e]画像の取り込み 高速道路上等の車に関して、カメラ1から時系列的に得
られる映像をデジタル化して画像記憶部2に記憶する。
[STEP1e] Image acquisition For a vehicle on a highway or the like, the images obtained from the camera 1 in time series are digitized and stored in the image storage unit 2.

【0107】[STEP11e]輪郭モデル間距離の算出 抽出完了判定部11により変形が停止されたのち、輪郭
モデル記憶部4に記憶されている異なる輪郭モデル間同
士の距離を、輪郭モデル間距離算出部により算出する。
輪郭モデル間同士の距離は、異なる輪郭モデルを構成す
る輪郭候補点間の距離の最小値とする。制御部14は、
この距離があらかじめ定められたしきい値よりも小さい
とき、車間距離が短いと判断して、道路情報表示版29
に「車間距離あけろ」等のメッセージを表示する。
[STEP11e] Calculation of distance between contour models After the transformation is stopped by the extraction completion determination unit 11, the distance between different contour models stored in the contour model storage unit 4 is calculated as the distance between contour model calculation unit. Calculate by
The distance between the contour models is the minimum value of the distances between the contour candidate points forming the different contour models. The control unit 14
When this distance is smaller than a predetermined threshold value, it is determined that the inter-vehicle distance is short, and the road information display version 29
A message such as "Keep the distance between cars" is displayed on.

【0108】[STEP14e]移動速度の算出 移動物体照合部13により異なる時間に得られた画像間
で対応付けられた移動物体毎に、例えば輪郭モデルの重
心位置の単位時間当りの距離変化から各移動物体の移動
速度を算出する。制御部14は、適当な間隔で設置され
た複数台のカメラの映像から算出された移動速度が、す
べて所定の値(例えば5km/h)以下の状態が、所定の時
間(例えば10分)続いていれば、道路上は渋滞である
と判断する。
[STEP14e] Calculation of moving speed For each moving object associated between images obtained at different times by the moving object matching unit 13, for example, each movement is made from the change in distance per unit time of the position of the center of gravity of the contour model. Calculate the moving speed of an object. The control unit 14 continues for a predetermined time (for example, 10 minutes) when the moving speeds calculated from the images of a plurality of cameras installed at appropriate intervals are all below a predetermined value (for example, 5 km / h). If so, it is determined that the road is congested.

【0109】なお、輪郭モデル相互交差判定部8によ
り、異なる車を抽出している異なる輪郭モデル同士の接
触または交差があると判定された場合、制御部14によ
り車同士の接触または追突事故、あるいは車間距離の不
保持と判定できる。例えば、輪郭モデルに相互交差があ
った場合、カメラ1が車をほぼ真上からとらえている場
合には、車同士の接触または追突事故があったと判断で
きる。このとき、後続の車に対しては、事故があったこ
とを情報表示板29に表示することにより、さらなる事
故を防ぐことができる。また、カメラ1が斜め方向から
車を捕らえている場合には、異なる輪郭モデルの相互交
差は、車間距離が短いためにカメラ1からは複数の車が
重なって見えるためにおこるので、このとき車間距離不
保持の危険な運転であると判断でき、STEP11eと同様な
メッセージを表示することができる。
When the contour model mutual intersection determination unit 8 determines that there is a contact or an intersection between different contour models extracting different vehicles, the control unit 14 causes a contact between vehicles or a rear-end collision accident, or It can be determined that the vehicle distance is not maintained. For example, when the contour models intersect with each other, and when the cameras 1 capture the vehicles from directly above, it can be determined that the vehicles have come into contact with each other or have a rear-end collision. At this time, it is possible to prevent a further accident by displaying on the information display plate 29 that there is an accident for the following vehicle. Further, when the camera 1 captures a vehicle from an oblique direction, different contour models intersect each other because a plurality of vehicles appear to overlap each other from the camera 1 due to a short inter-vehicle distance. It is possible to judge that it is dangerous driving without keeping the distance, and it is possible to display a message similar to STEP 11e.

【0110】以上説明したように、第5の実施の形態に
よれば、異なる輪郭モデルの交差判定により車の接触ま
たは追突事故が、また、抽出・追跡の結果から移動物体
間の距離や速度を算出することにより、例えば、車間距
離不保持などの危険運転や渋滞等、高速道路などでの交
通状況が認識できる。
As described above, according to the fifth embodiment, a vehicle contact or a rear-end collision accident is determined by the intersection determination of different contour models, and the distance and speed between moving objects are determined from the extraction / tracking results. By calculating, it is possible to recognize a traffic situation on a highway, such as dangerous driving such as non-holding of inter-vehicle distance, traffic congestion, or the like.

【0111】[0111]

【発明の効果】第1の実施の形態によれば、輪郭モデル
を自己交差部分で複数の輪郭モデルに分裂、または相互
に交差した異なる輪郭モデル1つに統合することによ
り、複数の移動物体が交差するような場合にも、それら
を正しく抽出することができる。
According to the first embodiment, by dividing a contour model into a plurality of contour models at a self-intersection portion or integrating them into one different contour model that intersects each other, a plurality of moving objects can be obtained. Even if they intersect, they can be correctly extracted.

【0112】第2の実施の形態によれば、毎フレーム毎
に画像の枠に相当する輪郭モデルを新たに1つ追加する
ことにより、新たに画角内に侵入してくる第3の移動物
体も抽出することができる。
According to the second embodiment, by adding one contour model corresponding to the frame of the image for each frame, the third moving object newly entering the angle of view can be obtained. Can also be extracted.

【0113】第3の実施の形態によれば、熱画像と可視
画像といった異種の画像情報を統合して、動きの推定や
移動物体の照合を行うので、より正確に複数の移動物体
を抽出することができる。
According to the third embodiment, different types of image information such as a thermal image and a visible image are integrated to perform motion estimation and matching of moving objects, so that a plurality of moving objects can be extracted more accurately. be able to.

【0114】第4の実施の形態によれば、輪郭モデル別
に相互交差の回数を数えることにより、その数が多い輪
郭モデルが追跡している移動物体は、周囲の移動物体と
は異なる動きをしていると判断できる。したがって、例
えば空港、ホテルのロビー、コンビニエンスストア等で
不審な動きをしている人物を抽出することができる。
According to the fourth embodiment, by counting the number of mutual intersections for each contour model, a moving object tracked by a large number of contour models behaves differently from surrounding moving objects. You can judge that Therefore, for example, it is possible to extract a person who is suspiciously moving at an airport, a hotel lobby, a convenience store, or the like.

【0115】第5の実施の形態によれば、高速道路やト
ンネルなどで車両を抽出・追跡し、異なる車両を追跡し
ている輪郭モデル間の距離を算出したり相互交差を判定
することにより、車間距離が接近した危険な状態を認識
して情報表示版で警告することや衝突事故の認識でき、
また、輪郭モデルの位置の時間変化により移動物体の速
度算出し、移動速度とその維持時間から渋滞が認識でき
る。
According to the fifth embodiment, by extracting and tracking a vehicle on a highway or a tunnel, calculating the distance between contour models tracking different vehicles, and determining mutual intersections, Recognizing a dangerous state where the distance between vehicles is approaching, warning with an information display version and recognition of a collision accident,
Further, the speed of the moving object is calculated from the time change of the position of the contour model, and the traffic congestion can be recognized from the moving speed and its maintenance time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明第1の実施の形態のブロック図FIG. 1 is a block diagram of a first embodiment of the present invention.

【図2】本発明第1の実施の形態の動作手順を示すフロ
ーチャート
FIG. 2 is a flowchart showing an operation procedure of the first embodiment of the present invention.

【図3】移動物体がすれ違う画像の一例を示す図FIG. 3 is a diagram showing an example of an image in which moving objects pass each other.

【図4】輪郭モデルの交差・分裂の一例を示す図FIG. 4 is a diagram showing an example of intersection / division of a contour model.

【図5】輪郭モデルの相互交差・統合の一例を示す図FIG. 5 is a diagram showing an example of mutual intersection and integration of contour models.

【図6】第1の実施の形態による抽出結果を示す図FIG. 6 is a diagram showing an extraction result according to the first embodiment.

【図7】本発明第2の実施の形態のブロック図FIG. 7 is a block diagram of a second embodiment of the present invention.

【図8】本発明第2の実施の形態の動作手順を示すフロ
ーチャート
FIG. 8 is a flowchart showing an operation procedure of the second embodiment of the present invention.

【図9】新たな移動物体の侵入に対する抽出結果を示す
FIG. 9 is a diagram showing extraction results for a new moving object invaded.

【図10】本発明第3の実施の形態のブロック図FIG. 10 is a block diagram of a third embodiment of the present invention.

【図11】本発明第3の実施の形態の動作手順を示すフ
ローチャート
FIG. 11 is a flowchart showing an operation procedure of the third embodiment of the present invention.

【図12】本発明第4の実施の形態のブロック図FIG. 12 is a block diagram of a fourth embodiment of the present invention.

【図13】本発明第4の実施の形態の動作手順を示すフ
ローチャート
FIG. 13 is a flowchart showing an operation procedure of the fourth embodiment of the present invention.

【図14】本発明第5の実施の形態のブロック図FIG. 14 is a block diagram of a fifth embodiment of the present invention.

【図15】本発明第5の実施の形態の動作手順を示すフ
ローチャート
FIG. 15 is a flowchart showing an operation procedure according to the fifth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 カメラ 2 画像記憶部 3 動き検出部 4 輪郭モデル記憶部 5 輪郭モデル変形部 6 輪郭モデル自己交差判定部 7 輪郭モデル分裂部 8 輪郭モデル相互交差判定部 9 輪郭モデル統合部 10 輪郭候補点生成・消滅部 11 抽出完了判定部 12 特徴量抽出記憶部 13 移動物体照合部 14 制御部 15 入力部 16 表示部 17 輪郭モデル追加部 18 赤外線カメラ 19 ハーフミラー 20 ミラー 21 異種画像記憶部 22 異種画像情報統合動き検出部 23 異種画像特徴量抽出記憶部 24 異種情報統合照合部 25 移動物体別相互交差回数記憶部 26 不整合移動物体判定部 27 輪郭モデル間距離算出部 28 移動速度算出部 29 道路情報表示板 1 camera 2 image storage unit 3 motion detection unit 4 contour model storage unit 5 contour model transformation unit 6 contour model self-intersection determination unit 7 contour model division unit 8 contour model mutual intersection determination unit 9 contour model integration unit 10 contour candidate point generation / Disappearing part 11 Extraction completion determination part 12 Feature amount extraction storage part 13 Moving object collation part 14 Control part 15 Input part 16 Display part 17 Contour model addition part 18 Infrared camera 19 Half mirror 20 Mirror 21 Different image storage part 22 Different image information integration Motion detection unit 23 Heterogeneous image feature amount extraction storage unit 24 Heterogeneous information integrated collation unit 25 Muting intersection count storage unit for each moving object 26 Mismatching moving object determination unit 27 Contour model distance calculation unit 28 Moving speed calculation unit 29 Road information display board

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】時系列で入力される画像を少なくとも2枚
連続して記憶する画像記憶部と、前記画像から動きの情
報を検出する動き検出部と、前記画像に含まれる少なく
とも1つの移動物体を閉曲線で囲む輪郭モデルを構成す
る複数の輪郭候補点とその連結順序を記憶する輪郭モデ
ル記憶部と、前記輪郭モデルを構成する輪郭候補点をそ
の位置および前記画像から定義される評価関数を最小に
する方向に移動することにより前記輪郭モデルを変形さ
せる輪郭モデル変形部と、前期輪郭モデル変形部により
変形された輪郭モデルの一部がその輪郭モデルの別の部
分に接触または交差したか否かを判定する輪郭モデル自
己交差判定部と、前記輪郭モデル自己交差判定部により
接触または交差があると判定された場合に接触または交
差部分で前記輪郭モデルを切断し複数の輪郭モデルに分
裂させる輪郭モデル分裂部と、前記輪郭モデル記憶部に
記憶されている複数の異なる輪郭モデルが相互に接触ま
たは交差したか否かを判定する輪郭モデル相互交差判定
部と、前記輪郭モデル相互交差判定部により接触または
交差があると判定された少なくとも2つの異なる輪郭モ
デルを1つの輪郭モデルに統合する輪郭モデル統合部
と、所定の数の前記輪郭候補点についてその移動により
前記評価関数が減少しない場合に前記輪郭候補点の移動
を停止させて前記輪郭モデルの変形を停止し移動物体の
抽出完了と判定する抽出完了判定部と、前記抽出完了判
定部により変形を停止された前記輪郭モデルが囲む画像
中の領域の特徴量を移動物体の特徴量として抽出し記憶
する特徴量抽出記憶部と、前記特徴量抽出記憶部に記憶
されている前記特徴量により異なる時刻の画像間で移動
物体の対応付けを行う移動物体照合部とを備えたことを
特徴とする移動物体の抽出装置。
1. An image storage unit for continuously storing at least two images input in time series, a motion detection unit for detecting motion information from the image, and at least one moving object included in the image. A contour model storage unit that stores a plurality of contour candidate points that form a contour model and a connection order of the contour models, and the contour candidate points that form the contour model have a minimum evaluation function defined from the position and the image. Whether or not a part of the contour model deformed by the contour model deforming part and the other part of the contour model contact or intersect with another part of the contour model by moving in the direction of And a contour model self-intersection determining unit that determines whether there is a contact or an intersection when the contour model self-intersection determining unit determines that there is a contact or an intersection. A contour model splitting unit that cuts a Dell and splits it into a plurality of contour models, and a contour model mutual intersection determination that determines whether or not a plurality of different contour models stored in the contour model storage unit contact or intersect each other Section, a contour model integration section that integrates at least two different contour models determined to have contact or intersection by the contour model mutual intersection determination section into one contour model, and a predetermined number of the contour candidate points. When the evaluation function does not decrease due to the movement, the movement of the contour candidate points is stopped to stop the deformation of the contour model and the extraction completion determination unit that determines that the extraction of the moving object is completed, and the extraction completion determination unit performs the deformation. A feature amount extraction storage unit that extracts and stores a feature amount of an area in an image surrounded by the stopped contour model as a feature amount of a moving object; Extraction apparatus for a mobile object, characterized in that a moving object collation section by between the images of different times the feature quantity stored in the output memory unit to associate the moving object.
【請求項2】画像記憶部に時系列で新たな画像が入力さ
れる毎に新たに画像の枠と同じ大きさの輪郭モデルを1
つ前記輪郭モデル記憶部に追加記憶する輪郭モデル追加
部を付加したことを特徴とする請求項1記載の移動物体
の抽出装置。
2. Every time a new image is input to the image storage unit in time series, a new contour model having the same size as the frame of the image is newly added.
The moving object extracting apparatus according to claim 1, further comprising a contour model adding unit additionally stored in the contour model storage unit.
【請求項3】時系列で同一視野で入力される可視画像お
よび熱画像をそれぞれ少なくとも2枚づつ連続して記憶
する異種画像記憶部と、前記可視画像および熱画像から
動きの情報を検出する異種画像情報統合動き検出部と、
前記画像に含まれる少なくとも1つの移動物体を閉曲線
で囲む輪郭モデルを構成する複数の輪郭候補点とその連
結順序を記憶する輪郭モデル記憶部と、前記輪郭モデル
を構成する輪郭候補点をその位置および前記画像から定
義される評価関数を最小にする方向に移動することによ
り前記輪郭モデルを変形させる輪郭モデル変形部と、前
期輪郭モデル変形部により変形された輪郭モデルの一部
がその輪郭モデルの別の部分に接触または交差したか否
かを判定する輪郭モデル自己交差判定部と、前記輪郭モ
デル自己交差判定部により接触または交差があると判定
された場合に接触または交差部分で前記輪郭モデルを切
断し複数の輪郭モデルに分裂させる輪郭モデル分裂部
と、前記輪郭モデル記憶部に記憶されている複数の異な
る輪郭モデルが相互に接触または交差したか否かを判定
する輪郭モデル相互交差判定部と、前記輪郭モデル相互
交差判定部により接触または交差があると判定された少
なくとも2つの異なる輪郭モデルを1つの輪郭モデルに
統合する輪郭モデル統合部と、所定の数の前記輪郭候補
点についてその移動により前記評価関数が減少しない場
合に前記輪郭候補点の移動を停止させて前記輪郭モデル
の変形を停止し移動物体の抽出完了と判定する抽出完了
判定部と、前記抽出完了判定部により変形を停止された
前記輪郭モデルが囲む前記可視画像および熱画像のおの
おのの領域の特徴量を抽出・記憶する異種画像特徴量抽
出記憶部と、前記異種画像特徴抽出記憶部に記憶されて
いる異種画像からの複数の特徴量により異なる時刻の画
像間で移動物体の対応付けを行う異種画像特徴量統合照
合部とを備えたことを特徴とする移動物体の抽出装置。
3. A heterogeneous image storage unit for continuously storing at least two visible images and thermal images input in the same visual field in time series, and a heterogeneous device for detecting motion information from the visible images and thermal images. An image information integrated motion detection unit,
A contour model storage unit that stores a plurality of contour candidate points that form a contour model that encloses at least one moving object included in the image with a closed curve and a connection order of the contour model, and a position of the contour candidate points that form the contour model. A contour model transformation unit that transforms the contour model by moving in a direction that minimizes the evaluation function defined from the image, and a part of the contour model transformed by the contour model transformation unit is different from the contour model. The contour model self-intersection determination unit that determines whether or not the portion has touched or intersected, and cuts the contour model at the contact or intersection portion when the contour model self-intersection determination unit determines that there is contact or intersection. The contour model dividing unit for dividing the contour model into a plurality of contour models and a plurality of different contour models stored in the contour model storage unit are mutually A contour model mutual intersection determination unit that determines whether or not a contact or an intersection has occurred, and a contour that integrates at least two different contour models determined to have a contact or an intersection by the contour model mutual intersection determination unit into a single contour model A model integration unit, stopping movement of the contour candidate points and stopping deformation of the contour model when movement of the evaluation function does not decrease for a predetermined number of the contour candidate points, and determines that extraction of a moving object is completed. An extraction completion determination unit, and a heterogeneous image feature extraction storage unit that extracts and stores a feature amount of each region of the visible image and the thermal image surrounded by the contour model whose deformation is stopped by the extraction completion determination unit, Different types of moving objects are associated with images at different times according to a plurality of feature amounts from different types of images stored in the different type image feature extraction storage unit. Extraction apparatus for a mobile object, characterized by comprising an image characteristic quantity integration verification unit.
【請求項4】特徴量抽出記憶部または異種画像特徴量抽
出記憶部に特徴量が記憶されている移動物体毎に前記輪
郭モデル相互交差判定部により判定された相互交差の回
数を記憶する移動物体別相互交差回数記憶部と、前記移
動物体別相互交差回数記憶部に記憶されている相互交差
回数が単位時間当り所定の回数以上である移動物体を他
の移動物体に対して不整合な動きの物体と判定する不整
合移動物体判定部を付加したことを特徴とする請求項
1、2、または3記載の移動物体の抽出装置。
4. A moving object that stores the number of mutual intersections determined by the contour model mutual intersection determination unit for each moving object whose characteristic amount is stored in the characteristic amount extraction storage unit or the heterogeneous image characteristic amount extraction storage unit. A moving object whose mutual intersection count stored in the separate mutual intersection count storage unit and the moving object-specific mutual intersection count storage unit is equal to or more than a predetermined number of times per unit time causes a movement inconsistent with other moving objects. 4. The moving object extraction device according to claim 1, further comprising an unmatched moving object determination unit for determining an object.
【請求項5】輪郭モデル記憶部または輪郭モデル相互交
差判定部を参照して異なる輪郭モデル間の距離を算出す
る輪郭モデル間距離算出部と、前記輪郭モデル記憶部と
前記特徴量抽出記憶部または異種画像特徴量抽出記憶部
を参照し移動物体毎に前記輪郭モデルの位置に基づきそ
の移動速度を算出する移動速度算出部とを付加したこと
を特徴とする請求項1〜4のいずれかに記載の移動物体
の抽出装置。
5. An inter-contour model distance calculating section for calculating the distance between different contour models by referring to the contour model storage section or the contour model mutual intersection determination section, the contour model storage section and the feature amount extraction storage section, or 5. A moving speed calculation unit for calculating the moving speed of each moving object based on the position of the contour model by referring to the different type image feature amount extraction storage unit is added. Moving object extraction device.
【請求項6】輪郭モデル記憶部に記憶されている連結順
序により互いに連結された2つの輪郭候補点間の距離が
所定の範囲にあるときそれらの輪郭候補点の間に少なく
とも1つの新規の輪郭候補点を追加し、前記連結順序に
より互いに連結された3つの輪郭候補点からなる連結さ
れた2線分のなす角が所定の範囲にあるとき前記2線分
の連結点である輪郭候補点を削除し、前記輪郭モデル記
憶部に記憶されている輪郭候補点とその連結順序を更新
する輪郭候補点生成・消滅部を付加したことを特徴とす
る請求項1〜5のいずれかに記載の移動物体の抽出装
置。
6. When at least a distance between two contour candidate points connected to each other in a connection order stored in a contour model storage unit is within a predetermined range, at least one new contour is provided between the contour candidate points. A candidate point is added, and when the angle formed by the two line segments connected by the three contour candidate points connected to each other in the connection order is within a predetermined range, the contour candidate point that is the connection point of the two line segments is selected. 6. The movement according to claim 1, further comprising a contour candidate point generation / disappearance unit that deletes the contour candidate points stored in the contour model storage unit and updates the connection order thereof. Object extraction device.
JP08126396A 1996-04-03 1996-04-03 Moving object extraction apparatus and extraction method Expired - Fee Related JP3750184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08126396A JP3750184B2 (en) 1996-04-03 1996-04-03 Moving object extraction apparatus and extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08126396A JP3750184B2 (en) 1996-04-03 1996-04-03 Moving object extraction apparatus and extraction method

Publications (2)

Publication Number Publication Date
JPH09270014A true JPH09270014A (en) 1997-10-14
JP3750184B2 JP3750184B2 (en) 2006-03-01

Family

ID=13741483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08126396A Expired - Fee Related JP3750184B2 (en) 1996-04-03 1996-04-03 Moving object extraction apparatus and extraction method

Country Status (1)

Country Link
JP (1) JP3750184B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216519A (en) * 2000-02-04 2001-08-10 Fujitsu Ltd Traffic monitor device
JP2001266159A (en) * 2000-03-17 2001-09-28 Toshiba Corp Method and device for generating object domain information, and method and device for generating approximate polygon
JP2007310574A (en) * 2006-05-17 2007-11-29 Sumitomo Electric Ind Ltd Collision risk decision system and warning system
US7418139B2 (en) 2003-07-01 2008-08-26 Honda Motor Co., Ltd. Contour extraction apparatus, contour extraction method, and contour extraction program
US7729422B2 (en) 2000-12-21 2010-06-01 Adobe Systems Incorporated Image extraction from complex scenes in digital video
JP2016162075A (en) * 2015-02-27 2016-09-05 Kddi株式会社 Object track method, device and program
JP2017162281A (en) * 2016-03-10 2017-09-14 スズキ株式会社 Moving body detection system and data consistency determination method
JP2019200773A (en) * 2018-05-18 2019-11-21 財團法人工業技術研究院Industrial Technology Research Institute Object detection system, autonomous running vehicle using the same, and method for detecting object by the same
WO2020090111A1 (en) * 2018-11-02 2020-05-07 日本電気株式会社 Movement line correction device, movement line correction method, recording medium
WO2022244346A1 (en) * 2021-05-17 2022-11-24 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
JP2023524623A (en) * 2021-04-15 2023-06-13 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method, apparatus, equipment, storage medium and program for detecting traffic anomalies
CN118518713A (en) * 2024-07-24 2024-08-20 石家庄铁道大学 Tunnel concrete pouring quality detection method and detection terminal

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216519A (en) * 2000-02-04 2001-08-10 Fujitsu Ltd Traffic monitor device
JP2001266159A (en) * 2000-03-17 2001-09-28 Toshiba Corp Method and device for generating object domain information, and method and device for generating approximate polygon
US7729422B2 (en) 2000-12-21 2010-06-01 Adobe Systems Incorporated Image extraction from complex scenes in digital video
US7418139B2 (en) 2003-07-01 2008-08-26 Honda Motor Co., Ltd. Contour extraction apparatus, contour extraction method, and contour extraction program
JP2007310574A (en) * 2006-05-17 2007-11-29 Sumitomo Electric Ind Ltd Collision risk decision system and warning system
JP2016162075A (en) * 2015-02-27 2016-09-05 Kddi株式会社 Object track method, device and program
JP2017162281A (en) * 2016-03-10 2017-09-14 スズキ株式会社 Moving body detection system and data consistency determination method
JP2019200773A (en) * 2018-05-18 2019-11-21 財團法人工業技術研究院Industrial Technology Research Institute Object detection system, autonomous running vehicle using the same, and method for detecting object by the same
US10852420B2 (en) 2018-05-18 2020-12-01 Industrial Technology Research Institute Object detection system, autonomous vehicle using the same, and object detection method thereof
WO2020090111A1 (en) * 2018-11-02 2020-05-07 日本電気株式会社 Movement line correction device, movement line correction method, recording medium
JPWO2020090111A1 (en) * 2018-11-02 2021-09-16 日本電気株式会社 Flow line correction device, flow line correction method, and flow line tracking program
JP2023524623A (en) * 2021-04-15 2023-06-13 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method, apparatus, equipment, storage medium and program for detecting traffic anomalies
WO2022244346A1 (en) * 2021-05-17 2022-11-24 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
CN118518713A (en) * 2024-07-24 2024-08-20 石家庄铁道大学 Tunnel concrete pouring quality detection method and detection terminal

Also Published As

Publication number Publication date
JP3750184B2 (en) 2006-03-01

Similar Documents

Publication Publication Date Title
EP0567059B1 (en) Object recognition system using image processing
US11380105B2 (en) Identification and classification of traffic conflicts
US5434927A (en) Method and apparatus for machine vision classification and tracking
US5999877A (en) Traffic flow monitor apparatus
EP1030188B1 (en) Situation awareness system
EP0878965A2 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
KR102282800B1 (en) Method for trackig multi target employing ridar and camera
CN109670376A (en) Lane detection method and system
JP3750184B2 (en) Moving object extraction apparatus and extraction method
KR102122850B1 (en) Solution for analysis road and recognition vehicle license plate employing deep-learning
JP2002074368A (en) Moving object recognizing and tracking device
Zang et al. Object classification and tracking in video surveillance
TWI335886B (en) Methods and systems for identifying events for a vehicle
KR102200204B1 (en) 3-D Image Analyzing System Using CCTV Image
CN107705577B (en) Real-time detection method and system for calibrating illegal lane change of vehicle based on lane line
CN112733598A (en) Vehicle law violation determination method and device, computer equipment and storage medium
CN114648748A (en) Motor vehicle illegal parking intelligent identification method and system based on deep learning
JP2001357402A (en) Method and device for detecting vehicle
JP2001167282A (en) Device and method for extracting moving object
JPH10255057A (en) Mobile object extracting device
Kanhere et al. Real-time detection and tracking of vehicle base fronts for measuring traffic counts and speeds on highways
JP3605525B2 (en) Vehicle traffic monitoring and management device
JP2002008019A (en) Railway track recognition device and rolling stock using railway track recognition device
CN112906428A (en) Image detection area acquisition method and space use condition judgment method
Ozawa Image processing for intelligent transport systems

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101216

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101216

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111216

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees