JP4967758B2 - Object movement detection method and detection apparatus - Google Patents
Object movement detection method and detection apparatus Download PDFInfo
- Publication number
- JP4967758B2 JP4967758B2 JP2007091836A JP2007091836A JP4967758B2 JP 4967758 B2 JP4967758 B2 JP 4967758B2 JP 2007091836 A JP2007091836 A JP 2007091836A JP 2007091836 A JP2007091836 A JP 2007091836A JP 4967758 B2 JP4967758 B2 JP 4967758B2
- Authority
- JP
- Japan
- Prior art keywords
- movement
- image
- pixel
- map
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/168—Driving aids for parking, e.g. acoustic or visual feedback on parking space
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
本発明は、画像取得装置によって撮像されたイメージ画像に基づいた、物体移動の検出および位置の検出に関するものである。 The present invention relates to object movement detection and position detection based on an image captured by an image acquisition device.
撮像されたイメージ画像の処理を行うことによる、風景(三次元空間領域)内での物体の移動のリアルタイムでの検出及びその位置の検出は、需要が高まっている分野である。特に、画像取得装置が風景に対して移動可能である(例えば、赤外線などの可視線または不可視線において操作することができる)、例えば、部品の動きを監視し、ロボットの移動範囲内の障害物を検出するもの、重要区域におけるビデオ監視(侵入の検出など、特にセキュリティーに関するもの)、衝突可能性検出システム、および運転者支援システム(駐車支援など)を用いた車両安全に関する分野などに幅広く適応される。 Real-time detection of the movement of an object in a landscape (three-dimensional space region) and detection of its position by performing processing of a captured image are areas where demand is increasing. In particular, the image acquisition device is movable with respect to the landscape (for example, it can be operated with visible or invisible lines such as infrared rays). For example, the movement of parts is monitored and obstacles within the movement range of the robot It is widely applied to areas related to vehicle safety using video surveillance in critical areas (such as intrusion detection, especially related to security), collision possibility detection system, and driver assistance system (such as parking assistance). The
特に車両の安全に関する分野では、画像の取得・処理を行う必要性が高まってきている。本発明はこの分野に限定されるものではなく、他の分野、特に上記したものなどにも適用されるものであるが、以下においては、主に車両の安全に関する分野について考察するものである。 Particularly in the field of vehicle safety, there is an increasing need to acquire and process images. The present invention is not limited to this field, but may be applied to other fields, particularly those described above. In the following, the field mainly related to vehicle safety will be considered.
車両の安全に関する分野の一例として、IMRA-Europeによって開発された非特許文献1の駐車支援システム(PAS)が挙げられる。このシステムは、車載CCDカメラによって、風景に対する車両の異なる位置の複数画像を取得し、その画像に基づき車両周辺風景を3Dイメージで再現することを可能とするシステムである。しかしこのシステムにおいては、車両の移動が必要であり、風景内の物体は静止していなければならなく、物体が風景に対して移動すると干渉が起きやすい。 An example of the field related to vehicle safety is the parking assistance system (PAS) of Non-Patent Document 1 developed by IMRA-Europe. This system is a system that makes it possible to acquire a plurality of images of different positions of a vehicle with respect to a landscape by an in-vehicle CCD camera, and to reproduce the surrounding landscape of the vehicle as a 3D image based on the images. However, in this system, the movement of the vehicle is necessary, the object in the landscape must be stationary, and interference is likely to occur when the object moves with respect to the landscape.
移動可能な画像取得装置からの物体の移動の検出は、多大な研究活動が必要となる分野であり、大きな問題としては、実際の移動であるか、または画像取得装置と取得イメージとの間の相対移動による移動であるかを区別することが困難であることが挙げられる。 Detecting the movement of an object from a movable image acquisition device is an area that requires a great deal of research activity, and the major problem is the actual movement or between the image acquisition device and the acquired image. It is difficult to distinguish whether the movement is due to relative movement.
風景内の物体の移動を検出するする既知の方法としては、第1の方法グループと第2の方法グループを有するものが挙げられる。第1の方法グループは、風景内で移動エリアを検出し、その後ノイズを除去するために、その移動エリアを統合する。これは2つの手段によって行われている。 Known methods for detecting the movement of an object in a landscape include those having a first method group and a second method group. The first method group detects the moving area in the landscape and then integrates the moving area to remove noise. This is done by two means.
第1の手段としては、固定カメラを用いるビデオ監視システムに適用されるものであり、固定カメラによって取得された複数イメージ画像の相違と、今回の画像と前回の画像の間の相違、または今回の画像と背景画像(時間経過にともない蓄積された画像)との相違に基づくものである。しかしながら、この第1手段は、多くの適用において一般的であることだが、風景に対して移動するカメラが、非常に近い風景を撮像する場合、正確な処理がなされない。 As a first means, it is applied to a video surveillance system using a fixed camera, and the difference between a plurality of images acquired by the fixed camera, the difference between the current image and the previous image, or the current image This is based on the difference between an image and a background image (an image accumulated over time). However, although this first means is common in many applications, when the camera moving with respect to the landscape captures a very close landscape, accurate processing is not performed.
その他の手段としては、オプティカルフロークラスタ化方法が挙げられる。この方法は風景内での物体の実移動と、単にカメラが風景に対して移動したことによって起きる物体の移動との区別を図るものである。具体的には、例えば、非特許文献2に記載の方法が挙げられる。これらの方法によって、カメラが移動している際の処理を可能とするもので、単にカメラの移動による見かけ上の物体の移動によって起こるオプティカルフローに基づく相違によって算出された、風景に対する物体の移動の処理を行うものであり、その物体というのは、風景に対するカメラの移動と関連する、明確に確定された方向を指すオプティカルフローを有している風景(たとえば地面)に対して静止した物体であり、それぞれが違った方向を指すオプティカルフローを有する風景に対して移動する物体である。しかしながら、これらオプティカルフロークラスタ化方法は、膨大な画像を一致させたりするために多大な計算時間が必要であるという欠点がある。 As other means, there is an optical flow clustering method. This method distinguishes between the actual movement of an object in the landscape and the movement of the object that occurs simply because the camera moves relative to the landscape. Specifically, for example, the method described in Non-Patent Document 2 can be given. These methods allow processing when the camera is moving, and the object movement relative to the landscape, calculated by the difference based on the optical flow caused by the apparent object movement caused by the camera movement. The object is a stationary object with respect to the landscape (eg the ground) that has an optical flow pointing in a clearly defined direction associated with the movement of the camera relative to the landscape. , Objects that move relative to the landscape, each with an optical flow pointing in a different direction. However, these optical flow clustering methods have a drawback that a large amount of calculation time is required to match a large number of images.
風景内の物体の移動を検出する第2の方法のグループは、特定物(例えば、車や歩行者)の移動を検出することにもとづくものである。これら方法は、形状認識に基づいて行われ、風景中の特定の物体の移動を追跡するために用いられたりする(特許文献1)。物体検出に関する新しいトレンドとしては、特定物の特徴を探すことに主眼を置く方法の導入があり、例えば、人物の歩行を認識するものが挙げられる (特許文献2)。さらに垂直エッジとシンメトリー(非特許文献3)、そして遺伝アルゴリズムに基づいて展開されテクスチャのもしくは性質の相違(非特許文献4)などが挙げられる。このようにして得られた性質は、ニュートラルネットワークまたはサポートベクターマシーン(SVM)によって統合される。 The second group of methods for detecting the movement of objects in the landscape is based on detecting the movement of specific objects (eg, cars and pedestrians). These methods are performed based on shape recognition, and are used to track the movement of a specific object in a landscape (Patent Document 1). As a new trend related to object detection, there is an introduction of a method that focuses on searching for a feature of a specific object. For example, there is one that recognizes walking of a person (Patent Document 2). Furthermore, vertical edges and symmetry (Non-Patent Document 3), and a difference in texture or property developed based on a genetic algorithm (Non-Patent Document 4) can be mentioned. The properties obtained in this way are integrated by a neutral network or a support vector machine (SVM).
移動物体(または形状)を事前に把握していない場合や、映された物体の形が、近距離で物体を撮像したために、広角レンズカメラで撮影したかのごとく画像が歪んでしまっている場合などには、上記の方法は適切ではない。 When the moving object (or shape) is not grasped in advance, or when the image of the projected object is captured at a short distance, and the image is distorted as if it was captured with a wide-angle lens camera For example, the above method is not appropriate.
公知の方法のなかには、インバースパースペクティブマッピング(IPM)を用いて物体の移動を検出するものもある(非特許文献5)。この方法では、まず初めに透視エフェクトを除去するように、オプティカルフロークラスタ式の方法と一緒に、このように変換されたイメージを分析し、移動を検出するために、風景のイメージを変換する。しかしながら、これら方法は、オプティカルフロークラスタ化の際に、上述したような欠点があるため、例えば下記の記事に述べられている方法に当てはまる(非特許文献6)。 Some known methods detect the movement of an object using inverse perspective mapping (IPM) (Non-Patent Document 5). In this method, the image converted in this way is analyzed together with the optical flow cluster method to first remove the perspective effect, and the landscape image is converted to detect movement. However, these methods have the drawbacks described above when optical flow clustering is performed, and thus apply to the method described in the following article, for example (Non-patent Document 6).
また、特許文献3にて開示されている発明のように、物体の移動を認識するために、1つの風景を同時に2方向から撮像するために、2つのカメラが必要であるなどの不利な点がある。
本発明は、上記問題点を解決するものであり、事前に物体のタイプの知識(形状または他の性質)の習得、物体の確認、膨大な計算時間または大きい計算手段などを必要とせず、イメージ画像を処理し、風景内での物体の移動を検出することが可能な物体移動の検出方法及び検出装置を提供するものである。 The present invention solves the above problems, and does not require knowledge of the type of object (shape or other properties) in advance, confirmation of the object, enormous calculation time or large calculation means, and the like. An object movement detection method and a detection apparatus capable of processing an image and detecting movement of an object in a landscape are provided.
(1)基準面に対して移動可能なカメラ(1)によって撮像された複数の風景イメージ画像の演算装置による処理に基づく、前記基準面の一部を含む風景内(6)の物体移動の検出方法で、前記基準面の一部の形状と位置に関する基準面データが前記演算装置のメモリに格納され、カメラの姿勢と、前記カメラによって撮像され前記演算装置に送信された風景の各イメージ画像に対して定められたキャリブレーションパラメータが前記演算装置の前記メモリに格納され、前記演算装置は風景内で検出された前記基準面の一部に対して静止している物体に関する静止物体データを受信可能で、前記静止物体データを前記メモリに格納し、格納されたデータを出力可能である物体移動の検出方法において、
前記演算装置によって実行される、
前記基準面の一部に関して、前記メモリ内に格納された前記基準面データ、対応する前記カメラの姿勢、前記キャリブレーションパラメータを用いて、前記カメラによって撮像され、前記演算装置に送信される、風景内の複数の連続するイメージ(21)において、複数の対応する変換イメージを求めるために、逆透視マッピングを実行するステップ(a)と、
各検出静止物体(10)に対して、前記メモリ内に格納された前記静止物体データと対応する前記カメラの姿勢パラメータに基づいて、この静止物体によって前記カメラに対してマスクされる対応する変換イメージエリア(12)を決定し、前記ステップ(a)において求められた前記変換イメージ内の対応ピクセル間の色強度の変化に基づいた背景マップ(25)を決定し、前記変換イメージエリアをマスクする工程を実行し、この決定されマスクされたエリア(24)と前記背景マップの一部を考慮し、ピクセルによって構成され、物体の移動の存在に関連しているかどうかを決定する移動マップ(26)を算出するステップ(a')を有することを特徴とする物体移動の検出方法。
(1) the reference plane based on the processing by the arithmetic unit of the plurality of scene images captured by the movable camera (1) with respect to the detection of an object moving in the scene (6) comprising a portion of the reference surface in the method, the reference surface data for some shape and position of the reference plane is stored in the memory of the computing device, the posture of the camera, each image of scenery that has been transmitted to the imaged the arithmetic unit by the camera stored in the memory of the calibration parameters determined for said computing device, the computing device can receive the still object data relating to an object that is stationary relative to a part of the reference plane detected in the landscape in stores the still object data in the memory, in the detection method of the object movement can output the stored data,
Executed by the arithmetic unit,
For some of the reference plane, the reference plane data stored in said memory, corresponding pose of the camera, using the calibration parameters, captured by the camera, it is transmitted to the computing device, landscape Performing reverse perspective mapping to determine a plurality of corresponding transformed images in a plurality of consecutive images (21) of:
For each detected stationary object (10), on the basis and the stationary object data stored in memory corresponding pose parameters of the camera, converting the image corresponding masked with respect to the camera by the stationary object Determining an area (12), determining a background map (25) based on a change in color intensity between corresponding pixels in the converted image obtained in step (a), and masking the converted image area Taking into account this determined masked area (24) and a part of the background map, a movement map (26) that is constituted by pixels and determines whether it is related to the presence of object movement An object movement detection method comprising the step (a ′) of calculating .
(2)前記ステップ (a')はさらに、移動が行われている見込み値を、前記ステップ(a)において求められた前記変換イメージから選択された前記変換イメージ内のピクセルに関連付けをして移動見込みマップを確立し、そのピクセルに対し、前記ステップ(a)で求められたイメージの中から選択された送信イメージの中の対応ピクセルがイメージごとにほとんど変化しない色強度値を有し、前記カメラに対してマスクされた各エリアを考慮し、ピクセルに関連付けされた移動見込みは、前記ステップ(a)で求められた最終の前記変換イメージ内の対応ピクセルの色強度値が高ければ、選択された前記変換イメージ内の対応ピクセルの色強度値と相違し、各ピクセルは、関連する移動の見込みに依存する移動に関連していると判断される前記移動見込みマップ内のピクセルに対応するステップを有することを特徴とする請求項1に記載の物体移動の検出方法。 (2) the step (a ') further the likelihood value which the mobile is performed, in association with the step (a) the pixels in said transformed image selected from the transformed image obtained at the mobile establishing the likelihood map, for that pixel has a color intensity value corresponding pixels hardly vary image in the selected transmission image from among the obtained at step (a) image, the camera considering each area masked against movement expected that are associated with the pixel, the higher the color intensity value of a corresponding pixel of said step (a) at a final said transformed image of obtained were selected the different from the color intensity values of the corresponding pixels in the converted image, each pixel is determined to be related to movement depending on the likelihood of the associated mobile Detection method for object movement according to claim 1, characterized in that it comprises a step corresponding to a pixel of said mobile likelihood map that.
(3)前記ステップ(a')はさらに、前記演算装置によって実行される、選択された前記変換イメージ内の対応ピクセル間の色強度差が十分小さい時はいつでも、それらに対応した前記背景マップ内のピクセルに、前記対応ピクセルの平均色強度値に近い有効色強度値を割り当てることで、前記ステップ(a)で求められた複数変換イメージの中から選択された少なくとも2つの前記変換イメージ内の対応するピクセル間の色強度差を算出することで前記背景マップを決定し、その前記有効色強度値が割り当てられた各ピクセルは有色ピクセルを構成するステップ(b)と、前記ステップ(a)で求められた、複数の連続する前記変換イメージのうちの、最後の前記変換イメージ(22)上でエリアマスキングオペレーションを行い、求められたエリアマスキングデータを前記メモリに格納するステップ(c)と、前記ステップ(a)にて求められた複数の前記変換イメージ内の、最後の前記変換イメージ、前記ステップ(b)にて求められた前記背景マップ、前記ステップ(c)で求められた対応エリアマスキングデータ、前記移動見込み値が前記背景マップ内の有色ピクセルに対する各ピクセルに関連付けされた対応する前記移動見込みマップに基づいて、 前記背景マップ中の対応する有色ピクセルと、前記最終のイメージ中の対応ピクセルの間の色強度の違いが大きいピクセルに、高い移動見込みを割り当てて、前記背景マップ中の対応する有色ピクセルと、前記最終のイメージ中の対応ピクセルの間の色強度の違いが小さいピクセルに、低い移動見込みを割り当てて、もしそのピクセルがマスクされたエリアに位置した場合に、このようにしてピクセルに割り当てられた移動の見込みを減少させ、求められた前記移動見込みマップを前記メモリに格納するステップ(d)と、前記ステップ(d)で求められた前記移動見込みマップにて、各ピクセルの内で関連した範囲が、十分高い移動見込みと関連しているかどうかを判定することで、前記移動見込みマップにフィルタ処理を行い、求められたフィルタ処理後移動見込みマップを前記メモリに格納するステップ(e)と、前記移動マップを求めるため、前回のステップで判定された前記フィルタ処理後移動見込みマップの各関連範囲に対して、所定の移動方向基準に基づいて、この関連範囲が物体の移動の存在と一致するかどうかを決定するステップ(f)を有することを特徴とする請求項1または2に記載の物体移動の移動検出方法。 (3) the step (a ') is further said arithmetic unit is performed by, whenever the color intensity difference between the corresponding pixel in the selected said converted image is sufficiently small, the background map within corresponding thereto the pixel, the by assigning a valid color intensity value close to the average color intensity value of the corresponding pixel, a corresponding at least two said transformed image selected from a plurality transformed image obtained in step (a) determining the background map by calculating the color intensity difference between pixels, and step (b) constituting the said each pixel valid color intensity values assigned colored pixels, the calculated in step (a) was, among the transformed image a plurality of continuous, performs area masking operations on the end of said transformed image (22), determined al And storing the area masking data in said memory (c), a plurality of said converted image obtained in the step (a), are determined in the last of said transformed image, said step (b) It said background map, the step (c) in the obtained corresponding area masking data, the mobile likelihood value based on said mobile likelihood map corresponding is associated with each pixel for colored pixels in the background map, the background the corresponding colored pixels in the map, the pixel difference is large in color intensity between the corresponding pixels in the final image, assigning a high mobility likelihood, in the background map and the corresponding colored pixels, of the final Assign a low likelihood to a pixel that has a small color intensity difference between corresponding pixels in the image, and If the pixel is located in an area masked, and storing this manner reduces the likelihood of a mobile assigned to pixels, the movement likelihood maps obtained in the memory (d), the step in said mobile likelihood maps obtained by (d), range associated within each pixel, by determining whether associated with sufficiently high mobility expected, to filter the mobile prospective map, and step (e) for storing the filtering after the movement likelihood maps obtained in the memory, for determining the moving map, for each relevant range of the filtering process after the movement likelihood map that is determined in the previous step, (F) having a step (f) of determining whether the relevant range coincides with the presence of movement of the object based on a predetermined moving direction criterion; Movement detection method of the object movement according to claim 1 or 2, characterized in Rukoto.
(4)前記演算装置によって、前記ステップ(e)で求められた前記移動マップの各関連範囲に対し、投影された光学的中心の最も近いポイントを決定することで、前記基準面上の前記カメラの投影された光学的中心Cの位置の算出に基づき、前記ステップ(f)にて求められた前記移動マップ上の前記基準面のレベルの移動物体の位置を決めるステップ(g)を有し、このようにして決定された各ポイントは前記移動物体と前記基準面との接触点に対応することを特徴とする請求項3に記載の物体移動の検出方法。 (4) the by the arithmetic unit, for each relevant range of the moving map the obtained in step (e), to determine the closest point of the projected optical center, the camera on the reference plane the basis of the calculation of the position of the projected optical center C, has a step (g) to determine the position of the moving object in the level of the reference surface on the moving map obtained in the step (f), detection method for object movement according to claim 3 this way each point is determined by the, characterized in that corresponding to the contact point of the moving object and the reference plane.
(5)前記物体移動の検出方法はさらに前記ステップ(g)にて求められた時間の経過とともに求められた複数の連続した前記移動マップに基づき、前記演算装置を用いて対応する代表点の連続する位置を算出し監視し、これらの代表点の予想位置を決定するステップ(h)を有し、これら代表点のおのおのは、前記基準面上の前記移動物体の接触点に対応する請求項4に記載の物体移動の検出方法。 (5) based on the moving object detection method further plurality of successive said mobile maps obtained with the lapse of time obtained in said step (g), a succession of representative points corresponding with the computing device the position calculated monitoring, comprising the steps (h) determining the expected position of these representative points, each of these representative points, claim 4 corresponding to the contact point of the moving object on the reference plane The object movement detection method described in 1.
(6)前記物体移動の検出方法は、さらに前記演算装置を用いて行われる以下のステップ、すなわち前記ステップ(a)にて求められた複数の前記変換イメージの中の最後のイメージの中から、前記メモリに格納された前記基準面データに基づいて、前記基準面の一部に対応するピクセルを検出する検出ステップと、ゼロ異動見込みを、前記基準面に対応するものとして検出されたピクセルに対応する前記移動見込みマップの中の各ピクセルに割り当てをする割り当てステップとを有する請求項2乃至5のいずれか一項に記載の物体移動の検出方法。 (6) Detection method of the object movement, the following additional steps performed using the computing device, i.e. from the last image of the plurality of said converted image obtained in the step (a), on the basis of the stored the reference surface data into the memory, a detection step of detecting a pixel corresponding to a portion of the reference surface, corresponding to the detected pixel zero change estimated as corresponding to the reference plane detection method for object movement according to any one of claims 2 to 5 having an assignment step of the allocation to each pixel in said mobile likelihood map to.
(7)前記物体移動の検出方法はさらに、前記演算装置によって実行される、最終の前記変換イメージ以前に送信されたイメージ内で、前記基準面の一部に対応するピクセルを検出する前記検出ステップと、前記高い移動見込みを、ノンゼロ移動見込みを有し以前の前記変換イメージ内で前記基準面に属するものとして検出された前記移動見込みマップ内の各ピクセルに割り当てる割り当てステップを有することを特徴とする請求項6に記載の物体移動の検出方法。 (7) the detecting step the object movement detection method further the executed by the computing device, a final said conversion image previously sent image of, for detecting the pixel corresponding to a portion of the reference surface When, the high mobility expected, and having an allocation step of allocating to each pixel in said detected movement expected map as belonging to the reference plane in a previous said transformed image having a non-zero movement prospect The object movement detection method according to claim 6.
(8)基準面の一部を有する風景(6)内の物体の移動を検出する装置で、前記基準面に対して移動可能で、前記基準面に関連する基本空間的基準枠内の位置を定義するデータを送信可能である位置センサ(4)を備えるマウント(2)と、
前記マウントに取り付けられ、風景(6)イメージを撮像可能であり、前記マウントに対する所定の姿勢パラメータと、所定内的キャリブレーションパラメータを有する撮像イメージを送信可能なカメラ(1)と、前記基準面の一部の形状と位置に関する基準面データと、前記位置センサによって送信されたマウントポジションデータと、前記カメラによって送信されたイメージデータと、前記マウントと内部カメラキャリブレーションパラメータに関するカメラ姿勢パラメータデータと、外部環境から送信された風景内で検出された静止物体に関する静止物体データを受信可能な演算装置(5)とを有し、前記演算装置は基本基準枠に関する前記カメラの前記姿勢パラメータを算出可能であり、受信イメージデータの処理可能であり、受信・算出データを格納可能であるメモリを有し、格納データを送信可能である検出装置において、前記演算装置は 、複数対応変換イメージを取得するために、前記基準面の一部に関し、前記メモリに格納された基準面データ、対応する前記カメラの姿勢、キャリブレーションパラメータを用いて、前記カメラより受信した複数の連続する風景のイメージ(21)の逆透視マッピングの実行を行い(a)、各検出静止物体(10)に対し、前記メモリに格納された前記静止物体データと対応カメラ姿勢パラメータに基づいて、前記静止物体によって前記カメラに対してマスクされる対応変換イメージエリア(12)を決定し、このエリアのマスクする工程を実行し(a')、前記ステップ(a)でもとめられた変換イメージの対応ピクセル間の色強度の変化の算出に基づき、決定された各マスクエリアを考慮し、各ピクセルが、前記基準面の部分に対する物体の移動が存在することに関連するピクセルによって構成される移動マップ(26)を算出し、前記移動マップを前記メモリ内に格納することを有することを特徴とする物体移動の検出装置。
In the apparatus for detecting a movement of an object in scene (6) having a portion (8) a reference plane, movable with respect to the reference surface, the position of the fundamental spatial reference frame associated with the reference surface A mount (2) comprising a position sensor (4) capable of transmitting data to be defined;
Attached to said mount, landscape (6) is capable of capturing an image, and a predetermined posture parameters for the mount, the camera (1) capable of transmitting an imaging image with predetermined intraosseously calibration parameters, of the reference plane the reference surface data relating to a part of the shape location, a mounting position data transmitted by the position sensor, the image data transmitted by the camera, and camera posture parameter data relating to the mount and the camera calibration parameters, external capable of receiving computing device stationary object data relating to the detected stationary object in the scene transmitted from the environment and a (5), wherein the computing device is capable calculating the orientation parameters of the basic camera reference frame Received image data can be processed and received Have and can store calculation data memory, the detection device can transmit the stored data, said arithmetic unit, to obtain a plurality corresponding transformed image relates portion of the reference surface, stored in the memory criteria plane data, the attitude of the corresponding camera, by using a calibration parameter, and execute the inverse perspective mapping landscape image (21) to a plurality of successive received from the camera (a), the detected still to object (10), on the basis a memory stored the still object data to the corresponding camera pose parameters, and determine the corresponding conversion image area is masked (12) relative to the camera by the stationary object, this run the step of masking the areas (a '), the color between corresponding pixels of the transformed image that is stopped even step (a) Based on the calculation of the change in the degree, considering each mask area determined, calculated each pixel, moving map constituted by the associated pixel to the movement of the object relative to the portion of the reference surface is present (26) and, detecting device object movement, characterized in that it comprises storing said moving map in the memory.
(9)前記演算装置はさらに、移動が行われている見込み値を、前記ステップ(a)において求められた前記変換イメージから選択された前記変換イメージ内のピクセルに関連付けをして移動見込みマップを確立し、そのピクセルに対し、前記ステップ(a)で求められたイメージの中から選択された送信イメージの中の対応ピクセルがイメージごとにほとんど変化しない色強度値を有し、前記カメラに対してマスクされた各エリアを考慮し、ピクセルに関連付けされた移動見込みは、前記ステップ(a)で求められた最終の前記変換イメージ内の対応ピクセルの色強度値が高ければ、選択された前記変換イメージ内の対応ピクセルの色強度値と相違し、各ピクセルは、関連する移動の見込みに依存する移動に関連していると判断される前記移動見込みマップ内のピクセルに対応するステップを有することを特徴とする請求項8に記載の物体移動の検出装置。 (9) the computing device further the likelihood value movement is taking place, the movement likelihood map by an association step (a) the pixels in said transformed image selected from the transformed image obtained in establishing, with respect to the pixel has a color intensity value corresponding pixels hardly vary image in the transmission image that was selected from among the obtained at step (a) image, with respect to the camera considering each area masked, move expected that are associated with the pixel, the higher the color intensity value of a corresponding pixel in the transformed image of the last of the obtained in step (a) is the transformed image selected different from the color intensity value of a corresponding pixel in the inner, the each pixel is determined to be related to movement depending on the likelihood of the associated mobile Detector of object movement according to claim 8, characterized in that it comprises a step corresponding to a pixel of the dynamic likelihood map.
(10)前記演算装置はさらに、選択された前記変換イメージ内の対応ピクセル間の色強度差が十分小さい時はいつでも、それらに対応した前記背景マップ内のピクセルに、前記対応ピクセルの平均色強度値に近い有効色強度値を割り当てることで、前記ステップ(a)で求められた複数前記変換イメージの中から選択された少なくとも2つの前記変換イメージ内の対応するピクセル間の色強度差を算出することで前記背景マップを決定し、その有効色強度値が割り当てられた各ピクセルは有色ピクセルを構成するステップ(b)と、前記ステップ(a)で求められた、複数の連続する前記変換イメージのうちの、最後の前記変換イメージ(22)上でエリアマスキングオペレーションを行い、求められたエリアマスキングデータを前記メモリに格納するステップ(c)と、前記ステップ(a)にて求められた複数の前記変換イメージ内の、最後の前記変換イメージ、前記ステップ(b)にて求められた前記背景マップ、前記ステップ(c)で求められた対応エリアマスキングデータ、移動見込み値が前記背景マップ内の有色ピクセルに対する各ピクセルに関連付けされた対応する移動見込みマップに基づいて、前記背景マップ中の対応する有色ピクセルと、前記最終のイメージ中の対応ピクセルの間の色強度の違いが大きいピクセルに、高い移動見込みを割り当てて、前記背景マップ中の対応する有色ピクセルと、前記最終のイメージ中の対応ピクセルの間の色強度の違いが小さいピクセルに、低い移動見込みを割り当てて、もしそのピクセルがマスクされたエリアに位置した場合に、このようにしてピクセルに割り当てられた移動の見込みを減少させ、求められた前記移動見込みマップを前記メモリに格納するステップ(d)と、前記ステップ(d)で求められた前記移動見込みマップにて、各ピクセルの内で関連した範囲が、十分高い移動見込みと関連しているかどうかを判定することで、前記移動見込みマップにフィルタ処理を行い、求められたフィルタ処理後移動見込みマップを前記メモリに格納するステップ(e)と、前記移動マップを求めるため、前回のステップで判定された前記フィルタ処理後移動見込みマップの各関連範囲に対して、所定の移動方向基準に基づいて、この関連範囲が物体の移動の存在と一致するかどうかを決定するステップ(f)を実行することを特徴とする請求項8に記載の物体移動の検出装置。 (10) the computing device further whenever the color intensity difference between the corresponding pixel in the selected the transformed image is sufficiently small, the pixels in the background map corresponding to their average color intensity of the corresponding pixel by assigning a valid color intensity value close to the value to calculate the color intensity difference between corresponding pixels of at least two said transformed image selected from the plurality the transformed image obtained in step (a) determining the background map by a step (b) constituting the respective valid color intensity value is assigned pixel color pixel, the obtained in step (a), of the converted image in which a plurality of successive the out performs area masking operations on the end of said transformed image (22), wherein the area masking data obtained notes And step (c) to be stored in said step in a plurality of said converted image obtained (a), the last of the transformed image, the background maps obtained in the step (b), the step ( corresponding area masking data obtained in c), based on the movement likelihood map mobile likelihood value corresponding is associated with each pixel for colored pixels in the background map, the corresponding colored pixels in the background map, the the final pixel difference is large in color intensity between the corresponding pixels in the image, assigning a high mobility likelihood, corresponds a colored pixels, color intensity between the corresponding pixels in the final image in the background map If a pixel with a small difference is assigned a low likelihood of movement, and the pixel is located in the masked area In this way, to reduce the likelihood of a mobile assigned to pixels, and the step (d) storing the mobile likelihood maps obtained in the memory, the mobile likelihood maps obtained in step (d) at, range associated within each pixel, by determining whether associated with sufficiently high mobility expected, performs the movement likelihood map to filter, the filtering process after the movement likelihood maps obtained above and step (e) to be stored in memory, to determine the moving map, for each relevant range of the filtering process after the movement likelihood map that is determined in the previous step, based on a predetermined moving direction reference, the relevant a moving object according to claim 8, range and wherein the performing step (f) to determine whether consistent with the presence of movement of the object Detection device.
また、上記課題を解決するものは、以下のとおりである。 Moreover, what solves the said subject is as follows.
演算装置はさらに、ステップ(e)で求められた移動マップの各関連範囲に対し、投影された光学的中心の最も近いポイントを決定することで、基準面上のカメラの投影された光学的中心Cの位置の算出に基づき、ステップ(f)にて求められた移動マップ上の基準面のレベルの移動物体の位置を決めるステップ(g)を実行し、このようにして決定された各ポイントは移動物体と基準面との接触点に対応し、この物体位置データを格納することを特徴とする上記物体移動の検出装置。 The computing device further determines the projected optical center of the camera on the reference plane by determining the closest point of the projected optical center for each relevant range of the movement map determined in step (e). Based on the calculation of the position of C, step (g) for determining the position of the moving object at the level of the reference plane on the movement map obtained in step (f) is executed, and each point thus determined is The object movement detection device according to claim 1, wherein the object position data is stored corresponding to a contact point between the moving object and the reference plane.
また、演算装置はさらに、ステップ(g)にて時間の経過とともに求められた複数の連続した移動マップに基づき、演算装置を用いて対応する代表点の連続する位置を算出し監視し、これらの代表点の予想位置を決定するステップ(h)を実行するものであり、これら代表点のおのおのは、基準面上の移動物体の接触点に対応する上記物体移動の検出装置であることが好ましい。 The computing device further calculates and monitors the continuous positions of the corresponding representative points using the computing device based on the plurality of continuous movement maps obtained with the passage of time in step (g). The step (h) of determining the predicted position of the representative point is executed, and each of the representative points is preferably the object movement detection device corresponding to the contact point of the moving object on the reference plane.
また、演算装置はさらに、すなわちステップ(a)にて求められた複数の変換イメージの中の最後のイメージの中から、メモリに格納された基準面データに基づいて、基準面の一部に対応するピクセルを検出し、ゼロ異動見込みを、基準面に対応するものとして検出されたピクセルに対応する移動見込みマップの中の各ピクセルに割り当てをする割り当て、このように変更された移動マップメモリに格納する上記の物体移動の検出装置であることが好ましい。 Further, the arithmetic unit further corresponds to a part of the reference plane based on the reference plane data stored in the memory from the last image among the plurality of converted images obtained in step (a). Assigns each pixel in the moving likelihood map corresponding to the pixel detected as corresponding to the reference plane, and stores it in the modified moving map memory. It is preferable that the object movement detection device described above be used.
また、演算装置はさらに、最終の変換イメージ以前に送信されたイメージ内で、基準面の一部に対応するピクセルを検出する検出ステップと高い移動見込みを、ノンゼロ移動見込みを有し以前の変換イメージ内で基準面に属するものとして検出された移動見込みマップ内の各ピクセルに割り当てる割り当てステップを実行することを特徴とする上記物体移動の検出装置であることが好ましい。 In addition, the arithmetic unit further includes a detection step for detecting pixels corresponding to a part of the reference plane in the image transmitted before the final conversion image and a high movement probability, and a previous conversion image having a non-zero movement probability. It is preferable that the object movement detection device execute an assigning step of assigning to each pixel in the expected movement map detected as belonging to the reference plane.
また、移動検出装置は、風景内において静止物体を検出可能で、静止物体の検出にまつわるデータを演算装置に送信することができる静止物体検知装置と協働することを特徴とする上記物体移動の検出装置であることが好ましい。 Further, the movement detection device is capable of detecting a stationary object in a landscape and cooperates with the stationary object detection device capable of transmitting data related to the detection of the stationary object to the arithmetic device. An apparatus is preferred.
また、物体移動の検出装置は、オペレータに移動マップデータを送信することが可能であることを特徴とする上記物体移動の検出装置であることが好ましい。 The object movement detection device is preferably the object movement detection device described above, which is capable of transmitting movement map data to an operator.
また、物体移動の検出装置は、衝突防止警告装置と協働し、演算装置によって、移動マップデータに基づき、風景内で物体と衝突をするリスクに関するデータを算出可能であり、この衝突のリスクに関するデータを衝突防止警告装置に送信可能であることを特徴とする上記物体移動の検出装置であることが好ましい。 In addition, the object movement detection device can cooperate with the collision prevention warning device, and can calculate data related to the risk of collision with an object in the landscape based on the movement map data. It is preferable that the object movement detection device is capable of transmitting data to a collision prevention warning device.
また、物体移動の検出装置は、衝突防止警告装置と協働し、演算装置によって、代表点の予想位置を定義する判定データに基づき、風景内で物体と衝突をするリスクに関するデータを算出することが可能であり、衝突のリスクを予想するために、この衝突のリスクに関するデータを衝突防止警告装置に送信可能であることを特徴とする上記物体移動の検出装置であることが好ましい。 In addition, the object movement detection device cooperates with the collision prevention warning device, and calculates data related to the risk of collision with an object in the landscape based on the determination data that defines the predicted position of the representative point by the arithmetic device. In order to predict the risk of collision, it is preferable that the object movement detection device is capable of transmitting data related to the collision risk to the collision prevention warning device.
また、衝突防止警告装置は、風景において物体と衝突するリスクに関する情報をオペレータへ送信可能であることことを特徴とする上記物体移動の検出装置であることが好ましい。 Further, the collision prevention warning device is preferably the object movement detection device characterized in that information on a risk of collision with an object in a landscape can be transmitted to an operator.
また、演算装置は、イメージ画像を、受信イメージを表示可能なスクリーンへ送信可能であり、演算装置は、物体との衝突のリスクの算出に基づき、風景内で物体と衝突するリスクに関する表示データを算出可能で、このリスク表示データをスクリーンに送信可能であり、スクリーンによってイメージ画像に引例された表示データを表示することを特徴とする上記物体移動の検出装置であることが好ましい。 Further, the arithmetic device can transmit the image image to a screen capable of displaying the received image, and the arithmetic device can display display data regarding the risk of collision with the object in the landscape based on the calculation of the risk of collision with the object. Preferably, the object movement detection device is capable of calculating, transmitting the risk display data to a screen, and displaying the display data cited by the screen as an image.
また、物体移動の検出装置は、移動を検出する装置によって送信されたデータに基づいて、基準面に対するマウントの移動を修正可能である修正装置と接続されていることを特徴とする上記物体移動の検出装置であることが好ましい。 Further, the object movement detection device is connected to a correction device capable of correcting the movement of the mount relative to the reference plane based on data transmitted by the device that detects the movement. A detection device is preferred.
また、物体移動を検出する装置を備える地面を移動可能の車両は、車両はカメラの実装を構成し、車両の周辺の地面は基準面を構成することを特徴とする上記物体移動の検出装置であることが好ましい。 In addition, the vehicle that can move on the ground provided with a device for detecting object movement is the object movement detection device, wherein the vehicle constitutes a camera and the ground around the vehicle constitutes a reference plane. Preferably there is.
上記構成をさらに説明する。本発明は、基準面に対して移動可能な校正カメラ(1)によって撮像された複数の風景のイメージ画像の演算装置による処理に基づく、基準面の一部を含む風景内(6)の物体の移動検出方法で、基準面の一部の形状と位置に関する基準面データが演算装置のメモリに格納され、カメラの姿勢と、カメラによって撮像され演算装置に送信された風景の各イメージ画像に対して定められたキャリブレーションパラメータが演算装置のメモリに格納され、演算装置は風景内で検出された基準面の一部に対して静止している物体に関する静止物体データを受信可能で、この静止物体データをメモリに格納し、格納されたデータを出力可能である移動検出方法において演算装置によって実行される、基準面の一部に関して、メモリ内に格納された基準面データ、対応するカメラの姿勢、キャリブレーションパラメータを用いて、カメラによって撮像され、演算装置に送信される、風景内の複数の連続するイメージ(21)において、複数の対応する変換イメージを求めるために、逆透視マッピングを実行するステップ(a)と、各検出静止物体(10)に対して、メモリ内に格納された静止物体データと対応するカメラの姿勢パラメータに基づいて、この静止物体によってカメラに対してマスクされる対応する変換イメージエリア(12)を決定し、ステップ(a)において求められた変換イメージ内の対応ピクセル間の色強度の変化に基づいた基準面(25)を決定し、変換イメージエリア(12)をマスクする工程を実行し、この決定されマスクされたエリア(24)と基準面(25)の一部を考慮し、ピクセルによって構成され、物体の移動の存在に関連しているかどうかを決定する移動マップ(26)を算出するステップ(a')を有する移動検出方法によって実現できるものである。 The above configuration will be further described. The present invention relates to an object in a landscape (6) including a part of a reference plane, based on processing by a computing device of a plurality of landscape image images captured by a calibration camera (1) movable with respect to the reference plane. In the movement detection method, the reference plane data relating to the shape and position of a part of the reference plane is stored in the memory of the arithmetic unit, and for the posture of the camera and each image of the landscape imaged by the camera and transmitted to the arithmetic unit The determined calibration parameters are stored in the memory of the arithmetic unit, and the arithmetic unit can receive stationary object data related to an object that is stationary with respect to a part of the reference plane detected in the landscape. Stored in the memory with respect to a part of the reference plane, which is executed by the arithmetic unit in a movement detection method capable of outputting the stored data In order to obtain a plurality of corresponding converted images in a plurality of continuous images (21) in a landscape that are imaged by the camera and transmitted to the arithmetic unit using the data, the corresponding camera posture, and the calibration parameters. , Performing the reverse perspective mapping, and for each detected stationary object (10), based on the stationary object data stored in the memory and the corresponding camera posture parameters, the stationary object A corresponding transformed image area (12) to be masked against and a reference plane (25) based on the change in color intensity between the corresponding pixels in the transformed image determined in step (a) is determined and transformed A step of masking the image area (12) is performed, and the determined masked area (24) and the reference plane (25) Considering part is constituted by the pixel, but can be realized by the movement detection method comprising the step (a ') for calculating a moving map that determines whether associated with the presence of an object moving in (26).
実際には、本発明にまつわる移動検出方法によると、カメラの像平面にて撮像された風景イメージの逆透視マッピング(IPM)の基本的な性質を利用し、カメラの光学的中心を通る直線に沿って、像平面の各ポイントを基準面に投影させて対応させることで、検出操作をかなり簡単にすることが可能である。すなわち、風景の基準面に対するカメラの動きを自動補正するものである(この基本的性質については前出のH.A.Mallotの文献paragraph 3.3, pages 180-181を参照のこと)。本発明によると、複数変換後イメージ画像の対応ピクセル間の色強度の変化の解析、画像処理によって簡単に実施可能な操作により、IPM変換による基本的な性質を利用することが可能である。色強度の変化の解析法は公知であるが、従来この移動の検出方法は、変換イメージより、撮像イメージに直接適用されてきている。 In fact, according to the movement detection method of the present invention, the basic property of inverse perspective mapping (IPM) of a landscape image taken on the image plane of the camera is used, and along a straight line passing through the optical center of the camera. Thus, it is possible to considerably simplify the detection operation by projecting each point on the image plane to correspond to the reference plane. That is, it automatically corrects the movement of the camera relative to the reference plane of the landscape (see H.A.Mallot literature paragraph 3.3, pages 180-181 above for this basic property). According to the present invention, it is possible to use the basic property of IPM conversion by an operation that can be easily performed by analyzing the change in color intensity between corresponding pixels of an image image after multiple conversion and image processing. Although a method for analyzing a change in color intensity is known, this movement detection method has been applied directly to a captured image rather than to a converted image.
さらに、カメラの視点に位置することによるエリアマスキングによって(カメラの光軸に集中した視野)、基準面に対して静止している物体検出結果の分析が可能となる(例えばIMRAヨーロッパの特許FR 2853121に示される静止物体検出器、レーザースキャナの使用、または周辺に存在する物体を予め確立されたマッピングなど基づいて求められた結果など)。これにより、マスクエリアに対応するイメージピクセルを考慮する必要がなくなり、計算を簡易にし、移動マップの算出をさらに確実なものとする。よって、本発明は、車両駐車装置に用いられた場合(後退時に車両の後方を監視するためのカメラを搭載した車両など)に、現在広く利用されているシンプルオンボードコンピュータとともに使用可能なものである。 Furthermore, area masking by locating at the camera viewpoint (field of view concentrated on the optical axis of the camera) enables analysis of the result of object detection stationary with respect to the reference plane (eg IMRA European patent FR 2853121). The result obtained by using a stationary object detector, a laser scanner, or a pre-established mapping of an object existing in the vicinity). This eliminates the need to consider the image pixels corresponding to the mask area, simplifies the calculation, and further ensures the calculation of the movement map. Therefore, the present invention can be used with a simple on-board computer that is currently widely used when used in a vehicle parking device (such as a vehicle equipped with a camera for monitoring the rear of the vehicle when reversing). is there.
本発明にまつわる移動検出方法の一方法としては、上記ステップ (a') はさらに、移動が行われている見込み値を、ステップ(a)において求められた変換イメージから選択された変換イメージ内のピクセルに関連付けをして移動見込みマップを確立し、そのピクセルに対し、ステップ(a)で求められたイメージの中から選択された送信イメージの中の対応ピクセルがイメージごとにほとんど変化しない色強度値を有し、カメラに対してマスクされた各エリアを考慮し、ピクセルに関連付けされた移動見込みは、ステップ(a)で求められた最終の変換イメージ内の対応ピクセルの色強度値が高ければ、選択された変換イメージ内の対応ピクセルの色強度値と相違し、各ピクセルは、関連する移動の見込みに依存する移動に関連していると判断される移動見込みマップ内のピクセルに対応するステップを有するものがある。 As one method of the movement detection method according to the present invention, the above step (a ′) further includes calculating a likelihood that the movement is being performed, by calculating a pixel in the conversion image selected from the conversion image obtained in step (a). Establishing a moving likelihood map by associating the image with a color intensity value for which the corresponding pixel in the transmitted image selected from the images obtained in step (a) hardly changes from image to image. Considering each area masked to the camera, the likelihood of movement associated with the pixel is selected if the color intensity value of the corresponding pixel in the final transformed image determined in step (a) is high Different from the color intensity values of the corresponding pixels in the converted image, each pixel is determined to be associated with a movement that depends on the likelihood of the associated movement. Those having a step corresponding to the pixel in the moving prospective map that.
この見込みデータ処理によって、既存の比較的非力なコンピュータでそのまま使用した場合でも、結果の精度を上げることが可能である。 Even if it is used as it is with an existing relatively weak computer by this prospect data processing, the accuracy of the result can be improved.
いずれの上記実施例に記載の本発明にまつわる移動検出方法のさらなる一方法としては、上記形態のいづれかに基づくものであり、色強度の変化を考慮し、見込みマップをフィルタリングすることによって、移動マップの正確性をさらに向上させるものであり、ステップ(a')はさらに、演算装置によって実行される、選択された変換イメージ内の対応ピクセル間の色強度差が十分小さい時はいつでも、それらに対応した背景マップ内のピクセルに、前記対応ピクセルの平均色強度値に近い有効色強度値を割り当てることで、ステップ(a)で求められた複数変換イメージの中から選択された少なくとも2つの変換イメージ内の対応するピクセル間の色強度差を算出することで背景マップ(25)を決定し、その有効色強度値が割り当てられた各ピクセルは有色ピクセルを構成するステップ(b)と、ステップ(a)で求められた、複数の連続する変換イメージのうちの、最後の変換イメージ(22)上でエリアマスキングオペレーションを行い、求められたエリアマスキングデータをメモリに格納するステップ(c)と、ステップ(a)にて求められた複数の変換イメージ内の、最後の変換イメージ、ステップ(b)にて求められた背景マップ、ステップ(c)で求められた対応エリアマスキングデータ、移動見込み値が背景マップ内の有色ピクセルに対する各ピクセルに関連付けされた対応する移動見込みマップに基づいて、背景マップ中の対応する有色ピクセルと、前記最終のイメージ中の対応ピクセルの間の色強度の違いが大きいピクセルに、高い移動見込みを割り当てて、背景マップ中の対応する有色ピクセルと、前記最終のイメージ中の対応ピクセルの間の色強度の違いが小さいピクセルに、低い移動見込みを割り当てて、もしそのピクセルがマスクされたエリアに位置した場合に、このようにしてピクセルに割り当てられた移動の見込みを減少させ、求められた移動見込みマップをメモリに格納するステップ(d)と、ステップ(d)で求められた移動見込みマップにて、各ピクセルの内で関連した範囲が、十分高い移動見込みと関連しているかどうかを判定することで、その移動見込みマップにフィルタ処理を行い、求められたフィルタ処理後移動見込みマップをメモリに格納するステップ(e)と、移動マップを求めるため、前回のステップで判定されたフィルタ処理後移動見込みマップの各関連範囲に対して、所定の移動方向基準に基づいて、この関連範囲が物体の移動の存在と一致するかどうかを決定するステップ(f)を有するものがある。 A further method of the movement detection method according to the present invention described in any of the above embodiments is based on one of the above-described forms, and by considering the change in color intensity and filtering the prospect map, Step (a ') is further performed whenever the color intensity difference between the corresponding pixels in the selected transformed image is small enough to be performed by the arithmetic unit. By assigning the effective color intensity value close to the average color intensity value of the corresponding pixel to the pixels in the background map, the pixels in at least two converted images selected from the plurality of converted images obtained in step (a) The background map (25) is determined by calculating the color intensity difference between the corresponding pixels, and the effective color intensity value is assigned. Each pixel is obtained by performing an area masking operation on the last converted image (22) of a plurality of consecutive converted images obtained in step (b) and step (a) constituting a colored pixel. (C) storing the area masking data in the memory, the last converted image in the plurality of converted images obtained in step (a), the background map obtained in step (b), the corresponding area masking data determined in c), the corresponding color pixel in the background map based on the corresponding motion likelihood map associated with each pixel for the color pixel in the background map. Assign a high likelihood to a pixel that has a large color intensity difference between corresponding pixels in the image, Assign a low likelihood of movement to a pixel with a small color intensity difference between the corresponding colored pixel in the background map and the corresponding pixel in the final image, and the pixel is located in the masked area In the step (d) of reducing the likelihood of movement assigned to the pixels in this way and storing the determined movement probability map in the memory, and in the movement probability map determined in step (d), each pixel Determining whether or not the related range in is associated with a sufficiently high likelihood of moving, filtering the predicted movement map, and storing the obtained filtered predicted movement map in memory ( e) and each related range of the post-filtering estimated movement map determined in the previous step to obtain the movement map. And, based on the predetermined moving direction reference, the relevant range is one having a step (f) to determine whether consistent with the presence of the moving object.
さらに本発明は、移動が検出された物体の位置を正確に示すことができるものである。上記形態に基づく本発明にまつわる移動検出装置は、演算装置によって、ステップ(e)で求められた移動マップの各関連範囲に対し、投影された光学的中心の最も近いポイントを決定することで、基準面上のカメラの投影された光学的中心Cの位置の算出に基づき、ステップ(f)にて求められた移動マップ上の基準面のレベルの移動物体の位置を決めるステップ(g)を有し、このようにして決定された各ポイントは移動物体と基準面との接触点に対応するものである。 Furthermore, the present invention can accurately indicate the position of an object from which movement has been detected. The movement detection apparatus according to the present invention based on the above-described form is configured such that the calculation device determines the closest point of the projected optical center for each related range of the movement map obtained in step (e). Determining the position of the moving object at the level of the reference plane on the movement map obtained in step (f) based on the calculation of the position of the projected optical center C of the camera on the surface; Each point determined in this way corresponds to a contact point between the moving object and the reference plane.
上記形態に基づくものとして、移動検出方法はさらにステップ(g)にて求められた時間の経過とともに求められた複数の連続した移動マップに基づき、演算装置を用いて対応する代表点の連続する位置を算出し監視し、これらの代表点の予想位置を決定するステップ(h)を有し、これら代表点のおのおのは、基準面上の移動物体の接触点に対応するものである。これら代表点の予想位置は、格納された点の軌跡から直接実際に差し引かれてもよい(連続する位置間の時間の経過や、算出された速度や加速度に基づいて)。例えば、これらの予想位置を計算するためにカルマンフィルタリングを使用することもできる。発明の本形態では、移動方向の検出を着実に行うという利点があり、それは寄生的移動、例えば検出エラー、照明状態の突発的な変化、基準面上の影の移動などによって起こるような移動を、フィルタに掛けて取り除くことができるために可能となるものである。 Based on the above embodiment, the movement detection method further includes successive positions of corresponding representative points using a computing device based on a plurality of continuous movement maps obtained with the passage of time obtained in step (g). The step (h) of calculating and monitoring and determining the expected positions of these representative points each corresponds to the contact point of the moving object on the reference plane. The predicted positions of these representative points may be actually subtracted directly from the trajectory of the stored points (based on the passage of time between successive positions and the calculated speed and acceleration). For example, Kalman filtering can be used to calculate these predicted positions. This form of the invention has the advantage of steadily detecting the direction of movement, which can be caused by parasitic movements such as detection errors, sudden changes in lighting conditions, shadow movements on the reference plane, etc. This is possible because it can be filtered out.
本発明に関する移動検出方法のその他の形態としては、上記形態に基づいて、移動見込みマップの信頼性を向上させたものであり、移動検出方法は、さらに演算装置用いて行われる以下のステップ、すなわちステップ(a)にて求められた複数の変換イメージの中の最後のイメージの中から、メモリに格納された基準面データに基づいて、基準面の一部に対応するピクセルを検出する検出ステップと、ゼロ異動見込みを、基準面に対応するものとして検出されたピクセルに対応する移動見込みマップの中の各ピクセルに割り当てをする割り当てステップとを有するものである。 As another form of the movement detection method according to the present invention, the reliability of the movement prospect map is improved based on the above-described form, and the movement detection method further includes the following steps performed by using the arithmetic device, that is, A detecting step for detecting a pixel corresponding to a part of the reference plane based on the reference plane data stored in the memory from among the last images among the plurality of converted images obtained in step (a); Assigning a zero change probability to each pixel in the movement likelihood map corresponding to the pixel detected as corresponding to the reference plane.
本発明において、最新変換イメージと以前の変換イメージの間での、ピクセルに関連付けされた移動見込みの違いを考慮することで、さらに移動見込みマップの信頼性を向上することが可能である。上記形態に基づく、本発明の他の形態として、前記移動検出方法はさらに、演算装置によって実行される、
最終の変換イメージ以前に送信されたイメージ内で、基準面の一部に対応するピクセルを検出する検出ステップと、高い移動見込みを、ノンゼロ移動見込みを有し以前の変換イメージ内で基準面に属するものとして検出された移動見込みマップ内の各ピクセルに割り当てる割り当てステップを有するものである。
In the present invention, it is possible to further improve the reliability of the movement likelihood map by considering the difference in movement likelihood associated with the pixel between the latest conversion image and the previous conversion image. As another aspect of the present invention based on the above aspect, the movement detection method is further executed by an arithmetic device.
A detection step for detecting pixels corresponding to a part of the reference plane in the image transmitted before the final conversion image, and a high movement probability, which has a non-zero movement probability and belongs to the reference plane in the previous conversion image And assigning to each pixel in the movement prospect map detected as a thing.
また、本発明に関する上記の移動検出方法を使用可能な物体移動検出装置であり、特に基準面の一部を有する風景(6)内の物体の移動を検出する装置で、
基準面に対して移動可能で、基準面に関連する基本空間的基準枠内の位置を定義するデータを送信可能である位置センサ(4)を備えるマウントと、マウント(2)に取り付けられ、風景(6)イメージを撮像可能であり、マウントに対する所定の姿勢パラメータと、所定内的キャリブレーションパラメータを有する撮像イメージを送信可能なカメラ(1)と、基準面の一部の形状と位置に関する基準面データと、位置センサ(4)によって送信されたマウントポジションデータと、カメラによって送信されたイメージデータと、マウントと内部カメラキャリブレーションパラメータに関するカメラ姿勢パラメータデータと、外部環境から送信された風景内で検出された静止物体に関する静止物体データを受信可能な演算装置(5)とを有し、演算装置は基本基準枠に関するカメラの姿勢パラメータを算出可能であり、受信イメージデータの処理可能であり、受信・算出データを格納可能であるメモリを有し、格納データを送信可能である検出装置において、演算装置は複数対応変換イメージを取得するために、基準面の一部に関し、メモリに格納された基準面データ、対応するカメラの姿勢、キャリブレーションパラメータを用いて、カメラより受信した複数の連続する風景のイメージ(21)の逆透視マッピングの実行を行い(a)、各検出静止物体(10)に対し、メモリに格納された静止物体データと対応カメラ姿勢パラメータに基づいて、この静止物体によってカメラに対してマスクされる対応変換イメージエリア(12)を決定し、このエリアのマスクする工程を実行し(a')、ステップ(a)でもとめられた変換イメージの対応ピクセル間の色強度の変化の算出に基づき、決定された各マスクエリアを考慮し、各ピクセルが、基準面の部分に対する物体の移動が存在することに関連するピクセルによって構成される移動マップ(26)を算出し、移動マップをメモリ内に格納することを有するものである。
Further, an object movement detection apparatus capable of using the movement detection method according to the present invention, particularly an apparatus for detecting the movement of an object in a landscape (6) having a part of a reference plane,
A mount having a position sensor (4) that is movable relative to the reference plane and capable of transmitting data defining a position in a basic spatial reference frame associated with the reference plane; (6) A camera (1) capable of capturing an image and capable of transmitting a captured image having a predetermined attitude parameter with respect to the mount and a predetermined internal calibration parameter, and a reference plane relating to the shape and position of a part of the reference plane Data, mount position data transmitted by the position sensor (4), image data transmitted by the camera, camera posture parameter data regarding the mount and internal camera calibration parameters, and detection in the landscape transmitted from the external environment And an arithmetic unit (5) capable of receiving stationary object data related to the stationary object In the detection device capable of calculating the camera attitude parameters related to the basic reference frame, processing the received image data, storing the received / calculated data, and transmitting the stored data In order to obtain a plurality of conversion images, the arithmetic unit uses a plurality of continuous images received from the camera using the reference plane data stored in the memory, the corresponding camera attitude, and the calibration parameters for a part of the reference plane. The reverse perspective mapping of the landscape image (21) to be executed is performed (a), and each detected stationary object (10) is determined by the stationary object based on the stationary object data stored in the memory and the corresponding camera posture parameter. The corresponding conversion image area (12) to be masked with respect to the camera is determined, and the process of masking this area is executed ( a '), based on the calculation of the change in color intensity between the corresponding pixels of the converted image obtained in step (a), taking into account each determined mask area, each pixel moves the object relative to the reference plane part Calculating a movement map (26) constituted by the pixels associated with the presence of and storing the movement map in memory.
さらに、上記移動検出装置の演算装置はさらに、移動が行われている見込み値を、ステップ(a)において求められた変換イメージから選択された変換イメージ内のピクセルに関連付けをして移動見込みマップを確立し、そのピクセルに対し、ステップ(a)で求められたイメージの中から選択された送信イメージの中の対応ピクセルがイメージごとにほとんど変化しない色強度値を有し、カメラに対してマスクされた各エリアを考慮し、ピクセルに関連付けされた移動見込みは、ステップ(a)で求められた最終の変換イメージ内の対応ピクセルの色強度値が高ければ、選択された変換イメージ内の対応ピクセルの色強度値と相違し、各ピクセルは、関連する移動の見込みに依存する移動に関連していると判断される移動見込みマップ内のピクセルに対応するステップを有するものである。 Further, the arithmetic unit of the movement detecting device further associates the estimated value of the movement with the pixel in the converted image selected from the converted image obtained in the step (a), and displays the estimated movement map. For that pixel, the corresponding pixel in the transmitted image selected from the images determined in step (a) has a color intensity value that varies little from image to image and is masked to the camera. Taking into account each area, the likelihood of movement associated with a pixel is determined if the color intensity value of the corresponding pixel in the final converted image obtained in step (a) is high. Unlike color intensity values, each pixel is a pixel in the movement likelihood map that is determined to be associated with movement that depends on the associated movement likelihood. And it has a step corresponding to Le.
本発明にまつわる各種移動検出装置を以下に記載する。特に、移動が検出された物体の位置を示すことが可能な装置について詳述する。 Various movement detection devices according to the present invention will be described below. In particular, an apparatus capable of indicating the position of an object where movement has been detected will be described in detail.
本発明では、移動検出装置は、風景内において静止物体を検出可能で、静止物体の検出にまつわるデータを演算装置に送信することができる静止物体検知装置と協働することが可能である。 In the present invention, the movement detection device can detect a stationary object in a landscape and can cooperate with a stationary object detection device capable of transmitting data related to the detection of the stationary object to the arithmetic device.
移動検出装置は、オペレータに移動マップデータを送信することが可能であるので、例えば、カメラマウントが物体に衝突する危険があるときなどには、オペレータは送信されたデータに反応することが可能である。移動検出装置は、衝突防止警告装置と協働し、演算装置によって、移動マップデータに基づき、風景内で物体と衝突をするリスクに関するデータを算出可能であり、この衝突のリスクに関するデータを衝突防止警告装置に送信可能であり、衝突の自動検出を提供するものであってもよい。衝突防止警告装置は、風景内での物体との衝突のリスクにまつわる情報をオペレータへ送信するものであってもよい。また演算装置によって、代表点の予想位置(上記参照)を定義する判定データに基づき、風景内で物体と衝突をするリスクに関するデータを算出することが可能であり、衝突のリスクを予想するために、この衝突のリスクに関するデータを衝突防止警告装置に送信可能であってもよい。衝突のリスクは移動マップデータや代表点の予想位置の判定データに基づいて算出するものでもよい。 Since the movement detection device can transmit movement map data to the operator, for example, when there is a risk that the camera mount will collide with an object, the operator can react to the transmitted data. is there. The movement detection device cooperates with the collision prevention warning device, and can calculate data related to the risk of collision with an object in the landscape based on the movement map data by the arithmetic device. It can be transmitted to a warning device and may provide automatic detection of a collision. The collision prevention warning device may transmit information related to the risk of collision with an object in the landscape to the operator. In addition, in order to predict the risk of collision, it is possible to calculate data related to the risk of collision with an object in the landscape based on the determination data that defines the predicted position of the representative point (see above). The data regarding the risk of collision may be transmitted to the collision prevention warning device. The risk of collision may be calculated based on movement map data or determination data on the expected position of a representative point.
いずれの実施例に関する移動検出装置においても、移動検出装置によって送信されたデータに基づき、基準面に他するマウントの移動を修正可能の修正装置に接続されるものであってもよい。この場合、障害物回避またはマウントステアリング操作などが自動的に行われたり、オペレータによる支援とともに行われるものであってもよい。このような装置は、特に自動車安全にまつわる分野において有益であり(この場合マウントは車両である)、またはロボット光学の分野においても有益である(この場合マウントはロボットまたはロボットの動作可能な部分である)。 In the movement detection apparatus according to any of the embodiments, the movement detection apparatus may be connected to a correction apparatus that can correct the movement of the mount other than the reference surface based on the data transmitted by the movement detection apparatus. In this case, obstacle avoidance or mount steering operation may be performed automatically or with assistance from the operator. Such a device is particularly useful in the field of automotive safety (in this case the mount is a vehicle) or in the field of robotic optics (in this case the mount is a robot or an operable part of the robot). ).
最後に、本発明は地面を移動可能な車両に関連するものであり、車両周辺のあらゆる場所においての移動を検知する装置を備えるものである。よって、車両はカメラマウントを構成し、車両周辺の地面は基準面を構成するものである。 Finally, the present invention relates to a vehicle that can move on the ground, and includes a device that detects movement at any location around the vehicle. Therefore, the vehicle constitutes a camera mount, and the ground around the vehicle constitutes a reference plane.
本発明の検出方法及び検出装置によれば、事前に物体のタイプの知識(形状または他の性質)の習得、物体の確認、膨大な計算時間または大きい計算手段などを必要とせず、イメージ画像を処理し、風景内での物体の移動を検出することが可能である。 According to the detection method and the detection apparatus of the present invention, it is not necessary to acquire knowledge of the type of object (shape or other properties) in advance, confirm the object, enormous calculation time or large calculation means, and the like. It is possible to process and detect the movement of an object in the landscape.
車両用パーキングアシストに使用される装置に関連する、車載移動検出装置に関する本発明の実施例を、図1から8に基づいて説明する。 An embodiment of the present invention relating to an in-vehicle movement detection device related to a device used for vehicle parking assistance will be described with reference to FIGS.
車両後部には、CCDカメラ(1)が地面から車両後部までの風景イメージまたは3D監視エリアを撮像可能な所定の場所に搭載されている。地面はその上を車両が移動可能の基準面Sを有する。ここで車両(2)では、車輪上(ABSセンサ)または、オンボード・コンピュータ (5) (演算装置とメモリを有する)上に位置センサ(4)が配設されている。各センサ(4)はオンボード・コンピュータ (5)に接続されており、地面に対する車両の位置を検出可能であり、取得位置データをコンピュータ(5)に出力する。もちろん、車両の位置を計測可能なものであればこれに限らず、たとえば衛星利用測位システム(GPSシステム)を用いて車両の位置を計測してもよい。 At the rear of the vehicle, a CCD camera (1) is mounted at a predetermined location where a landscape image from the ground to the rear of the vehicle or a 3D monitoring area can be imaged. The ground has a reference plane S on which the vehicle can move. Here, in the vehicle (2), the position sensor (4) is arranged on the wheel (ABS sensor) or on the on-board computer (5) (having the arithmetic unit and the memory). Each sensor (4) is connected to an on-board computer (5), can detect the position of the vehicle with respect to the ground, and outputs acquired position data to the computer (5). Of course, the position of the vehicle is not limited to this as long as the position of the vehicle can be measured. For example, the position of the vehicle may be measured using a satellite-based positioning system (GPS system).
カメラ(1)は撮像イメージをオンボード・コンピュータ (5)の演算装置に出力可能であり、コンピュータの演算装置によって入力イメージの画像処理を行うことが可能である。カメラの特性パラメータがカメラの姿勢とキャリブレーションパラメータであり、カメラの姿勢のパラメータは、例えば、地面にリンクした空間参照枠R (x, y, z axes)内の光学的中心Cの座標を示し、車両の移動の際のカメラの軌跡を判別するものである。これは、逆透視マッピングを算出するために、各撮像イメージの基準面に対するカメラの位置(さらに詳細に述べると光学的中心点C)を知る必要があるからである。姿勢パラメータは、主にカメラの付帯的キャリブレーションパラメータに含まれる。例えばカメラ(1)の姿勢パラメータは、車両を中心とした座標系内で判明されているカメラの位置に基づいて(例えば光学的中心の位置)、参照枠を変更するだけで、参照枠R内での車両の位置を定義するデータから差し引かれることは明らかである。コンピュータ(5)はセンサ(4)から受信した位置データを処理することが可能であり、このデータから、カメラから受信したイメージを対応するカメラ姿勢に相互参照できるように、カメラ(1)の姿勢パラメータを推測可能である。 The camera (1) can output a captured image to an arithmetic device of the on-board computer (5), and the input image can be processed by the arithmetic device of the computer. The camera characteristic parameters are camera posture and calibration parameters.The camera posture parameter indicates the coordinates of the optical center C in the spatial reference frame R (x, y, z axes) linked to the ground, for example. The path of the camera when the vehicle moves is determined. This is because it is necessary to know the position of the camera with respect to the reference plane of each captured image (more specifically, the optical center point C) in order to calculate reverse perspective mapping. The posture parameter is mainly included in the incidental calibration parameter of the camera. For example, the posture parameter of the camera (1) can be set in the reference frame R by simply changing the reference frame based on the position of the camera found in the coordinate system centered on the vehicle (for example, the position of the optical center). Obviously, it is subtracted from the data defining the position of the vehicle at. The computer (5) can process the position data received from the sensor (4), and from this data, the attitude of the camera (1) can be cross-referenced to the corresponding camera attitude from the image received from the camera. The parameter can be estimated.
この場合のカメラ(1)は細隙タイプのCCDカメラであり(F.Duvernay and O.Faugeras, Machine Vision and Applications (13), 14-24 (2001)参照のこと)、歪みを取り除いたものである。細隙モデルのカメラは、像平面上空間のすべての直線は直線として撮像されるものである。 The camera (1) in this case is a slit-type CCD camera (see F. Duvernay and O. Faugeras, Machine Vision and Applications (13), 14-24 (2001)), which has been distorted. is there. In the slit model camera, all straight lines in the space on the image plane are imaged as straight lines.
歪みパラメータの他に、下記のような10個のカメラカリブレーションパラメータと姿勢パラメータがある。 In addition to the distortion parameters, there are the following 10 camera calibration parameters and attitude parameters.
4つの内的パラメータ
a:カメラの水平焦点距離
b:カメラの垂直焦点距離
c:光学的中心の水平座標
d:光学的中心の垂直座標
“a”は、ピクセル長の生成物とカメラの焦点距離fを表し、”b”はピクセル幅の生成物とカメラの焦点距離fを表す。
4 internal parameters
a: Horizontal focal length of the camera
b: Vertical focal length of the camera
c: Horizontal coordinate of optical center
d: The vertical coordinate “a” of the optical center represents the product of the pixel length and the focal length f of the camera, and “b” represents the product of the pixel width and the focal length f of the camera.
像平面(光学的中心からの距離fのカメラの撮像面)の枠R' (u, v axes)の座標cとdは、像平面内の光軸に沿った光学的中心Cの投影を表す。 The coordinates c and d of the frame R '(u, v axes) on the image plane (camera imaging plane at a distance f from the optical center) represent the projection of the optical center C along the optical axis in the image plane. .
従来、これら4つのパラメータは、列П (3x4) (下記の数1)を構成する。
-枠R内カメラの光学的中心の位置を表すベクターtを構成する3つの外的パラメータ(姿勢パラメータ)
-光軸の傾斜のアングルと、光軸に沿った回転の角度、そしてヨー角のそれぞれにリンクする3つの回転を表す回転列 r (3x3 列)3つの外的パラメータ(rは3つの独立した回転の生成物)
従来の形では、4つの内的パラメータは(ひずみパラメータ以外)は列Пとしてクループ化され、6つの外的パラメータは、下記の数2として表される列K(4x4,)としてグループ化される。
-Rotation column r (3x3 column) representing three rotations linked to each of the optical axis tilt angle, the rotation angle along the optical axis, and the yaw angle, three external parameters (r is three independent parameters) Rotation product)
In the conventional form, the four internal parameters (other than the strain parameter) are grouped as a column П, and the six external parameters are grouped as a column K (4x4,) expressed as .
もし、風景(6)のいずれのポイントPiの座標がR内で測定され、同次座標の形で述べられるならばPi = [pix, piy, piz, 1]Tとなる。 If the coordinates of any point Pi in the landscape (6) are measured in R and described in the form of homogeneous coordinates, Pi = [pix, piy, piz, 1] T.
そしてもしCiが撮像イメージ内の対応するポイントであれば、このポイントCiは、一旦歪みの影響の補正をされたら(周知の方法のどれを用いてもよい。たとえば上記のF.Devernay と O.Faugerasの文献を参照のこと)、ポイントCiはポイントDiを生じさせる: Di = F(Ci),ここでFは歪みパラメータを用いた歪み関数を示す。 And if Ci is the corresponding point in the captured image, once this point Ci has been corrected for distortion effects (any of the well-known methods may be used, eg F.Devernay and O. above). (See the Faugeras reference), the point Ci yields the point Di: Di = F (Ci), where F represents the distortion function using the distortion parameters.
細隙カメラに限定できない場合、上記以外に、これら歪みパラメータのための歪みモデルやキャリブレーションモデルが存在する。例えば、J.Weng, P.Cohen, M.Herniouによる文献“Camera calibration with distortion models and accuracy evaluation”, IEEE Transactions on Pattern Analysis and Machine Intelligence, 14(10), p.965-980, October 1992が挙げられる。 When it cannot be limited to the slit camera, there are other distortion models and calibration models for these distortion parameters. For example, the document “Camera calibration with distortion models and accuracy evaluation” by J. Weng, P. Cohen, M. Herniou, IEEE Transactions on Pattern Analysis and Machine Intelligence, 14 (10), p. 965-980, October 1992. It is done.
R'内のポイントCiの同次座標は通常[u, v, 1](指数Tは転位を表す)として表されており、修正点Diの座標はki.[ui, vi, 1]Tの形で示される。ここでkiは、対応する所定の点Piと点Diの間の光軸の奥行きをあらわす(ki.ui と ki.vi は歪み修正後座標)。 The homogeneous coordinates of the point Ci in R ′ are usually expressed as [u, v, 1] (the index T represents the dislocation), and the coordinates of the correction point Di are ki. [Ui, vi, 1] T Shown in shape. Here, ki represents the depth of the optical axis between the corresponding predetermined point Pi and point Di (ki.ui and ki.vi are coordinates after distortion correction).
シーン上の所定の点と、歪みの影響が修正されたイメージの点との間の一対一の一致の結果として生ずる等式はDi = П.K.Piとして表される。この関係を逆にすることで、一つの所定のポイントPiを相当する所定ポイントDiに移動させることができる。 The equation resulting from a one-to-one match between a given point on the scene and a point in the image where the distortion effect has been corrected is expressed as Di = П.K.Pi. By reversing this relationship, one predetermined point Pi can be moved to the corresponding predetermined point Di.
コンピュータ(5)の演算装置は、カメラによって撮像されたイメージ内の歪みの影響を容易に修正することができる。 The computing device of the computer (5) can easily correct the influence of distortion in the image taken by the camera.
歪みの影響を修正した後に、カメラによって撮像されたイメージにおいて、演算装置はポイント上で逆透視マッピングを実行することが可能である。逆透視マッピングは、画像処理の分野においてよく知られているものであり、基準面のポイントD'、この場合は地面を、カメラの像平面P上のポイント(またはピクセル)Dと関連付けることである。ここでポイントD'とは、カメラの光学的中心Cと像平面Pとを繋げる直線(光学光線)が(基準面Sと)交差する点(またはピクセル)を表す。図2に現すように、光学的中心Cは像平面 Pから距離f分(光軸に沿って)離れている。像平面のスペースにおける位置は、格納されたカメラの姿勢やキャリブレーションデータ、そして基準面のスペースにおける位置は、形状と位置に関する格納された基準面データから知ることが出来る。そして、光学光線(光学的中心を通過する)に沿って基準面上に投影して求められた変換イメージを、カメラによって撮像されたイメージとマッチさせる。逆透視マッピングの結果は、変換イメージを構成する地面のイメージ中の有色ピクセルのクラスタの形で表される。また、クラスタ間に現れるスペースを埋めるように補間を実施することも可能であり、また重なり合ったクラスタを一体化することも可能である。 After correcting for the effects of distortion, the computing device can perform reverse perspective mapping on the points in the image taken by the camera. Inverse perspective mapping is well known in the field of image processing, and is to associate a reference plane point D ', in this case the ground, with a point (or pixel) D on the image plane P of the camera. . Here, the point D ′ represents a point (or pixel) where a straight line (optical ray) connecting the optical center C of the camera and the image plane P intersects (with the reference plane S). As shown in FIG. 2, the optical center C is separated from the image plane P by a distance f (along the optical axis). The position of the image plane in the space can be known from the stored camera posture and calibration data, and the position of the reference plane in the space from the stored reference plane data regarding the shape and position. Then, the converted image obtained by projecting onto the reference plane along the optical ray (passing through the optical center) is matched with the image captured by the camera. The result of reverse perspective mapping is represented in the form of clusters of colored pixels in the ground image that make up the transformed image. In addition, interpolation can be performed so as to fill a space appearing between clusters, and overlapping clusters can be integrated.
通常、計算の簡易化のため、図2にあるように、地面はフラットなものであると考えられている。しかしながら、地面がフラットでない場合についても、像平面から伸び、基準面(地面)に交差する光学光線のポイントの計算をするのに十分であり、所定の(メモリに記憶された)位置、形状パラメータがあり、カメラによって撮像されたイメージを用いて基準面を構成することで、容易に処理することが出来る。その後、フラットでない表面へ投影することで求められたイメージ内のピクセルの色強度の変化に基づき、移動を検出することが出来る。また、まずこのようにして構成された基準面上にフラットでない表面を投影することができ、さらにイメージの逆透視マッピングを、光学光線に従って構成されたこの基準面上に投影することで実行することができる(通常の平面状地面と同様に)。 Usually, for simplicity of calculation, the ground is considered to be flat as shown in FIG. However, even when the ground is not flat, it is sufficient to calculate the point of the optical ray that extends from the image plane and intersects the reference plane (ground), and the predetermined (stored in memory) position and shape parameters. By configuring the reference plane using the image captured by the camera, it can be easily processed. Thereafter, movement can be detected based on the change in color intensity of the pixels in the image determined by projecting onto a non-flat surface. It is also possible to first project a non-flat surface on the reference plane constructed in this way, and to perform reverse perspective mapping of the image by projecting onto this reference plane constructed according to optical rays. (Similar to normal flat ground).
逆透視マッピングは地面に対するカメラの動きを自然に補正するものである。また、地面上の物体やマークを歪ませないという特性を持つ。しかし、地面上の物体の大きく歪んだ部分は、図3に表されるようである。カメラ(1)によって撮像された風景(6)のイメージは図3Aに示すとおりであり、地面上に小型の物体(7)、地面上のマーク(8)と歩行中の歩行者(9)などを判別することが出来る。図3Bは逆透視マッピングによって得た変換イメージであり、物体(7)とマーク(8)は歪んでいないが、歩行者(9)の体は大きく歪んで見える。 Reverse perspective mapping naturally corrects camera movement relative to the ground. In addition, it has the characteristic of not distorting objects and marks on the ground. However, the greatly distorted portion of the object on the ground appears to be represented in FIG. The image of the landscape (6) imaged by the camera (1) is as shown in FIG. 3A. A small object (7) on the ground, a mark (8) on the ground, a walking pedestrian (9), etc. Can be discriminated. FIG. 3B is a conversion image obtained by reverse perspective mapping. The object (7) and the mark (8) are not distorted, but the body of the pedestrian (9) appears to be greatly distorted.
本発明に関する、移動を検出する方法のステップ(a)の実行中は、オンボード・コンピュータ (5)の演算装置は、カメラ(1)によって撮像された対応する一連の連続する風景(6)イメージに基づいた逆透視マッピングによって変換された一連のイメージを演算する。この複数の変換イメージに基づき、演算装置は、複数の変換イメージの中から選択された少なくとも2つの変換イメージ内の各対応するピクセル間の色強度差を計算することで、背景マップを決定し、また選択された変換イメージ内の対応するピクセル間の色強度差が十分小さい場合は、背景マップ内ピクセルに、前記対応ピクセルの平均色強度に近い値である有効色強度値を割り当てることで背景マップを決定する。このようにして、有効色強度値が割り当てられる背景マップ内の各ピクセルは有色ピクセルを構成する。これらが、背景画像を作成するための標準的な累積演算工程であり、色強度の変化を検出するための微分法である。しかしながら、このような工程は、カメラ(1)によって直接撮像されたイメージ上よりも、変換イメージ上で行われる。 During the execution of step (a) of the method for detecting movement according to the present invention, the computing device of the on-board computer (5) has a corresponding series of consecutive landscape (6) images captured by the camera (1). Compute a series of images transformed by reverse perspective mapping based on. Based on the plurality of converted images, the arithmetic unit determines a background map by calculating a color intensity difference between each corresponding pixel in at least two converted images selected from the plurality of converted images, If the color intensity difference between corresponding pixels in the selected conversion image is sufficiently small, the background map is assigned by assigning an effective color intensity value that is close to the average color intensity of the corresponding pixels to the pixels in the background map. To decide. In this way, each pixel in the background map that is assigned an effective color intensity value constitutes a colored pixel. These are standard cumulative calculation steps for creating a background image, and a differential method for detecting a change in color intensity. However, such a process is performed on the converted image rather than on the image directly captured by the camera (1).
演算装置によって、取得された複数の連続する変換イメージの中の最新の変換イメージにエリアマスキングオペレーションを行い、そのエリアマスキングデータをメモリに格納する。このステップを完了するために、オンボード・コンピュータ(5)の演算装置は、静止物体検出装置によって静止していると検出された風景内の物体にまつわる受信され格納された静止物体データを考慮に入れる。このデータは、静止物体の境界線と考えられるものを定める2D形状(2次元)または3D形状(3次元)を表す。演算装置はこのデータを用い、変換イメージ画像のどのエリアが、検出された静止物体によってマスクされたかを演算する。演算装置は、受信された3D形状データを地上に投影し、各形状の投影の周囲のコンベックス・エンベロープを、地上レベルの2D形状として使用する。これらのカメラ(1)の位置に対して2D形状の後ろに位置する変換イメージのエリアがマスクされる。このマスキングは、2D形状のアウトラインに立つ、ぼやけた水平の壁を建て、エリアをマスクアウトするためにこの壁の投影を逆透視マッピンで使用するとも言える。適用可能であれば、このマスキングを、静止物体検出器が3D検出器である限りは、検出された物体の高さに限定可能である(壁の高さを限定するように)、このステップは図4Aおよび4Bに記載されている。図4Aはカメラ(1)によって撮像されたイメージで、静止物体、つまり車両(10)を有するイメージである。この車両は道路の左側に停車されている。図4Bは逆透視マッピングによって変換イメージであり、図4Aのイメージより求められたものである。地上に車両(10)の軌跡(11)と、カメラに対して車両によって隠されていた変換イメージのエリア(12)を見ることができる。 The arithmetic device performs an area masking operation on the latest converted image among the obtained plurality of consecutive converted images, and stores the area masking data in the memory. To complete this step, the computing device of the on-board computer (5) takes into account received and stored stationary object data related to objects in the landscape that have been detected as stationary by the stationary object detection device. . This data represents a 2D shape (2D) or 3D shape (3D) that defines what is considered a boundary of a stationary object. The arithmetic unit uses this data to calculate which area of the converted image is masked by the detected stationary object. The arithmetic unit projects the received 3D shape data onto the ground, and uses the convex envelope around the projection of each shape as the 2D shape at the ground level. The area of the converted image located behind the 2D shape with respect to the position of these cameras (1) is masked. This masking can be said to build a blurry horizontal wall that stands in a 2D shape outline and use the projection of this wall in a reverse perspective mappin to mask out the area. If applicable, this masking can be limited to the detected object height (so as to limit the wall height) as long as the stationary object detector is a 3D detector. It is described in FIGS. 4A and 4B. FIG. 4A is an image taken by the camera (1), and is an image having a stationary object, that is, the vehicle (10). This vehicle is parked on the left side of the road. FIG. 4B is a conversion image obtained by reverse perspective mapping, and is obtained from the image of FIG. 4A. The trajectory (11) of the vehicle (10) and the area (12) of the conversion image hidden by the vehicle from the camera can be seen on the ground.
複数の演算された変換イメージの中の最新変換イメージ、背景マップ及び対応するエリアマスキングデータを使って、演算装置は、移動が行われている見込み値を、背景マップ内の有色ピクセルに対応する各ピクセルに関連させた移動見込みマップを確立する。これを達成するため、演算装置は高い移動見込みを、背景マップ内の対応有色ピクセルと最終イメージ内の対応ピクセルが色強度は大きく異なっている各ピクセルに割り当て、また、演算装置は、低い移動見込みを、背景マップ内の対応有色ピクセルと最終イメージ内の対応ピクセルの色強度があまり異なっていない各ピクセルに割り当てる。加えて、演算装置は、マスクエリア内にピクセルが存在した場合、このようにピクセルに割り当てられた移動見込みを減少させる。このように求められた移動見込みマップはメモリ内に格納される。このイメージ微分処理においては、同一ピクセルで何度も演算を行うことを避けるため、例えば背景マップ内ピクセルに、属性とともに(3D障害物または移動物体に属するなど)フラグを立て、処理速度を上げることもできる。 Using the latest transformed image, the background map and the corresponding area masking data in the plurality of computed transformed images, the computing device may calculate the expected value being moved for each colored pixel in the background map. Establish a movement likelihood map associated with the pixel. To accomplish this, the computing device assigns a high likelihood of movement to each pixel where the corresponding colored pixel in the background map and the corresponding pixel in the final image have significantly different color intensities, and the computing device assigns a low likelihood of movement. Is assigned to each pixel where the color intensity of the corresponding colored pixel in the background map and the corresponding pixel in the final image are not very different. In addition, when there are pixels in the mask area, the arithmetic unit reduces the movement probability assigned to the pixels in this way. The movement prospect map obtained in this way is stored in the memory. In this image differentiation process, in order to avoid performing the calculation many times on the same pixel, for example, a flag is set on the pixels in the background map together with attributes (belonging to 3D obstacles or moving objects) to increase the processing speed. You can also.
移動見込み演算は、一つ以上の基準、例えば各有色ピクセルのヒストリー(数イメージにわたり、色濃度が変わっているかどうかを検出するため)、ピクセルのステータスのヒストリー(障害物の性質としてフラグが立てられているかどうかを検出するため)またはピクセルの現在のステータスに基づいて行われ、移動の性質としての以前のステータスに基づいても行われる。 The move prediction operation can be flagged as one or more criteria, such as the history of each colored pixel (to detect whether the color density has changed over several images), the history of the pixel status (the nature of the obstacle). Or based on the current status of the pixel and also based on the previous status as the nature of the movement.
演算装置は、各ピクセルのうち十分に高い移動の見込みと関連した範囲を移動見込みマップ上で決定することで、移動見込みマップのフィルタリングを行う。そして演算装置はこのようにして取得したフィルタ処理後移動見込みマップをメモリに格納する。このような関連範囲の決定は、各種周知の画像セグメンテーション技術を使って行うことができ、その技術のうちのいくつかは下記の文献に詳しく記載されている。Morel J.M., Solimini S., “Variational Methods in Image Segmentation”, PNDLE, Vol.14, Birkhauser, Basel (1994); Harlick R.M., Shapiro L.G., “Image segmentation techniques”, Computer Vision, Graphics and Image Processing, Vol.29, p.100-132, Jan. 1985.この文献に記述されている例では、演算装置は、以下の文献に詳しく記載されている周知の方法である集約タイプ(ブロブ)を使用している。R.Kauth, A.Pentland, G.Thomas, “Blob: an unsupervised clustering approach to spatial preprocessing of mss imagery” Proceedings of the 11th International Symposium on Remote Sensing of the Environment, Ann Harbor MI, p.1309-1317, 1977。関連範囲のリストが作成され、それらの形状の確実な特徴づけをするために、各範囲において統計演算がされる。算出された統計結果をファジーにして(後にファジー論理アルゴリズムを使用するために)、所定のタイプの障害物に属する関連範囲の見込みを算出するために、それらを一つにする(十分なサイズで、さらに小さな関連範囲を探して、カメラの方向または車両の移動方向に延びる関連範囲を調べることで人間の移動を検出できるなど)。 The arithmetic unit performs filtering of the movement prospect map by determining, on the movement prospect map, a range associated with a sufficiently high movement prospect among the pixels. Then, the arithmetic unit stores the post-filtering movement likelihood map acquired in this way in the memory. Such determination of the relevant range can be performed using various well-known image segmentation techniques, some of which are described in detail in the following documents. Morel JM, Solimini S., “Variational Methods in Image Segmentation”, PNDLE, Vol. 14, Birkhauser, Basel (1994); Harlick RM, Shapiro LG, “Image segmentation techniques”, Computer Vision, Graphics and Image Processing, Vol. 29, p. 100-132, Jan. 1985. In the example described in this document, the arithmetic unit uses an aggregation type (blob) which is a well-known method described in detail in the following document. . R. Kauth, A. Pentland, G. Thomas, “Blob: an unsupervised clustering approach to spatial preprocessing of mss imagery” Proceedings of the 11th International Symposium on Remote Sensing of the Environment, Ann Harbor MI, p. 1309-1317, 1977 . A list of related ranges is created, and statistical calculations are performed on each range to reliably characterize their shapes. Fuzzy the calculated statistical results (to later use the fuzzy logic algorithm) and combine them together (with enough size) to calculate the likelihood of the relevant range belonging to a given type of obstacle For example, human movement can be detected by looking for a smaller relevant range and examining the relevant range extending in the direction of the camera or the direction of movement of the vehicle).
演算装置は演算されたフィルタ処理後移動見込みマップの各関連範囲において、所定移動検出基準に基づき、その関連範囲が物体の移動の存在に関連しているかどうかを決定し、移動マップを算出する。そして算出された移動マップはメモリに格納される。各関連範囲における移動を検出するための基準は、例えば関連範囲の表面エリア(散在するイメージノイズを取り除くために)、関連範囲の形状、対象となる物体の方向(ここでは、逆透視マッピングでは垂直の物体はカメラに向かっている。)、さまざまな場合での関連範囲の監視(関連範囲の置換えにおいてカルマンフィルタリングを行う)、または関連範囲の位置(この基準はマップの特定部が移動物体を含まない場合にこの基準が有用である)に基づいている。もちろん、これらの基準のいくつかを一体化して、複数検出基準を生成してもよい
本発明に関連した、動作検出装置の一つの形として、演算装置は、前回取得した移動マップの基準面のレベルで、基準面に投影されたカメラの光学的中心の位置の演算に基づき、移動マップの各関連範囲に、この投影された光学的中心の一番近いポイント、つまり基準面上の移動物体の接触点に対応して決定された各ポイントを決定することで、移動物体の位置を示す操作を行うことができる。このように算出された物体位置データは格納される。
The arithmetic device determines whether or not the related range is related to the presence of the movement of the object based on a predetermined movement detection criterion in each related range of the calculated post-filtering movement expected map, and calculates a movement map. The calculated movement map is stored in the memory. The criteria for detecting movement in each relevant range are, for example, the surface area of the relevant range (to remove scattered image noise), the shape of the relevant range, the direction of the object of interest (here vertical in reverse perspective mapping) Objects are facing the camera.), Monitoring the relevant range in various cases (with Kalman filtering in the replacement of the relevant range), or the location of the relevant range (this criterion includes moving objects with specific parts of the map) This criterion is useful if not). Of course, some of these criteria may be integrated to generate a plurality of detection criteria. As one form of motion detection device related to the present invention, the arithmetic unit may calculate the reference plane of the previously acquired movement map. At the level, based on the calculation of the position of the optical center of the camera projected on the reference plane, each relevant range of the movement map will have the closest point of this projected optical center, i.e. the moving object on the reference plane. By determining each point determined corresponding to the contact point, an operation indicating the position of the moving object can be performed. The object position data calculated in this way is stored.
本発明に関する、移動を検出する装置のそのほかの形としては、複数の変換イメージのうちの最新のイメージにおいて、演算装置は、メモリに格納された基準面データに基づいて、基準面の一部に対応するピクセルを検出可能であり、またゼロ移動見込みを、基準面に対応して検出されたピクセルに対応した移動見込みマップの各ピクセルに割り当て可能である。このようにして修正された移動マップはメモリに格納される。これによりオンボード・コンピュータ (5)の演算装置は、検出された障害物(静止物体または移動物体)をさらにはっきりとハイライトさせるため、地面を検出可能である。このような地面の検出は、例えば周知のグレイレベル範囲増加方法を用いて行うことができる。この方法では、範囲増加シードが変換イメージ内で選択されるので、周辺で移動が検出されない場合は、範囲増加シードはできる限り車両に近づくことができる。この方法は、(ピクセルを加えることによる)増加中にアップデートされたクレイレベル閾値を用いて、風景の照明条件の変化や地面の色の変化などを考慮する。この方法は図6に示されているクレイレベル範囲増加の繰り返しに関するイメージによって示されている。地面を表す潜在的な候補である新しいピクセル(シードとして初期化された)はテストされ、静止または移動物体に属していないならば、繰り返しの最中に検出された地面のピクセルに加えられる変換イメージ内の地面のピクセルのバイナリマップは本プロセスの最後に求められる。本発明の一つの形態としては、地面を検出する他の周知の方法が用いられる。例えば、類似するテクスチャのエリアを決定するための、テクスチャに基づくイメージのセグメンテーション方法などが挙げられる(文献 J.Zhang, H.Nagel, “Texture-based segmentation of road images", Proceedings of IEEE Intelligent Vehicles Symposium, p.260-265, 1994を参照のこと)。または同じ方向のエリアをグループにして道路を検出する方法などが挙げられる(文献Rasmussen C., “Texture-Based Vanishing Point Voting for Road Shape Estimation”, Proceedings of British Machine Vision Conference, 2004を参照のこと)。 As another form of the device for detecting movement according to the present invention, in the latest image of the plurality of converted images, the arithmetic unit may add a part of the reference surface based on the reference surface data stored in the memory. Corresponding pixels can be detected, and a zero movement likelihood can be assigned to each pixel of the movement likelihood map corresponding to the pixels detected corresponding to the reference plane. The movement map corrected in this way is stored in the memory. Thereby, the computing device of the on-board computer (5) can detect the ground in order to highlight the detected obstacle (stationary object or moving object) more clearly. Such detection of the ground can be performed using, for example, a known gray level range increasing method. In this method, the range increasing seed is selected in the transformed image, so if no movement is detected in the vicinity, the range increasing seed can be as close to the vehicle as possible. This method takes into account changes in landscape lighting conditions, changes in ground color, etc., using clay level thresholds that are updated during the increase (by adding pixels). This method is illustrated by the image of the repeated clay level range increase shown in FIG. A new pixel (initialized as a seed) that is a potential candidate for representing the ground is tested, and if it does not belong to a stationary or moving object, a transformed image that is added to the ground pixels detected during the iteration A binary map of the inner ground pixels is determined at the end of the process. As one form of the present invention, other known methods for detecting the ground are used. For example, a texture-based image segmentation method for determining similar texture areas (J. Zhang, H. Nagel, “Texture-based segmentation of road images”, Proceedings of IEEE Intelligent Vehicles Symposium). , p. 260-265, 1994). Or a method of detecting roads by grouping areas in the same direction (see Rasmussen C., “Texture-Based Vanishing Point Voting for Road Shape Estimation”, Proceedings of British Machine Vision Conference, 2004). .
本発明に関連する移動を検出する装置の他の形態としては、演算装置は、最新の変換イメージの前の変換イメージにおいて、基準面の一部に対応したピクセルを検出可能であり、また高い移動の見込みを移動見込みマップ内のノンゼロ移動見込みを有し、基準面エリアに属するとして前の変換イメージ内で検出された各ピクセルに割り当てることができる。さらに演算装置は、このように修正された移動見込みマップをメモリ内に格納される。 As another form of the apparatus for detecting movement related to the present invention, the arithmetic unit can detect a pixel corresponding to a part of the reference plane in the converted image before the latest converted image, and has high movement. Can be assigned to each pixel detected in the previous transformed image as having a non-zero movement probability in the movement likelihood map and belonging to the reference plane area. Further, the arithmetic unit stores the movement likelihood map thus corrected in the memory.
図8は本発明の1つの形態における移動の検出に関する各種ステップを示すイメージである。図8はカメラ(1)によって撮像された現在のイメージ(20)であり、例えばカメラによって撮像された連続する複数イメージ(21)の最後のイメージである。イメージ(22)は現在のイメージ(20)の逆透視マッピングの結果を示す。イメージ(23)上では地面検出処理がなされており、静止物体マスキング工程がイメージ(24)上で行われている。背景マップはイメージ(25)上で求められ、移動マップはイメージ(26)上で求められている。イメージ(27)に示されるように、歩行者に対応する関連範囲を検出するためにファジー論理フィルタリングが移動マップ(26)上で行われている。最後に、イメージ(28)は移動マップであり、マスクされた障害物がイメージ(29)にて識別できる。検出された移動はイメージ(30)にて識別される。検出された地面はイメージ(31)によって識別され、フィルタ後の見かけの移動はイメージ(32)によって識別される。 FIG. 8 is an image showing various steps relating to movement detection in one form of the invention. FIG. 8 shows the current image (20) captured by the camera (1), for example, the last image of a plurality of consecutive images (21) captured by the camera. Image (22) shows the result of reverse perspective mapping of the current image (20). A ground detection process is performed on the image (23), and a stationary object masking process is performed on the image (24). The background map is obtained on the image (25), and the movement map is obtained on the image (26). As shown in the image (27), fuzzy logic filtering is performed on the movement map (26) to detect the relevant range corresponding to the pedestrian. Finally, image (28) is a moving map, and masked obstacles can be identified in image (29). The detected movement is identified in the image (30). The detected ground is identified by image (31) and the apparent movement after filtering is identified by image (32).
そのような移動検出結果は、車両に搭載されたスクリーンに表示可能であり、その検出結果によって(2)のドライバは衝突のリスクを判断でき、それにしたがって車両の運転ができる。 Such a movement detection result can be displayed on a screen mounted on the vehicle. Based on the detection result, the driver (2) can determine the risk of collision and can drive the vehicle accordingly.
移動検出装置による移動検出結果は衝突防止警告装置に送信される。演算装置は、静止物体または移動が検出されている物体に車両(2)が衝突するリスクを実際に予測することができ、その予測結果を、衝突の警告をするために衝突防止警告装置に送信する。そしてドライバは、例えば衝突防止警告装置の演算装置によって算出され送信され、スクリーンに表示された表示データに基づいて、物体との衝突のリスクを見極めることができる。この衝突リスク表示データは有色エリアを有し、これによりドライバが衝突のリスクを見極めることができる。例えば、スクリーンに表示されたこのエリアの色や色強度によって、ドライバが直感的にリスクを見極めることができるのである(たとえば、グリーンはリスクが低いことを表し、赤や点滅がリスクが高いことを示すというように)。 The movement detection result by the movement detection device is transmitted to the collision prevention warning device. The arithmetic device can actually predict the risk of the vehicle (2) colliding with a stationary object or an object whose movement is detected, and sends the prediction result to the collision prevention warning device to warn of the collision. To do. The driver can determine the risk of collision with an object based on display data that is calculated and transmitted by, for example, the arithmetic unit of the collision prevention warning device and displayed on the screen. This collision risk display data has a colored area, which allows the driver to determine the risk of collision. For example, the color and color intensity of this area displayed on the screen allows the driver to intuitively determine the risk (for example, green indicates low risk and red or flashing indicates high risk). As shown).
オンボード・コンピュータ (5)の演算装置によって、スクリーンに表示されるイメージ画像を送信されてもよい。また、有色衝突リスク表示エリアはイメージ画像にインレイド(PIP)される。さらに、物体と衝突するリスクの予測をアシストする有色エリアは、地上に物体の軌跡に対応する形で表してもよい。この方法によると、ドライバは直感的にリスクのレベルを推測ができるということだけでなく、物体を避ける操作もできる。 The image displayed on the screen may be transmitted by the arithmetic unit of the on-board computer (5). The colored collision risk display area is inlaid (PIP) into the image. Furthermore, the colored area that assists in predicting the risk of collision with the object may be expressed in a form corresponding to the locus of the object on the ground. According to this method, the driver can intuitively estimate the level of risk and can also perform an operation to avoid the object.
本発明に関する移動検出装置の実施様態は、他の実施様態と同様に、上述の発明に関する移動検知方法の多様な形態の本装置を使用した結果であり、添付するクレームに対応するものである。 The embodiment of the movement detection apparatus according to the present invention is the result of using the apparatus in various forms of the movement detection method according to the above-described invention, as in the other embodiments, and corresponds to the appended claims.
本発明の構成であれば、事前に物体のタイプの知識(形状または他の性質)の習得、物体の確認、膨大な計算時間または大きい計算手段などを必要とせず、イメージ画像を処理し、風景内での物体の移動を検出することが可能な、風景に対して移動可能な一つの風景画像取得装置を用いることを可能とする。 According to the configuration of the present invention, it is not necessary to acquire knowledge of the type of object (shape or other properties) in advance, check the object, enormous calculation time or large calculation means, etc. It is possible to use a single landscape image acquisition device that can detect the movement of an object within the vehicle and that can move relative to the landscape.
1 カメラ
6 風景
10 静止物体
12 変換イメージエリア
21 イメージ
26 移動マップ
1 Camera 6 Landscape 10 Still Object 12 Conversion Image Area 21 Image 26 Movement Map
Claims (10)
前記演算装置によって実行される、
前記基準面の一部に関して、前記メモリ内に格納された前記基準面データ、対応する前記カメラの姿勢、前記キャリブレーションパラメータを用いて、前記カメラによって撮像され、前記演算装置に送信される、風景内の複数の連続するイメージ(21)において、複数の対応する変換イメージを求めるために、逆透視マッピングを実行するステップ(a)と、
各検出静止物体(10)に対して、前記メモリ内に格納された前記静止物体データと対応する前記カメラの姿勢パラメータに基づいて、この静止物体によって前記カメラに対してマスクされる対応する変換イメージエリア(12)を決定し、前記ステップ(a)において求められた前記変換イメージ内の対応ピクセル間の色強度の変化に基づいた背景マップ(25)を決定し、前記変換イメージエリアをマスクする工程を実行し、この決定されマスクされたエリア(24)と前記背景マップの一部を考慮し、ピクセルによって構成され、物体の移動の存在に関連しているかどうかを決定する移動マップ(26)を算出するステップ(a')を有することを特徴とする物体移動の検出方法。 Based on the processing by the arithmetic unit of a plurality of scenery images taken by the camera (1) which is movable with respect to the reference plane, the detection method of the object movement in the scene (6) comprising a portion of the reference surface, the reference surface data for some shape and position of the reference plane is stored in the memory of the computing device, and the posture of the camera, set for each image of scenery that has been transmitted to the imaged the arithmetic unit by the camera calibration parameters are is stored in the memory of the computing device, the computing device can receive the stationary object data relating to an object that is stationary relative to a part of the reference plane detected in the landscape, the In the method for detecting object movement, wherein stationary object data is stored in the memory, and the stored data can be output .
Executed by the arithmetic unit,
For some of the reference plane, the reference plane data stored in said memory, corresponding pose of the camera, using the calibration parameters, captured by the camera, it is transmitted to the computing device, landscape Performing reverse perspective mapping to determine a plurality of corresponding transformed images in a plurality of consecutive images (21) of:
For each detected stationary object (10), on the basis and the stationary object data stored in memory corresponding pose parameters of the camera, converting the image corresponding masked with respect to the camera by the stationary object Determining an area (12), determining a background map (25) based on a change in color intensity between corresponding pixels in the converted image obtained in step (a), and masking the converted image area Taking into account this determined masked area (24) and a part of the background map, a movement map (26) that is constituted by pixels and determines whether it is related to the presence of object movement An object movement detection method comprising the step (a ′) of calculating .
前記カメラに対してマスクされた各エリアを考慮し、ピクセルに関連付けされた移動見込みは、
前記ステップ(a)で求められた最終の前記変換イメージ内の対応ピクセルの色強度値が高ければ、選択された前記変換イメージ内の対応ピクセルの色強度値と相違し、
各ピクセルは、関連する移動の見込みに依存する移動に関連していると判断される前記移動見込みマップ内のピクセルに対応するステップを有することを特徴とする請求項1に記載の物体移動の検出方法。 Wherein step (a ') further the likelihood value movement is taking place, the movement likelihood map by an association step (a) the pixels in said transformed image selected from the transformed image obtained in establishing, with respect to the pixel has a color intensity value corresponding pixels hardly vary image in the transmission image that was selected from among the obtained at step (a) image,
Moving expected to consider each area masked, it is associated with the pixel to the camera,
The higher the color intensity value of a corresponding pixel of said step (a) in the final in said transformed image obtained, differs from the color intensity value of a corresponding pixel in said selected transformed image,
2. Object movement detection according to claim 1 , wherein each pixel has a step corresponding to a pixel in the movement likelihood map that is determined to be associated with movement depending on the associated movement likelihood. Method.
選択された前記変換イメージ内の対応ピクセル間の色強度差が十分小さい時はいつでも、それらに対応した前記背景マップ内のピクセルに、前記対応ピクセルの平均色強度値に近い有効色強度値を割り当てることで、前記ステップ(a)で求められた複数変換イメージの中から選択された少なくとも2つの前記変換イメージ内の対応するピクセル間の色強度差を算出することで前記背景マップを決定し、その前記有効色強度値が割り当てられた各ピクセルは有色ピクセルを構成するステップ(b)と、
前記ステップ(a)で求められた、複数の連続する前記変換イメージのうちの、最後の前記変換イメージ(22)上でエリアマスキングオペレーションを行い、求められたエリアマスキングデータを前記メモリに格納するステップ(c)と、
前記ステップ(a)にて求められた複数の前記変換イメージ内の、最後の前記変換イメージ、前記ステップ(b)にて求められた前記背景マップ、前記ステップ(c)で求められた対応エリアマスキングデータ、前記移動見込み値が前記背景マップ内の有色ピクセルに対する各ピクセルに関連付けされた対応する前記移動見込みマップに基づいて、
前記背景マップ中の対応する有色ピクセルと、前記最終のイメージ中の対応ピクセルの間の色強度の違いが大きいピクセルに、高い移動見込みを割り当てて、
前記背景マップ中の対応する有色ピクセルと、前記最終のイメージ中の対応ピクセルの間の色強度の違いが小さいピクセルに、低い移動見込みを割り当てて、
もしそのピクセルがマスクされたエリアに位置した場合に、このようにしてピクセルに割り当てられた移動の見込みを減少させ、求められた前記移動見込みマップを前記メモリに格納するステップ(d)と、
前記ステップ(d)で求められた前記移動見込みマップにて、各ピクセルの内で関連した範囲が、十分高い移動見込みと関連しているかどうかを判定することで、前記移動見込みマップにフィルタ処理を行い、求められたフィルタ処理後移動見込みマップを前記メモリに格納するステップ(e)と、
前記移動マップを求めるため、前回のステップで判定された前記フィルタ処理後移動見込みマップの各関連範囲に対して、所定の移動方向基準に基づいて、この関連範囲が物体の移動の存在と一致するかどうかを決定するステップ(f)を有することを特徴とする請求項1または2に記載の物体移動の移動検出方法。 Wherein step (a ') is further performed by said arithmetic unit,
When the color intensity difference between corresponding pixels in the selected in the transformed image is sufficiently small at any time, the pixels in said background map corresponding to them, assigning a valid color intensity value close to the average color intensity value of the corresponding pixel it is said to determine the background map by calculating the color intensity difference between corresponding pixels of at least two said transformed image selected from a plurality transformed image obtained in step (a), the each pixel the effective color intensity value is assigned to the step (b) constituting the colored pixels,
Storing said obtained in step (a), of said transformed image in which a plurality of continuous, performs area masking operations on the end of said transformed image (22), the area masking data obtained in said memory (C),
Step at a plurality of said converted image obtained (a), the last of the transformed image, the background maps obtained in the step (b), corresponding area masking said obtained in step (c) data, on the basis of the movement likelihood map the mobile likelihood value corresponding is associated with each pixel for colored pixels in the background map,
Wherein the corresponding colored pixel in a background map, the pixel difference is large in color intensity between the corresponding pixels in the final image, assigning a high mobility likelihood,
Wherein the corresponding colored pixel in a background map, the pixel difference is small in color intensity between the corresponding pixels in the final image, assign the low mobility expected,
If if the pixel is located in an area masked, and storing this manner reduces the likelihood of a mobile assigned to pixels, the movement likelihood maps obtained in the memory (d),
In said mobile likelihood maps obtained in step (d), range associated within each pixel, by determining whether associated with sufficiently high mobility expected, the filtering processing on the moving prospective map performed, and step (e) for storing the filtering after the movement likelihood maps obtained in the memory,
To determine the moving map, for each relevant range of the after filtering movement estimated map is determined in the previous step, based on a predetermined moving direction reference, the relevant range is consistent with the presence of movement of the object The method for detecting movement of an object movement according to claim 1 or 2, further comprising the step (f) of determining whether or not.
ゼロ異動見込みを、前記基準面に対応するものとして検出されたピクセルに対応する前記移動見込みマップの中の各ピクセルに割り当てをする割り当てステップとを有する請求項2乃至5のいずれか一項に記載の物体移動の検出方法。 Detection method for the object moving further following steps performed using the computing device, i.e. from the last image of the plurality of said converted image obtained in the step (a), in the memory based on the stored the reference surface data, a detection step of detecting a pixel corresponding to a portion of the reference surface,
Zero change expected, according to any one of claims 2 to 5 having an assignment step of the allocation to the mobile prospects each pixel in the map corresponding to the detected pixel as corresponding to the reference plane Detection method of object movement.
最終の前記変換イメージ以前に送信されたイメージ内で、前記基準面の一部に対応するピクセルを検出する前記検出ステップと、
前記高い移動見込みを、ノンゼロ移動見込みを有し以前の前記変換イメージ内で前記基準面に属するものとして検出された前記移動見込みマップ内の各ピクセルに割り当てる割り当てステップを有することを特徴とする請求項6に記載の物体移動の検出方法。 Method for detecting the object movement is further executed by the computing device,
Last wherein in converting the transmitted image to the previous image of said detection step of detecting a pixel corresponding to a portion of the reference surface,
Claims, characterized in that it has an allocation step of allocating the high mobility expected to each pixel in said detected movement expected map as belonging to the reference plane in a previous said transformed image having a non-zero movement prospect 6. The object movement detection method according to 6.
前記基準面に対して移動可能で、前記基準面に関連する基本空間的基準枠内の位置を定義するデータを送信可能である位置センサ(4)を備えるマウント(2)と、
前記マウントに取り付けられ、風景(6)イメージを撮像可能であり、前記マウントに対する所定の姿勢パラメータと、所定内的キャリブレーションパラメータを有する撮像イメージを送信可能なカメラ(1)と、
前記基準面の一部の形状と位置に関する基準面データと、前記位置センサによって送信されたマウントポジションデータと、前記カメラによって送信されたイメージデータと、前記マウントと内部カメラキャリブレーションパラメータに関するカメラ姿勢パラメータデータと、外部環境から送信された風景内で検出された静止物体に関する静止物体データを受信可能な演算装置(5)とを有し、
前記演算装置は基本基準枠に関する前記カメラの前記姿勢パラメータを算出可能であり、受信イメージデータの処理可能であり、受信・算出データを格納可能であるメモリを有し、格納データを送信可能である検出装置において、
前記演算装置は 、複数対応変換イメージを取得するために、前記基準面の一部に関し、前記メモリに格納された基準面データ、対応する前記カメラの姿勢、キャリブレーションパラメータを用いて、前記カメラより受信した複数の連続する風景のイメージ(21)の逆透視マッピングの実行を行い(a)、
各検出静止物体(10)に対し、前記メモリに格納された前記静止物体データと対応カメラ姿勢パラメータに基づいて、前記静止物体によって前記カメラに対してマスクされる対応変換イメージエリア(12)を決定し、このエリアのマスクする工程を実行し(a')、
前記ステップ(a)でもとめられた変換イメージの対応ピクセル間の色強度の変化の算出に基づき、決定された各マスクエリアを考慮し、各ピクセルが、前記基準面の部分に対する物体の移動が存在することに関連するピクセルによって構成される移動マップ(26)を算出し、前記移動マップを前記メモリ内に格納することを有することを特徴とする物体移動の検出装置。 An apparatus for detecting the movement of an object in a landscape (6) having a part of a reference plane,
Movable relative to the reference plane, a mount comprising a position sensor which is capable of transmitting data defining the location of the basic spatial reference frame associated with the reference surface (4) (2),
Attached to said mount, landscape (6) is capable of capturing an image, and a predetermined posture parameters for the mount, the camera (1) capable of transmitting an imaging image with predetermined intraosseously calibration parameters,
The reference surface data for some shape and position of the reference surface, and mounting position data transmitted by the position sensor, the image data transmitted by the camera, the camera attitude parameters relating to the mount and the camera calibration parameters Data and a computing device (5) capable of receiving stationary object data relating to a stationary object detected in a landscape transmitted from an external environment,
The arithmetic device is capable calculating the orientation parameters of the Basic Camera reference frame, it is possible the processing of the received image data, a memory can store the received and calculated data can be transmitted stored data In the detection device,
The arithmetic unit, to obtain a plurality corresponding transformed image relates portion of the reference surface, the memory stored reference plane data, the attitude of the corresponding camera, by using a calibration parameter, from the camera Performing reverse perspective mapping of a plurality of consecutive landscape images (21) received (a) ,
For each detected stationary object (10), based on the corresponding camera posture parameter and the stationary object data stored in the memory, determines the corresponding transformed image area (12) to be masked relative to the camera by the stationary object And perform a masking process for this area (a ′) ,
Based on the calculation of the change in color intensity between the corresponding pixels of the transformed image that is stopped even step (a), considering each mask area determined, each pixel, there is movement of the object relative to the portion of the reference plane detecting device of an object movement calculates the moving map (26) configured by the associated pixel to, and having storing said moving map in the memory.
前記カメラに対してマスクされた各エリアを考慮し、ピクセルに関連付けされた移動見込みは、前記ステップ(a)で求められた最終の前記変換イメージ内の対応ピクセルの色強度値が高ければ、選択された前記変換イメージ内の対応ピクセルの色強度値と相違し、
各ピクセルは、関連する移動の見込みに依存する移動に関連していると判断される前記移動見込みマップ内のピクセルに対応するステップを有することを特徴とする請求項8に記載の物体移動の検出装置。 The arithmetic apparatus further the likelihood value movement is taking place, said the association step (a) the pixels in said transformed image selected from the transformed image obtained in establishing the movement likelihood map, for that pixel has a color intensity value corresponding pixels hardly vary image in the transmission image that was selected from among the obtained at step (a) image,
The consideration of each area masked with respect to the camera, movement expected that are associated with the pixel, the higher the color intensity value of a corresponding pixel in the transformed image of the last of the obtained in step (a) is selected been different from the color intensity values of the corresponding pixels in said transformed image,
9. Object movement detection according to claim 8 , wherein each pixel has a step corresponding to a pixel in the movement likelihood map that is determined to be associated with movement depending on the associated movement likelihood. apparatus.
前記ステップ(a)で求められた、複数の連続する前記変換イメージのうちの、最後の前記変換イメージ(22)上でエリアマスキングオペレーションを行い、求められたエリアマスキングデータを前記メモリに格納するステップ(c)と、
前記ステップ(a)にて求められた複数の前記変換イメージ内の、最後の前記変換イメージ、前記ステップ(b)にて求められた前記背景マップ、前記ステップ(c)で求められた対応エリアマスキングデータ、移動見込み値が前記背景マップ内の有色ピクセルに対する各ピクセルに関連付けされた対応する移動見込みマップに基づいて、
前記背景マップ中の対応する有色ピクセルと、前記最終のイメージ中の対応ピクセルの間の色強度の違いが大きいピクセルに、高い移動見込みを割り当てて、
前記背景マップ中の対応する有色ピクセルと、前記最終のイメージ中の対応ピクセルの間の色強度の違いが小さいピクセルに、低い移動見込みを割り当てて、
もしそのピクセルがマスクされたエリアに位置した場合に、このようにしてピクセルに割り当てられた移動の見込みを減少させ、求められた前記移動見込みマップを前記メモリに格納するステップ(d)と、
前記ステップ(d)で求められた前記移動見込みマップにて、各ピクセルの内で関連した範囲が、十分高い移動見込みと関連しているかどうかを判定することで、前記移動見込みマップにフィルタ処理を行い、求められたフィルタ処理後移動見込みマップを前記メモリに格納するステップ(e)と、
前記移動マップを求めるため、前回のステップで判定された前記フィルタ処理後移動見込みマップの各関連範囲に対して、所定の移動方向基準に基づいて、この関連範囲が物体の移動の存在と一致するかどうかを決定するステップ(f)を実行することを特徴とする請求項8に記載の物体移動の検出装置。 The computing device further whenever the color intensity difference between the corresponding pixel in the selected the transformed image is sufficiently small, the pixels in the background map corresponding to them, close to the average color intensity value of the corresponding pixel by assigning a valid color intensity value, wherein by calculating the color intensity difference between corresponding pixels of at least two said transformed image selected from the plurality the transformed image obtained in step (a) (B) determining a background map, each pixel assigned its effective color intensity value constituting a colored pixel;
Storing said obtained in step (a), of said transformed image in which a plurality of continuous, performs area masking operations on the end of said transformed image (22), the area masking data obtained in said memory (C),
Step at a plurality of said converted image obtained (a), the last of the transformed image, the background maps obtained in the step (b), corresponding area masking said obtained in step (c) data, based on the movement likelihood map mobile likelihood value corresponding is associated with each pixel for colored pixels in the background map,
Wherein the corresponding colored pixel in a background map, the pixel difference is large in color intensity between the corresponding pixels in the final image, assigning a high mobility likelihood,
Wherein the corresponding colored pixel in a background map, the pixel difference is small in color intensity between the corresponding pixels in the final image, assign the low mobility expected,
If if the pixel is located in an area masked, and storing this manner reduces the likelihood of a mobile assigned to pixels, the movement likelihood maps obtained in the memory (d),
In said mobile likelihood maps obtained in step (d), range associated within each pixel, by determining whether associated with sufficiently high mobility expected, the filtering processing on the moving prospective map performed, and step (e) for storing the filtering after the movement likelihood maps obtained in the memory,
To determine the moving map, for each relevant range of the after filtering movement estimated map is determined in the previous step, based on a predetermined moving direction reference, the relevant range is consistent with the presence of movement of the object 9. The object movement detection device according to claim 8, wherein the step (f) of determining whether or not is performed.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0602808 | 2006-03-31 | ||
FR0602808A FR2899363B1 (en) | 2006-03-31 | 2006-03-31 | METHOD AND DEVICE FOR DETECTING THE MOVEMENT OF OBJECTS ON IMAGES OF A SCENE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007280387A JP2007280387A (en) | 2007-10-25 |
JP4967758B2 true JP4967758B2 (en) | 2012-07-04 |
Family
ID=38508738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007091836A Active JP4967758B2 (en) | 2006-03-31 | 2007-03-30 | Object movement detection method and detection apparatus |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4967758B2 (en) |
FR (1) | FR2899363B1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103448652B (en) * | 2012-06-04 | 2016-06-15 | 宏达国际电子股份有限公司 | Moving car alarm method and electronic installation thereof |
DE102015108759A1 (en) * | 2015-06-03 | 2016-12-08 | Valeo Schalter Und Sensoren Gmbh | Method for classifying a longitudinally extended stationary object in a lateral surrounding area of a motor vehicle, driver assistance system and motor vehicle |
CN113614735A (en) * | 2019-02-01 | 2021-11-05 | 西门子股份公司 | Dense 6-DoF gesture object detector |
CN111301328A (en) * | 2020-02-24 | 2020-06-19 | 南京理工大学 | 3D vision technology-based panoramic car backing image system for truck and use method |
CN111144388B (en) * | 2020-04-03 | 2020-07-14 | 速度时空信息科技股份有限公司 | Monocular image-based road sign line updating method |
US11885638B2 (en) * | 2020-12-28 | 2024-01-30 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for generating a map for a robot |
CN113436273A (en) * | 2021-06-28 | 2021-09-24 | 南京冲浪智行科技有限公司 | 3D scene calibration method, calibration device and calibration application thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0991439A (en) * | 1995-09-26 | 1997-04-04 | Fuji Electric Co Ltd | Object monitor |
US6535114B1 (en) * | 2000-03-22 | 2003-03-18 | Toyota Jidosha Kabushiki Kaisha | Method and apparatus for environment recognition |
WO2005038710A1 (en) * | 2003-10-17 | 2005-04-28 | Matsushita Electric Industrial Co., Ltd. | Mobile unit motion calculating method, apparatus and navigation system |
-
2006
- 2006-03-31 FR FR0602808A patent/FR2899363B1/en not_active Expired - Fee Related
-
2007
- 2007-03-30 JP JP2007091836A patent/JP4967758B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
FR2899363A1 (en) | 2007-10-05 |
JP2007280387A (en) | 2007-10-25 |
FR2899363B1 (en) | 2009-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112292711B (en) | Associating LIDAR data and image data | |
JP3895238B2 (en) | Obstacle detection apparatus and method | |
US8406472B2 (en) | Method and system for processing image data | |
US9330320B2 (en) | Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus | |
JP5297078B2 (en) | Method for detecting moving object in blind spot of vehicle, and blind spot detection device | |
JP4899424B2 (en) | Object detection device | |
JP4612635B2 (en) | Moving object detection using computer vision adaptable to low illumination depth | |
EP2757524B1 (en) | Depth sensing method and system for autonomous vehicles | |
US20130286205A1 (en) | Approaching object detection device and method for detecting approaching objects | |
JP4967758B2 (en) | Object movement detection method and detection apparatus | |
EP3594902B1 (en) | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle | |
JP2009176087A (en) | Vehicle environment recognizing system | |
JP4872769B2 (en) | Road surface discrimination device and road surface discrimination method | |
CN111971682A (en) | Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method | |
JP4344860B2 (en) | Road plan area and obstacle detection method using stereo image | |
EP3555854B1 (en) | A method of tracking objects in a scene | |
JP4106163B2 (en) | Obstacle detection apparatus and method | |
JP2021092996A (en) | Measurement system, vehicle, measurement method, measurement device and measurement program | |
JP2015001966A (en) | Object detection device | |
CN116635919A (en) | Object tracking device and object tracking method | |
Goyat et al. | Tracking of vehicle trajectory by combining a camera and a laser rangefinder | |
CN117152210B (en) | Image dynamic tracking method and related device based on dynamic observation field angle | |
WO2021215199A1 (en) | Information processing device, image capturing system, information processing method, and computer program | |
CN111043977B (en) | Method for determining a relative parameter of a first vehicle with respect to a second vehicle | |
JP4055785B2 (en) | Moving object height detection method and apparatus, and object shape determination method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110823 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120306 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120319 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4967758 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |