JP2007218922A - Image measuring device - Google Patents
Image measuring device Download PDFInfo
- Publication number
- JP2007218922A JP2007218922A JP2007081913A JP2007081913A JP2007218922A JP 2007218922 A JP2007218922 A JP 2007218922A JP 2007081913 A JP2007081913 A JP 2007081913A JP 2007081913 A JP2007081913 A JP 2007081913A JP 2007218922 A JP2007218922 A JP 2007218922A
- Authority
- JP
- Japan
- Prior art keywords
- image
- search
- data block
- feature pattern
- search area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
異なるカメラ位置から,三次元計測をする際の前段階の標定作業の自動化ならびに、ステレオマッチングの初期値を自動的に取得し、三次元計測の自動化を行う技術に関する。 The present invention relates to a technique for automating three-dimensional measurement by automating a pre-stage orientation work when performing three-dimensional measurement from different camera positions and automatically acquiring an initial value of stereo matching.
地上写真測量において、三次元計測を行う場合、図1に示す流れで計測が行われる。すなわち、対象物のステレオ撮影(a)→位置検出(b)→標定(c)→ステレオモデル形成(d)→三次元計測(e)の処理が必要である。これらの処理はコンヒ゜ュータによる演算が中心であるが、その中で、位置検出(b)及び三次元計測(e)は従来から人手を介して行われている。位置検出(b)は、撮影するカメラの位置や傾き等を求める標定の前処理である。 When performing three-dimensional measurement in ground photogrammetry, measurement is performed according to the flow shown in FIG. That is, it is necessary to perform stereo imaging (a) → position detection (b) → location (c) → stereo model formation (d) → three-dimensional measurement (e) of an object. These processes are mainly performed by a computer. Among them, position detection (b) and three-dimensional measurement (e) are conventionally performed manually. The position detection (b) is a pre-processing for orientation that obtains the position and tilt of the camera to be photographed.
標定(c)でカメラ間と測定対象物の位置関係を求めることにより、立体視可能なステレオモデルを形成することができ、三次元計測が可能となる。標定(c)を行うための位置検出(b)の処理は,異なるカメラに写し込まれている対応する6点以上のそれぞれのカメラ上における座標位置を求める作業である。 By obtaining the positional relationship between the camera and the measurement object by the orientation (c), a stereo model that can be stereoscopically viewed can be formed, and three-dimensional measurement can be performed. The process of position detection (b) for performing orientation (c) is an operation for obtaining coordinate positions on each of the corresponding six or more points captured in different cameras.
三次元計測(e)には、ポイント計測と面計測の2種類がある。 There are two types of three-dimensional measurement (e): point measurement and surface measurement.
ポイント計測の場合、対象物上の計測点を人手を介してマニュアルで計測しているが、自動化を画ったり精度を向上するためには、対象物にマークを貼る作業を行っている。 In the case of point measurement, the measurement points on the object are manually measured through human hands, but in order to achieve automation and improve accuracy, work is performed to mark the object.
面計測の場合、画像処理によるステレオマッチングという手法を利用して自動で行う。その際に、テンプレート画像の決定や探索幅の設定等の初期設定は、人手を介して行う必要があった。 In the case of surface measurement, it is automatically performed using a technique called stereo matching by image processing. At that time, initial settings such as determination of a template image and setting of a search width have to be performed manually.
位置検出(b)の作業は、作業者が撮影された左右画像の対象物上の6点以上の計測点を選択し、各画像を観察しながら対象物上の計測点の対応付け及び座標位置検出を行うものである。ところが、これらの作業は基本的に立体視をしながら行う必要があるため熟練を要し,かつ煩雑,困難,難解であった。 The position detection (b) is performed by selecting six or more measurement points on the object in the left and right images taken by the operator, and linking the measurement points on the object and coordinate positions while observing each image. The detection is performed. However, these operations need to be performed while stereoscopically viewing, and thus require skill, and are complicated, difficult, and difficult.
特に、計測点を決めて左右画像を対応付け、詳細な位置座標を検出する作業は、個人差が生じ易く結果が各人各様で十分な精度が得難かった。また、人によっては計測不能となることも多々あった。このような不具合を回避するために、対象物にマークを貼る等の処理を行う場合もある。 In particular, the task of determining measurement points, associating left and right images, and detecting detailed position coordinates is likely to cause individual differences, and it is difficult to obtain sufficient accuracy for each person. In addition, some people could not measure. In order to avoid such a problem, processing such as attaching a mark to an object may be performed.
しかし、対象物自体にマークを貼るといった作業が増えることはマイナスであり、更に対象物によっては容易にマークを貼ることができないものもあるため、この手法は余り普及していない。 However, the increase in the work of attaching a mark to the object itself is a minus, and since there are some objects that cannot be easily attached with a mark, this method is not so popular.
他方、ステレオ運台上に2台のカメラを強固に固定することにより,標定作業を行わずに三次元計測をするという手法もある。 On the other hand, there is also a technique in which two cameras are firmly fixed on a stereo carriage and three-dimensional measurement is performed without performing an orientation work.
しかし、その場合には、運台上の2台のカメラの位置関係が絶対にくるってはならず、測定環境や測定対象物が大幅に限定されてしまう。同時に、そのような装置は大きく重く持ち運び困難であり、かつ高価となるために、この手法による三次元計測法も余り普及していない。 However, in that case, the positional relationship between the two cameras on the carriage must never come, and the measurement environment and measurement object are greatly limited. At the same time, such a device is large, heavy, difficult to carry, and expensive, so that the three-dimensional measurement method by this method is not very popular.
また、三次元計測(e)のポイント計測において、測定対象物にマーク等を貼らない場合には、作業者が撮影された画像上を観察しながら計測点を指示して計測する必要があった。このため、測定点が多いと手間や時間がかかっていた。また、精度良く計測しようとするとどうしても個人差が生じ易く、計測不能といった事態も生じていた。 Further, in the point measurement of the three-dimensional measurement (e), when a mark or the like is not pasted on the measurement object, it is necessary for the operator to instruct and measure the measurement point while observing the photographed image. . For this reason, when there were many measurement points, it took time and effort. In addition, when trying to measure with high accuracy, individual differences are inevitably caused and there is a situation where measurement is impossible.
対象物にマークを貼って計測すれば上記事態を避けることができるが、その場合には、前述のようにマークを貼るための手間が新たに生じ、対象物によってはマークを貼ることが難しかったり計測不能になることもあった。 The above situation can be avoided if the mark is attached to the object and measured, but in that case, as described above, a new time and effort is required to attach the mark, and it may be difficult to attach the mark depending on the object. Sometimes it was impossible to measure.
面計測の場合は、前処理としてステレオマッチングによる自動計測を行う際のテンプレート画像の決定や、最適な探索幅の決定等を人手により行う必要があった。更に、ミスマッチング点等があった場合は人手を介して修正を行う必要があり、結局自動化することが難しかった。 In the case of surface measurement, it is necessary to manually determine a template image when performing automatic measurement by stereo matching as a preprocessing, and determine an optimal search width. Furthermore, if there is a mismatching point or the like, it is necessary to correct it manually, which makes it difficult to automate after all.
本発明は、このような従来技術の問題点に鑑み、標定作業から測定までを効率良くかつ高精度で行え、測定対象物を選ばず持ち運び可能であって簡便な構成の画像測定装置を提供することを目的としている。 SUMMARY OF THE INVENTION In view of the problems of the prior art, the present invention provides an image measuring apparatus having a simple configuration that can be carried out efficiently and with high accuracy from the orientation work to the measurement, can be carried regardless of the measurement object. The purpose is that.
本発明の解決手段を例示すると、特許請求の範囲の各請求項に記載のとおりである。 Examples of the solution of the present invention are as described in the claims.
本発明によれば、測定対象物を異なる方向から撮影した一対の画像からそれぞれの画像中での測定対象物の位置関係を概略求め、一対の画像中、一方の画像を基準画像、他方の画像を捜索画像と定め、前記概略位置測定部で求めた位置関係に基づいて基準画像に基準データブロックを設定し、捜索画像に捜索領域を設けその捜索領域中に捜索データブロックを設定し、その捜索領域中に設定される捜索データブロックと基準データブロックとの対応関係を求めるに当たって、概略の位置関係に基づいて、基準画像への基準データブロックの設定、捜索画像への捜索領域の設定及び捜索データブロックの設定の少なくとも一つを行うように構成することにより、対応関係を正確に求めることができる。 According to the present invention, the positional relationship of the measurement object in each image is roughly determined from a pair of images obtained by photographing the measurement object from different directions, and one image is the reference image and the other image is the pair of images. Is determined as a search image, a reference data block is set in the reference image based on the positional relationship obtained by the approximate position measurement unit, a search area is set in the search image, a search data block is set in the search area, and the search is performed. In determining the correspondence between the search data block set in the area and the reference data block, the reference data block is set in the reference image, the search area is set in the search image, and the search data based on the approximate positional relationship. By configuring so that at least one of the block settings is performed, the correspondence can be accurately obtained.
本発明の画像測定装置は、測定対象物を異なる方向から撮影した一対の画像からそれぞれの画像中での測定対象物の位置関係を概略求める概略位置測定部と、一対の画像中、一方の画像を基準画像、他方の画像を捜索画像と定め、前記概略位置測定部で求めた位置関係に基づいて基準画像に基準データブロックを設定し、捜索画像に捜索領域を設けその捜索領域中に捜索データブロックを設定するデータ設定部と、その捜索領域中に設定される捜索データブロックと基準データブロックとの対応関係を求める対応判別部とを備え、前記データ設定部は、前記概略位置測定部で求めた位置関係に基づいて、基準画像への基準データブロックの設定、捜索画像への捜索領域の設定及び捜索データブロックの設定の少なくとも一つを行うように構成したことを特徴としている。 The image measurement apparatus of the present invention includes a rough position measurement unit that roughly obtains a positional relationship of a measurement object in each image from a pair of images obtained by photographing the measurement object from different directions, and one image in the pair of images. Is set as a reference image, the other image is set as a search image, a reference data block is set in the reference image based on the positional relationship obtained by the approximate position measurement unit, a search area is provided in the search image, and search data is set in the search area. A data setting unit for setting a block; and a correspondence determining unit for obtaining a correspondence relationship between a search data block set in the search region and a reference data block, and the data setting unit is obtained by the approximate position measurement unit. Configured to perform at least one of the setting of the reference data block to the reference image, the setting of the search area to the search image and the setting of the search data block based on the determined positional relationship It is characterized in that was.
上記一対の画像中には、あらかじめ位置関係がわかっている特徴パターン像が含まれており、前記概略位置測定部は、基準画像中の特徴パターン像の位置及びその捜索画像中の特徴パターン像の位置関係に基づき、一対の画像のそれぞれの画像中での測定対象物の位置関係を概略求めるように構成することができる。 The pair of images includes a feature pattern image whose positional relationship is known in advance, and the approximate position measurement unit includes the position of the feature pattern image in the reference image and the feature pattern image in the search image. Based on the positional relationship, the positional relationship of the measurement object in each of the pair of images can be roughly determined.
前記データ設定部は、捜索画像中の特徴パターン像の位置に基づいて、前記捜索画像に捜索領域の範囲を設定するように構成することができる。 The data setting unit can be configured to set a search area range in the search image based on the position of the feature pattern image in the search image.
前記データ設定部は、捜索画像中の特徴パターン像の位置及び捜索領域の位置と、又は基準画像中の特徴パターン像の位置及び基準データブロック位置との位置関係に基づいて、捜索画像に捜索領域の範囲を設定するように構成することが可能である。 The data setting unit includes a search area in the search image based on a positional relationship between the position of the feature pattern image and the position of the search area in the search image, or the position of the feature pattern image in the reference image and the position of the reference data block. It is possible to configure so as to set the range.
前記データ設定部は、捜索画像中の特徴パターン像の位置及び捜索領域の位置と、又は基準画像中の特徴パターン像の位置及び基準データブロック位置との位置関係に基づいて、捜索画像に捜索領域の範囲の大きさを設定するように構成できる。 The data setting unit includes a search area in the search image based on a positional relationship between the position of the feature pattern image and the position of the search area in the search image, or the position of the feature pattern image in the reference image and the position of the reference data block. Can be configured to set the size of the range.
前記データ設定部は、捜索画像中の特徴パターン像及び捜索領域と、又は基準画像中の特徴パターン像及び基準データブロックとが離れるにつれて捜索画像の捜索領域の範囲の幅又は面積を大きく設定するように構成できる。 The data setting unit is configured to increase the width or area of the search area range of the search image as the feature pattern image and search area in the search image are separated from the feature pattern image and reference data block in the reference image. Can be configured.
前記データ設定部は、異なる大きさの複数の捜索領域を設定するように構成できる。 The data setting unit may be configured to set a plurality of search areas having different sizes.
前記データ設定部は、基準画像中の特徴パターン像の位置に基づいて、基準画像に基準データブロックを設定するように構成できる。 The data setting unit can be configured to set a reference data block in the reference image based on the position of the feature pattern image in the reference image.
前記データ設定部は、基準画像中の特徴パターン像の位置及び基準データブロック位置とに基づいて、基準画像に基準データブロックの大きさを設定するように構成できる。 The data setting unit can be configured to set the size of the reference data block in the reference image based on the position of the feature pattern image in the reference image and the reference data block position.
前記データ設定部は、基準画像中の特徴パターン像の位置及び基準データブロック位置とが離れるにつれて、基準画像に基準データブロックの高さ又は幅を大きく設定するように構成できる。 The data setting unit can be configured to increase the height or width of the reference data block in the reference image as the position of the feature pattern image in the reference image and the reference data block position are separated.
前記データ設定部は、基準画像中の特徴パターン像に基づき異なる大きさの複数の基準データブロックを設定するように構成できる。 The data setting unit can be configured to set a plurality of reference data blocks having different sizes based on a feature pattern image in the reference image.
まず、図17を参照して、本発明による画像測定装置の概要を説明する。 First, the outline of the image measuring apparatus according to the present invention will be described with reference to FIG.
画像測定装置30は概略位置測定部31、データ設定部32、対応判別部33を備えている。
The
概略位置測定部31は、予め位置関係が分っている特徴パターン像を用いて、測定対象物を異なる方向から撮影した一対の画像からそれぞれの画像中での測定対象物の位置関係を概略求める構成になっている。
The approximate
データ設定部32は、一対の画像の一方を基準画像、他方を捜索画像と定め、概略位置測定部31で求めた位置関係に基づいて、基準画像に基準データブロックを設定し、捜索画像に捜索領域を設定する構成になっている。
The
対応判別部33は、捜索領域中に設定された捜索データブロックと基準データブロックとの対応関係を求める構成になっている。
The
この画像測定装置30を利用することにより、以下で詳細に説明する三次元計測の自動化を画り、計測の精度を向上することができる。
By using this
以下、本発明の画像測定装置を利用した形状測定装置について詳細に説明する。 Hereinafter, a shape measuring apparatus using the image measuring apparatus of the present invention will be described in detail.
図1は形状測定装置における計測の流れを示しており、図2はその構成を概念的に示すブロック図である。 FIG. 1 shows a flow of measurement in the shape measuring apparatus, and FIG. 2 is a block diagram conceptually showing the configuration.
a.対象物のステレオ撮影
まず、コントローラ4からの指示によって特徴パターン投影部3から測定対象物0に特徴パターンをあてる。そして、測定対象物0の画像を左右画像撮影部1及び2により撮影し、特徴パターン抽出部5に画像データを転送する。
a. Stereo shooting of an object First, a feature pattern is applied to the measurement object 0 from the feature
左右画像撮影部1及び2は、図3に示すように、光学系11、CCD12、CCDドライバ13、オペアンプ14、A/D変換器15等から構成される。
As shown in FIG. 3, the left and right
図5と図6は、特徴パターンの例を示している。これらの特徴パターン20は円形で構成されているが、特徴パターン投影によるマーク像の位置が求められるものであれば、円形以外のどんな形状のものでも良い。
5 and 6 show examples of feature patterns. These
特徴パターン投影部3は、スライドプロジェクターやレーザポインタ等、特徴パターン20を投影できるものなら何でもよい。
The feature
図4は、特徴パターン抽出部5の詳細なブロック図である。
FIG. 4 is a detailed block diagram of the feature
左右画像撮影部1及び2により転送される画像データは、図3のA/D変換器15によりデジタルデータに変換され、特徴パターン抽出部5の特徴パターン投影用画像メモリ51に転送される。
Image data transferred by the left and right
次に,コントローラ4からの指示により、特徴パターン投影を停止し、左右画像撮影部1及び2により特徴パターンなしの画像を撮影し、特徴パターン抽出部5の特徴パターンなし用画像メモリ52にデジタル画像データを転送する。
Next, in response to an instruction from the controller 4, the feature pattern projection is stopped, the left and right
特徴パターン投影用画像メモリ51と特徴パターンなし用画像メモリ52に画像転送が終わったら、コントローラ4の指示により、画像差分演算器53を通して二つの画像を差分する。そして、差分画像を、特徴パターン画像メモリ54に取り込む。
When the image transfer to the feature pattern
この結果、特徴パターン画像メモリ54内のデータは、測定対象物0の画像情報が消去されたもの、すなわち特徴パターン20に関する情報(マーク像のデータ)のみとなる。
As a result, the data in the feature
b.位置検出
標定処理を行うために,特徴パターン投影によるマーク像の位置検出を行う。
b. In order to perform the position detection orientation processing, the position of the mark image is detected by the feature pattern projection.
特徴パターン位置検出部55により、特徴パターン画像メモリ54内の特徴パターン座標位置を検出する。
The feature pattern
特徴パターン20は、その位置が明確にわかるものであればどんな形状のものでも良いが、ここでは図5や図6のような特徴パターン20を仮定する。また、特徴パターンは図5や図6のように6点以上あれば,何点でもかまわない。
The
特徴パターン画像メモリ54には特徴パターン投影によるマーク像以外の情報は含まれていないため、誤検出をなくすことができる。更に、自動で位置検出を行うことが容易になるので、常に安定した位置座標検出を個人差なく高精度で行うことができる。
Since the feature
ここでは、点の概略位置検出にテンプレートマッチング法を用い、詳細位置検出にモーメント法を用いる場合を説明する。 Here, a case will be described in which the template matching method is used for the approximate position detection of points and the moment method is used for detailed position detection.
テンプレートマッチング法については相関法の一種である残差逐次検定法(SSDA法)を説明するが、正規化相関法等を使用しても良い。また、詳細位置検出にはモーメント法でなくLOGフィルタ法等を用いても良い。 As the template matching method, a residual sequential test method (SSDA method), which is a kind of correlation method, will be described, but a normalized correlation method or the like may be used. For detailed position detection, the LOG filter method or the like may be used instead of the moment method.
以下、位置検出処理について説明する。 Hereinafter, the position detection process will be described.
(概略位置検出)
1.テンプレート画像を登録する。
(Rough position detection)
1. Register the template image.
テンプレート画像は、図5や図6の投影特徴パターン20の一つのマークと似たようなシミュレーション画像を作成しても良い、あるいは、実際の画像をどれか選んで用いても良い。
As the template image, a simulation image similar to one mark of the
2.S>R(a,b)となる点を画像全体で探索する(数式1参照)。 2. A point where S> R (a, b) is searched in the entire image (see Equation 1).
R(a,b)が0に近いほど類似度が高い。Sは適当な値を前持って決めておく。この場合、特徴パターン以外の画像情報は消去されているため容易に決定できる。テンプレートマッチングには正規化相関法等を用いても良いが、残差逐次検定法を使用すれば、処理をさらに高速化できる。 The closer R (a, b) is to 0, the higher the degree of similarity. S is determined in advance with an appropriate value. In this case, since image information other than the feature pattern has been erased, it can be easily determined. A normalized correlation method or the like may be used for template matching, but the processing can be further speeded up by using a residual sequential test method.
[残差逐次検定法(SSDA法)]
SSDA法の原理図を図7に、式を数式1に示す。
[Residual sequential test (SSDA method)]
The principle diagram of the SSDA method is shown in FIG.
残差R(a,b)が最小になる点が求めるマークの位置である。
式の加算において、R(a,b)の値が過去の残差の最小値を越えたら加算を打ち切り、次の(a,b)に移るよう計算処理を行うことにより、処理の高速化をはかることができる。 In the addition of the expression, if the value of R (a, b) exceeds the past residual minimum value, the addition is aborted, and the calculation process is performed to move to the next (a, b), thereby speeding up the processing. Can measure.
3.R(a,b)最小かつ隣接するマーク位置の間隔等の条件により、投影特徴パターンのマーク位置をマーク数分決定し、位置座標とする。 3. R (a, b) The mark position of the projection feature pattern is determined by the number of marks according to conditions such as the minimum and the interval between adjacent mark positions, and set as position coordinates.
(詳細位置決定)
1.探索領域決定
前述の(概略位置検出)によって決まった点に対し、そこを中心とした探索領域を設定する。
(Detailed position determination)
1. Search region determination For the point determined by the above-described (approximate position detection), a search region centered on the point is set.
2.マーク領域の決定
探索領域について、濃度値がしきい値以上の領域を一つのマークとする(図8参照)。
2. Determination of Mark Area For the search area, an area having a density value equal to or higher than a threshold is set as one mark (see FIG. 8).
しきい値は、ある適当な値を予め決めておく。画像は、マーク以外は差分処理を施しているため殆ど0となっている。 As the threshold value, an appropriate value is determined in advance. The image is almost 0 because the difference processing is applied except for the mark.
3.重心位置算出
モーメント法を行い、重心位置座標を算出する。
3. Center of gravity position calculation The moment method is used to calculate the center of gravity position coordinates.
[モーメント法]
図8に示されている通り、しきい値T以上の点について(マークK)、以下の式を施す。
As shown in FIG. 8, the following equation is applied to points that are equal to or higher than the threshold value T (mark K).
この数式2及び数式3によって、サブピクセル位置まで重心位置が算出可能となる。
The center of gravity position can be calculated up to the sub-pixel position by
4.点数分だけ1〜3を行う。 4). Perform steps 1-3 for the number of points.
以上で、図5あるいは図6のような特徴パターン投影によるマーク像の位置座標を算出することができる。 Thus, the position coordinates of the mark image by the feature pattern projection as shown in FIG. 5 or FIG. 6 can be calculated.
概略位置検出を行わずに、最初から詳細位置検出を行っても良く、また、他のアルゴリズムによって位置検出しても構わない。 Detailed position detection may be performed from the beginning without performing approximate position detection, or position detection may be performed by another algorithm.
いずれにしても,画像は特徴パターン情報のみなので、高速かつ、高精度に位置を算出することが可能である。 In any case, since the image has only feature pattern information, the position can be calculated at high speed and with high accuracy.
c.標定
次に,特徴パターン位置検出部55で求めた座標値を姿勢算出部6に送り、標定計算を行う。
c. Orientation Next, the coordinate values obtained by the feature pattern
この計算により、左右それぞれのカメラの位置等が求めるられる。 By this calculation, the positions of the left and right cameras are obtained.
次の共面条件式により、それらのパラメータを求める。
モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ1、Y軸の回転角φ1、右側のカメラのZ軸の回転角κ2、Y軸の回転角φ2、X軸の回転角ω2の5つの回転角となる。この場合、左側のカメラのX軸の回転角ω1は0なので、考慮する必要ない。 The origin of the model coordinate system is taken as the left projection center, and the line connecting the right projection centers is taken as the X axis. For the scale, the base line length is taken as the unit length. The parameters to be obtained at this time are 5 of the left camera Z-axis rotation angle κ1, the Y-axis rotation angle φ1, the right-hand camera Z-axis rotation angle κ2, the Y-axis rotation angle φ2, and the X-axis rotation angle ω2. One rotation angle. In this case, the X-axis rotation angle ω1 of the left camera is 0, so it is not necessary to consider.
このような条件にすると、数式4の共面条件式は数式5のようになり、この式を解けば各パラメータが求まる。
ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式が成り立つ。
これらの数式を用いて、次の手順により、未知パラメータを求める。 Using these formulas, the unknown parameters are obtained by the following procedure.
1.初期近似値は通常0とする。 1. The initial approximate value is usually 0.
2.共面条件式5を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数式6、7により求め、観測方程式をたてる。
2. The coplanar
3.最小二乗法をあてはめ、近似値に対する補正量を求める。 3. The least square method is applied to obtain a correction amount for the approximate value.
4.近似値を補正する。 4). Correct approximate values.
5.補正された近似値を用いて、上記2.〜5.までの操作を収束するまで繰り返す。 5. Using the corrected approximate value, the above 2. ~ 5. Repeat until the operation is converged.
仮に、どこかのマークが対象物の形状等で、うまく位置検出されていない場合には、収束しない場合がありうる。その場合は、1点1点削除して、上記1〜5までを行い、収束したもの、あるいは、一番良いもののパラメータを使用する。
If some mark is in the shape of the object and the position is not detected well, it may not converge. In that case, one point is deleted and the
d.ステレオモデル形成
次に、標定により求められたパラメータにより、立体視可能なステレオモデル座標系へ画像を変換し、ステレオモデルを形成する。
d. Stereo model formation Next, an image is converted into a stereo model coordinate system that can be viewed stereoscopically according to parameters determined by orientation, and a stereo model is formed.
モデル座標への変換式は以下のようになる。
このようにして、三次元計測が可能な状態となる。 In this way, three-dimensional measurement is possible.
e.三次元計測
(1)ポイント計測
図6のような6点以上の特徴パターン20を使用し、複数のマークを位置検出(b)と同様な処理をすることにより、その三次元座標を自動で高精度に求められる。
e. Three-dimensional measurement (1) Point measurement Using six or
(2)面計測
図6のような投影特徴パターン20を使用することにより、ステレオマッチングの初期値とすることが可能となる。
(2) Surface Measurement By using the
面計測の場合の初期値の決めかたについて説明する。 How to determine the initial value in the case of surface measurement will be described.
図9と図10は説明図であり、図6のような投影特徴パターンのうちの一部について抜き出したものである。図9は基準とする基準画像、図10は探索を行う捜索画像である。これら基準・捜索画像は、左右どちらの画像でもよい。例えば、左画像を基準画像、右画像を捜索画像と決める。 FIG. 9 and FIG. 10 are explanatory diagrams, and a part of the projection feature pattern as shown in FIG. 6 is extracted. FIG. 9 shows a reference image as a reference, and FIG. 10 shows a search image for searching. These reference / search images may be either left or right images. For example, the left image is determined as the reference image, and the right image is determined as the search image.
投影特徴パターンは基準画像S’1、S’2、S’5、S’6に対し捜索画像上ではS1、S2、S5、S6が対応している。 The projected feature patterns correspond to the reference images S'1, S'2, S'5, and S'6 on the search image with S1, S2, S5, and S6.
対応点探索は、基準画像中の基準データブロックをテンプレート画像として、捜索画像中の捜索領域にステレオマッチングを施すことにより行う。ステレオマッチングには画像相関処理等を使用する。 The corresponding point search is performed by performing stereo matching on the search area in the search image using the reference data block in the reference image as a template image. Image correlation processing or the like is used for stereo matching.
[捜索領域の決定]
投影特徴パターンをもとに、捜索領域を決定する方法について説明する。
[Determination of search area]
A method for determining the search area based on the projection feature pattern will be described.
投影特徴パターンS1〜S2(水平方向)を幅A、S1〜S5(垂直方向)を幅Bとし、S1,S2、S5,S6で囲まれた部分を捜索領域R1とする。以下同様にS2,S3、S6,S7で囲まれた部分を捜索領域R2、…と順次それぞれの投影特徴パターンで囲まれた部分を捜索領域として決定する。 The projection feature patterns S1 to S2 (horizontal direction) are defined as a width A, S1 to S5 (vertical direction) as a width B, and a portion surrounded by S1, S2, S5, and S6 is defined as a search region R1. Similarly, the portion surrounded by S2, S3, S6, and S7 is determined as the search region R2,.
実際の投影特徴パターンによるマーク像は、それぞれ図11に示されるように、対象物の形状やCCDの向きによって同一ライン上にあるとは限らない。そこで、各投影特徴パターンの4点から最大のA、Bの幅が得られるような四角形を作成し、捜索領域とする。例えば図11では、S1,S2,S5,S6でとりうる最大の幅は水平方向A1,垂直方向B1となり、これで作成した四角形の領域を捜索領域R1、同様に、S2,S3,S6,S7でとりうる最大幅A2,B2で作成される四角形を捜索領域R2とする。このようにすると、多少オーバーラップする領域ができるが、R1、R2領域の境界も確実に探索が可能となる。 As shown in FIG. 11, mark images based on actual projection feature patterns are not always on the same line depending on the shape of the object and the orientation of the CCD. Therefore, a quadrilateral that can obtain the maximum A and B widths from the four points of each projection feature pattern is created and used as a search area. For example, in FIG. 11, the maximum widths that can be taken by S1, S2, S5, and S6 are the horizontal direction A1 and the vertical direction B1, and the rectangular area created by this is the search area R1, and similarly S2, S3, S6, and S7. The search area R2 is a quadrilateral created with the maximum widths A2 and B2 that can be taken. In this way, there are some overlapping areas, but the boundary between the R1 and R2 areas can be reliably searched.
これは、既に求めた捜索画像中のマーク像の位置に基づいて、捜索画像に捜索領域の範囲を決定するものである。 This is to determine the range of the search area in the search image based on the position of the mark image in the search image that has already been obtained.
図12はこの捜索領域決定の変形例である。 FIG. 12 shows a modification of the search area determination.
例えば、それぞれの投影特徴パターンは、左右画像上ですでに対応点として求められているので、捜索領域の捜索開始位置と終了位置を投影点近隣の領域とすると効率がよい。すなわち、図11の例だと、垂直方向にS1からS5まで捜索幅A1づつ探索を進めていくと、S5のライン周辺に近づくにつれ、無駄な探索領域(明らかに対応点が存在しない領域)がでる。 For example, since each projection feature pattern has already been obtained as a corresponding point on the left and right images, it is efficient to set the search start position and end position of the search area as areas near the projection point. That is, in the example of FIG. 11, when the search is advanced by S1 to S5 in the vertical direction by the search width A1, as the vicinity of the line of S5 is approached, a useless search region (a region where no corresponding point clearly exists) is obtained. Out.
そこで、図12のS1〜S5間(垂直方向)の1/2のD1までは、S1と同一の水平方向の点を捜索領域の開始点とし、D1〜S5間ではD1とS5を結んだ線上を水平方向の捜索開始点にとる。 Therefore, until D1 which is 1/2 of S1 to S5 in FIG. 12 (vertical direction), the same horizontal point as S1 is set as the start point of the search area, and D1 and S5 are connected on the line connecting D1 and S5. To the horizontal search start point.
このような処理を各投影点につき捜索領域として設定し、捜索領域を多少オーバーラップさせながらステレオマッチングを行えば、ある程度効率のよい探索が可能となる。 If such a process is set as a search area for each projection point, and stereo matching is performed while the search areas are somewhat overlapped, a somewhat efficient search can be performed.
図13、図14は、捜索領域中の捜索データブロックを設定することにより、さらに捜索領域の探索を効率化したものである。 FIG. 13 and FIG. 14 further improve the efficiency of search of the search area by setting the search data block in the search area.
たとえば、捜索画像中のマークS1〜S2のA1の区間において、図9で示される基準画像上の基準データブロックT1、T2、T3…、それぞれに対応する捜索領域上の位置を求めるとき、それぞれの捜索データブロックを図13で示されるように、U1、U2、U3、…、と何ブロックかにわけて設定する。このようにすれば、捜索領域探索における時間を短かくし効率的に探索できる。この場合、捜索データブロックの範囲は、基準データブロックをいくつにとるかで決定できる。例えば基準画像S’1〜S’2のA’間でn個基準データブロックを設定するとすれば、A1/n、あるいはA1/(n−1)等とすれば良い。(n−1)としたのは、多少捜索データブロックをオーバーラップさせて探索を行う場合である。 For example, when the positions on the search area corresponding to the reference data blocks T1, T2, T3... On the reference image shown in FIG. 9 in the section A1 of the marks S1 to S2 in the search image, As shown in FIG. 13, the search data block is divided into several blocks such as U1, U2, U3,. In this way, it is possible to shorten the search area search time and efficiently search. In this case, the range of the search data block can be determined by how many reference data blocks are taken. For example, if n reference data blocks are set between A ′ of the reference images S′1 to S′2, A1 / n or A1 / (n−1) may be set. (N-1) is the case where the search is performed by slightly overlapping the search data blocks.
これは、既に求めた捜索画像中のマーク像の位置及び捜索領域の位置に基づいて、捜索画像に捜索領域の範囲を設定するものである。見方を変えると基準画像中のマーク像の位置及び基準データブロック位置との位置関係に基づいて、捜索画像に捜索領域の範囲を設定するものともいえる。 This is to set the range of the search area in the search image based on the position of the mark image and the position of the search area already obtained. In other words, it can be said that the range of the search area is set in the search image based on the position of the mark image in the reference image and the positional relationship with the reference data block position.
図13の方式の変形例が図14に示されている。これは、捜索データブロックのサイズを可変としたものである。すなわち、マークS1、S2の近隣領域は、基準データブロックに対する対応点が近くにあることがわかっているので、捜索データブロックのサイズを小さく、離れるにしたがって対応点位置が不確かとなるため大きくするものである。従って、基準データブロックがA’/2の位置で最大の捜索データブロックサイズとなる。 A modification of the method of FIG. 13 is shown in FIG. This is a variable search data block size. That is, since it is known that the corresponding points with respect to the reference data block are close to each other in the vicinity of the marks S1 and S2, the size of the search data block is reduced and the corresponding point position becomes uncertain as the distance increases. It is. Accordingly, the reference data block has the maximum search data block size at the position A ′ / 2.
これら捜索データブロックのサイズは、S1〜S2の捜索領域A1より決定する。 The size of these search data blocks is determined from the search area A1 of S1 to S2.
例えば、nをA’間の基準データブロック数とすれば、
・S1〜S1+A1/2の区間の捜索データブロックサイズ:
(1+t×i/n)×A1/n、
・S1+A1/2〜S2の区間の捜索データブロックサイズ:
(1+t×(n−i)/n)×A1/n、
但し、iはそれぞれの基準データブロックに対応する捜索データブロックの位置、すなわちi=1〜nとする。また、tは倍率の定数で所定の値に設定する。例えばS1+A1/2の位置でS1の位置(U1)の捜索データブロックサイズの倍にしたければ2を選ぶ。
For example, if n is the number of reference data blocks between A ′,
・ Search data block size in the section of S1-S1 + A1 / 2:
(1 + t × i / n) × A1 / n,
-Search data block size in the section of S1 + A1 / 2 to S2:
(1 + t × (n−i) / n) × A1 / n,
However, i is the position of the search data block corresponding to each reference data block, i.e., i = 1 to n. T is a constant of magnification and is set to a predetermined value. For example, if you want to double the search data block size at the S1 position (U1) at the S1 + A1 / 2 position, select 2.
これら捜索データブロックサイズは、基準画像中のマークS’1、S’2及び基準データブロックT1,T2、…、に基づいて決定してもよい。その際は、上述のA1をA’とし、倍率A1/A’を加味した項を掛け合わせる。 These search data block sizes may be determined based on the marks S′1, S′2 and the reference data blocks T1, T2,... In the reference image. At that time, the above-mentioned A1 is set to A ', and the terms taking the magnification A1 / A' into consideration are multiplied.
このように、捜索領域及び捜索データブロックを設定することにより、対応点探索を効率よく、すなわち高速かつ信頼性を高めながら行うことが可能となる。 Thus, by setting the search area and the search data block, it is possible to perform the corresponding point search efficiently, that is, at high speed and with high reliability.
この方式では、捜索画像中のマーク像の位置及び捜索領域の位置との位置関係に基づいて、見方を変えれば基準画像中のマーク像の位置及び基準データブロック位置との位置関係に基づいて、捜索画像に捜索領域の範囲の大きさを設定している。 In this method, based on the positional relationship between the position of the mark image in the search image and the position of the search area, based on the positional relationship between the position of the mark image in the reference image and the position of the reference data block, if the view is changed, The size of the search area is set in the search image.
[基準データブロックの決定]
基準となる基準データブロックは、基準画像上のS’1、S’2、S’5、S’6、あるいは捜索画像上のS1、S2、S5、S6から決定する。例えば基準画像(図9)S’1〜S’2をA’、S’1〜S’5をB’とすれば、水平方向の基準データブロック幅はA’/n、垂直方向はB’/mのように決定できる。
[Determination of reference data block]
The reference data block serving as a reference is determined from S′1, S′2, S′5, S′6 on the reference image, or S1, S2, S5, S6 on the search image. For example, if the reference image (FIG. 9) S′1 to S′2 is A ′ and S′1 to S′5 is B ′, the horizontal reference data block width is A ′ / n, and the vertical direction is B ′. / M can be determined.
あるいは、左右画像の比率に比例した大きさにしてもよい。例えば、水平方向はA’/A*n、垂直方向は、B’/B*mのように設定する。 Alternatively, the size may be proportional to the ratio of the left and right images. For example, the horizontal direction is set to A '/ A * n, and the vertical direction is set to B' / B * m.
n、mは計測したい対象物の大きさと画素数の関係によって適切な大きさを求めることができるが、A’、B’の値によって適宜定数としても良い。 n and m can be determined as appropriate sizes depending on the relationship between the size of the object to be measured and the number of pixels, but may be set as appropriate constants depending on the values of A ′ and B ′.
図15は基準データブロックサイズを1種類でなく3種類として相関積をとりながら、上述の処理と同様にステレオマッチングしていく方法である。この場合も、この3種類のサイズをA’,B’の情報をもとに決定できる。 FIG. 15 shows a method of performing stereo matching in the same manner as in the above process while obtaining correlation products with three reference data block sizes instead of one. Also in this case, these three sizes can be determined based on the information of A ′ and B ′.
図16は、本発明の基準データブロック決定における更なる変形例である。S’1及びS’2近隣の領域は、基準・捜索画像上で比較的対応が取れているために基準データブロックは小さくてよいが、離れるにしたがって、対応位置が不確かとなるため基準データブロックサイズを動的に変化させる。たとえば、T1位置、T2位置、T3位置において図14のように基準データブロックを拡大していく。そして、基準データブロック位置がA’/2地点で最大の大きさとする。A’/2からS’2に向かっては、基準データブロックサイズを逆に順次小さくしていく。 FIG. 16 is a further modification in the determination of the reference data block of the present invention. The regions near S′1 and S′2 may be relatively small because the correspondence is relatively obtained on the reference / search image, but the correspondence position becomes uncertain as the distance increases, so the reference data block Change size dynamically. For example, the reference data block is expanded as shown in FIG. 14 at the T1, T2, and T3 positions. The reference data block position is set to the maximum size at the A '/ 2 point. On the contrary, the reference data block size is gradually reduced from A ′ / 2 to S′2.
このようにすることにより、ステレオマッチングの信頼性を高めることができる。 By doing in this way, the reliability of stereo matching can be improved.
これら基準データブロックサイズは、S’1〜S’2の水平方向の幅A’、S’1〜S’5の垂直方向の幅B’より決定する。 These reference data block sizes are determined from the horizontal width A ′ of S ′ 1 to S ′ 2 and the vertical width B ′ of S ′ 1 to S ′ 5.
例えば、n,mをA’、B’間の基準データブロック数とすれば、
・S’1〜S’1+A’/2の区間の基準データブロックサイズ:
水平方向:(1+t×i/n)×A’/n、
垂直方向:(1+t×l/m)×B’/m
・S’1+A’/2〜S’2の区間の基準データブロックサイズ
水平方向:(1+t×(n−i)/n)×A’/n、
垂直方向:(1+t×(m−i)/m)×B’/m
但し、i,lはそれぞれの基準データブロック位置、すなわちi=1〜n、l=1〜mとする。
For example, if n and m are the reference data block numbers between A ′ and B ′,
Reference data block size in the interval S′1 to S′1 + A ′ / 2:
Horizontal direction: (1 + t × i / n) × A ′ / n,
Vertical direction: (1 + t × l / m) × B ′ / m
Reference data block size in the section from S′1 + A ′ / 2 to S′2 Horizontal direction: (1 + t × (n−i) / n) × A ′ / n,
Vertical direction: (1 + t × (m−i) / m) × B ′ / m
However, i and l are the respective reference data block positions, i.e., i = 1 to n and l = 1 to m.
ここで、tは倍率の定数であり、所望の値に設定する。例えばS’1+A’/2の位置でS’1の位置(T1)の基準データブロックサイズの倍にしたければ2を選ぶ。 Here, t is a constant of magnification and is set to a desired value. For example, if it is desired to double the reference data block size at the position S′1 (T1) at the position S′1 + A ′ / 2, 2 is selected.
このようにすれば、基準データブロックを可変にできる。 In this way, the reference data block can be made variable.
また、図15のような3種類の基準データブロックを上述の例のように可変とし、相関積をとることにより、ステレオマッチングしていけば、更に信頼性の高い対応点探索が可能となる。 Further, if the three types of reference data blocks as shown in FIG. 15 are made variable as in the above-described example and the correlation product is taken, the corresponding points can be searched with higher reliability by performing stereo matching.
これら基準データブロックの決定は、捜索画像におけるマークS1,S2によって同様に行ってもよい。その際は、A’をA1、B’をB1として更に基準画像と捜索画像の倍率A’/A1を加味した項を掛け合わせる。 The determination of these reference data blocks may be similarly performed by using the marks S1 and S2 in the search image. In this case, A ′ is A1 and B ′ is B1, and the reference image is multiplied by a term that takes into account the magnification A ′ / A1 of the search image.
以上のようにすることによって、各初期値が自動で求められる。 By doing as described above, each initial value is automatically obtained.
次に、実際に行う計測(ステレオマッチング)の手順について説明する。 Next, the actual measurement (stereo matching) procedure will be described.
例として図6の投影特徴パターンS1〜S8の場合について、図9、11により説明する。 As an example, the case of the projection feature patterns S1 to S8 in FIG. 6 will be described with reference to FIGS.
垂直方向は標定処理が終了し、縦視差が除去されている(位置合わせしてある)ので、基準画像、捜索画像の同一ライン上を探索するだけで良い。また捜索データブロックを設定する際は、各捜索領域において上述のように適宜設定して行う。 In the vertical direction, since the orientation process has been completed and the vertical parallax has been removed (aligned), it is only necessary to search on the same line of the reference image and the search image. Further, when setting the search data block, the search data block is appropriately set as described above in each search area.
1.捜索画像のS1〜S2までの捜索領域R1の水平方向のラインL1の探索幅A1に対し、
基準画像中のT1、T2、T3、…の基準データブロックで順次対応点探索を行う。
1. For the search width A1 of the horizontal line L1 of the search area R1 from S1 to S2 of the search image,
The corresponding point search is sequentially performed on the reference data blocks T1, T2, T3,... In the reference image.
これら初期値は、先に述べたような方法で決定しておく。 These initial values are determined by the method described above.
捜索領域R1のラインL1上のA1が終了したら、
2.S2〜S3の捜索領域R2に対し、この領域で決められた基準データブロック位置からラインL1のA2上の対応点探索を順次繰り返す。
When A1 on the line L1 in the search area R1 ends,
2. For the search region R2 of S2 to S3, the corresponding point search on A2 of the line L1 is sequentially repeated from the reference data block position determined in this region.
3.次に、S3〜S4の捜索領域R3のラインL1のA3を対応点探索する。捜索領域R3に対しては、この領域で決められたテンプレートサイズ、位置で順次行う。 3. Next, a corresponding point search is performed on A3 of the line L1 in the search region R3 of S3 to S4. The search area R3 is sequentially performed with the template size and position determined in this area.
ラインL1の対応点探索が終了したら、次のラインL2に移動して、また、捜索領域R1の探索幅A1から、対応点探索を1〜3と同様に繰り返す。 When the corresponding point search of the line L1 is completed, the process moves to the next line L2, and the corresponding point search is repeated in the same manner as 1 to 3 from the search width A1 of the search region R1.
これを必要なライン数分繰り返す。 Repeat this for the required number of lines.
以上のようにすれば、投影特徴パターンの位置から、ステレオマッチングする際の初期値、すなわち、捜索領域、捜索データブロック、および基準データブロックを自動で決定し、自動計測が可能となる。 In this way, the initial values for stereo matching, that is, the search area, the search data block, and the reference data block are automatically determined from the position of the projection feature pattern, and automatic measurement can be performed.
さらに、基準・捜索画像の捜索領域と基準データブロックをA’、B’以内と限定できるため、通常のステレオマッチングよりはるかに高速な処理が可能となる。すなわち、通常は、各探索位置において1水平ライン分(図6、line)ステレオマッチングを行うのであるが、その処理時間が投影点の数により数分の1となる。 Furthermore, since the search area of the reference / search image and the reference data block can be limited to within A ′ and B ′, processing much faster than normal stereo matching is possible. That is, normally, stereo matching is performed for one horizontal line (FIG. 6, line) at each search position, but the processing time is a fraction of the number of projection points.
また、基準・捜索画像上の対応領域があらかじめ限定され求められているため、ミスマッチングが大幅に減少できる。すなわち、ステレオマッチングの信頼性を大幅に向上させることができる。 In addition, since the corresponding area on the reference / search image is limited and required in advance, mismatching can be greatly reduced. That is, the reliability of stereo matching can be greatly improved.
これに加えて、基準データブロックや捜索領域、捜索データブロックを投影点の位置情報により適切に決定できるので、更にステレオマッチングの信頼性が高められる。 In addition, since the reference data block, the search area, and the search data block can be appropriately determined based on the position information of the projection point, the reliability of stereo matching can be further improved.
また、基準データブロックや捜索データブロックをその探索位置により動的に可変可能となるので、信頼性がそれ以上に高められる。 Further, since the reference data block and the search data block can be dynamically changed according to the search position, the reliability is further increased.
そして、これらステレオマッチングは、投影特徴パターンのない画像上で行えるので特徴パターンによる誤検出が生じない。また、特徴パターンがない画像は画像データベースとしての価値が生じ,計測と同時に原画像の蓄積が行える。 And since these stereo matching can be performed on the image without a projection feature pattern, the false detection by a feature pattern does not arise. In addition, an image without a feature pattern has value as an image database, and an original image can be stored simultaneously with measurement.
さらに、前述の実施例によれば、特徴パターンを投影した画像と投影しない画像を使用するために、対象物に計測用のマークを貼るという作業が必要なくなり、マークの貼れないような対象物においても計測が可能になる。 Furthermore, according to the above-described embodiment, in order to use an image in which the feature pattern is projected and an image in which the feature pattern is not projected, an operation of attaching a measurement mark to the object is not necessary, and in an object in which the mark cannot be applied. Can also be measured.
このように、特徴パターンがある画像とない画像を差分することにより、特徴パターン情報のみの画像が作成できることから、特徴パターン位置検出〜標定〜ステレオモデル形成〜三次元計測までを、人手によらず自動で精度良く行うことが可能となる。すなわち、従来熟練を要し煩雑であった人手による標定作業と三次元計測作業をなくすことができ、すべてを自動で行って信頼性を向上することが可能となる。 In this way, since an image with only feature pattern information can be created by subtracting an image with and without a feature pattern, feature pattern position detection, orientation, stereo model formation, and three-dimensional measurement can be performed without human intervention. It is possible to perform automatically and accurately. That is, it is possible to eliminate the manual orientation work and the three-dimensional measurement work, which have conventionally required skill and are complicated, and it is possible to improve the reliability by performing everything automatically.
さらに,カメラをステレオ運台上に強固に固定する必要はなく、現場で2台のカメラをラフに設置して撮影するだけで、高精度な三次元計測が可能になるので、現場や対象物によらず簡便に計測可能であるという卓越した効果がある。 Furthermore, it is not necessary to fix the camera firmly on the stereo platform, and it is possible to perform high-precision 3D measurement simply by installing two cameras roughly at the site and taking pictures. Regardless of this, there is an excellent effect that it can be measured easily.
また,特徴パターンの点を増やすことにより,ステレオマッチングの初期値とすること、すなわち自動で探索幅、テンプレート画像の決定を行いステレオマッチングすることが可能となり、更にステレオマッチング時間の短縮と信頼性を大幅に向上させながら,対象物の表面形状を自動測定できるという卓越した効果がある。 In addition, by increasing the number of feature pattern points, it becomes possible to set the initial value of stereo matching, that is, to automatically determine the search width and template image and perform stereo matching, and further reduce the stereo matching time and reliability. It has the outstanding effect of being able to automatically measure the surface shape of the object while greatly improving it.
0 測定対象物
1,2 左右画像撮影部
3 パターン投影部
4 コントローラ
5 パターン抽出部
6 姿勢算出部
7 ステレオモデル形成部
8 形状測定部
9 テンプレートマッチング画像
10 形状測定装置
11 光学系
12 CCD
13 CCDドライバ
14 オペアンプ
15 A/D変換器
20 投影パターン
30 画像測定装置
31 概略位置測定部
32 データ設定部
33 対応判別部
51 パターン投影用画像メモリ
52 パターンなし用画像メモリ
53 画像差分演算部(器)
54 パターン画像メモリ
55 パターン位置検出部
DESCRIPTION OF SYMBOLS 0
DESCRIPTION OF
54
Claims (6)
一対の画像中、一方の画像を基準画像、他方の画像を捜索画像と定め、基準画像に基準データブロックを設定し、捜索画像に捜索領域を設け、その捜索領域中に捜索データブロックを設定するデータ設定部と、
その前記捜索領域中に設定される前記捜索データブロックと前記基準データブロックとの対応関係を、前記基準データブロックをテンプレート画像として、前記基準データブロックにステレオマッチングを施すことにより求める対応判別部とを備え、
前記データ設定部は、捜索画像への捜索領域の設定及び捜索データブロックの設定の少なくとも一つを前記概略位置測定部で検出したマーク像の位置に基づいて行うように構成した
ことを特徴とする画像測定装置。 The measurement object on which the feature pattern whose positional relationship is known is projected is photographed from different directions, and the positional relationship of the measurement object in each image is determined from the pair of photographed images. An approximate position measuring unit which is roughly determined by detecting the position of the mark image by
Among a pair of images, one image is defined as a reference image, the other image is defined as a search image, a reference data block is set in the reference image, a search area is provided in the search image, and a search data block is set in the search area A data setting section;
A correspondence discriminating unit for obtaining a correspondence relationship between the search data block and the reference data block set in the search area by performing stereo matching on the reference data block using the reference data block as a template image; Prepared,
The data setting unit is configured to perform at least one of setting a search area on a search image and setting a search data block based on a position of a mark image detected by the approximate position measurement unit. Image measuring device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007081913A JP4550081B2 (en) | 2007-03-27 | 2007-03-27 | Image measurement method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007081913A JP4550081B2 (en) | 2007-03-27 | 2007-03-27 | Image measurement method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14706697A Division JP4359939B2 (en) | 1997-05-22 | 1997-05-22 | Image measuring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007218922A true JP2007218922A (en) | 2007-08-30 |
JP4550081B2 JP4550081B2 (en) | 2010-09-22 |
Family
ID=38496345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007081913A Expired - Lifetime JP4550081B2 (en) | 2007-03-27 | 2007-03-27 | Image measurement method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4550081B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009069146A (en) * | 2007-09-10 | 2009-04-02 | Steinbichler Optotechnik Gmbh | Method and device for three dimensionally digitizing object |
WO2012144340A1 (en) * | 2011-04-20 | 2012-10-26 | 三洋電機株式会社 | Information acquisition device and object detection device |
WO2012147495A1 (en) * | 2011-04-28 | 2012-11-01 | 三洋電機株式会社 | Information acquisition device and object detection device |
WO2014069196A1 (en) * | 2012-10-29 | 2014-05-08 | 日立オートモティブシステムズ株式会社 | Stereo image processing device and stereo image processing method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59182689A (en) * | 1983-03-31 | 1984-10-17 | Toshiba Corp | Stereoscopic processor |
JPH047681A (en) * | 1990-04-25 | 1992-01-13 | Toshiba Corp | Picture processor |
JPH07152914A (en) * | 1993-11-26 | 1995-06-16 | Fuji Heavy Ind Ltd | Distance detecting device for vehicle |
JPH07334679A (en) * | 1994-06-13 | 1995-12-22 | Toshiba Corp | Area extracting device |
JPH08280026A (en) * | 1994-04-27 | 1996-10-22 | Matsushita Electric Ind Co Ltd | Method and device for estimating motion and depth |
JPH0942940A (en) * | 1995-08-03 | 1997-02-14 | Canon Inc | Shape measuring method and device for three-dimensional object |
JPH10318715A (en) * | 1997-05-22 | 1998-12-04 | Topcon Corp | Image measuring apparatus |
-
2007
- 2007-03-27 JP JP2007081913A patent/JP4550081B2/en not_active Expired - Lifetime
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59182689A (en) * | 1983-03-31 | 1984-10-17 | Toshiba Corp | Stereoscopic processor |
JPH047681A (en) * | 1990-04-25 | 1992-01-13 | Toshiba Corp | Picture processor |
JPH07152914A (en) * | 1993-11-26 | 1995-06-16 | Fuji Heavy Ind Ltd | Distance detecting device for vehicle |
JPH08280026A (en) * | 1994-04-27 | 1996-10-22 | Matsushita Electric Ind Co Ltd | Method and device for estimating motion and depth |
JPH07334679A (en) * | 1994-06-13 | 1995-12-22 | Toshiba Corp | Area extracting device |
JPH0942940A (en) * | 1995-08-03 | 1997-02-14 | Canon Inc | Shape measuring method and device for three-dimensional object |
JPH10318715A (en) * | 1997-05-22 | 1998-12-04 | Topcon Corp | Image measuring apparatus |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009069146A (en) * | 2007-09-10 | 2009-04-02 | Steinbichler Optotechnik Gmbh | Method and device for three dimensionally digitizing object |
WO2012144340A1 (en) * | 2011-04-20 | 2012-10-26 | 三洋電機株式会社 | Information acquisition device and object detection device |
WO2012147495A1 (en) * | 2011-04-28 | 2012-11-01 | 三洋電機株式会社 | Information acquisition device and object detection device |
JP5214062B1 (en) * | 2011-04-28 | 2013-06-19 | 三洋電機株式会社 | Information acquisition device and object detection device |
WO2014069196A1 (en) * | 2012-10-29 | 2014-05-08 | 日立オートモティブシステムズ株式会社 | Stereo image processing device and stereo image processing method |
JP2014089498A (en) * | 2012-10-29 | 2014-05-15 | Hitachi Automotive Systems Ltd | Stereo image processing apparatus and stereo image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP4550081B2 (en) | 2010-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10825198B2 (en) | 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images | |
JP5362189B2 (en) | Image processing apparatus and processing method thereof | |
JP4889351B2 (en) | Image processing apparatus and processing method thereof | |
JP5745178B2 (en) | Three-dimensional measurement method, apparatus and system, and image processing apparatus | |
Rashidi et al. | Generating absolute-scale point cloud data of built infrastructure scenes using a monocular camera setting | |
JP5715735B2 (en) | Three-dimensional measurement method, apparatus and system, and image processing apparatus | |
JP4234059B2 (en) | Camera calibration method and camera calibration apparatus | |
JP4979928B2 (en) | Three-dimensional shape calculation device and three-dimensional shape calculation method | |
CN110926330B (en) | Image processing apparatus, image processing method, and program | |
JP2014013147A5 (en) | ||
US11015930B2 (en) | Method for 2D picture based conglomeration in 3D surveying | |
JP2009150848A (en) | Image processing apparatus | |
JP6506032B2 (en) | Survey data processing apparatus, survey data processing method and program | |
JP2007212187A (en) | Stereo photogrammetry system, stereo photogrammetry method, and stereo photogrammetry program | |
JP2001126051A (en) | Device and method for presenting related information | |
JP4550081B2 (en) | Image measurement method | |
JP3842988B2 (en) | Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program | |
JP4359939B2 (en) | Image measuring device | |
JP2010283466A (en) | Stereo image photographing device, and method therefor | |
KR20220145752A (en) | Method and Device for Examining the Existence of 3D Objects Using Images | |
JP3696335B2 (en) | Method for associating each measurement point of multiple images | |
JP4006296B2 (en) | Displacement measuring method and displacement measuring apparatus by photogrammetry | |
JPH10318732A (en) | Shape measuring device and image formation apparatus of shape measurement | |
JP2003006618A (en) | Method and device for generating three-dimensional model and computer program | |
JP2008224323A (en) | Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081202 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100209 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100706 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100707 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130716 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |