JP2001022939A - Method and device for extracting three-dimensional information and recording medium with three- dimensional information extraction program recorded therein - Google Patents
Method and device for extracting three-dimensional information and recording medium with three- dimensional information extraction program recorded thereinInfo
- Publication number
- JP2001022939A JP2001022939A JP11197664A JP19766499A JP2001022939A JP 2001022939 A JP2001022939 A JP 2001022939A JP 11197664 A JP11197664 A JP 11197664A JP 19766499 A JP19766499 A JP 19766499A JP 2001022939 A JP2001022939 A JP 2001022939A
- Authority
- JP
- Japan
- Prior art keywords
- voxel
- information
- contour
- image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、撮影被写体の3次
元形状を抽出する3次元情報抽出方法および装置に関す
るものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for extracting three-dimensional information for extracting a three-dimensional shape of a photographing subject.
【0002】[0002]
【従来の技術】被写体の3次元座標を復元する技術とし
ては、従来、図10に示すように、回転台等を用いて同
一被写体を異なる視点から撮像した多数の2次元画像に
基づいて、画像上に現われた被写体の、エッジや境界領
域を表す特徴点へ向かって視点から直線を延ばし、被写
体が存在する3次元空間上を通過させることによって、
被写体の特徴点が存在する可能性のある3次元座標へ投
票(ボーティング)をする方法が知られている(図11
参照)。なお、同一被写体を異なる視点から撮像した複
数枚の2次元画像に基づいて、3次元空間上にある被写
体上の特徴点から視点に向かって延ばされた直線を「投
影線」といい、その投影線を通過させることを「投影」
という。反対に、画像上に現われた被写体の特徴点へ向
かって視点から延ばされた直線を「逆投影線」といい、
被写体が存在する3次元空間上に逆投影線を通過させる
ことを「逆投影」という。また、図11に示したよう
に、またボーティング法では、単位3次元空間である
「ボクセル」の集合として投票対象空間である「ボクセ
ル空間」を定義しており、通常逆投影線が各ボクセルを
通過する場合に、そのボクセルに対して投票操作を行っ
ている。ここで、「投票操作」とは、逆投影線が通過す
るボクセルの持つ関数値を1増加させることであり、こ
の関数は逆投影線の通過本数を表すことが多い。また、
投票操作を実行するために、撮影時のカメラパラメータ
(撮影位置および向き)は既知である必要がある。2. Description of the Related Art As a technique for restoring the three-dimensional coordinates of a subject, as shown in FIG. 10, an image based on a large number of two-dimensional images of the same subject taken from different viewpoints using a turntable or the like is conventionally known. By extending a straight line from the viewpoint to a feature point representing an edge or a boundary area of the object appearing above, and passing the object through the three-dimensional space where the object exists,
There is known a method of voting (voting) to three-dimensional coordinates where a feature point of a subject may exist (FIG. 11).
reference). Note that, based on a plurality of two-dimensional images obtained by imaging the same subject from different viewpoints, a straight line extending from a feature point on the subject in the three-dimensional space toward the viewpoint is referred to as a “projection line”. "Projection" means passing a projection line
That. Conversely, a straight line extended from the viewpoint toward the feature point of the subject appearing on the image is called a “back-projection line”,
Passing a backprojection line onto a three-dimensional space in which a subject exists is called “backprojection”. Also, as shown in FIG. 11, in the voting method, a “voxel space” that is a voting target space is defined as a set of “voxels” that are unit three-dimensional spaces. Is passed, the voting operation is performed on the voxel. Here, the "voting operation" is to increase the function value of the voxel through which the back projection line passes by 1, and this function often represents the number of back projection lines passing. Also,
In order to execute a voting operation, camera parameters (photographing position and direction) at the time of photographing need to be known.
【0003】3次元座標復元技術における従来手法とし
て、例えば、浜野らによる文献1「空間へのボーティン
グによる3次元環境情報抽出手法」(信学論(D−I
I)、J75−D−II、 pp.342−350、199
2−02)では、あらかじめ、3次元ボクセル空間上の
全てのボクセル位置に対して、投票数を記憶する記憶手
段を持ち、全ての撮影画像上の全特徴点から逆投影線を
延ばし、全てのボクセルの逆投影線の通過本数を投票数
として計測し、その後、3次元ボクセル空間上で投票数
が極大値であるボクセル位置を探し出し、投票数が極大
値であるボクセル位置を特徴点の3次元位置として抽出
している。しかし、この方法では、本来対応点ではない
特徴点からの逆投影線同士が通過するボクセルが極大値
を持つことがあり、その場合に誤った投票結果(誤投票
点)が得られるという問題がある。[0003] As a conventional method in the three-dimensional coordinate restoration technique, for example, reference 1 by Hamano et al., “A method of extracting three-dimensional environment information by voting into space” (Research in IEICE
I), J75-D-II, pp. 342-350,199
In 2-02), a storage means for storing the number of votes is previously provided for all voxel positions in the three-dimensional voxel space, and back projection lines are extended from all feature points on all captured images, and The number of voxel back-projected lines that pass is measured as the number of votes. Then, a voxel position where the number of votes is the maximum is searched for in the three-dimensional voxel space, and the voxel position where the number of votes is the maximum is the three-dimensional feature point. Extracted as position. However, this method has a problem that voxels through which backprojection lines from feature points that are not originally corresponding points pass have a local maximum value, and in that case, an incorrect voting result (erroneous voting point) is obtained. is there.
【0004】一方、川戸による文献2「空間への2段階
投票による3次元情報の抽出」(信学論(D−II)、J
77−D−II、 pp.2334−2341、1994−
12)では、投票操作を2回行うことにより誤投票点を
防ぐ方法も提案されている。この方法では、全ての逆投
影線が通過する全てのボクセル位置に対する通過本数計
測を、上記文献1の方法と同様に行った後、逆投影線上
には特徴点がひとつのみ存在することを利用した2回目
の通過本数計測によって、誤投票の抽出を抑制するよう
にしたものである。すなわち、文献2に方法では、3次
元ボクセル空間内の全てのボクセル位置について、投票
数を記憶する記憶手段を2つ用意し、全ての逆投影線に
対する投票操作を文献1での方法と同様に行い、その結
果として得られる投票数をk1 とし、各ボクセル毎にそ
の投票数k1 を記憶し、各画像上の特徴点からの逆投影
線を再度引き、その逆投影線上の各ボクセルに対応する
投票数k1 が最大であるボクセルの位置を探し、投票数
k1 が最大であるボクセルに対してのみ2度目の投票数
記憶手段の対応するボクセルに投票操作を行う。この最
大値検索と投票操作とを全ての逆投影線に対して行った
結果、各ボクセル位置に記憶されている投票数をk2 と
する。最後に、各ボクセルにおけるk2 を求め、その値
がある閾値以上であるものを抽出し、その位置を特徴点
の3次元座標として出力する。このようにすれば、1つ
の逆投影線上の各ボクセルに対応する投票数の最大値が
抽出され、したがって、文献2の方法では誤投票点の抽
出が抑えられることになる。また、本方法ではボクセル
空間を表現するためにオクトトリー型のデータ構造を採
用している。手法内では、まず物体領域を含む十分大き
なボクセルを用意しておき、そのボクセルに対して前出
の2回の投票操作を行い、投票結果が得られたボクセル
のみ8等分割し(図12参照)、再度2回の投票操作を
実行することを繰り返しながら必要な分解能まで2回の
投票操作、ボクセル分割を繰り返し実行するという手法
である。本構造を採用することにより、空間を構成する
ために必要な記憶手段および無駄なボクセルの探索の削
減を実現している。ボクセル分割は、1ボクセルに一本
の逆投影線が通過するようになるまで行う。On the other hand, Kawato's reference 2 "Extraction of three-dimensional information by two-stage voting into space" (IEICE (D-II), J
77-D-II, pp. 2334-2341, 1994
12) proposes a method of preventing erroneous voting points by performing a voting operation twice. In this method, the number of passages for all voxel positions through which all back projection lines pass is measured in the same manner as in the method of the above-mentioned document 1, and then the fact that only one feature point exists on the back projection line is used. The extraction of erroneous voting is suppressed by the second passage number measurement. That is, in the method of Reference 2, two storage means for storing the number of votes are prepared for all the voxel positions in the three-dimensional voxel space, and the voting operation for all back projection lines is performed in the same manner as in the method of Reference 1. And the resulting vote count is k 1 , the vote count k 1 is stored for each voxel, the backprojection line from the feature point on each image is drawn again, and each voxel on the backprojection line is drawn. locate the position of the voxel votes k 1 corresponding to the the maximum, to vote operation on the corresponding voxels of the second time of the number of votes storing means only for voxels votes k 1 is the largest. The maximum value search and voting operation and result of for all backprojection line, the number of votes stored in each voxel positions and k 2. Finally, k 2 in each voxel is obtained, those whose values are equal to or larger than a certain threshold value are extracted, and the positions are output as the three-dimensional coordinates of the feature points. In this way, the maximum value of the number of votes corresponding to each voxel on one back projection line is extracted, and therefore, the method of Document 2 suppresses the extraction of erroneous voting points. In addition, the present method employs an octree-type data structure to represent a voxel space. In the method, first, a sufficiently large voxel including the object region is prepared, the above-mentioned voting operation is performed on the voxel twice, and only the voxel for which the voting result is obtained is divided into eight equal parts (see FIG. 12). ), A method of repeatedly executing the voting operation twice and repeating the voxel division to a required resolution while repeatedly executing the voting operation twice. By adopting this structure, it is possible to reduce the storage means and the useless voxel search required for configuring the space. Voxel division is performed until one back projection line passes through one voxel.
【0005】一方、細谷らによる文献3「特徴点の3次
元情報抽出方法及び抽出装置」(特願平7−32299
4)では、ボクセル空間を2次元のボクセル平面の集合
として扱う手法も提案されている。この方法では、撮影
画像を基準画像と参照画像の2種類に分類し、基準画像
上の特徴点の逆投影線L1 が通過する各ボクセルに対し
参照画像上の特徴点の逆投影線L2 が通過する場合に投
票数を1増加させる操作を行っている。投票は、ボクセ
ル空間を基準画像に近いボクセル平面から遠い平面に向
かって順に追っていきながら行う。この際、ボクセル空
間内の全てのボクセルを情報として持つわけではなく、
画像上の特徴点数、すなわち逆投影線数だけ持つように
し、逆投影線がボクセル空間を通過する軌跡に沿って参
照画像からの投票操作を行い、無駄なハードウェア領域
の削減を実現している。また、投票時に、常に基準画像
からの逆投影線上で最も投票数が多いボクセルの位置を
記憶しておくことにより、ボクセル空間内の探索の繰り
返しを避け、高速化を実現している。しかし、この方法
においてもボクセル空間をあらかじめ定義しておくこと
が必要なことに変りはない。On the other hand, Hosoya et al., Reference 3, "Method and apparatus for extracting three-dimensional information of feature points" (Japanese Patent Application No. 7-32299).
4) proposes a method of treating a voxel space as a set of two-dimensional voxel planes. In this method, the captured image is classified into two types, a reference image and a reference image, and the back projection line L 2 of the feature point on the reference image is set for each voxel through which the back projection line L 1 of the feature point on the reference image passes. Is performed, the number of votes is increased by one. The voting is performed while sequentially following the voxel space from a voxel plane close to the reference image to a plane far from the voxel plane. At this time, not all voxels in the voxel space are stored as information,
The number of feature points on the image, that is, the number of backprojection lines, is set, and the voting operation from the reference image is performed along the trajectory where the backprojection lines pass through the voxel space, thereby reducing unnecessary hardware area. . Further, at the time of voting, the position of the voxel having the largest number of votes on the back-projected line from the reference image is always stored, thereby avoiding repetition of the search in the voxel space and achieving high speed. However, this method still requires that the voxel space be defined in advance.
【0006】[0006]
【発明が解決しようとする課題】以上述べたように、従
来の方法ではボクセル空間の位置および大きさを被写体
が含まれるような3次元空間上での位置、大きさに合わ
せてあらかじめ指定しておく必要がある。文献1では、
3次元ボクセル空間上における全てのボクセル位置に対
して投票数を記憶するものであり、全てのボクセル位置
に対して投票数を記憶する記憶手段を用意する必要があ
り、したがって、膨大な量の記憶手段が必要であるとい
う問題がある。また、誤投票点も避けられない。一方、
文献2の方法では、ボクセル空間をオクトトリー構造を
用いて表現することにより無駄な記憶領域が使用される
のを防いでいるが、ボクセル空間の位置、大きさの指定
があらかじめ必要なことに変りはなく、また、投票結果
が得られたボクセルに対して等分割していくため、その
度に2回の投票操作を繰り返し行う。そのため、文献1
の従来方法より少なくてすむものの、結果として被写体
領域全てにわたるボクセル情報を保持するための記憶手
段領域が必要となるという問題がある。文献3の方法で
は、基準画像からの逆投影線上に必ず投票数最大の投票
点が与えられるという手法で、基準画像近辺については
良好な投票結果が得られることが期待できる。しかし、
基準画像上では見えない部分については投票結果を得る
ことができない。また基準画像とボクセル平面がほぼ向
かい合っているような形になっている必要があり、基準
画像を変化させながら被写体の全周についての3次元情
報を抽出しようとすると、データ構造の持ち方が複雑に
なり、非常に困難である。As described above, in the conventional method, the position and the size of the voxel space are designated in advance according to the position and the size in the three-dimensional space including the subject. Need to be kept. In Reference 1,
This is to store the number of votes for all voxel positions in the three-dimensional voxel space, and it is necessary to prepare storage means for storing the number of votes for all voxel positions. There is a problem that means is required. In addition, false voting points are inevitable. on the other hand,
In the method of Reference 2, the voxel space is represented using an octree structure to prevent useless storage areas from being used. However, it is necessary to specify the position and size of the voxel space in advance. In addition, in order to equally divide the voxel for which the voting result is obtained, two voting operations are repeated each time. Therefore, Document 1
Although this method requires less than the conventional method, there is a problem that a storage means area for holding voxel information over the entire subject area is required as a result. In the method of Literature 3, it is expected that a good voting result can be obtained in the vicinity of the reference image by a method in which a voting point having the largest number of votes is always provided on a back projection line from the reference image. But,
A voting result cannot be obtained for a portion that cannot be seen on the reference image. In addition, it is necessary that the reference image and the voxel plane are almost opposed to each other. If the three-dimensional information on the entire circumference of the subject is to be extracted while changing the reference image, the data structure is complicated. Is very difficult.
【0007】また、従来の方法では、いずれも各画像の
特徴点座標を入力とし、各特徴点から3次元空間に向か
って逆投影線を延ばしていたため、各画像毎に抽出して
いる特徴点が対応しているという暗黙の了解が必要であ
り、特に視点が近い画像同士を使って投票を行うと、量
子化による誤差が投票ボクセルを大きく変えてしまい、
撮影位置が近い画像からの投票が行われないという欠点
があった。また、特徴点の色に関する情報を扱うことは
行っておらず、目的は座標の復元を行うのみであった。
さらに文献1および2の投票方法においては、全ての撮
影画像からの投票操作を行うため、被写体を180度回
転させた方向から見たような、明らかに見えない部分か
らの投票操作も行われており、前述の欠点と相互作用し
て、さらに誤投票点を導出してしまう原因ともなってい
た。Further, in the conventional methods, since the coordinates of the feature points of each image are input and the back projection line is extended from each feature point toward the three-dimensional space, the feature points extracted for each image are used. Implicit understanding is necessary, especially when voting using images with similar viewpoints, the error due to quantization greatly changes the voting voxel,
There is a drawback that voting is not performed from an image whose shooting position is close. In addition, information relating to the color of a feature point is not handled, and the only purpose is to restore coordinates.
Furthermore, in the voting methods of Literatures 1 and 2, a voting operation is performed from a part that is not clearly visible, such as when viewed from a direction in which the subject is rotated 180 degrees, in order to perform a voting operation from all captured images. In addition, it interacts with the above-mentioned drawbacks, and further derives erroneous voting points.
【0008】本発明の目的は、ボクセル空間を保持する
ための記憶手段がとる領域を削減することができ、ま
た、投票の高精度化を行い誤投票を抑制するとともに色
情報も抽出可能な3次元情報抽出方法、装置および3次
元情報抽出プログラムを記録した記録媒体を提供するこ
とである。An object of the present invention is to reduce the area taken by the storage means for holding the voxel space, and to improve the accuracy of voting to suppress false voting and to extract color information. An object of the present invention is to provide a method and an apparatus for extracting dimensional information and a recording medium on which a program for extracting 3D information is recorded.
【0009】[0009]
【課題を解決するための手段】本発明の3次元情報抽出
方法は、撮影画像のうちの被写体の全形を復元できるよ
うな方向から撮影した画像複数枚を輪郭画像として選択
し、輪郭画像上の被写体領域の輪郭線情報を用いてボク
セル空間情報を生成するボクセル空間生成段階と、前記
生成されたボクセル空間情報を記憶するボクセル空間記
憶段階と、前記複数の画像のうち所定数の画像を基準画
像、その近傍の画像を参照画像とし、その特徴点を通過
する単位3次元空間であるボクセルをボクセル空間内に
生成するボクセル生成段階と、生成されたボクセルおよ
びボクセルを生成するために使った、基準画像上の特徴
点の色情報Cを記憶するボクセル・色情報を記憶する段
階と、生成されたボクセルから各参照画像に向かって境
界線を延ばし、参照画像との交点の色情報と前記色情報
Cとの比較を行うボクセル情報比較段階と、前記両色情
報の差分が閾値以下の場合に、ボクセルを生成するため
に使った、基準画像上の特徴点の3次元座標および色情
報を抽出する3次元情報抽出段階を有する。According to the three-dimensional information extraction method of the present invention, a plurality of images taken from a direction which can restore the entire shape of a subject in a photographed image are selected as contour images, A voxel space generation step of generating voxel space information using contour line information of the subject region, a voxel space storage step of storing the generated voxel space information, and a reference to a predetermined number of images of the plurality of images. An image, a voxel generation unit that generates a voxel that is a unit three-dimensional space passing through the feature point in the voxel space as a reference image using an image in the vicinity thereof as a reference image, and used to generate the generated voxel and the voxel. A step of storing voxel / color information for storing color information C of feature points on the reference image, and extending a boundary line from the generated voxel toward each reference image, A voxel information comparison step of comparing the color information at the intersection with the image and the color information C; and a feature on the reference image used to generate the voxel when the difference between the two color information is equal to or less than a threshold value. There is a three-dimensional information extraction step for extracting three-dimensional coordinates and color information of the point.
【0010】まず、ボクセル空間生成段階について説明
する。撮影画像の中から、被写体の全形が見えるよう
に、複数枚の画像を輪郭画像として選択する。ここで
は、クロマキー処理を用いて、被写体領域を表す輪郭線
を抽出する。First, the step of generating a voxel space will be described. From the captured images, a plurality of images are selected as contour images so that the entire shape of the subject can be seen. Here, a contour line representing a subject area is extracted using chroma key processing.
【0011】今、選択した輪郭画像のうち一枚の基準輪
郭画像、その他を参照輪郭画像と定義する。定義した基
準輪郭画像上の輪郭線上の点f1 について3次元空間上
へ視点I1 から逆投影線Now, one of the selected contour images is defined as a reference contour image and the others are defined as reference contour images. Back projection line from viewpoint I 1 onto point f 1 on the contour line on the defined reference contour image on three-dimensional space
【0012】[0012]
【外1】 を延ばす(図7)。次に、参照輪郭画像のうち1枚を選
択し、逆投影線[Outside 1] (FIG. 7). Next, one of the reference contour images is selected, and the back projection line is selected.
【0013】[0013]
【外2】 と参照輪郭画像の視点I2 が作るエピポーラ面を計算す
る。次に、このエピポーラ面と参照輪郭画像との交線[Outside 2] Viewpoint I 2 of the reference outline image to calculate the epipolar plane makes with. Next, the line of intersection between this epipolar plane and the reference contour image
【0014】[0014]
【外3】 (エピポーラ線)と、参照輪郭画像上の輪郭線との交点
を求める。交点はエピポーラ線[Outside 3] The intersection between the (epipolar line) and the contour on the reference contour image is determined. Intersection is an epipolar line
【0015】[0015]
【外4】 を両端から内側に向かって順に見ていき、最初に輪郭線
とぶつかる画素の2点とする。この2点と視点I2 が通
る2直線と逆投影線[Outside 4] Are viewed in order from both ends to the inside, and are defined as two points of pixels that first come into contact with the contour line. Two straight lines and back projection lines that pass through these two points and viewpoint I 2
【0016】[0016]
【外5】 との2交点[Outside 5] 2 intersections with
【0017】[0017]
【外6】 を求めれば、線分[Outside 6] Is the line segment
【0018】[0018]
【外7】 が、輪郭線上の点f1 に対応する被写体上の点が存在す
る可能性のある範囲を示していると見なすことができ
る。同様の操作を他の全ての参照輪郭画像に対して適用
し、元の特徴点に最も遠い[Outside 7] Can be regarded as indicating a range in which a point on the subject corresponding to the point f 1 on the contour line may exist. Apply the same operation to all the other reference contour images, and move
【0019】[0019]
【外8】 と最も近い[Outside 8] And closest
【0020】[0020]
【外9】 を選択すれば、それがf1 に対応する被写体上の点が3
次元空間上で存在し得る範囲となる(図9)。以上の操
作を全輪郭画像上の輪郭線上の点に対して行えば、最終
的に全ての輪郭線上の逆投影線が交差して作る3次元の
凸包領域を作成することができる。これは、被写体を囲
む凸包領域に他ならず、必ず被写体の存在する3次元空
間領域を含んでおり、投票操作時のボクセル空間の外郭
として使用できる。[Outside 9] Is selected, the point on the subject corresponding to f 1 becomes 3
This is a range that can exist in the dimensional space (FIG. 9). If the above operation is performed on points on the contour line on the entire contour image, a three-dimensional convex hull region formed by intersecting back projection lines on all contour lines can be finally created. This includes a three-dimensional space region where the subject always exists, as well as a convex hull region surrounding the subject, and can be used as an outline of the voxel space at the time of voting operation.
【0021】次に、投票操作について説明する。ここで
は、全ての撮影画像の中から一枚を基準画像、複数枚を
参照画像として選択する。Next, the voting operation will be described. Here, one of the captured images is selected as a reference image, and a plurality of images are selected as reference images.
【0022】基準画像上の特徴点から上記の生成された
ボクセル空間の外郭内へ引いた逆投影線上にボクセルを
生成する。ここで特徴点の色をCとする。生成した各ボ
クセルの中心から各参照画像に向かって投影線を引き、
参照画像との交点の色とCを比較する。その差が閾値以
下の場合、そのボクセルに投票操作を行う。ここで、基
準画像からの逆投影線は、前出のボクセル空間領域内の
みに存在することから、結果として参照画像上の被写体
領域内のエピポーラ線上を探索して投票していることに
なる。このことにより、参照画像上の特徴点の位置に依
存せず、かつ無駄な探索を行わずに、高精度な投票操作
を行うことが可能となる。一本の逆投影線に対する投票
終了後に、ボクセルに対して閾値操作により元の特徴点
の3次元空間上での座標を決定する。ここで、閾値操作
とは、必要最低投票数等のような条件をいくつか与え
て、その条件を満たすボクセルを選択することである。A voxel is generated on a back projection line drawn from the feature point on the reference image into the outline of the generated voxel space. Here, the color of the feature point is C. Draw a projection line from the center of each generated voxel to each reference image,
The color at the intersection with the reference image is compared with C. If the difference is equal to or less than the threshold, a voting operation is performed on the voxel. Here, since the back projection line from the reference image exists only in the voxel space region described above, as a result, the voting is performed by searching on the epipolar line in the subject region on the reference image. As a result, a highly accurate voting operation can be performed without depending on the position of the feature point on the reference image and without performing useless search. After the voting for one back projection line is completed, the coordinates of the original feature point in the three-dimensional space are determined by performing a threshold operation on the voxel. Here, the threshold operation is to select a voxel that satisfies the conditions by giving some conditions such as the required minimum number of votes.
【0023】本発明では、投票原理を利用した特徴点の
3次元座標復元装置において、まず輪郭画像上の被写体
の輪郭線からボクセル空間の外郭情報を生成する。次
に、生成したボクセル空間情報を用いて、基準画像上の
特徴点毎に投票操作を行う。この際には、特徴点の逆投
影線上を通過するボクセルのみを生成するので、全ボク
セル情報を持つ必要はなく、ボクセル情報を保持するた
めの記憶領域を大幅に削減することが可能である。最後
に、投票を行ったボクセルの中から閾値操作により、元
の特徴点の3次元空間座標を決定する。According to the present invention, in a device for restoring three-dimensional coordinates of feature points using the voting principle, first, contour information of a voxel space is generated from a contour of a subject on a contour image. Next, a voting operation is performed for each feature point on the reference image using the generated voxel space information. In this case, since only the voxels passing on the back projection line of the feature point are generated, it is not necessary to have all the voxel information, and the storage area for holding the voxel information can be greatly reduced. Finally, the three-dimensional space coordinates of the original feature point are determined by a threshold operation from the voxels for which voting has been performed.
【0024】また、品質の点においても、最初に生成す
るボクセル空間の外郭が被写体の凸包領域となっている
ことから、投票操作時に被写体領域外の無駄な領域を探
索することを防ぐと同時に、凸包領域外への誤投票を抑
えることが可能となっている。また、従来の方法では、
近傍画像からの投票数の加算が困難であったが、本発明
では逆投影線上のボクセルから参照画像に向かって投影
線を延ばし、色情報を比較する、という投票操作を行う
ことにより、それを可能としている。In terms of quality, since the contour of the voxel space generated first is the convex hull area of the subject, it is possible to prevent a search for a useless area outside the subject area during the voting operation. In addition, erroneous voting outside the convex hull region can be suppressed. Also, in the conventional method,
Although it was difficult to add the number of votes from the neighboring images, in the present invention, by extending the projection line from the voxel on the back projection line toward the reference image and comparing the color information, the voting operation of It is possible.
【0025】以上の理由から、本発明では、処理に必要
な記憶手段を削減しつつ、かつ高品質、高精度な3次元
情報抽出結果を得ることが可能である。For the above reasons, according to the present invention, it is possible to obtain high-quality and high-precision three-dimensional information extraction results while reducing storage means required for processing.
【0026】[0026]
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。Next, embodiments of the present invention will be described with reference to the drawings.
【0027】図1を参照すると、本発明の一実施形態の
3次元情報抽出装置は、撮影画像、視点情報、特徴点情
報、輪郭線情報を入力し、上記撮影画像のうち被写体の
全形が復元できるような各方向から撮影した複数枚の画
像を輪郭画像として選択し、輪郭画像上の被写体領域の
輪郭線情報を用いてボクセル空間情報を生成し、ボクセ
ル空間情報を情報記憶部15に記憶するボクセル空間生
成部11と、上記複数枚の画像のうち所定数の画像を基
準画像、その近傍の画像を参照画像とし、基準画像上の
特徴点についてその特徴点を通過する単位3次元空間で
あるボクセルをボクセル空間内に生成し、ボクセルおよ
び元の特徴点(ボクセルを生成するために使った、基準
画像上の特徴点)の色情報Cを情報記憶部15に記憶す
るボクセル生成部12と、生成されたボクセルから各参
照画像に向けて投影線を延ばし、参照画像との交点の色
情報とCとの比較を行い、結果を情報記憶部15に記憶
するボクセル情報比較部13と、色情報と色情報Cの差
分が閾値以下である場合、元の特徴点の3次元座標およ
び色情報を抽出し、情報記憶部15に記憶する3次元情
報抽出部14で構成されている。Referring to FIG. 1, a three-dimensional information extracting apparatus according to an embodiment of the present invention inputs a photographed image, viewpoint information, feature point information, and contour line information, and the entire shape of a subject in the photographed image is determined. A plurality of images captured from each direction that can be restored are selected as contour images, voxel spatial information is generated using contour information of a subject area on the contour image, and the voxel spatial information is stored in the information storage unit 15. The voxel space generating unit 11 performs a predetermined three-dimensional image among the plurality of images as a reference image, and sets a nearby image as a reference image, and sets a feature point on the reference image in a unit three-dimensional space passing through the feature point. A voxel generation unit that generates a voxel in a voxel space and stores color information C of the voxel and original feature points (feature points on a reference image used to generate voxels) in an information storage unit 15. 2, a voxel information comparison unit 13 that extends a projection line from the generated voxel toward each reference image, compares the color information of the intersection with the reference image with C, and stores the result in the information storage unit 15. When the difference between the color information and the color information C is equal to or smaller than the threshold, the three-dimensional information extraction unit 14 extracts the three-dimensional coordinates and color information of the original feature point and stores the extracted three-dimensional coordinates and information in the information storage unit 15.
【0028】ここで、用語について説明する。Here, the terms will be explained.
【0029】・撮影画像 被写体を撮影した画像。A photographed image An image of a photographed object.
【0030】・視点情報 被写体を撮影した際の、カメラ位置および被写体を向い
た方向のこと。ここでは、カメラパラメータと同じ意味
に使っている。Viewpoint information The camera position and the direction toward the subject when the subject is photographed. Here, it is used in the same meaning as the camera parameter.
【0031】・特徴点情報 撮影画像上の、被写体のエッジや境界領域にある点の情
報。Characteristic point information Information on the edge of a subject or a point in a boundary area on a photographed image.
【0032】・輪郭線情報 撮影画像上の、被写体領域と背景領域の境界を表わす情
報。線上にある点の集合として表わされる。Contour information Information indicating a boundary between a subject area and a background area on a photographed image. It is represented as a set of points on a line.
【0033】・カメラパラメータ 被写体を撮影した際の、カメラ位置および被写体に対す
る向きのこと。ただし、本明細書では撮影時のカメラの
レンズ歪みが全くないもと仮定しており、そうでない場
合はそれをカメラパラメータに入れる必要がある。Camera parameters The camera position and orientation with respect to the subject when the subject is photographed. However, in this specification, it is assumed that there is no lens distortion of the camera at the time of shooting, and if not, it is necessary to include it in the camera parameters.
【0034】本実施形態では色情報の比較をRGB表記
を用いて考えている。本表記では、ひとつの画素のボク
セルの色をR(赤)値、G(緑)値、B(青)値の3原
色を用いて表わしている。画素とボクセルの色情報の比
較の際には、R値、G値、B値それぞれについて個別に
差分値を求め、3つ全ての差分値が、与えられた閾値よ
り小さい場合にボクセルへの投票を行う。In the present embodiment, comparison of color information is considered using RGB notation. In this notation, the color of a voxel of one pixel is represented using three primary colors of R (red) value, G (green) value, and B (blue) value. When comparing the color information of a pixel and a voxel, a difference value is individually obtained for each of the R value, the G value, and the B value, and when all three difference values are smaller than a given threshold, voting for the voxel is performed. I do.
【0035】第1の実施形態 本実施形態では基準画像と参照画像の組を1組選択し、
基準画像から見た3次元情報を抽出する。 First Embodiment In this embodiment, one set of a reference image and a reference image is selected.
The three-dimensional information viewed from the reference image is extracted.
【0036】次に、本実施形態の全体の処理の流れを図
2のフローチャートにより説明する。Next, the flow of the entire processing of this embodiment will be described with reference to the flowchart of FIG.
【0037】まず、基準輪郭画像と参照輪郭画像からボ
クセル空間外郭情報を生成する(ステップ21)。図3
はボクセル空間外郭情報の生成の詳細な処理を示すフロ
ーチャートである。輪郭画像のうち1枚を基準輪郭画像
として選択し、その他の画像を参照輪郭画像と定義す
る。全ての輪郭画像について、一度ずつ基準輪郭画像と
して以下の処理が終了した場合、全ての処理を終了する
(ステップ40、41)。First, voxel space outline information is generated from the reference outline image and the reference outline image (step 21). FIG.
9 is a flowchart showing a detailed process of generating voxel space outline information. One of the contour images is selected as a reference contour image, and the other images are defined as reference contour images. When the following processing is completed once for all the contour images as the reference contour image, all the processing is completed (steps 40 and 41).
【0038】次に、定義した基準輪郭画像上の、被写体
の輪郭線上の画素f1 について逆投影Next, back projection is performed on the pixel f 1 on the contour line of the subject on the defined reference contour image.
【0039】[0039]
【外10】 を表わす式を、視点I1 とf1 を通る直線として求める
(ステップ42〜44)。未処理の参照輪郭画像が存在
すれば、参照輪郭画像を選択し、逆投影線[Outside 10] The formulas representing, determined as a straight line passing through the viewpoint I 1 and f 1 (step 42-44). If there is an unprocessed reference contour image, select the reference contour image
【0040】[0040]
【外11】 と参照輪郭画像の視点I2 が作るエピポーラ面を計算す
る(ステップ45〜47)。次に、エピポーラ線[Outside 11] Viewpoint I 2 of the reference outline image to calculate the epipolar plane makes with (Step 45-47). Next, the epipolar line
【0041】[0041]
【外12】 を、このエピポーラ面と参照輪郭画像との交線として求
める(ステップ48)。次に、2交点[Outside 12] Is obtained as an intersection line between the epipolar plane and the reference contour image (step 48). Next, two intersections
【0042】[0042]
【外13】 を、エピポーラ線[Outside 13] The epipolar line
【0043】[0043]
【外14】 を両端から内側に向かって順に見ていき、最初に輪郭線
とぶつかる点の2交点として求める(ステップ49)。
次に、これら2点と、視点I2 を通る2直線と逆投影線[Outside 14] Are sequentially examined from both ends toward the inside, and are obtained as two intersections of a point where the outline first meets the contour (step 49).
Next, these two points, two straight lines passing through the viewpoint I 2 and a back projection line
【0044】[0044]
【外15】 との2交点[Outside 15] 2 intersections with
【0045】[0045]
【外16】 を求める(ステップ50)。他の参照輪郭画像に対して
も、同様の方法で線分[Outside 16] (Step 50). For other reference contour images, use the same method
【0046】[0046]
【外17】 を求めていき、基準輪郭画像から見て最も遠い点P1 と
最も近い点P2 をボクセル空間の外郭の一部として追
加、変更していく(ステップ51)。[Outside 17] The gradually determined, adding a closest point P 2 and the farthest point P 1 when viewed from the reference contour image as part of the outline of the voxel space, will change (step 51).
【0047】次に、図2に戻り、基準画像上に未処理の
特徴点が存在すれば、基準画像上の特徴点からボクセル
空間内へ逆投影線を引き、その上を通過する全ボクセル
を生成し、各ボクセルに元の特徴点の色をR値、G値、
B値の3値により与え、情報記憶部15に記憶する(ス
テップ24、25)。Next, returning to FIG. 2, if there is an unprocessed feature point on the reference image, a back projection line is drawn from the feature point on the reference image into the voxel space, and all voxels passing therethrough are extracted. Generate the color of the original feature point in each voxel with R value, G value,
The B value is given as three values and stored in the information storage unit 15 (steps 24 and 25).
【0048】次に、未処理の参照画像が存在すれば、参
照画像を選択し、生成されたボクセルの中心から各参照
画像に投影線を引き、投影線が通過する画素の色(R.
G.B値)とボクセルのそれとの差分が閾値以下であっ
た場合、そのボクセルに投票値1を加算する(ステップ
28、29)。未処理の参照画像が存在しなければ、次
の条件 ・最大投票数をとるボクセルが1つである ・投票数が閾値より多く、かつ最大である を満たすボクセルを選択し、それを基準画像上の、元の
特徴点の3次元空間座標とみなす(ステップ26、2
7)。条件を満たすボクセルがない場合には、その特徴
点の3次元空間座標は復元不可能とみなし、投票結果に
は加えない。その後ステップ23からの処理を繰り返
す、第2の実施形態 本実施形態ではボクセル空間の大きさがあらかじめ与え
られており、かつ被写体全形の3次元形状を抽出する場
合で、図4に本実施形態のフローチャートを示す。本実
施形態では、基準画像と参照画像の組み合わせを複数選
択することにより(ステップ31、32、28)、被写
体全形の3次元形状を抽出する。ここで、基準画像は輪
郭画像を選択する場合と同様被写体の全形が見えるよう
にしなければならない。このとき、例えば図10に示し
たように、回転台を用いて一定角度おきに撮影した画像
を用いれば、撮影位置、向きまでわかった画像を容易に
得ることができる。Next, if there is an unprocessed reference image, the reference image is selected, a projection line is drawn from the center of the generated voxel to each reference image, and the color (R.
G. FIG. If the difference between the (B value) and that of the voxel is equal to or smaller than the threshold value, the voting value 1 is added to the voxel (steps 28 and 29). If there is no unprocessed reference image, the following conditions are satisfied: • One voxel with the maximum number of votes is selected. • The number of votes is greater than the threshold and the voxel that satisfies the maximum is selected. (Steps 26 and 2)
7). If there is no voxel that satisfies the condition, the three-dimensional space coordinates of the feature point are regarded as unrecoverable, and are not added to the voting result. Thereafter, the processing from step 23 is repeated . Second Embodiment In this embodiment, the size of the voxel space is given in advance, and the three-dimensional shape of the entire subject is extracted. The flowchart of FIG. In the present embodiment, the three-dimensional shape of the entire subject is extracted by selecting a plurality of combinations of the reference image and the reference image (steps 31, 32, and 28). Here, as for the reference image, it is necessary to make the entire shape of the subject visible as in the case of selecting the contour image. At this time, for example, as shown in FIG. 10, if an image photographed at a fixed angle using a turntable is used, an image having a known photographing position and orientation can be easily obtained.
【0049】また、ボクセル空間の大きさがあらかじめ
与えられているため、本実施形態では、本発明の原理を
用いて空間情報を変更している。図5にそのフローチャ
ートを示す。この場合には、逆投影線Also, since the size of the voxel space is given in advance, in the present embodiment, the spatial information is changed using the principle of the present invention. FIG. 5 shows the flowchart. In this case, back projection line
【0050】[0050]
【外18】 を求めた後、第1の実施形態の場合のように各参照輪郭
画像のエピポーラ線[Outside 18] , And the epipolar line of each reference contour image as in the first embodiment.
【0051】[0051]
【外19】 を陽に求める必要はなく、与えられたボクセル空間の領
域から[Outside 19] Does not need to be explicitly determined from the given region of voxel space.
【0052】[0052]
【外20】 の上下限値を求めることができるので(ステップ5
2)、その範囲で[Outside 20] (Step 5)
2) In that range
【0053】[0053]
【外21】 上を直接探索することにより、交点[Outside 21] Intersection by searching directly above
【0054】[0054]
【外22】 を直接求めることができる(ステップ53)。[Outside 22] Can be directly obtained (step 53).
【0055】本実施形態によれば、従来の方法では十分
な大きさで指定する必要があったボクセル空間を必要最
小限な大きさまで縮小してから投票操作を行うことがで
きるようになる。According to the present embodiment, the voting operation can be performed after the voxel space, which had to be specified with a sufficient size in the conventional method, is reduced to the necessary minimum size.
【0056】なお、本実施形態では、被写体の撮影方法
として回転台を用いる場合について述べているが、本発
明はこれに限定されるものではなく、カメラパラメータ
が得られる撮影画像であれば何でもよい。In the present embodiment, a case is described in which a rotary table is used as a method of photographing a subject. However, the present invention is not limited to this, and any photographed image from which camera parameters can be obtained may be used. .
【0057】第3の実施形態 また、以上の実施形態において、それぞれ全ての適用範
囲は、これに限定されるものではない。例えば、第1の
実施形態のボクセル空間の外郭情報生成と第2の実施形
態におけるボクセル空間変更のフローチャートを組み合
わせて、より効率よくボクセル空間を生成する手法も考
えられる。 Third Embodiment In the above embodiments, all applicable ranges are not limited to these. For example, a method of generating a voxel space more efficiently by combining the outline information generation of the voxel space of the first embodiment and the flowchart of the voxel space change in the second embodiment may be considered.
【0058】本実施形態では、第1の実施形態のボクセ
ル空間外郭情報生成処理を輪郭線の一部に適用すること
により、初期情報なしにボクセル空間を生成し、その結
果に対し第2の実施形態のボクセル空間外郭情報変更の
処理を適用して、ボクセル空間の外郭の詳細な形状を決
定する。ボクセル空間の外郭を生成した後は第1の実施
形態での図2のフローチャートを用いて3次元情報を抽
出する。In the present embodiment, a voxel space is generated without initial information by applying the voxel space outline information generation processing of the first embodiment to a part of a contour, and the second embodiment is performed on the result. The detailed shape of the outline of the voxel space is determined by applying the processing of changing the outline information of the voxel space. After the outline of the voxel space is generated, three-dimensional information is extracted using the flowchart of FIG. 2 in the first embodiment.
【0059】本実施形態におけるボクセル空間生成のア
ルゴリズムは以下である。The algorithm for generating a voxel space in this embodiment is as follows.
【0060】ボクセル空間概略形状決定 基準輪郭画像上の輪郭線上の画素から、被写体領域を囲
む矩形を作ることができる4点(最上下および左右の4
点)を選択し、その4点に対する逆投影線について、参
照輪郭画像からの逆投影線との交点Determination of the outline shape of the voxel space Four points (the lowermost and right and left four points) from which pixels on the contour line on the reference contour image can form a rectangle surrounding the subject area.
Point), and the intersection of the back projection line for the four points with the back projection line from the reference contour image
【0061】[0061]
【外23】 を求める(図8(a))。結局、1枚の基準輪郭画像に
対して、合計で8つの交点が求まる。この交点を求める
ルーチンを、全ての基準輪郭画像に対して実行し、得ら
れた全交点を含む、xy,yz,xz平面に平行な面を
持つ直方体を作成し(図8(b))、それをボクセル空
間の外郭の概略形状とする。[Outside 23] (FIG. 8A). As a result, a total of eight intersections are obtained for one reference contour image. The routine for finding this intersection is executed for all the reference contour images, and a rectangular parallelepiped having a plane parallel to the xy, yz, and xz planes including all the obtained intersections is created (FIG. 8B). This is used as the outline shape of the outline of the voxel space.
【0062】ボクセル空間詳細形状決定で求めたボクセ
ル空間を初期ボクセル空間として、第2の実施形態での
ボクセル空間外郭情報変更の処理をそのまま適用し、ボ
クセル空間の詳細形状を決定する。Using the voxel space determined by the voxel space detailed shape determination as the initial voxel space, the processing of changing the voxel space outline information in the second embodiment is applied as it is to determine the detailed shape of the voxel space.
【0063】図6を参照すると、本発明の他の実施形態
の3次元情報抽出装置は入力装置61と記憶装置62、
63と出力装置64と記録媒体65とデータ処理装置6
6で構成されている。Referring to FIG. 6, a three-dimensional information extracting apparatus according to another embodiment of the present invention comprises an input device 61, a storage device 62,
63, an output device 64, a recording medium 65, and a data processing device 6
6.
【0064】入力装置61は撮影情報、視点情報、特徴
点情報、輪郭線情報等を入力するためのものである。記
憶装置62は図1中の情報記憶部15に対応する。記憶
装置63はハードディスクである。出力装置64は抽出
された3次元情報を表示したり、印刷したりする。記録
媒体65は以上の各実施形態で述べた処理からなる3次
元情報抽出プログラムが記録されている、FD(フロッ
ピィ・ディスク)、CD−ROM、MD(光磁気ディス
ク)等の記録媒体である。データ処理装置66は記録媒
体65から3次元情報抽出プログラムを読み込んで、こ
れを実行するCPUである。The input device 61 is for inputting photographing information, viewpoint information, feature point information, contour information and the like. The storage device 62 corresponds to the information storage unit 15 in FIG. The storage device 63 is a hard disk. The output device 64 displays or prints the extracted three-dimensional information. The recording medium 65 is a recording medium such as an FD (floppy disk), a CD-ROM, or an MD (magneto-optical disk) on which a three-dimensional information extraction program including the processing described in each of the above embodiments is recorded. The data processing device 66 is a CPU that reads the three-dimensional information extraction program from the recording medium 65 and executes the program.
【0065】[0065]
【発明の効果】以上述べたように本発明によれば、 1.投票操作対象とするボクセル空間をあらかじめ指定
することなく、被写体が写っている凸包領域をボクセル
空間として自動的に生成、またはボクセル空間を凸包領
域まで縮小でき、 2.高品質で高精度な3次元情報抽出結果が得られる、
という効果が得られる。As described above, according to the present invention, there are provided: 1. A convex hull region in which a subject is photographed can be automatically generated as a voxel space without previously specifying a voxel space to be a voting operation target, or the voxel space can be reduced to a convex hull region. High quality and high accuracy 3D information extraction results can be obtained.
The effect is obtained.
【図1】本発明の一実施形態の3次元情報抽出装置の構
成図である。FIG. 1 is a configuration diagram of a three-dimensional information extraction device according to an embodiment of the present invention.
【図2】図1の3次元情報抽出装置の全体の処理の流れ
を示すフローチャートである。FIG. 2 is a flowchart showing the overall processing flow of the three-dimensional information extraction device of FIG. 1;
【図3】図1の実施形態におけるボクセル空間生成の流
れを示すフローチャートである。FIG. 3 is a flowchart showing a flow of voxel space generation in the embodiment of FIG.
【図4】本発明の第2の実施形態の全体の処理の流れを
示すフローチャートである。FIG. 4 is a flowchart illustrating a flow of an entire process according to a second embodiment of the present invention.
【図5】第2の実施形態におけるボクセル空間生成の流
れを示すフローチャートである。FIG. 5 is a flowchart illustrating a flow of voxel space generation according to the second embodiment.
【図6】本発明の他の実施形態の3次元情報抽出装置の
構成図である。FIG. 6 is a configuration diagram of a three-dimensional information extraction device according to another embodiment of the present invention.
【図7】本発明の原理の説明図である。FIG. 7 is an explanatory diagram of the principle of the present invention.
【図8】本発明の原理の説明図である。FIG. 8 is an explanatory diagram of the principle of the present invention.
【図9】本発明の原理の説明図である。FIG. 9 is an explanatory diagram of the principle of the present invention.
【図10】回転台を用いて被写体を撮影する様子を示す
図である。FIG. 10 is a diagram illustrating a state in which a subject is photographed using a turntable.
【図11】ボクセル空間生成時に、ボクセルの範囲が決
定される様子を示す図である。FIG. 11 is a diagram showing how a voxel range is determined when a voxel space is generated.
【図12】オクトトリー生成の概念図である。FIG. 12 is a conceptual diagram of octree generation.
11 ボクセル空間生成部 12 ボクセル生成部 13 ボクセル情報比較部 14 3次元情報抽出部 15 情報記憶部 21〜29、30〜32、40〜53 ステップ 61 入力装置 62 記憶装置 63 記憶装置 64 出力装置 65 記録媒体 66 データ処理装置 Reference Signs List 11 voxel space generation unit 12 voxel generation unit 13 voxel information comparison unit 14 three-dimensional information extraction unit 15 information storage unit 21 to 29, 30 to 32, 40 to 53 step 61 input device 62 storage device 63 storage device 64 output device 65 recording Medium 66 Data processing device
フロントページの続き (72)発明者 宮崎 昭彦 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 Fターム(参考) 2F065 AA04 DD00 DD07 FF04 JJ03 JJ26 KK03 MM04 QQ24 QQ25 UU05 5B057 BA02 CE16 CH01 CH11 DB03 DB06 DB09 DC05 DC09 DC16 DC25 5L096 AA09 CA05 FA06 FA15 GA40 LA05 Continued on the front page (72) Inventor Akihiko Miyazaki 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo F-term within Nippon Telegraph and Telephone Corporation (reference) 2F065 AA04 DD00 DD07 FF04 JJ03 JJ26 KK03 MM04 QQ24 QQ25 UU05 5B057 BA02 CE16 CH01 CH11 DB03 DB06 DB09 DC05 DC09 DC16 DC25 5L096 AA09 CA05 FA06 FA15 GA40 LA05
Claims (12)
た複数枚の画像を入力し、被写体の3次元座標および色
に関する情報を抽出する3次元情報抽出方法であって、 前記撮影画像のうちの被写体の全形が復元できるような
各方向から撮影した画像複数枚を輪郭画像として選択
し、輪郭画像上の被写体領域の輪郭線情報を用いてボク
セル空間情報を生成するボクセル空間生成段階と、 前記生成されたボクセル空間情報を記憶するボクセル空
間記憶段階と、 前記複数の画像のうち所定数の画像を基準画像、その近
傍の画像を参照画像とし、その特徴点を通過する単位3
次元空間であるボクセルをボクセル空間内に生成するボ
クセル生成段階と、 生成されたボクセルおよびボクセルを生成するために使
った、基準画像上の特徴点の色情報Cを記憶するボクセ
ル・色情報を記憶する段階と、 生成されたボクセルから各参照画像に向かって投影線を
延ばし、参照画像との交点の色情報と前記特徴点の色情
報Cとの比較を行うボクセル情報比較段階と、 前記両色情報の差分が閾値以下の場合に、ボクセルを生
成するために使った、基準座標上の特徴点の3次元座標
および色情報を抽出する3次元情報抽出段階を有する3
次元情報抽出方法。1. A three-dimensional information extraction method for inputting a plurality of images of the same subject photographed from a plurality of viewpoint directions and extracting information on three-dimensional coordinates and colors of the subject. A voxel space generation step of selecting a plurality of images taken from each direction such that the entire shape of the subject can be restored as a contour image, and generating voxel space information using contour information of a subject area on the contour image, A voxel space storage step of storing the generated voxel space information; and a unit 3 passing a feature point of a predetermined number of images among the plurality of images as a reference image and images near the reference image as reference images.
A voxel generation step of generating a voxel that is a dimensional space in the voxel space, and storing voxels and color information for storing the generated voxels and color information C of feature points on the reference image used for generating the voxels. A voxel information comparison step of extending a projection line from the generated voxel toward each reference image and comparing color information of an intersection with the reference image with the color information C of the feature point. A step of extracting three-dimensional information and extracting three-dimensional coordinates and color information of a feature point on the reference coordinates used to generate the voxel when the information difference is equal to or smaller than the threshold value;
Dimension information extraction method.
輪郭画像の輪郭線上の点を選択する段階と、該点につい
て3次元空間上へ視点から逆投影線を延ばす段階と、全
ての参照輪郭画像について、前記逆投影線と該参照輪郭
画像の視点が作るエピポーラ面を計算し、該エピポーラ
面と参照輪郭画像との交線であるエピポーラ線と、参照
輪郭画像上の輪郭線との、エピポーラ線を両端から内側
に向かって見ていき最初に輪郭線とぶつかる2点の画素
である2交点を求めることで、全ての輪郭線上の逆投影
線が交差して作る3次元の凸包領域を作成する段階を含
む、請求項1記載の方法。2. The step of generating a voxel space includes the steps of selecting a point on the contour of the reference contour image, extending a back projection line from the viewpoint to the point on a three-dimensional space, and selecting all reference contour images. The epipolar plane formed by the back projection line and the viewpoint of the reference contour image is calculated, and the epipolar line of the intersection of the epipolar surface and the reference contour image and the contour line on the reference contour image are calculated. By looking inward from both ends and finding the two intersections, which are the two pixels that first hit the contour, create a three-dimensional convex hull region created by intersecting backprojection lines on all contours The method of claim 1, comprising the step of:
郭線情報に加えて、初期のボクセル空間情報から被写体
の概略形状を表わすボクセル空間情報を生成し、前記ボ
クセル生成段階では前記基準画像と参照画像の組を複数
用いる、請求項1記載の方法。3. The voxel space generation step generates voxel space information representing a schematic shape of a subject from initial voxel space information in addition to the contour line information. In the voxel generation step, the reference image and the reference image are generated. The method according to claim 1, wherein a plurality of sets are used.
画像上の輪郭線上の画素から、被写体領域を囲むことが
できる4点を選択し、その4点に対する逆投影線につい
て、参照輪郭画像からの逆投影線との交点を求めること
を全ての基準輪郭画像に対して実行し、得られた全交点
を含む直方体を作成し、それをボクセル空間の外郭の概
略形状とする、請求項1記載の方法。4. The voxel space generating step includes selecting four points that can surround the subject area from pixels on the contour line on the reference contour image, and back-projecting the four points from the reference contour image. The method according to claim 1, wherein obtaining an intersection with the back projection line is performed for all the reference contour images, a rectangular parallelepiped including all the obtained intersections is created, and the rectangular parallelepiped is defined as a schematic shape of an outline of the voxel space. Method.
数枚の画像を入力し、被写体の3次元座標および色に関
する情報を抽出する3次元情報抽出装置であって、 前記撮影画像のうちの被写体の全形が復元できるような
各方向から撮影した画像複数枚を輪郭画像として選択
し、輪郭画像上の被写体領域の輪郭線情報を用いてボク
セル空間情報を生成するボクセル空間生成手段と、 前記生成されたボクセル空間情報を記録する第1の情報
記憶手段と、 前記複数枚の画像のうちの所定数の画像を基準画像、そ
の近傍の画像を参照画像とし、基準画像上の特徴点につ
いて、その特徴点を通過する単位3次元空間であるボク
セルをボクセル空間内に生成するボクセル生成手段と、 前記生成されたボクセルおよびボクセル空間を生成する
ために使った、基準画像上の特徴点の色情報Cを記憶す
る第2の情報記憶手段と、 前記生成されたボクセルから各参照画像に向かって投影
線を延ばし、参照画像との交点の色情報と前記特徴点の
色情報Cとの比較を行い、結果を第2の情報記憶手段に
記憶するボクセル情報記憶手段と、 前記両色情報の差分が閾値以下の場合に、ボクセルを生
成するために使った、基準座標上の特徴点の3次元座標
および色情報を抽出し、前記第1の情報記憶手段に記憶
する手段を有する3次元情報抽出装置。5. A three-dimensional information extracting apparatus for inputting a plurality of images of the same subject photographed from a number of viewpoints and extracting information on three-dimensional coordinates and colors of the subject. A voxel space generating means for selecting a plurality of images photographed from each direction such that the full shape of the object can be restored as a contour image, and generating voxel space information using contour line information of a subject area on the contour image; First information storage means for recording the obtained voxel spatial information, a predetermined number of images of the plurality of images as a reference image, the image in the vicinity thereof as a reference image, the feature points on the reference image, A voxel generating means for generating a voxel, which is a unit three-dimensional space passing through a feature point, in the voxel space, and the generated voxel and a voxel space used for generating the voxel space A second information storage unit for storing color information C of a feature point on the reference image, extending a projection line from the generated voxel toward each reference image, and obtaining color information of an intersection with the reference image and the feature point. And voxel information storage means for storing the result in a second information storage means; and a reference used for generating a voxel when a difference between the two color information is equal to or less than a threshold value. A three-dimensional information extraction device, comprising: means for extracting three-dimensional coordinates and color information of a feature point on coordinates and storing the information in the first information storage means.
輪郭画像の輪郭線上の点を選択する手段と、該点につい
て3次元空間上へ視点から逆投影線を延ばす段階と、全
ての参照輪郭画像について、前記逆投影線と該参照輪郭
画像の視点が作るエピポーラ面を計算し、該エピポーラ
面と参照輪郭画像との、交線であるエピポーラ線と、参
照輪郭画像上の輪郭線との、エピポーラ線を両端から内
側に向かって見ていき最初に輪郭線とぶつかる2点の画
素である2交点を求めることで、全ての輪郭線上の逆投
影線が交差して作る3次元の凸包領域を作成する手段を
含む、請求項5記載の装置。6. The voxel space generating means includes means for selecting a point on the contour line of the reference contour image, extending a back projection line from the viewpoint to the point on the three-dimensional space, and selecting all reference contour images. , The epipolar plane formed by the back projection line and the viewpoint of the reference contour image is calculated, and the epipolar line of the intersection of the epipolar surface and the reference contour image and the contour line on the reference contour image are calculated. By looking at the line inward from both ends and finding the two intersections, which are the two pixels that first hit the contour, the three-dimensional convex hull region created by intersecting the backprojection lines on all the contours The apparatus of claim 5, comprising means for creating.
郭線情報に加えて初期のボクセル空間情報から被写体の
概略形状を表わすボクセル空間情報を生成し、前記ボク
セル生成段階では前記基準画像と参照画像の組を複数用
いる、請求項5記載の装置。7. The voxel space generating means generates voxel space information representing a schematic shape of a subject from initial voxel space information in addition to the contour line information. 6. The apparatus according to claim 5, wherein a plurality of sets are used.
画像上の輪郭線上の画素から、被写体領域を囲むことが
できる4点を選択し、その4点に対する逆投影線につい
て、参照輪郭画像からの逆投影線との交点を求めること
を全ての基準輪郭画像に対して実行し、得られた全交点
を含む直方体を作成し、それをボクセル空間の外郭の概
略形状とする、請求項5記載の装置。8. The voxel space generation means selects four points that can surround the subject area from pixels on the contour line on the reference contour image, and performs back projection lines for the four points from the reference contour image. The method according to claim 5, wherein obtaining an intersection with the back projection line is performed for all the reference contour images, a rectangular parallelepiped including all the obtained intersections is created, and the rectangular parallelepiped is defined as the outline shape of the outline of the voxel space. apparatus.
数枚の画像を入力し、被写体の3次元座標および色に関
する情報を抽出する3次元情報抽出プログラムであっ
て、 前記撮影画像のうちの被写体の全形が復元できるような
各方向から撮影した画像複数枚を輪郭画像として選択
し、輪郭画像上の被写体領域の輪郭線情報を用いてボク
セル空間情報を生成するボクセル空間生成処理と、 前記生成されたボクセル空間情報を記録する第1の情報
記憶処理と、 前記複数枚の画像のうちの所定数の画像を基準画像、そ
の近傍の画像を参照画像とし、基準画像上の特徴点につ
いて、その特徴点を通過する単位3次元空間であるボク
セルを投票対象空間内に生成するボクセル生成処理と、 前記生成されたボクセルおよびボクセルを生成するため
に使った、基準画像上の特徴点の色情報Cを記憶する第
2の情報記憶処理と、 前記生成されたボクセルから各参照画像に向かって投影
線を延ばし、参照画像との交点の色情報と前記特徴点の
色情報Cとの比較を行い、結果を第2の情報記憶手段に
記憶するボクセル情報記憶処理と、 前記両色情報の差分が閾値以下の場合に、ボクセルを生
成するために使った、基準座標上の特徴点の3次元座標
および色情報を抽出し、前記第1の情報記憶手段に記憶
する処理をコンピュータに実行させるための3次元情報
抽出プログラムを記録した記録媒体。9. A three-dimensional information extraction program for inputting a plurality of images obtained by photographing the same subject from a number of viewpoints and extracting information on three-dimensional coordinates and colors of the subject, the program comprising: A voxel space generation process of selecting a plurality of images taken from each direction such that the full shape of the object can be restored as a contour image, and generating voxel space information using contour information of a subject area on the contour image; A first information storage process of recording the obtained voxel spatial information, a predetermined number of images of the plurality of images as a reference image, and images in the vicinity thereof as reference images, and for feature points on the reference image, A voxel generation process for generating a voxel, which is a unit three-dimensional space passing through a feature point, in a voting target space, and is used for generating the generated voxel and the voxel. A second information storage process for storing color information C of a feature point on a reference image, extending a projection line from the generated voxel toward each reference image, and obtaining color information of an intersection with a reference image and the feature Voxel information storage processing for comparing the color information C of the point with the result and storing the result in the second information storage means; and when the difference between the two pieces of color information is equal to or less than a threshold, the voxel information is used to generate a voxel. A recording medium storing a three-dimensional information extraction program for extracting a three-dimensional coordinate and color information of a feature point on reference coordinates and causing a computer to execute a process of storing the information in the first information storage means.
準輪郭画像の輪郭線上の点を選択する処理と、該点につ
いて3次元空間上へ視点から逆投影線を延ばす処理と、
全ての参照輪郭画像について、前記逆投影線と該参照輪
郭画像の視点が作るエピポーラ面を計算し、該エピポー
ラ面と参照輪郭画像との交線であるエピポーラ線と、参
照輪郭画像上の輪郭線とのエピポーラ線を両端から内側
に向かって見ていき最初に輪郭線とぶつかる2点の画素
である2交点を求めることで、全ての輪郭線上の逆投影
線が交差して作る3次元の凸包領域を作成する処理を含
む、請求項9記載の記録媒体。10. The voxel space generation process includes a process of selecting a point on the contour line of the reference contour image, a process of extending a back projection line from the viewpoint to the point on a three-dimensional space,
For all the reference contour images, an epipolar plane formed by the back projection line and the viewpoint of the reference contour image is calculated, and an epipolar line which is an intersection of the epipolar surface and the reference contour image, and a contour line on the reference contour image are calculated. Looking inward from both ends of the epipolar line, and finding the two intersections that are the two pixels that first come into contact with the contour, a three-dimensional projection created by intersecting the backprojected lines on all the contours The recording medium according to claim 9, further comprising a process of creating a wrapping area.
輪郭線情報に加えて初期のボクセル空間情報から被写体
の概略形状を表わすボクセル空間情報を生成し、前記ボ
クセル空間情報を生成し、前記ボクセル処理では前記基
準画像と参照画像の組を複数用いる、請求項9記載の記
録媒体。11. In the voxel space generation processing, voxel space information representing a schematic shape of a subject is generated from initial voxel space information in addition to the contour line information, and the voxel space information is generated. The recording medium according to claim 9, wherein a plurality of sets of the reference image and the reference image are used.
郭画像上の輪郭線上の画素から、被写体領域を囲むこと
ができる4点を選択し、その4点に対する逆投影線につ
いて、参照輪郭画像からの逆投影線との交点を求めるこ
とを全ての基準輪郭画像に対して実行し、得られた全交
点を含む直方体を作成し、それをボクセル空間の外郭の
概略形状とする、請求項9記載の記録媒体。12. The voxel space generation processing selects four points that can surround a subject area from pixels on the contour line on the reference contour image, and performs back projection lines for the four points from the reference contour image. The method according to claim 9, wherein obtaining an intersection with the back projection line is performed for all reference contour images, a rectangular parallelepiped including all the obtained intersections is created, and the rectangular parallelepiped is defined as a schematic shape of an outline of the voxel space. recoding media.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19766499A JP3514373B2 (en) | 1999-07-12 | 1999-07-12 | Three-dimensional information extraction method and apparatus, and recording medium storing three-dimensional information extraction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19766499A JP3514373B2 (en) | 1999-07-12 | 1999-07-12 | Three-dimensional information extraction method and apparatus, and recording medium storing three-dimensional information extraction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001022939A true JP2001022939A (en) | 2001-01-26 |
JP3514373B2 JP3514373B2 (en) | 2004-03-31 |
Family
ID=16378286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP19766499A Expired - Fee Related JP3514373B2 (en) | 1999-07-12 | 1999-07-12 | Three-dimensional information extraction method and apparatus, and recording medium storing three-dimensional information extraction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3514373B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002311523A (en) * | 2001-04-19 | 2002-10-23 | Shimadzu Corp | Three-dimensional optical camera |
WO2007069724A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Three-dimensional shape data aligning method and device |
WO2007069726A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Self-position identifying method and device, and three-dimensional shape measurement method and device |
WO2007069721A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Three-dimensional shape data storing/displaying method and device, and three-dimensional shape measuring method and device |
JP2008191072A (en) * | 2007-02-07 | 2008-08-21 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional shape restoration method, three-dimensional shape restoring device, three-dimensional shape restoration program implemented with the method, and recording medium with the program stored |
JP2008309671A (en) * | 2007-06-15 | 2008-12-25 | Ihi Corp | Object recognition method and device |
CN112767506A (en) * | 2020-12-31 | 2021-05-07 | 维沃移动通信有限公司 | Image processing method and device and electronic equipment |
-
1999
- 1999-07-12 JP JP19766499A patent/JP3514373B2/en not_active Expired - Fee Related
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002311523A (en) * | 2001-04-19 | 2002-10-23 | Shimadzu Corp | Three-dimensional optical camera |
US8116558B2 (en) | 2005-12-16 | 2012-02-14 | Ihi Corporation | Three-dimensional shape data position matching method and device |
JP4650750B2 (en) * | 2005-12-16 | 2011-03-16 | 株式会社Ihi | 3D shape data storage and display method and apparatus, and 3D shape measurement method and apparatus |
WO2007069721A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Three-dimensional shape data storing/displaying method and device, and three-dimensional shape measuring method and device |
US8300048B2 (en) | 2005-12-16 | 2012-10-30 | Ihi Corporation | Three-dimensional shape data recording/display method and device, and three-dimensional shape measuring method and device |
US8121399B2 (en) | 2005-12-16 | 2012-02-21 | Ihi Corporation | Self-position identifying method and device, and three-dimensional shape measuring method and device |
JPWO2007069724A1 (en) * | 2005-12-16 | 2009-05-28 | 株式会社Ihi | Method and apparatus for aligning 3D shape data |
WO2007069726A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Self-position identifying method and device, and three-dimensional shape measurement method and device |
JP4650751B2 (en) * | 2005-12-16 | 2011-03-16 | 株式会社Ihi | Method and apparatus for aligning 3D shape data |
JPWO2007069721A1 (en) * | 2005-12-16 | 2009-05-28 | 株式会社Ihi | 3D shape data storage and display method and apparatus, and 3D shape measurement method and apparatus |
JP4650752B2 (en) * | 2005-12-16 | 2011-03-16 | 株式会社Ihi | Self-position identification method and apparatus and three-dimensional shape measurement method and apparatus |
JPWO2007069726A1 (en) * | 2005-12-16 | 2009-05-28 | 株式会社Ihi | Self-position identification method and apparatus and three-dimensional shape measurement method and apparatus |
WO2007069724A1 (en) * | 2005-12-16 | 2007-06-21 | Ihi Corporation | Three-dimensional shape data aligning method and device |
JP2008191072A (en) * | 2007-02-07 | 2008-08-21 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional shape restoration method, three-dimensional shape restoring device, three-dimensional shape restoration program implemented with the method, and recording medium with the program stored |
JP2008309671A (en) * | 2007-06-15 | 2008-12-25 | Ihi Corp | Object recognition method and device |
CN112767506A (en) * | 2020-12-31 | 2021-05-07 | 维沃移动通信有限公司 | Image processing method and device and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
JP3514373B2 (en) | 2004-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jia et al. | Image stitching using structure deformation | |
US7046840B2 (en) | 3-D reconstruction engine | |
Chaurasia et al. | Depth synthesis and local warps for plausible image-based navigation | |
US6975756B1 (en) | Image-based photo hulls | |
US8452081B2 (en) | Forming 3D models using multiple images | |
CN110349086B (en) | Image splicing method under non-concentric imaging condition | |
US20120177283A1 (en) | Forming 3d models using two images | |
CN107578376B (en) | Image splicing method based on feature point clustering four-way division and local transformation matrix | |
US7356164B2 (en) | Method and apparatus for finding feature correspondences between images captured in real-world environments | |
Thonat et al. | Multi-view inpainting for image-based scene editing and rendering | |
Oliveira et al. | Selective hole-filling for depth-image based rendering | |
CN108985132B (en) | Face image processing method and device, computing equipment and storage medium | |
JP5561786B2 (en) | Three-dimensional shape model high accuracy method and program | |
US8929587B2 (en) | Multi-tracking of video objects | |
WO2018039936A1 (en) | Fast uv atlas generation and texture mapping | |
JP3514373B2 (en) | Three-dimensional information extraction method and apparatus, and recording medium storing three-dimensional information extraction program | |
Sağıroğlu et al. | A texture based approach to reconstruction of archaeological finds | |
US6518964B1 (en) | Apparatus, system, and method for simplifying annotations on a geometric surface | |
Nguyen et al. | High-definition texture reconstruction for 3D image-based modeling | |
JP5473096B2 (en) | Modeling concave surfaces in image-based visual hulls | |
Wicke et al. | CSG tree rendering for point-sampled objects | |
JP4082718B2 (en) | Image recognition method, image display method, and image recognition apparatus | |
KR102455843B1 (en) | Apparatus for reconstructing image and method using the same | |
Nozick | Camera array image rectification and calibration for stereoscopic and autostereoscopic displays | |
Salah et al. | Live-wire revisited |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040108 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040108 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080123 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090123 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090123 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100123 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110123 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |