JPH047805B2 - - Google Patents
Info
- Publication number
- JPH047805B2 JPH047805B2 JP59024163A JP2416384A JPH047805B2 JP H047805 B2 JPH047805 B2 JP H047805B2 JP 59024163 A JP59024163 A JP 59024163A JP 2416384 A JP2416384 A JP 2416384A JP H047805 B2 JPH047805 B2 JP H047805B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- image
- segment
- images
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000003287 optical effect Effects 0.000 claims description 25
- 238000000034 method Methods 0.000 claims description 18
- 239000002131 composite material Substances 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 4
- 238000003672 processing method Methods 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 27
- 238000000605 extraction Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 206010064127 Solar lentigo Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
- G01B21/20—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【発明の詳細な説明】
(1) 発明の属する分野の説明
本発明は、ステレオ画像の対応付け処理方法、
特にカメラにより複数の視点で撮影した画像か
ら、計算機処理により自動的にシーン中の物体ま
での奥行(3次元情報)を求めるようにしたステ
レオ画像の対応付け処理方法に関する。[Detailed Description of the Invention] (1) Description of the field to which the invention pertains The present invention relates to a stereo image matching processing method;
In particular, the present invention relates to a method for associating stereo images in which the depth (three-dimensional information) to an object in a scene is automatically determined by computer processing from images taken from a plurality of viewpoints by a camera.
(2) 従来の技術の説明
従来このようなステレオ法により自動的に奥行
情報を求める方法は多く発表されているが、十分
な性能を持つに至つていない。このうち、左右画
の各点のまわりの窓内の画像の相互相関の値によ
り対応点を求める相互相関法は、航空写真により
地形高度を求める等の場合のように奥行変化率
(奥行の変化量の奥行の絶対値に対する比)を小
さく視点を選べる場合には、使用に耐える能力を
有しているが、知能ロボツトの目の対象となる地
上シーン、室内シーンでは、一般に奥行の変化率
が大きく、奥行のステツプ変化もしばしば生じ、
そのような場合には、対応付けエラーが多く、十
分な性能を有していない。(2) Description of conventional technology Many methods have been published to automatically obtain depth information using stereo methods, but none have achieved sufficient performance. Among these, the cross-correlation method, which finds corresponding points based on the cross-correlation value of the images in the window around each point in the left and right images, is used to If a viewpoint can be selected with a small ratio (ratio of depth to absolute value), it has the ability to withstand use, but in ground scenes and indoor scenes that are targeted by intelligent robots, the rate of change in depth is generally low. Large, step changes in depth often occur;
In such a case, there are many association errors and the performance is not sufficient.
他の代表的手法に、分解能による階層性と奥行
の連続性とに基づく方法がある。これは、予め定
めた粗い分解能から出発し、順次分解能を細かく
し、予め定めた分解能で処理を停止し、結果を得
る。そして各分解能では、1つ前の段階の処理結
果に基づいて処理を行なう。具体的には、原画よ
り各分解能に応じた線画を求め、左右の線画と同
じ高さ(カメラの光軸は平行)の水平線との交点
を比較し、各左画の点に対応した右画の点の探索
の中心を前の処理結果より求め、分解能に比例し
た探索幅を用いた探索に基づいて、対応する右画
の点を求めるようにしている。しかしこのような
手法は、階層性により改良はされているが、十分
な対応付け性能を有していない。 Other typical methods include methods based on resolution hierarchy and depth continuity. This starts from a predetermined coarse resolution, gradually refines the resolution, stops processing at the predetermined resolution, and obtains the result. At each resolution, processing is performed based on the processing results of the previous stage. Specifically, line drawings corresponding to each resolution are obtained from the original image, and the intersection points of the left and right line drawings with a horizontal line at the same height (the camera's optical axis is parallel) are compared, and the right image corresponding to each point on the left image is calculated. The center of the search for the point is found from the previous processing result, and the corresponding point on the right image is found based on a search using a search width proportional to the resolution. However, although such a method has been improved by using hierarchy, it does not have sufficient matching performance.
いずれにしても、従来のこの種方法は、左右画
の対応点を、点の局所情報のみに基づいて決定し
ており、従つて不安定で誤りやすく、広汎なシー
ンに対し、必らずしも十分な性能を有していな
い。 In any case, this type of conventional method determines the corresponding points of the left and right images based only on the local information of the points, and is therefore unstable and prone to errors, and is not always suitable for wide-ranging scenes. also does not have sufficient performance.
(3) 発明の目的
本発明はこれらの欠点を除去するため、画像間
の対応付けを、点間で直接行わずに、まずより空
間的広がりを持ち雑音の影響を受けにくい、より
安定した連結線成分またはその一部であるセグメ
ントをその全体特徴により対応付けを行ない、そ
の結果に基づいて、その線上の各点の対応付けを
行ない、それにより奥行を求めるようにしたもの
で、以下図面により詳細に説明する。(3) Purpose of the Invention In order to eliminate these drawbacks, the present invention aims to create a more stable connection that has more spatial extent and is less susceptible to noise, without directly linking images between points. Line components or segments that are part of them are associated with each other based on their overall characteristics, and based on the results, each point on the line is associated with each other, thereby determining the depth. Explain in detail.
(4) 発明の構成および作用の説明
第1図は、本発明で考えるステレオカメラ系の
配置をカメラモデルにより概念的に示した図であ
る。ここでカメラモデルでは、像を正立像として
把えている。図中1,2はカメラ1,2(以下同
様)の視点、3,4は光軸、5,6は像画、7,
8は像画の中心である。ただし、光軸は、像画の
中心を通り且つ像面に垂直である。9,11はカ
メラ系1,2の像面のx軸(x1,x2軸)、10,
12は像面のy軸(y1,y2軸)、13は対象物体
上の点、14,15は物体点13に対応した像上
の点(画像点)、16,17は画像点14,15
を含むエピポーラ線(Epipolar線または
Matching線)を示す。ここで、点1,2を結ぶ
線分を基線、基線を含む平面をエピポーラ面
(Epipolar面)と言い、エピポーラ面上のすべて
の点の像は各像面に1本の曲線を作る。これが上
記エピポーラ線であり、レンズの収差を無視した
時、エピポーラ線は直線となる。同じエピポーラ
面に対応したエピポーラ線16,17は互いに対
応したエピポーラ線である。つまり、カメラ1の
画像点14に対応したカメラ2の画像点はエピポ
ーラ線17上にある。本発明では、この性質を用
いる。各エピポーラ線は、それに対応するエピポ
ーラ面の回転角(基線を通りカメラ系に対し相対
的に固定された平面との符号付き面角であり、例
えば基準面として一方の光軸を含むものでも良
い)により特性付けられる。この回転角を画像点
の“一般化高さ”と名付ける。(4) Description of structure and operation of the invention FIG. 1 is a diagram conceptually showing the arrangement of the stereo camera system considered in the present invention using a camera model. Here, the camera model grasps the image as an erect image. In the figure, 1 and 2 are the viewpoints of cameras 1 and 2 (the same applies hereafter), 3 and 4 are optical axes, 5 and 6 are image images, 7,
8 is the center of the image. However, the optical axis passes through the center of the image and is perpendicular to the image plane. 9 and 11 are the x-axes (x 1 and x 2 axes) of the image planes of camera systems 1 and 2;
12 is the y axis (y 1 , y 2 axis) of the image plane, 13 is a point on the target object, 14 and 15 are points on the image corresponding to object point 13 (image points), and 16 and 17 are image points 14 ,15
Epipolar line (Epipolar line or
Matching line). Here, the line segment connecting points 1 and 2 is called a base line, and the plane including the base line is called an epipolar plane, and the images of all points on the epipolar plane form one curve on each image plane. This is the above-mentioned epipolar line, and when the aberration of the lens is ignored, the epipolar line becomes a straight line. Epipolar lines 16 and 17 corresponding to the same epipolar plane are epipolar lines corresponding to each other. That is, the image point of camera 2 corresponding to the image point 14 of camera 1 is on the epipolar line 17. The present invention uses this property. Each epipolar line is a rotation angle of the corresponding epipolar plane (a signed plane angle with a plane that passes through the base line and is fixed relative to the camera system; for example, it may include one optical axis as the reference plane. ) is characterized by This rotation angle is named the "generalized height" of the image point.
一般化高さは、左右カメラの光軸が平行で、両
カメラの焦点距離が同じで、両カメラの光学中心
を結ぶ直線が両光軸に直角で、両カメラの撮像面
が正確に長方形でそのサイズが同じで、両横軸
(x軸)が平行な時、各カメラの撮像面のy座標
として定義される。左右画像上の点がエピポーラ
拘束を満たしていることと一般化高さが等しいこ
とは等価である。左右の画像点がエピポーラ拘束
を満たしているということは、両画像点が両カメ
ラの視点を通る一つの平面上にのつていることを
示しており、それは両画像点が同一の物体点より
発した光によつて生じた左右画像上の点であるた
めの必要条件を表している。輻輳視(光軸が平行
でないより一般的な場合)の時の画像対の場合
も、光軸が平行な仮想的フレームの画像に変換す
れば、一般化高さは各フレームのy座標に等しい
ものとなる。 Generalized height means that the optical axes of the left and right cameras are parallel, the focal length of both cameras is the same, the straight line connecting the optical centers of both cameras is perpendicular to both optical axes, and the imaging planes of both cameras are exactly rectangular. When the sizes are the same and both horizontal axes (x-axes) are parallel, it is defined as the y-coordinate of the imaging plane of each camera. It is equivalent that the points on the left and right images satisfy the epipolar constraint and that the generalized heights are equal. The fact that the left and right image points satisfy the epipolar constraint means that both image points lie on a single plane passing through the viewpoints of both cameras, which means that both image points originate from the same object point. This represents the necessary conditions for the point to be a point on the left and right images caused by the light. Even in the case of an image pair during convergence vision (a more general case where the optical axes are not parallel), if you convert it to an image of a virtual frame with parallel optical axes, the generalized height is equal to the y-coordinate of each frame. Become something.
ここで一般化高さについて第1図bを参照して
説明しておく。第1図bは基線(点1,2を通る
線分)に垂直な平面上の点2の方から点1の方向
を見た投影図であつて、点18は基線を投影して
得られる点であり、直線19,20は夫々光軸3
と基線,光軸4と基線を通る平面を投影して得ら
れる直線であり、直線21′は直線19,20の
2等分線であり、直線22′は物点13と基線と
を通る平面を投影して得られる直線である。この
時、一般化高さは、線分22′の線分21′に対す
る(符号付き)角度を用いて、
yg=ftan
として定義される。但しfはカメラの像焦点距離
であり、当該一般化高さは光軸が平行な場合には
各画像上の点yの座標(高さ)に等しくなる。 The generalized height will now be explained with reference to FIG. 1b. Figure 1b is a projection view looking in the direction of point 1 from point 2 on a plane perpendicular to the base line (line segment passing through points 1 and 2), and point 18 is obtained by projecting the base line. point, and the straight lines 19 and 20 respectively correspond to the optical axis 3.
is a straight line obtained by projecting a plane passing through the optical axis 4 and the base line, the straight line 21' is a bisector of straight lines 19 and 20, and the straight line 22' is a plane passing through the object point 13 and the base line. This is a straight line obtained by projecting . At this time, the generalized height is defined as y g =ftan using the (signed) angle of line segment 22' with respect to line segment 21'. However, f is the image focal length of the camera, and the generalized height is equal to the coordinate (height) of the point y on each image when the optical axes are parallel.
両カメラの光軸が平行で各像のx軸が基線に平
行な時、対応画像点14,15は同じ高さ(y軸
の値)を有する。また点1,7の間及び点2,8
の間の距離は焦点距離を表わす。 When the optical axes of both cameras are parallel and the x-axis of each image is parallel to the baseline, the corresponding image points 14 and 15 have the same height (y-axis value). Also between points 1 and 7 and between points 2 and 8
The distance between represents the focal length.
第2図は本発明の実施例の構成を示すブロツク
図である。奥行を求めるためにカメラ(光学写真
機、テレビカメラ等)により撮影した2枚の白黒
画像(2次元の画素の濃度配列)の一方を左画
像、他方を右画像と名付ける。ただし、両カメラ
の光軸は互いに平行であり、左右像面が同一平面
上にあり、両像面のx軸は基線に平行であるとす
る。図中、21,22は左原画入力装置、右原画
入力装置、23,24は左線画抽出回路、右線画
抽出回路、25は視差オフセツト検出回路、2
6,27は左画セグメント抽出回路、右画セグメ
ント抽出回路、28は左右セグメント対応付け回
路、29は左右画特徴点対応付け回路、30は奥
行計算回路を表わす。 FIG. 2 is a block diagram showing the configuration of an embodiment of the present invention. One of two black and white images (two-dimensional pixel density array) taken by a camera (optical camera, television camera, etc.) to determine depth is named the left image and the other is named the right image. However, it is assumed that the optical axes of both cameras are parallel to each other, the left and right image planes are on the same plane, and the x-axes of both image planes are parallel to the base line. In the figure, 21 and 22 are a left original image input device, a right original image input device, 23 and 24 are a left line drawing extraction circuit, a right line drawing extraction circuit, 25 is a parallax offset detection circuit, and 2
Reference numerals 6 and 27 represent a left image segment extraction circuit, a right image segment extraction circuit, 28 a left and right segment correspondence circuit, 29 a left and right image feature point correspondence circuit, and 30 a depth calculation circuit.
ここで、原画入力装置21,22は、例えば、
テレビカメラとADコンバータとフレームメモリ
との組合わせ、または写真機より作成したプリン
トやポジフイルムやネガフイルムを入力するフラ
イングスポツトスキヤナやドラムスキヤナとAD
コンバータとフレームメモリとの組合わせ等より
成る。左右の線画抽出回路23,24では、例え
ば、原画に3×3画素を単位とした離散的ラブラ
シアンを適用した結果に閾値処理して2値化し、
その結果に細線化処理を施して太さ1の線に納め
た。なお、上記離散的ラプラシアンは次の如く処
理されるものと考えてよい。 Here, the original image input devices 21 and 22 are, for example,
A combination of a TV camera, AD converter, and frame memory, or a flying spot scanner or drum scanner that inputs prints, positive film, or negative film created from a camera, and AD.
It consists of a combination of a converter and a frame memory, etc. The left and right line drawing extraction circuits 23 and 24, for example, perform threshold processing on the result of applying a discrete Labrasian in units of 3×3 pixels to the original image, and then binarize the result.
The result was subjected to line thinning processing to fit the line into a line with a thickness of 1. Note that the above-mentioned discrete Laplacian may be considered to be processed as follows.
Ui,j=Si+3,j+Si-3,j+Si,j+3
+Si,j-3−4Si,j
Si,j≡i+1
〓k=i-1
j+1
〓l=j-1
Zk,l
ここでZK,lはラプラシアン作用素適用前の画像
の画素(k,l)(k,lは正整数)における濃
度(明るさ)を表わし、Ui,jはラプラシアン作用
素適用後の画像の画素(i,j)における値を表
わす、とくにここでは、Ui,j<0の時Ui,j=0に修
正して、ラプラシアン作用素処理結果が非負なる
如くしている。 U i,j =S i+3,j +S i-3,j +S i,j+3 +S i,j-3 −4S i,j S i,j ≡ i+1 〓 k=i-1 j+ 1 〓 l=j-1 Z k,l Here, Z K,l represents the density (brightness) at the pixel (k, l) (k, l are positive integers) of the image before applying the Laplacian operator, and U i ,j represents the value at pixel (i, j) of the image after applying the Laplacian operator. In particular, here, when U i,j < 0, it is corrected to U i,j = 0 so that the Laplacian operator processing result is non-negative. That's how it is.
視差オフセツト検出回路25における“視差オ
フセツト”は画像が全体として一致すべきシフト
量を表わし、左原画と右原画の(全体としての)
相互相関が最大となるが如き、シフト量として求
められる。 The "parallax offset" in the parallax offset detection circuit 25 represents the shift amount by which the images should match as a whole, and the difference between the left original image and the right original image (as a whole)
It is determined as the amount of shift that maximizes the cross-correlation.
左画・右画のセグメント抽出回路26,27に
おける“セグメント”は、回路23,24より得
られる本質的に太さ1の線画の線成分のうち、次
のいずれかの点の間の部分として考える。即ち(1)
端点、(2)分岐点、(3)極値点(線を追跡した時、画
面上での高さ(y座標)が極大または極小となる
点)の間の部分と考える。セグメントの概念図を
第3図に示す。第3図a,bは左・右の線画のセ
グメントへの分解の様子を示す。図中、白丸41
〜56は端点、分岐点、y座標値極値点のいずれ
かの点であることを表わし、白丸の間の部分57
〜69がセグメントである。左右画特徴点対応付
け回路29では、線成分上の任意の点(“特徴点”
と名付ける)の対応付けを行ない、対応付けられ
た左右画の単セグメントまたは合成セグメント上
の特徴点のうち同一の高さにあるものを対応付け
る。奥行計算回路30では、対応付けられた特徴
点に対応した奥行Zを求めるが、それは、式
Z=f・B/(xl−xr)
により計算される。ただし、奥行Zを測るZ軸
は、両カメラの光軸を含む平面内にあり、両カメ
ラの視点(物体側主点)を結ぶ線分の中点を原点
とし、その線分に垂直な軸である。つまり、両カ
メラの中間位置から見た奥行である。上式中、f
はカメラの焦点距離、Bは基線長で、両カメラの
物体側主点の間の距離、xl,xrは左画、右画にお
ける対応する特徴点の像のx座標を表わしてい
る。 A "segment" in the segment extraction circuits 26 and 27 for left and right drawings is defined as a portion between any of the following points among the line components of the line drawings with essentially a thickness of 1 obtained from the circuits 23 and 24. think. That is (1)
It is considered to be the part between the end point, (2) the branch point, and (3) the extreme point (the point where the height (y coordinate) on the screen is maximum or minimum when tracing the line). A conceptual diagram of the segment is shown in Figure 3. Figures 3a and 3b show how the left and right line drawings are decomposed into segments. In the figure, white circle 41
~56 represents an end point, a branch point, or a y-coordinate value extreme value point, and the part 57 between the white circles
~69 are segments. In the left and right image feature point correspondence circuit 29, any point on the line component (“feature point”)
), and the feature points on the single segment or composite segment of the matched left and right images that are at the same height are matched. The depth calculation circuit 30 determines the depth Z corresponding to the associated feature point, which is calculated by the formula Z=f·B/(x l −x r ). However, the Z axis that measures depth Z lies within the plane that includes the optical axes of both cameras, and the origin is the midpoint of the line segment that connects the viewpoints (object-side principal points) of both cameras, and the axis perpendicular to that line segment is It is. In other words, it is the depth seen from the intermediate position between both cameras. In the above formula, f
is the focal length of the camera, B is the base line length, the distance between the object-side principal points of both cameras, and x l and x r represent the x coordinates of the images of the corresponding feature points in the left and right images.
左右のセグメント抽出回路26,27での処理
は、実施例では、太さ1の線画をラスタスキヤン
して、未追跡セグメントを検出する。そして未追
跡セグメントが検出されたら、そのセグメントを
追跡する。セグメントの追跡においては、各現在
点において、その8隣接点を左まわりに調べて未
追跡黒点を次追跡点とする(黒点は特徴線上の
点、白点はそれ以外の点を表わす。)ただし、も
し、現在点の8近傍中の黒点数NBが3であり、
且つ8近傍を左まわり1周したときの白から黒へ
変化する点対の数NWBが2個であれば、
(1) 次追跡点PAが非4隣接点であり、且つ現在
点から見て次追跡点の1つ左まわり隣りの8近
傍点PBが未追跡点であれば、次追跡点を点PB
に修正し、
(2) 「点PBが既追跡黒点」または、「点PBが白点
且つ、現在点から見てPAの1つ右まわり隣り
の8近傍点が黒点」であれば、次追跡点なしと
いう状態に修正する。そして、次追跡点がない
か、現在点が現セグメントの開始点でなく且つ
分岐点(NB=4なる点またはNB=3で且つ
NWB=3なる点)であるか、現在点がy座標
値極値点であるとき、現在点を現セグメントの
終端点と判断し、セグメント開始点に戻り、ラ
スタスキヤンを再開する。このような処理を繰
り返す。 In the embodiment, the left and right segment extraction circuits 26 and 27 perform a raster scan of a line drawing having a thickness of 1 to detect untracked segments. If an untracked segment is detected, that segment is tracked. In tracking a segment, at each current point, check its 8 neighboring points counterclockwise and use the untracked black point as the next tracking point (black points represent points on the feature line, white points represent other points). , if the number of sunspots NB among the 8 neighbors of the current point is 3,
In addition, if the number NWB of point pairs that change from white to black when going around the 8 neighborhoods counterclockwise is 2, then (1) the next tracking point P A is a non-4 neighboring point, and when viewed from the current point; If 8 neighboring points P B adjacent to the next tracking point in the counterclockwise direction are untracked points, the next tracking point is set to P B
(2) If "point P B is a tracked black point" or "point P B is a white point, and the 8 neighboring points of P A one block clockwise from the current point are black points" , the state is corrected to no next tracking point. Then, if there is no next tracking point or the current point is not the start point of the current segment and a branch point (NB = 4 or NB = 3 and
If the point NWB=3) or the current point is the extreme value point of the y-coordinate value, the current point is determined to be the end point of the current segment, returns to the segment start point, and raster scan is restarted. This process is repeated.
左右セグメント対応付け回路28では、左画セ
グメントをすべて掃引し、各左画セグメントに対
して、対応候補なる右画セグメントをすべて検出
し、登録する。しかる後に、各左画セグメントに
対して、対応候補から1個の右画セグメントを対
応相手として決定する。 The left and right segment correlation circuit 28 sweeps all left image segments, detects all right image segments that are corresponding candidates for each left image segment, and registers them. Thereafter, for each left image segment, one right image segment is determined from among the corresponding candidates as a corresponding partner.
対応候補検出は具体的には以下の如くにする。
左画セグメントをすべて掃引し、その各左画セグ
メントに対して、右画セグメントをすべて掃引す
る。左画セグメントとの視差と視差のオフセツト
値との差の絶対値が許容差内の右画セグメントの
みをとり、その右画セグメントと左画セグメント
との夫々の開始点(上端)と終端点(下端)との
y値を比較し、上下端とも一致していれば、それ
をランク1候補に登録する。上端、下端の一方の
みが一致している場合には、不一致の端の短かい
方の側のセグメントに、それと元来直接連結して
いたセグメントを結合した合成セグメントを考え
る。ただし、この合成セグメントとしては、y値
が単調に変化するもののみを考える。この合成セ
グメントと、当該相手の単セグメントの上・下端
のy値を比較し、上下端とも一致すれば、やはり
ランク1候補へ登録する。上下端とも一致する合
成セグメントが見つからない時は、もとの右画単
セグメント(左画セグメントも単体)をランク2
候補に登録する。 Specifically, the correspondence candidate detection is performed as follows.
Sweep all left picture segments, and for each left picture segment, sweep all right picture segments. Take only the right image segment for which the absolute value of the difference between the disparity with the left image segment and the offset value of the disparity is within the tolerance, and calculate the starting point (upper end) and ending point (of the right image segment and left image segment, respectively). The y value is compared with the lower end), and if both the upper and lower ends match, it is registered as a rank 1 candidate. When only one of the top and bottom ends matches, a composite segment is considered in which the segment on the shorter side of the mismatched end is joined to the segment that was originally directly connected to it. However, as this composite segment, only those whose y values change monotonically will be considered. The y values of the upper and lower ends of this composite segment and the single segment of the other party are compared, and if both the upper and lower ends match, it is also registered as a rank 1 candidate. If a composite segment that matches both the top and bottom ends is not found, the original right single segment (the left single segment is also single) is ranked 2.
Register as a candidate.
すでに述べた第3図を用いて、対応候補抽出の
考え方を概念的に示す。左画セグメント57,5
9,61,62,63は単セグメントとして、右
画セグメント64,66,67,68,69に対
応する。しかし、左画セグメント58,60は単
セグメントとしては、右画セグメントに対応する
相手はない。しかし、58と60を結合した合成
セグメントとしてはセグメント65を候補として
とることができる。したがつて、本発明により、
左右画での雑音による影響を克服することができ
る(左画の分岐点42に対応した分岐点は右画に
ない)。 The concept of correspondence candidate extraction is conceptually illustrated using FIG. 3, which has already been described. Left image segment 57,5
9, 61, 62, and 63 correspond to right image segments 64, 66, 67, 68, and 69 as single segments. However, as single segments, the left image segments 58 and 60 have no counterpart in the right image segment. However, segment 65 can be taken as a candidate for the composite segment that combines 58 and 60. Therefore, according to the present invention,
It is possible to overcome the influence of noise in the left and right images (the right image does not have a branch point corresponding to the branch point 42 in the left image).
対応決定においては、各左画セグメントに対し
て候補として登録された右画セグメントの中から
対応相手を決定する。ランク1候補があれば、そ
の中からある特徴量の最大または最小化(例え
ば、視差と視差オフセツトとの差の絶対値の最小
化)により、唯一つ右画セグメントを対応相手と
して決定する。 In determining the correspondence, a correspondence partner is determined from among the right image segments registered as candidates for each left image segment. If there is a rank 1 candidate, the only right image segment is determined as the corresponding partner by maximizing or minimizing a certain feature amount (for example, minimizing the absolute value of the difference between the disparity and the disparity offset).
以上述べた実施例の方法を実際、プログラム化
し、デイジタル電子計算機により実行したシミユ
レーシヨン実験を以下に示す。机上の押ボタン電
話器をアツプして2つの異なる視点から撮影し、
計算機に入力した原画に前に述べた3×3画素を
単位としたラプラシアン(負値は0に修正)を適
用し、その結果を細線化した結果を第4図a,b
に示す。撮影条件は、同一のカメラを移動し、両
撮影状態において光軸が互に平行であり、両カメ
ラの画像面は同一平面上にあり、矩形の画像枠の
一辺は、両光軸を含む平面に平行である。細線化
は、ヒルデイツチ(Hilditch)による8連結用に
よるものである。第4図aが左視点、第4図bが
右視点のものである。 A simulation experiment in which the method of the embodiment described above was actually programmed and executed using a digital computer will be shown below. I pulled up a push-button telephone on a desk and photographed it from two different perspectives.
The above-mentioned Laplacian (negative values are corrected to 0) is applied to the original image input into the computer in units of 3 x 3 pixels, and the results are thinned and the results are shown in Figure 4 a and b.
Shown below. The shooting conditions are that the same camera is moved, the optical axes are parallel to each other in both shooting conditions, the image planes of both cameras are on the same plane, and one side of the rectangular image frame is a plane that includes both optical axes. is parallel to Thinning is by Hilditch for 8 connections. FIG. 4a shows the left viewpoint, and FIG. 4b shows the right viewpoint.
上記の左線画(第4図a)と右線画(第4図
b)とを対応付けた結果を第5図に示す。ただ
し、第5図図示のものは、左線画と右線画との対
応する特徴点から求めた奥行に対応した3次元的
な点を、左視点(第4図aに対応)及び右視点
(第4図bに対応)以外の第3の視点より見たと
き得られる特徴点画(“合成第3視点画”)として
描いたもので、実際第3の視点としては、上記左
視点と右視点の丁度中間の視点をとつたものであ
る。セグメントの上下端の一致性判定に於ける許
容差は±3画素である。 FIG. 5 shows the result of associating the left line drawing (FIG. 4a) with the right line drawing (FIG. 4b). However, in the case shown in Fig. 5, the three-dimensional points corresponding to the depths obtained from the corresponding feature points of the left line drawing and the right line drawing are calculated from the left viewpoint (corresponding to Fig. 4 a) and the right viewpoint (corresponding to It is drawn as a feature point image obtained when viewed from a third viewpoint (corresponding to Fig. 4b) (“synthesized third viewpoint image”), and in fact, the third viewpoint is the same as the left and right viewpoints above. This is exactly the middle point of view. The tolerance in determining the consistency of the upper and lower ends of a segment is ±3 pixels.
第5図は、第4図a,bに類似しているので一
応正しく対応付けられていることが了解される
が、対応付け結果第5図図示のものを、より定量
的に評価するために、上記の第3視点で直接撮影
した原画に対してやはりラプラシアンと細線化と
を施して得られる線画(第3視点画)が第6図に
示される。第5図図示のものと第6図図示のもの
とを重ねて透かして見れば分かるように、第5図
の特徴点は第6図の特徴線の上に殆んど完全に載
つていることが分かる。ただし、合成第3視点画
では、同じセグメント上では、同一のy座標(離
散値)に対し、1点のみ描いてあるので、長い水
平線も一点に対応し、見掛け上第6図の水平線が
第5図では欠落している如くに見えるが、第6図
図示の水平線上にほぼ載つている第5図上の特徴
点が対応する点である。以上より、第5図の対応
付けは、すべてではないが、主要な線部分は殆ん
ど完全に対応付けられており、良好な結果である
ことが分かる。 Since Figure 5 is similar to Figure 4 a and b, it can be understood that the correspondence is correct, but in order to more quantitatively evaluate the correspondence results shown in Figure 5. FIG. 6 shows a line drawing (third viewpoint drawing) obtained by applying Laplacian and thinning to the original image directly photographed from the above-mentioned third viewpoint. As can be seen by superimposing and looking through the image shown in Figure 5 and the image shown in Figure 6, the feature points in Figure 5 are almost completely located on the feature lines in Figure 6. I understand. However, in the composite third viewpoint drawing, only one point is drawn for the same y-coordinate (discrete value) on the same segment, so a long horizontal line also corresponds to one point, and the horizontal line in Figure 6 appears to be the same point. Although it appears to be missing in FIG. 5, the feature point in FIG. 5, which is almost on the horizontal line shown in FIG. 6, is the corresponding point. From the above, it can be seen that the correspondence shown in FIG. 5 is a good result, with most, but not all, of the main line parts being perfectly matched.
さらに、対応付けの結果得られる奥行の絶対値
の正しさを調べるため、いくつかの代表的なセグ
メントの各3点での奥行の計算値Zc(単位cm)を
第7図aに示す。図中丸内の数字は代表的セグメ
ントの通し番号を示す。図中には、各代表的セグ
メントに対応した部分の平均奥行の実測値Zd(単
位cm)を合わせて示す。実測値Zdは、巻尺による
直接計測値と当該計測値から幾何学的計算のみか
ら求めた値とのいずれかであり、その計測の状況
を第7図bに示す(丸内の番号は第7図aに対
応)。第7図cは第7図bに示す測定点を対象物
体上で具体的に示す図である。第7図aは本図を
右方向から撮影して得た対応付け画像である。な
お図中,は垂直部分のパネルと番号早見台と
の連接部分、はコードの出口部分、はコード
部分、は受話器の向う側の台のエツジ(視点か
らみて左端の奥)、ボタン□5は押釦「5」の位置
を表わしている。 Furthermore, in order to check the correctness of the absolute value of the depth obtained as a result of the correspondence, the calculated depth Z c (unit: cm) at each of three points of several representative segments is shown in FIG. 7a. The numbers in circles in the figure indicate serial numbers of representative segments. The figure also shows the actual measured value Z d (unit: cm) of the average depth of the portion corresponding to each representative segment. The actual measurement value Z d is either a value directly measured with a tape measure or a value obtained from the measurement value only by geometric calculation, and the measurement situation is shown in Figure 7b (the numbers in circles are (corresponding to Figure 7 a). FIG. 7c is a diagram specifically showing the measurement points shown in FIG. 7b on the target object. FIG. 7a is a matching image obtained by photographing this figure from the right side. In the figure, is the connection between the vertical panel and the number check stand, is the exit part of the cord, is the cord part, is the edge of the stand on the other side of the handset (the back of the left end when viewed from the viewpoint), and button □5 is the push button. It represents the "5" position.
第7図aのZc,Zdを比較すれば、本対応付け方
法により得られる奥行値Zcは、測定精度の範囲で
一致していることが分かる。画像を計算機に入力
する時の画素精度をより大きくすれば、一致度は
もつと良くなる。 By comparing Z c and Z d in FIG. 7a, it can be seen that the depth values Z c obtained by this association method match within the range of measurement accuracy. The greater the pixel precision when inputting images into a computer, the better the degree of matching will be.
以上の実施例では、原画から線画を得るのに3
×3画素の平均化を伴なう離散型ラプラシアンを
用いているが、他のn×n画素(nは任意)の平
均化を伴なう離散型ラプラシアンでも良い。さら
に離散型ラプラシアンの代わりに、2次元ガウシ
アンにラプラシアンオペレータ
(∂2/∂x2+∂2/∂y2)
を適用して得られるガウスラプラシアンでも良
く、また一般の1次、2次、3次等の離散型微分
オペレータまたは、それに等価なものでも良い。
また、線画を得るのに微分オペレータを原画に作
用後、2値化、細線化(または中心線抽出)する
代わりに、2階微分オペレータ作用後、零交差線
抽出(その後必要なら細線化しても良い)により
線画を得ても良い。特徴線画として、以上のよう
なエツジを表わす線画以外、領域分割(region
segm−entation)結果の境界線や画像の濃度地
形のいかなる微分幾何学的な特徴線でも良く、原
画の特徴を表わす線画であれば良く必ずしも細線
化(Thin−ning)または芯線抽出(Medial
Axis Transforma−tion)を用いなくても得ら
れた特徴線画の線の太さが本質的に1であれば良
い。 In the above example, it takes 3 steps to obtain a line drawing from an original drawing.
Although a discrete Laplacian with averaging of ×3 pixels is used, a discrete Laplacian with averaging of other n×n pixels (n is arbitrary) may be used. Furthermore, instead of the discrete Laplacian, a Gaussian Laplacian obtained by applying the Laplacian operator (∂ 2 /∂x 2 +∂ 2 /∂y 2 ) to a two-dimensional Gaussian may be used, or a general linear, quadratic, or cubic A discrete differential operator such as the following or an equivalent thereof may be used.
Also, to obtain a line drawing, instead of applying a differential operator to the original image and then binarizing and thinning it (or extracting the center line), you can apply a second-order differential operator and then extract zero-crossing lines (and then thin the line if necessary). You can also obtain a line drawing by using Characteristic line drawings other than line drawings representing edges such as those described above can be used as feature line drawings.
segm-entation) resultant boundary line or any differential geometric feature line of the density topography of the image, it may be any line drawing that represents the characteristics of the original image, and it does not necessarily have to be thinning or median line extraction (Medial).
It is sufficient if the line thickness of the characteristic line drawing obtained without using Axis Transformation is essentially 1.
セグメント抽出は、「連結線成分のうち端点、
分岐点または高さについての極値点の間の部分」
で定義されるセグメントまたはそれに近かいもの
を抽出できれば、いかなるアルゴリズムでも良
い。このアルゴリズムは一般にその前の段階の特
徴線画の抽出特に細線化アルゴリズムに依存しう
る。セグメントの定義において、高さの極値点
(次の追跡点で高さ方向に1画素分戻る点)の代
わりに疑似極値点(次の追跡点で高さ方向にi画
素分戻る点(i=2,3…))をとることも考え
られる。 Segment extraction is performed by extracting end points of connected line components,
the part between the bifurcation points or extreme points of height.”
Any algorithm may be used as long as it can extract the segment defined by or something close to it. This algorithm may generally rely on a previous stage of feature line drawing extraction, particularly a thinning algorithm. In defining a segment, instead of the height extremum point (the point at which the next tracking point returns one pixel in the height direction), a pseudo-extremum point (the point at which the next tracking point returns i pixels in the height direction) It is also possible to take i=2, 3...)).
対応候補抽出の実施例において、候補をランク
1、ランク2に分けて抽出しており、対応決定に
おいてランク1,2の階層性を考慮しているが、
ランクの構成をこれ以外でも良く、またランク1
の候補だけを抽出し、その範囲内で対応決定を行
なうことも考えられる。また、対応付けの対象と
して単セグメント及び2個のセグメントより成る
合成セグメントまでを考えているが、より拡張し
て単セグメント及び、n個(n≧3)まで、また
は任意個数のセグメントより成る合成セグメント
を対象にすることも考えられる(ただし、その合
成セグメントは、高さについてほぼ単調に変化す
る如きものである)。さらに一般に、連結線成分
の端点、分岐点、極値点(高さについて)の高さ
を含む所の連結線成分の構造特徴に基づいて連結
線成分の対応付けを行なうことも考えられる。 In the example of extracting correspondence candidates, candidates are extracted by dividing them into ranks 1 and 2, and the hierarchical nature of ranks 1 and 2 is taken into consideration in determining the correspondence.
You can change the rank structure to something other than this, or rank 1.
It is also conceivable to extract only the candidates of , and make correspondence decisions within that range. In addition, we are considering a single segment and a composite segment consisting of two segments as objects of correspondence, but it can be expanded to include a single segment and a composite segment consisting of up to n (n≧3) or any number of segments. It is also possible to target segments (however, the composite segment is such that the height changes almost monotonically). Furthermore, in general, it is also conceivable to associate the connected line components based on the structural features of the connected line components including the heights of the end points, branch points, and extreme points (with respect to height) of the connected line components.
実施例の対応決定では(ランク1またはランク
2の)候補が複数ある場合には、視差と視差オフ
セツトとの差が最小なるものを選んでいるが、こ
の代わりに、他の特徴量の最小(大)なものでも
良い。例えば、左右セグメントが存在する共通の
高さ(y値)の範囲の幅と、各セグメントが存在
する高さの範囲の幅の平均との比の最大なもので
も良い。さらに、対応候補抽出の段階で、連結成
分の構造情報その他の特徴により、出来るだけ候
補数を1とし、候補数が複数残つた時は、決定を
拒否(reject)することも考えられる。 In the correspondence determination of the embodiment, when there are multiple candidates (of rank 1 or rank 2), the one with the smallest difference between the disparity and the disparity offset is selected. (large) is fine. For example, it may be the maximum ratio between the width of the common height (y value) range where the left and right segments exist and the average width of the height range where each segment exists. Furthermore, at the stage of extracting correspondence candidates, it is conceivable to set the number of candidates to one as much as possible based on the structural information of the connected components and other characteristics, and to reject the determination when a plurality of candidates remain.
実施例では、対応付け対象なる画像を撮影した
カメラの光軸は互に平行であり、カメラの像平面
は同一平面上にあり、画像の矩形枠の一方(x
軸)が両光軸を含む平面に平行であることを仮定
しているが、両カメラの相対位置、相対姿勢が一
応分つており、シーンとしての共通部分が十分大
きければ、必ずしもこのような条件を満たす必要
はない。この場合、実施例の、光軸が平行な場合
に用いた“高さ”(画像の高さ方向位置であつて、
“高さの極値点”や、“端点、分岐点、高さの極値
点の高さ”等で用いたものでy座標値に同じ)の
代わりに前記“一般化高さ”を用いる必要があ
る。 In the example, the optical axes of the cameras that photographed the images to be correlated are parallel to each other, the image planes of the cameras are on the same plane, and one side of the rectangular frame of the image (x
axis) is parallel to the plane containing both optical axes, but if the relative positions and orientations of both cameras are known, and the common part of the scene is sufficiently large, this condition is not necessarily met. There is no need to satisfy. In this case, the "height" used in the example when the optical axes are parallel (the height direction position of the image,
Use the above-mentioned "generalized height" instead of "height extreme point", "height of end point, branch point, height extreme point", etc. (same as y coordinate value) There is a need.
ほぼ同じ特性のカメラが2台以上あつても良い
が、そのうちの任意の2台の画像の間の対応付け
に本発明の方法を適用できる。さらに1台のカメ
ラを用いて視点を変えて撮影して、左画、右画を
得るようにしてもよい。 Although there may be two or more cameras with substantially the same characteristics, the method of the present invention can be applied to the correspondence between images from any two of them. Furthermore, a left image and a right image may be obtained by using one camera and photographing from different viewpoints.
本発明の方法は、白黒濃淡画像だけでなく、カ
ラー階調画像に適用することも考えられる。また
本発明の方法は、物体の形状及び表面材料を反映
して主に光の反射を通して生ずるエツジ等の画像
の特徴線が、写真の粒状性雑音やテレビカメラの
電子的雑音等によりトギレたり、曲つたり、ひつ
ついたり、分岐したりという変形に抗して、特徴
線上の点(特徴点と名付ける)を正しく対応付け
るものであり、そのために、カメラに於て、視点
から見た物体上の点のカメラに相対的な方向と像
面に於ける位置とが光の屈折の法則から一対一対
応する性質を利用している。 It is contemplated that the method of the present invention may be applied not only to black-and-white grayscale images but also to color gradation images. In addition, the method of the present invention eliminates the possibility that characteristic lines of images such as edges, which are caused mainly through light reflection reflecting the shape and surface material of an object, are distorted due to grainy noise in photographs, electronic noise from television cameras, etc. It resists deformations such as bending, hitting, and branching, and correctly associates points on the feature line (named feature points). It utilizes the property that the direction of a point relative to the camera and its position on the image plane have a one-to-one correspondence based on the law of refraction of light.
更に実施例第2図では、図中のブロツク間に一
方向の信号の伝達しか表わされていないが、他の
方向の線により信号がフイードバツクされること
も可能であり、例えば、対応付け回路28の結果
を左右の線画抽出回路にフイードバツクをかけ
て、その処理パラメータ例えば2値化の閾値を変
えるようにしてもよい。 Further, in FIG. 2 of the embodiment, only one direction of signal transmission is shown between the blocks in the figure, but it is also possible for signals to be fed back by lines in other directions. The results of step 28 may be fed back to the left and right line drawing extraction circuits to change their processing parameters, such as the binarization threshold.
(5) 効果の説明
以上説明したように、本発明によれば、特徴線
上の点の対応付けが確実に行われ、それにより特
徴線上で奥行情報が確実に得られ、しかもそれが
レーザ照射やスリツト光照射法等の光投影による
奥行測定法の如くにあまり明るい部屋では使いに
くいという制限がなく、また光照射による人間に
対する危険もなく、対象となる人間側の不快感や
煩わしさを招くという事もないので、汎用性があ
り、且つ人間との共存空間にも使用することが出
来るという長所を持つている。したがつて、汎用
知能ロボツト用ビジヨンにおいて、物体主要特徴
点までの距離が得られ、したがつて物体までの平
均距離が求まり、さらに主要特徴点までの距離と
トツプダウン知識により、物体の識別・理解に用
いることができ、さらに、物体の主要特徴点での
奥行を物体面全体へ内挿すれば、形状の再現によ
る、より高度な理解にも使用することが出来る。(5) Explanation of Effects As explained above, according to the present invention, the correspondence between points on the feature line is reliably performed, and thereby depth information can be reliably obtained on the feature line. Unlike depth measurement methods using light projection such as the slit light irradiation method, this method does not have the limitation that it is difficult to use in a bright room, and there is no danger to humans due to light irradiation, which may cause discomfort or annoyance to the human subject. It has the advantage of being versatile and can be used in coexistence spaces with humans. Therefore, in vision for general-purpose intelligent robots, the distance to the object's main feature points can be obtained, the average distance to the object can be found, and the object can be identified and understood using the distance to the main feature points and top-down knowledge. Furthermore, by interpolating the depth at the main feature points of an object to the entire object plane, it can also be used for more advanced understanding by reproducing the shape.
第1図はステレオカメラ系の概念図、第2図は
本発明の構成を示す流れ図、第3図は線画のセグ
メントへの分解及びセグメント間の対応付けを例
示する概念図、第4図aはシミユレーシヨン実験
における電話シーンの左線画、第4図bは同じく
右線画を示す。第5図は第4図の線画を本実施例
の対応付け法により対応付けした結果の合成第3
視点画を示し、第6図は第3視点での原画から直
接求めた特徴点を示した画であり、第7図aは対
応付け結果に基づく、サンプル点での奥行の計算
値と直接計測に基づく値を示した説明図、第7図
bおよびcは直接計測に基づく値を求める状況を
表わした説明図を示す。
1,2……カメラNo.1,2の視点、3,4……
光軸、5,6……像面、7,8……像面の中心、
9,11……x軸(x1,x2)、10,12……y
軸(y1,y2)、13……対象物体上の点、14,
15……物体点13に対応したカメラNo.1,2の
像点(または画像点)、16,17……エピポー
ラ線、21,22……左・右の原画入力装置、2
3,24……左・右線画抽出回路、25……視差
オフセツト、26,27……左・右画セグメント
抽出回路、28……左右セグメント対応付け回
路、29……左・右画特徴点対応付け回路、30
……奥行計算回路、41〜56……端点・分岐
点・高さ極値点のいずれかの点、57〜69……
セグメント。
Fig. 1 is a conceptual diagram of a stereo camera system, Fig. 2 is a flow chart showing the configuration of the present invention, Fig. 3 is a conceptual diagram illustrating the decomposition of a line drawing into segments and the correspondence between segments, and Fig. 4 a The left line drawing of the telephone scene in the simulation experiment, and FIG. 4b also shows the right line drawing. Figure 5 shows the third composite result of mapping the line drawings in Figure 4 using the mapping method of this example.
Figure 6 shows the feature points obtained directly from the original image at the third viewpoint, and Figure 7a shows the calculated value and direct measurement of the depth at the sample point based on the matching result. Figures 7b and 7c are explanatory diagrams showing values based on direct measurements. 1, 2...Viewpoints of camera No. 1 and 2, 3, 4...
Optical axis, 5, 6... image plane, 7, 8... center of image plane,
9, 11... x axis (x 1 , x 2 ), 10, 12... y
Axis (y 1 , y 2 ), 13... Point on target object, 14,
15... Image points (or image points) of cameras No. 1 and 2 corresponding to object point 13, 16, 17... Epipolar line, 21, 22... Left and right original image input devices, 2
3, 24... Left and right line drawing extraction circuit, 25... Parallax offset, 26, 27... Left and right image segment extraction circuit, 28... Left and right segment correspondence circuit, 29... Left and right image feature point correspondence attached circuit, 30
... Depth calculation circuit, 41-56 ... Any point among end points, branch points, and height extreme points, 57-69 ...
segment.
Claims (1)
り異なる視点から撮影した複数枚の画像のうち、
2枚の画像に対して、両画像より特徴線画を抽出
し、 その特徴線画中の各連結な線成分中で、その端
点、分岐点、および上記異なる視点の夫々の光軸
が平行であるとみなした際の各夫々の画像上での
y座標に相当する一般化高さについての極大値点
または極小値点により分離したセグメントを抽出
し、 2枚の画像について左右画でのセグメントの上
下端点の一般化高さが許容差内で一致しているか
否かの情報及び各画でのセグメント間の隣接構造
情報に基づいて、左右画のセグメント間の対応付
けを行い、セグメントの対応付け結果に基づいて
各セグメント上の点に対応した奥行Zを、 Z=f・B/(xL−xr) 但しfは画像入力光学装置の焦点距離 Bは基線長 xL,xrは夫々対応する点の像のx座標を求める
ようにした ことを特徴とするステレオ画像の対応付け処理方
法。 2 セグメント間の対応付け方法として、セグメ
ント1個または複数個のセグメントより成つてい
て、その中に枝分かれを含まず、且つ一般化高さ
についてほぼ単調に変化する合成セグメントを左
右画間で比較し、両画の単セグメントまたは合成
セグメントの上下端の一般化高さが一致するか否
かを基本として、両画のセグメント間の対応付け
を定めることを特徴とする特許請求の範囲第1項
記載のステレオ画像の対応付け処理方法。[Claims] 1. Among a plurality of images of the same scene taken from different viewpoints using an image input optical device,
For two images, characteristic line drawings are extracted from both images, and in each connected line component in the characteristic line drawings, it is assumed that the end points, branch points, and optical axes of the above-mentioned different viewpoints are parallel. Extract segments separated by the maximum value point or minimum value point for the generalized height corresponding to the y-coordinate on each image, and extract the upper and lower end points of the segment in the left and right images for the two images. The correspondence between the segments of the left and right images is performed based on the information on whether the generalized heights of Based on the depth Z corresponding to the point on each segment, Z = f・B/(x L − x r ), where f is the focal length of the image input optical device, and B is the baseline length x L and x r correspond to each other. A stereo image mapping method characterized in that the x-coordinate of a point image is determined. 2. As a method for associating segments, a composite segment consisting of one or more segments, which does not include any branching, and whose generalized height changes almost monotonically, is compared between the left and right images. Claim 1, characterized in that the correspondence between the segments of both images is determined based on whether the generalized heights of the upper and lower ends of the single segment or composite segment of both images match. The described stereo image mapping processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59024163A JPS60173403A (en) | 1984-02-10 | 1984-02-10 | Correspondence processing method of stereophonic image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59024163A JPS60173403A (en) | 1984-02-10 | 1984-02-10 | Correspondence processing method of stereophonic image |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS60173403A JPS60173403A (en) | 1985-09-06 |
JPH047805B2 true JPH047805B2 (en) | 1992-02-13 |
Family
ID=12130669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP59024163A Granted JPS60173403A (en) | 1984-02-10 | 1984-02-10 | Correspondence processing method of stereophonic image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS60173403A (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0658209B2 (en) * | 1985-03-13 | 1994-08-03 | 株式会社トプコン | Coordinate measuring method and device |
JP4892982B2 (en) * | 2006-01-12 | 2012-03-07 | 株式会社島津製作所 | Magnetic mapping device |
DE102010064593A1 (en) * | 2009-05-21 | 2015-07-30 | Koh Young Technology Inc. | Form measuring device and method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5023741A (en) * | 1973-06-30 | 1975-03-14 | ||
JPS5619168A (en) * | 1979-07-26 | 1981-02-23 | Fujitsu Ltd | Graph processing system |
JPH08159186A (en) * | 1994-12-07 | 1996-06-18 | Ogura Clutch Co Ltd | Multiple disk electromagnetic brake |
-
1984
- 1984-02-10 JP JP59024163A patent/JPS60173403A/en active Granted
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5023741A (en) * | 1973-06-30 | 1975-03-14 | ||
JPS5619168A (en) * | 1979-07-26 | 1981-02-23 | Fujitsu Ltd | Graph processing system |
JPH08159186A (en) * | 1994-12-07 | 1996-06-18 | Ogura Clutch Co Ltd | Multiple disk electromagnetic brake |
Also Published As
Publication number | Publication date |
---|---|
JPS60173403A (en) | 1985-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021115071A1 (en) | Three-dimensional reconstruction method and apparatus for monocular endoscope image, and terminal device | |
CN105374019B (en) | A kind of more depth map fusion methods and device | |
JP3539788B2 (en) | Image matching method | |
US7139424B2 (en) | Stereoscopic image characteristics examination system | |
KR101121034B1 (en) | System and method for obtaining camera parameters from multiple images and computer program products thereof | |
JP4095491B2 (en) | Distance measuring device, distance measuring method, and distance measuring program | |
JPH11509946A (en) | Method and system for image combination using parallax dependent technique | |
JP2005326247A (en) | Calibrator, calibration method, and calibration program | |
JP2953154B2 (en) | Shape synthesis method | |
JPH0719832A (en) | Extracting method for corresponding points of pulirity of images | |
JP2910698B2 (en) | Three-dimensional structure estimation method and apparatus | |
JP2001148012A (en) | Method and device for searching corresponding point | |
JP4424797B2 (en) | 3D shape detection method | |
Luo et al. | Using surface model to correct and fit disparity data in stereo vision | |
JPH047805B2 (en) | ||
JP2807137B2 (en) | 3D shape detection method | |
JP2961140B2 (en) | Image processing method | |
CN115034988A (en) | RGBD camera-based two-stage main body point cloud filtering method | |
JP3340599B2 (en) | Plane estimation method | |
JP2958462B1 (en) | Method and apparatus for correcting luminance of stereo image | |
CN111080689B (en) | Method and device for determining face depth map | |
CN113031262B (en) | Integrated imaging system display end pixel value calculation method and system | |
WO2024134935A1 (en) | Three-dimensional information correction device and three-dimensional information correction method | |
JPH06265322A (en) | Method for detecting parallax error from a plurality of images | |
JPH0534117A (en) | Image processing method |