JP2011182397A - Method and apparatus for calculating shift length - Google Patents
Method and apparatus for calculating shift length Download PDFInfo
- Publication number
- JP2011182397A JP2011182397A JP2011040833A JP2011040833A JP2011182397A JP 2011182397 A JP2011182397 A JP 2011182397A JP 2011040833 A JP2011040833 A JP 2011040833A JP 2011040833 A JP2011040833 A JP 2011040833A JP 2011182397 A JP2011182397 A JP 2011182397A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- amount calculation
- deviation amount
- deviation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、ずれ量算出方法およびずれ量算出装置に関する。 The present invention relates to a deviation amount calculation method and a deviation amount calculation apparatus.
3D画像を視聴するために立体映像を撮影する場合、当該映像を2台のカメラを用いて撮影することが一般的である。映像が正確に撮影されることを保証するためには、2台のカメラは、同じズームレベルと、最小の垂直視差とを有する必要がある。また、2台のカメラのロールずれ量が最小である必要もある。 When a 3D image is captured to view a 3D image, it is common to capture the image using two cameras. In order to ensure that the video is captured correctly, the two cameras need to have the same zoom level and minimal vertical parallax. In addition, the amount of roll deviation between the two cameras needs to be minimal.
通常、上記ずれ量は、可能である場合はカメラの操作者によって修正される。2台のカメラ間のずれは単独ではなく、2つ以上のずれが組み合わさって起こることが典型的であるため、カメラ操作者がこれらのずれ量を確定して修正することは困難である。さらに、特に生放送のビデオ映像の場合、このようなエラーを迅速にかつ正確に修正することが重要である。 Usually, the deviation is corrected by the camera operator if possible. Since the deviation between the two cameras is typically not a single, but a combination of two or more deviations, it is difficult for the camera operator to determine and correct these deviations. Furthermore, it is important to correct such errors quickly and accurately, especially in the case of live video footage.
本発明の実施形態は、上記問題に対処することを目的とする。 Embodiments of the present invention aim to address the above problems.
本発明の第1の実施形態によれば、立体的に視聴可能な第1の画像と第2の画像との間のずれ量を算出する方法であって、上記第1の画像内の特徴点の位置と、上記第2の画像内の対応する特徴点の位置とを特定し、上記第1の画像および上記第2の画像内において、上記第1の画像および上記第2の画像のそれぞれを撮影するカメラの光軸を確定し、所定のモデルを用いて、上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置との間のずれ量を計算し、ランダムサンプルコンセンサス技術を用いて、上記計算されたずれ量の妥当性をテストし、上記ずれ量は、上記第1の画像および上記第2の画像のそれぞれの上記確定された光軸に関する、上記第1の画像の上記特徴点の位置と、上記第2の画像の上記対応する特徴点の位置とに応じて算出され、上記テストされたずれ量は、上記ランダムサンプルコンセンサス技術が所定の条件を達成したときに妥当とされる、ずれ量算出方法が提供される。 According to the first embodiment of the present invention, there is provided a method for calculating a shift amount between a first image and a second image that can be viewed in three dimensions, and a feature point in the first image. And the position of the corresponding feature point in the second image, and in the first image and the second image, the first image and the second image are respectively The optical axis of the camera to be photographed is determined, and using a predetermined model, the difference between the position of the feature point in the first image and the position of the corresponding feature point in the second image Calculating the amount and testing the validity of the calculated displacement amount using a random sample consensus technique, wherein the displacement amount is determined by the determined light of each of the first image and the second image. The position of the feature point of the first image with respect to the axis and the top of the second image. Is calculated according to the position of the corresponding feature points, the tested shift amount, the random sample consensus techniques are appropriate when the predetermined condition is achieved, the shift amount calculating method is provided.
上記ずれ量は、上記ずれ量が正確である確率が閾値を上回るときに妥当であってもよい。 The deviation amount may be appropriate when the probability that the deviation amount is accurate exceeds a threshold value.
上記所定の条件は、上記ランダムサンプルコンセンサス技術が所定回数反復されることであってもよい。 The predetermined condition may be that the random sample consensus technique is repeated a predetermined number of times.
上記反復の回数は、下記の式に基づいて算出されてもよい。 The number of repetitions may be calculated based on the following formula.
上記モデルは、下記の式によって定義されてもよい。 The model may be defined by the following equation:
上記ずれ量算出方法はさらに、ブロックマッチング技術を用いて、元の第1の画像および元の第2の画像の縮小版から特徴点を取得するステップを含んでもよい。 The deviation amount calculation method may further include a step of acquiring feature points from a reduced version of the original first image and the original second image using a block matching technique.
上記ずれ量算出方法はさらに、上記元の第1の画像および上記元の第2の画像の上記縮小版から取得された上記特徴点を、上記元の第1の画像および上記元の第2の画像におけるブロックマッチング技術の開始点として用い、上記元の第1の画像および上記元の第2の画像から第1の特徴点および第2の特徴点を取得するステップを含んでもよい。 The deviation amount calculation method further includes calculating the feature points acquired from the reduced version of the original first image and the original second image, using the original first image and the original second image. It may be used as a starting point for a block matching technique in an image, and may include obtaining a first feature point and a second feature point from the original first image and the original second image.
上記ずれ量算出方法はさらに、上記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、上記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するステップを含んでもよく、上記第1の画像において2つの特徴点の位置を、上記第2の画像において対応する2つの特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与の回転ずれ量に基づいて、上記第1の画像と上記第2の画像との間の垂直ずれ量を算出してもよい。 The deviation amount calculation method further includes the step of specifying the position of at least one further feature point in the first image and specifying the position of at least one corresponding further feature point in the second image. The position of two feature points in the first image and the position of the two corresponding feature points in the second image may be selected, and the position between the first image and the second image may be selected. A vertical shift amount between the first image and the second image may be calculated based on a given rotation shift amount.
上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の上方に位置してもよく、かつ上記第1の画像内の上記さらなる特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の下方に位置してもよい。 The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located above the determined optical axis, and the first image The position of the further feature point in the second image and the position of the corresponding feature point in the second image may be located below the determined optical axis.
上記第1の画像内において特徴点の位置を選択し、上記第2の画像内において対応する特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与の垂直ずれ量に基づいて、上記第1の画像と上記第2の画像との間のスケールずれ量を算出してもよい。 Selecting a position of a feature point in the first image, selecting a position of a corresponding feature point in the second image, and providing a given point between the first image and the second image Based on the vertical shift amount, the scale shift amount between the first image and the second image may be calculated.
上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の上方に位置してもよいか、または上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の下方に位置してもよい。 The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located above the determined optical axis, or The position of the feature point in one image and the position of the corresponding feature point in the second image may be located below the determined optical axis.
上記ずれ量算出方法はさらに、上記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、上記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するステップを含んでもよく、上記第1の画像内において2つの特徴点の位置を選択し、上記第2の画像内において対応する2つの特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与のスケールずれ量に基づいて、上記第1の画像と上記第2の画像との間の回転ずれ量を算出してもよい。 The deviation amount calculation method further includes the step of specifying the position of at least one further feature point in the first image and specifying the position of at least one corresponding further feature point in the second image. Alternatively, the positions of two feature points are selected in the first image, the positions of two corresponding feature points are selected in the second image, and the first image and the second image are selected. The amount of rotational deviation between the first image and the second image may be calculated based on a given amount of scale deviation between the first image and the second image.
上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の左側に位置してもよく、かつ上記第1の画像内の上記さらなる特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の右側に位置してもよい。 The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located on the left side of the determined optical axis, and the first The position of the further feature point in the second image and the position of the corresponding feature point in the second image may be located on the right side of the determined optical axis.
上記特徴点の位置および上記さらなる特徴点の位置は、ランダムに生成されてもよい。 The position of the feature point and the position of the further feature point may be randomly generated.
上記特徴点の位置は、上記第1の画像および上記第2の画像内の画素位置であってもよい。 The position of the feature point may be a pixel position in the first image and the second image.
本発明の第2の実施形態によれば、コンピュータに、上記ずれ量算出方法の各ステップを実行させるプログラムが提供される。 According to the second embodiment of the present invention, there is provided a program for causing a computer to execute each step of the deviation amount calculation method.
本発明の第3の実施形態によれば、プログラム(請求項16に対応)が記録された記録媒体が提供される。 According to the third embodiment of the present invention, a recording medium on which a program (corresponding to claim 16) is recorded is provided.
本発明の第4の実施形態によれば、立体的に視聴可能な第1の画像と第2の画像との間のずれ量を算出する装置であって、上記第1の画像内の特徴点の位置と、上記第2の画像内の対応する特徴点の位置とを特定する特定器と、上記第1の画像および上記第2の画像内において、上記第1の画像および上記第2の画像のそれぞれを撮影するカメラの光軸を確定する確定器と、モデルを用いて、上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置との間のずれ量を演算する演算器と、ランダムサンプルコンセンサス技術を用いて、上記演算されたずれ量の妥当性を試験する試験器とを具備し、上記ずれ量は、上記第1の画像および上記第2の画像のそれぞれの上記確定された光軸に関する、上記第1の画像の上記特徴点の位置と、上記第2の画像の上記対応する特徴点の位置とに応じて算出され、上記テストされたずれ量は、上記ランダムサンプルコンセンサス技術が所定の条件を達成したときに妥当とされる、ずれ量算出装置が提供される。 According to the fourth embodiment of the present invention, there is provided an apparatus for calculating a shift amount between a first image and a second image that can be viewed stereoscopically, and a feature point in the first image. And a specifying unit for specifying the position of the corresponding feature point in the second image, and the first image and the second image in the first image and the second image. And a position of the feature point in the first image and a position of the corresponding feature point in the second image using a model. And a tester that tests the validity of the calculated amount of deviation using a random sample consensus technique, the amount of deviation being the first image and The first image with respect to the determined optical axis of each of the second images; Calculated according to the position of the feature point and the position of the corresponding feature point of the second image, and the tested deviation is valid when the random sample consensus technique achieves a predetermined condition. A deviation amount calculation device is provided.
上記ずれ量は、上記ずれ量が正確である確率が閾値を上回るときに妥当であってもよい。 The deviation amount may be appropriate when the probability that the deviation amount is accurate exceeds a threshold value.
上記所定の条件は、上記ランダムサンプルコンセンサス技術が所定回数反復されることであってもよい。 The predetermined condition may be that the random sample consensus technique is repeated a predetermined number of times.
上記反復の回数は、下記の式に基づいて算出されてもよい。 The number of repetitions may be calculated based on the following formula.
上記モデルは、下記の式によって定義されてもよい。 The model may be defined by the following equation:
上記ずれ量算出装置はさらに、ブロックマッチング技術を用いて、元の第1の画像および元の第2の画像の縮小版から特徴点を取得する取得器を具備してもよい。 The deviation amount calculation device may further include an acquisition unit that acquires feature points from a reduced version of the original first image and the original second image using a block matching technique.
上記取得器はさらに、上記元の第1の画像および上記元の第2の画像の上記縮小版から取得された上記特徴点を、上記元の第1の画像および上記元の第2の画像におけるブロックマッチング技術の開始点として用い、上記元の第1の画像および上記元の第2の画像から第1の特徴点および第2の特徴点を取得するように動作可能であってもよい。 The acquirer further determines the feature points acquired from the reduced version of the original first image and the original second image in the original first image and the original second image. It may be operable to obtain a first feature point and a second feature point from the original first image and the original second image, used as a starting point for a block matching technique.
上記特定器はさらに、上記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、上記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するように動作可能であってもよく、上記第1の画像において2つの特徴点の位置を、上記第2の画像において対応する2つの特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与のロールずれ量に基づいて、上記第1の画像と上記第2の画像との間の垂直ずれ量を算出してもよい。 The identifier is further operable to locate a location of at least one additional feature point in the first image and to locate a location of at least one corresponding further feature point in the second image. The position of two feature points in the first image and the position of two corresponding feature points in the second image may be selected, and the first image and the second image may be selected. A vertical shift amount between the first image and the second image may be calculated based on a given roll shift amount.
上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の上方に位置してもよく、かつ上記第1の画像内の上記さらなる特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の下方に位置してもよい。 The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located above the determined optical axis, and the first image The position of the further feature point in the second image and the position of the corresponding feature point in the second image may be located below the determined optical axis.
上記第1の画像内において特徴点の位置を選択し、上記第2の画像内において対応する特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与の垂直ずれ量に基づいて、上記第1の画像と上記第2の画像との間のスケールずれ量を算出してもよい。 Selecting a position of a feature point in the first image, selecting a position of a corresponding feature point in the second image, and providing a given point between the first image and the second image Based on the vertical shift amount, the scale shift amount between the first image and the second image may be calculated.
上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の上方に位置してもよいか、または上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の下方に位置してもよい。 The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located above the determined optical axis, or The position of the feature point in one image and the position of the corresponding feature point in the second image may be located below the determined optical axis.
上記特定器はさらに、上記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、上記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するように動作可能であってもよく、上記第1の画像内において2つの特徴点の位置を選択し、上記第2の画像内において対応する2つの特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与のスケールずれ量に基づいて、上記第1の画像と上記第2の画像との間の回転ずれ量を算出してもよい。 The identifier is further operable to locate a location of at least one additional feature point in the first image and to locate a location of at least one corresponding further feature point in the second image. The positions of two feature points in the first image may be selected, the positions of the two corresponding feature points in the second image may be selected, and the first image and the second image may be selected. An amount of rotational deviation between the first image and the second image may be calculated based on a given scale deviation amount between the first image and the second image.
上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の左側に位置してもよく、かつ上記第1の画像内の上記さらなる特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の右側に位置してもよい。 The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located on the left side of the determined optical axis, and the first The position of the further feature point in the second image and the position of the corresponding feature point in the second image may be located on the right side of the determined optical axis.
上記特徴点の位置および上記さらなる特徴点の位置は、ランダムに生成されてもよい。 The position of the feature point and the position of the further feature point may be randomly generated.
上記特徴点の位置は、上記第1の画像および上記第2の画像内の画素位置であってもよい。 The position of the feature point may be a pixel position in the first image and the second image.
本発明の上記および他の課題、特徴および利点が、添付の図面を参照して読まれるべき例示的な実施形態の以下の詳細な説明から明らかになるであろう。 The above and other objects, features and advantages of the present invention will become apparent from the following detailed description of exemplary embodiments to be read with reference to the accompanying drawings.
[方法の概要]
実施形態において、立体画像についてずれ量を計算するために、概ね以下の方法が行われる。
1)2枚の画像のうちの一方の画像内の主要特徴点を選択する。実施形態において、左画像内の主要特徴点を選択する。
2)主要特徴点をブロックマッチング処理の基準として用いて、右画像内の対応する主要特徴点を算出する。
3)一連の幾何学的演算を実行して、3つの歪み量(ずれ量)を得る。具体的には、垂直視差を示すずれ量を算出し、スケール(拡大縮小)視差を示すずれ量を算出し、最後に、ロール(回転)視差を示すずれ量を算出する。実施形態において、先行のステップにおいて算出されたずれ量を、後述のステップのずれ量演算において用いる。3つのずれ量を特定の順序で算出するように記載されているが、後述するように、本発明はこれに限定されない。ずれ量はあらゆる順序で計算することが可能である。次いで、ずれ量を用いて、カメラの物理的な位置および/またはカメラのパラメータを調整するか、または、ずれ量に基づいて、撮影画像を電子的に調整することができる。
[Overview of method]
In the embodiment, the following method is generally performed to calculate the shift amount for a stereoscopic image.
1) Select a main feature point in one of the two images. In the embodiment, the main feature points in the left image are selected.
2) Using the main feature point as a reference for the block matching process, the corresponding main feature point in the right image is calculated.
3) A series of geometric operations is executed to obtain three distortion amounts (deviation amounts). Specifically, a shift amount indicating vertical parallax is calculated, a shift amount indicating scale (enlargement / reduction) parallax is calculated, and finally, a shift amount indicating roll (rotation) parallax is calculated. In the embodiment, the deviation amount calculated in the preceding step is used in the deviation amount calculation in the later-described step. Although the three shift amounts are described as being calculated in a specific order, the present invention is not limited to this as described later. The amount of deviation can be calculated in any order. The amount of deviation can then be used to adjust the physical position of the camera and / or camera parameters, or the captured image can be adjusted electronically based on the amount of deviation.
図1は、本発明の実施形態のうちの一実施態様を示す。2台のカメラ110および120が立体画像を撮影するように設定される。これらの立体画像用カメラによって、カメラシステム100が構成される。各カメラからの出力が、本発明の実施形態によるずれ量演算器200に供給される。ずれ量演算器200は、カメラシステム100の2台のカメラ間のずれ量を算出する。なお、立体画像を撮影するように設定されたカメラは水平変位を行うものだが、水平変位を行う画像用のアルゴリズムは必須ではない。それゆえ、ずれ量演算器200が、垂直視差を示すずれ量と、回転視差を示すずれ量とを算出し、スケール視差を示すずれ量が生成される。これらのずれ量をカメラの操作者が用いることによって、カメラのずれを物理的に修正するか、当該ずれ量を用いてサーボモータを制御してずれを修正させることができる。実際には、ずれ量を用いることで、カメラの向きを一切物理的に修正することなく、カメラシステム100によって生成される画像を電子的に修正することも可能である。
FIG. 1 shows one implementation of the embodiments of the present invention. The two
図2は、ずれ量演算器200をより詳細に示す。まず、従来の技術を用いて、2台のカメラからの画像を1/4HDに(すなわち、1280×720pから480×270解像度または360×180へ)縮小し、エッジ検出器210に供給する。画像の解像度を減らすことは、エッジ検出がより速やかに行われることを意味する。エッジ検出器210を用いて、左画像における水平エッジを算出する。検出されたエッジを対応点算出器220に供給し、対応点算出器220は、左画像内の点に対応する右画像内の点を算出する。換言すると、対応点算出器220は、左画像内において、右画像の一定の画素がどこに位置するかを算出する。ずれ量をずれ量算出器230において計算して出力する。
FIG. 2 shows the
図3は、エッジ検出器210と対応点算出器220とによって実行される処理を説明するフローチャートである。当該フローチャートは、図4のイラストを用いて説明される。
FIG. 3 is a flowchart for explaining processing executed by the
図4では、(左側のカメラ120によって撮影された)左画像120Aに自動車125Aの像が含まれている。これはまず、従来技術を用いて1/4HD解像度に縮小される。解像度を減らすことは、エッジ検出がより速やかに行われることを意味する。図3のステップ2101において、左画像内の水平エッジを検出する。実施形態において、これは、例えば、ゾーベルエッジ検出アルゴリズム等のエッジ検出アルゴリズムによって達成される。水平エッジを検出するのは、計算されるずれ量のうちの1つが2枚の画像間の垂直変位であるためである。このようにして、水平エッジのみを計算することで、候補特徴点の数が、実質的に結果の精度に影響を与えることなく減る。
In FIG. 4, the
左画像内の水平エッジを計算した後、120B(図4を参照)のような画像を生成する。図4に見られるように、エラーエッジ125Bが生成されている。エラーエッジ125Bは、右画像おいて対応する点を有しない。したがって、検出された水平エッジの数を減らすことが望まれる。水平エッジの数の削減は、図3のステップS2102において行われる。これを達成するために、エッジが検出された画像をタイルに分割する。実施形態において、各タイルは、幅16画素×高さ16画素である。図4において、1つのタイルに参照符号125Cが付されている。しかし、任意のサイズのタイルを選択可能である。同様に、任意の形状のタイル、例えば、矩形のタイルを選択可能である。タイルに引っかからないエッジは全て無視する。換言すると、検出されたエッジのうち、長さが16画素未満のものは無視される。この削減を行うことによって、誤ったエラーエッジが無視される。これによって、結果の信頼性が向上するとともに、本方法の演算にかかる費用が削減される。
After calculating the horizontal edge in the left image, an image such as 120B (see FIG. 4) is generated. As can be seen in FIG. 4, an
検出されたエッジの数を減らした後、画像を象限に分割する。象限の中心は画像の光軸である。実施形態において、象限の中心を光軸に置くのは、光軸が不変の線だからである。つまり、光軸は、スケール歪みの影響も、ロール歪むの影響も受けない。説明の便宜上、画像の光軸は、画像の中心と想定する。しかし、当業者であれば、これがただ有効な仮定であって、常に適用される訳ではないことが理解されるであろう。これを図4に120Dで示す。象限画像の一区画が参照符号付き(125D)で示されている。 After reducing the number of detected edges, the image is divided into quadrants. The center of the quadrant is the optical axis of the image. In the embodiment, the center of the quadrant is placed on the optical axis because the optical axis is an invariant line. That is, the optical axis is not affected by scale distortion or roll distortion. For convenience of explanation, it is assumed that the optical axis of the image is the center of the image. However, those skilled in the art will appreciate that this is only a valid assumption and does not always apply. This is indicated by 120D in FIG. A section of the quadrant image is indicated with a reference sign (125D).
画像を象限に分割した後、象限毎に複数のサンプルエッジ画素を選択する。実施形態において、象限毎に20個の画素が選択されているが、本発明はこれに限定されず、任意の数の画素を選択することができる。この選択は、理解されるように、演算の精度と速度との兼ね合いに基づいてもよい。さらに、実施形態において、画素はランダムに選択されているが、本発明はこれに限定されない。 After dividing the image into quadrants, a plurality of sample edge pixels are selected for each quadrant. In the embodiment, 20 pixels are selected for each quadrant, but the present invention is not limited to this, and an arbitrary number of pixels can be selected. This selection may be based on a tradeoff between accuracy and speed of computation, as will be appreciated. Furthermore, in the embodiment, the pixels are randomly selected, but the present invention is not limited to this.
複数の選択画素が選択された典型的な画像を図4の120Eに示す。このような画素の1つの画素位置が参照符号付き(125E)で示されている。なお、画素位置は好適な特徴点として確定されているが、本発明はこれに限定されない。理解されるように、1/4解像度画像におけるサブ画素位置等の他の特徴点を算出することもできる。複数のサブ画素のうちの任意の1つが「通常の」画素位置(すなわち、フル解像度HD信号の画素位置)に存在する場合、サブ画素の値をランダムにまたは何らかの他の方法によって選択してもよい。さらに、ユーザに、「通常」画素位置にある、存在し得る異なるサブ画素値を知らせてもよい。 A typical image with a plurality of selected pixels selected is shown at 120E in FIG. One pixel position of such a pixel is indicated with a reference sign (125E). Although the pixel position is determined as a suitable feature point, the present invention is not limited to this. As can be appreciated, other feature points such as sub-pixel positions in the ¼ resolution image can also be calculated. If any one of the sub-pixels is present at a “normal” pixel location (ie, the pixel location of the full resolution HD signal), the value of the sub-pixel may be selected randomly or by some other method Good. In addition, the user may be informed of the different sub-pixel values that may exist at the “normal” pixel location.
これまでのところ、本方法は、左画像内の特徴位置を識別した。これらの特徴位置は、左画像内の画素位置である。次に、右画像内の対応する画素位置がどこに存在するのかを算出する必要がある。 So far, the method has identified feature locations in the left image. These feature positions are pixel positions in the left image. Next, it is necessary to calculate where the corresponding pixel position in the right image exists.
右画像内において確定される画素位置毎に探索を実行する。換言すると、複数の画素位置が左画像内に確定されているため、対応する画素位置を算出するために右画像内の同じ画素位置の周囲において探索を実行する必要がある。これは、ブロックマッチング技術を用いて達成される。 A search is performed for each pixel position determined in the right image. In other words, since a plurality of pixel positions are determined in the left image, it is necessary to perform a search around the same pixel position in the right image in order to calculate the corresponding pixel position. This is achieved using block matching techniques.
ステップ2104において、従来のブロックマッチング技術を、右画像の画素位置毎に実行し、対応する画素位置を算出する。これを図4の110Bに図示する。当該画像110Bに見られるように、左画像から導出された画素位置125Eが、右画像110Bにおいて探索エリアの中心をなしている。探索エリアのサイズは、立体視聴を達成するために必要とされる意図的な水平変位およびエラーに起因するずれ量に対処するものでなければならない。したがって、画像が典型的なフル解像度画像である場合、探索エリアは、幅250画素×高さ100画素である。しかし、本発明はこれに限定されず、他のサイズおよび形状の探索エリアを採用することが可能である。具体的には、1/4解像度に対して、探索エリアは、幅63画素×高さ45画素である。
In
ブロックマッチング技術の結果は、確率のマップであり、これは、左画像内において確定された画素位置125Eに対応する探索エリア内の各画素位置の確率を提供する。最も高い確率を有する右画像内の画素位置が、左画像125Eにおける画素位置に対応する右画像内の画素位置として選択される。図4に示されるように、右画像の画素位置は、画素位置119Bとして確定される。これは、ステップS2105において示されるように、左画像内において確定された全ての画素位置に対して繰り返される。
The result of the block matching technique is a probability map, which provides the probability of each pixel location in the search area corresponding to the
エラー結果の数を確実に減らすために、ステップS2105からの結果はフィルタリングにかけられる。第1のフィルタとして、右画像内の明確に対応する画素位置が確率1を有する場合、例えば、0.98(または確率98%)の一定の閾値未満の全ての結果が無視される。これによって、エラー結果の数が減る。これは例示の閾値であるため、他の好適な閾値が想定可能であり、本発明はこれに限定されない。 In order to reliably reduce the number of error results, the results from step S2105 are subjected to filtering. As a first filter, if a clearly corresponding pixel location in the right image has a probability of 1, for example, all results below a certain threshold of 0.98 (or probability of 98%) are ignored. This reduces the number of error results. Since this is an exemplary threshold, other suitable thresholds can be envisaged and the invention is not limited to this.
さらに、左画像内の画素位置がエッジ画素位置である場合、右画像内の対応する点もエッジ画素位置であるはずである。それゆえ、右画像も、水平エッジを検出するために、ゾーベルエッジ検出アルゴリズム等のエッジ検出アルゴリズムにかけられる。右画像内の対応する画素位置が3つの水平エッジのうちの1つのエッジ上に位置している場合、右画像内の画素位置が、左画像内において算出された画素位置に対応する確率が高くなる。なお、上記技術の一方または両方を用いてエラー結果が生じる可能性を低減することができる。実際には、両方の技術の組合せが用いられる。 Furthermore, if the pixel position in the left image is an edge pixel position, the corresponding point in the right image should also be an edge pixel position. Therefore, the right image is also subjected to an edge detection algorithm such as a Sobel edge detection algorithm in order to detect a horizontal edge. When the corresponding pixel position in the right image is located on one of the three horizontal edges, the probability that the pixel position in the right image corresponds to the pixel position calculated in the left image is high. Become. Note that it is possible to reduce the possibility of an error result using one or both of the above techniques. In practice, a combination of both techniques is used.
図2を参照すると、対応点算出器220からの出力は、左画像内の画素位置のリストおよび右画像内の対応する点のリストである。
Referring to FIG. 2, the output from the
対応点算出器220の精度を向上させるために、対応点が識別されたフル解像度(1920×1080)画像を用いてブロックマッチング技術を繰り返す。具体的には、左画像において16画素×16画素探索ウィンドウを、右画像において32画素×32画素探索ウィンドウを用いて、ブロックマッチング技術を繰り返す。各探索ウィンドウの中心は、対応点算出器220によって算出された点に位置決めされる。フル解像度ブロックマッチングの結果は、ずれ量計算機230に供給される。上述のように説明してきたが、第1の画像内の位置と、第2の画像内の対応する点とを算出する従来技術を同様に用いてもよい。しかし、SIFT(Scale-Invariant Feature Transform)等の従来技術より、上記方法の方が速く、演算にかかる費用が安く済むことに留意されたい。
In order to improve the accuracy of the
[ずれ量の計算]
対応特徴点を導出し、画像の光軸に関する位置に変換した後、下記のずれ量を導出する方法を用いてもよい。
[Calculation of deviation]
After deriving the corresponding feature point and converting it to a position related to the optical axis of the image, a method of deriving the following shift amount may be used.
図10を参照すると、垂直オフセット(vertical offset)が一定であると仮定すると、垂直オフセットは、スケールおよびロール回転に対して不変であることになり、以下の式が成り立つ。 Referring to FIG. 10, assuming that the vertical offset is constant, the vertical offset will be invariant to scale and roll rotation, and the following equation holds:
さらに、ブロックマッチングを用いて、点p2lおよびp2r間の垂直位置の差dを測定することが可能である。 Furthermore, it is possible to measure the vertical position difference d between the points p2 l and p2 r using block matching.
3つの未知のパラメータ、T、Sおよびθ(またはT、aおよびb)が存在する場合、左画像において光軸に関して表される座標(x,y)を有するこれらの3点、p1l、p2lおよびp3lおよび右画像において対応する点を見出すことが可能であり、以下の式が示される。 If there are three unknown parameters, T, S, and θ (or T, a, and b), these three points, p1 l , p2, with coordinates (x, y) expressed with respect to the optical axis in the left image It is possible to find corresponding points in l and p3 l and the right image, and the following equation is shown:
[3]、[4]および[5]から、T、θおよびSが立証されることが明白である From [3], [4] and [5] it is clear that T, θ and S are established.
4つ以上の特徴点が測定される場合、実施形態において、画像の降順に(すなわち、始めの画像から最後の画像へ)点をリスト化することが可能である。これらの対応の3点が選択される。選択される3点は、i番目、i番目+n/3およびi番目+2n/3の特徴点であり、式中、iは、特徴点選択(0〜n/3−1)の反復回数であり、nは測定された特徴点の数である。a、bおよびTの値は、反復される度に計算され、全ての反復が行われた後、値が順番に並べられる。a、bおよびTの中央値が、最良の推定値として選ばれ、これらの値は、T、Sおよびθを計算するのに用いられる。 If four or more feature points are measured, in an embodiment it is possible to list the points in descending order of the image (ie from the first image to the last image). These three corresponding points are selected. The three selected points are i-th, i-th + n / 3 and i-th + 2n / 3 feature points, where i is the number of iterations of feature point selection (0-n / 3-1) , N is the number of feature points measured. The values of a, b and T are calculated each time it is repeated, and after all iterations have been made, the values are ordered. The median of a, b and T is chosen as the best estimate and these values are used to calculate T, S and θ.
図13Aおよび13Bを参照すると、上述したθ、SおよびTをより正確に立証する方法が開示される。対応点の精度、θの精度を立証する際にエラーがあると、スケールおよびTは誤ったものになる。それゆえ、対応点を確定する際に、不正確さ、したがって、計算したずれ量の不正確さを低減することが望まれる。計算したずれ量の精度を上げるためには、RANSAC(RANdom Sample Consensus)法を用いて、θ、SおよびTを計算するのに必要とされる3つの対応点を立証する。図13Aおよび13Bは、このような方法を説明するフローチャートを示す。 With reference to FIGS. 13A and 13B, a method for more accurately verifying θ, S and T described above is disclosed. If there is an error in verifying the accuracy of the corresponding point, the accuracy of θ, the scale and T will be incorrect. Therefore, it is desirable to reduce inaccuracies and thus inaccuracies in the calculated deviations in determining corresponding points. In order to increase the accuracy of the calculated deviation amount, three corresponding points required for calculating θ, S, and T are verified using a RANSAC (RANdom Sample Consensus) method. 13A and 13B show a flowchart illustrating such a method.
当該方法を、ステップS1305において開始する。ステップ1310において、RANSAC技術の反復回数を計算する。必要とされる反復回数は、必要とされる結果の精度と、対応点の精度とに依存する。通常、任意の一対応点が正確である確率は、SIFT、SURFまたはブロックマッチング等の高性能対応アルゴリズムの場合、約80%である(または対応点が不正確である確率は20%)。 The method starts in step S1305. In step 1310, the number of RANSAC technique iterations is calculated. The number of iterations required depends on the accuracy of the required results and the accuracy of the corresponding points. In general, the probability that an arbitrary corresponding point is accurate is about 80% for a high-performance corresponding algorithm such as SIFT, SURF or block matching (or the probability that the corresponding point is inaccurate is 20%).
必要とされる反復回数nを計算するために、RANSAC技術後の対応点が正確である確率を算出する。実施形態において、θ、SおよびTの値が正確である可能性は99.9999%である。それゆえ、以下の式が成り立つ。 In order to calculate the required number of iterations n, the probability that the corresponding point after the RANSAC technique is correct is calculated. In an embodiment, the probability that the values of θ, S, and T are accurate is 99.9999%. Therefore, the following equation holds.
値nを算出した後、左画像内の3つの対応点をランダムに選択する。さらに、右画像の対応する点も立証する(S1315)。選択されたこれらの点を用いて、上記式においてθ、スケールおよびTを計算する(S1320)。ランダムに選択された点を、ステップS1325において、コンセンサスセットに追加する。 After calculating the value n, three corresponding points in the left image are randomly selected. Further, the corresponding point of the right image is verified (S1315). Using these selected points, θ, scale, and T are calculated in the above equation (S1320). The randomly selected points are added to the consensus set in step S1325.
次いで、他の全ての対応点を個々にモデルに挿入して、右画像内の点の位置と、SおよびTの値を用いて計算した予測位置および測定位置間の距離とを計算する。これらの立証された値を、ランダムに選択された対応点によって算出された上記値と比較する(ステップS1335)。上記値の差異が閾値を下回る場合、対応点をコンセンサスセットに追加する(S1340)。上記差異が閾値を上回る場合、点はコンセンサスセットに追加しない(S1345)。 Then, all other corresponding points are individually inserted into the model to calculate the position of the point in the right image and the distance between the predicted position and the measured position calculated using the values of S and T. These proven values are compared with the values calculated by the randomly selected corresponding points (step S1335). If the difference between the values is below the threshold, a corresponding point is added to the consensus set (S1340). If the difference is above the threshold, no points are added to the consensus set (S1345).
全ての対応点をテストした後、コンセンサスセットに存在する点の数を計数する。点の数が閾値を上回る場合、すなわち、点対応アルゴリズムの精度以下である場合、中央値法(median of values method)をコンセンサスセット全体に用い、より良好なモデルS1355Aを生成する。当該モデルは、全ての対応点を用いて再びテストされる(S1360)。一方、コンセンサスセットにある点の数が閾値を下回る場合、別の3つのコンセンサス点をランダムに選択して処理を繰り返す(S1355)。 After testing all corresponding points, the number of points present in the consensus set is counted. If the number of points is above the threshold, i.e. below the accuracy of the point correspondence algorithm, the median of values method is used for the entire consensus set to generate a better model S1355A. The model is tested again using all corresponding points (S1360). On the other hand, when the number of points in the consensus set falls below the threshold, another three consensus points are selected at random and the process is repeated (S1355).
上述したように、コンセンサスセット内の全ての対応点を用いて、モデルを先行のモデルに対してテストする。テスト中のモデルと、先行のモデルとの間の差異がエラー閾値を下回る場合、テスト中のモデルを先行のものより良好なモデルであると判定する(S1365)。テスト中のモデルが先行のモデルよりも良好ではない場合、当該テスト中のモデルを無視する(S1370)。 As described above, the model is tested against the previous model using all corresponding points in the consensus set. If the difference between the model under test and the preceding model falls below the error threshold, it is determined that the model under test is a better model than the preceding model (S1365). If the model under test is not better than the preceding model, the model under test is ignored (S1370).
テスト中のモデルが先行のモデルよりも良好である場合、次の反復に用いるためにコンセンサスセット、モデル、およびエラー値を記憶する。エラー値を閾値エラーと比較し、エラーが閾値を下回る場合、RANSAC処理を停止する。代替的に、エラーが閾値を上回るが、RANSAC処理の反復回数がnを下回る場合、別の3つの対応点をランダムに選択する。しかし、エラーが閾値を上回り、かつ反復回数がnを上回る場合、RANSAC処理は終了する。なお、全体的な閾値停止技術(overall threshold abort technique)(ステップS1380)は、用いても用いなくてもよい。実施形態において、このステップは、含めなくてもよい。 If the model under test is better than the previous model, store the consensus set, model, and error value for use in the next iteration. The error value is compared with a threshold error, and if the error falls below the threshold, the RANSAC process is stopped. Alternatively, if the error is above the threshold but the number of RANSAC iterations is below n, another three corresponding points are randomly selected. However, if the error exceeds the threshold and the number of iterations exceeds n, the RANSAC process ends. Note that the overall threshold abort technique (step S1380) may or may not be used. In embodiments, this step may not be included.
RANSAC処理の終了により、出力されたθ、SおよびTの値が立証される。 Upon completion of the RANSAC process, the output values of θ, S, and T are verified.
図5は、対応する点が算出された後にずれ量を計算する別の方法を説明するフローチャートである。 FIG. 5 is a flowchart for explaining another method for calculating the shift amount after the corresponding points are calculated.
アルゴリズムの構造から分かるように、本実施形態のずれ量は反復して計算される。アルゴリズムの各反復中に、ずれ量は、一定値にまとまり始める。なお、アルゴリズムはリアルタイムで実行される。これは、映像の1フレームでは、アルゴリズムが、必要とされる定常状態に達しない可能性があることを意味する。この場合、アルゴリズムは複数の異なるフレームに対して実行される。これは、定常状態に達するまで必要とされる少数のフレームにわたってずれ量が変化する可能性が低いためである。なお、ずれ量アルゴリズムを映像の別のフレームに対して実行する必要がある場合、図3に記載した対応アルゴリズムを映像の新たなフレームに対して実行する必要がある。一方、映像の1フレーム中に定常状態に達する場合、図3の対応アルゴリズムは、一回だけ実行すればよい。 As can be seen from the structure of the algorithm, the deviation amount of this embodiment is calculated iteratively. During each iteration of the algorithm, the amount of deviation begins to settle to a constant value. The algorithm is executed in real time. This means that in one frame of video, the algorithm may not reach the required steady state. In this case, the algorithm is executed for a plurality of different frames. This is because the amount of shift is unlikely to change over the few frames required until a steady state is reached. When it is necessary to execute the shift amount algorithm for another frame of the video, it is necessary to execute the corresponding algorithm described in FIG. 3 for a new frame of the video. On the other hand, when the steady state is reached during one frame of the video, the corresponding algorithm in FIG. 3 only needs to be executed once.
定常状態に達した後、アルゴリズムを周期的に、例えば10秒に一回のペースで、または所定数のフレーム後に実行して、カメラがミスアライメント状態に確実にならないようにしてもよい。代替的に、カメラの焦点距離が変わった後に、または、任意の他の行為に応答して、アルゴリズムを実行してもよい。 After reaching steady state, the algorithm may be executed periodically, for example, once every 10 seconds, or after a predetermined number of frames to ensure that the camera is not misaligned. Alternatively, the algorithm may be executed after the camera focal length has changed or in response to any other action.
ステップ501において、ずれ量計算の1回目の反復の前に、ロール(回転)ずれ量を0度に設定する。回転ずれ量のこの値は、ずれ量計算アルゴリズムの1回目の反復中に更新される。回転ずれ量を、想定されるずれ量の他の任意の値ではなく、0度に設定する理由は、回転ずれ量が零に近いためである。これは、カメラ操作者による初期設定中に、ロール差が、画像に対する回転のミスマッチの影響によって小さい可能性が高いためである。それゆえ、回転ずれ量が0度であると初期に仮定すると、他のずれ量の精度が初期に高い値をとるため、全体のアルゴリズムがより迅速に好適な精度レベルに到達することになる。 In step 501, the roll (rotation) deviation amount is set to 0 degree before the first iteration of deviation amount calculation. This value of the rotational deviation is updated during the first iteration of the deviation calculation algorithm. The reason why the rotational deviation amount is set to 0 degrees instead of other arbitrary values of the assumed deviation amount is that the rotational deviation amount is close to zero. This is because, during the initial setting by the camera operator, the roll difference is likely to be small due to the effect of rotational mismatch on the image. Therefore, assuming that the rotational deviation amount is initially 0 degree, the accuracy of the other deviation amounts initially takes a high value, so that the entire algorithm reaches a suitable accuracy level more quickly.
ステップ502において、ロール値を用いて垂直ずれ(移動)量を計算する。これは、図6を参照して後述する。 In step 502, the amount of vertical deviation (movement) is calculated using the roll value. This will be described later with reference to FIG.
ステップ503において、計算された垂直ずれ量を用いてスケールずれ量を計算する。これは、図8を参照して後述する。 In step 503, the amount of scale deviation is calculated using the calculated amount of vertical deviation. This will be described later with reference to FIG.
ステップ504において、計算されたスケールずれ量を用いてロールずれ量を計算する。これは、図9を参照して後述する。 In step 504, the roll deviation amount is calculated using the calculated scale deviation amount. This will be described later with reference to FIG.
ずれ量を反復して計算する場合、ステップS505において、映像の1フレームのずれ量計算の反復回数を算出する。反復回数が閾値を下回る場合(例えば5)、初期値として先行の反復において計算した値を用いて、アルゴリズムを再実行する。 When the shift amount is calculated repeatedly, in step S505, the number of repetitions of the shift amount calculation for one frame of the video is calculated. If the number of iterations is below the threshold (eg 5), the algorithm is re-executed using the value calculated in the previous iteration as the initial value.
反復回数が閾値を上回る場合、アルゴリズムをチェックすることで、定常状態に達したかどうかを確認する(ステップS506)。反復間のずれ量が0.05%等の閾値だけしか変化しなかった場合に定常状態に達したと判断してもよい。ずれ量が定常状態である場合、ずれ量を出力して、再び必要になる時、例えば、カメラ設定が上述のように変更される場合までアルゴリズムは待機する。 If the number of iterations exceeds the threshold, the algorithm is checked to determine whether a steady state has been reached (step S506). It may be determined that a steady state has been reached when the amount of deviation between iterations has changed only by a threshold such as 0.05%. If the deviation amount is in a steady state, the algorithm waits until the deviation amount is output and needed again, for example, until the camera settings are changed as described above.
[垂直ずれ量計算(図5のステップS502)]
図6は、垂直ずれ量を算出するための原理を説明するフローチャートである。
[Vertical Deviation Calculation (Step S502 in FIG. 5)]
FIG. 6 is a flowchart for explaining the principle for calculating the vertical deviation amount.
光軸がスケールに関して不変のものである場合、カメラによって撮影された画像の光軸に関して垂直ずれ(移動)値を計算するのに有利である。これを行うために、対応点算出器220によって算出された画素位置を、光軸に関する画素位置に変換する必要がある。図7は、画素位置を光軸に関する画素位置に変換する方法を示す。なお、同図において寸法はフルHD信号に関しているが、実施形態において、解像度は、これよりも低くてもよい。従来の画像ラベリング手法では、高解像度画像に関して、左上画素位置を(0,0)とし、右下画素位置を(1920,1080)とする。それゆえ、係る従来システムにおいて、(上記のように光軸位置として想定される)画像の中心は、(960,540)の画素位置を有する(上記参照)。しかし、本発明の実施形態において、画像の中心は、(0,0)の画素位置を有する。(400,400)の従来の画素位置を光軸に関するものに変換するために、画素位置と、画像の中心との間の距離を算出する必要がある。図7から、従来の画素位置(400,400)が、光軸から左に560画素、上に200画素にあることは明らかである。それゆえ、従来の画素位置(400,400)は、光軸に関して画素位置(−560、200)にある。
If the optical axis is invariant with respect to scale, it is advantageous to calculate a vertical deviation (movement) value with respect to the optical axis of the image taken by the camera. In order to do this, it is necessary to convert the pixel position calculated by the
垂直ずれ量を算出するために、左画像からの2つの特徴点の位置を選択する。具体的には、特徴点の位置は、左画像において光軸の下方に位置するものを1つ、光軸の上方に位置するものを1つ選択する(S602)。実施形態において、これらの特徴点はランダムに選択されるが、本発明はこれに限定されない。また、右画像から対応する特徴点の位置を選択する(S603)。 In order to calculate the amount of vertical deviation, the positions of two feature points from the left image are selected. Specifically, as the position of the feature point, one that is located below the optical axis in the left image and one that is located above the optical axis are selected (S602). In the embodiment, these feature points are randomly selected, but the present invention is not limited to this. Further, the position of the corresponding feature point is selected from the right image (S603).
点を選択した後、これらを下記の式6に当てはめ、移動値を算出する(S604)。 After selecting the points, these are applied to the following equation 6 to calculate a movement value (S604).
この式の導出については、明細書の最後に記載する。 The derivation of this equation is described at the end of the specification.
なお、R1およびR2の値におけるθの値の正負は、特徴点p1およびp2が位置する象限によって決まる。具体的には、特徴点(または特徴位置)が右下の象限または左上の象限にある場合、ロール値は−θとなる。他方、特徴点が左下の象限または右上の象限にある場合、ロール値は+θとなる。これは、ロールが光軸に関して測定されるためである。 Note that the value of θ in the values of R 1 and R 2 is determined by the quadrant in which the feature points p1 and p2 are located. Specifically, when the feature point (or feature position) is in the lower right quadrant or the upper left quadrant, the roll value is −θ. On the other hand, when the feature point is in the lower left quadrant or the upper right quadrant, the roll value is + θ. This is because the roll is measured with respect to the optical axis.
これらの点の移動を算出した後、計算された垂直ずれ量の数を1だけインクリメントする(ステップS605)。この数を閾値と比較する(ステップS606)。計算されたずれ量の数が閾値を下回る場合、別の2つの点を選択して、垂直ずれ量アルゴリズムを再実行する。実施形態において、閾値は20になっているが、任意の他の値も予期される。 After calculating the movement of these points, the calculated number of vertical deviations is incremented by 1 (step S605). This number is compared with a threshold value (step S606). If the calculated number of deviations is below the threshold, another two points are selected and the vertical deviation algorithm is re-executed. In an embodiment, the threshold is 20, but any other value is also expected.
計算されたずれ値の数が閾値を上回る場合、計算された値を昇順に並べる(ステップS607)。順序付けられたリストの中央値を選択し(ステップS608)、これを図5のステップS502用の計算されたずれ値であると見なす。このずれ値中央値を垂直ずれ量として出力し、スケールずれ量アルゴリズムに供給する(図5のステップS503)。なお、中央値は、導出された値から直接選択してもよい。換言すると、中央値を選択する前にずれ量を順番に並べる必要がなくてもよい。これは、他のずれ量計算にも適用される。 If the calculated number of deviation values exceeds the threshold value, the calculated values are arranged in ascending order (step S607). The median of the ordered list is selected (step S608), and this is considered to be the calculated deviation value for step S502 of FIG. The median deviation value is output as the vertical deviation amount and supplied to the scale deviation amount algorithm (step S503 in FIG. 5). The median value may be selected directly from the derived value. In other words, it is not necessary to arrange the shift amounts in order before selecting the median value. This also applies to other shift amount calculations.
[スケールずれ量計算(図5のステップS503)]
図8は、スケールずれ量を算出するための原理を説明するフローチャートである。
[Calculation of Scale Deviation (Step S503 in FIG. 5)]
FIG. 8 is a flowchart for explaining the principle for calculating the amount of scale deviation.
ステップ801において、対応点算出器220において算出された画素位置を、図7を参照して説明したように、光軸に関する画素位置に変換する。
In step 801, the pixel position calculated by the
スケールずれ量を算出するために、左画像からの特徴位置を選択する(S802)。実施形態において、特徴点はランダムに選択されるが、本発明はこれに限定されない。また、右画像から対応する特徴位置を選択する(S803)。 In order to calculate the amount of scale deviation, a feature position from the left image is selected (S802). In the embodiment, the feature points are randomly selected, but the present invention is not limited to this. Also, a corresponding feature position is selected from the right image (S803).
点を選択した後、これを下記の式7に当てはめ、スケールの値を算出する(S804)。 After selecting a point, this is applied to the following equation 7 to calculate a scale value (S804).
この式の導出についても、明細書の最後に記載する。 The derivation of this equation is also described at the end of the specification.
スケールを算出した後、計算されたスケールずれ量の数を1だけインクリメントする(ステップS805)。この数を閾値と比較する(ステップS806)。計算されたずれ値の数が閾値を下回る場合、別の点を選択して、スケールずれ量アルゴリズムを再実行する。実施形態において、閾値は20になっているが、任意の他の値も予期される。 After calculating the scale, the calculated number of scale deviations is incremented by 1 (step S805). This number is compared with a threshold value (step S806). If the number of calculated deviation values falls below the threshold, another point is selected and the scale deviation amount algorithm is re-executed. In an embodiment, the threshold is 20, but any other value is also expected.
計算されたずれ値の数が閾値を上回る場合、計算された値を昇順に並べる(ステップS807)。順序付けられたリストの中央値を選択し(ステップS808)、これを図5のステップS503用の計算されたずれ値であると見なす。このずれ値中央値をスケールずれ量として出力し、回転ずれ量アルゴリズムに供給する(図5のステップS504)。 When the calculated number of deviation values exceeds the threshold value, the calculated values are arranged in ascending order (step S807). The median of the ordered list is selected (step S808), and this is considered to be the calculated deviation value for step S503 of FIG. This median deviation value is output as a scale deviation amount and supplied to the rotation deviation amount algorithm (step S504 in FIG. 5).
[回転ずれ量計算]
図9は、回転ずれ量を算出するための原理を説明する図である。
[Rotation deviation calculation]
FIG. 9 is a diagram illustrating the principle for calculating the rotational deviation amount.
ステップ901において、図7を参照して説明したように、対応点算出器220によって算出された画素位置を光軸に関する画素位置に変換する。
In step 901, as described with reference to FIG. 7, the pixel position calculated by the
回転ずれ量を算出するために、左画像からの2つの特徴位置を選択する。具体的には、特徴位置は、左画像において光軸の左側に位置するものを1つ、光軸の右側に位置するものを1つ選択する(S902)。実施形態において、これらの特徴点はランダムに選択されるが、本発明はこれに限定されない。また、右画像から対応する特徴位置を選択する(S903)。 In order to calculate the amount of rotational deviation, two feature positions from the left image are selected. Specifically, as the characteristic position, one that is located on the left side of the optical axis in the left image and one that is located on the right side of the optical axis are selected (S902). In the embodiment, these feature points are randomly selected, but the present invention is not limited to this. Also, a corresponding feature position is selected from the right image (S903).
点を選択した後、これらを下記の式8に当てはめ、移動値を算出する(S904)。 After selecting the points, these are applied to the following equation 8 to calculate the movement value (S904).
この式の導出ついても、明細書の最後に記載する。 The derivation of this equation is also described at the end of the specification.
これらの点を算出した後、計算されたロールずれ値の数を1だけインクリメントする(ステップS905)。この数を閾値と比較する(ステップS906)。計算されたずれ値の数が閾値を下回る場合、別の2つの点を選択して、ロールずれ量アルゴリズムを再実行する。実施形態において、閾値は20になっているが、任意の他の値も予期される。 After calculating these points, the calculated number of roll deviation values is incremented by 1 (step S905). This number is compared with a threshold value (step S906). If the calculated number of deviation values is below the threshold, another two points are selected and the roll deviation amount algorithm is re-executed. In an embodiment, the threshold is 20, but any other value is also expected.
計算されたずれ値の数が閾値を上回る場合、計算された値を昇順に並べる(ステップS907)。順序付けられたリストの中央値を選択し(ステップS908)、これを図5のステップS504用の計算されたずれ値であると見なす。このずれ値中央値をロールずれ量として出力する。 When the calculated number of deviation values exceeds the threshold value, the calculated values are arranged in ascending order (step S907). The median of the ordered list is selected (step S908), and this is considered to be the calculated deviation value for step S504 of FIG. This median deviation value is output as a roll deviation amount.
ステップS505またはS506において、ずれ量計算アルゴリズムを再実行する場合、ステップS908において計算されたロール値を次の反復において用いる。しかし、ずれ量計算アルゴリズムを再実行しない場合、ステップS908において計算されたロールずれ量、ならびに、ステップS608からの垂直ずれ量、およびステップS808からのスケールずれ量をずれ量計算アルゴリズムの結果として出力する。 When the deviation amount calculation algorithm is re-executed in step S505 or S506, the roll value calculated in step S908 is used in the next iteration. However, when the deviation amount calculation algorithm is not re-executed, the roll deviation amount calculated in step S908, the vertical deviation amount from step S608, and the scale deviation amount from step S808 are output as the result of the deviation amount calculation algorithm. .
[他の実施形態]
以上、定常状態に言及した。しかし、これは本発明にとって必須ではない。アルゴリズムの一回のみの反復が、修正が行われるミスマッチレベルを示す。実際には、任意の回数の反復によってミスマッチ量が特定される。
[Other Embodiments]
Thus, the steady state has been mentioned. However, this is not essential for the present invention. A single iteration of the algorithm indicates the mismatch level at which the correction is made. Actually, the mismatch amount is specified by any number of iterations.
本発明の実施形態は、コンピュータにロードされると、コンピュータに、上述の方法の各ステップを実行させるコンピュータ可読指示(コンピュータプログラム)として提供してもよい。コンピュータ可読指示は、任意のコンピュータ可読言語で、または、実際には、適切なマイクロプロセッサによって理解され得る任意の言語で書き込むことができる。コンピュータプログラムは、磁気ディスク、または光ディスク、または任意の固体メモリ等の記録媒体に記憶されてもよい。さらに、コンピュータプログラムは、インターネット等のネットワーク上のキャリアとして存在してもよい。 Embodiments of the present invention may be provided as computer-readable instructions (computer programs) that, when loaded into a computer, cause the computer to perform the steps of the method described above. The computer readable instructions can be written in any computer readable language, or indeed any language that can be understood by a suitable microprocessor. The computer program may be stored in a recording medium such as a magnetic disk, an optical disk, or any solid-state memory. Further, the computer program may exist as a carrier on a network such as the Internet.
各個々のアルゴリズムにおける画像の光軸に関する画素の変換について説明したが、本発明はこれに限定されない。実際には、変換は、対応点計算と、ずれ量計算機230への特徴点の供給との間に行ってもよい。これによって、ずれ量計算機230における演算の負荷が減る。さらに、同じか他の実施形態において、各アルゴリズムにおいて用いられる選択された画素位置のみが光軸に関して変換される。換言すると、ずれ量の計算用に点が選択された後にだけ、これらは変換される。
Although pixel conversion related to the optical axis of the image in each individual algorithm has been described, the present invention is not limited to this. In practice, the conversion may be performed between the corresponding point calculation and the feature point supply to the
異なるずれ量が或る特定の順序で計算される場合について説明したが、本発明はこれに限定されない。ずれ量は、あらゆる順序で計算することができる。 Although the case where different deviation amounts are calculated in a specific order has been described, the present invention is not limited to this. The amount of deviation can be calculated in any order.
高解像度画像からずれ量を取得する場合について説明したが、本発明はこれに限定されない。例えば、ずれ量を標準画質画像から、または高解像度画像のスケール縮小版から取得することが可能である。例えば、ずれ量を4:1スケール縮小から取得することができる。この場合、縮小画像内では1つの画素が高解像度画像において4つの画素から成る。この状況では、縮小画像の実際の画素値は、高解像度画像における4つのあり得る画素から選択することができる。係る選択は、ランダムに行ってもよい。 Although the case of acquiring the shift amount from the high-resolution image has been described, the present invention is not limited to this. For example, the amount of deviation can be obtained from a standard quality image or from a scaled down version of a high resolution image. For example, the shift amount can be acquired from 4: 1 scale reduction. In this case, one pixel in the reduced image is composed of four pixels in the high resolution image. In this situation, the actual pixel value of the reduced image can be selected from four possible pixels in the high resolution image. Such selection may be performed at random.
さらに、ずれ量の1つまたは複数の値によって、エラーが整数の画素値のものではないことを示す場合、ずれ量値の上下の、最も近傍の整数画素値をユーザに表示して、ユーザが用いたい画素を選択可能とするようにしてもよい。または、最も近傍の整数に四捨五入される最も近傍の画素値を選択させてもよい。 Further, if one or more values of the deviation amount indicate that the error is not of an integer pixel value, the nearest integer pixel value above and below the deviation amount value is displayed to the user, and the user You may make it selectable the pixel to use. Alternatively, the nearest pixel value rounded to the nearest integer may be selected.
添付の図面を参照して本発明の例示的な実施形態を説明してきたが、本発明は厳格な上記実施形態に限定されず、添付の特許請求の範囲に規定される発明の範囲および精神から逸脱しない範囲で、当業者は種々の変更および変形形態をなすことができることを理解されたい。 While exemplary embodiments of the invention have been described with reference to the accompanying drawings, the invention is not limited to the precise embodiments described above, but from the scope and spirit of the invention as defined by the appended claims. It should be understood that various changes and modifications can be made by those skilled in the art without departing from the scope.
[移動量の導出]
図10を参照すると、座標の組(x1、y1)によって表されるp1と、座標の組(x2、y2)によって表されるp2という2つの点を仮定すると、点y1rおよびy2rの回転、移動、スケーリングに関してy1lおよびy2lの位置を表すことができる。
y1lが光軸の上方に位置すると仮定すると、以下のように記述される。
[Derivation of travel distance]
Referring to FIG. 10, assuming two points, p1 represented by a set of coordinates (x1, y1) and p2 represented by a set of coordinates (x2, y2), the rotation of points y1 r and y2 r The position of y1 l and y2 l with respect to movement, scaling can be represented.
Assuming that y1 l is located above the optical axis, it is described as follows.
[15]から、光軸の上方に位置する点p1に関して、
From [15], for the point p1 located above the optical axis,
[スケール量の導出]
上記式[17]および[18]から、スケールSは以下のように計算されることが分かる。
[Derivation of scale amount]
From the above equations [17] and [18], it can be seen that the scale S is calculated as follows.
[回転量の導出]
回転計算に用いる点の選択を示す図11と、垂直位置に基づく角度測定を示す図12とを参照すると、光軸(p1)の左側から1つ、光軸(p2)の右側から1つ、ランダム主要特徴位置が選択される。
点p1およびp2の相対的な回転を測定するために、p1lとp2lとの間の勾配を算出して、当該勾配をp1rとp2rとの間の勾配と比較する、換言すると、左画像内の二点間の勾配と、右画像の対応の点間の勾配とを比較する必要がある。なお、回転計算は移動に対して不変であるが、スケールに対しては可変である。それゆえ、スケール(S)は、計算において説明される。
p1rとp2rとの間の勾配は、以下のように計算される。
[Derivation of rotation amount]
Referring to FIG. 11 showing selection of points used for rotation calculation and FIG. 12 showing angle measurement based on vertical position, one from the left side of the optical axis (p1), one from the right side of the optical axis (p2), Random main feature positions are selected.
In order to measure the relative rotation of the points p1 and p2, the gradient between p1 l and p2 l is calculated and compared with the gradient between p1 r and p2 r , in other words, It is necessary to compare the gradient between two points in the left image with the gradient between corresponding points in the right image. Note that the rotation calculation is invariant to movement, but is variable to scale. The scale (S) is therefore accounted for in the calculation.
The slope between p1 r and p2 r is calculated as follows:
Claims (32)
前記第1の画像内の特徴点の位置と、前記第2の画像内の対応する特徴点の位置とを特定し、
前記第1の画像および前記第2の画像内において、前記第1の画像および前記第2の画像のそれぞれを撮影するカメラの光軸を確定し、
所定のモデルを用いて、前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置との間のずれ量を演算し、
ランダムサンプルコンセンサス技術を用いて、前記演算されたずれ量の妥当性を試験し、
前記ずれ量は、前記第1の画像および前記第2の画像のそれぞれの前記確定された光軸に関する、前記第1の画像の前記特徴点の位置と、前記第2の画像の前記対応する特徴点の位置とに応じて算出され、
前記試験されたずれ量は、前記ランダムサンプルコンセンサス技術が所定の条件を達成したときに妥当とされる
ずれ量算出方法。 A shift amount calculation method for calculating a shift amount between a first image and a second image that are stereoscopically visible,
Identifying the position of the feature point in the first image and the position of the corresponding feature point in the second image;
In the first image and the second image, determine an optical axis of a camera that captures each of the first image and the second image;
Using a predetermined model, calculating a deviation amount between the position of the feature point in the first image and the position of the corresponding feature point in the second image;
Using random sample consensus technology, test the validity of the calculated deviation amount,
The amount of deviation is the position of the feature point of the first image and the corresponding feature of the second image with respect to the determined optical axis of each of the first image and the second image. Calculated according to the position of the point,
The tested deviation amount is valid when the random sample consensus technique achieves a predetermined condition.
前記ずれ量は、当該ずれ量が正確である確率が閾値を上回るときに妥当とされる
ずれ量算出方法。 The shift amount calculation method according to claim 1,
The deviation amount calculation method is valid when a probability that the deviation amount is accurate exceeds a threshold value.
前記所定の条件は、前記ランダムサンプルコンセンサス技術が所定回数反復されることである
ずれ量算出方法。 The shift amount calculation method according to claim 1,
The predetermined condition is that the random sample consensus technique is repeated a predetermined number of times.
前記反復の回数は、下記の式に基づいて算出され、
ずれ量算出方法。 The shift amount calculation method according to claim 3,
The number of iterations is calculated based on the following formula:
Deviation amount calculation method.
前記モデルは、下記の式によって定義され、
ずれ量算出方法。 The shift amount calculation method according to claim 1,
The model is defined by the following equation:
ブロックマッチング技術を用いて、元の第1の画像および元の第2の画像の各縮小版から特徴点を取得するステップを含む
ずれ量算出方法。 The shift amount calculation method according to claim 1, further comprising:
A deviation amount calculation method including a step of acquiring feature points from each reduced version of the original first image and the original second image using a block matching technique.
前記元の第1の画像および前記元の第2の画像の前記各縮小版から取得された前記特徴点を、前記元の第1の画像および前記元の第2の画像におけるブロックマッチング技術の開始点として用い、前記元の第1の画像および前記元の第2の画像から第1の特徴点および第2の特徴点を取得するステップを含む
ずれ量算出方法。 The deviation amount calculation method according to claim 6, further comprising:
The feature points obtained from the respective reduced versions of the original first image and the original second image are used to start block matching technology in the original first image and the original second image. A deviation amount calculation method including a step of obtaining a first feature point and a second feature point from the original first image and the original second image, which are used as points.
前記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、前記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するステップを含み、
前記第1の画像において2つの特徴点の位置を選択し、前記第2の画像において対応する2つの特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与の回転ずれ量に基づいて、前記第1の画像と前記第2の画像との間の垂直ずれ量を算出する
ずれ量算出方法。 The shift amount calculation method according to claim 1, further comprising:
Locating at least one further feature point in the first image and locating at least one corresponding further feature point in the second image,
The position of two feature points in the first image is selected, the position of two corresponding feature points in the second image is selected, and the location between the first image and the second image is selected. A deviation amount calculation method for calculating a vertical deviation amount between the first image and the second image based on a given rotation deviation amount.
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の上方に位置し、かつ
前記第1の画像内の前記さらなる特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の下方に位置する
ずれ量算出方法。 The shift amount calculation method according to claim 8,
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located above the determined optical axis, and in the first image A method of calculating a deviation amount, wherein the position of the further feature point of the second position and the position of the corresponding feature point in the second image are located below the determined optical axis.
前記第1の画像内において特徴点の位置を選択し、前記第2の画像内において対応する特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与の垂直ずれ量に基づいて、前記第1の画像と前記第2の画像との間のスケールずれ量を算出する
ずれ量算出方法。 The shift amount calculation method according to claim 1,
Selecting a position of a feature point in the first image, selecting a position of a corresponding feature point in the second image, and giving a given position between the first image and the second image A deviation amount calculation method for calculating a scale deviation amount between the first image and the second image based on a vertical deviation amount.
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の上方に位置するか、または
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の下方に位置する
ずれ量算出方法。 The shift amount calculation method according to claim 10,
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located above the determined optical axis, or the first image A deviation amount calculation method in which a position of the feature point in the image and a position of the corresponding feature point in the second image are positioned below the determined optical axis.
前記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、前記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するステップを含み、
前記第1の画像内において2つの特徴点の位置を選択し、前記第2の画像内において対応する2つの特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与のスケールずれ量に基づいて、前記第1の画像と前記第2の画像との間の回転ずれ量を算出する
ずれ量算出方法。 The shift amount calculation method according to claim 1, further comprising:
Locating at least one further feature point in the first image and locating at least one corresponding further feature point in the second image,
Select the position of two feature points in the first image, select the position of two corresponding feature points in the second image, and place between the first image and the second image A shift amount calculation method for calculating a rotation shift amount between the first image and the second image based on the given scale shift amount.
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の左側に位置し、かつ
前記第1の画像内の前記さらなる特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の右側に位置する
ずれ量算出方法。 The shift amount calculation method according to claim 12,
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located on the left side of the determined optical axis, and in the first image The displacement amount calculation method in which the position of the further feature point and the position of the corresponding feature point in the second image are located on the right side of the determined optical axis.
前記特徴点の位置および前記さらなる特徴点の位置は、ランダムに生成される
ずれ量算出方法。 The shift amount calculation method according to claim 1,
The position of the feature point and the position of the further feature point are randomly generated.
前記特徴点の位置は、前記第1の画像および前記第2の画像内の画素位置である
ずれ量算出方法。 The shift amount calculation method according to claim 1,
The position of the feature point is a pixel position in the first image and the second image.
前記第1の画像内の特徴点の位置と、前記第2の画像内の対応する特徴点の位置とを特定する特定器と、
前記第1の画像および前記第2の画像内において、前記第1の画像および前記第2の画像のそれぞれを撮影するカメラの光軸を確定する確定器と、
所定のモデルを用いて、前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置との間のずれ量を演算する演算器と、
ランダムサンプルコンセンサス技術を用いて、前記演算されたずれ量の妥当性を試験する試験器とを具備し、
前記ずれ量は、前記第1の画像および前記第2の画像のそれぞれの前記確定された光軸に関する、前記第1の画像の前記特徴点の位置と、前記第2の画像の前記対応する特徴点の位置とに応じて算出され、
前記試験されたずれ量は、前記ランダムサンプルコンセンサス技術が所定の条件を達成したときに妥当とされる
ずれ量算出装置。 A shift amount calculation device that calculates a shift amount between a first image and a second image that can be viewed stereoscopically,
A specifier that identifies the position of the feature point in the first image and the position of the corresponding feature point in the second image;
A determinator that determines an optical axis of a camera that captures each of the first image and the second image in the first image and the second image;
An arithmetic unit that calculates a shift amount between the position of the feature point in the first image and the position of the corresponding feature point in the second image using a predetermined model;
Using a random sample consensus technique, and testing the validity of the calculated deviation amount,
The amount of deviation is the position of the feature point of the first image and the corresponding feature of the second image with respect to the determined optical axis of each of the first image and the second image. Calculated according to the position of the point,
The tested deviation amount is valid when the random sample consensus technique achieves a predetermined condition.
前記ずれ量は、当該ずれ量が正確である確率が閾値を上回るときに妥当とされる
ずれ量算出装置。 The deviation amount calculation apparatus according to claim 18, wherein
The deviation amount calculation device is valid when the probability that the deviation amount is accurate exceeds a threshold value.
前記所定の条件は、前記ランダムサンプルコンセンサス技術が所定回数反復されることである
ずれ量算出装置。 The deviation amount calculation apparatus according to claim 18, wherein
The predetermined condition is that the random sample consensus technique is repeated a predetermined number of times.
前記反復の回数は、下記の式に基づいて算出され、
ずれ量算出装置。 The deviation amount calculation device according to claim 20, wherein
The number of iterations is calculated based on the following formula:
前記モデルは、下記の式によって定義され、
ずれ量算出装置。 The deviation amount calculation apparatus according to claim 18, wherein
The model is defined by the following equation:
ブロックマッチング技術を用いて、元の第1の画像および元の第2の画像の各縮小版から特徴点を取得する取得器を具備する
ずれ量算出装置。 The deviation amount calculation device according to claim 18, further comprising:
A deviation amount calculation device comprising an acquisition unit that acquires a feature point from each reduced version of an original first image and an original second image using block matching technology.
前記取得器はさらに、前記元の第1の画像および前記元の第2の画像の前記各縮小版から取得された前記特徴点を、前記元の第1の画像および前記元の第2の画像におけるブロックマッチング技術の開始点として用い、前記元の第1の画像および前記元の第2の画像から第1の特徴点および第2の特徴点を取得するように動作可能である
ずれ量算出装置。 The deviation amount calculation device according to claim 23, wherein
The acquirer further determines the feature points acquired from the respective reduced versions of the original first image and the original second image as the original first image and the original second image. Used as a starting point of the block matching technique in the above, and is operable to acquire the first feature point and the second feature point from the original first image and the original second image .
前記特定器はさらに、前記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、前記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するように動作可能であり、
前記第1の画像において2つの特徴点の位置を選択し、前記第2の画像において対応する2つの特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与の回転ずれ量に基づいて、前記第1の画像と前記第2の画像との間の垂直ずれ量を算出する
ずれ量算出装置。 The deviation amount calculation apparatus according to claim 18, wherein
The identifier is further operable to locate a location of at least one additional feature point in the first image and to locate a location of at least one corresponding further feature point in the second image. Yes,
The position of two feature points in the first image is selected, the position of two corresponding feature points in the second image is selected, and the location between the first image and the second image is selected. A deviation amount calculation device that calculates a vertical deviation amount between the first image and the second image based on a given rotation deviation amount.
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の上方に位置し、かつ
前記第1の画像内の前記さらなる特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の下方に位置する
ずれ量算出装置。 The shift amount calculation apparatus according to claim 25, wherein
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located above the determined optical axis, and in the first image The deviation amount calculation device in which the position of the further feature point and the position of the corresponding feature point in the second image are located below the determined optical axis.
前記第1の画像内において特徴点の位置を、前記第2の画像内において対応する特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与の垂直ずれ量に基づいて、前記第1の画像と前記第2の画像との間のスケールずれ量を算出する
ずれ量算出装置。 The deviation amount calculation apparatus according to claim 18, wherein
Selecting a feature point position in the first image and a corresponding feature point position in the second image, and a given vertical shift between the first image and the second image; A deviation amount calculation device that calculates an amount of scale deviation between the first image and the second image based on an amount.
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の上方に位置するか、または
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の下方に位置する
ずれ量算出装置。 The deviation amount calculation device according to claim 27, wherein
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located above the determined optical axis, or the first image A deviation amount calculation device in which the position of the feature point in the image and the position of the corresponding feature point in the second image are located below the determined optical axis.
前記特定器はさらに、前記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、前記第2の画像内において少なくとも1つの対応するさらなる特徴位置を特定するように動作可能であり、
前記第1の画像内において2つの特徴点の位置を選択し、前記第2の画像内において対応する2つの特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与のスケールずれ量に基づいて、前記第1の画像と前記第2の画像との間の回転ずれ量を算出する
ずれ量算出装置。 The deviation amount calculation apparatus according to claim 18, wherein
The identifier is further operable to identify a location of at least one additional feature point in the first image and to identify at least one corresponding further feature location in the second image;
Select the position of two feature points in the first image, select the position of two corresponding feature points in the second image, and place between the first image and the second image A shift amount calculation device that calculates a rotational shift amount between the first image and the second image based on the given scale shift amount.
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の左側に位置し、かつ
前記第1の画像内の前記さらなる特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の右側に位置する
ずれ量算出装置。 The deviation amount calculation device according to claim 29, wherein
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located on the left side of the determined optical axis, and in the first image The deviation amount calculation device in which the position of the further feature point and the position of the corresponding feature point in the second image are located on the right side of the determined optical axis.
前記特徴点の位置および前記さらなる特徴点の位置は、ランダムに生成される
ずれ量算出装置。 The deviation amount calculation apparatus according to claim 18, wherein
The position of the feature point and the position of the further feature point are randomly generated.
前記特徴点の位置は、前記第1の画像および前記第2の画像内の画素位置である
ずれ量算出装置。 The deviation amount calculation apparatus according to claim 18, wherein
The position of the feature point is a pixel position in the first image and the second image.
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1003289.4 | 2010-02-26 | ||
GB1003289A GB2478156A (en) | 2010-02-26 | 2010-02-26 | Method and apparatus for generating a disparity map for stereoscopic images |
GB1003291A GB2478157A (en) | 2010-02-26 | 2010-02-26 | Method and apparatus for cutting between a first and second image sequence in a stereoscopic video |
GB1003291.0 | 2010-02-26 | ||
GB1005989A GB2478164A (en) | 2010-02-26 | 2010-04-09 | Calculating misalignment between a stereoscopic image pair based on feature positions |
GB1005989.7 | 2010-04-09 | ||
GB1014339.4 | 2010-08-27 | ||
GB1014339A GB2478169A (en) | 2010-02-26 | 2010-08-27 | Validating the calculated misalignment between a stereoscopic image pair using a RANSAC method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011182397A true JP2011182397A (en) | 2011-09-15 |
Family
ID=42236113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011040833A Withdrawn JP2011182397A (en) | 2010-02-26 | 2011-02-25 | Method and apparatus for calculating shift length |
Country Status (4)
Country | Link |
---|---|
US (2) | US8538198B2 (en) |
JP (1) | JP2011182397A (en) |
CN (1) | CN102169577A (en) |
GB (2) | GB2478164A (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2478164A (en) * | 2010-02-26 | 2011-08-31 | Sony Corp | Calculating misalignment between a stereoscopic image pair based on feature positions |
JP5792662B2 (en) * | 2011-03-23 | 2015-10-14 | シャープ株式会社 | Parallax calculation device, distance calculation device, and parallax calculation method |
GB2489931A (en) * | 2011-04-08 | 2012-10-17 | Sony Corp | Analysis of 3D video to detect frame violation within cropped images |
US20130016186A1 (en) * | 2011-07-13 | 2013-01-17 | Qualcomm Incorporated | Method and apparatus for calibrating an imaging device |
US9129378B2 (en) * | 2011-09-07 | 2015-09-08 | Thomson Licensing | Method and apparatus for recovering a component of a distortion field and for determining a disparity field |
KR101883376B1 (en) * | 2011-11-22 | 2018-07-31 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
GB2500712A (en) | 2012-03-30 | 2013-10-02 | Sony Corp | An Apparatus and Method for transmitting a disparity map |
TWI595428B (en) * | 2012-05-29 | 2017-08-11 | 財團法人工業技術研究院 | Method of feature point matching |
CN103700080B (en) * | 2013-12-06 | 2016-08-03 | 北京工业大学 | Image mismatch based on Skinner probabilistic automaton is to minimizing technology |
WO2015143037A1 (en) * | 2014-03-21 | 2015-09-24 | Omron Corporation | Method and apparatus for detecting and mitigating optical impairments in an optical system |
US10796425B1 (en) * | 2016-09-06 | 2020-10-06 | Amazon Technologies, Inc. | Imagery-based member deformation gauge |
CN108109173B (en) * | 2016-11-25 | 2022-06-28 | 宁波舜宇光电信息有限公司 | Visual positioning method, camera system and automation equipment |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5864359A (en) * | 1995-05-30 | 1999-01-26 | Smith & Nephew, Inc. | Stereoscopic autofocusing based on comparing the left and right eye images |
US6191809B1 (en) * | 1998-01-15 | 2001-02-20 | Vista Medical Technologies, Inc. | Method and apparatus for aligning stereo images |
JP4172554B2 (en) * | 1998-03-12 | 2008-10-29 | 富士重工業株式会社 | Stereo camera adjustment device |
JP4149037B2 (en) * | 1998-06-04 | 2008-09-10 | オリンパス株式会社 | Video system |
US6674892B1 (en) * | 1999-11-01 | 2004-01-06 | Canon Kabushiki Kaisha | Correcting an epipolar axis for skew and offset |
US6504611B2 (en) * | 2000-05-17 | 2003-01-07 | Coretek, Inc. | Two stage optical alignment device and method of aligning optical components |
GB2372659A (en) * | 2001-02-23 | 2002-08-28 | Sharp Kk | A method of rectifying a stereoscopic image |
JP5036132B2 (en) * | 2002-11-21 | 2012-09-26 | ビジョン サード イメージング,インコーポレイテッド | Critical alignment of parallax images for autostereoscopic display |
US7308157B2 (en) * | 2003-02-03 | 2007-12-11 | Photon Dynamics, Inc. | Method and apparatus for optical inspection of a display |
JP4611755B2 (en) * | 2005-01-13 | 2011-01-12 | 株式会社日立ハイテクノロジーズ | Scanning electron microscope and imaging method thereof |
KR101142785B1 (en) | 2005-06-28 | 2012-05-08 | 엘지디스플레이 주식회사 | Liquid crystal display device including thin film transistor |
JP4595733B2 (en) * | 2005-08-02 | 2010-12-08 | カシオ計算機株式会社 | Image processing device |
KR100793076B1 (en) | 2005-12-08 | 2008-01-10 | 한국전자통신연구원 | Edge-adaptive stereo/multi-view image matching apparatus and its method |
US20070165942A1 (en) * | 2006-01-18 | 2007-07-19 | Eastman Kodak Company | Method for rectifying stereoscopic display systems |
KR100762670B1 (en) | 2006-06-07 | 2007-10-01 | 삼성전자주식회사 | Method and device for generating disparity map from stereo image and stereo matching method and device therefor |
EP1865728B1 (en) | 2006-06-08 | 2020-02-26 | Canon Kabushiki Kaisha | Optical system for image projection and image projection apparatus |
KR100899422B1 (en) * | 2007-08-06 | 2009-05-27 | 삼성모바일디스플레이주식회사 | The stereo matching system and the stereo matching method of the same |
JP4946730B2 (en) * | 2007-08-27 | 2012-06-06 | ソニー株式会社 | Face image processing apparatus, face image processing method, and computer program |
US20090128621A1 (en) * | 2007-11-21 | 2009-05-21 | Charles Gregory Passmore | System and/or method for automated stereoscopic alignment of images |
JP5240453B2 (en) * | 2008-02-14 | 2013-07-17 | 株式会社リコー | Image processing method, image processing apparatus, and image pickup apparatus |
JP4695664B2 (en) | 2008-03-26 | 2011-06-08 | 富士フイルム株式会社 | 3D image processing apparatus, method, and program |
CN101276474B (en) * | 2008-04-14 | 2010-09-01 | 中山大学 | Linear constrained image distortion method based on local coordinates |
US8213706B2 (en) * | 2008-04-22 | 2012-07-03 | Honeywell International Inc. | Method and system for real-time visual odometry |
US8554014B2 (en) * | 2008-08-28 | 2013-10-08 | Csr Technology Inc. | Robust fast panorama stitching in mobile phones or cameras |
GB2478164A (en) * | 2010-02-26 | 2011-08-31 | Sony Corp | Calculating misalignment between a stereoscopic image pair based on feature positions |
-
2010
- 2010-04-09 GB GB1005989A patent/GB2478164A/en not_active Withdrawn
- 2010-08-27 GB GB1014339A patent/GB2478169A/en not_active Withdrawn
-
2011
- 2011-01-27 US US13/015,251 patent/US8538198B2/en not_active Expired - Fee Related
- 2011-02-10 US US13/024,907 patent/US8494307B2/en not_active Expired - Fee Related
- 2011-02-25 JP JP2011040833A patent/JP2011182397A/en not_active Withdrawn
- 2011-02-28 CN CN2011100495782A patent/CN102169577A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN102169577A (en) | 2011-08-31 |
GB2478164A (en) | 2011-08-31 |
GB201014339D0 (en) | 2010-10-13 |
GB2478169A (en) | 2011-08-31 |
GB201005989D0 (en) | 2010-05-26 |
US20110211751A1 (en) | 2011-09-01 |
US20110211750A1 (en) | 2011-09-01 |
US8538198B2 (en) | 2013-09-17 |
US8494307B2 (en) | 2013-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011182397A (en) | Method and apparatus for calculating shift length | |
Liu et al. | Concrete crack assessment using digital image processing and 3D scene reconstruction | |
US10825198B2 (en) | 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
US11928805B2 (en) | Information processing apparatus, information processing method, and storage medium for defect inspection and detection | |
WO2014002849A1 (en) | Three-dimensional measurement method, apparatus, and system, and image processing device | |
US20150262346A1 (en) | Image processing apparatus, image processing method, and image processing program | |
TW201118791A (en) | System and method for obtaining camera parameters from a plurality of images, and computer program products thereof | |
JP6170281B2 (en) | Three-dimensional measuring device, control method for three-dimensional measuring device, and program | |
CN111457886A (en) | Distance determination method, device and system | |
US11393116B2 (en) | Information processing apparatus, method thereof, and non-transitory computer-readable storage medium | |
CN109902695B (en) | Line feature correction and purification method for image pair linear feature matching | |
JP2008224323A (en) | Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program | |
JP6579816B2 (en) | Image processing apparatus, image processing method, and program | |
EP3997664A1 (en) | Lens calibration method for digital imaging apparatus | |
US20230260159A1 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
JP2010182330A (en) | Method for processing color image and image processor | |
CN112734721B (en) | Optical axis deflection angle detection method, device, equipment and medium | |
Su et al. | An automatic calibration system for binocular stereo imaging | |
JP2019022147A (en) | Light source direction estimation device | |
CN109215068B (en) | Image magnification measuring method and device | |
JP6564679B2 (en) | Image processing apparatus, same part detection method by image matching, and image processing program | |
JP2008287338A (en) | Image processor | |
JP5039083B2 (en) | Image creation method, calculation device, image creation program, and storage medium | |
CN112424566B (en) | Distance measuring camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140513 |