[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011182397A - Method and apparatus for calculating shift length - Google Patents

Method and apparatus for calculating shift length Download PDF

Info

Publication number
JP2011182397A
JP2011182397A JP2011040833A JP2011040833A JP2011182397A JP 2011182397 A JP2011182397 A JP 2011182397A JP 2011040833 A JP2011040833 A JP 2011040833A JP 2011040833 A JP2011040833 A JP 2011040833A JP 2011182397 A JP2011182397 A JP 2011182397A
Authority
JP
Japan
Prior art keywords
image
feature point
amount calculation
deviation amount
deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011040833A
Other languages
Japanese (ja)
Inventor
Jonathan Richard Thorpe
リチャード ソープ ジョナサン
Sarah Elizabeth Witt
エリザベス ウィット サラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Europe BV United Kingdom Branch
Original Assignee
Sony Europe Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB1003289A external-priority patent/GB2478156A/en
Priority claimed from GB1003291A external-priority patent/GB2478157A/en
Application filed by Sony Europe Ltd filed Critical Sony Europe Ltd
Publication of JP2011182397A publication Critical patent/JP2011182397A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To calculate shift length between two cameras for stereoscopic image photographing. <P>SOLUTION: A shift length calculation apparatus includes: a determiner operable to determine a feature-point position within a first image and a corresponding feature-point position within a second image; a definer operable to define, within the first image and the second image, the optical axis of the cameras capturing the respective first and second images; a calculator operable to calculate the shift length between the feature-point position within the first image and the corresponding feature-point position within the second image using a predetermined model; and a tester operable to test the validity of the calculated shift length using a random sample consensus technique; wherein the shift length is calculated in dependence upon the location of the feature-point position of the first image and the corresponding feature-point position of the second image relative to the defined optical axis of the respective first and second images, and the tested shift length is valid when a predetermined condition is achieved. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ずれ量算出方法およびずれ量算出装置に関する。   The present invention relates to a deviation amount calculation method and a deviation amount calculation apparatus.

3D画像を視聴するために立体映像を撮影する場合、当該映像を2台のカメラを用いて撮影することが一般的である。映像が正確に撮影されることを保証するためには、2台のカメラは、同じズームレベルと、最小の垂直視差とを有する必要がある。また、2台のカメラのロールずれ量が最小である必要もある。   When a 3D image is captured to view a 3D image, it is common to capture the image using two cameras. In order to ensure that the video is captured correctly, the two cameras need to have the same zoom level and minimal vertical parallax. In addition, the amount of roll deviation between the two cameras needs to be minimal.

通常、上記ずれ量は、可能である場合はカメラの操作者によって修正される。2台のカメラ間のずれは単独ではなく、2つ以上のずれが組み合わさって起こることが典型的であるため、カメラ操作者がこれらのずれ量を確定して修正することは困難である。さらに、特に生放送のビデオ映像の場合、このようなエラーを迅速にかつ正確に修正することが重要である。   Usually, the deviation is corrected by the camera operator if possible. Since the deviation between the two cameras is typically not a single, but a combination of two or more deviations, it is difficult for the camera operator to determine and correct these deviations. Furthermore, it is important to correct such errors quickly and accurately, especially in the case of live video footage.

欧州特許出願公開第2112630号明細書European Patent Application No. 2112630 英国特許出願公開第2372659号明細書British Patent Application No. 2372659

LACEY他著、"An evaluation of the performance of RANSAC algorithms for stereo camera calibration" BMVC 200: Proceedings of the 11th British Machine Vision Conference; 11-14 September 200, University of Bristol, UK; Conference Paper, Vol 2, Pages 646-655LACEY et al., "An evaluation of the performance of RANSAC algorithms for stereo camera calibration" BMVC 200: Proceedings of the 11th British Machine Vision Conference; 11-14 September 200, University of Bristol, UK; Conference Paper, Vol 2, Pages 646 -655

本発明の実施形態は、上記問題に対処することを目的とする。   Embodiments of the present invention aim to address the above problems.

本発明の第1の実施形態によれば、立体的に視聴可能な第1の画像と第2の画像との間のずれ量を算出する方法であって、上記第1の画像内の特徴点の位置と、上記第2の画像内の対応する特徴点の位置とを特定し、上記第1の画像および上記第2の画像内において、上記第1の画像および上記第2の画像のそれぞれを撮影するカメラの光軸を確定し、所定のモデルを用いて、上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置との間のずれ量を計算し、ランダムサンプルコンセンサス技術を用いて、上記計算されたずれ量の妥当性をテストし、上記ずれ量は、上記第1の画像および上記第2の画像のそれぞれの上記確定された光軸に関する、上記第1の画像の上記特徴点の位置と、上記第2の画像の上記対応する特徴点の位置とに応じて算出され、上記テストされたずれ量は、上記ランダムサンプルコンセンサス技術が所定の条件を達成したときに妥当とされる、ずれ量算出方法が提供される。   According to the first embodiment of the present invention, there is provided a method for calculating a shift amount between a first image and a second image that can be viewed in three dimensions, and a feature point in the first image. And the position of the corresponding feature point in the second image, and in the first image and the second image, the first image and the second image are respectively The optical axis of the camera to be photographed is determined, and using a predetermined model, the difference between the position of the feature point in the first image and the position of the corresponding feature point in the second image Calculating the amount and testing the validity of the calculated displacement amount using a random sample consensus technique, wherein the displacement amount is determined by the determined light of each of the first image and the second image. The position of the feature point of the first image with respect to the axis and the top of the second image. Is calculated according to the position of the corresponding feature points, the tested shift amount, the random sample consensus techniques are appropriate when the predetermined condition is achieved, the shift amount calculating method is provided.

上記ずれ量は、上記ずれ量が正確である確率が閾値を上回るときに妥当であってもよい。   The deviation amount may be appropriate when the probability that the deviation amount is accurate exceeds a threshold value.

上記所定の条件は、上記ランダムサンプルコンセンサス技術が所定回数反復されることであってもよい。   The predetermined condition may be that the random sample consensus technique is repeated a predetermined number of times.

上記反復の回数は、下記の式に基づいて算出されてもよい。   The number of repetitions may be calculated based on the following formula.

Figure 2011182397
式中、target_incorrect_est_probは、上記モデルが不正確である確率であり、incorrect_est_probは、上記対応する特徴点が不正確である確率である。
Figure 2011182397
Where target_incorrect_est_prob is the probability that the model is incorrect and incorrect_est_prob is the probability that the corresponding feature point is incorrect.

上記モデルは、下記の式によって定義されてもよい。   The model may be defined by the following equation:

Figure 2011182397
式中、yは、上記第2の画像内の上記特徴点の垂直位置、xLおよびyLはそれぞれ、上記第1の画像内の上記特徴点の水平位置および垂直位置であり、θは回転ずれ量であり、Sはスケールずれ量であり、かつ、Tは、上記第1の画像と上記第2の画像との間の垂直ずれ量である。
Figure 2011182397
Where y is the vertical position of the feature point in the second image, xL and yL are the horizontal position and vertical position of the feature point in the first image, respectively, and θ is the amount of rotational deviation. S is the amount of scale deviation, and T is the amount of vertical deviation between the first image and the second image.

上記ずれ量算出方法はさらに、ブロックマッチング技術を用いて、元の第1の画像および元の第2の画像の縮小版から特徴点を取得するステップを含んでもよい。   The deviation amount calculation method may further include a step of acquiring feature points from a reduced version of the original first image and the original second image using a block matching technique.

上記ずれ量算出方法はさらに、上記元の第1の画像および上記元の第2の画像の上記縮小版から取得された上記特徴点を、上記元の第1の画像および上記元の第2の画像におけるブロックマッチング技術の開始点として用い、上記元の第1の画像および上記元の第2の画像から第1の特徴点および第2の特徴点を取得するステップを含んでもよい。   The deviation amount calculation method further includes calculating the feature points acquired from the reduced version of the original first image and the original second image, using the original first image and the original second image. It may be used as a starting point for a block matching technique in an image, and may include obtaining a first feature point and a second feature point from the original first image and the original second image.

上記ずれ量算出方法はさらに、上記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、上記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するステップを含んでもよく、上記第1の画像において2つの特徴点の位置を、上記第2の画像において対応する2つの特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与の回転ずれ量に基づいて、上記第1の画像と上記第2の画像との間の垂直ずれ量を算出してもよい。   The deviation amount calculation method further includes the step of specifying the position of at least one further feature point in the first image and specifying the position of at least one corresponding further feature point in the second image. The position of two feature points in the first image and the position of the two corresponding feature points in the second image may be selected, and the position between the first image and the second image may be selected. A vertical shift amount between the first image and the second image may be calculated based on a given rotation shift amount.

上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の上方に位置してもよく、かつ上記第1の画像内の上記さらなる特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の下方に位置してもよい。   The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located above the determined optical axis, and the first image The position of the further feature point in the second image and the position of the corresponding feature point in the second image may be located below the determined optical axis.

上記第1の画像内において特徴点の位置を選択し、上記第2の画像内において対応する特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与の垂直ずれ量に基づいて、上記第1の画像と上記第2の画像との間のスケールずれ量を算出してもよい。   Selecting a position of a feature point in the first image, selecting a position of a corresponding feature point in the second image, and providing a given point between the first image and the second image Based on the vertical shift amount, the scale shift amount between the first image and the second image may be calculated.

上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の上方に位置してもよいか、または上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の下方に位置してもよい。   The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located above the determined optical axis, or The position of the feature point in one image and the position of the corresponding feature point in the second image may be located below the determined optical axis.

上記ずれ量算出方法はさらに、上記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、上記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するステップを含んでもよく、上記第1の画像内において2つの特徴点の位置を選択し、上記第2の画像内において対応する2つの特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与のスケールずれ量に基づいて、上記第1の画像と上記第2の画像との間の回転ずれ量を算出してもよい。   The deviation amount calculation method further includes the step of specifying the position of at least one further feature point in the first image and specifying the position of at least one corresponding further feature point in the second image. Alternatively, the positions of two feature points are selected in the first image, the positions of two corresponding feature points are selected in the second image, and the first image and the second image are selected. The amount of rotational deviation between the first image and the second image may be calculated based on a given amount of scale deviation between the first image and the second image.

上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の左側に位置してもよく、かつ上記第1の画像内の上記さらなる特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の右側に位置してもよい。   The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located on the left side of the determined optical axis, and the first The position of the further feature point in the second image and the position of the corresponding feature point in the second image may be located on the right side of the determined optical axis.

上記特徴点の位置および上記さらなる特徴点の位置は、ランダムに生成されてもよい。   The position of the feature point and the position of the further feature point may be randomly generated.

上記特徴点の位置は、上記第1の画像および上記第2の画像内の画素位置であってもよい。   The position of the feature point may be a pixel position in the first image and the second image.

本発明の第2の実施形態によれば、コンピュータに、上記ずれ量算出方法の各ステップを実行させるプログラムが提供される。   According to the second embodiment of the present invention, there is provided a program for causing a computer to execute each step of the deviation amount calculation method.

本発明の第3の実施形態によれば、プログラム(請求項16に対応)が記録された記録媒体が提供される。   According to the third embodiment of the present invention, a recording medium on which a program (corresponding to claim 16) is recorded is provided.

本発明の第4の実施形態によれば、立体的に視聴可能な第1の画像と第2の画像との間のずれ量を算出する装置であって、上記第1の画像内の特徴点の位置と、上記第2の画像内の対応する特徴点の位置とを特定する特定器と、上記第1の画像および上記第2の画像内において、上記第1の画像および上記第2の画像のそれぞれを撮影するカメラの光軸を確定する確定器と、モデルを用いて、上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置との間のずれ量を演算する演算器と、ランダムサンプルコンセンサス技術を用いて、上記演算されたずれ量の妥当性を試験する試験器とを具備し、上記ずれ量は、上記第1の画像および上記第2の画像のそれぞれの上記確定された光軸に関する、上記第1の画像の上記特徴点の位置と、上記第2の画像の上記対応する特徴点の位置とに応じて算出され、上記テストされたずれ量は、上記ランダムサンプルコンセンサス技術が所定の条件を達成したときに妥当とされる、ずれ量算出装置が提供される。   According to the fourth embodiment of the present invention, there is provided an apparatus for calculating a shift amount between a first image and a second image that can be viewed stereoscopically, and a feature point in the first image. And a specifying unit for specifying the position of the corresponding feature point in the second image, and the first image and the second image in the first image and the second image. And a position of the feature point in the first image and a position of the corresponding feature point in the second image using a model. And a tester that tests the validity of the calculated amount of deviation using a random sample consensus technique, the amount of deviation being the first image and The first image with respect to the determined optical axis of each of the second images; Calculated according to the position of the feature point and the position of the corresponding feature point of the second image, and the tested deviation is valid when the random sample consensus technique achieves a predetermined condition. A deviation amount calculation device is provided.

上記ずれ量は、上記ずれ量が正確である確率が閾値を上回るときに妥当であってもよい。   The deviation amount may be appropriate when the probability that the deviation amount is accurate exceeds a threshold value.

上記所定の条件は、上記ランダムサンプルコンセンサス技術が所定回数反復されることであってもよい。   The predetermined condition may be that the random sample consensus technique is repeated a predetermined number of times.

上記反復の回数は、下記の式に基づいて算出されてもよい。   The number of repetitions may be calculated based on the following formula.

Figure 2011182397
式中、target_incorrect_est_probは、上記モデルが不正確である確率であり、incorrect_est_probは、上記対応する特徴点が不正確である確率である。
Figure 2011182397
Where target_incorrect_est_prob is the probability that the model is incorrect and incorrect_est_prob is the probability that the corresponding feature point is incorrect.

上記モデルは、下記の式によって定義されてもよい。   The model may be defined by the following equation:

Figure 2011182397
式中、yは、上記第2の画像内の上記特徴点の垂直位置、xLおよびyLはそれぞれ、上記第1の画像内の上記特徴点の水平位置および垂直位置であり、θは回転ずれ量であり、Sはスケールずれ量であり、かつ、Tは、上記第1の画像と上記第2の画像との間の垂直ずれ量である。
Figure 2011182397
Where y is the vertical position of the feature point in the second image, xL and yL are the horizontal position and vertical position of the feature point in the first image, respectively, and θ is the amount of rotational deviation. S is the amount of scale deviation, and T is the amount of vertical deviation between the first image and the second image.

上記ずれ量算出装置はさらに、ブロックマッチング技術を用いて、元の第1の画像および元の第2の画像の縮小版から特徴点を取得する取得器を具備してもよい。   The deviation amount calculation device may further include an acquisition unit that acquires feature points from a reduced version of the original first image and the original second image using a block matching technique.

上記取得器はさらに、上記元の第1の画像および上記元の第2の画像の上記縮小版から取得された上記特徴点を、上記元の第1の画像および上記元の第2の画像におけるブロックマッチング技術の開始点として用い、上記元の第1の画像および上記元の第2の画像から第1の特徴点および第2の特徴点を取得するように動作可能であってもよい。   The acquirer further determines the feature points acquired from the reduced version of the original first image and the original second image in the original first image and the original second image. It may be operable to obtain a first feature point and a second feature point from the original first image and the original second image, used as a starting point for a block matching technique.

上記特定器はさらに、上記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、上記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するように動作可能であってもよく、上記第1の画像において2つの特徴点の位置を、上記第2の画像において対応する2つの特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与のロールずれ量に基づいて、上記第1の画像と上記第2の画像との間の垂直ずれ量を算出してもよい。   The identifier is further operable to locate a location of at least one additional feature point in the first image and to locate a location of at least one corresponding further feature point in the second image. The position of two feature points in the first image and the position of two corresponding feature points in the second image may be selected, and the first image and the second image may be selected. A vertical shift amount between the first image and the second image may be calculated based on a given roll shift amount.

上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の上方に位置してもよく、かつ上記第1の画像内の上記さらなる特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の下方に位置してもよい。   The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located above the determined optical axis, and the first image The position of the further feature point in the second image and the position of the corresponding feature point in the second image may be located below the determined optical axis.

上記第1の画像内において特徴点の位置を選択し、上記第2の画像内において対応する特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与の垂直ずれ量に基づいて、上記第1の画像と上記第2の画像との間のスケールずれ量を算出してもよい。   Selecting a position of a feature point in the first image, selecting a position of a corresponding feature point in the second image, and providing a given point between the first image and the second image Based on the vertical shift amount, the scale shift amount between the first image and the second image may be calculated.

上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の上方に位置してもよいか、または上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の下方に位置してもよい。   The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located above the determined optical axis, or The position of the feature point in one image and the position of the corresponding feature point in the second image may be located below the determined optical axis.

上記特定器はさらに、上記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、上記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するように動作可能であってもよく、上記第1の画像内において2つの特徴点の位置を選択し、上記第2の画像内において対応する2つの特徴点の位置を選択し、上記第1の画像と上記第2の画像との間の所与のスケールずれ量に基づいて、上記第1の画像と上記第2の画像との間の回転ずれ量を算出してもよい。   The identifier is further operable to locate a location of at least one additional feature point in the first image and to locate a location of at least one corresponding further feature point in the second image. The positions of two feature points in the first image may be selected, the positions of the two corresponding feature points in the second image may be selected, and the first image and the second image may be selected. An amount of rotational deviation between the first image and the second image may be calculated based on a given scale deviation amount between the first image and the second image.

上記第1の画像内の上記特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の左側に位置してもよく、かつ上記第1の画像内の上記さらなる特徴点の位置と、上記第2の画像内の上記対応する特徴点の位置とが、上記確定された光軸の右側に位置してもよい。   The position of the feature point in the first image and the position of the corresponding feature point in the second image may be located on the left side of the determined optical axis, and the first The position of the further feature point in the second image and the position of the corresponding feature point in the second image may be located on the right side of the determined optical axis.

上記特徴点の位置および上記さらなる特徴点の位置は、ランダムに生成されてもよい。   The position of the feature point and the position of the further feature point may be randomly generated.

上記特徴点の位置は、上記第1の画像および上記第2の画像内の画素位置であってもよい。   The position of the feature point may be a pixel position in the first image and the second image.

本発明の上記および他の課題、特徴および利点が、添付の図面を参照して読まれるべき例示的な実施形態の以下の詳細な説明から明らかになるであろう。   The above and other objects, features and advantages of the present invention will become apparent from the following detailed description of exemplary embodiments to be read with reference to the accompanying drawings.

本発明の一実施形態によるずれ量演算器に接続されるカメラシステムを示す図である。It is a figure which shows the camera system connected to the deviation | shift amount calculator by one Embodiment of this invention. 図1のずれ量演算器を示す図である。It is a figure which shows the deviation | shift amount calculator of FIG. 図1のずれ量演算器においてエッジ検出器と対応点算出器とによって実行される処理を説明するフローチャートである。2 is a flowchart for explaining processing executed by an edge detector and a corresponding point calculator in the deviation amount calculator of FIG. 1. 図3のフローチャートの図解を示す図である。It is a figure which shows the illustration of the flowchart of FIG. ずれ量の演算を説明するフローチャートである。It is a flowchart explaining calculation of deviation | shift amount. 垂直ずれ量を算出する原理を説明するフローチャートである。It is a flowchart explaining the principle which calculates vertical deviation | shift amount. 画素位置を光軸に関する画素位置に変換する方法を示す図である。It is a figure which shows the method of converting a pixel position into the pixel position regarding an optical axis. スケールずれ量を算出する原理を説明するフローチャートである。It is a flowchart explaining the principle which calculates the amount of scale shifts. 回転ずれ量を算出する原理を説明するフローチャートである。It is a flowchart explaining the principle which calculates rotation deviation | shift amount. 垂直ずれ量アルゴリズムの算出を説明する図である。It is a figure explaining calculation of a perpendicular deviation amount algorithm. 回転ずれ量アルゴリズムの算出を説明する図である。It is a figure explaining calculation of a rotation gap amount algorithm. 回転ずれ量アルゴリズムの算出を説明する図である。It is a figure explaining calculation of a rotation gap amount algorithm. 対応点を正確に確定する技術を説明するフローチャートである。It is a flowchart explaining the technique which fixes a corresponding point correctly. 対応点を正確に確定する技術を説明するフローチャートである。It is a flowchart explaining the technique which fixes a corresponding point correctly.

[方法の概要]
実施形態において、立体画像についてずれ量を計算するために、概ね以下の方法が行われる。
1)2枚の画像のうちの一方の画像内の主要特徴点を選択する。実施形態において、左画像内の主要特徴点を選択する。
2)主要特徴点をブロックマッチング処理の基準として用いて、右画像内の対応する主要特徴点を算出する。
3)一連の幾何学的演算を実行して、3つの歪み量(ずれ量)を得る。具体的には、垂直視差を示すずれ量を算出し、スケール(拡大縮小)視差を示すずれ量を算出し、最後に、ロール(回転)視差を示すずれ量を算出する。実施形態において、先行のステップにおいて算出されたずれ量を、後述のステップのずれ量演算において用いる。3つのずれ量を特定の順序で算出するように記載されているが、後述するように、本発明はこれに限定されない。ずれ量はあらゆる順序で計算することが可能である。次いで、ずれ量を用いて、カメラの物理的な位置および/またはカメラのパラメータを調整するか、または、ずれ量に基づいて、撮影画像を電子的に調整することができる。
[Overview of method]
In the embodiment, the following method is generally performed to calculate the shift amount for a stereoscopic image.
1) Select a main feature point in one of the two images. In the embodiment, the main feature points in the left image are selected.
2) Using the main feature point as a reference for the block matching process, the corresponding main feature point in the right image is calculated.
3) A series of geometric operations is executed to obtain three distortion amounts (deviation amounts). Specifically, a shift amount indicating vertical parallax is calculated, a shift amount indicating scale (enlargement / reduction) parallax is calculated, and finally, a shift amount indicating roll (rotation) parallax is calculated. In the embodiment, the deviation amount calculated in the preceding step is used in the deviation amount calculation in the later-described step. Although the three shift amounts are described as being calculated in a specific order, the present invention is not limited to this as described later. The amount of deviation can be calculated in any order. The amount of deviation can then be used to adjust the physical position of the camera and / or camera parameters, or the captured image can be adjusted electronically based on the amount of deviation.

図1は、本発明の実施形態のうちの一実施態様を示す。2台のカメラ110および120が立体画像を撮影するように設定される。これらの立体画像用カメラによって、カメラシステム100が構成される。各カメラからの出力が、本発明の実施形態によるずれ量演算器200に供給される。ずれ量演算器200は、カメラシステム100の2台のカメラ間のずれ量を算出する。なお、立体画像を撮影するように設定されたカメラは水平変位を行うものだが、水平変位を行う画像用のアルゴリズムは必須ではない。それゆえ、ずれ量演算器200が、垂直視差を示すずれ量と、回転視差を示すずれ量とを算出し、スケール視差を示すずれ量が生成される。これらのずれ量をカメラの操作者が用いることによって、カメラのずれを物理的に修正するか、当該ずれ量を用いてサーボモータを制御してずれを修正させることができる。実際には、ずれ量を用いることで、カメラの向きを一切物理的に修正することなく、カメラシステム100によって生成される画像を電子的に修正することも可能である。   FIG. 1 shows one implementation of the embodiments of the present invention. The two cameras 110 and 120 are set to capture a stereoscopic image. A camera system 100 is configured by these stereoscopic image cameras. The output from each camera is supplied to the deviation amount calculator 200 according to the embodiment of the present invention. The deviation amount calculator 200 calculates the deviation amount between the two cameras of the camera system 100. In addition, although the camera set to image | photograph a stereo image performs a horizontal displacement, the algorithm for the image which performs a horizontal displacement is not essential. Therefore, the shift amount calculator 200 calculates the shift amount indicating the vertical parallax and the shift amount indicating the rotational parallax, and the shift amount indicating the scale parallax is generated. By using these shift amounts by the camera operator, the shift of the camera can be physically corrected, or the shift can be corrected by controlling the servo motor using the shift amount. In practice, by using the shift amount, it is possible to electronically correct the image generated by the camera system 100 without physically correcting the camera orientation.

図2は、ずれ量演算器200をより詳細に示す。まず、従来の技術を用いて、2台のカメラからの画像を1/4HDに(すなわち、1280×720pから480×270解像度または360×180へ)縮小し、エッジ検出器210に供給する。画像の解像度を減らすことは、エッジ検出がより速やかに行われることを意味する。エッジ検出器210を用いて、左画像における水平エッジを算出する。検出されたエッジを対応点算出器220に供給し、対応点算出器220は、左画像内の点に対応する右画像内の点を算出する。換言すると、対応点算出器220は、左画像内において、右画像の一定の画素がどこに位置するかを算出する。ずれ量をずれ量算出器230において計算して出力する。   FIG. 2 shows the shift amount calculator 200 in more detail. First, using conventional technology, the images from the two cameras are reduced to ¼ HD (ie, from 1280 × 720p to 480 × 270 resolution or 360 × 180) and supplied to the edge detector 210. Reducing the image resolution means that edge detection is performed more quickly. The edge detector 210 is used to calculate the horizontal edge in the left image. The detected edge is supplied to the corresponding point calculator 220, and the corresponding point calculator 220 calculates a point in the right image corresponding to a point in the left image. In other words, the corresponding point calculator 220 calculates where certain pixels of the right image are located in the left image. The deviation amount is calculated by the deviation amount calculator 230 and output.

図3は、エッジ検出器210と対応点算出器220とによって実行される処理を説明するフローチャートである。当該フローチャートは、図4のイラストを用いて説明される。   FIG. 3 is a flowchart for explaining processing executed by the edge detector 210 and the corresponding point calculator 220. The flowchart will be described with reference to the illustration of FIG.

図4では、(左側のカメラ120によって撮影された)左画像120Aに自動車125Aの像が含まれている。これはまず、従来技術を用いて1/4HD解像度に縮小される。解像度を減らすことは、エッジ検出がより速やかに行われることを意味する。図3のステップ2101において、左画像内の水平エッジを検出する。実施形態において、これは、例えば、ゾーベルエッジ検出アルゴリズム等のエッジ検出アルゴリズムによって達成される。水平エッジを検出するのは、計算されるずれ量のうちの1つが2枚の画像間の垂直変位であるためである。このようにして、水平エッジのみを計算することで、候補特徴点の数が、実質的に結果の精度に影響を与えることなく減る。   In FIG. 4, the left image 120A (taken by the left camera 120) includes an image of the automobile 125A. This is first reduced to 1/4 HD resolution using conventional techniques. Decreasing the resolution means that edge detection is performed more quickly. In step 2101 of FIG. 3, a horizontal edge in the left image is detected. In an embodiment, this is achieved by an edge detection algorithm such as, for example, a Sobel edge detection algorithm. The reason why the horizontal edge is detected is that one of the calculated shift amounts is the vertical displacement between the two images. In this way, by calculating only the horizontal edges, the number of candidate feature points is reduced without substantially affecting the accuracy of the results.

左画像内の水平エッジを計算した後、120B(図4を参照)のような画像を生成する。図4に見られるように、エラーエッジ125Bが生成されている。エラーエッジ125Bは、右画像おいて対応する点を有しない。したがって、検出された水平エッジの数を減らすことが望まれる。水平エッジの数の削減は、図3のステップS2102において行われる。これを達成するために、エッジが検出された画像をタイルに分割する。実施形態において、各タイルは、幅16画素×高さ16画素である。図4において、1つのタイルに参照符号125Cが付されている。しかし、任意のサイズのタイルを選択可能である。同様に、任意の形状のタイル、例えば、矩形のタイルを選択可能である。タイルに引っかからないエッジは全て無視する。換言すると、検出されたエッジのうち、長さが16画素未満のものは無視される。この削減を行うことによって、誤ったエラーエッジが無視される。これによって、結果の信頼性が向上するとともに、本方法の演算にかかる費用が削減される。   After calculating the horizontal edge in the left image, an image such as 120B (see FIG. 4) is generated. As can be seen in FIG. 4, an error edge 125B has been generated. The error edge 125B does not have a corresponding point in the right image. Therefore, it is desirable to reduce the number of detected horizontal edges. The number of horizontal edges is reduced in step S2102 of FIG. To achieve this, the image in which the edge is detected is divided into tiles. In an embodiment, each tile is 16 pixels wide by 16 pixels high. In FIG. 4, a reference numeral 125C is assigned to one tile. However, any size tile can be selected. Similarly, tiles of any shape can be selected, for example rectangular tiles. Ignore any edges that don't catch on the tile. In other words, of the detected edges, those having a length of less than 16 pixels are ignored. By making this reduction, false error edges are ignored. This improves the reliability of the results and reduces the cost of the operation of the method.

検出されたエッジの数を減らした後、画像を象限に分割する。象限の中心は画像の光軸である。実施形態において、象限の中心を光軸に置くのは、光軸が不変の線だからである。つまり、光軸は、スケール歪みの影響も、ロール歪むの影響も受けない。説明の便宜上、画像の光軸は、画像の中心と想定する。しかし、当業者であれば、これがただ有効な仮定であって、常に適用される訳ではないことが理解されるであろう。これを図4に120Dで示す。象限画像の一区画が参照符号付き(125D)で示されている。   After reducing the number of detected edges, the image is divided into quadrants. The center of the quadrant is the optical axis of the image. In the embodiment, the center of the quadrant is placed on the optical axis because the optical axis is an invariant line. That is, the optical axis is not affected by scale distortion or roll distortion. For convenience of explanation, it is assumed that the optical axis of the image is the center of the image. However, those skilled in the art will appreciate that this is only a valid assumption and does not always apply. This is indicated by 120D in FIG. A section of the quadrant image is indicated with a reference sign (125D).

画像を象限に分割した後、象限毎に複数のサンプルエッジ画素を選択する。実施形態において、象限毎に20個の画素が選択されているが、本発明はこれに限定されず、任意の数の画素を選択することができる。この選択は、理解されるように、演算の精度と速度との兼ね合いに基づいてもよい。さらに、実施形態において、画素はランダムに選択されているが、本発明はこれに限定されない。   After dividing the image into quadrants, a plurality of sample edge pixels are selected for each quadrant. In the embodiment, 20 pixels are selected for each quadrant, but the present invention is not limited to this, and an arbitrary number of pixels can be selected. This selection may be based on a tradeoff between accuracy and speed of computation, as will be appreciated. Furthermore, in the embodiment, the pixels are randomly selected, but the present invention is not limited to this.

複数の選択画素が選択された典型的な画像を図4の120Eに示す。このような画素の1つの画素位置が参照符号付き(125E)で示されている。なお、画素位置は好適な特徴点として確定されているが、本発明はこれに限定されない。理解されるように、1/4解像度画像におけるサブ画素位置等の他の特徴点を算出することもできる。複数のサブ画素のうちの任意の1つが「通常の」画素位置(すなわち、フル解像度HD信号の画素位置)に存在する場合、サブ画素の値をランダムにまたは何らかの他の方法によって選択してもよい。さらに、ユーザに、「通常」画素位置にある、存在し得る異なるサブ画素値を知らせてもよい。   A typical image with a plurality of selected pixels selected is shown at 120E in FIG. One pixel position of such a pixel is indicated with a reference sign (125E). Although the pixel position is determined as a suitable feature point, the present invention is not limited to this. As can be appreciated, other feature points such as sub-pixel positions in the ¼ resolution image can also be calculated. If any one of the sub-pixels is present at a “normal” pixel location (ie, the pixel location of the full resolution HD signal), the value of the sub-pixel may be selected randomly or by some other method Good. In addition, the user may be informed of the different sub-pixel values that may exist at the “normal” pixel location.

これまでのところ、本方法は、左画像内の特徴位置を識別した。これらの特徴位置は、左画像内の画素位置である。次に、右画像内の対応する画素位置がどこに存在するのかを算出する必要がある。   So far, the method has identified feature locations in the left image. These feature positions are pixel positions in the left image. Next, it is necessary to calculate where the corresponding pixel position in the right image exists.

右画像内において確定される画素位置毎に探索を実行する。換言すると、複数の画素位置が左画像内に確定されているため、対応する画素位置を算出するために右画像内の同じ画素位置の周囲において探索を実行する必要がある。これは、ブロックマッチング技術を用いて達成される。   A search is performed for each pixel position determined in the right image. In other words, since a plurality of pixel positions are determined in the left image, it is necessary to perform a search around the same pixel position in the right image in order to calculate the corresponding pixel position. This is achieved using block matching techniques.

ステップ2104において、従来のブロックマッチング技術を、右画像の画素位置毎に実行し、対応する画素位置を算出する。これを図4の110Bに図示する。当該画像110Bに見られるように、左画像から導出された画素位置125Eが、右画像110Bにおいて探索エリアの中心をなしている。探索エリアのサイズは、立体視聴を達成するために必要とされる意図的な水平変位およびエラーに起因するずれ量に対処するものでなければならない。したがって、画像が典型的なフル解像度画像である場合、探索エリアは、幅250画素×高さ100画素である。しかし、本発明はこれに限定されず、他のサイズおよび形状の探索エリアを採用することが可能である。具体的には、1/4解像度に対して、探索エリアは、幅63画素×高さ45画素である。   In step 2104, a conventional block matching technique is performed for each pixel position of the right image to calculate a corresponding pixel position. This is illustrated at 110B in FIG. As seen in the image 110B, the pixel position 125E derived from the left image forms the center of the search area in the right image 110B. The size of the search area must account for the amount of misalignment due to the intentional horizontal displacement and errors required to achieve stereoscopic viewing. Thus, if the image is a typical full resolution image, the search area is 250 pixels wide by 100 pixels high. However, the present invention is not limited to this, and search areas of other sizes and shapes can be employed. Specifically, for a 1/4 resolution, the search area is 63 pixels wide by 45 pixels high.

ブロックマッチング技術の結果は、確率のマップであり、これは、左画像内において確定された画素位置125Eに対応する探索エリア内の各画素位置の確率を提供する。最も高い確率を有する右画像内の画素位置が、左画像125Eにおける画素位置に対応する右画像内の画素位置として選択される。図4に示されるように、右画像の画素位置は、画素位置119Bとして確定される。これは、ステップS2105において示されるように、左画像内において確定された全ての画素位置に対して繰り返される。   The result of the block matching technique is a probability map, which provides the probability of each pixel location in the search area corresponding to the pixel location 125E established in the left image. The pixel position in the right image having the highest probability is selected as the pixel position in the right image corresponding to the pixel position in the left image 125E. As shown in FIG. 4, the pixel position of the right image is determined as a pixel position 119B. This is repeated for all pixel positions determined in the left image, as shown in step S2105.

エラー結果の数を確実に減らすために、ステップS2105からの結果はフィルタリングにかけられる。第1のフィルタとして、右画像内の明確に対応する画素位置が確率1を有する場合、例えば、0.98(または確率98%)の一定の閾値未満の全ての結果が無視される。これによって、エラー結果の数が減る。これは例示の閾値であるため、他の好適な閾値が想定可能であり、本発明はこれに限定されない。   In order to reliably reduce the number of error results, the results from step S2105 are subjected to filtering. As a first filter, if a clearly corresponding pixel location in the right image has a probability of 1, for example, all results below a certain threshold of 0.98 (or probability of 98%) are ignored. This reduces the number of error results. Since this is an exemplary threshold, other suitable thresholds can be envisaged and the invention is not limited to this.

さらに、左画像内の画素位置がエッジ画素位置である場合、右画像内の対応する点もエッジ画素位置であるはずである。それゆえ、右画像も、水平エッジを検出するために、ゾーベルエッジ検出アルゴリズム等のエッジ検出アルゴリズムにかけられる。右画像内の対応する画素位置が3つの水平エッジのうちの1つのエッジ上に位置している場合、右画像内の画素位置が、左画像内において算出された画素位置に対応する確率が高くなる。なお、上記技術の一方または両方を用いてエラー結果が生じる可能性を低減することができる。実際には、両方の技術の組合せが用いられる。   Furthermore, if the pixel position in the left image is an edge pixel position, the corresponding point in the right image should also be an edge pixel position. Therefore, the right image is also subjected to an edge detection algorithm such as a Sobel edge detection algorithm in order to detect a horizontal edge. When the corresponding pixel position in the right image is located on one of the three horizontal edges, the probability that the pixel position in the right image corresponds to the pixel position calculated in the left image is high. Become. Note that it is possible to reduce the possibility of an error result using one or both of the above techniques. In practice, a combination of both techniques is used.

図2を参照すると、対応点算出器220からの出力は、左画像内の画素位置のリストおよび右画像内の対応する点のリストである。   Referring to FIG. 2, the output from the corresponding point calculator 220 is a list of pixel positions in the left image and a list of corresponding points in the right image.

対応点算出器220の精度を向上させるために、対応点が識別されたフル解像度(1920×1080)画像を用いてブロックマッチング技術を繰り返す。具体的には、左画像において16画素×16画素探索ウィンドウを、右画像において32画素×32画素探索ウィンドウを用いて、ブロックマッチング技術を繰り返す。各探索ウィンドウの中心は、対応点算出器220によって算出された点に位置決めされる。フル解像度ブロックマッチングの結果は、ずれ量計算機230に供給される。上述のように説明してきたが、第1の画像内の位置と、第2の画像内の対応する点とを算出する従来技術を同様に用いてもよい。しかし、SIFT(Scale-Invariant Feature Transform)等の従来技術より、上記方法の方が速く、演算にかかる費用が安く済むことに留意されたい。   In order to improve the accuracy of the corresponding point calculator 220, the block matching technique is repeated using a full resolution (1920 × 1080) image in which corresponding points are identified. Specifically, the block matching technique is repeated using a 16 pixel × 16 pixel search window in the left image and a 32 pixel × 32 pixel search window in the right image. The center of each search window is positioned at the point calculated by the corresponding point calculator 220. The result of full resolution block matching is supplied to the deviation calculator 230. As described above, a conventional technique for calculating a position in the first image and a corresponding point in the second image may be similarly used. However, it should be noted that the above method is faster and less expensive to calculate than conventional techniques such as SIFT (Scale-Invariant Feature Transform).

[ずれ量の計算]
対応特徴点を導出し、画像の光軸に関する位置に変換した後、下記のずれ量を導出する方法を用いてもよい。
[Calculation of deviation]
After deriving the corresponding feature point and converting it to a position related to the optical axis of the image, a method of deriving the following shift amount may be used.

図10を参照すると、垂直オフセット(vertical offset)が一定であると仮定すると、垂直オフセットは、スケールおよびロール回転に対して不変であることになり、以下の式が成り立つ。   Referring to FIG. 10, assuming that the vertical offset is constant, the vertical offset will be invariant to scale and roll rotation, and the following equation holds:

Figure 2011182397
式中、y2は点p2(光軸に関して)の垂直位置であり、x2およびy2はそれぞれ点p2の水平位置および垂直位置であり、θはロール角(回転ずれ量)であり、Sはスケールずれ量であり、そして、Tは、2枚の画像間の垂直ずれ量である。
Figure 2011182397
Where y2 r is the vertical position of point p2 r (with respect to the optical axis), x2 l and y2 l are the horizontal position and vertical position of point p2 l , respectively , and θ is the roll angle (rotational deviation) Yes, S is the amount of scale deviation, and T is the amount of vertical deviation between the two images.

さらに、ブロックマッチングを用いて、点p2およびp2間の垂直位置の差dを測定することが可能である。 Furthermore, it is possible to measure the vertical position difference d between the points p2 l and p2 r using block matching.

Figure 2011182397
したがって、[1]および[2]を用いると、以下の式が明らかになる。
Figure 2011182397
Therefore, when [1] and [2] are used, the following equation becomes clear.

Figure 2011182397
Figure 2011182397

3つの未知のパラメータ、T、Sおよびθ(またはT、aおよびb)が存在する場合、左画像において光軸に関して表される座標(x,y)を有するこれらの3点、p1、p2およびp3および右画像において対応する点を見出すことが可能であり、以下の式が示される。 If there are three unknown parameters, T, S, and θ (or T, a, and b), these three points, p1 l , p2, with coordinates (x, y) expressed with respect to the optical axis in the left image It is possible to find corresponding points in l and p3 l and the right image, and the following equation is shown:

Figure 2011182397
Figure 2011182397

[3]、[4]および[5]から、T、θおよびSが立証されることが明白である     From [3], [4] and [5] it is clear that T, θ and S are established.

4つ以上の特徴点が測定される場合、実施形態において、画像の降順に(すなわち、始めの画像から最後の画像へ)点をリスト化することが可能である。これらの対応の3点が選択される。選択される3点は、i番目、i番目+n/3およびi番目+2n/3の特徴点であり、式中、iは、特徴点選択(0〜n/3−1)の反復回数であり、nは測定された特徴点の数である。a、bおよびTの値は、反復される度に計算され、全ての反復が行われた後、値が順番に並べられる。a、bおよびTの中央値が、最良の推定値として選ばれ、これらの値は、T、Sおよびθを計算するのに用いられる。   If four or more feature points are measured, in an embodiment it is possible to list the points in descending order of the image (ie from the first image to the last image). These three corresponding points are selected. The three selected points are i-th, i-th + n / 3 and i-th + 2n / 3 feature points, where i is the number of iterations of feature point selection (0-n / 3-1) , N is the number of feature points measured. The values of a, b and T are calculated each time it is repeated, and after all iterations have been made, the values are ordered. The median of a, b and T is chosen as the best estimate and these values are used to calculate T, S and θ.

図13Aおよび13Bを参照すると、上述したθ、SおよびTをより正確に立証する方法が開示される。対応点の精度、θの精度を立証する際にエラーがあると、スケールおよびTは誤ったものになる。それゆえ、対応点を確定する際に、不正確さ、したがって、計算したずれ量の不正確さを低減することが望まれる。計算したずれ量の精度を上げるためには、RANSAC(RANdom Sample Consensus)法を用いて、θ、SおよびTを計算するのに必要とされる3つの対応点を立証する。図13Aおよび13Bは、このような方法を説明するフローチャートを示す。   With reference to FIGS. 13A and 13B, a method for more accurately verifying θ, S and T described above is disclosed. If there is an error in verifying the accuracy of the corresponding point, the accuracy of θ, the scale and T will be incorrect. Therefore, it is desirable to reduce inaccuracies and thus inaccuracies in the calculated deviations in determining corresponding points. In order to increase the accuracy of the calculated deviation amount, three corresponding points required for calculating θ, S, and T are verified using a RANSAC (RANdom Sample Consensus) method. 13A and 13B show a flowchart illustrating such a method.

当該方法を、ステップS1305において開始する。ステップ1310において、RANSAC技術の反復回数を計算する。必要とされる反復回数は、必要とされる結果の精度と、対応点の精度とに依存する。通常、任意の一対応点が正確である確率は、SIFT、SURFまたはブロックマッチング等の高性能対応アルゴリズムの場合、約80%である(または対応点が不正確である確率は20%)。   The method starts in step S1305. In step 1310, the number of RANSAC technique iterations is calculated. The number of iterations required depends on the accuracy of the required results and the accuracy of the corresponding points. In general, the probability that an arbitrary corresponding point is accurate is about 80% for a high-performance corresponding algorithm such as SIFT, SURF or block matching (or the probability that the corresponding point is inaccurate is 20%).

必要とされる反復回数nを計算するために、RANSAC技術後の対応点が正確である確率を算出する。実施形態において、θ、SおよびTの値が正確である可能性は99.9999%である。それゆえ、以下の式が成り立つ。   In order to calculate the required number of iterations n, the probability that the corresponding point after the RANSAC technique is correct is calculated. In an embodiment, the probability that the values of θ, S, and T are accurate is 99.9999%. Therefore, the following equation holds.

Figure 2011182397
式中、target_incorrect_est_probは、θ、SおよびTの値が正確である確率であり、incorrect_est_probは、対応点が不正確である確率である。
Figure 2011182397
In the equation, target_incorrect_est_prob is the probability that the values of θ, S, and T are correct, and incorrect_est_prob is the probability that the corresponding point is incorrect.

値nを算出した後、左画像内の3つの対応点をランダムに選択する。さらに、右画像の対応する点も立証する(S1315)。選択されたこれらの点を用いて、上記式においてθ、スケールおよびTを計算する(S1320)。ランダムに選択された点を、ステップS1325において、コンセンサスセットに追加する。   After calculating the value n, three corresponding points in the left image are randomly selected. Further, the corresponding point of the right image is verified (S1315). Using these selected points, θ, scale, and T are calculated in the above equation (S1320). The randomly selected points are added to the consensus set in step S1325.

次いで、他の全ての対応点を個々にモデルに挿入して、右画像内の点の位置と、SおよびTの値を用いて計算した予測位置および測定位置間の距離とを計算する。これらの立証された値を、ランダムに選択された対応点によって算出された上記値と比較する(ステップS1335)。上記値の差異が閾値を下回る場合、対応点をコンセンサスセットに追加する(S1340)。上記差異が閾値を上回る場合、点はコンセンサスセットに追加しない(S1345)。   Then, all other corresponding points are individually inserted into the model to calculate the position of the point in the right image and the distance between the predicted position and the measured position calculated using the values of S and T. These proven values are compared with the values calculated by the randomly selected corresponding points (step S1335). If the difference between the values is below the threshold, a corresponding point is added to the consensus set (S1340). If the difference is above the threshold, no points are added to the consensus set (S1345).

全ての対応点をテストした後、コンセンサスセットに存在する点の数を計数する。点の数が閾値を上回る場合、すなわち、点対応アルゴリズムの精度以下である場合、中央値法(median of values method)をコンセンサスセット全体に用い、より良好なモデルS1355Aを生成する。当該モデルは、全ての対応点を用いて再びテストされる(S1360)。一方、コンセンサスセットにある点の数が閾値を下回る場合、別の3つのコンセンサス点をランダムに選択して処理を繰り返す(S1355)。   After testing all corresponding points, the number of points present in the consensus set is counted. If the number of points is above the threshold, i.e. below the accuracy of the point correspondence algorithm, the median of values method is used for the entire consensus set to generate a better model S1355A. The model is tested again using all corresponding points (S1360). On the other hand, when the number of points in the consensus set falls below the threshold, another three consensus points are selected at random and the process is repeated (S1355).

上述したように、コンセンサスセット内の全ての対応点を用いて、モデルを先行のモデルに対してテストする。テスト中のモデルと、先行のモデルとの間の差異がエラー閾値を下回る場合、テスト中のモデルを先行のものより良好なモデルであると判定する(S1365)。テスト中のモデルが先行のモデルよりも良好ではない場合、当該テスト中のモデルを無視する(S1370)。   As described above, the model is tested against the previous model using all corresponding points in the consensus set. If the difference between the model under test and the preceding model falls below the error threshold, it is determined that the model under test is a better model than the preceding model (S1365). If the model under test is not better than the preceding model, the model under test is ignored (S1370).

テスト中のモデルが先行のモデルよりも良好である場合、次の反復に用いるためにコンセンサスセット、モデル、およびエラー値を記憶する。エラー値を閾値エラーと比較し、エラーが閾値を下回る場合、RANSAC処理を停止する。代替的に、エラーが閾値を上回るが、RANSAC処理の反復回数がnを下回る場合、別の3つの対応点をランダムに選択する。しかし、エラーが閾値を上回り、かつ反復回数がnを上回る場合、RANSAC処理は終了する。なお、全体的な閾値停止技術(overall threshold abort technique)(ステップS1380)は、用いても用いなくてもよい。実施形態において、このステップは、含めなくてもよい。   If the model under test is better than the previous model, store the consensus set, model, and error value for use in the next iteration. The error value is compared with a threshold error, and if the error falls below the threshold, the RANSAC process is stopped. Alternatively, if the error is above the threshold but the number of RANSAC iterations is below n, another three corresponding points are randomly selected. However, if the error exceeds the threshold and the number of iterations exceeds n, the RANSAC process ends. Note that the overall threshold abort technique (step S1380) may or may not be used. In embodiments, this step may not be included.

RANSAC処理の終了により、出力されたθ、SおよびTの値が立証される。   Upon completion of the RANSAC process, the output values of θ, S, and T are verified.

図5は、対応する点が算出された後にずれ量を計算する別の方法を説明するフローチャートである。   FIG. 5 is a flowchart for explaining another method for calculating the shift amount after the corresponding points are calculated.

アルゴリズムの構造から分かるように、本実施形態のずれ量は反復して計算される。アルゴリズムの各反復中に、ずれ量は、一定値にまとまり始める。なお、アルゴリズムはリアルタイムで実行される。これは、映像の1フレームでは、アルゴリズムが、必要とされる定常状態に達しない可能性があることを意味する。この場合、アルゴリズムは複数の異なるフレームに対して実行される。これは、定常状態に達するまで必要とされる少数のフレームにわたってずれ量が変化する可能性が低いためである。なお、ずれ量アルゴリズムを映像の別のフレームに対して実行する必要がある場合、図3に記載した対応アルゴリズムを映像の新たなフレームに対して実行する必要がある。一方、映像の1フレーム中に定常状態に達する場合、図3の対応アルゴリズムは、一回だけ実行すればよい。   As can be seen from the structure of the algorithm, the deviation amount of this embodiment is calculated iteratively. During each iteration of the algorithm, the amount of deviation begins to settle to a constant value. The algorithm is executed in real time. This means that in one frame of video, the algorithm may not reach the required steady state. In this case, the algorithm is executed for a plurality of different frames. This is because the amount of shift is unlikely to change over the few frames required until a steady state is reached. When it is necessary to execute the shift amount algorithm for another frame of the video, it is necessary to execute the corresponding algorithm described in FIG. 3 for a new frame of the video. On the other hand, when the steady state is reached during one frame of the video, the corresponding algorithm in FIG. 3 only needs to be executed once.

定常状態に達した後、アルゴリズムを周期的に、例えば10秒に一回のペースで、または所定数のフレーム後に実行して、カメラがミスアライメント状態に確実にならないようにしてもよい。代替的に、カメラの焦点距離が変わった後に、または、任意の他の行為に応答して、アルゴリズムを実行してもよい。   After reaching steady state, the algorithm may be executed periodically, for example, once every 10 seconds, or after a predetermined number of frames to ensure that the camera is not misaligned. Alternatively, the algorithm may be executed after the camera focal length has changed or in response to any other action.

ステップ501において、ずれ量計算の1回目の反復の前に、ロール(回転)ずれ量を0度に設定する。回転ずれ量のこの値は、ずれ量計算アルゴリズムの1回目の反復中に更新される。回転ずれ量を、想定されるずれ量の他の任意の値ではなく、0度に設定する理由は、回転ずれ量が零に近いためである。これは、カメラ操作者による初期設定中に、ロール差が、画像に対する回転のミスマッチの影響によって小さい可能性が高いためである。それゆえ、回転ずれ量が0度であると初期に仮定すると、他のずれ量の精度が初期に高い値をとるため、全体のアルゴリズムがより迅速に好適な精度レベルに到達することになる。   In step 501, the roll (rotation) deviation amount is set to 0 degree before the first iteration of deviation amount calculation. This value of the rotational deviation is updated during the first iteration of the deviation calculation algorithm. The reason why the rotational deviation amount is set to 0 degrees instead of other arbitrary values of the assumed deviation amount is that the rotational deviation amount is close to zero. This is because, during the initial setting by the camera operator, the roll difference is likely to be small due to the effect of rotational mismatch on the image. Therefore, assuming that the rotational deviation amount is initially 0 degree, the accuracy of the other deviation amounts initially takes a high value, so that the entire algorithm reaches a suitable accuracy level more quickly.

ステップ502において、ロール値を用いて垂直ずれ(移動)量を計算する。これは、図6を参照して後述する。   In step 502, the amount of vertical deviation (movement) is calculated using the roll value. This will be described later with reference to FIG.

ステップ503において、計算された垂直ずれ量を用いてスケールずれ量を計算する。これは、図8を参照して後述する。   In step 503, the amount of scale deviation is calculated using the calculated amount of vertical deviation. This will be described later with reference to FIG.

ステップ504において、計算されたスケールずれ量を用いてロールずれ量を計算する。これは、図9を参照して後述する。   In step 504, the roll deviation amount is calculated using the calculated scale deviation amount. This will be described later with reference to FIG.

ずれ量を反復して計算する場合、ステップS505において、映像の1フレームのずれ量計算の反復回数を算出する。反復回数が閾値を下回る場合(例えば5)、初期値として先行の反復において計算した値を用いて、アルゴリズムを再実行する。   When the shift amount is calculated repeatedly, in step S505, the number of repetitions of the shift amount calculation for one frame of the video is calculated. If the number of iterations is below the threshold (eg 5), the algorithm is re-executed using the value calculated in the previous iteration as the initial value.

反復回数が閾値を上回る場合、アルゴリズムをチェックすることで、定常状態に達したかどうかを確認する(ステップS506)。反復間のずれ量が0.05%等の閾値だけしか変化しなかった場合に定常状態に達したと判断してもよい。ずれ量が定常状態である場合、ずれ量を出力して、再び必要になる時、例えば、カメラ設定が上述のように変更される場合までアルゴリズムは待機する。   If the number of iterations exceeds the threshold, the algorithm is checked to determine whether a steady state has been reached (step S506). It may be determined that a steady state has been reached when the amount of deviation between iterations has changed only by a threshold such as 0.05%. If the deviation amount is in a steady state, the algorithm waits until the deviation amount is output and needed again, for example, until the camera settings are changed as described above.

[垂直ずれ量計算(図5のステップS502)]
図6は、垂直ずれ量を算出するための原理を説明するフローチャートである。
[Vertical Deviation Calculation (Step S502 in FIG. 5)]
FIG. 6 is a flowchart for explaining the principle for calculating the vertical deviation amount.

光軸がスケールに関して不変のものである場合、カメラによって撮影された画像の光軸に関して垂直ずれ(移動)値を計算するのに有利である。これを行うために、対応点算出器220によって算出された画素位置を、光軸に関する画素位置に変換する必要がある。図7は、画素位置を光軸に関する画素位置に変換する方法を示す。なお、同図において寸法はフルHD信号に関しているが、実施形態において、解像度は、これよりも低くてもよい。従来の画像ラベリング手法では、高解像度画像に関して、左上画素位置を(0,0)とし、右下画素位置を(1920,1080)とする。それゆえ、係る従来システムにおいて、(上記のように光軸位置として想定される)画像の中心は、(960,540)の画素位置を有する(上記参照)。しかし、本発明の実施形態において、画像の中心は、(0,0)の画素位置を有する。(400,400)の従来の画素位置を光軸に関するものに変換するために、画素位置と、画像の中心との間の距離を算出する必要がある。図7から、従来の画素位置(400,400)が、光軸から左に560画素、上に200画素にあることは明らかである。それゆえ、従来の画素位置(400,400)は、光軸に関して画素位置(−560、200)にある。   If the optical axis is invariant with respect to scale, it is advantageous to calculate a vertical deviation (movement) value with respect to the optical axis of the image taken by the camera. In order to do this, it is necessary to convert the pixel position calculated by the corresponding point calculator 220 into a pixel position related to the optical axis. FIG. 7 shows a method for converting a pixel position into a pixel position with respect to the optical axis. In the figure, the dimensions relate to a full HD signal, but in the embodiment, the resolution may be lower than this. In the conventional image labeling method, the upper left pixel position is (0, 0) and the lower right pixel position is (1920, 1080) for a high-resolution image. Therefore, in such a conventional system, the center of the image (assumed as the optical axis position as described above) has a pixel position of (960, 540) (see above). However, in the embodiment of the present invention, the center of the image has (0,0) pixel positions. In order to convert the conventional pixel position of (400, 400) into that related to the optical axis, it is necessary to calculate the distance between the pixel position and the center of the image. From FIG. 7, it is clear that the conventional pixel position (400, 400) is at 560 pixels to the left and 200 pixels above from the optical axis. Therefore, the conventional pixel position (400, 400) is at the pixel position (−560, 200) with respect to the optical axis.

垂直ずれ量を算出するために、左画像からの2つの特徴点の位置を選択する。具体的には、特徴点の位置は、左画像において光軸の下方に位置するものを1つ、光軸の上方に位置するものを1つ選択する(S602)。実施形態において、これらの特徴点はランダムに選択されるが、本発明はこれに限定されない。また、右画像から対応する特徴点の位置を選択する(S603)。   In order to calculate the amount of vertical deviation, the positions of two feature points from the left image are selected. Specifically, as the position of the feature point, one that is located below the optical axis in the left image and one that is located above the optical axis are selected (S602). In the embodiment, these feature points are randomly selected, but the present invention is not limited to this. Further, the position of the corresponding feature point is selected from the right image (S603).

点を選択した後、これらを下記の式6に当てはめ、移動値を算出する(S604)。   After selecting the points, these are applied to the following equation 6 to calculate a movement value (S604).

Figure 2011182397
式中、Tは移動値であり、ylは第2の画像における特徴位置のy座標であり、y2は第1の画像におけるさらなる特徴位置のy座標であり、x1は、第1の画像における特徴位置に対応する第2の画像における特徴位置のx座標、y1は、第2の画像における対応する特徴位置のy座標であり、x2は、第2の画像における対応するさらなる特徴位置のx座標であり、かつy2は、第2の画像における対応するさらなる特徴位置のy座標である。
Figure 2011182397
Where T is the displacement value, yl r is the y coordinate of the feature position in the second image, y2 l is the y coordinate of the further feature position in the first image, and x1 r is the first coordinate The x coordinate of the feature position in the second image corresponding to the feature position in the image, y1 r is the y coordinate of the corresponding feature position in the second image, and x2 r is the corresponding further feature in the second image. The x coordinate of the position, and y2 r is the y coordinate of the corresponding further feature position in the second image.

この式の導出については、明細書の最後に記載する。   The derivation of this equation is described at the end of the specification.

なお、RおよびRの値におけるθの値の正負は、特徴点p1およびp2が位置する象限によって決まる。具体的には、特徴点(または特徴位置)が右下の象限または左上の象限にある場合、ロール値は−θとなる。他方、特徴点が左下の象限または右上の象限にある場合、ロール値は+θとなる。これは、ロールが光軸に関して測定されるためである。 Note that the value of θ in the values of R 1 and R 2 is determined by the quadrant in which the feature points p1 and p2 are located. Specifically, when the feature point (or feature position) is in the lower right quadrant or the upper left quadrant, the roll value is −θ. On the other hand, when the feature point is in the lower left quadrant or the upper right quadrant, the roll value is + θ. This is because the roll is measured with respect to the optical axis.

これらの点の移動を算出した後、計算された垂直ずれ量の数を1だけインクリメントする(ステップS605)。この数を閾値と比較する(ステップS606)。計算されたずれ量の数が閾値を下回る場合、別の2つの点を選択して、垂直ずれ量アルゴリズムを再実行する。実施形態において、閾値は20になっているが、任意の他の値も予期される。   After calculating the movement of these points, the calculated number of vertical deviations is incremented by 1 (step S605). This number is compared with a threshold value (step S606). If the calculated number of deviations is below the threshold, another two points are selected and the vertical deviation algorithm is re-executed. In an embodiment, the threshold is 20, but any other value is also expected.

計算されたずれ値の数が閾値を上回る場合、計算された値を昇順に並べる(ステップS607)。順序付けられたリストの中央値を選択し(ステップS608)、これを図5のステップS502用の計算されたずれ値であると見なす。このずれ値中央値を垂直ずれ量として出力し、スケールずれ量アルゴリズムに供給する(図5のステップS503)。なお、中央値は、導出された値から直接選択してもよい。換言すると、中央値を選択する前にずれ量を順番に並べる必要がなくてもよい。これは、他のずれ量計算にも適用される。   If the calculated number of deviation values exceeds the threshold value, the calculated values are arranged in ascending order (step S607). The median of the ordered list is selected (step S608), and this is considered to be the calculated deviation value for step S502 of FIG. The median deviation value is output as the vertical deviation amount and supplied to the scale deviation amount algorithm (step S503 in FIG. 5). The median value may be selected directly from the derived value. In other words, it is not necessary to arrange the shift amounts in order before selecting the median value. This also applies to other shift amount calculations.

[スケールずれ量計算(図5のステップS503)]
図8は、スケールずれ量を算出するための原理を説明するフローチャートである。
[Calculation of Scale Deviation (Step S503 in FIG. 5)]
FIG. 8 is a flowchart for explaining the principle for calculating the amount of scale deviation.

ステップ801において、対応点算出器220において算出された画素位置を、図7を参照して説明したように、光軸に関する画素位置に変換する。   In step 801, the pixel position calculated by the corresponding point calculator 220 is converted into a pixel position related to the optical axis as described with reference to FIG.

スケールずれ量を算出するために、左画像からの特徴位置を選択する(S802)。実施形態において、特徴点はランダムに選択されるが、本発明はこれに限定されない。また、右画像から対応する特徴位置を選択する(S803)。   In order to calculate the amount of scale deviation, a feature position from the left image is selected (S802). In the embodiment, the feature points are randomly selected, but the present invention is not limited to this. Also, a corresponding feature position is selected from the right image (S803).

点を選択した後、これを下記の式7に当てはめ、スケールの値を算出する(S804)。   After selecting a point, this is applied to the following equation 7 to calculate a scale value (S804).

Figure 2011182397
式中、移動ずれ量Tの正負は、点の位置によって決まり、yは、第1の画像における特徴位置のy座標であり、yは、第2の画像における特徴位置のy座標であり、xは、第2の画像における特徴位置のx座標である。Pが光軸の上方に位置する場合、値は+Tとなり、他方、点が光軸の下方に位置する場合、値は−Tとなる。また、θの正負は、後述するように点pが位置する象限によって決まる。
Figure 2011182397
Wherein the positive and negative movement shift amount T is determined by the position of the point, y l is the y-coordinate of feature position in the first image, y r is an y-coordinate of feature position in the second image , Xr are the x coordinates of the feature positions in the second image. If P is located above the optical axis, the value is + T, while if the point is located below the optical axis, the value is -T. Further, the sign of θ is determined by the quadrant where the point p is located, as will be described later.

この式の導出についても、明細書の最後に記載する。   The derivation of this equation is also described at the end of the specification.

スケールを算出した後、計算されたスケールずれ量の数を1だけインクリメントする(ステップS805)。この数を閾値と比較する(ステップS806)。計算されたずれ値の数が閾値を下回る場合、別の点を選択して、スケールずれ量アルゴリズムを再実行する。実施形態において、閾値は20になっているが、任意の他の値も予期される。   After calculating the scale, the calculated number of scale deviations is incremented by 1 (step S805). This number is compared with a threshold value (step S806). If the number of calculated deviation values falls below the threshold, another point is selected and the scale deviation amount algorithm is re-executed. In an embodiment, the threshold is 20, but any other value is also expected.

計算されたずれ値の数が閾値を上回る場合、計算された値を昇順に並べる(ステップS807)。順序付けられたリストの中央値を選択し(ステップS808)、これを図5のステップS503用の計算されたずれ値であると見なす。このずれ値中央値をスケールずれ量として出力し、回転ずれ量アルゴリズムに供給する(図5のステップS504)。   When the calculated number of deviation values exceeds the threshold value, the calculated values are arranged in ascending order (step S807). The median of the ordered list is selected (step S808), and this is considered to be the calculated deviation value for step S503 of FIG. This median deviation value is output as a scale deviation amount and supplied to the rotation deviation amount algorithm (step S504 in FIG. 5).

[回転ずれ量計算]
図9は、回転ずれ量を算出するための原理を説明する図である。
[Rotation deviation calculation]
FIG. 9 is a diagram illustrating the principle for calculating the rotational deviation amount.

ステップ901において、図7を参照して説明したように、対応点算出器220によって算出された画素位置を光軸に関する画素位置に変換する。   In step 901, as described with reference to FIG. 7, the pixel position calculated by the corresponding point calculator 220 is converted into a pixel position related to the optical axis.

回転ずれ量を算出するために、左画像からの2つの特徴位置を選択する。具体的には、特徴位置は、左画像において光軸の左側に位置するものを1つ、光軸の右側に位置するものを1つ選択する(S902)。実施形態において、これらの特徴点はランダムに選択されるが、本発明はこれに限定されない。また、右画像から対応する特徴位置を選択する(S903)。   In order to calculate the amount of rotational deviation, two feature positions from the left image are selected. Specifically, as the characteristic position, one that is located on the left side of the optical axis in the left image and one that is located on the right side of the optical axis are selected (S902). In the embodiment, these feature points are randomly selected, but the present invention is not limited to this. Also, a corresponding feature position is selected from the right image (S903).

点を選択した後、これらを下記の式8に当てはめ、移動値を算出する(S904)。   After selecting the points, these are applied to the following equation 8 to calculate the movement value (S904).

Figure 2011182397
式中、Sは第1の画像と第2の画像との間のスケールずれ量であり、y2は、第1の画像におけるさらなる特徴位置のy座標であり、y1は、第1の画像における特徴位置のy座標であり、y1は第2の画像における対応する特徴位置のy座標、x2は第2の画像における対応するさらなる特徴位置のx座標、かつx1は、第2の画像における対応する特徴位置のx座標である。
Figure 2011182397
Where S is the amount of scale shift between the first image and the second image, y2 l is the y coordinate of the further feature position in the first image, and y1 l is the first image Is the y coordinate of the feature position in, y1 r is the y coordinate of the corresponding feature position in the second image, x2 r is the x coordinate of the corresponding further feature position in the second image, and x1 r is the second coordinate It is the x coordinate of the corresponding feature position in the image.

この式の導出ついても、明細書の最後に記載する。   The derivation of this equation is also described at the end of the specification.

これらの点を算出した後、計算されたロールずれ値の数を1だけインクリメントする(ステップS905)。この数を閾値と比較する(ステップS906)。計算されたずれ値の数が閾値を下回る場合、別の2つの点を選択して、ロールずれ量アルゴリズムを再実行する。実施形態において、閾値は20になっているが、任意の他の値も予期される。   After calculating these points, the calculated number of roll deviation values is incremented by 1 (step S905). This number is compared with a threshold value (step S906). If the calculated number of deviation values is below the threshold, another two points are selected and the roll deviation amount algorithm is re-executed. In an embodiment, the threshold is 20, but any other value is also expected.

計算されたずれ値の数が閾値を上回る場合、計算された値を昇順に並べる(ステップS907)。順序付けられたリストの中央値を選択し(ステップS908)、これを図5のステップS504用の計算されたずれ値であると見なす。このずれ値中央値をロールずれ量として出力する。   When the calculated number of deviation values exceeds the threshold value, the calculated values are arranged in ascending order (step S907). The median of the ordered list is selected (step S908), and this is considered to be the calculated deviation value for step S504 of FIG. This median deviation value is output as a roll deviation amount.

ステップS505またはS506において、ずれ量計算アルゴリズムを再実行する場合、ステップS908において計算されたロール値を次の反復において用いる。しかし、ずれ量計算アルゴリズムを再実行しない場合、ステップS908において計算されたロールずれ量、ならびに、ステップS608からの垂直ずれ量、およびステップS808からのスケールずれ量をずれ量計算アルゴリズムの結果として出力する。   When the deviation amount calculation algorithm is re-executed in step S505 or S506, the roll value calculated in step S908 is used in the next iteration. However, when the deviation amount calculation algorithm is not re-executed, the roll deviation amount calculated in step S908, the vertical deviation amount from step S608, and the scale deviation amount from step S808 are output as the result of the deviation amount calculation algorithm. .

[他の実施形態]
以上、定常状態に言及した。しかし、これは本発明にとって必須ではない。アルゴリズムの一回のみの反復が、修正が行われるミスマッチレベルを示す。実際には、任意の回数の反復によってミスマッチ量が特定される。
[Other Embodiments]
Thus, the steady state has been mentioned. However, this is not essential for the present invention. A single iteration of the algorithm indicates the mismatch level at which the correction is made. Actually, the mismatch amount is specified by any number of iterations.

本発明の実施形態は、コンピュータにロードされると、コンピュータに、上述の方法の各ステップを実行させるコンピュータ可読指示(コンピュータプログラム)として提供してもよい。コンピュータ可読指示は、任意のコンピュータ可読言語で、または、実際には、適切なマイクロプロセッサによって理解され得る任意の言語で書き込むことができる。コンピュータプログラムは、磁気ディスク、または光ディスク、または任意の固体メモリ等の記録媒体に記憶されてもよい。さらに、コンピュータプログラムは、インターネット等のネットワーク上のキャリアとして存在してもよい。   Embodiments of the present invention may be provided as computer-readable instructions (computer programs) that, when loaded into a computer, cause the computer to perform the steps of the method described above. The computer readable instructions can be written in any computer readable language, or indeed any language that can be understood by a suitable microprocessor. The computer program may be stored in a recording medium such as a magnetic disk, an optical disk, or any solid-state memory. Further, the computer program may exist as a carrier on a network such as the Internet.

各個々のアルゴリズムにおける画像の光軸に関する画素の変換について説明したが、本発明はこれに限定されない。実際には、変換は、対応点計算と、ずれ量計算機230への特徴点の供給との間に行ってもよい。これによって、ずれ量計算機230における演算の負荷が減る。さらに、同じか他の実施形態において、各アルゴリズムにおいて用いられる選択された画素位置のみが光軸に関して変換される。換言すると、ずれ量の計算用に点が選択された後にだけ、これらは変換される。   Although pixel conversion related to the optical axis of the image in each individual algorithm has been described, the present invention is not limited to this. In practice, the conversion may be performed between the corresponding point calculation and the feature point supply to the deviation amount calculator 230. Thereby, the calculation load in the deviation amount calculator 230 is reduced. Furthermore, in the same or other embodiments, only selected pixel positions used in each algorithm are transformed with respect to the optical axis. In other words, they are converted only after points are selected for calculating the amount of deviation.

異なるずれ量が或る特定の順序で計算される場合について説明したが、本発明はこれに限定されない。ずれ量は、あらゆる順序で計算することができる。   Although the case where different deviation amounts are calculated in a specific order has been described, the present invention is not limited to this. The amount of deviation can be calculated in any order.

高解像度画像からずれ量を取得する場合について説明したが、本発明はこれに限定されない。例えば、ずれ量を標準画質画像から、または高解像度画像のスケール縮小版から取得することが可能である。例えば、ずれ量を4:1スケール縮小から取得することができる。この場合、縮小画像内では1つの画素が高解像度画像において4つの画素から成る。この状況では、縮小画像の実際の画素値は、高解像度画像における4つのあり得る画素から選択することができる。係る選択は、ランダムに行ってもよい。   Although the case of acquiring the shift amount from the high-resolution image has been described, the present invention is not limited to this. For example, the amount of deviation can be obtained from a standard quality image or from a scaled down version of a high resolution image. For example, the shift amount can be acquired from 4: 1 scale reduction. In this case, one pixel in the reduced image is composed of four pixels in the high resolution image. In this situation, the actual pixel value of the reduced image can be selected from four possible pixels in the high resolution image. Such selection may be performed at random.

さらに、ずれ量の1つまたは複数の値によって、エラーが整数の画素値のものではないことを示す場合、ずれ量値の上下の、最も近傍の整数画素値をユーザに表示して、ユーザが用いたい画素を選択可能とするようにしてもよい。または、最も近傍の整数に四捨五入される最も近傍の画素値を選択させてもよい。   Further, if one or more values of the deviation amount indicate that the error is not of an integer pixel value, the nearest integer pixel value above and below the deviation amount value is displayed to the user, and the user You may make it selectable the pixel to use. Alternatively, the nearest pixel value rounded to the nearest integer may be selected.

添付の図面を参照して本発明の例示的な実施形態を説明してきたが、本発明は厳格な上記実施形態に限定されず、添付の特許請求の範囲に規定される発明の範囲および精神から逸脱しない範囲で、当業者は種々の変更および変形形態をなすことができることを理解されたい。   While exemplary embodiments of the invention have been described with reference to the accompanying drawings, the invention is not limited to the precise embodiments described above, but from the scope and spirit of the invention as defined by the appended claims. It should be understood that various changes and modifications can be made by those skilled in the art without departing from the scope.

[移動量の導出]
図10を参照すると、座標の組(x1、y1)によって表されるp1と、座標の組(x2、y2)によって表されるp2という2つの点を仮定すると、点y1およびy2の回転、移動、スケーリングに関してy1およびy2の位置を表すことができる。
y1が光軸の上方に位置すると仮定すると、以下のように記述される。
[Derivation of travel distance]
Referring to FIG. 10, assuming two points, p1 represented by a set of coordinates (x1, y1) and p2 represented by a set of coordinates (x2, y2), the rotation of points y1 r and y2 r The position of y1 l and y2 l with respect to movement, scaling can be represented.
Assuming that y1 l is located above the optical axis, it is described as follows.

Figure 2011182397
y2が光軸の上方に位置すると仮定すると、以下のように記述される。
Figure 2011182397
Assuming that y2 l is located above the optical axis, it is described as follows.

Figure 2011182397
式中、Sは、スケールを表す定数であり、Tは、垂直移動を表す定数である。
[15]から、光軸の上方に位置する点p1に関して、
Figure 2011182397
In the formula, S is a constant representing a scale, and T is a constant representing a vertical movement.
From [15], for the point p1 located above the optical axis,

Figure 2011182397
[16]から、光軸の下方に位置する点p2に関して、
Figure 2011182397
From [16], regarding point p2 located below the optical axis,

Figure 2011182397
[17]および[18]においてSは等価であるため、以下のようにTが導き出される。
Figure 2011182397
Since S is equivalent in [17] and [18], T is derived as follows.

Figure 2011182397
Figure 2011182397

[スケール量の導出]
上記式[17]および[18]から、スケールSは以下のように計算されることが分かる。
[Derivation of scale amount]
From the above equations [17] and [18], it can be seen that the scale S is calculated as follows.

Figure 2011182397
これを以下のように一般化することができる。
Figure 2011182397
This can be generalized as follows.

Figure 2011182397
式中、移動量Tの正負は、点の位置によって決まり、pが光軸の上方に位置している場合、値+Tとなり、点が光軸の下方に位置している場合、値は−Tとなる。また、θ正負は、点pがいずれの象限に位置しているかによって決まる。
Figure 2011182397
In the equation, whether the moving amount T is positive or negative is determined by the position of the point. When p is located above the optical axis, the value is + T. When the point is located below the optical axis, the value is −T. It becomes. Further, θ positive / negative is determined by which quadrant the point p is located.

[回転量の導出]
回転計算に用いる点の選択を示す図11と、垂直位置に基づく角度測定を示す図12とを参照すると、光軸(p1)の左側から1つ、光軸(p2)の右側から1つ、ランダム主要特徴位置が選択される。
点p1およびp2の相対的な回転を測定するために、p1とp2との間の勾配を算出して、当該勾配をp1とp2との間の勾配と比較する、換言すると、左画像内の二点間の勾配と、右画像の対応の点間の勾配とを比較する必要がある。なお、回転計算は移動に対して不変であるが、スケールに対しては可変である。それゆえ、スケール(S)は、計算において説明される。
p1とp2との間の勾配は、以下のように計算される。
[Derivation of rotation amount]
Referring to FIG. 11 showing selection of points used for rotation calculation and FIG. 12 showing angle measurement based on vertical position, one from the left side of the optical axis (p1), one from the right side of the optical axis (p2), Random main feature positions are selected.
In order to measure the relative rotation of the points p1 and p2, the gradient between p1 l and p2 l is calculated and compared with the gradient between p1 r and p2 r , in other words, It is necessary to compare the gradient between two points in the left image with the gradient between corresponding points in the right image. Note that the rotation calculation is invariant to movement, but is variable to scale. The scale (S) is therefore accounted for in the calculation.
The slope between p1 r and p2 r is calculated as follows:

Figure 2011182397
垂直視差がなく、スケール(S)による影響しかないと仮定すると、すなわち、
Figure 2011182397
Assuming there is no vertical parallax and only an influence by the scale (S):

Figure 2011182397
とすると、垂直視差がない勾配は以下のようになる。
Figure 2011182397
Then, the gradient without vertical parallax is as follows.

Figure 2011182397
[19]は、以下のように表される。
Figure 2011182397
[19] is expressed as follows.

Figure 2011182397
[20] は、以下のように表される。
Figure 2011182397
[20] is expressed as follows.

Figure 2011182397
次いで、ロール量の実際の角度を以下のように計算することができる。
Figure 2011182397
The actual angle of roll amount can then be calculated as follows.

Figure 2011182397
三角恒等式を仮定すると以下のようになる。
Figure 2011182397
Assuming the triangular identity,

Figure 2011182397
ロール量を以下の式に表すことができる。
Figure 2011182397
The roll amount can be expressed by the following formula.

Figure 2011182397
Figure 2011182397

Claims (32)

立体的に視認可能な第1の画像と第2の画像との間のずれ量を算出するずれ量算出方法であって、
前記第1の画像内の特徴点の位置と、前記第2の画像内の対応する特徴点の位置とを特定し、
前記第1の画像および前記第2の画像内において、前記第1の画像および前記第2の画像のそれぞれを撮影するカメラの光軸を確定し、
所定のモデルを用いて、前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置との間のずれ量を演算し、
ランダムサンプルコンセンサス技術を用いて、前記演算されたずれ量の妥当性を試験し、
前記ずれ量は、前記第1の画像および前記第2の画像のそれぞれの前記確定された光軸に関する、前記第1の画像の前記特徴点の位置と、前記第2の画像の前記対応する特徴点の位置とに応じて算出され、
前記試験されたずれ量は、前記ランダムサンプルコンセンサス技術が所定の条件を達成したときに妥当とされる
ずれ量算出方法。
A shift amount calculation method for calculating a shift amount between a first image and a second image that are stereoscopically visible,
Identifying the position of the feature point in the first image and the position of the corresponding feature point in the second image;
In the first image and the second image, determine an optical axis of a camera that captures each of the first image and the second image;
Using a predetermined model, calculating a deviation amount between the position of the feature point in the first image and the position of the corresponding feature point in the second image;
Using random sample consensus technology, test the validity of the calculated deviation amount,
The amount of deviation is the position of the feature point of the first image and the corresponding feature of the second image with respect to the determined optical axis of each of the first image and the second image. Calculated according to the position of the point,
The tested deviation amount is valid when the random sample consensus technique achieves a predetermined condition.
請求項1に記載のずれ量算出方法であって、
前記ずれ量は、当該ずれ量が正確である確率が閾値を上回るときに妥当とされる
ずれ量算出方法。
The shift amount calculation method according to claim 1,
The deviation amount calculation method is valid when a probability that the deviation amount is accurate exceeds a threshold value.
請求項1に記載のずれ量算出方法であって、
前記所定の条件は、前記ランダムサンプルコンセンサス技術が所定回数反復されることである
ずれ量算出方法。
The shift amount calculation method according to claim 1,
The predetermined condition is that the random sample consensus technique is repeated a predetermined number of times.
請求項3に記載のずれ量算出方法であって、
前記反復の回数は、下記の式に基づいて算出され、
Figure 2011182397
式中、target_incorrect_est_probは、前記モデルが不正確である確率であり、incorrect_est_probは、前記対応する特徴点が不正確である確率である。
ずれ量算出方法。
The shift amount calculation method according to claim 3,
The number of iterations is calculated based on the following formula:
Figure 2011182397
Where target_incorrect_est_prob is the probability that the model is incorrect and incorrect_est_prob is the probability that the corresponding feature point is incorrect.
Deviation amount calculation method.
請求項1に記載のずれ量算出方法であって、
前記モデルは、下記の式によって定義され、
Figure 2011182397
式中、yは、前記第2の画像内の前記特徴点の垂直位置、xLおよびyLはそれぞれ、前記第1の画像内の前記特徴点の水平位置および垂直位置であり、θは回転ずれ量であり、Sはスケールずれ量であり、かつ、Tは、前記第1の画像と前記第2の画像との間の垂直ずれ量である
ずれ量算出方法。
The shift amount calculation method according to claim 1,
The model is defined by the following equation:
Figure 2011182397
Where y is the vertical position of the feature point in the second image, xL and yL are the horizontal position and vertical position of the feature point in the first image, respectively, and θ is the amount of rotational deviation. S is a scale shift amount, and T is a vertical shift amount between the first image and the second image.
請求項1に記載のずれ量算出方法であって、さらに、
ブロックマッチング技術を用いて、元の第1の画像および元の第2の画像の各縮小版から特徴点を取得するステップを含む
ずれ量算出方法。
The shift amount calculation method according to claim 1, further comprising:
A deviation amount calculation method including a step of acquiring feature points from each reduced version of the original first image and the original second image using a block matching technique.
請求項6に記載のずれ量算出方法であって、さらに、
前記元の第1の画像および前記元の第2の画像の前記各縮小版から取得された前記特徴点を、前記元の第1の画像および前記元の第2の画像におけるブロックマッチング技術の開始点として用い、前記元の第1の画像および前記元の第2の画像から第1の特徴点および第2の特徴点を取得するステップを含む
ずれ量算出方法。
The deviation amount calculation method according to claim 6, further comprising:
The feature points obtained from the respective reduced versions of the original first image and the original second image are used to start block matching technology in the original first image and the original second image. A deviation amount calculation method including a step of obtaining a first feature point and a second feature point from the original first image and the original second image, which are used as points.
請求項1に記載のずれ量算出方法であって、さらに、
前記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、前記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するステップを含み、
前記第1の画像において2つの特徴点の位置を選択し、前記第2の画像において対応する2つの特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与の回転ずれ量に基づいて、前記第1の画像と前記第2の画像との間の垂直ずれ量を算出する
ずれ量算出方法。
The shift amount calculation method according to claim 1, further comprising:
Locating at least one further feature point in the first image and locating at least one corresponding further feature point in the second image,
The position of two feature points in the first image is selected, the position of two corresponding feature points in the second image is selected, and the location between the first image and the second image is selected. A deviation amount calculation method for calculating a vertical deviation amount between the first image and the second image based on a given rotation deviation amount.
請求項8に記載のずれ量算出方法であって、
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の上方に位置し、かつ
前記第1の画像内の前記さらなる特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の下方に位置する
ずれ量算出方法。
The shift amount calculation method according to claim 8,
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located above the determined optical axis, and in the first image A method of calculating a deviation amount, wherein the position of the further feature point of the second position and the position of the corresponding feature point in the second image are located below the determined optical axis.
請求項1に記載のずれ量算出方法であって、
前記第1の画像内において特徴点の位置を選択し、前記第2の画像内において対応する特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与の垂直ずれ量に基づいて、前記第1の画像と前記第2の画像との間のスケールずれ量を算出する
ずれ量算出方法。
The shift amount calculation method according to claim 1,
Selecting a position of a feature point in the first image, selecting a position of a corresponding feature point in the second image, and giving a given position between the first image and the second image A deviation amount calculation method for calculating a scale deviation amount between the first image and the second image based on a vertical deviation amount.
請求項10に記載のずれ量算出方法であって、
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の上方に位置するか、または
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の下方に位置する
ずれ量算出方法。
The shift amount calculation method according to claim 10,
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located above the determined optical axis, or the first image A deviation amount calculation method in which a position of the feature point in the image and a position of the corresponding feature point in the second image are positioned below the determined optical axis.
請求項1に記載のずれ量算出方法であって、さらに、
前記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、前記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するステップを含み、
前記第1の画像内において2つの特徴点の位置を選択し、前記第2の画像内において対応する2つの特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与のスケールずれ量に基づいて、前記第1の画像と前記第2の画像との間の回転ずれ量を算出する
ずれ量算出方法。
The shift amount calculation method according to claim 1, further comprising:
Locating at least one further feature point in the first image and locating at least one corresponding further feature point in the second image,
Select the position of two feature points in the first image, select the position of two corresponding feature points in the second image, and place between the first image and the second image A shift amount calculation method for calculating a rotation shift amount between the first image and the second image based on the given scale shift amount.
請求項12に記載のずれ量算出方法であって、
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の左側に位置し、かつ
前記第1の画像内の前記さらなる特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の右側に位置する
ずれ量算出方法。
The shift amount calculation method according to claim 12,
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located on the left side of the determined optical axis, and in the first image The displacement amount calculation method in which the position of the further feature point and the position of the corresponding feature point in the second image are located on the right side of the determined optical axis.
請求項1に記載のずれ量算出方法であって、
前記特徴点の位置および前記さらなる特徴点の位置は、ランダムに生成される
ずれ量算出方法。
The shift amount calculation method according to claim 1,
The position of the feature point and the position of the further feature point are randomly generated.
請求項1に記載のずれ量算出方法であって、
前記特徴点の位置は、前記第1の画像および前記第2の画像内の画素位置である
ずれ量算出方法。
The shift amount calculation method according to claim 1,
The position of the feature point is a pixel position in the first image and the second image.
コンピュータに、請求項1に記載のずれ量算出方法の各ステップを実行させるプログラム。   The program which makes a computer perform each step of the deviation | shift amount calculation method of Claim 1. 請求項16に記載のプログラムが記録された記録媒体。   A recording medium on which the program according to claim 16 is recorded. 立体的に視聴可能な第1の画像と第2の画像との間のずれ量を算出するずれ量算出装置であって、
前記第1の画像内の特徴点の位置と、前記第2の画像内の対応する特徴点の位置とを特定する特定器と、
前記第1の画像および前記第2の画像内において、前記第1の画像および前記第2の画像のそれぞれを撮影するカメラの光軸を確定する確定器と、
所定のモデルを用いて、前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置との間のずれ量を演算する演算器と、
ランダムサンプルコンセンサス技術を用いて、前記演算されたずれ量の妥当性を試験する試験器とを具備し、
前記ずれ量は、前記第1の画像および前記第2の画像のそれぞれの前記確定された光軸に関する、前記第1の画像の前記特徴点の位置と、前記第2の画像の前記対応する特徴点の位置とに応じて算出され、
前記試験されたずれ量は、前記ランダムサンプルコンセンサス技術が所定の条件を達成したときに妥当とされる
ずれ量算出装置。
A shift amount calculation device that calculates a shift amount between a first image and a second image that can be viewed stereoscopically,
A specifier that identifies the position of the feature point in the first image and the position of the corresponding feature point in the second image;
A determinator that determines an optical axis of a camera that captures each of the first image and the second image in the first image and the second image;
An arithmetic unit that calculates a shift amount between the position of the feature point in the first image and the position of the corresponding feature point in the second image using a predetermined model;
Using a random sample consensus technique, and testing the validity of the calculated deviation amount,
The amount of deviation is the position of the feature point of the first image and the corresponding feature of the second image with respect to the determined optical axis of each of the first image and the second image. Calculated according to the position of the point,
The tested deviation amount is valid when the random sample consensus technique achieves a predetermined condition.
請求項18に記載のずれ量算出装置であって、
前記ずれ量は、当該ずれ量が正確である確率が閾値を上回るときに妥当とされる
ずれ量算出装置。
The deviation amount calculation apparatus according to claim 18, wherein
The deviation amount calculation device is valid when the probability that the deviation amount is accurate exceeds a threshold value.
請求項18に記載のずれ量算出装置であって、
前記所定の条件は、前記ランダムサンプルコンセンサス技術が所定回数反復されることである
ずれ量算出装置。
The deviation amount calculation apparatus according to claim 18, wherein
The predetermined condition is that the random sample consensus technique is repeated a predetermined number of times.
請求項20に記載のずれ量算出装置であって、
前記反復の回数は、下記の式に基づいて算出され、
Figure 2011182397
式中、target_incorrect_est_probは、前記モデルが不正確である確率であり、incorrect_est_probは、前記対応する特徴点が不正確である確率である
ずれ量算出装置。
The deviation amount calculation device according to claim 20, wherein
The number of iterations is calculated based on the following formula:
Figure 2011182397
In the equation, target_incorrect_est_prob is a probability that the model is incorrect, and incorrect_est_prob is a probability that the corresponding feature point is incorrect.
請求項18に記載のずれ量算出装置であって、
前記モデルは、下記の式によって定義され、
Figure 2011182397
式中、yは、前記第2の画像内の前記特徴点の垂直位置、xLおよびyLはそれぞれ、前記第1の画像内の前記特徴点の水平位置および垂直位置であり、θは回転ずれ量であり、Sはスケールずれ量であり、かつ、Tは、前記第1の画像と前記第2の画像との間の垂直ずれ量である
ずれ量算出装置。
The deviation amount calculation apparatus according to claim 18, wherein
The model is defined by the following equation:
Figure 2011182397
Where y is the vertical position of the feature point in the second image, xL and yL are the horizontal position and vertical position of the feature point in the first image, respectively, and θ is the amount of rotational deviation. S is a scale shift amount, and T is a vertical shift amount between the first image and the second image.
請求項18に記載のずれ量算出装置であって、さらに、
ブロックマッチング技術を用いて、元の第1の画像および元の第2の画像の各縮小版から特徴点を取得する取得器を具備する
ずれ量算出装置。
The deviation amount calculation device according to claim 18, further comprising:
A deviation amount calculation device comprising an acquisition unit that acquires a feature point from each reduced version of an original first image and an original second image using block matching technology.
請求項23に記載のずれ量算出装置であって、
前記取得器はさらに、前記元の第1の画像および前記元の第2の画像の前記各縮小版から取得された前記特徴点を、前記元の第1の画像および前記元の第2の画像におけるブロックマッチング技術の開始点として用い、前記元の第1の画像および前記元の第2の画像から第1の特徴点および第2の特徴点を取得するように動作可能である
ずれ量算出装置。
The deviation amount calculation device according to claim 23, wherein
The acquirer further determines the feature points acquired from the respective reduced versions of the original first image and the original second image as the original first image and the original second image. Used as a starting point of the block matching technique in the above, and is operable to acquire the first feature point and the second feature point from the original first image and the original second image .
請求項18に記載のずれ量算出装置であって、
前記特定器はさらに、前記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、前記第2の画像内において少なくとも1つの対応するさらなる特徴点の位置を特定するように動作可能であり、
前記第1の画像において2つの特徴点の位置を選択し、前記第2の画像において対応する2つの特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与の回転ずれ量に基づいて、前記第1の画像と前記第2の画像との間の垂直ずれ量を算出する
ずれ量算出装置。
The deviation amount calculation apparatus according to claim 18, wherein
The identifier is further operable to locate a location of at least one additional feature point in the first image and to locate a location of at least one corresponding further feature point in the second image. Yes,
The position of two feature points in the first image is selected, the position of two corresponding feature points in the second image is selected, and the location between the first image and the second image is selected. A deviation amount calculation device that calculates a vertical deviation amount between the first image and the second image based on a given rotation deviation amount.
請求項25に記載のずれ量算出装置であって、
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の上方に位置し、かつ
前記第1の画像内の前記さらなる特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の下方に位置する
ずれ量算出装置。
The shift amount calculation apparatus according to claim 25, wherein
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located above the determined optical axis, and in the first image The deviation amount calculation device in which the position of the further feature point and the position of the corresponding feature point in the second image are located below the determined optical axis.
請求項18に記載のずれ量算出装置であって、
前記第1の画像内において特徴点の位置を、前記第2の画像内において対応する特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与の垂直ずれ量に基づいて、前記第1の画像と前記第2の画像との間のスケールずれ量を算出する
ずれ量算出装置。
The deviation amount calculation apparatus according to claim 18, wherein
Selecting a feature point position in the first image and a corresponding feature point position in the second image, and a given vertical shift between the first image and the second image; A deviation amount calculation device that calculates an amount of scale deviation between the first image and the second image based on an amount.
請求項27に記載のずれ量算出装置であって、
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の上方に位置するか、または
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の下方に位置する
ずれ量算出装置。
The deviation amount calculation device according to claim 27, wherein
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located above the determined optical axis, or the first image A deviation amount calculation device in which the position of the feature point in the image and the position of the corresponding feature point in the second image are located below the determined optical axis.
請求項18に記載のずれ量算出装置であって、
前記特定器はさらに、前記第1の画像内において少なくとも1つのさらなる特徴点の位置を特定し、前記第2の画像内において少なくとも1つの対応するさらなる特徴位置を特定するように動作可能であり、
前記第1の画像内において2つの特徴点の位置を選択し、前記第2の画像内において対応する2つの特徴点の位置を選択し、前記第1の画像と前記第2の画像との間の所与のスケールずれ量に基づいて、前記第1の画像と前記第2の画像との間の回転ずれ量を算出する
ずれ量算出装置。
The deviation amount calculation apparatus according to claim 18, wherein
The identifier is further operable to identify a location of at least one additional feature point in the first image and to identify at least one corresponding further feature location in the second image;
Select the position of two feature points in the first image, select the position of two corresponding feature points in the second image, and place between the first image and the second image A shift amount calculation device that calculates a rotational shift amount between the first image and the second image based on the given scale shift amount.
請求項29に記載のずれ量算出装置であって、
前記第1の画像内の前記特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の左側に位置し、かつ
前記第1の画像内の前記さらなる特徴点の位置と、前記第2の画像内の前記対応する特徴点の位置とが、前記確定された光軸の右側に位置する
ずれ量算出装置。
The deviation amount calculation device according to claim 29, wherein
The position of the feature point in the first image and the position of the corresponding feature point in the second image are located on the left side of the determined optical axis, and in the first image The deviation amount calculation device in which the position of the further feature point and the position of the corresponding feature point in the second image are located on the right side of the determined optical axis.
請求項18に記載のずれ量算出装置であって、
前記特徴点の位置および前記さらなる特徴点の位置は、ランダムに生成される
ずれ量算出装置。
The deviation amount calculation apparatus according to claim 18, wherein
The position of the feature point and the position of the further feature point are randomly generated.
請求項18に記載のずれ量算出装置であって、
前記特徴点の位置は、前記第1の画像および前記第2の画像内の画素位置である
ずれ量算出装置。
The deviation amount calculation apparatus according to claim 18, wherein
The position of the feature point is a pixel position in the first image and the second image.
JP2011040833A 2010-02-26 2011-02-25 Method and apparatus for calculating shift length Withdrawn JP2011182397A (en)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
GB1003289.4 2010-02-26
GB1003289A GB2478156A (en) 2010-02-26 2010-02-26 Method and apparatus for generating a disparity map for stereoscopic images
GB1003291A GB2478157A (en) 2010-02-26 2010-02-26 Method and apparatus for cutting between a first and second image sequence in a stereoscopic video
GB1003291.0 2010-02-26
GB1005989A GB2478164A (en) 2010-02-26 2010-04-09 Calculating misalignment between a stereoscopic image pair based on feature positions
GB1005989.7 2010-04-09
GB1014339.4 2010-08-27
GB1014339A GB2478169A (en) 2010-02-26 2010-08-27 Validating the calculated misalignment between a stereoscopic image pair using a RANSAC method

Publications (1)

Publication Number Publication Date
JP2011182397A true JP2011182397A (en) 2011-09-15

Family

ID=42236113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011040833A Withdrawn JP2011182397A (en) 2010-02-26 2011-02-25 Method and apparatus for calculating shift length

Country Status (4)

Country Link
US (2) US8538198B2 (en)
JP (1) JP2011182397A (en)
CN (1) CN102169577A (en)
GB (2) GB2478164A (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2478164A (en) * 2010-02-26 2011-08-31 Sony Corp Calculating misalignment between a stereoscopic image pair based on feature positions
JP5792662B2 (en) * 2011-03-23 2015-10-14 シャープ株式会社 Parallax calculation device, distance calculation device, and parallax calculation method
GB2489931A (en) * 2011-04-08 2012-10-17 Sony Corp Analysis of 3D video to detect frame violation within cropped images
US20130016186A1 (en) * 2011-07-13 2013-01-17 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
US9129378B2 (en) * 2011-09-07 2015-09-08 Thomson Licensing Method and apparatus for recovering a component of a distortion field and for determining a disparity field
KR101883376B1 (en) * 2011-11-22 2018-07-31 엘지전자 주식회사 Mobile terminal and control method thereof
GB2500712A (en) 2012-03-30 2013-10-02 Sony Corp An Apparatus and Method for transmitting a disparity map
TWI595428B (en) * 2012-05-29 2017-08-11 財團法人工業技術研究院 Method of feature point matching
CN103700080B (en) * 2013-12-06 2016-08-03 北京工业大学 Image mismatch based on Skinner probabilistic automaton is to minimizing technology
WO2015143037A1 (en) * 2014-03-21 2015-09-24 Omron Corporation Method and apparatus for detecting and mitigating optical impairments in an optical system
US10796425B1 (en) * 2016-09-06 2020-10-06 Amazon Technologies, Inc. Imagery-based member deformation gauge
CN108109173B (en) * 2016-11-25 2022-06-28 宁波舜宇光电信息有限公司 Visual positioning method, camera system and automation equipment

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5864359A (en) * 1995-05-30 1999-01-26 Smith & Nephew, Inc. Stereoscopic autofocusing based on comparing the left and right eye images
US6191809B1 (en) * 1998-01-15 2001-02-20 Vista Medical Technologies, Inc. Method and apparatus for aligning stereo images
JP4172554B2 (en) * 1998-03-12 2008-10-29 富士重工業株式会社 Stereo camera adjustment device
JP4149037B2 (en) * 1998-06-04 2008-09-10 オリンパス株式会社 Video system
US6674892B1 (en) * 1999-11-01 2004-01-06 Canon Kabushiki Kaisha Correcting an epipolar axis for skew and offset
US6504611B2 (en) * 2000-05-17 2003-01-07 Coretek, Inc. Two stage optical alignment device and method of aligning optical components
GB2372659A (en) * 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
JP5036132B2 (en) * 2002-11-21 2012-09-26 ビジョン サード イメージング,インコーポレイテッド Critical alignment of parallax images for autostereoscopic display
US7308157B2 (en) * 2003-02-03 2007-12-11 Photon Dynamics, Inc. Method and apparatus for optical inspection of a display
JP4611755B2 (en) * 2005-01-13 2011-01-12 株式会社日立ハイテクノロジーズ Scanning electron microscope and imaging method thereof
KR101142785B1 (en) 2005-06-28 2012-05-08 엘지디스플레이 주식회사 Liquid crystal display device including thin film transistor
JP4595733B2 (en) * 2005-08-02 2010-12-08 カシオ計算機株式会社 Image processing device
KR100793076B1 (en) 2005-12-08 2008-01-10 한국전자통신연구원 Edge-adaptive stereo/multi-view image matching apparatus and its method
US20070165942A1 (en) * 2006-01-18 2007-07-19 Eastman Kodak Company Method for rectifying stereoscopic display systems
KR100762670B1 (en) 2006-06-07 2007-10-01 삼성전자주식회사 Method and device for generating disparity map from stereo image and stereo matching method and device therefor
EP1865728B1 (en) 2006-06-08 2020-02-26 Canon Kabushiki Kaisha Optical system for image projection and image projection apparatus
KR100899422B1 (en) * 2007-08-06 2009-05-27 삼성모바일디스플레이주식회사 The stereo matching system and the stereo matching method of the same
JP4946730B2 (en) * 2007-08-27 2012-06-06 ソニー株式会社 Face image processing apparatus, face image processing method, and computer program
US20090128621A1 (en) * 2007-11-21 2009-05-21 Charles Gregory Passmore System and/or method for automated stereoscopic alignment of images
JP5240453B2 (en) * 2008-02-14 2013-07-17 株式会社リコー Image processing method, image processing apparatus, and image pickup apparatus
JP4695664B2 (en) 2008-03-26 2011-06-08 富士フイルム株式会社 3D image processing apparatus, method, and program
CN101276474B (en) * 2008-04-14 2010-09-01 中山大学 Linear constrained image distortion method based on local coordinates
US8213706B2 (en) * 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
US8554014B2 (en) * 2008-08-28 2013-10-08 Csr Technology Inc. Robust fast panorama stitching in mobile phones or cameras
GB2478164A (en) * 2010-02-26 2011-08-31 Sony Corp Calculating misalignment between a stereoscopic image pair based on feature positions

Also Published As

Publication number Publication date
CN102169577A (en) 2011-08-31
GB2478164A (en) 2011-08-31
GB201014339D0 (en) 2010-10-13
GB2478169A (en) 2011-08-31
GB201005989D0 (en) 2010-05-26
US20110211751A1 (en) 2011-09-01
US20110211750A1 (en) 2011-09-01
US8538198B2 (en) 2013-09-17
US8494307B2 (en) 2013-07-23

Similar Documents

Publication Publication Date Title
JP2011182397A (en) Method and apparatus for calculating shift length
Liu et al. Concrete crack assessment using digital image processing and 3D scene reconstruction
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
US11928805B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
WO2014002849A1 (en) Three-dimensional measurement method, apparatus, and system, and image processing device
US20150262346A1 (en) Image processing apparatus, image processing method, and image processing program
TW201118791A (en) System and method for obtaining camera parameters from a plurality of images, and computer program products thereof
JP6170281B2 (en) Three-dimensional measuring device, control method for three-dimensional measuring device, and program
CN111457886A (en) Distance determination method, device and system
US11393116B2 (en) Information processing apparatus, method thereof, and non-transitory computer-readable storage medium
CN109902695B (en) Line feature correction and purification method for image pair linear feature matching
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program
JP6579816B2 (en) Image processing apparatus, image processing method, and program
EP3997664A1 (en) Lens calibration method for digital imaging apparatus
US20230260159A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2010182330A (en) Method for processing color image and image processor
CN112734721B (en) Optical axis deflection angle detection method, device, equipment and medium
Su et al. An automatic calibration system for binocular stereo imaging
JP2019022147A (en) Light source direction estimation device
CN109215068B (en) Image magnification measuring method and device
JP6564679B2 (en) Image processing apparatus, same part detection method by image matching, and image processing program
JP2008287338A (en) Image processor
JP5039083B2 (en) Image creation method, calculation device, image creation program, and storage medium
CN112424566B (en) Distance measuring camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513