JP6276713B2 - Image data processing method, image data processing apparatus, and image data processing program - Google Patents
Image data processing method, image data processing apparatus, and image data processing program Download PDFInfo
- Publication number
- JP6276713B2 JP6276713B2 JP2015005186A JP2015005186A JP6276713B2 JP 6276713 B2 JP6276713 B2 JP 6276713B2 JP 2015005186 A JP2015005186 A JP 2015005186A JP 2015005186 A JP2015005186 A JP 2015005186A JP 6276713 B2 JP6276713 B2 JP 6276713B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- data processing
- reference point
- image data
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、カメラと被写体の位置姿勢関係を推定する(外部キャリブレーションを実行する)画像データ処理方法、画像データ処理装置および画像データ処理プログラムに関する。 The present invention relates to an image data processing method, an image data processing apparatus, and an image data processing program that estimate the position and orientation relationship between a camera and a subject (execute external calibration).
カメラと被写体の位置姿勢関係を推定する外部キャリブレーションはコンピュータビジョンの基礎となる問題であり、これまで数多くの研究がなされてきた(例えば、非特許文献1参照)。これら既存の外部キャリブレーションに関する手法の多くは、カメラが参照物体を直接観測できることを想定している。 External calibration for estimating the position and orientation relationship between a camera and a subject is a problem that is the basis of computer vision, and many studies have been made so far (for example, see Non-Patent Document 1). Many of these existing external calibration methods assume that the camera can directly observe the reference object.
近年ラップトップコンピュータ、スマートフォンやデジタルサイネージなどの普及に伴い、ディスプレイ−カメラシステムを用いた様々な研究が注目を集めている。その一つの例として、デジタルサイネージを用いた興味推定がある。これは、ユーザの視線方向とディスプレイでの提示内容との対応を取ることで実現されている。さらには、3次元形状復元への応用も研究されている。これは、ディスプレイを制御可能な面光源として利用し、提示内容の変化に伴う観測対象の輝度変化に基づくものである。 In recent years, with the spread of laptop computers, smartphones, digital signage, and the like, various studies using display-camera systems have attracted attention. One example is interest estimation using digital signage. This is realized by taking a correspondence between the user's line-of-sight direction and the content presented on the display. Furthermore, application to three-dimensional shape restoration is also being studied. This is based on a change in luminance of an observation target accompanying a change in the presentation contents, using the display as a controllable surface light source.
これらのように、ディスプレイの提示内容に対し、カメラで撮影した映像から推定した視線や観測対象の輝度変化を幾何的に対応付けるためには、ディスプレイとカメラの位置姿勢関係を求める外部キャリブレーションを行う必要がある。通常、ディスプレイにチェスパターンなどを提示し、それをカメラで撮影して外部キャリブレーションを行う。 In this way, external calibration is performed to determine the positional orientation between the display and the camera in order to geometrically associate the gaze estimated from the video captured by the camera and the luminance change of the observation target with the display content. There is a need. Usually, a chess pattern or the like is presented on the display, and this is photographed with a camera to perform external calibration.
しかしながら、ラップトップコンピュータやスマートフォンなどのディスプレイ−カメラシステムでは、一般にカメラの視野内に参照物体であるディスプレイが存在せず、従来の外部キャリブレーション手法の適用が困難である。 However, in a display-camera system such as a laptop computer or a smartphone, there is generally no display as a reference object in the field of view of the camera, and it is difficult to apply a conventional external calibration method.
このような参照物体がカメラの視野内に存在しない状況において、鏡を用いることで外部キャリブレーションを行う手法が提案されている。以下の説明では参照物体上には参照点が存在し、その参照点を用いて外部キャリブレーションを行うものとする。外部キャリブレーションでは、実施の手間や計算量の観点から、より簡易な構成を目指した研究が取り組まれている。Takahashiら(例えば、非特許文献2参照)およびHeschら(例えば、非特許文献3参照)らは平面鏡を用いた最小構成である、3点の参照点に対して平面鏡を3姿勢用いる手法を提案した。 There has been proposed a method of performing external calibration by using a mirror in a situation where such a reference object does not exist in the field of view of the camera. In the following description, a reference point exists on the reference object, and external calibration is performed using the reference point. In external calibration, research aimed at a simpler configuration is underway from the viewpoint of labor and calculation amount. Takahashi et al. (For example, see Non-Patent Document 2) and Hesch et al. (For example, Non-Patent Document 3) and others propose a method of using three orientations of a plane mirror with respect to three reference points, which is the minimum configuration using a plane mirror. did.
一方、鏡の姿勢の数の削減という観点から、Agrawal(例えば、非特許文献4参照)は8点の参照点に対して1姿勢の球面鏡を用いる手法を提案した。さらに、Nitschkeらは追加のデバイスを無くす試みとして、眼球の鏡面反射を利用した(例えば、非特許文献5参照)。これは3点の参照点に対して球面鏡とみなした両眼、つまり2姿勢の球面鏡を利用するものである。 On the other hand, from the viewpoint of reducing the number of mirror postures, Agrawal (for example, see Non-Patent Document 4) has proposed a method of using a spherical mirror with one posture for eight reference points. Furthermore, Nitschke et al. Used specular reflection of the eyeball as an attempt to eliminate an additional device (see Non-Patent Document 5, for example). This uses binoculars regarded as spherical mirrors with respect to three reference points, that is, spherical mirrors with two postures.
しかしながら、非特許文献2、非特許文献3及び非特許文献4ではキャリブレーション実行の度に鏡を用意しなければならないという手間が発生する。また、眼球を用いる非特許文献5では、眼球という極小の領域に映った参照物体からキャリブレーションを行うため、精度の観点からカメラと眼球の距離を近づけて撮影することが望ましい。しかしながら、非特許文献5では両眼を用いていることから、両眼が同時に撮影できる距離まで両眼をカメラから離す必要がある。
However, in
本発明は、このような事情に鑑みてなされたもので、簡単な構成でカメラと被写体である物体の位置姿勢関係を推定する外部キャリブレーションを実施することができる画像データ処理方法、画像データ処理装置および画像データ処理プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an image data processing method and image data processing capable of performing external calibration for estimating the position and orientation relationship between a camera and an object as a subject with a simple configuration. An object is to provide an apparatus and an image data processing program.
本発明は、カメラによって撮像した画像と、前記カメラの内部パラメータと、角膜を球の一部として見なした角膜球の半径と、前記画像における所定の参照点の座標値と、前記参照点のモデル座標系を使用して、前記カメラとその視野外に存在する参照物体との位置姿勢関係を推定する外部キャリブレーションを行う画像データ処理方法であって、前記角膜球の中心座標を推定する角膜球座標推定ステップと、カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定ステップと、前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定ステップとを有することを特徴とする。 The present invention provides an image captured by a camera, an internal parameter of the camera, a radius of a corneal sphere in which the cornea is regarded as a part of a sphere, a coordinate value of a predetermined reference point in the image, and the reference point An image data processing method for performing external calibration for estimating a position and orientation relationship between the camera and a reference object existing outside the field of view using a model coordinate system, wherein the cornea estimates center coordinates of the corneal sphere A spherical coordinate estimation step, a reference point 3D coordinate estimation step for estimating a three-dimensional coordinate value of the reference point in the camera coordinate system, and an external parameter estimation step for estimating an external parameter between the camera and the reference object. It is characterized by.
本発明は、前記角膜球座標推定ステップでは、前記画像に対して前記角膜球の投影像の楕円パラメータを推定することにより前記角膜球の中心座標を推定することを特徴とする。 The present invention is characterized in that, in the corneal sphere coordinate estimation step, center coordinates of the corneal sphere are estimated by estimating an elliptic parameter of a projection image of the corneal sphere with respect to the image.
本発明は、前記参照点3D座標推定ステップでは、前記角膜球と前記参照物体と前記カメラ座標系の位置関係が所定の条件を満たすものとして前記3次元座標値を推定することを特徴とする。 The present invention is characterized in that, in the reference point 3D coordinate estimation step, the three-dimensional coordinate value is estimated on the assumption that a positional relationship between the corneal sphere, the reference object, and the camera coordinate system satisfies a predetermined condition.
本発明は、カメラによって撮像した画像と、前記カメラの内部パラメータと、角膜を球の一部として見なした角膜球の半径と、前記画像における所定の参照点の座標値と、前記参照点のモデル座標系を使用して、前記カメラとその視野外に存在する参照物体との位置姿勢関係を推定する外部キャリブレーションを行う画像データ処理装置であって、前記角膜球の中心座標を推定する角膜球座標推定部と、カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定部と、前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定部とを備えることを特徴とする。 The present invention provides an image captured by a camera, an internal parameter of the camera, a radius of a corneal sphere in which the cornea is regarded as a part of a sphere, a coordinate value of a predetermined reference point in the image, and the reference point An image data processing apparatus that performs external calibration using a model coordinate system to estimate a position and orientation relationship between the camera and a reference object that is outside the field of view, the cornea that estimates the center coordinates of the corneal sphere A spherical coordinate estimation unit; a reference point 3D coordinate estimation unit that estimates a three-dimensional coordinate value of the reference point in a camera coordinate system; and an external parameter estimation unit that estimates an external parameter between the camera and the reference object. It is characterized by.
本発明は、コンピュータに、前記画像データ処理方法を実行させるための画像データ処理プログラムである。 The present invention is an image data processing program for causing a computer to execute the image data processing method.
本発明によれば、簡単な構成でカメラとその視野外に存在する被写体である物体間の外部キャリブレーションを実施することができるという効果が得られる。 According to the present invention, it is possible to perform an external calibration between a camera and an object that is a subject existing outside the field of view with a simple configuration.
以下、図面を参照して、本発明の一実施形態による画像データ処理装置を説明する。初めに、本発明が想定する環境を図1に示す。図1は、本実施形態が想定する環境のモデルを示す図である。本発明では1台のカメラ、1つの参照物体、1つの眼球(角膜球)を用いる。参照物体上には参照点が存在する。参照物体はカメラの視野内に存在せず、角膜球の一次反射によりカメラから観測するものとする。なお、本発明において、角膜球は次の条件を満たす位置に設置されていることとする。 Hereinafter, an image data processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. First, an environment assumed by the present invention is shown in FIG. FIG. 1 is a diagram illustrating an environment model assumed in the present embodiment. In the present invention, one camera, one reference object, and one eyeball (corneal ball) are used. There is a reference point on the reference object. The reference object does not exist in the field of view of the camera, and is observed from the camera by the primary reflection of the corneal sphere. In the present invention, the corneal sphere is installed at a position that satisfies the following conditions.
角膜球の条件とは、角膜球中心とカメラ中心間距離が、角膜球中心と各参照点間の距離と等しいことである。角膜球中心とは図1の眼球(角膜球:角膜の表面を球の一部とする球のこと)の中心Sであり、カメラ中心とは撮影に用いているカメラの光学中心Oである。なお、多少の精度の誤差を許容するのであれば、厳密に(条件)を満たしている必要はない。この条件は、スマートフォンやディスプレイの上部にウェブカメラを設置した場合のようにディスプレイとカメラが同一平面上に存在している場合には容易に満たすことができる。具体的には、図1に示すように各参照点とカメラ中心がある円周上に存在するように参照点を表示し、かつその円の中心を垂直に貫く直線l上に眼球中心を設置すればよい。 The condition of the corneal sphere is that the distance between the corneal sphere center and the camera center is equal to the distance between the corneal sphere center and each reference point. The corneal sphere center is the center S of the eyeball of FIG. 1 (cornea sphere: a sphere whose surface is the corneal surface), and the camera center is the optical center O of the camera used for photographing. Note that it is not necessary to strictly satisfy (condition) if an error of some accuracy is allowed. This condition can be easily satisfied when the display and the camera are on the same plane, such as when a web camera is installed on the top of a smartphone or display. Specifically, as shown in FIG. 1, the reference points are displayed so that each reference point and the camera center exist on a certain circle, and the eyeball center is set on a straight line l that vertically passes through the circle center. do it.
また、本実施形態では図1に示すように、3つの座標系(カメラ座標系{C}、カメラで撮像した画像の画像座標系{I}、モデル座標系{X})を用いる。本実施形態の目的は画像座標系{I}における参照点の投影像の座標値から、カメラ座標系{C}とモデル座標系{X}間の外部パラメータRとTを求めることである。パラメータRとは、異なる座標系の姿勢変化を表す回転行列であり、パラメータTとは異なる座標系の位置変化を表す並進ベクトルである。なお、以下では「座標{a}」は座標系{a}における座標値を表すこととする。 In the present embodiment, as shown in FIG. 1, three coordinate systems (camera coordinate system {C}, image coordinate system {I} of an image captured by the camera, and model coordinate system {X}) are used. The purpose of this embodiment is to obtain external parameters R and T between the camera coordinate system {C} and the model coordinate system {X} from the coordinate values of the projected image of the reference point in the image coordinate system {I}. The parameter R is a rotation matrix that represents an attitude change in a different coordinate system, and the parameter R is a translation vector that represents a position change in a different coordinate system. In the following, “coordinate {a}” represents a coordinate value in the coordinate system {a}.
次に、画像データ処理装置の構成を説明する。図2は、コンピュータ装置等で構成する画像データ処理装置の詳細な構成を示すブロック図である。画像データ処理装置1は、入力部2、角膜球中心座標推定部3、参照点3D座標推定部4、外部パラメータ推定部5を備えている。
Next, the configuration of the image data processing apparatus will be described. FIG. 2 is a block diagram showing a detailed configuration of an image data processing apparatus constituted by a computer apparatus or the like. The image data processing apparatus 1 includes an
入力部2は、画像、内部パラメータ、角膜球半径、参照点2D座標{I}、モデル座標系{X}を外部から入力する。これを受けて、入力部2は処理対象となる画像、カメラの内部パラメータ、角膜球半径、参照点2D座標およびモデル座標を入力して、画像、内部パラメータ、角膜球半径、参照点2D座標{I}、モデル座標{X}を出力する。
The
角膜球座標推定部3は、画像、内部パラメータ、角膜球半径を入力する。これを受けて、角膜球座標推定部3は、角膜球の投影された画像、カメラの内部パラメータ、角膜球半径を用いて角膜球中心座標を推定する。そして、角膜球座標推定部3は、角膜球中心座標{C}を出力する。
The corneal sphere coordinate
参照点3D座標推定部4は、角膜球中心座標{C}、参照点2D座標{I}、内部パラメータを入力する。これを受けて、参照点3D座標推定部4は、参照点2D座標{I}と角膜球中心座標{C}を用いて参照点3D座標を推定する。そして、参照点3D座標推定部4は、参照点3D座標{C}を出力する。 The reference point 3D coordinate estimation unit 4 inputs corneal sphere center coordinates {C}, reference point 2D coordinates {I}, and internal parameters. In response to this, the reference point 3D coordinate estimation unit 4 estimates the reference point 3D coordinates using the reference point 2D coordinates {I} and the corneal sphere center coordinates {C}. Then, the reference point 3D coordinate estimation unit 4 outputs the reference point 3D coordinate {C}.
外部パラメータ推定部5は、モデル座標{X}、参照点3D座標{C}を入力する。これを受けて、外部パラメータ推定部5は、モデル座標と参照点3D座標を用いて外部パラメータを推定する。そして、外部パラメータ(R,T)を出力する。 The external parameter estimation unit 5 inputs model coordinates {X} and reference point 3D coordinates {C}. In response to this, the external parameter estimation unit 5 estimates the external parameter using the model coordinates and the reference point 3D coordinates. Then, external parameters (R, T) are output.
次に、図3を参照して、図2に示す画像データ処理装置1の処理動作を説明する。図3は、図2に示す画像データ処理装置の処理動作を示すフローチャートである。まず、入力部2は、処理対象となる画像、カメラの内部パラメータ、角膜球半径、参照点2D座標およびモデル座標を入力する(ステップS101)。
Next, the processing operation of the image data processing apparatus 1 shown in FIG. 2 will be described with reference to FIG. FIG. 3 is a flowchart showing the processing operation of the image data processing apparatus shown in FIG. First, the
なお、処理対象となる画像には、角膜球による参照点の一次反射像が含まれていることとする。カメラの内部パラメータとはカメラの焦点距離および画像中心を表すパラメータであり、非特許文献1などに記載の公知の技術を用いて事前に推定しているものとする。角膜球半径に関しては、人間の角膜球半径の平均値を用いればよい。 It is assumed that the image to be processed includes a primary reflection image of a reference point by a corneal sphere. The internal parameters of the camera are parameters representing the focal length and the image center of the camera, and are estimated in advance using a known technique described in Non-Patent Document 1 or the like. Regarding the corneal sphere radius, an average value of the human corneal sphere radius may be used.
参照点2D座標は、角膜球によって反射された参照点の像が画像平面上に投影された時の座標である。この点は目視で検出してもよい。あるいは、事前に参照点を表示していない状況を撮影しておき、その後参照点を時間差で表示して、背景差分法を用いて自動的に検出するようにしてもよい。また、モデル座標とはモデル座標系における参照点の3次元座標を表し、これは事前に定めておくこととする。 The reference point 2D coordinate is a coordinate when the image of the reference point reflected by the corneal sphere is projected on the image plane. This point may be detected visually. Alternatively, a situation in which the reference point is not displayed in advance may be taken, and then the reference point may be displayed with a time difference and automatically detected using the background difference method. The model coordinates represent the three-dimensional coordinates of the reference point in the model coordinate system, which is determined in advance.
次に、角膜球座標推定部3は、入力された画像に対して角膜球の楕円パラメータを推定する(ステップS102)。楕円パラメータとは楕円(円も含む)の中心座標(x座標、y座標){I}、楕円の長軸、短軸、およびその傾きの5変数を指す。楕円パラメータの推定方法は直接手で計測をしてもよいし、自動推定してもよい。以下の説明では自動推定する場合について説明する。
Next, the corneal sphere coordinate
楕円パラメータを自動推定する方法はどのような方法でもよい。例えば、画像に対して二値化を行った後、エッジ検出を行い、検出したエッジに対して角膜の画像である楕円の楕円パラメータ推定を行う手法が適用できる。なお、このとき、二値化を行う手法はどのような手法でもよい。例えば、固定式位置処理や適応的閾値処理などの利用が可能である。また、エッジ検出を行う手法はどのような手法でもよい。例えば、Cannyフィルタの利用が可能である。さらに、検出されたエッジにおける楕円パラメータの推定を行う手法はどのような手法でもよい。例えば、参考文献1に記載の公知の手法の利用が可能である。
参考文献1:Andrew W. Fitzgibbon, R.B.Fisher. A Buyer’s Guide to Conic Fitting. Proc.5th British Machine Vision Conference, Birmingham, pp. 513-522, 1995.
Any method may be used for automatically estimating the ellipse parameter. For example, it is possible to apply a method of performing edge detection after binarizing an image and estimating an ellipse parameter of an ellipse that is an image of the cornea with respect to the detected edge. At this time, any method may be used for binarization. For example, it is possible to use fixed position processing or adaptive threshold processing. Further, any method for performing edge detection may be used. For example, a Canny filter can be used. Furthermore, any method may be used for estimating the ellipse parameter at the detected edge. For example, a known technique described in Reference 1 can be used.
Reference 1: Andrew W. Fitzgibbon, RBFisher. A Buyer's Guide to Conic Fitting. Proc. 5th British Machine Vision Conference, Birmingham, pp. 513-522, 1995.
次に、角膜球座標推定部3は、楕円パラメータから角膜球の中心座標を推定する(ステップS103)。図4は、角膜球の投影を表す図である。図4に示すように、楕円パラメータは楕円の長軸の長さ:rmax、短軸の長さ:rmin、楕円の傾きΦ、楕円の中心座標iL(x座標,y座標)の5変数である。また、τ=±arccos(rmin/rmax)とする。このとき、視線方向はg=[sinτsinφ −sinτcosφ cosτ]Tと表される。
Next, the corneal sphere coordinate
また、画像平面上のカメラ中心と角膜輪部の中心L間の距離をdとすると、dは焦点距離f(ピクセル値)を用いてd=f・rL/rmaxと表される。なお、rLは角膜輪部の半径を表し、人間のrLの平均は5.6mmとされている。さらに、カメラの内部パラメータを表す行列をKとすると、角膜輪部の中心LはL{C}=dK−1iL{I}と表される。角膜球中心Sは角膜輪部の中心Lから−g方向にdLS(=5.6mm)進んだ方向にあることから、S{C}=L{C}−dLS{C}gで計算ができる。 Further, when the distance between the camera center on the image plane and the center L of the corneal ring portion is d, d is expressed as d = f · r L / r max using the focal length f (pixel value). R L represents the radius of the corneal limbus, and the average of human r L is 5.6 mm. Furthermore, if the matrix representing the internal parameters of the camera is K, the center L of the corneal limbus is represented as L {C} = dK −1 i L {I}. Since the corneal sphere center S is in a direction d LS (= 5.6 mm) advanced in the −g direction from the center L of the corneal limbus, it is calculated by S {C} = L {C} −d LS {C} g. Can do.
次に、図1に示す3つの参照点pi(i=1,2,3)に対して処理を繰り返す(ステップS104)。参照点3D座標推定部4は、参照点piの3D座標を推定する(ステップS105)。参照点piの画像平面上への投影点をqiとする。ベクトルviをvi{C}=(K−1qi{I}/|K−1qi{I}とする。このとき、qiは参照点2D座標である。また、参照点piは角膜球上のmiにおいて反射するとした時、カメラ中心からmiまでの距離は以下の値で表される。
k0mi=(vi T{C}S{C)−√((vi T{C}S{C})2−|S{C}|2−r2)))/|vi{C}|2
Next, the process is repeated for the three reference points p i (i = 1, 2, 3) shown in FIG. 1 (step S104). The reference point 3D coordinate estimation unit 4 estimates the 3D coordinates of the reference point p i (step S105). Let q i be the projection point of the reference point p i on the image plane. The vector v i v i {C} = (K -1 q i {I} / |.. And K -1 q i {I} At this time, q i is the reference point 2D coordinates The reference point p i when was reflected at m i on the cornea sphere, the distance from the camera center to m i is represented by the following values.
k 0mi = (v i T {C} S {C) −√ ((v i T {C} S {C}) 2 − | S {C} | 2 −r 2 ))) / | v i {C } | 2
このとき、反射点miはmi{C}=k0miVi{C}で求められる。また、反射点miにおける法線niは球面鏡の中心と反射点を結ぶ単位ベクトルなので、ni{C}=(mi{C}−S{C})/|mi{C}−S{C}|となる。さらに、反射点miと参照点piを結ぶ単位ベクトルをuiは、反射の法則からui{C}=vi{C}+2(−vi T{C}・ni{C})ni{C}と表される。反射点miと参照点pi間の距離をkmipiとすると、(条件)を満たすときkmipi=k0miである。以上のことから、参照点piは以下の式で求められる。
pi{C}=kmipiui{C}+mi(C}
以上の処理を全ての参照点に対して行う(ステップS106)。
In this case, the reflection point m i is determined by m i {C} = k 0mi V i {C}. Further, since the normal n i at the reflection point m i is a unit vector connecting the reflection point with the center of the spherical mirror, n i {C} = ( m i {C} -S {C}) / | m i {C} - S {C} | Further, u i the unit vector connecting the reference point p i and the reflection points m i is the law of reflection u i {C} = v i {C} +2 (-v i T {C} · n i {C} ) N i {C}. When the distance between the reference point p i and the reflection points m i and k MIPI, a k mipi = k 0mi when satisfying (Condition). From the above, the reference point p i is obtained by the following equation.
p i {C} = k mipi u i {C} + m i (C}
The above processing is performed for all reference points (step S106).
次に、外部パラメータ推定部5は、得られた参照点piの3D座標を用いて外部パラメータ(R,T)を求める(ステップS107)。外部パラメータ(R,T)を求める手法はどのような手法でもよい。2つの異なる座標系間における点の対応を用いて座標系間の外部パラメータを求める問題はAbsolute Orientation Problemとして知られており、この問題を解くことで外部パラメータを求めることが可能である。本実施形態では、入力として与えられたモデル座標および(ステップS104)〜(ステップS106)で求めたカメラ座標系における参照点piの3D座標を用いることで、モデル座標系とカメラ座標系間の外部パラメータが求められる。Absolute Orientation Problemの解き方は参考文献2に記載されている公知の手法であるため、ここでは詳細な説明を省略する。
参考文献2:D. Eggert, A. Lorusso, and R. Fisher. Estimating 3-d rigid body transformations: a comparison of four major algorithms. Machine Vision and Applications, 9(5-6):272{290, 1997.
Next, the external parameter estimating unit 5 calculates the external parameter using the 3D coordinates of the obtained reference point p i (R, T) (step S107). Any method for obtaining the external parameters (R, T) may be used. The problem of obtaining an external parameter between coordinate systems using the correspondence of points between two different coordinate systems is known as the Absolute Orientation Problem, and it is possible to obtain an external parameter by solving this problem. In the present embodiment, the model coordinates and (step S104) given as input ~ By using the 3D coordinates of the reference point p i in the camera coordinate system obtained in (step S106), the model coordinate system and between the camera coordinate system External parameters are determined. Since the method of solving the Absolute Orientation Problem is a known method described in
Reference 2: D. Eggert, A. Lorusso, and R. Fisher. Estimating 3-d rigid body transformations: a comparison of four major algorithms. Machine Vision and Applications, 9 (5-6): 272 {290, 1997.
次に、外部パラメータ推定部5は、得られた外部パラメータ(R,T)を最適化する(ステップS108)。最適化のコスト関数としてはどのようなコスト関数を用いてもよい。例えば、一般的に外部パラメータを最適化する上で用いられている再投影誤差を最小化する項を用いてもよい。このとき、外部パラメータ(R,T)は、各種パラメータを用いて計算した投影点と実際に検出された投影点が一致するように最適化されるため、投影点に対してノイズの少ない理想的な環境下において高精度に最適化されることが期待できる。 Next, the external parameter estimation unit 5 optimizes the obtained external parameters (R, T) (step S108). Any cost function may be used as the cost function for optimization. For example, a term that minimizes a reprojection error that is generally used in optimizing external parameters may be used. At this time, the external parameters (R, T) are optimized so that the projection points calculated using the various parameters coincide with the actually detected projection points. It can be expected to be optimized with high accuracy in a rough environment.
あるいは、前述の条件を満たすように角膜球中心とカメラ中心の距離および角膜球中心と各参照点の距離が同じになるような項を用いてもよい。ノイズの存在する環境下では、推定された外部パラメータを用いて計算できる参照点の位置が、必ずしも(条件)を満たしているとは限らない。この最適化項はこれら物理的な制約条件を満たすように最適化するため、投影点にノイズの存在する環境下でも極端に精度の悪い局所解に最適化することなく、安定して高精度な最適化することが期待できる。また、これらの両方の項を用いてもよい。最適化の必要がなければ、最適化は必ずしも行わなくてもよい。 Alternatively, terms such that the distance between the corneal sphere center and the camera center and the distance between the corneal sphere center and each reference point may be the same so as to satisfy the above-described conditions. In an environment where noise exists, the position of the reference point that can be calculated using the estimated external parameter does not always satisfy (condition). Since this optimization term is optimized to satisfy these physical constraints, it is stable and highly accurate without optimizing for an extremely inaccurate local solution even in the presence of noise at the projection point. It can be expected to optimize. Both of these terms may be used. If there is no need for optimization, optimization does not necessarily have to be performed.
以上説明したように、カメラパラメータを推定する(外部キャリブレーション)際に、カメラと参照点が球面鏡の中心から同一距離に存在するという幾何制約および眼球の物理モデルの導入により、従来の方法に比して外部パラメータの算出に必要となる球面鏡の姿勢の数及び参照点の数を削減することができるため、参照点3点に対して1姿勢の眼球(角膜球)を用いるという簡易な構成において、得られた画像からカメラとその視野外に存在する物体間の外部キャリブレーションが実施できるが可能になる。 As described above, when camera parameters are estimated (external calibration), the introduction of a geometrical constraint that the camera and the reference point are at the same distance from the center of the spherical mirror and the physical model of the eyeball are compared with the conventional method. Since the number of spherical mirror postures and the number of reference points required for calculating external parameters can be reduced, a simple configuration in which one eyeball (corneal ball) is used for three reference points. From the obtained image, external calibration between the camera and an object existing outside the field of view can be performed.
前述した実施形態における画像データ処理装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。 The image data processing apparatus in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。 As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.
簡単な構成でカメラとその視野外に存在する物体間の外部キャリブレーションを実施することが不可欠な用途に適用できる。 It can be applied to applications where it is indispensable to perform external calibration between a camera and an object existing outside the field of view with a simple configuration.
1・・・画像データ処理装置、2・・・入力部、3・・・角膜球座標推定部、4・・・参照点3D座標推定部、5・・・外部パラメータ推定部 DESCRIPTION OF SYMBOLS 1 ... Image data processing apparatus, 2 ... Input part, 3 ... Corneal sphere coordinate estimation part, 4 ... Reference point 3D coordinate estimation part, 5 ... External parameter estimation part
Claims (5)
前記角膜球の中心座標を推定する角膜球座標推定ステップと、
カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定ステップと、
前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定ステップと
を有することを特徴とする画像データ処理方法。 An image captured by a camera, an internal parameter of the camera, a radius of a corneal sphere in which the cornea is regarded as a part of a sphere, a coordinate value of a predetermined reference point in the image, and a model coordinate system of the reference point Using an image data processing method for performing external calibration to estimate a position and orientation relationship between the camera and a reference object existing outside the field of view;
A corneal sphere coordinate estimation step for estimating a center coordinate of the corneal sphere;
A reference point 3D coordinate estimation step for estimating a three-dimensional coordinate value of the reference point in the camera coordinate system;
An external data estimation step for estimating an external parameter between the camera and the reference object.
前記角膜球の中心座標を推定する角膜球座標推定部と、
カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定部と、
前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定部と
を備えることを特徴とする画像データ処理装置。 An image captured by a camera, an internal parameter of the camera, a radius of a corneal sphere in which the cornea is regarded as a part of a sphere, a coordinate value of a predetermined reference point in the image, and a model coordinate system of the reference point An image data processing apparatus that performs external calibration to estimate a position and orientation relationship between the camera and a reference object existing outside the field of view,
A corneal sphere coordinate estimation unit for estimating the center coordinates of the corneal sphere,
A reference point 3D coordinate estimation unit for estimating a three-dimensional coordinate value of the reference point in the camera coordinate system;
An image data processing apparatus comprising: an external parameter estimation unit that estimates an external parameter between the camera and the reference object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015005186A JP6276713B2 (en) | 2015-01-14 | 2015-01-14 | Image data processing method, image data processing apparatus, and image data processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015005186A JP6276713B2 (en) | 2015-01-14 | 2015-01-14 | Image data processing method, image data processing apparatus, and image data processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016130693A JP2016130693A (en) | 2016-07-21 |
JP6276713B2 true JP6276713B2 (en) | 2018-02-07 |
Family
ID=56415283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015005186A Active JP6276713B2 (en) | 2015-01-14 | 2015-01-14 | Image data processing method, image data processing apparatus, and image data processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6276713B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107036557A (en) * | 2017-03-17 | 2017-08-11 | 北京航宇振控科技有限责任公司 | A kind of two-dimentional angle measuring system and method |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6302427B2 (en) * | 2015-04-02 | 2018-03-28 | 日本電信電話株式会社 | Image data processing method, image data processing apparatus, and image data processing program |
CN111256592B (en) * | 2020-03-13 | 2021-12-03 | 易思维(杭州)科技有限公司 | External parameter calibration device and method for structured light sensor |
JP7116770B2 (en) * | 2020-12-04 | 2022-08-10 | 日本化薬株式会社 | Analog meter pointer reading method and analog meter pointer reading system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007034628A (en) * | 2005-07-26 | 2007-02-08 | Canon Inc | Method and system for image processing |
JP5857805B2 (en) * | 2012-03-07 | 2016-02-10 | 株式会社Jvcケンウッド | Camera calibration device |
JP2014188322A (en) * | 2013-03-28 | 2014-10-06 | Panasonic Corp | Visual line detection device, visual line detection method and program |
-
2015
- 2015-01-14 JP JP2015005186A patent/JP6276713B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107036557A (en) * | 2017-03-17 | 2017-08-11 | 北京航宇振控科技有限责任公司 | A kind of two-dimentional angle measuring system and method |
CN107036557B (en) * | 2017-03-17 | 2019-04-26 | 北京航宇振控科技有限责任公司 | A kind of two dimension angle measuring system and method |
Also Published As
Publication number | Publication date |
---|---|
JP2016130693A (en) | 2016-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7136875B2 (en) | Eye Pose Identification Using Eye Features | |
US20210397816A1 (en) | System and method for detecting and removing occlusions in a three-dimensional image | |
US10282913B2 (en) | Markerless augmented reality (AR) system | |
CN107004275B (en) | Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object | |
Itoh et al. | Interaction-free calibration for optical see-through head-mounted displays based on 3d eye localization | |
US10535160B2 (en) | Markerless augmented reality (AR) system | |
JP6228320B2 (en) | Sensor-based camera motion detection for unconstrained SLAM | |
US11301677B2 (en) | Deep learning for three dimensional (3D) gaze prediction | |
JP6371849B2 (en) | Image alignment apparatus, image alignment method, and image alignment program | |
Draelos et al. | Intel realsense= real low cost gaze | |
WO2020237565A1 (en) | Target tracking method and device, movable platform and storage medium | |
JP5833507B2 (en) | Image processing device | |
JP6276713B2 (en) | Image data processing method, image data processing apparatus, and image data processing program | |
JP6515039B2 (en) | Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image | |
US20210256733A1 (en) | Resolving region-of-interest (roi) overlaps for distributed simultaneous localization and mapping (slam) in edge cloud architectures | |
US20220067967A1 (en) | Methods and Systems for Intra-Capture Camera Calibration | |
US20140168204A1 (en) | Model based video projection | |
WO2017187694A1 (en) | Region of interest image generating device | |
JP6885474B2 (en) | Image processing device, image processing method, and program | |
JP2017090420A (en) | Three-dimensional information restoration device and three-dimensional information restoration method | |
Nitschke et al. | I see what you see: point of gaze estimation from corneal images | |
JP6302427B2 (en) | Image data processing method, image data processing apparatus, and image data processing program | |
JP7498404B2 (en) | Apparatus, method and program for estimating three-dimensional posture of subject | |
US9830512B2 (en) | Method and apparatus for tracking gaze | |
US20230144111A1 (en) | A method for generating a 3d model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6276713 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |