JP2014071619A - Subject detection device, subject detection method, and program - Google Patents
Subject detection device, subject detection method, and program Download PDFInfo
- Publication number
- JP2014071619A JP2014071619A JP2012216635A JP2012216635A JP2014071619A JP 2014071619 A JP2014071619 A JP 2014071619A JP 2012216635 A JP2012216635 A JP 2012216635A JP 2012216635 A JP2012216635 A JP 2012216635A JP 2014071619 A JP2014071619 A JP 2014071619A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- unit
- candidate
- respect
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、被写体検出装置、被写体検出方法及びプログラムに関する。 The present invention relates to a subject detection device, a subject detection method, and a program.
従来、拡張現実(augmented reality:AR)技術として、撮像された画像におけるマーカー(実オブジェクト)の画像に対応付けて、仮想オブジェクト(例えば、三次元モデル等)を表示させる画像処理装置が知られている(例えば、特許文献1参照)。
この画像処理装置では、撮像されたフレーム画像の画像解析の結果に基づいて、フレーム画像におけるマーカーの画像の傾き(例えば、表示画面内における正視状態からの回転角度等)を検出して、当該マーカーの画像の傾きを初期値として記録しておく。また、画像処理装置は、逐次撮像されるフレーム画像におけるマーカーの傾きと初期値として記録されている傾きとの相対的な差分、具体的には、座標値の差分を算出する。そして、画像処理装置は、算出された座標値の差分から、所定のベクトルに沿うように仮想オブジェクトの画像を傾けて逐次表示させる処理を行う。
Conventionally, as an augmented reality (AR) technique, an image processing apparatus that displays a virtual object (for example, a three-dimensional model) in association with an image of a marker (real object) in a captured image is known. (For example, refer to Patent Document 1).
In this image processing apparatus, based on the result of image analysis of the captured frame image, the inclination of the image of the marker in the frame image (for example, the rotation angle from the normal viewing state in the display screen) is detected, and the marker Is recorded as an initial value. In addition, the image processing apparatus calculates a relative difference between the inclination of the marker in the sequentially captured frame image and the inclination recorded as the initial value, specifically, a difference in coordinate values. Then, the image processing apparatus performs a process of sequentially displaying the virtual object image tilted along a predetermined vector from the calculated coordinate value difference.
しかしながら、マーカーの撮像の際の環境や各種の条件等によっては、三次元空間内のマーカーの4隅の点の検出誤差が生じてしまい、撮像部に対するマーカーの姿勢の推定を適正に行うことができない虞がある。 However, depending on the environment and various conditions at the time of imaging of the marker, detection errors of the four corner points of the marker in the three-dimensional space occur, and it is possible to appropriately estimate the posture of the marker with respect to the imaging unit. There is a possibility that it cannot be done.
本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、撮像部に対する特定の被写体の姿勢の推定を適正に行うことができる被写体検出装置、被写体検出方法及びプログラムを提供することである。 The present invention has been made in view of such a problem, and an object of the present invention is to provide a subject detection apparatus, a subject detection method, and a program capable of appropriately estimating the posture of a specific subject with respect to an imaging unit. Is to provide.
上記課題を解決するため、本発明に係る被写体検出装置は、
撮像部により撮像された特定の被写体を含む画像を逐次取得する取得手段と、前記取得手段により取得された画像における前記特定の被写体の画像領域を構成する複数の点の座標を検出する検出手段と、前記検出手段により検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の姿勢候補を少なくとも一つ推定する候補推定手段と、前記候補推定手段により推定された前記姿勢候補のうちの何れか一を前記撮像部に対する前記特定の被写体の姿勢の最適解として特定する特定手段と、を備えたことを特徴としている。
In order to solve the above problems, a subject detection apparatus according to the present invention provides:
Acquisition means for sequentially acquiring an image including a specific subject imaged by the imaging unit; and detection means for detecting coordinates of a plurality of points constituting the image area of the specific subject in the image acquired by the acquisition means; , Candidate estimation means for estimating at least one attitude candidate of the specific subject with respect to the imaging unit based on the coordinates of the plurality of points detected by the detection means; and the attitude estimated by the candidate estimation means And a specifying unit that specifies any one of the candidates as an optimal solution of the posture of the specific subject with respect to the imaging unit.
また、本発明に係る被写体検出方法は、
被写体検出装置を用いた被写体検出方法であって、撮像部により撮像された特定の被写体を含む画像を逐次取得する処理と、取得された画像における前記特定の被写体の画像領域を構成する複数の点の座標を検出する処理と、検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の姿勢候補を少なくとも一つ推定する処理と、推定された前記姿勢候補のうちの何れか一を前記撮像部に対する前記特定の被写体の姿勢の最適解として特定する処理と、を含むことを特徴としている。
The subject detection method according to the present invention includes:
A method for detecting an object using an object detection device, comprising: sequentially acquiring an image including a specific object imaged by an imaging unit; and a plurality of points constituting an image area of the specific object in the acquired image A process of detecting the coordinates of the plurality of points, a process of estimating at least one attitude candidate of the specific subject with respect to the imaging unit based on the detected coordinates of the plurality of points, and among the estimated attitude candidates And a process of specifying any one as an optimal solution of the posture of the specific subject with respect to the imaging unit.
また、本発明に係るプログラムは、
被写体検出装置のコンピュータを、撮像部により撮像された特定の被写体を含む画像を逐次取得する取得手段、前記取得手段により取得された画像における前記特定の被写体の画像領域を構成する複数の点の座標を検出する検出手段、前記検出手段により検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の姿勢候補を少なくとも一つ推定する候補推定手段、前記候補推定手段により推定された前記姿勢候補のうちの何れか一を前記撮像部に対する前記特定の被写体の姿勢の最適解として特定する特定手段、として機能させることを特徴としている。
The program according to the present invention is
An acquisition unit that sequentially acquires an image including a specific subject imaged by the imaging unit, and coordinates of a plurality of points constituting an image area of the specific subject in the image acquired by the acquisition unit A detection means for detecting the position, a candidate estimation means for estimating at least one posture candidate of the specific subject relative to the imaging unit based on the coordinates of the plurality of points detected by the detection means, and the estimation by the candidate estimation means Any one of the posture candidates is made to function as a specifying unit that specifies an optimal solution of the posture of the specific subject with respect to the imaging unit.
本発明によれば、撮像部に対する特定の被写体の姿勢の推定を適正に行うことができる。 According to the present invention, it is possible to appropriately estimate the posture of a specific subject with respect to the imaging unit.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
[実施形態1]
図1は、本発明を適用した実施形態1の携帯端末100の概略構成を示すブロック図である。
図1に示すように、本実施形態の携帯端末100は、中央制御部1と、メモリ2と、撮像部3と、撮像制御部4と、画像データ生成部5と、マーカー検出処理部6と、表示部7と、表示制御部8と、送受話部9と、通信制御部10と、操作入力部11等を備えている。
なお、携帯端末100は、例えば、通信機能を具備する撮像装置や、携帯電話やPHS(Personal Handy-phone System)などの移動体通信網で用いられる移動局、PDA(Personal Data Assistants)等から構成されている。
[Embodiment 1]
FIG. 1 is a block diagram showing a schematic configuration of a
As shown in FIG. 1, the
The
中央制御部1は、携帯端末100の各部を制御する。具体的には、中央制御部1は、携帯端末100の各部を制御するCPU(図示略)を具備し、各種処理プログラム(図示略)に従って各種の制御動作を行う。
The
メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、画像情報等を一時的に記録するバッファメモリや、中央制御部1などのワーキングメモリ、当該携帯端末100の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。
The
撮像部3は、特定の被写体(例えば、マーカーM)を撮像してフレーム画像F(図3参照)の画像信号を生成する。
ここで、特定の被写体とは、二次元画像であっても良いし、3次元形状の立体であっても良い。例えば、特定の被写体を二次元画像とした場合には、一辺12mmの正方形をなす略枠状(額縁状)のマーカーM等が挙げられる(図3参照)。
なお、上記したマーカーMの形状、寸法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The
Here, the specific subject may be a two-dimensional image or a three-dimensional solid. For example, when a specific subject is a two-dimensional image, a substantially frame-shaped (frame-shaped) marker M having a square with a side of 12 mm can be used (see FIG. 3).
The shape and dimensions of the marker M described above are merely examples, and are not limited thereto, and can be arbitrarily changed as appropriate.
また、撮像部3は、レンズ部3aと、電子撮像部3bとを備えている。
レンズ部3aは、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The
The
The
In addition, although illustration is abbreviate | omitted, the
撮像制御部4は、撮像部3による被写体の撮像を制御する。即ち、撮像制御部4は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部4は、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像Fを読み出して画像データ生成部5に出力させる。
また、撮像制御部4は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体の撮像条件の調整制御を行う。
The imaging control unit 4 controls the imaging of the subject by the
In addition, the imaging control unit 4 performs adjustment control of imaging conditions of the subject such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.
画像データ生成部5は、電子撮像部3bから転送されたフレーム画像Fのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
また、画像データ生成部5は、生成したフレーム画像FのYUVデータを水平及び垂直ともに所定倍率で縮小処理を行って、ライブビュー表示用の低解像度(例えば、VGAやQVGAサイズ等)の画像データを生成する。具体的には、画像データ生成部5は、表示部7によるライブビュー画像の所定の表示フレームレートに応じた所定のタイミングで、フレーム画像FのYUVデータからライブビュー表示用の低解像度の画像データを生成する。
The image data generation unit 5 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the frame image F transferred from the electronic
Further, the image data generation unit 5 reduces the YUV data of the generated frame image F at a predetermined magnification in both horizontal and vertical directions, and generates low-resolution (for example, VGA, QVGA size, etc.) image data for live view display. Is generated. Specifically, the image data generation unit 5 has low resolution image data for live view display from YUV data of the frame image F at a predetermined timing according to a predetermined display frame rate of the live view image by the
そして、画像データ生成部5は、生成された各フレーム画像FのYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。
Then, the image data generation unit 5 sequentially outputs the generated YUV data of each frame image F to the
マーカー検出処理部6は、仮姿勢指定部6aと、画像取得部6bと、座標検出部6cと、第1姿勢候補推定部6dと、判定部6eと、第1姿勢特定部6fと、画像生成部6gとを具備している。
なお、マーカー検出処理部6の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The marker
In addition, although each part of the marker
仮姿勢指定部6aは、予め当該端末本体に対するマーカーMの仮の姿勢を指定する。
即ち、仮姿勢指定部(指定手段)6aは、予め撮像部3を具備する端末本体に対するマーカー(特定の被写体)Mの仮の姿勢を指定する。具体的には、例えば、ユーザによる操作入力部11の所定操作に基づいて、二次元画像であるマーカーMの当該二次元平面に対する法線方向(即ち、図3中、マーカー座標系におけるZ軸の向き等)の向き(例えば、上下左右の何れか一の向き)が入力されると、仮姿勢指定部6aは、入力されたマーカーMの二次元平面に対する法線方向の向きを、端末本体に対するマーカーMの仮の姿勢として指定する。
なお、仮の姿勢の指定方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、仮の姿勢は、予めデフォルトとして設定されているものが自動的に指定される構成であっても良い。
The temporary
That is, the provisional posture designation unit (designation unit) 6a designates the provisional posture of the marker (specific subject) M with respect to the terminal body including the
Note that the provisional posture designation method is an example, and is not limited thereto, and can be arbitrarily changed as appropriate. For example, the temporary posture may be configured so that a preset default posture is automatically specified.
画像取得部6bは、複数のフレーム画像F、…を逐次取得する。
即ち、画像取得部(取得手段)6bは、マーカー(特定の被写体)Mが連続して撮像された複数の画像を逐次取得する。具体的には、画像取得部6bは、撮像部3によりマーカーMが連続して撮像されて画像データ生成部5により逐次生成された複数のフレーム画像F、…の所定の解像度の画像データ(例えば、輝度データ)をメモリ2から逐次取得する。
The
That is, the image acquisition unit (acquisition unit) 6b sequentially acquires a plurality of images in which the marker (specific subject) M is continuously captured. Specifically, the
座標検出部6cは、マーカー画像領域S(図3参照)を構成する複数の点の座標を検出する。
即ち、座標検出部(検出手段)6cは、画像取得部6bにより取得されたフレーム画像Fに含まれるマーカー画像領域Sを構成する複数の点(例えば、4隅の点等)の座標を検出する。具体的には、座標検出部6cは、画像取得部6bにより取得されたフレーム画像Fに対して所定の二値化処理が施されることで生成された二値化画像の画像データに対して所定の特徴抽出処理を行って、略枠状のマーカー画像領域Sを抽出する。そして、座標検出部6cは、マーカー画像領域Sを構成する4隅の位置座標を検出する。
なお、特徴抽出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The coordinate
That is, the coordinate detection unit (detection unit) 6c detects the coordinates of a plurality of points (for example, four corner points) constituting the marker image region S included in the frame image F acquired by the
Note that the feature extraction process is a known technique, and thus detailed description thereof is omitted here.
第1姿勢候補推定部6dは、端末本体に対するマーカーMの姿勢候補を少なくとも一つ推定する。具体的には、第1姿勢候補推定部6dは、第1推定部d1と、第2推定部d2とを具備している。
The first posture
第1推定部(第1推定手段)d1は、座標検出部6cにより検出された複数の点の座標に基づいて、端末本体に対するマーカーMの第1姿勢候補を推定する。具体的には、第1推定部d1は、所定の記録手段に記録されているデータベース(図示略)等を参照し、マーカー画像領域Sの4隅の点の位置座標から幾何学的な位置関係を利用して、マーカーMの各点の三次元空間での座標とフレーム画像F内の二次元の平面座標との対応関係を規定する座標変換式(例えば、式(1)参照;後述)の第1初期値を算出する。
ここで、マーカー画像領域Sの複数の点の座標変換には、例えば、比較的精度の高い中心射影モデルを用いても良いし、中心射影モデルに比べて精度の低い擬似中心射影モデル(図4(a)参照)を用いても良い。例えば、擬似中心射影モデルでは、携帯端末100から所定の距離以上離れると、当該端末本体に対する前後方向(奥行き方向)の狭い範囲にて平行投影とみなされ、図4(a)中の点1、2は何れも画像の点aに投影されてしまう。
The first estimation unit (first estimation unit) d1 estimates the first posture candidate of the marker M with respect to the terminal body based on the coordinates of the plurality of points detected by the coordinate
Here, for coordinate conversion of a plurality of points in the marker image region S, for example, a center projection model with relatively high accuracy may be used, or a pseudo center projection model (FIG. 4) with lower accuracy than the center projection model. (Refer to (a)). For example, in the pseudo-central projection model, when a predetermined distance or more away from the
また、第1推定部d1は、算出された第1初期値を端末本体に対するマーカーMの姿勢を表す行列Rの初期値として下記式(1)の座標変換式を解くことで、端末本体に対するマーカーMの姿勢及び位置関係を表す行列R、Tをバンドル調整(bundle adjustment)により推定する。そして、第1推定部d1は、推定された行列Rを端末本体に対するマーカーMの第1姿勢候補として特定する。
ここで、バンドル調整とは、画像から幾何学的なモデルのパラメータを高い推定精度の達成を目指して推定する手法であり、例えば、未知のパラメータの再投影誤差の合計を最小化するような手法等が用いられる。
また、端末本体に対するマーカーMの姿勢を表す行列Rは、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、3×3の回転行列等が挙げられる。また、端末本体に対するマーカーMの位置関係を表す行列Tは、具体的には、n行m列の行列(n、mは、それぞれ自然数)で表され、例えば、1×3の並進ベクトル等が挙げられる。
また、式(1)中の「C」は、撮像部3の焦点距離等の内部パラメータを表し、「h」は、フレーム画像Fのスケールを表している。
In addition, the first estimation unit d1 uses the calculated first initial value as an initial value of the matrix R representing the attitude of the marker M with respect to the terminal body, and solves the coordinate transformation expression of the following formula (1), thereby making the marker for the terminal body Matrixes R and T representing the posture and positional relationship of M are estimated by bundle adjustment. And the 1st estimation part d1 specifies the estimated matrix R as a 1st attitude | position candidate of the marker M with respect to a terminal main body.
Here, bundle adjustment is a method for estimating geometric model parameters from an image in order to achieve high estimation accuracy, for example, a method for minimizing the total reprojection error of unknown parameters. Etc. are used.
Further, the matrix R representing the attitude of the marker M with respect to the terminal body is specifically represented by a matrix of n rows and m columns (n and m are natural numbers, respectively), for example, a 3 × 3 rotation matrix or the like. It is done. Further, the matrix T representing the positional relationship of the marker M with respect to the terminal body is specifically represented by a matrix of n rows and m columns (n and m are natural numbers, respectively), for example, a 1 × 3 translation vector or the like. Can be mentioned.
Further, “C” in Expression (1) represents an internal parameter such as a focal length of the
第2推定部(第2推定手段)d2は、第1推定部d1による推定結果に基づいて、端末本体に対するマーカーMの第1姿勢候補と異なる第2姿勢候補を推定する。
具体的には、第2推定部d2は、判定部6eによって第1姿勢候補が正しくないと判定された場合に(詳細後述)、端末本体に対するマーカーMの第2姿勢候補を推定する。つまり、判定部6eによって第1姿勢候補が正しくないと判定された場合には、当該第1姿勢候補はバンドル調整により推定された局所解であると考えられるので、第1姿勢候補推定部6dは、第2推定部d2によって端末本体に対するマーカーMの姿勢候補(第2姿勢候補)を再度推定する。
例えば、第2推定部d2は、端末本体の所定位置(例えば、光軸が通る端末本体中心)とマーカーMの中心を通る軸(中心軸)とマーカーMの二次元平面の法線ベクトルの外積を算出する。そして、第2推定部d2は、仮姿勢指定部6aにより指定されたマーカーMの仮の姿勢(例えば、下向き;図4(b)中、破線L2で表すマーカーMの向き)と反対(例えば、上向き;図4(b)中、実線L1で表すマーカーMの向き)となるように、算出された外積を軸として第1姿勢候補である行列Rを回転させて、第2初期値を算出する。その後、第2推定部d2は、算出された第2初期値を端末本体に対するマーカーMの姿勢を表す行列Rの初期値として式(1)の座標変換式を解くことで、端末本体に対するマーカーMの姿勢及び位置関係を表す行列R、Tを推定し、推定された行列Rを端末本体に対するマーカーMの第2姿勢候補として特定する。
なお、第2姿勢候補の推定方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、第2推定部d2は、上記第1推定部d1と同様に、マーカー画像領域Sの4隅の点の座標から擬似中心射影モデルを利用することで、座標変換式(例えば、式(1)参照)の初期値として第1初期値と異なる第2初期値を算出し、当該第2初期値を用いて端末本体に対するマーカーMの姿勢を表す行列R(第2姿勢候補)をバンドル調整により推定しても良い。
The second estimation unit (second estimation unit) d2 estimates a second posture candidate different from the first posture candidate of the marker M with respect to the terminal body based on the estimation result by the first estimation unit d1.
Specifically, the second estimation unit d2 estimates the second posture candidate of the marker M with respect to the terminal body when the determination unit 6e determines that the first posture candidate is incorrect (described later in detail). That is, when the determination unit 6e determines that the first posture candidate is not correct, the first posture candidate is considered to be a local solution estimated by bundle adjustment, so the first posture
For example, the second estimation unit d2 calculates the outer product of a predetermined position of the terminal body (for example, the center of the terminal body through which the optical axis passes), the axis passing through the center of the marker M (center axis), and the normal vector of the marker M on the two-dimensional plane Is calculated. Then, the second estimation unit d2 is opposite to the provisional posture of the marker M (for example, downward; the direction of the marker M represented by the broken line L2 in FIG. 4B) designated by the provisional
Note that the second posture candidate estimation method is an example and is not limited to this, and can be arbitrarily changed as appropriate. For example, the second estimation unit d2 uses the pseudo-center projection model from the coordinates of the four corner points of the marker image region S, similarly to the first estimation unit d1, thereby converting the coordinate conversion formula (for example, formula (1 ))), A second initial value different from the first initial value is calculated, and a matrix R (second attitude candidate) representing the attitude of the marker M with respect to the terminal body is calculated by bundle adjustment using the second initial value. It may be estimated.
このように、第2推定部d2は、判定部6eによって第1姿勢候補が正しくないと判定された場合にのみ第2姿勢候補を推定するので、第1姿勢候補推定部6d(候補推定手段)は、撮像部3を具備する端末本体に対するマーカーMの姿勢候補を少なくとも一つ推定する。
Thus, since the second estimation unit d2 estimates the second posture candidate only when the determination unit 6e determines that the first posture candidate is not correct, the first posture
判定部6eは、第1姿勢候補が正しいか否かを判定する。
即ち、判定部(判定手段)6eは、第1推定部d1により推定された第1姿勢候補が正しいか否かを所定の判定基準に従って判定する。具体的には、判定部6eは、仮姿勢指定部6aによって指定されたマーカーMの仮の姿勢に基づいて、端末本体に対するマーカーMの第1姿勢候補が正しいか否かを判定する。
例えば、端末本体に対するマーカーMの第1姿勢候補を表す行列Rが3×3の回転行列で表されている場合、1列目の各要素r11、r21、r31は、端末本体の座標系におけるマーカー座標系のX軸の向きを表し、2列目の各要素r12、r22、r32は、端末本体の座標系におけるマーカー座標系のY軸の向きを表し、3列目の各要素r13、r23、r33は、端末本体の座標系におけるマーカー座標系のZ軸の向きを表す。ここで、例えば、仮姿勢指定部6aにより予めマーカーMの二次元平面に対する法線方向の向きが上向きと指定されている場合、判定部6eは、端末本体に対するマーカーMの第1姿勢候補を表す行列Rの所定の要素(例えば、2行目、3列目の要素r23)の符号を確認することで第1姿勢候補と仮の姿勢が一致するか否かを判定する。即ち、マーカーMの法線方向は、マーカー座標系のZ軸の向きと一致しているため、判定部6eは、3×3の回転行列のマーカー座標系のZ軸の向きを表す3列目の各要素のうち、端末本体の座標系のY軸に対応する要素r23の符号を確認することによって、マーカーMの法線方向が端末本体の座標系のY軸の正の方向を向いているか否かを判定することができる。
The determination unit 6e determines whether or not the first posture candidate is correct.
That is, the determination unit (determination unit) 6e determines whether the first posture candidate estimated by the first estimation unit d1 is correct according to a predetermined determination criterion. Specifically, the determination unit 6e determines whether or not the first posture candidate of the marker M with respect to the terminal body is correct based on the temporary posture of the marker M designated by the temporary
For example, when the matrix R representing the first posture candidate of the marker M with respect to the terminal body is represented by a 3 × 3 rotation matrix, each element r 11 , r 21 , r 31 in the first column is the coordinates of the terminal body. Represents the direction of the X axis of the marker coordinate system in the system, and each element r 12 , r 22 , r 32 in the second column represents the direction of the Y axis of the marker coordinate system in the coordinate system of the terminal body. each element r 13, r 23, r 33 represents the direction of Z-axis of the marker coordinate system in the coordinate system of the terminal body. Here, for example, when the orientation of the normal direction with respect to the two-dimensional plane of the marker M is designated in advance by the temporary
なお、第1姿勢候補の判定方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
具体的には、例えば、判定部6eは、第1姿勢特定部6f(後述)により最適解として逐次特定される端末本体に対するマーカーMの姿勢の変化の態様に基づいて、第1姿勢候補が正しいか否かを判定するようにしても良い。例えば、フレーム画像Fが所定の撮像フレームレート(例えば、60fps等)で撮像されて取得される場合に、所定時間内に取得された複数のフレーム画像F、…に対応する第1姿勢候補の所定の要素に基づいてマーカーMの姿勢が所定の向き(例えば、上向き)である割合を算出し、その割合が所定値以上となった場合に、第1姿勢候補が正しいと判定するようにしても良い。また、例えば、判定部6eは、前回特定された第1姿勢候補の所定の要素と比較して、今回特定された第1姿勢候補の所定の要素が一致するか否かに応じて第1姿勢候補が正しいか否かを判定するようにしても良い。
この場合には、携帯端末100は、必ずしも仮姿勢指定部6aを具備する必要はない。
Note that the determination method of the first posture candidate is an example, and is not limited to this, and can be arbitrarily changed as appropriate.
Specifically, for example, the determination unit 6e determines that the first posture candidate is correct based on the change in posture of the marker M with respect to the terminal body that is sequentially identified as the optimal solution by the first
In this case, the
第1姿勢特定部6fは、端末本体に対するマーカーMの姿勢の最適解を特定する。
即ち、第1姿勢特定部(特定手段)6fは、第1姿勢候補推定部6dにより推定された少なくとも一の姿勢候補のうちの何れか一を端末本体に対するマーカーMの姿勢の最適解として特定する。具体的には、第1姿勢特定部6fは、第1姿勢候補及び第2姿勢候補のうち、一方を最適解として特定する。
例えば、第1姿勢特定部6fは、判定部6eによって第1姿勢候補が正しいと判定された場合に、当該第1姿勢候補を最適解として特定する一方で、第1姿勢候補が正しくないと判定された場合に、第2推定部d2により推定された第2姿勢候補を最適解として特定する。
つまり、判定部6eにより第1姿勢候補が正しいと判定された場合には、第1姿勢候補推定部6dにより一の姿勢候補(第1姿勢候補)のみが推定された状態であり、第1姿勢特定部6fは、当該第1姿勢候補を端末本体に対するマーカーMの姿勢を表す行列Rとして特定する。これに対して、判定部6eにより第1姿勢候補が正しくないと判定された場合には、第1姿勢候補推定部6dの第2推定部d2により改めて第2姿勢候補が推定され、第1姿勢特定部6fは、当該第2姿勢候補を端末本体に対するマーカーMの姿勢を表す行列Rとして特定する。
The first
That is, the first posture specifying unit (specifying unit) 6f specifies any one of at least one posture candidate estimated by the first posture
For example, when the determination unit 6e determines that the first posture candidate is correct, the first
That is, when the determination unit 6e determines that the first posture candidate is correct, only the first posture candidate (first posture candidate) is estimated by the first posture
画像生成部6gは、画像取得部6bにより逐次取得されたフレーム画像Fのマーカー画像領域Sに当該マーカーMと対応する仮想オブジェクト(例えば、三次元モデル等;図示略)を重畳させた仮想画像(図示略)を生成する。
具体的には、例えば、フレーム画像Fが逐次取得される毎に、画像生成部6gは、第1姿勢特定部6fにより最適解として特定された端末本体に対するマーカーMの姿勢及び位置関係に基づいて、フレーム画像F内でのマーカー画像の姿勢(向き)や位置を調整し、当該マーカー画像と対応する仮想オブジェクトを所定の記録手段から取得して仮想画像の画像データを生成する。そして、画像生成部6gは、生成された各仮想画像の画像データをメモリ2に順次出力し、当該メモリ2に格納させる。
なお、画像生成部6gにより生成された仮想画像の画像データは、例えば、所定の圧縮形式(例えば、JPEG形式等)で符号化され、不揮発性メモリ(フラッシュメモリ)等の記録媒体(図示略)に記録されても良い。
The
Specifically, for example, every time the frame image F is sequentially acquired, the
The image data of the virtual image generated by the
表示部7は、例えば、液晶表示パネルから構成され、表示制御部8からのビデオ信号に基づいて撮像部3により撮像された画像(例えば、ライブビュー画像等)を表示画面に表示する。
The
表示制御部8は、メモリ2に一時的に記憶されている表示用の画像データを読み出して表示部7に表示させる制御を行う。
具体的には、表示制御部8は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部1の制御下にてメモリ2から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレート(例えば、30fps)で読み出して、これらのデータを元にビデオ信号を発生して表示部7に出力する。
例えば、表示制御部8は、撮像部3及び撮像制御部4により撮像され画像データ生成部5により生成された複数のフレーム画像F、…を所定の表示フレームレートで逐次更新しながら表示部7にライブビュー表示させる。また、表示制御部8は、例えば、メモリ2から仮想画像の画像データを逐次取得して、当該仮想画像を表示部7に逐次ライブビュー表示させる。
The
Specifically, the
For example, the
送受話部9は、通信ネットワークNを介して接続された外部機器の外部ユーザとの通話を行う。
具体的には、送受話部9は、マイク9a、スピーカ9b、データ変換部9c等を備えている。そして、送受話部9は、マイク9aから入力されるユーザの送話音声をデータ変換部9cによりA/D変換処理して送話音声データを中央制御部1に出力するとともに、中央制御部1の制御下にて、通信制御部10から出力されて入力される受話音声データ等の音声データをデータ変換部9cによりD/A変換処理してスピーカ9bから出力する。
The transmitter /
Specifically, the transmission /
通信制御部10は、通信ネットワークN及び通信アンテナ10aを介してデータの送受信を行う。
即ち、通信アンテナ10aは、当該携帯端末100が無線基地局(図示略)との通信で採用している所定の通信方式(例えば、W−CDMA(Wideband Code Division Multiple Access)方式、GSM(Global System for Mobile Communications;登録商標)方式等)に対応したデータの送受信が可能なアンテナである。そして、通信制御部10は、所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ10aを介してデータの送受信を行う。
即ち、通信制御部10は、中央制御部1から出力されて入力される指示信号に基づいて、通信相手の外部機器に対して、当該外部機器の外部ユーザとの通話中の音声の送受信や、電子メールのデータの送受信を行う。
なお、通信制御部10の構成は一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、図示は省略するが、無線LANモジュールを搭載し、アクセスポイント(Access Point)を介して通信ネットワークNにアクセス可能な構成としても良い。
The
That is, the
That is, the
Note that the configuration of the
なお、通信ネットワークNは、携帯端末100を無線基地局やゲートウェイサーバ(図示略)等を介して接続する通信ネットワークである。また、通信ネットワークNは、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信ネットワーク網と、IPネットワーク、VoIP(Voice over Internet Protocol)ゲートウェイ、インターネットサービスプロバイダ等が含まれる。
The communication network N is a communication network that connects the
操作入力部11は、端末本体に対して各種指示を入力するためのものである。
具体的には、操作入力部11は、被写体の撮影指示に係るシャッタボタン、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン、電話の発着信や電子メールの送受信等の実行指示に係る通信関連ボタン、テキストの入力指示に係る数字ボタンや記号ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部11は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部11から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像、電話の発着信、電子メールの送受信等)を各部に実行させる。
The
Specifically, the
When various buttons are operated by the user, the
なお、操作入力部11は、表示部7と一体となって設けられたタッチパネルを有していても良く、ユーザによるタッチパネルの所定操作に基づいて、当該所定操作に応じた操作指示を中央制御部1に出力しても良い。
The
次に、携帯端末100によるマーカー検出処理について図2を参照して説明する。
図2は、マーカー検出処理に係る動作の一例を示すフローチャートである。
なお、以下のマーカー検出処理にて検出されるマーカーMは、例えば、鉢植えの観葉植物の鉢内の所定位置に配設されているものとする。
Next, marker detection processing by the
FIG. 2 is a flowchart illustrating an example of an operation related to the marker detection process.
In addition, the marker M detected by the following marker detection process shall be arrange | positioned in the predetermined position in the pot of the potted houseplant, for example.
図2に示すように、先ず、仮姿勢指定部6aは、ユーザによる操作入力部11の所定操作に基づいて入力されたマーカーMの二次元平面に対する法線方向の向き(例えば、下向き等)を、端末本体に対するマーカーMの仮の姿勢として指定する(ステップS1)。
その後、撮像制御部4は、撮像部3にマーカーMを撮像させ、画像データ生成部5は、電子撮像部3bから転送された複数のフレーム画像F、…の画像データを生成する(ステップS2)。ここで、例えば、レンズ部の焦点距離を40mm(35mm判換算)として、一辺12mmの正方形をなす略枠状のマーカーMを40cm程度離れた場所から撮像すると、VGAサイズのフレーム画像Fでマーカー画像領域Sの一辺が50画素程度となる。このような状況では、後述するマーカー画像領域Sの4隅の点の座標の検出誤差が生じ易くなる。
そして、画像データ生成部5は、生成された各フレーム画像FのYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。
As shown in FIG. 2, first, the temporary
Thereafter, the imaging control unit 4 causes the
Then, the image data generation unit 5 sequentially outputs the generated YUV data of each frame image F to the
次に、マーカー検出処理部6の画像取得部6bは、画像データ生成部5により逐次生成された何れか一のフレーム画像Fの画像データをメモリ2から取得する(ステップS3)。続けて、座標検出部6cは、画像取得部6bにより取得されたフレーム画像Fを二値化した画像の画像データに対して所定の特徴抽出処理を行って略枠状のマーカー画像領域Sを抽出し、抽出されたマーカー画像領域Sを構成する4隅の点の位置座標を検出する(ステップS4)。
Next, the
次に、第1推定部d1は、マーカー画像領域Sの4隅の点の座標から幾何学的な位置関係を利用して、マーカーMの各点の三次元空間での座標とフレーム画像F内の二次元の平面座標との対応関係を規定する座標変換式(例えば、式(1))の第1初期値を算出する(ステップS5)。続けて、第1推定部d1は、算出された第1初期値を用いて下記式(1)の座標変換式を解くことで、端末本体に対するマーカーMの姿勢及び位置関係を表す行列R、Tをバンドル調整により推定し、推定された行列Rを端末本体に対するマーカーMの第1姿勢候補として特定する(ステップS6)。
次に、判定部6eは、仮姿勢指定部6aによって指定されたマーカーMの仮の姿勢に基づいて、端末本体に対するマーカーMの第1姿勢候補が正しいか否かを判定する(ステップS7)。具体的には、判定部6eは、端末本体に対するマーカーMの第1姿勢候補を表す行列Rの所定の要素(例えば、2行目、3列目の要素r23)の符号を確認することで第1姿勢候補と仮の姿勢が一致するか否かを判定し、当該判定結果に応じて第1姿勢候補が正しいか否かを判定する。
Next, the determination unit 6e determines whether or not the first posture candidate of the marker M with respect to the terminal body is correct based on the temporary posture of the marker M designated by the temporary
ステップS7にて、第1姿勢候補が正しいと判定されると(ステップS7;YES)、第1姿勢特定部6fは、当該第1姿勢候補を端末本体に対するマーカーMの姿勢を表す行列Rの最適解として特定する(ステップS8)。
そして、画像生成部6gは、最適解として特定された端末本体に対するマーカーMの姿勢(第1姿勢候補)及び位置関係に基づいてフレーム画像F内でのマーカー画像の姿勢や位置を調整し、当該フレーム画像F中にマーカー画像と対応する仮想オブジェクトを重畳させた仮想画像の画像データを生成する。そして、表示制御部8は、当該仮想画像を表示部7にライブビュー表示させる(ステップS9)。
その後、中央制御部1のCPUは、処理をステップS3に戻す。
When it is determined in step S7 that the first posture candidate is correct (step S7; YES), the first
Then, the
Thereafter, the CPU of the
一方、ステップS7にて、第1姿勢候補が正しくないと判定されると(ステップS7;NO)、第2推定部d2は、第1姿勢候補を用いて座標変換式の第2初期値を算出する(ステップS10)。具体的には、第2推定部d2は、光軸が通る端末本体中心とマーカーMの中心を通る軸(中心軸)とマーカーMの二次元平面の法線ベクトルの外積を算出する。そして、第2推定部d2は、指定済みのマーカーMの仮の姿勢(例えば、下向き)と反対(例えば、上向き)となるように、算出された外積を軸として第1姿勢候補である行列Rを回転させて、第2初期値を算出する。
続けて、第2推定部d2は、算出された第2初期値を用いて式(1)の座標変換式を解くことで、端末本体に対するマーカーMの姿勢及び位置関係を表す行列R、Tをバンドル調整により推定し、推定された行列Rを端末本体に対するマーカーMの第2姿勢候補として特定する(ステップS11)。
On the other hand, when it is determined in step S7 that the first posture candidate is not correct (step S7; NO), the second estimation unit d2 calculates the second initial value of the coordinate transformation equation using the first posture candidate. (Step S10). Specifically, the second estimating unit d2 calculates the outer product of the normal vector of the two-dimensional plane of the marker M and the axis (center axis) passing through the center of the terminal body through which the optical axis passes and the center of the marker M. Then, the second estimation unit d2 uses the calculated outer product as an axis so as to be opposite to the provisional posture (for example, downward) of the designated marker M (for example, upward), as a matrix R that is a first posture candidate. Is rotated to calculate the second initial value.
Subsequently, the second estimation unit d2 uses the calculated second initial value to solve the coordinate conversion equation of Equation (1), thereby obtaining matrices R and T representing the posture and positional relationship of the marker M with respect to the terminal body. The estimation is performed by bundle adjustment, and the estimated matrix R is specified as the second posture candidate of the marker M with respect to the terminal body (step S11).
その後、第1姿勢特定部6fは、当該第2姿勢候補を端末本体に対するマーカーMの姿勢を表す行列Rの最適解として特定する(ステップS12)。そして、中央制御部1のCPUは、処理をステップS9に移行して、それ以降の各処理の実行を制御する。
即ち、ステップS9にて、画像生成部6gは、最適解として特定された端末本体に対するマーカーMの姿勢(第2姿勢候補)及び位置関係に基づいてフレーム画像F内でのマーカー画像の姿勢や位置を調整し、当該フレーム画像F中にマーカー画像と対応する仮想オブジェクトを重畳させた仮想画像の画像データを生成する。そして、表示制御部8は、当該仮想画像を表示部7にライブビュー表示させる。
Thereafter, the first
That is, in step S9, the
上記の各処理は、ステップS3にてフレーム画像Fが取得される毎に繰り返し実行される。 Each of the above processes is repeatedly executed every time the frame image F is acquired in step S3.
以上のように、実施形態1の携帯端末100によれば、マーカー(特定の被写体)Mの画像領域Sを構成する複数の点の座標の座標に基づいて、撮像部3(端末本体)に対するマーカーMの姿勢候補を少なくとも一つ推定し、推定された姿勢候補のうちの何れか一を撮像部3に対するマーカーMの姿勢の最適解として特定するので、マーカーMの撮像の際の環境や各種の条件等によってマーカー画像領域Sを構成する複数の点の検出誤差が生じて局所解が算出され易いような環境であっても、局所解に陥ることなく最適解を適正に特定することができ、撮像部3に対するマーカーMの姿勢の推定を適正に行うことができる。
即ち、例えば、携帯端末100の撮像部3からマーカーMまでの距離が相対的に遠い場合には、平行投影とみなされてマーカー画像領域Sを構成する複数の点の検出誤差が生じ易くなる。また、日差しの強い環境や暗闇などではマーカー画像領域Sの特定を適正に行うことができず、結果として、マーカー画像領域Sを構成する複数の点の検出誤差が生じ易くなる。また、撮像フレームレートが相対的に高い場合などにもマーカー画像領域Sを構成する複数の点の検出結果の信頼性が低下してしまう。このような環境では、マーカー画像領域Sの複数の点の座標から中心射影モデルを用いて撮像部3に対するマーカーMの姿勢を推定しても、局所解が算出され易くなってしまう。
そこで、本実施形態では、撮像部3に対するマーカーMの姿勢の最適解を一つ直接推定するのではなく、局所解を含む可能性があるものの、予め撮像部3に対するマーカーMの姿勢候補を推定しておき、姿勢候補の中から撮像部3に対するマーカーMの姿勢の最適解を特定するようにすることで、最終的に撮像部3に対するマーカーMの姿勢の局所解が特定されてしまうことを抑制することができる。
これにより、撮像部3に対するマーカーMの姿勢の推定を適正に行うことができることとなり、結果として、マーカーMに対応する仮想オブジェクトの表示を適正に行うことができる。
As described above, according to the
That is, for example, when the distance from the
Therefore, in this embodiment, instead of directly estimating one optimal solution of the posture of the marker M with respect to the
As a result, the posture of the marker M with respect to the
また、マーカー画像領域Sの複数の点の座標に基づいて、撮像部3に対するマーカー(特定の被写体)Mの第1姿勢候補を推定し、当該第1姿勢候補が正しくないと判定された場合に、第1姿勢候補の推定結果に基づいて、撮像部3に対するマーカーMの第2姿勢候補を推定するので、第1姿勢候補及び第2姿勢候補のうち、一方を最適解として特定することができる。即ち、第1姿勢候補が正しいと判定された場合に、当該第1姿勢候補を最適解として特定することができる一方で、第1姿勢候補が正しくないと判定された場合に、第2姿勢候補を最適解として特定することができる。
具体的には、例えば、マーカー画像領域Sの複数の点の座標から擬似中心射影モデルを用いて撮像部3に対するマーカーMの姿勢を推定する場合、マーカーMの二次元平面に対する法線方向の向きが異なる複数の姿勢候補を推定することができる。このとき、第1姿勢候補が正しいと判定された場合には、当該第1姿勢候補を最適解として特定することができ、第1姿勢候補が正しくないと判定された場合には、第1姿勢候補の推定結果を考慮して当該第1姿勢候補と異なる第2姿勢候補を推定して、当該第2姿勢候補を最適解として特定することができる。
Further, when the first posture candidate of the marker (specific subject) M with respect to the
Specifically, for example, when the posture of the marker M with respect to the
また、予め指定された撮像部3に対するマーカー(特定の被写体)Mの仮の姿勢や、最適解として逐次特定される撮像部3に対するマーカーMの姿勢の変化の態様に基づいて、第1姿勢候補が正しいか否かを適正に判定することができ、撮像部3に対するマーカーMの姿勢の最適解の特定を適正に行うことができる。
Further, the first posture candidate is based on the provisional posture of the marker (specific subject) M with respect to the
なお、上記実施形態のマーカー検出処理にあっては、ステップS7における仮の姿勢と一致するか否かの判定対象を、第1初期値を用いて座標変換式を解くことで推定された、端末本体に対するマーカーMの姿勢を表す行列Rとしたが、一例であってこれに限られるものではなく、例えば、ステップS5にてマーカー画像領域Sの4隅の点の座標から幾何学的な位置関係を利用して算出された第1初期値を表す行列Rとしても良い。 In the marker detection process of the above-described embodiment, a terminal that is determined by solving a coordinate conversion equation using the first initial value is determined as a determination target of whether or not the provisional posture in step S7 matches. Although the matrix R representing the posture of the marker M with respect to the main body is an example, the present invention is not limited to this. For example, the geometric positional relationship from the coordinates of the four corner points of the marker image region S in step S5. It is also possible to use a matrix R that represents the first initial value calculated using.
[実施形態2]
以下に、実施形態2の携帯端末200について説明する。
実施形態2の携帯端末200は、以下に詳細に説明する以外の点で上記実施形態1の携帯端末100と略同様の構成をなし、詳細な説明は省略する。
[Embodiment 2]
Below, the
The
図5は、本発明を適用した実施形態2の携帯端末200の概略構成を示すブロック図である。
図5に示すように、実施形態2の携帯端末200のマーカー検出処理部206は、仮姿勢指定部6aと、画像取得部6bと、座標検出部6cと、第2姿勢候補推定部206dと、第2姿勢特定部206fと、画像生成部6gとを具備している。
なお、仮姿勢指定部6a、画像取得部6b、座標検出部6c、画像生成部6gは、実施形態1の携帯端末100に備わるものと略同様の構成及び処理をなし、ここでは詳細な説明は省略する。
FIG. 5 is a block diagram illustrating a schematic configuration of the
As illustrated in FIG. 5, the marker
The temporary
第2姿勢候補推定部206dは、撮像部3を具備する端末本体に対するマーカーMの姿勢候補を複数推定する。
即ち、第2姿勢候補推定部206dは、座標検出部6cにより検出された複数の点の座標に基づいて、端末本体に対するマーカーMの姿勢候補を複数推定する。具体的には、第2姿勢候補推定部206dは、所定の記録手段に記録されているデータベース(図示略)等を参照し、マーカー画像領域Sの4隅の点の位置座標から擬似中心射影モデルを利用して、マーカーMの各点の三次元空間での座標とフレーム画像F内の二次元の平面座標との対応関係を規定する座標変換式(例えば、式(1))の初期値を複数算出する。つまり、第2姿勢候補推定部206dは、端末本体に対するマーカーMの姿勢を表す行列Rの初期値を姿勢候補として複数推定する。
The second posture
That is, the second posture
第2姿勢特定部206fは、端末本体に対するマーカーMの姿勢の最適解を特定する。
具体的には、第2姿勢特定部206fは、第2姿勢候補推定部206dにより推定された複数の姿勢候補のうち、仮姿勢指定部6aによって指定された仮の姿勢と略一致するものを最適解として特定する。例えば、仮姿勢指定部6aにより予めマーカーMの二次元平面に対する法線方向の向きが上向きと指定されている場合、第2姿勢特定部206fは、端末本体に対するマーカーMの各姿勢候補(初期値)を表す行列Rの所定の要素(例えば、2行目、3列目の要素r23)の符号を確認することで仮の姿勢と一致するか否かを判定する。そして、第2姿勢特定部206fは、仮の姿勢と略一致する姿勢候補を特定して、座標変換式(例えば、式(1))の最終的な初期値とする。
その後、第2姿勢特定部206fは、特定された最終的な初期値を用いて式(1)の座標変換式を解くことで、端末本体に対するマーカーMの姿勢及び位置関係を表す行列R、Tをバンドル調整により推定し、推定された行列Rを端末本体に対するマーカーMの姿勢の最適解として特定する。
Specifically, the second
Thereafter, the second
なお、最適解の特定方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
具体的には、例えば、第2姿勢特定部206fは、最適解として端末本体に対するマーカーMの姿勢を逐次特定していき、当該姿勢の変化の態様に基づいて端末本体に対するマーカーMの姿勢の最適解を再度特定するようにしても良い。例えば、フレーム画像Fが所定の撮像フレームレート(例えば、60fps等)で撮像されて取得される場合に、所定時間内に取得された複数のフレーム画像F、…に対応する姿勢の所定の要素に基づいてマーカーMの姿勢が所定の向き(例えば、上向き)である割合を算出し、その割合が所定値以上となった場合に、端末本体に対するマーカーMの姿勢が正しい(最適解である)と判定するようにしても良い。また、例えば、第2姿勢特定部206fは、前回最適解として特定された端末本体に対するマーカーMの姿勢の所定の要素と比較して、今回特定された端末本体に対するマーカーMの姿勢の所定の要素が一致するか否かに応じて端末本体に対するマーカーMの姿勢が正しいか否かを判定するようにしても良い。
この場合には、携帯端末200は、必ずしも仮姿勢指定部6aを具備する必要はない。
The method for specifying the optimal solution is an example and is not limited to this, and can be arbitrarily changed as appropriate.
Specifically, for example, the second
In this case, the
次に、携帯端末200によるマーカー検出処理について図6を参照して説明する。
図6は、マーカー検出処理に係る動作の一例を示すフローチャートである。
なお、携帯端末200によるマーカー検出処理は、以下に詳細に説明する以外の点で上記実施形態1の携帯端末100によるマーカー検出処理と略同様であり、詳細な説明は省略する。
Next, marker detection processing by the
FIG. 6 is a flowchart illustrating an example of an operation related to the marker detection process.
In addition, the marker detection process by the
図6に示すように、実施形態2の携帯端末200は、上記実施形態1におけるマーカー検出処理と同様に、ステップS1〜S4の各処理を実行する。
即ち、ステップS1にて、仮姿勢指定部6aは、端末本体に対するマーカーMの仮の姿勢を指定し、ステップS2にて、画像データ生成部5は、電子撮像部3bから転送された複数のフレーム画像F、…の画像データを生成する。また、ステップS3にて、画像取得部6bは、画像データ生成部5により逐次生成された何れか一のフレーム画像Fの画像データを取得し、ステップS4にて、座標検出部6cは、フレーム画像Fからマーカー画像領域Sを抽出し、マーカー画像領域Sを構成する4隅の点の位置座標を検出する。
As illustrated in FIG. 6, the
That is, in step S1, the provisional
その後、第2姿勢候補推定部206dは、端末本体に対するマーカーMの姿勢を表す行列Rの初期値を姿勢候補として複数推定する(ステップS25)。具体的には、第2姿勢候補推定部206dは、マーカー画像領域Sの4隅の点の位置座標から擬似中心射影モデルを利用して、マーカーMの各点の三次元空間での座標とフレーム画像F内の二次元の平面座標との対応関係を規定する座標変換式(例えば、式(1))の初期値を複数算出する。
Thereafter, the second posture
次に、第2姿勢特定部206fは、第2姿勢候補推定部206dにより推定された複数の姿勢候補のうち、仮姿勢指定部6aによって指定された仮の姿勢と略一致するものを特定する(ステップS26)。具体的には、第2姿勢特定部206fは、端末本体に対するマーカーMの各姿勢候補を表す行列Rの所定の要素(例えば、2行目、3列目の要素r23)の符号を確認することで仮の姿勢と一致するか否かを判定し、仮の姿勢と略一致する姿勢候補を座標変換式(例えば、式(1))の最終的な初期値とする。
続けて、第2姿勢特定部206fは、特定された最終的な初期値を用いて下記式(1)の座標変換式を解くことで、端末本体に対するマーカーMの姿勢及び位置関係を表す行列R、Tをバンドル調整により推定する。そして、第2姿勢特定部206fは、推定された行列Rを端末本体に対するマーカーMの姿勢の最適解として特定する。
Subsequently, the second
そして、上記実施形態1におけるマーカー検出処理と同様に、ステップS9にて、画像生成部6gは、フレーム画像F中にマーカー画像と対応する仮想オブジェクトを重畳させた仮想画像の画像データを生成し、表示制御部8は、当該仮想画像を表示部7にライブビュー表示させる。
その後、中央制御部1のCPUは、処理をステップS3に戻す。
Then, similarly to the marker detection process in the first embodiment, in step S9, the
Thereafter, the CPU of the
以上のように、実施形態2の携帯端末200によれば、上記実施形態1の携帯端末100と同様に、マーカーMの撮像の際の環境や各種の条件等によってマーカー画像領域Sを構成する複数の点の検出誤差が生じて局所解が算出され易いような環境であっても、局所解に陥ることなく最適解を適正に特定することができ、撮像部3に対するマーカーMの姿勢の推定を適正に行うことができる。
特に、予め複数の姿勢候補を推定しておくことで、これら複数の姿勢候補の中から最適解を選択により特定することができ、撮像部3に対するマーカーMの姿勢の最適解の特定を簡便に行うことができる。
As described above, according to the
In particular, by estimating a plurality of posture candidates in advance, it is possible to specify an optimum solution from among the plurality of posture candidates by selection, and it is easy to specify the optimum solution of the posture of the marker M with respect to the
また、推定された複数の姿勢候補のうち、予め指定された撮像部3に対するマーカー(特定の被写体)Mの仮の姿勢と略一致するものを最適解として特定したり、最適解として撮像部3に対するマーカーMの姿勢を逐次特定して当該姿勢の変化の態様に基づいて最適解を再度特定するので、撮像部3に対するマーカーMの姿勢の最適解の特定を適正に行うことができる。
In addition, among the estimated plurality of posture candidates, the one that substantially matches the provisional posture of the marker (specific subject) M with respect to the
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、所定の座標変換式を解くことで端末本体(撮像部3)に対するマーカーMの姿勢を表す行列Rを特定するようにしたが、端末本体に対するマーカーMの姿勢の一例であって一例であってこれに限られるものではなく、適宜任意に変更可能である。
また、座標変換式を解くことで端末本体に対するマーカーMの位置関係を表す行列Tを特定するようにしたが、必ずしも当該端末本体に対するマーカーMの位置関係を特定する必要はない。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, the matrix R representing the posture of the marker M with respect to the terminal body (imaging unit 3) is specified by solving a predetermined coordinate conversion formula, but this is an example of the posture of the marker M with respect to the terminal body. However, the present invention is not limited to this, and can be arbitrarily changed as appropriate.
Further, the matrix T representing the positional relationship of the marker M with respect to the terminal body is specified by solving the coordinate conversion formula, but the positional relationship of the marker M with respect to the terminal body is not necessarily specified.
さらに、携帯端末100(200)の構成は、上記実施形態に例示したものは一例であり、これに限られるものではなく、少なくとも取得手段、検出手段、候補推定手段、特定手段を備える構成であれば適宜任意に変更することができる。即ち、携帯端末100(200)は、必ずしも撮像部3を具備する必要はなく、外部の撮像装置により撮像された画像を取得して、特定の被写体(マーカーM)を検出する処理を行うようにしても良い。
Furthermore, the configuration of the mobile terminal 100 (200) is merely an example illustrated in the above embodiment, and is not limited thereto, and may include at least an acquisition unit, a detection unit, a candidate estimation unit, and a specification unit. If necessary, it can be arbitrarily changed. That is, the mobile terminal 100 (200) does not necessarily have to include the
加えて、上記実施形態にあっては、取得手段、検出手段、候補推定手段、特定手段としての機能を、携帯端末100(200)の中央制御部1の制御下にて、画像取得部6b、座標検出部6c、第1姿勢候補推定部6d(第2姿勢候補推定部206d)、第1姿勢特定部6f(第2姿勢特定部206f)が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリに、取得処理ルーチン、検出処理ルーチン、候補推定処理ルーチン、特定処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部1のCPUを、撮像部3により撮像された特定の被写体を含む画像を逐次取得する手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部1のCPUを、取得された画像における特定の被写体の画像領域を構成する複数の点の座標を検出する手段として機能させるようにしても良い。また、候補推定処理ルーチンにより中央制御部1のCPUを、検出された複数の点の座標に基づいて、撮像部3に対する特定の被写体の姿勢候補を少なくとも一つ推定する手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部1のCPUを、推定された姿勢候補のうちの何れか一を撮像部3に対する特定の被写体の姿勢の最適解として特定する手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions of the acquisition unit, the detection unit, the candidate estimation unit, and the identification unit are controlled by the
That is, a program including an acquisition process routine, a detection process routine, a candidate estimation process routine, and a specific process routine is stored in a program memory that stores the program. Then, the CPU of the
同様に、第1推定手段、第2推定手段、判定手段、指定手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
Similarly, the first estimation unit, the second estimation unit, the determination unit, and the designation unit may be realized by executing a predetermined program or the like by the CPU of the
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
〔付記〕
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
撮像部により撮像された特定の被写体を含む画像を逐次取得する取得手段と、
前記取得手段により取得された画像における前記特定の被写体の画像領域を構成する複数の点の座標を検出する検出手段と、
前記検出手段により検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の姿勢候補を少なくとも一つ推定する候補推定手段と、
前記候補推定手段により推定された前記姿勢候補のうちの何れか一を前記撮像部に対する前記特定の被写体の姿勢の最適解として特定する特定手段と、
を備えたことを特徴とする被写体検出装置。
<請求項2>
前記候補推定手段は、
前記検出手段により検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の第1姿勢候補を推定する第1推定手段と、
前記第1推定手段による推定結果に基づいて、前記撮像部に対する前記特定の被写体の前記第1姿勢候補と異なる第2姿勢候補を推定する第2推定手段と、を備え、
前記特定手段は、
前記第1姿勢候補及び前記第2姿勢候補のうち、一方を前記最適解として特定することを特徴とする請求項1に記載の被写体検出装置。
<請求項3>
前記第1推定手段により推定された前記第1姿勢候補が正しいか否かを所定の判定基準に従って判定する判定手段を更に備え、
前記第2推定手段は、前記判定手段によって前記第1姿勢候補が正しくないと判定された場合に、前記第2姿勢候補を推定することを特徴とする請求項2に記載の被写体検出装置。
<請求項4>
前記特定手段は、
前記判定手段によって前記第1姿勢候補が正しいと判定された場合に、当該第1姿勢候補を前記最適解として特定する一方で、前記第1姿勢候補が正しくないと判定された場合に、前記第2推定手段により推定された前記第2姿勢候補を前記最適解として特定することを特徴とする請求項3に記載の被写体検出装置。
<請求項5>
予め前記撮像部に対する前記特定の被写体の仮の姿勢を指定する指定手段を更に備え、
前記判定手段は、前記指定手段によって指定された仮の姿勢に基づいて、前記第1姿勢候補が正しいか否かを判定することを特徴とする請求項3又は4に記載の被写体検出装置。
<請求項6>
前記判定手段は、前記特定手段により前記最適解として逐次特定される前記撮像部に対する前記特定の被写体の姿勢の変化の態様に基づいて、前記第1姿勢候補が正しいか否かを判定することを特徴とする請求項3又は4に記載の被写体検出装置。
<請求項7>
予め前記撮像部に対する前記特定の被写体の仮の姿勢を指定する指定手段を更に備え、
前記特定手段は、前記候補推定手段により推定された複数の前記姿勢候補のうち、前記指定手段によって指定された仮の姿勢と略一致するものを前記最適解として特定することを特徴とする請求項1に記載の被写体検出装置。
<請求項8>
前記特定手段は、前記最適解として前記撮像部に対する前記特定の被写体の姿勢を逐次特定するとともに、当該姿勢の変化の態様に基づいて前記最適解を再度特定することを特徴とする請求項1に記載の被写体検出装置。
<請求項9>
前記特定の被写体は、マーカーであることを特徴とする請求項1〜8の何れか一項に記載の被写体検出装置。
<請求項10>
被写体検出装置を用いた被写体検出方法であって、
撮像部により撮像された特定の被写体を含む画像を逐次取得する処理と、
取得された画像における前記特定の被写体の画像領域を構成する複数の点の座標を検出する処理と、
検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の姿勢候補を少なくとも一つ推定する処理と、
推定された前記姿勢候補のうちの何れか一を前記撮像部に対する前記特定の被写体の姿勢の最適解として特定する処理と、
を含むことを特徴とする被写体検出方法。
<請求項11>
被写体検出装置のコンピュータを、
撮像部により撮像された特定の被写体を含む画像を逐次取得する取得手段、
前記取得手段により取得された画像における前記特定の被写体の画像領域を構成する複数の点の座標を検出する検出手段、
前記検出手段により検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の姿勢候補を少なくとも一つ推定する候補推定手段、
前記候補推定手段により推定された前記姿勢候補のうちの何れか一を前記撮像部に対する前記特定の被写体の姿勢の最適解として特定する特定手段、
として機能させることを特徴とするプログラム。
[Appendix]
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
Acquisition means for sequentially acquiring images including a specific subject imaged by the imaging unit;
Detecting means for detecting coordinates of a plurality of points constituting the image area of the specific subject in the image acquired by the acquiring means;
Candidate estimating means for estimating at least one posture candidate of the specific subject with respect to the imaging unit based on the coordinates of the plurality of points detected by the detecting means;
Specifying means for specifying any one of the posture candidates estimated by the candidate estimating means as an optimum solution of the posture of the specific subject with respect to the imaging unit;
A subject detection apparatus comprising:
<Claim 2>
The candidate estimating means includes
First estimation means for estimating a first posture candidate of the specific subject with respect to the imaging unit based on the coordinates of the plurality of points detected by the detection means;
Second estimation means for estimating a second posture candidate different from the first posture candidate of the specific subject with respect to the imaging unit based on an estimation result by the first estimation means,
The specifying means is:
The subject detection apparatus according to
<Claim 3>
A determination unit for determining whether the first posture candidate estimated by the first estimation unit is correct according to a predetermined determination criterion;
The subject detection apparatus according to
<Claim 4>
The specifying means is:
When the determination means determines that the first posture candidate is correct, the first posture candidate is specified as the optimal solution, while the first posture candidate is determined to be incorrect, The subject detection apparatus according to
<Claim 5>
Further comprising designation means for designating a temporary posture of the specific subject with respect to the imaging unit in advance;
5. The subject detection apparatus according to
<Claim 6>
The determination unit determines whether the first posture candidate is correct based on a change in posture of the specific subject with respect to the imaging unit that is sequentially specified as the optimal solution by the specifying unit. The subject detection device according to
<Claim 7>
Further comprising designation means for designating a temporary posture of the specific subject with respect to the imaging unit in advance;
The said specifying means specifies the thing substantially agree | coinciding with the temporary attitude | position designated by the said designation | designated means among the several said attitude | position candidates estimated by the said candidate estimation means as the said optimal solution. The subject detection device according to 1.
<Claim 8>
2. The specification unit according to
<Claim 9>
The subject detection apparatus according to
<Claim 10>
A subject detection method using a subject detection device,
A process of sequentially acquiring images including a specific subject imaged by the imaging unit;
Processing for detecting coordinates of a plurality of points constituting the image area of the specific subject in the acquired image;
A process of estimating at least one posture candidate of the specific subject with respect to the imaging unit based on the detected coordinates of the plurality of points;
Processing for specifying any one of the estimated posture candidates as an optimal solution of the posture of the specific subject with respect to the imaging unit;
A method for detecting a subject, comprising:
<Claim 11>
The computer of the subject detection device
Acquisition means for sequentially acquiring images including a specific subject imaged by the imaging unit;
Detecting means for detecting coordinates of a plurality of points constituting the image area of the specific subject in the image acquired by the acquiring means;
Candidate estimating means for estimating at least one posture candidate of the specific subject with respect to the imaging unit based on the coordinates of the plurality of points detected by the detecting means;
A specifying unit that specifies any one of the posture candidates estimated by the candidate estimation unit as an optimal solution of the posture of the specific subject with respect to the imaging unit;
A program characterized by functioning as
100、200 携帯端末
1 中央制御部
3 撮像部
6、206 マーカー検出処理部
6a 仮姿勢指定部
6b 画像取得部
6c 座標検出部
6d 第1姿勢候補推定部
d1 第1推定部
d2 第2推定部
206d 第2姿勢候補推定部
6e 判定部
6f 第1姿勢特定部
206f 第2姿勢特定部
F フレーム画像
M マーカー
100, 200
Claims (11)
前記取得手段により取得された画像における前記特定の被写体の画像領域を構成する複数の点の座標を検出する検出手段と、
前記検出手段により検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の姿勢候補を少なくとも一つ推定する候補推定手段と、
前記候補推定手段により推定された前記姿勢候補のうちの何れか一を前記撮像部に対する前記特定の被写体の姿勢の最適解として特定する特定手段と、
を備えたことを特徴とする被写体検出装置。 Acquisition means for sequentially acquiring images including a specific subject imaged by the imaging unit;
Detecting means for detecting coordinates of a plurality of points constituting the image area of the specific subject in the image acquired by the acquiring means;
Candidate estimating means for estimating at least one posture candidate of the specific subject with respect to the imaging unit based on the coordinates of the plurality of points detected by the detecting means;
Specifying means for specifying any one of the posture candidates estimated by the candidate estimating means as an optimum solution of the posture of the specific subject with respect to the imaging unit;
A subject detection apparatus comprising:
前記検出手段により検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の第1姿勢候補を推定する第1推定手段と、
前記第1推定手段による推定結果に基づいて、前記撮像部に対する前記特定の被写体の前記第1姿勢候補と異なる第2姿勢候補を推定する第2推定手段と、を備え、
前記特定手段は、
前記第1姿勢候補及び前記第2姿勢候補のうち、一方を前記最適解として特定することを特徴とする請求項1に記載の被写体検出装置。 The candidate estimating means includes
First estimation means for estimating a first posture candidate of the specific subject with respect to the imaging unit based on the coordinates of the plurality of points detected by the detection means;
Second estimation means for estimating a second posture candidate different from the first posture candidate of the specific subject with respect to the imaging unit based on an estimation result by the first estimation means,
The specifying means is:
The subject detection apparatus according to claim 1, wherein one of the first posture candidate and the second posture candidate is specified as the optimal solution.
前記第2推定手段は、前記判定手段によって前記第1姿勢候補が正しくないと判定された場合に、前記第2姿勢候補を推定することを特徴とする請求項2に記載の被写体検出装置。 A determination unit for determining whether the first posture candidate estimated by the first estimation unit is correct according to a predetermined determination criterion;
The subject detection apparatus according to claim 2, wherein the second estimation unit estimates the second posture candidate when the determination unit determines that the first posture candidate is not correct.
前記判定手段によって前記第1姿勢候補が正しいと判定された場合に、当該第1姿勢候補を前記最適解として特定する一方で、前記第1姿勢候補が正しくないと判定された場合に、前記第2推定手段により推定された前記第2姿勢候補を前記最適解として特定することを特徴とする請求項3に記載の被写体検出装置。 The specifying means is:
When the determination means determines that the first posture candidate is correct, the first posture candidate is specified as the optimal solution, while the first posture candidate is determined to be incorrect, The subject detection apparatus according to claim 3, wherein the second posture candidate estimated by two estimation means is specified as the optimal solution.
前記判定手段は、前記指定手段によって指定された仮の姿勢に基づいて、前記第1姿勢候補が正しいか否かを判定することを特徴とする請求項3又は4に記載の被写体検出装置。 Further comprising designation means for designating a temporary posture of the specific subject with respect to the imaging unit in advance;
5. The subject detection apparatus according to claim 3, wherein the determination unit determines whether the first posture candidate is correct based on the provisional posture specified by the specification unit.
前記特定手段は、前記候補推定手段により推定された複数の前記姿勢候補のうち、前記指定手段によって指定された仮の姿勢と略一致するものを前記最適解として特定することを特徴とする請求項1に記載の被写体検出装置。 Further comprising designation means for designating a temporary posture of the specific subject with respect to the imaging unit in advance;
The said specifying means specifies the thing substantially agree | coinciding with the temporary attitude | position designated by the said designation | designated means among the several said attitude | position candidates estimated by the said candidate estimation means as the said optimal solution. The subject detection device according to 1.
撮像部により撮像された特定の被写体を含む画像を逐次取得する処理と、
取得された画像における前記特定の被写体の画像領域を構成する複数の点の座標を検出する処理と、
検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の姿勢候補を少なくとも一つ推定する処理と、
推定された前記姿勢候補のうちの何れか一を前記撮像部に対する前記特定の被写体の姿勢の最適解として特定する処理と、
を含むことを特徴とする被写体検出方法。 A subject detection method using a subject detection device,
A process of sequentially acquiring images including a specific subject imaged by the imaging unit;
Processing for detecting coordinates of a plurality of points constituting the image area of the specific subject in the acquired image;
A process of estimating at least one posture candidate of the specific subject with respect to the imaging unit based on the detected coordinates of the plurality of points;
Processing for specifying any one of the estimated posture candidates as an optimal solution of the posture of the specific subject with respect to the imaging unit;
A method for detecting a subject, comprising:
撮像部により撮像された特定の被写体を含む画像を逐次取得する取得手段、
前記取得手段により取得された画像における前記特定の被写体の画像領域を構成する複数の点の座標を検出する検出手段、
前記検出手段により検出された前記複数の点の座標に基づいて、前記撮像部に対する前記特定の被写体の姿勢候補を少なくとも一つ推定する候補推定手段、
前記候補推定手段により推定された前記姿勢候補のうちの何れか一を前記撮像部に対する前記特定の被写体の姿勢の最適解として特定する特定手段、
として機能させることを特徴とするプログラム。 The computer of the subject detection device
Acquisition means for sequentially acquiring images including a specific subject imaged by the imaging unit;
Detecting means for detecting coordinates of a plurality of points constituting the image area of the specific subject in the image acquired by the acquiring means;
Candidate estimating means for estimating at least one posture candidate of the specific subject with respect to the imaging unit based on the coordinates of the plurality of points detected by the detecting means;
A specifying unit that specifies any one of the posture candidates estimated by the candidate estimation unit as an optimal solution of the posture of the specific subject with respect to the imaging unit;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012216635A JP6079102B2 (en) | 2012-09-28 | 2012-09-28 | Subject detection apparatus, subject detection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012216635A JP6079102B2 (en) | 2012-09-28 | 2012-09-28 | Subject detection apparatus, subject detection method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014071619A true JP2014071619A (en) | 2014-04-21 |
JP6079102B2 JP6079102B2 (en) | 2017-02-15 |
Family
ID=50746772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012216635A Expired - Fee Related JP6079102B2 (en) | 2012-09-28 | 2012-09-28 | Subject detection apparatus, subject detection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6079102B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003254716A (en) * | 2002-03-04 | 2003-09-10 | Sony Corp | Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program |
-
2012
- 2012-09-28 JP JP2012216635A patent/JP6079102B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003254716A (en) * | 2002-03-04 | 2003-09-10 | Sony Corp | Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program |
Non-Patent Citations (1)
Title |
---|
JPN6016018132; 森隆司 外2名: '3次元モデルを用いた動画像からの物体の位置・姿勢推定' 電子情報通信学会技術研究報告 PRMU96-60〜67 パターン認識・メディア理解 第96巻 第307号, 19961017, 第1-8頁, 社団法人電子情報通信学会 * |
Also Published As
Publication number | Publication date |
---|---|
JP6079102B2 (en) | 2017-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9558543B2 (en) | Image fusion method and image processing apparatus | |
JP5799928B2 (en) | Threshold setting device, subject detection device, threshold setting method and program | |
JP6467787B2 (en) | Image processing system, imaging apparatus, image processing method, and program | |
KR101379066B1 (en) | Image processing device, image processing method, and recording medium | |
JP5532026B2 (en) | Display device, display method, and program | |
KR100657522B1 (en) | Apparatus and method for out-focusing photographing of portable terminal | |
WO2012114639A1 (en) | Object display device, object display method, and object display program | |
JP5775977B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP5768193B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP2013162287A (en) | Image processing apparatus, image processing method, and program | |
KR102497526B1 (en) | Detecting apparatus, detection control method and computer program stored in recording medium | |
JP6217225B2 (en) | Image collation device, image collation method and program | |
CN104796615B (en) | A kind of big pixel image pickup method, system and the mobile terminal of OIS anti-vibration motor | |
JP2015035041A (en) | Image processing apparatus, image processing method, and program | |
JP2012222617A (en) | Image processing apparatus, image processing method, and program | |
JP5928228B2 (en) | Subject detection apparatus, subject detection method, and program | |
JP5798696B2 (en) | Image processing apparatus, method, recording medium, program, and imaging apparatus | |
JP6079102B2 (en) | Subject detection apparatus, subject detection method, and program | |
JP5906745B2 (en) | Image display device, image display method, and program | |
WO2018079043A1 (en) | Information processing device, image pickup device, information processing system, information processing method, and program | |
US20210397005A1 (en) | Image processing apparatus, head-mounted display, and image displaying method | |
KR20140115974A (en) | Photographing device, photographing method and computer readable medium for storing program | |
JP2016029750A (en) | Imaging apparatus, signal processing method, signal processing program | |
JP6286919B2 (en) | Image processing apparatus, image processing method, and program | |
JP6729583B2 (en) | Image processing apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150612 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160517 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6079102 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |