JP2012128578A - 携帯端末および画像処理方法 - Google Patents
携帯端末および画像処理方法 Download PDFInfo
- Publication number
- JP2012128578A JP2012128578A JP2010278337A JP2010278337A JP2012128578A JP 2012128578 A JP2012128578 A JP 2012128578A JP 2010278337 A JP2010278337 A JP 2010278337A JP 2010278337 A JP2010278337 A JP 2010278337A JP 2012128578 A JP2012128578 A JP 2012128578A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- shooting
- smoothing
- sensor value
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】 外乱などのより、マーカの大きさや歪みを正しく認識することができない場合でも、適切な傾き関係で仮想オブジェクトを合成すること。
【解決手段】 画像解析部103が撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識し、一方でセンサ部104は端末の姿勢を示すセンサ値を検出する。そして、平滑化処理部107は、マーカの撮影方向と、センサ値に基づいた撮影方向とに基づいて、センサ値に基づいた撮影方向に対して平滑化処理を行う。仮想オブジェクト位置決定部109は、平滑化処理部107により平滑化されたセンサ値に基づいた撮影方向を用いて仮想オブジェクトの傾きを補正し、傾きが補正された仮想オブジェクトをマーカの位置に合わせて撮影データに合成する。ディスプレイ部102は、仮想オブジェクトが合成された撮影データを表示する。
【選択図】 図1
【解決手段】 画像解析部103が撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識し、一方でセンサ部104は端末の姿勢を示すセンサ値を検出する。そして、平滑化処理部107は、マーカの撮影方向と、センサ値に基づいた撮影方向とに基づいて、センサ値に基づいた撮影方向に対して平滑化処理を行う。仮想オブジェクト位置決定部109は、平滑化処理部107により平滑化されたセンサ値に基づいた撮影方向を用いて仮想オブジェクトの傾きを補正し、傾きが補正された仮想オブジェクトをマーカの位置に合わせて撮影データに合成する。ディスプレイ部102は、仮想オブジェクトが合成された撮影データを表示する。
【選択図】 図1
Description
本発明は、撮影した撮影データに仮想オブジェクト等の画像データを合成して表示する携帯端末および画像処理方法に関する。
近年において、AR(Augmented Reality:拡張現実)技術を用いたサービスが開発・提供されている。例えば、カメラにより取得した画像中のマーカなどの対象物に対応付けられた付加情報を取得し、取得した付加情報を当該対象物に合成して表示する技術が知られている。この技術では、いわゆる仮想オブジェクトと称される付加情報は、各ユーザの移動端末において、マーカなどの対象物と対応付けて記憶されている。このような技術に共通する技術として、手のひら(肌色部分)を検出して、その部分にキャラクタなどの画像データを合成する技術が知られている(例えば、特許文献1参照)。
しかしながら、マーカが平面的に構成されている場合、その撮影方向によっては、ゆがんで見えたり、傾いて見えたりするものである。そうした場合、携帯端末は、マーカをある傾き方をもって撮影したものと判断することができ、仮想オブジェクトもその傾きにあわせて傾きをもたせるよう加工処理し、加工された仮想オブジェクトをマーカの位置にあわせて合成する。
例えば、図13においてマーカの例を示す。図13(a)では、マーカが外光を受けた場合の例を示しており、黒枠にDと記されたマーカの一部が外光により欠けた状態が示されている。この場合、マーカは斜め方向から撮影されたものと判断される場合がある。
また、図13(b)では、マーカが紙などの柔らかい部材で形成された場合において、風などによりマーカの一部がめくれてしまった場合の例を示している。この例でも、マーカの一部が欠けたものとなる。この場合も同様にマーカは斜め方向から撮影されたものと判断される場合がある。
また、図13(c)では、マーカは手振れにより左右にずれた場合の例を示す。この場合もやはりマーカが歪んでみえ、またはそのサイズを誤認する場合があり、その歪みやサイズ誤認の度合いによっては、斜め方向から撮影されたものと判断されたり、近くから(または遠くから)撮影されたものである場合がある。
このようにマーカが斜めから撮影されたと判断されると、図14に示されるとおり、仮想オブジェクトは、そのマーカの傾きに応じて加工されて、合成処理される。図14(a)では、マーカと仮想オブジェクトが正しい傾き関係で合成された例を示す。図14(b)では、例えば外光によりマーカの一部が欠けてしまった場合、仮想オブジェクトの傾きがずれて合成処理される例を示す。
このようにして、手振れや、外乱(外光や、画像解析対処物の振動など)の影響を受けた結果、マーカの大きさや歪みを正しく認識することができない、という問題が生じる。その結果、正しく仮想オブジェクトを、マーカにあわせて合成することができないという問題がある。
そこで、本発明においては、上述の課題を解決するために、外乱などのより、マーカの大きさや歪みを正しく認識することができない場合でも、適切な傾き関係で仮想オブジェクトを合成することができる携帯端末および画像処理方法を提供することを目的とする。
上述の課題を解決するために、本発明の携帯端末は、撮影データを取り込む撮影手段と、前記撮影手段により取り込まれた撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識する認識手段と、端末の姿勢を示すセンサ値を検出するセンサ値検出手段と、前記認識手段により検出された撮影方向と、前記センサ値検出手段のセンサ値に基づいた撮影方向とに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化手段と、前記平滑化手段により平滑化されたセンサ値に基づいた撮影方向を用いてオブジェクトの傾きを補正する補正手段と、前記補正手段により傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成手段と、前記合成手段によりオブジェクトが合成された撮影データを表示する表示手段と、を備えている。
また、本発明の画像処理方法は、撮影データを取り込む撮影ステップと、前記撮影ステップにおいて取り込まれた撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識する認識ステップと、端末の姿勢を示すセンサ値を検出するセンサ値検出ステップと、前記認識ステップにおいて検出された撮影方向と、前記センサ値検出ステップにおいて検出されたセンサ値に基づいた撮影方向とに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化ステップと、前記平滑化ステップにより平滑化されたセンサ値に基づいた撮影方向を用いてオブジェクトの傾きを補正する補正ステップと、前記補正ステップにおいて傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成ステップと、前記合成ステップにおいてオブジェクトが合成された撮影データを表示する表示ステップと、を備えている。
この発明によれば、撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識し、一方で端末の姿勢を示すセンサ値を検出し、認識されたマーカの撮影方向と、センサ値に基づいた撮影方向とに基づいて、センサ値に基づいた撮影方向に対して平滑化処理を行う。そして、平滑化されたセンサ値に基づいた撮影方向を用いてオブジェクトの傾きを補正し、傾きが補正されたオブジェクトをマーカの位置に合わせて撮影データに合成し、オブジェクトが合成された撮影データを表示する。これにより、外光などによりマーカの傾きを正しく認識することができない場合でも、マーカの傾きに応じて合成対象となるオブジェクトの傾きを決定して、合成することができる。
また、本発明の携帯端末において、前記平滑化手段は、前記認識手段により認識されたマーカの撮影方向、および前記センサ値検出手段のセンサ値に基づいた撮影方向のそれぞれの検出履歴における変遷状態に基づいて、平滑化処理を行うことが好ましい。
この発明によれば、マーカの撮影方向、およびセンサ値に基づいた撮影方向のそれぞれの検出履歴における変遷状態に基づいて平滑化処理を行うことで、精度よく平滑化処理を行うことができる。
また、本発明の携帯端末において、前記平滑化手段は、前記センサ値検出手段により検出されたセンサ値の検出履歴における変遷状態が、前記認識手段により認識されたマーカの撮影方向の検出履歴における変遷状態と一致していない場合、平滑化処理を行うことが好ましい。
この発明によれば、センサ値の検出履歴における変遷状態が、マーカ認識に基づいた撮影方向の検出履歴における変遷状態と一致していない場合、平滑化処理を行う。これにより、マーカ認識に誤認識があったと判断することができ、平滑化処理により、その誤差を小さいものとし、オブジェクトの傾き補正に反映させることができる。
また、本発明の携帯端末において、前記センサ値検出手段により検出されたセンサ値に基づいた撮影方向と、前記認識手段の解析結果に基づいた撮影方向との差分が大きいほど、大きくなる平滑化パラメータを用いて平滑化処理を行うことが好ましい。
この発明によれば、検出されたセンサ値に基づいた撮影方向と、解析結果に基づいた撮影方向との差分が大きいほど、大きくなる平滑化パラメータを用いて平滑化処理を行うことで、適切な平滑化処理を行うことができ、マーカの認識誤差による傾き誤差をより適切に修正することができる。
また、本発明の携帯端末は、撮影データを取り込む撮影手段と、前記撮影手段により取り込まれた撮影データ中のマーカおよび前記マーカより大なる解析対象物を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識する認識手段と、前記認識手段により認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化手段と、前記平滑化手段により平滑化されたマーカに基づいた撮影方向を用いてオブジェクトの傾きを補正する補正手段と、前記補正手段により傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成手段と、前記合成手段によりオブジェクトが合成された撮影データを表示する表示手段と、を備えている。
また、本発明の画像処理方法は、撮影データを取り込む撮影ステップと、前記撮影ステップにおいて取り込まれた撮影データ中のマーカおよび前記マーカより大なる解析対象物を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識する認識ステップと、前記認識ステップにおいて認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化ステップと、前記平滑化ステップにおいて平滑化されたマーカに基づいた撮影方向を用いてオブジェクトの傾きを補正する補正ステップと、前記補正ステップにおいて傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成ステップと、前記合成ステップにおいてオブジェクトが合成された撮影データを表示する表示ステップと、を備えている。
この発明によれば、撮影データ中のマーカおよびマーカより大なる解析対象物を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識し、認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、前記マーカの撮影方向に対して平滑化処理を行い、平滑化されたマーカに基づいた撮影方向を用いてオブジェクトの傾きを補正する。そして、傾きが補正されたオブジェクトをマーカの位置に合わせて撮影データに合成して、オブジェクトが合成された撮影データを表示することができる。
これにより、外光などによりマーカの傾きを正しく認識することができない場合でも、マーカの傾きに応じて合成対象となるオブジェクトの傾きを決定して、合成することができる。さらに、センサなどデバイスを備える必要が無く、その構成を簡易なものとすることができる。
本発明によれば、外光などによりマーカの傾きを正しく認識することができない場合でも、マーカの傾きに応じて合成対象となるオブジェクトの傾きを決定して、合成することができる。
添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
図1は、本実施形態の携帯端末100の機能を示すブロック図である。図1に示すとおり、携帯端末100は、撮影部101(撮影手段)、ディスプレイ部102(表示手段)、画像解析部103(認識手段)、センサ部104(センサ値検出手段)、比較部105、平滑化パラメータDB部106、平滑化処理部107(平滑化手段)、仮想オブジェクト格納部108、および仮想オブジェクト位置決定部109(補正手段、合成手段)を含んで構成されている。この携帯端末100は、図2に示すハードウェアにより構成されている。
図2は、携帯端末100のハードウェア構成図である。図1に示される携帯端末100は、物理的には、図2に示すように、CPU11、主記憶装置であるRAM12及びROM13、入力デバイスであるキーボード及びマウス等の入力装置14、ディスプレイ等の出力装置15、ネットワークカード等のデータ送受信デバイスである通信モジュール16、ハードディスク等の補助記憶装置17などを含むコンピュータシステムとして構成されている。図1において説明した各機能は、図2に示すCPU11、RAM12等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU11の制御のもとで入力装置14、出力装置15、通信モジュール16を動作させるとともに、RAM12や補助記憶装置17におけるデータの読み出し及び書き込みを行うことで実現される。以下、図2に示す機能ブロックに基づいて、各機能ブロックを説明する。
撮影部101は、カメラなどにより撮影された撮影データを取り込む部分である。
ディスプレイ部102は、撮影部101により取り込まれた撮影データを表示する部分である。
画像解析部103は、撮影部101により取り込まれた撮影データを画像解析する部分である。具体的には、画像解析部103は、撮影データの中にマーカの有無を認識し、認識したマーカの大きさ、歪みの量を解析する。この解析対象となるマーカの大きさや、マーカの外観(正面から見た場合の概観)などを示した情報は、予め記憶部(図示せず)に記憶されている。これら情報を利用することにより、画像解析部103は、マーカまでの距離や、マーカの歪みの度合いなどを把握することができ、どの方向からマーカは撮影されたのか把握することができる。この画像解析の方法は、一般的な技術的手法を用いたものである。そして、後述する仮想オブジェクト位置決定部109は、マーカの撮影方向および撮影距離に基づいて、仮想オブジェクトのサイズ・傾き(姿勢)を決定することができる。
さらに、画像解析部103は、マーカを正しく認識することができない場合がある。例えば、外光や、手ぶれなどによりマーカの歪み・大きさを誤認識する場合がある。図3に、誤認識する場合のパターンを示す。図3に示されるように、外光などによりマーカの一部が白くなる(いわゆる白ボケ)状態がある。例えば、図3(a)に示されるように、マーカの左上の一部が白くなっている場合には、画像解析部103は、マーカを斜め右15度ぐらいの方向からみていると誤認識してしまう場合がある。すなわち、図3(b)で示されるようにマーカを誤認識してしまう。
また、図3(b)に示されるように、マーカの左側の大部分が白くなってしまっている場合には、画像解析部103は、マーカを斜め左20度ぐらいの方向からみていると誤認識してしまう場合がある。すなわち、図3(d)で示されるようにマーカを誤認識してしまう。
これを防止するために、画像解析部103では、平滑化処理のための情報として、図4に示されるように、解析結果の情報を所定時間単位に記憶しておく。図4は、画像解析部103により解析されたマーカの解析結果(撮影方向)を示すグラフである。図4に示される例では、携帯端末100がマーカを正面の上方45度の角度で撮影した場合の解析結果である。図4に示されるように、撮影データにおけるマーカを画像解析することにより、おおむね45度の角度から撮影されたことが分かるため、撮影方向として45度と認識することができる。そして、この撮影方向を所定時間単位で記憶する。図4では、手ぶれなどが原因で、45度を中心に上下にぶれている様子を示している。ここで記憶される撮影方向は、後述する比較部105において、平滑化処理の要否を判断するための情報として利用される。なお、図4では、解析結果として撮影方向として撮影角度を用いているが、これに限るものではなく、撮影方位またはマーカまでに距離などを用いてもよいし、またこれらを組み合わせたものとしてもよい。これにより、精度のよい解析結果とすることができる。
センサ部104は、角度センサ、ジャイロセンサ、加速度センサ、地磁気センサ、および位置センサ(GPSモジュール)などから構成される部分であり、撮影部101のマーカに対する撮影方向を把握するための情報として、センサ値を所定時間ごとに取得して、そのセンサ値に基づいて撮影方向を算出して、この撮影方向を時系列で記憶する部分である。図5は、センサ部104により検出された撮影方向の所定時間単位における変遷を示すグラフである。このようにして、所定時間ごとにセンサ値は順次取得され、記憶されることになる。ここで記憶された撮影方向は、後述する比較部105において、平滑化処理の要否を判断するための情報として利用される。なお、センサ部104は、撮影方向として、撮影角度のほかに、撮影方位を検出し、時系列で記憶するようにしてもよい。
比較部105は、画像解析部103において取得され、記憶された解析結果(撮影方向)と、センサ部104において取得され記憶されたセンサ値に基づいて算出された撮影方向とを比較する部分である。この比較部105において、同一時間帯における、画像解析部103の解析結果とセンサ部104のセンサ値との比較を行い、両者が一致している場合には、画像解析結果は正しいと判断し、一致していない場合には、画像解析結果は誤っていると判断する。
図6は、比較部105における比較処理の具体例を示す説明図である。図6(a)は、画像解析部103の解析結果のグラフを示し、図6(b)は、センサ部104のセンサ値のグラフを示す。図6(a)における符号X1で示す部分と、図6(b)における符号X2で示す部分とは、ほぼ一致していると、比較部105においては判断することができる。よって、この部分(時間帯)については、解析結果は正しいと判断することができる。また、図6(a)における符号Y1で示す部分と、図6(b)における符号Y2で示す部分とは、一致していない。よって、この部分(時間帯)については、解析結果は正しくないと判断することができる。なお、本実施形態では、ある程度幅を持った時間帯における複数の撮影方向を利用したが、ある時間における一の撮影方向を利用してもよい。
この比較部105の処理の詳細についてさらに説明する。図7は、比較部105の処理を示すフローチャートである。まず、比較部105により、画像解析部103の解析結果が取得される(S101)。そして、画像解析部103の解析結果において、前回の結果から変化の有無が判断される(S102)。すなわち直近に取得された解析結果に基づいた撮影方向と、現に取得した解析結果に基づいた撮影方向とに変化があったか判断される。なお、ある時間における一の撮影方向を比較してもよいし、ある時間帯における複数の撮影方向を比較してもよい。
そして、ここで変化があると判断されると、同一時間帯(または同一時間)における、センサ部104のセンサ値に基づいた撮影方向と、画像解析部103の解析結果に基づいた撮影方向とが比較される(S103)。ここで、撮影方向が一致すると判断されると、比較結果パターン(1)と判断される(S105)。また、撮影方向が不一致であると判断されると、比較結果パターン(2)と判断される(S106)。
また、S102において、撮影方向に変化がないと判断されると、同一時間における、センサ部104のセンサ値に基づいた撮影方向と、画像解析部103の解析結果に基づいた撮影方向とが比較される(S104)。ここで撮影方向が一致すると判断されると、比較結果パターン(3)と判断される(S107)。また、撮影方向が不一致であると判断されると、比較結果パターン(4)と判断される(S108)。
このようにして、比較部105は、比較結果パターンを得ることができ、平滑化処理部107は、比較結果パターンに基づいて予め定められた平滑化パラメータを用いて、平滑化処理を行う。
平滑化パラメータDB部106は、比較結果パターンごとに対応づけられた平滑化パラメータを記憶する部分であり、例えば、図8に示されるデータベースを記憶する。図8は、平滑化パラメータDB部106のデータベースを示す図である。
図8に示されるように、比較結果パターンごとに、重み付け係数A(t)および遡り値Nが記憶されている。重み付け係数A(t)および遡り地Nについては、後述する。なお、パターン(4)においては、以下の理由により平滑化処理しないことが好ましい。すなわち、パターン(4)となるケースとして、以下の場合がある。まず、一つ目のケースは、携帯端末100をマーカに対して固定して保持する。その結果、画像解析により算出された値(撮影方向)には変化はないが、センサ部が外乱による影響によって誤差が発生する場合があり得る。よって、画像解析による算出結果に変化はないが、センサ部104により得られた結果が不一致となる。
また、二つ目のケースとして、携帯端末100をマーカに対して動かす。本来、画像解析結果によって得られる値は変化することになるが、そのマーカの動きと同時に照明などの影響を受ける場合がある。その場合、結果的に、画像解析によって得られる値の変化がない、場合があり得る。一方、携帯端末100は動かしているのでセンサの値は変化する。よって、画像解析による算出結果に変化はないが、センサ部104により得られた結果が不一致となる。
これらケース考えると、照明などの外乱などによって、画像解析結果に変化がない場合は著しく無いと判断できる。よって、携帯端末100にマーカを固定するケースしか、現実的にはあり得ず、センサ部104が誤差を起していると判断することができる。よって、平滑化処理不要という結論になる。
また、センサ部104のセンサ値に基づいた撮影方向と、画像解析部103の解析結果に基づいた撮影方向との差分に応じて平滑化のパラメータの大きさを変えるようにしてもよい。すなわち、その差分が大きいほど、画像解析結果により算出された撮影方向の信頼性は低い(誤差が大きい)と判断できる。よって、その誤差を小さくするため、重み係数A(t)および遡り値Nを大きく設定することにより、過去に得た撮影方向の影響を大きくする。
平滑化処理部107は、比較部105において比較された結果に基づいて定められた平滑化パラメータ(重み係数A(t)および遡り値N)を用いて、画像解析部103の解析結果に基づいた撮影方向に対して平滑化処理を行う部分である。具体的には、以下の式(1)の演算処理を行う。
ここでは、ある時間tの撮影方向をf(t)とし、ある時間tの平滑化した撮影方向をF(t)とする。また、どこまで遡ってセンサ値を利用するかを示す値をnとする。例えば、ある時間tに、前回の撮影方向を利用する場合はn=1となる。遡った撮影方向に対する重み付け係数をa(n)とする。iは、tを基準にして、遡った過去の撮影方向を示す。そして、F(t)の値から仮想オブジェクトをディスプレイ部102に表示するための傾き(姿勢)をX(t)とする。
ここでは、ある時間tの撮影方向をf(t)とし、ある時間tの平滑化した撮影方向をF(t)とする。また、どこまで遡ってセンサ値を利用するかを示す値をnとする。例えば、ある時間tに、前回の撮影方向を利用する場合はn=1となる。遡った撮影方向に対する重み付け係数をa(n)とする。iは、tを基準にして、遡った過去の撮影方向を示す。そして、F(t)の値から仮想オブジェクトをディスプレイ部102に表示するための傾き(姿勢)をX(t)とする。
図8における平滑化パラメータDB部106では、パターン(2)には、重み係数A(t)として0.2、遡り値Nとして1が設定されている。そして、これを上式(1)に当てはめると、
F(t)=f(t)+a(t-1)*f(t-1) =f(t)+0.2*f(t-1)
となる。
F(t)=f(t)+a(t-1)*f(t-1) =f(t)+0.2*f(t-1)
となる。
仮想オブジェクト格納部108は、仮想オブジェクトを記憶する部分である。図9に仮想オブジェクトを記憶する管理テーブルを示す。この管理テーブルでは、仮想オブジェクトのイメージデータのファイル名と、目印となるマーカの情報を対応付けて記憶している。この管理テーブルに基づいて、どのマーカの近傍に仮想オブジェクトを合成させるかを、仮想オブジェクト位置決定部109は判断することができる。
仮想オブジェクト位置決定部109は、撮影データ中に含まれているマーカに対応する仮想オブジェクトを仮想オブジェクト格納部108から読み出し、当該マーカの近傍の位置、若しくはマーカに基づいて予め定められた位置を決定して、当該位置に仮想オブジェクトを配置するように、仮想オブジェクトと撮影データとを合成する部分である。この合成処理に際して、マーカの撮影方向に応じて、仮想オブジェクトの傾き(姿勢)を補正する。その具体例について、マーカの認識結果に応じた仮想オブジェクトの傾きで合成された様子を模式的に示した図10を用いて説明する。図10(a)は、マーカのほぼ正面の斜め45度の上方から撮影した場合の、仮想オブジェクトの傾きを示す。このように、画像解析部103において解析された解析結果(角度情報)にあわせて仮想オブジェクトの傾きをほぼ正面の斜め45度の上方から見たとおりの仮想オブジェクトを表すことができる。
同様に、図10(b)は、マーカのほぼ正面の斜め20度の上方から撮影した場合の、仮想オブジェクトの傾きを示す。この場合も同様に、マーカの傾きにあわせて、仮想オブジェクトの傾きを補正することができる。
図10(c)においては、マーカの斜め左方向で、かつ斜め45度の上方から撮影した場合の、仮想オブジェクトの傾きを示す。この場合も同様に、マーカの傾きにあわせて、仮想オブジェクトの傾きを補正することができる。
さらに、仮想オブジェクト位置決定部109は、平滑化処理部107により平滑化処理された認識結果に基づいて、すなわちマーカの歪み度合いに応じて、仮想オブジェクトの傾き(姿勢)を補正し、その補正した状態の仮想オブジェクトを撮影データに合成する。
このように補正された仮想オブジェクトが撮影データに合成されてディスプレイ部102に表示される。
このように構成された携帯端末100は、撮影データ中に含まれているマーカに基づいて仮想オブジェクトの傾き等を補正して、撮影データに合成して表示することができる。
つぎに、上述のとおり構成された携帯端末100の処理について説明する。図11は、携帯端末100の処理を示すフローチャートである。
まず、撮影部101が起動され、撮影データが取り込まれる(S201)。そして、撮影データに含まれているマーカが、画像解析部103により解析されて、マーカの大きさ・歪みなどの解析結果に基づいて撮影方向が計算される(S202)。また、センサ部104により、センサ値が取得される(S203)。
そして、画像解析部103の解析結果と、センサ部104のセンサ値とが、比較部105により比較される(S205)。この比較の結果、パターン(2)であると判断されると(S205:パターン(2))、平滑化パラメータDB部106から、平滑化パラメータである重み係数A(t)および遡り値Nが読み出される(S206)。
そして、平滑化処理部107により、重み係数A(t)および遡り値Nを用いて、画像解析部103から得られた解析結果に対する平滑化処理が行われる(S207)。平滑化処理された解析結果に基づいて、仮想オブジェクト位置決定部109により、仮想オブジェクトの傾き(姿勢)が補正され、対応するマーカの近傍に仮想オブジェクトが配置されるように、撮影データに対する合成処理が行われる。そして、ディスプレイ部102に、適正な姿勢の仮想オブジェクトが合成された撮影データが表示される(S208)。
なお、パターンによって、仮想オブジェクトの合成位置を構成するタイミングを変えるようにすると、消費電力を低減させる上では、好適である。
例えば、比較結果のパターンとして、パターン(3)及びパターン(4)であると判断される場合には、画像解析部103の解析結果において、前回の結果から変化がないため、ディスプレイ部102に合成される仮想オブジェクトの合成位置の変化は小さい。このため、パターン(3)及びパターン(4)と判断される場合には、ディスプレイ部102に仮想オブジェクトの合成位置を更新する時間間隔は長くしてもよい。
すなわち、所定の基準値T1を定めておき、S205において比較結果のパターンとしてパターン(3)または(4)であると判断されると、比較部105は、S208に移行する前に前回更新した時間から所定の基準値T1で定める時間が経過したかを判断し、経過した場合には、S208における合成処理が行われる。経過していない場合には、合成処理は行われない。
一方、比較結果のパターンとして、パターン(1)及びパターン(2)と判断される場合は、画像解析部103の解析結果において、前回の結果から変化があるため、ディスプレイ部102に合成される仮想オブジェクトの合成位置の変化は大きい。このため、パターン(1)またはパターン(2)と判断される場合には、ディスプレイ部102に仮想オブジェクトの合成位置を更新する時間間隔は短くしてもよい。例えば、所定の基準値T2(<T1)を定めておき、S205において比較結果のパターンとしてパターン(1)であると判断されると、S208に移行する前に前回更新した時間から所定の基準値T2で定める時間が経過したかを判断し、経過した場合には、S208における合成処理を行う。経過していない場合には、合成処理は行わない。
同様に、S205において、比較結果のパターンとしてパターン(2)であると判断されると、S206の処理の前に、比較部105は、前回更新した時間から所定の基準値T2で定める時間が経過したかを判断し、経過した場合には、S206における抽出処理、その後のS207における平滑化処理が行われる。経過していない場合には、これら抽出処理、平滑化処理は行われない。
このように、仮想オブジェクトの合成位置を更新する時間間隔を変化させることにより、消費電力を低減させることも可能となる。なお、合成位置の更新する時間は、仮想オブジェクト位置決定部109において記憶されてもよいし、比較部105において、比較処理をした時間として記憶されてもよい。
このようにして、平滑化処理されることにより、マーカに対する認識誤りがあったとしても、適正な傾きをもった仮想オブジェクトを撮影データに合成処理することができる。
つぎに、本実施形態の携帯端末100の変形例について図12を用いて説明する。上述本実施形態の携帯端末100では、マーカの傾きに応じて、仮想オブジェクトの傾きを補正する際に、センサ部104のセンサ値を利用した。しかしながら、センサ部104のセンサ値を利用することに限定するものではない。図12は、マーカよりはるかに大きい机などの対象物を認識した場合の撮影データの様子を示した説明図である。図12に示されるとおり、机などの解析対象物を認識するともにその傾きを算出し、算出された解析対象物の傾きを用いて、仮想オブジェクトの傾きを補正する。この対象物である机に対する傾きなどは、予め机を登録しておいてもよいし、机全体や、机のエッジ部分を認識することにより、机に対する撮影方向を認識することができる。これは対象物を認識するための画像処理の一般的な手法を用いればよい。
そして、この対象物に対する撮影方向と、マーカに対する撮影方向とを比較することにより、マーカに対する解析結果の正誤を判断し、その判断によって、平滑化処理の要否を判断することができる。これにより、センサ部104を不要とし、簡易な構成となる。
つぎに、本実施形態の携帯端末100の作用効果について説明する。本実施形態の携帯端末100において、画像解析部103が撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識し、一方でセンサ部104は端末の姿勢を示すセンサ値を検出する。そして、平滑化処理部107は、画像解析部103において認識されたマーカの撮影方向と、センサ部104において検出されたセンサ値に基づいた撮影方向とに基づいて、センサ値に基づいた撮影方向に対して平滑化処理を行う。仮想オブジェクト位置決定部109は、仮想オブジェクト格納部108から仮想オブジェクトを読み出し、平滑化処理部107により平滑化されたセンサ値に基づいた撮影方向を用いて仮想オブジェクトの傾きを補正し、傾きが補正された仮想オブジェクトをマーカの位置に合わせて撮影データに合成する。ディスプレイ部102は、仮想オブジェクトが合成された撮影データを表示する。これにより、外光などによりマーカの傾きを正しく認識することができない場合でも、マーカの傾きに応じて合成対象となる仮想オブジェクトの傾きを決定して、合成することができる。なお、ここでは撮影方向を例に説明したが、これに限るものではなく、撮影方向やマーカまでの撮影距離などを組み合わせたものとしてもよい。
また、本実施形態の携帯端末100において、画像解析部103は、認識したマーカの撮影方向を時系列で記憶しておき、センサ部104は、検出したセンサ値に基づいて算出された撮影方向を時系列で記憶しておく。そして、平滑化処理部107は、マーカの撮影方向、およびセンサ値に基づいた撮影方向のそれぞれの検出履歴における変遷状態に基づいて平滑化処理を行うことで、精度よく平滑化処理を行うことができる。
また、この携帯端末100において、画像解析部103により認識されたマーカの撮影方向と、センサ値に基づいた撮影方向との差分が大きいほど、大きい平滑化パラメータ(例えば、重み係数A(t)および遡り値N)を用いて、平滑化処理部107は、平滑化処理を行うことができる。よって、仮想オブジェクトの傾きをマーカの現実の傾きにあったものとすることができる。
また、この携帯端末100において、平滑化処理部107は、センサ部104により検出されたセンサ値の検出履歴における変遷状態の変化量に応じて、大きくなる平滑化パラメータを用いて平滑化処理を行うことで、適切な平滑化処理を行うことができ、マーカの認識誤差による傾き誤差をより適切に修正することができる。
また、変形例における携帯端末100において、画像解析部103は、撮影データ中のマーカおよびマーカより大なる解析対象物(例えば、机など)を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識する。そして、平滑化処理部107は、画像解析部103により認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、マーカの撮影方向に対して平滑化処理を行う。仮想オブジェクト位置決定部109は、仮想オブジェクトを仮想オブジェクト格納部108から読み出し、平滑化されたマーカの撮影方向を用いて仮想オブジェクトの傾きを補正する。そして、傾きが補正された仮想オブジェクトをマーカの位置に合わせて撮影データに合成して、仮想オブジェクトが合成された撮影データを表示することができる。
これにより、外光などによりマーカの傾きを正しく認識することができない場合でも、マーカの傾きに応じて合成対象となる仮想オブジェクトの傾きを決定して、合成することができる。さらに、センサなどデバイスを備える必要が無く、その構成を簡易なものとすることができる。
100…携帯端末、101…撮影部、102…ディスプレイ部、103…画像解析部、104…センサ部、105…比較部、106…平滑化パラメータDB部、107…平滑化処理部、108…仮想オブジェクト格納部、109…仮想オブジェクト位置決定部。
Claims (7)
- 撮影データを取り込む撮影手段と、
前記撮影手段により取り込まれた撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識する認識手段と、
端末の姿勢を示すセンサ値を検出するセンサ値検出手段と、
前記認識手段により検出された撮影方向と、前記センサ値検出手段のセンサ値に基づいた撮影方向とに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化手段と、
前記平滑化手段により平滑化されたセンサ値に基づいた撮影方向を用いてオブジェクトの傾きを補正する補正手段と、
前記補正手段により傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成手段と、
前記合成手段によりオブジェクトが合成された撮影データを表示する表示手段と、
を備える携帯端末。 - 前記平滑化手段は、
前記認識手段により認識されたマーカの撮影方向、および前記センサ値検出手段のセンサ値に基づいた撮影方向のそれぞれの検出履歴における変遷状態に基づいて、平滑化処理を行う
ことを特徴とする請求項1に記載の携帯端末。 - 前記平滑化手段は、
前記センサ値検出手段により検出されたセンサ値の検出履歴における変遷状態が、前記認識手段により認識されたマーカの撮影方向の検出履歴における変遷状態と一致していない場合、平滑化処理を行うことを特徴とする請求項1から3のいずれか一項に記載の携帯端末。 - 前記センサ値検出手段により検出されたセンサ値に基づいた撮影方向と、前記認識手段の解析結果に基づいた撮影方向との差分が大きいほど、大きくなる平滑化パラメータを用いて平滑化処理を行うことを特徴とする請求項1から3のいずれか一項に記載の携帯端末。
- 撮影データを取り込む撮影手段と、
前記撮影手段により取り込まれた撮影データ中のマーカおよび前記マーカより大なる解析対象物を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識する認識手段と、
前記認識手段により認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化手段と、
前記平滑化手段により平滑化されたマーカに基づいた撮影方向を用いてオブジェクトの傾きを補正する補正手段と、
前記補正手段により傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成手段と、
前記合成手段によりオブジェクトが合成された撮影データを表示する表示手段と、
を備える携帯端末。 - 撮影データを取り込む撮影ステップと、
前記撮影ステップにおいて取り込まれた撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識する認識ステップと、
端末の姿勢を示すセンサ値を検出するセンサ値検出ステップと、
前記認識ステップにおいて検出された撮影方向と、前記センサ値検出ステップにおいて検出されたセンサ値に基づいた撮影方向とに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化ステップと、
前記平滑化ステップにより平滑化されたセンサ値に基づいた撮影方向を用いてオブジェクトの傾きを補正する補正ステップと、
前記補正ステップにおいて傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成ステップと、
前記合成ステップにおいてオブジェクトが合成された撮影データを表示する表示ステップと、
を備える画像処理方法。 - 撮影データを取り込む撮影ステップと、
前記撮影ステップにおいて取り込まれた撮影データ中のマーカおよび前記マーカより大なる解析対象物を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識する認識ステップと、
前記認識ステップにおいて認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化ステップと、
前記平滑化ステップにおいて平滑化されたマーカに基づいた撮影方向を用いてオブジェクトの傾きを補正する補正ステップと、
前記補正ステップにおいて傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成ステップと、
前記合成ステップにおいてオブジェクトが合成された撮影データを表示する表示ステップと、
を備える画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278337A JP2012128578A (ja) | 2010-12-14 | 2010-12-14 | 携帯端末および画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278337A JP2012128578A (ja) | 2010-12-14 | 2010-12-14 | 携帯端末および画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012128578A true JP2012128578A (ja) | 2012-07-05 |
Family
ID=46645544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010278337A Pending JP2012128578A (ja) | 2010-12-14 | 2010-12-14 | 携帯端末および画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012128578A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015148957A (ja) * | 2014-02-06 | 2015-08-20 | 富士通株式会社 | 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム |
JP2020177347A (ja) * | 2019-04-16 | 2020-10-29 | 日産自動車株式会社 | 情報処理装置及び情報処理方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002259992A (ja) * | 2001-03-06 | 2002-09-13 | Mixed Reality Systems Laboratory Inc | 画像処理装置およびその方法並びにプログラムコード、記憶媒体 |
JP2003279310A (ja) * | 2002-03-22 | 2003-10-02 | Canon Inc | 位置姿勢補正装置、及び位置姿勢補正方法 |
JP2005010998A (ja) * | 2003-06-18 | 2005-01-13 | Olympus Corp | 情報呈示装置及び情報呈示方法 |
JP2008065807A (ja) * | 2006-08-11 | 2008-03-21 | Canon Inc | 指標配置情報計測装置および方法 |
JP2010273839A (ja) * | 2009-05-28 | 2010-12-09 | Nintendo Co Ltd | ゲームプログラム及びゲーム装置 |
-
2010
- 2010-12-14 JP JP2010278337A patent/JP2012128578A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002259992A (ja) * | 2001-03-06 | 2002-09-13 | Mixed Reality Systems Laboratory Inc | 画像処理装置およびその方法並びにプログラムコード、記憶媒体 |
JP2003279310A (ja) * | 2002-03-22 | 2003-10-02 | Canon Inc | 位置姿勢補正装置、及び位置姿勢補正方法 |
JP2005010998A (ja) * | 2003-06-18 | 2005-01-13 | Olympus Corp | 情報呈示装置及び情報呈示方法 |
JP2008065807A (ja) * | 2006-08-11 | 2008-03-21 | Canon Inc | 指標配置情報計測装置および方法 |
JP2010273839A (ja) * | 2009-05-28 | 2010-12-09 | Nintendo Co Ltd | ゲームプログラム及びゲーム装置 |
Non-Patent Citations (6)
Title |
---|
CSND200900673007; 遠藤隆明, 外3名: '"複合現実感におけるカメラ位置姿勢推定の安定化とその考察"' 画像ラボ 第20巻, 第10号, 20091010, p.42-49, 日本工業出版株式会社 * |
CSNG200800584008; 遠藤隆明, 外3名: '"複合現実感におけるカメラ位置姿勢推定の安定化とその考察"' 日本バーチャルリアリティ学会論文誌 第13巻, 第2号, 20080630, p.195-205, 特定非営利活動法人日本バーチャルリアリティ学会 * |
CSNJ201310039208; 関山友輝, 外3名: '"拡張現実感のためのハイブリッドトラッキング手法のシミュレーション評価"' ヒューマンインタフェースシンポジウム2004 論文集 「あいだ」を「つなぐ」インタフェース [CD- , 20041006, p.977-982 * |
JPN6014024253; 遠藤隆明, 外3名: '"複合現実感におけるカメラ位置姿勢推定の安定化とその考察"' 日本バーチャルリアリティ学会論文誌 第13巻, 第2号, 20080630, p.195-205, 特定非営利活動法人日本バーチャルリアリティ学会 * |
JPN6014024254; 遠藤隆明, 外3名: '"複合現実感におけるカメラ位置姿勢推定の安定化とその考察"' 画像ラボ 第20巻, 第10号, 20091010, p.42-49, 日本工業出版株式会社 * |
JPN6014024255; 関山友輝, 外3名: '"拡張現実感のためのハイブリッドトラッキング手法のシミュレーション評価"' ヒューマンインタフェースシンポジウム2004 論文集 「あいだ」を「つなぐ」インタフェース [CD- , 20041006, p.977-982 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015148957A (ja) * | 2014-02-06 | 2015-08-20 | 富士通株式会社 | 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム |
JP2020177347A (ja) * | 2019-04-16 | 2020-10-29 | 日産自動車株式会社 | 情報処理装置及び情報処理方法 |
JP7214548B2 (ja) | 2019-04-16 | 2023-01-30 | 日産自動車株式会社 | 情報処理装置及び情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5480777B2 (ja) | オブジェクト表示装置及びオブジェクト表示方法 | |
CN107124543B (zh) | 一种拍摄方法及移动终端 | |
WO2012051040A1 (en) | Text-based 3d augmented reality | |
JP7102103B2 (ja) | 携帯型の情報処理装置及び当該情報処理装置を用いた方法及びプログラム | |
JP6208094B2 (ja) | 情報処理装置、情報処理システム、情報処理方法及びそのプログラム | |
JP2011119997A (ja) | 画像処理装置および画像処理方法 | |
JP2016123044A (ja) | 被写体追跡装置、その制御方法およびプログラム | |
US9311522B2 (en) | Apparatus and method for improving face recognition ratio | |
JP6107372B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
WO2022111461A1 (zh) | 识别方法、装置及电子设备 | |
JP4145014B2 (ja) | 画像処理装置 | |
JP2012128578A (ja) | 携帯端末および画像処理方法 | |
US20180120934A1 (en) | Non-transitory computer-readable storage medium, calibration device, and calibration method | |
CN112132764A (zh) | 脸型处理方法、装置、用户终端和计算机可读存储介质 | |
JP7028729B2 (ja) | 物体追跡装置、物体追跡システム、および物体追跡方法 | |
JP6092371B2 (ja) | 電子機器および画像処理方法 | |
JP2017120455A (ja) | 情報処理装置、プログラム及び制御方法 | |
JP4321251B2 (ja) | 合成画像を生成・表示する装置及び方法 | |
JP5662787B2 (ja) | 携帯端末および画像処理方法 | |
JP2014049023A (ja) | 入力装置 | |
JP6933125B2 (ja) | 情報処理装置,撮影ガイド表示プログラム,撮影ガイド表示方法 | |
JP5223739B2 (ja) | 携帯式文字認識装置、文字認識プログラム及び文字認識方法 | |
US9697419B2 (en) | Information processing apparatus, non-transitory storage medium encoded with computer readable information processing program, information processing system, and information processing method | |
JP2008072322A (ja) | 携帯情報端末、及びコンテンツ情報の取得/操作方法、並びにこの方法のプログラム | |
JP5636966B2 (ja) | 誤差検出装置及び誤差検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130816 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140617 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141014 |