JP4773794B2 - 新旧映像座標統合装置 - Google Patents
新旧映像座標統合装置 Download PDFInfo
- Publication number
- JP4773794B2 JP4773794B2 JP2005303952A JP2005303952A JP4773794B2 JP 4773794 B2 JP4773794 B2 JP 4773794B2 JP 2005303952 A JP2005303952 A JP 2005303952A JP 2005303952 A JP2005303952 A JP 2005303952A JP 4773794 B2 JP4773794 B2 JP 4773794B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- image
- dimensional
- unit
- reference point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010354 integration Effects 0.000 title claims description 90
- 238000004364 calculation method Methods 0.000 claims description 117
- 230000000052 comparative effect Effects 0.000 claims description 15
- 239000013598 vector Substances 0.000 description 83
- 238000000034 method Methods 0.000 description 42
- 238000012545 processing Methods 0.000 description 30
- 230000008859 change Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 238000009826 distribution Methods 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
ところが、従来のカーナビゲーション装置においては、グラフィクスデータからなる地図を画像表示のベースとしているため、その地図上に表示されるマーカによって自車位置を特定することはできるものの、実際の風景についてはその地図データに予め記述されているものしか表示されない。このため、例えば見過ごしやすい交差点などの周囲の状況を通過前の早い時期に的確に把握することは困難であった。また、通常地図データには交差点名、店などのデータは限定された物しか入っておらず、利用者にとって必ずしも使いやすいものではなかった。
このようなナビゲーション装置によれば、従来からのカーナビゲーション装置にビデオデータを扱う機能を設け、前もって撮影した風景映像を地図映像として自車位置などに対応させて表示できるようにしたことにより、実際の周囲の状況を通過前の早い時期にリアルな映像で利用者に提示できるようになり、利用者にとってより使いやすい画像を提供することが可能となった。
また、上述の地図映像を更新するには、旧地図映像と新地図映像を比較し、両地図映像を対応させる必要がある。
ここで、対比する新旧映像の対応点を求めるには、両映像に共通する特徴点(基準点)を抽出し、その特徴点付近の小領域画像のマッチングや相関による方法が一般的である。
このため、新旧映像間での対応点をマッチングや相関で求めることは困難となり、現実には、新旧映像間での対応を的確に、効果的に、高い一致度で求めることができないという問題が発生した。
また、対応させるべき新旧映像の一方がCG(コンピュータ・グラフィックス)である場合、CG映像と実写映像では絵柄が大きく異なり、実写映像とのマッチングや相関は困難であった。
そして、このCV値データを利用することにより、新旧映像間での小領域画像のマッチングや相関によることなく、対応する新旧映像の対応関係をとり、両映像を座標統合し得ることに想到した。
さらに、リアルタイムで撮影された新映像を旧映像にリアルタイムに統合する場合に、リアルタイム処理の演算時間を短縮し、高精度かつ高速に新旧映像の座標統合処理を行うことができる新旧映像座標統合装置の提供を目的とする。
本発明では、まず、新旧映像でそれぞれ単独でCV値データを求める。
このとき、旧映像は前もって処理された映像であるので、演算時間を十分にとることができるので高精度のCV値を持ち、新映像は演算時間を十分取れれば同等の精度を持つが、一般にはリアルタイム処理とするので、旧映像に比較して同等以下であると想定される。次に、それぞれのCV値の関係を求めることで、新旧映像の座標は統合される。
このようにすることで、新旧映像間で、カメラが変わっても、天候が変わっても、撮影条件が変わっても、視点方向が大きく変わっても、一方の映像が実写映像とは絵柄が大きく異なるCG映像であっても、それらに影響されずに新旧映像間で対応点を求めることができ、旧映像に近い精度の新映像のCV値が取得され、両者を同一の座標系で表現することができる新旧映像座標統合装置の提供を目的とする。
さらに、リアルタイムで撮影された新映像を旧映像にリアルタイムに統合する場合に、リアルタイム処理の演算時間を短縮し、高精度かつ高速に新旧映像の座標統合処理を行うことができる。
ただし、三次元座標が既知の複数の特徴点を基準点としてさえいれば、一部あるいはすべての基準点において、従来方法のマッチングや相関を採用して対応点を取ることも勿論可能である。
また、この三次元基準点の比較対応と新映像側の高速CV演算(精度は低い)と併用することで、CV値の連続性が得られ、精度も高まるという効果が期待できる。
さらに、二次元画像の微少領域のテクスチャではなく、三次元形状を追跡することが可能となることから、CG画像との対応,座標統合も可能となる。
そして、このように新旧映像の座標を統合することで、映像データを更新することができるようになる。
ここで、基準映像としては、カメラで取得した映像に限らず、実測により生成された三次元地図を使用することができ、その場合には、三次元地図中のCV値は自由に取れるので、表示のためのカメラ位置は既知と考えて良い。
また、比較すべき新映像についても、同様に高精度CV値(旧映像と同程度の精度のCV値)を求めて、旧映像と座標統合することも可能であるが、本発明では、旧映像を基準画像とし、比較画像を新映像として、それぞれを比較して、より簡単に高速に新映像のCV値を求めて、新旧映像の座標統合するものである。
さらに、リアルタイムで撮影された新映像を旧映像にリアルタイムに統合する場合にも、リアルタイム処理の演算時間を大幅に短縮することができ、高精度かつ高速に新旧映像の座標統合処理を行えるようになる。
ここで、以下に示す本発明の新旧映像座標統合装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、映像中からの基準点や特徴点の自動抽出,抽出した基準点の自動追跡,基準点の三次元座標の算出,カメラベクトルの演算,比較映像中の対応基準点の検出等を行わせる。このように、本発明における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
まず、本発明の新旧映像座標統合装置の前提となるCV演算の概要について図1〜図13を参照しつつ説明する。
CV演算とはCV値を求めることを意味し、求められた結果をCV値,CVデータと呼ぶ。CVという表記は、カメラベクトル:Camera
Vectorの略記であり、カメラベクトル(CV)とは計測等のために映像を取得するビデオカメラ等のカメラの三次元位置と3軸回転姿勢を示す値である。
CV演算は、動画像(ビデオ映像)を取得し、その映像内の特徴点を検出し、それを隣接する複数のフレームに追跡し、カメラ位置と特徴点の追跡軌跡とが作る三角形を画像内に数多く生成し、その三角形を解析することで、カメラの三次元位置とカメラの3軸回転姿勢を求めるものである。
また、動画像から演算で求められるCV値は、動画像の各フレームに対応して、三次元のカメラ位置と三次元のカメラ姿勢とが同時に求まる。しかも、原理的には一台のカメラで、映像と対応してCV値が求められる特性は、CV演算でしか実現し得ない、優れた特徴である。
例えば、他の方法による計測手段(GPSやIMU等)では、動画像の各フレームと、その三次元的カメラ位置と三次元的カメラ姿勢とを同時に取得するためには画像フレームと計測サンプリング時刻を高精度で、しかも完全に同期しなければならないために、巨額の装置となり、実質的には実現が困難である。
また、CVデータは画像から取得するため、取得されたデータは相対値であるが、画像内の任意の対象物との位置関係を計測することができるという他の方法では実現は可能な優れた特性を備える。
また、画像に対応したCV値が求まるので、画像内計測や測量において、画像から直接にカメラ位置とその3軸回転姿勢を求めることができるCV演算は画像内計測や画像内測量に好適となる。
そして、本発明の新旧映像座標統合装置は、このCV演算により得られたCV値データに基づいて旧映像(基準映像)と新映像(比較映像)との座標統合処理を行うものである。
CV演算は、後述する本発明の新旧映像座標統合装置100のCV付加部102やCV取得部108(図14参照)として機能するCV演算部20で行われる。
CV演算部20は、図1に示すように、全周ビデオ映像部10から入力されるビデオ映像について所定のCV演算処理を行うようになっており、具体的には、特徴点抽出部21と、特徴点対応処理部22と、カメラベクトル演算部23と、誤差最小化部24と、三次元情報追跡部25と、高精度カメラベクトル演算部26とを備えている。
また、映像は、一般には予め記録した動画映像を使うことになるが、自動車等の移動体の移動に合わせてリアルタイムに取り込んだ映像を使用することも勿論可能である。
全周映像の平面展開とは、全周映像を、通常の画像として遠近法的に表現するものである。ここで、「遠近法」と呼称するのは、全周画像のそのものはメルカトール図法や球面投影図法のように、遠近法とは異なる方法で表示されているので(図4参照)、これを平面展開表示することで、通常の遠近法映像に変換表示できるからである。
なお、移動体11aには、その位置座標を取得する目的で、例えば、絶対座標を取得するGPS機器単独やIMU機器を付加したもの等により構成した位置計測機器等を備えることができる。
また、移動体11aに搭載される全周ビデオカメラ11としては、広範囲映像を撮影,取得するカメラであればどのような構成であってもよく、例えば、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラ等がある。本実施形態では、図2及び図3に示すように、車輌に複数のカメラが一体的に固定され、移動体11aの移動に伴って広範囲映像を撮影する全周ビデオカメラ11を使用している。
ここで、全周ビデオカメラ11は、カメラの全周映像を直接取得できるビデオカメラであるが、カメラの全周囲の半分以上を映像として取得できれば全周映像として使用できる。
また、画角が制限された通常のカメラの場合でも、CV演算の精度としては低下するが、全周映像の一部分として取り扱うことが可能である。
仮想球面に貼り付けられた球面画像データは、仮想球面に貼り付けた状態の球面画像(360度画像)データとして保存・出力される。仮想球面は、広範囲映像を取得するカメラ部を中心点とした任意の球面状に設定することができる。
図4(a)は球面画像が貼り付けられる仮想球面の外観イメージであり、同図(b)は仮想球面に貼り付けられた球面画像の一例である。また、同図(c)は、(b)の球面画像をメルカトール図法に従って平面展開した画像例を示す。
CV演算部20では、まず、特徴点抽出部21が、全周ビデオ映像部10の全周ビデオカメラ11で撮影されて一時記録された動画像データの中から、十分な数の特徴点(基準点)を自動抽出する。
特徴点対応処理部22は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部23は、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部24は、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理し、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
高精度カメラベクトル演算部26は、三次元情報追跡部25で得られた追跡データに基づいて、カメラベクトル演算部23で得られるカメラベクトルより、さらに高精度なカメラベクトルを生成,出力する。
そして、以上のようにして得られたカメラベクトルが、後述する新旧映像座標統合装置100に入力され、新旧映像の座標統合処理に利用されることになる。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトルの検出とは、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
まず、上述した全周カメラ映像部10の全周ビデオカメラ11で取得された画像データは、間接に又は直接に、CV演算部20の特徴点抽出部21に入力され、特徴点抽出部21で、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴点対応処理部22で、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図5〜図7に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図7に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図8に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図8の○印参照)、例えば、100点程度の特徴点を抽出する。
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、図7に示す360度全周画像のような広角画像の方が特徴点を数多く選択し易くなる。そこで、本実施形態では、CV演算に360度全周画像を用いており、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図7は、CV演算部20における処理を理解し易くするために、1台又は複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のCV演算では、必ずしもメルカトール図法による展開画像である必要はない。
さらに、誤差の分布が大きい特徴点につては削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
図9では、図7の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトル(X,Y,Z)が示されている。
図10及び図11は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
具体的には、CV演算部20では、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返すことができる。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
具体的には、まず、三次元情報追跡部25で、カメラベクトル演算部23,誤差最小化部24を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部25で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部26においてより高精度なカメラベクトルが求められる。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部23により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
例えば、図13に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。
さらに、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。CVデータは、その三次元位置と3軸回転を示しており、ビデオ映像に重ねて表示することで、ビデオ映像の各フレームでCV値を同時に観察できる。CVデータをビデオ映像に重ねた表示した画像例を図13に示す。
なお、ビデオ映像内にカメラ位置を正しく表示すると、CV値が示すビデオ映像内の位置は画像の中心となり、カメラ移動が直線に近い場合は、すべてのフレームのCV値が重なって表示されてしまうので、例えば図13に示すように、敢えてカメラ位置から真下に1メートルの位置を表示することが適切である。あるいは道路面までの距離を基準として、道路面の高さにCV値を表示するのがより適切である。
次に、以上のようにして求められたCV値に基づいて新旧映像の座標統合処理を行う本発明に係る新旧映像座標統合装置の実施形態について、図面を参照しつつ具体的に説明する。
なお、以下に示す新旧映像座標統合装置において、新旧映像と表現する場合、時間的に新映像が時刻的に新しい映像であり、旧映像が旧い映像であるという意味ではない。CV値が既知の映像が、旧映像であり基準映像となるものであり、基準映像に比較されてCV値が取得される映像が、新映像であり比較映像となるものである。
まず、図14〜図16を参照して、本発明の第一実施形態に係る新旧映像座標統合装置について説明する。
図14は、本発明の第一実施形態に係る新旧映像座標統合装置の基本構成を示すブロック図である。また、図15及び図16は、図14に示す新旧映像座標統合装置の詳細を示すブロック図である。
図14に示すように、本実施形態に係る新旧映像座標統合装置100は、新映像を旧映像の座標に統合するための装置であり、具体的には、基準映像部101と、CV付加部と、三次元基準点指定部103と、比較映像部104と、初期位置設定部105と、基準点対応部106と、対応基準点追跡部107と、CV取得部108と、座標統合部109を備えている。
CV付加部102は、基準映像部101から入力される基準映像に対して、上述したCV演算を行い、CV値(カメラ位置と姿勢の三次元値)を付加する。すなわち、CV付加部102は、図1に示したCV演算部20として機能する。
三次元基準点指定部103は、CV付加部102でCV値が付加された基準映像の中に、自動又は手動で任意の基準点を指定し、付加されたCV値に基づいて、指定された任意の基準点の三次元座標を取得する。
初期位置設定部105は、基準映像と比較映像との中の共通地点の対応関係を自動又は手動で初期設定する。
基準点対応部105は、初期位置設定部105で初期設定されたフレームから開始する動画像の各フレームに亘って、三次元基準点指定部103で指定された基準映像の中の三次元基準点に対応する部分を、比較画像の中に自動的に対応付け、各フレームに亘って対応基準点を探索し続ける。
対応基準点追跡部107は、基準点対応部105で対応付けられた対応基準点を、比較映像の進行する各フレームに亘って追跡する。
座標統合部109は、CV付加部102でCV値が付加された基準映像と、CV取得部108でCV値が求められた比較映像とを、同一の座標系に座標統合させる。
以下、新旧映像をそれぞれ比較映像,基準画像として、新旧映像座標統合装置100における座標統合処理(座標統合方法)について、具体的に説明する。
まず、新旧映像座標統合装置100のシステム全体の効率化を考慮すれば、前もって演算可能な基準映像(旧映像)側に負担を与えたとしても、リアルタイム処理を行う比較映像(新映像)側の演算の負担を軽くする必要がある。
そこで、比較映像部104,初期位置設定部105及び基準対応部106によるリアルタイム演算が可能となるように、前もって演算可能な部分については、可能な限り基準画像側での演算として予め処理を行っておくことが好ましい。
例えば、基準映像部101は、前もって撮影した映像とすることが好ましい。同様に、CV付加部108は、前もって基準映像についての必要なCV演算を行っておくことが好ましい。
同様に、三次元基準点指定部103により、前もって任意の基準点を指定して三次元座標を取得し、基準画像内に追跡しておくことが好ましい。
三角形の原理から、一枚のフレームに付き最低三点の三次元座標の移植が有れば、CV値は演算で求められる。
また、三次元基準点は三次元座標を持っており、比較映像のCV値と同じCV値に視点変更が可能であるから、基準映像と比較映像の対応が容易になる。
なお、全フレームによるCV値取得と、対応基準点の追跡によるCV値取得を組み合わせて、全フレームに亘り対応基準点を求めて、三次元座標の移植を行い、更に対応基準点の追跡結果からCV値を求めることで、より精度の高いCV値を取得することができる。
そこで、本実施形態では、基準画像内に三次元基準点を設けること、比較画像と対応を取ること、及び比較画像の中に三次元基準点を追跡することを特徴としている。
ただし、三次元基準点を用いれば、三次元座標が移植されるので、比較映像側の1フレームについてのみでも、CV値を求めることができる。これは、複数のフレームに亘る追跡結果を必要とする図1で示したCV演算部20でのCV演算の場合と比較して大きな差異となる。
従って、基準点対応部106の処理において、対応点の取得に失敗するフレームが生じることも十分考えられる。また、三点以上の対応点が得られない場合も想定できる。そこで、基準対応部106は可能な限り対応点の取得を行い、対応に失敗するフレームが発生しても、その部分は比較画像側の追跡により比較画側だけでCV値を求めることが実際的である。
この基準点対応部106における対応処理について、更に説明する。
以下、基準点対応部106における対応処理を、図15及び図16を参照しつつ、より具体的に説明する。
一般に、基準映像と比較映像とは、カメラが異なり、画質も異なり、撮影条件も異なるので、新旧両映像の対応関係を取ることは困難なものとなる。この点、従来の方法としては、三次元点を構成する微少領域のテクスチャをマッチングや相関で追跡する方法が行われていた。しかし、このような従来方法では、異種カメラ間のことなる画質の映像と、撮影条件の差異などにより、対応関係を正確に取ることはきわめて困難であった。
図15に示す新旧映像座標統合装置100では、基準映像側の三次元基準点に対応して、比較映像側でも三次元対応基準点を対応させ、三次元座標を移植させて、CV演算する方法をとなっている。
また、図16に示す新旧映像座標統合装置100では、三次元形状が既知であることから、比較映像側での方向が規定され、その方向からCV値を取得する方法となっている。
図15に示す新旧映像座標統合装置100では、図14で示した基準点対応部106が三次元基準点形状対応部106aを備えるとともに、対応基準点追跡部107が三次元基準点形状追跡部107aを備えている。
三次元基準点形状対応部106aは、基準点対応部106において、基準画像内の複数の三次元基準点から構成される三次元形状に着目し、比較映像内に、三次元基準点と同一座標を持つ三次元対応点が、その三次元形状に一致するようなCV値を求めることで、三次元基準点の対応を求める。
また、三次元基準点形状追跡部107aは、対応基準点追跡部107において、対応基準点を比較映像中の隣接する複数のフレームに亘り追跡することで、基準画像内の既知の三次元形状の三次元座標を比較映像中の追跡地点に直接移植する。
そこで、図15に示す新旧映像座標統合装置100では、比較すべき基準点対応を二次元テクスチャではなく、三次元のテクスチャでもなく、画像内の三次元座標、すなわち三次元形状の三次元座標関係そのものとすることで、これらの新旧映像間で様々な物理的条件の違いがあっても比較が可能となるものである。
これは、三次元形状とその座標は、比較映像内のCV値を仮定することにより比較映像内で取得することができ、しかも、画像としての対応ではなく、座標としての対応を求めることができることを意味する。従って、ここではカメラの違いによる画質には一切関係なく、撮影条件にも関係なく、また三次元形状はカメラからの距離によっても変化しないので、三次元基準点形状追跡部では、長距離の追跡が可能となり、精度上きわめて有利となる。
本実施形態では、比較画像内でCV値を変数として微小変化(視点変更を意味する)させながら、最適なCV値を探索する。
CV値から演算で求める位置に存在するか否かを確認することを継続することで、正しいCV値を求めることができる。あるいは基準映像側でCV値を変数として視点変更しながら探索することも可能である。
言い換えれば、基準映像側で視点変更をして比較映像に合わせるか、比較映像側で視点変更して比較映像に合わせるかは任意である。
さらには、両者とも視点変更をしないで、即ち三次元形状の見かけの形状を変更しないで、視点によっては変化しない三次元座標のみに着目して対応を取ることも可能である。
そして、ある一つの方法で三次元基準点の対応に失敗した場合は、他のCV値取得方法によればよく、また、すべての対応に失敗しても、初期値設定からやり直すことで連続的にCV値を求めることが可能となる。
図16に示す新旧映像座標統合装置100では、図14で示した基準点対応部106が基準点方向対応部106bを備えるとともに、対応基準点追跡部107が基準点方向追跡部107bを備えている。
基準点方向対応部106bは、基準点対応部106において、複数の三次元基準点のカメラ位置からの方位仰角に着目し、比較映像中の三次元対応点が、CV値を仮定した場合の演算で予想される方位仰角に存在することを確認することで、比較映像中の対応点を三次元基準点に対応させる。
基準点方向追跡部107bは、対応基準点追跡部107において、基準画像中の三次元基準点を、比較映像中に三次元座標が既知である三次元形状を構成する各点の方向として、隣接する複数のフレームに亘り追跡する。
すなわち、三次元座標が既知である基準点の、比較映像内での方向が取得できれば、その方向に対応するCV値を演算で求めることができる。
以上のように、基準点対応部106における対応方法と対応基準点追跡部107における追跡方法について、種々の方法を述べたが、これらは任意に組み合わせたり併用することができ、映像の性質によって使い分けることにより、どのような条件の映像に関しても、容易かつ正確,迅速にCV値を取得することができる。
次に、図17を参照して、本発明の第二実施形態に係る新旧映像座標統合装置について説明する。
図17は、本発明の第二実施形態に係る新旧映像座標統合装置の基本構成を示すブロック図である。
同図に示すように、本実施形態に係る新旧映像座標統合装置100は、上述した第一実施形態の新旧映像座標統合装置100(図14参照)の変更実施形態である。
具体的には、図17に示すように、第一実施形態の新旧映像座標統合装置100構成に、さらに、概略基準空間構成部110と、概略CV取得部111と、概略比較空間構成部112と、CVキャリブレーション部113と、空間対応部114の各部を備えている。
しかし、比較映像におけるCV演算を基準映像と同程度の精度で行うには、演算時間がかかり過ぎてしまいリアルタイム演算は困難となる。
一方、比較映像についてCV演算で求められるCV値は、一般に相対値となり、基準映像と同一座標系に変換してからでなければ基準映像のCV値と統合することはできない。
そこで、本実施形態では、上述した第一実施形態の新旧映像座標統合装置100に、一部、比較映像側にもCV演算方式を取り入れて、演算精度を向上させつつ演算時間を短縮化するようにしてある。
また、比較映像側で特徴点を検出して追跡し、その追跡した二次元データからCV演算することにより、特徴点の三次元分布図を構築することができるようになる。
一方、概略CV取得部111は、比較映像に関して、基準映像とは無関係に、比較映像側で特徴点を検出して追跡し、単独でCV演算を行い、新映像(比較映像)を取得したカメラの位置と姿勢を示す概略のCV値を取得する。
CVキャリブレーション部113は、比較映像の相対CV値を、基準点対応部106及び対応基準点追跡部107で得られたCV値により校正して、基準映像の座標系に変換する。
空間対応部114は、基準映像の概略三次元空間と比較映像の概略三次元空間を比較して対応付け、それぞれの空間を概略合致させて、基準点対応部106における対応領域を絞り込む。
本実施形態の概略基準空間構成部110においては、基準映像の概略三次元形状が生成されるが、CV値を用いた視点の微少変更によって生成した二次元映像により、空間対応部114により比較画像映像と概略比較することができる。
また、CV値を求める際に取得した多くの特徴点の三次元座標により、概略基準空間構成部110と、概略比較空間構成部112と、その分布から概略空間を空間対応部114で比較することが可能になる。
すなわち、概略位置関係を求めることができる。
そこで、本実施形態では、演算時間に関して高速化が期待できる第一実施形態の新旧映像座標統合装置100について、特徴点方式のCV演算を比較映像側に併用することで、高速化を図りつつCV演算をキャリブレーションすることができる。
また、特徴点追跡方式のCV演算と三次元点追跡のCV演算とを併用する場合は、三次元点追跡は、必ずしも全フレームに亘って行わなくても良く、キャリブレーションが必要な必要部分のフレームだけでも良いことになり、より高速で効率の良い演算処理が可能となる。
このようにして、本実施形態によれば、画像の性質等に応じて、第一実施形態の方法と本実施形態の方法とを使い分けることで、より精度良くCV値を求めることができるようになる。
なお、以上説明した第二実施形態(及び第一実施形態)に係る新旧映像座標統合装置100においては、基準映像を実写映像、又は実写映像にCGを合成した映像として説明したが、基準映像をCGのみで構成したCG三次元地図や、映像から生成され図化された実写映像を含まないCG三次元地図、又は測量により生成されたCG三次元地図であっても、実写映像の場合と基本的に同様に処理することができる。すなわち、本発明における基準映像(旧映像)にはCG映像を含むと解釈できる。
実写映像と比較して、CG映像はCV値を自由に選択し、視点を自由に選択できることが特徴であるが、実写映像であっても、三次元基準点に関しては、CV値は自由に選択可能であり、その結果、視点を自由に選択できることになるから、基準画像は実写映像であってもCG映像であっても同様に取り扱うことができる。
空間対応部114では、映像全体の対応を求め、基準対応部106では、部分の詳細対応を求めることができる。
また、基準映像がCG映像であるが故に、更なるCGとの合成の意味はなくなり、後述するCG合成装置(図18参照)は省略できることなる。
以上説明した本発明に係る新旧映像座標統合は、様々な意味を持ち、様々な装置に発展させることができる。
まず、本発明を直接的に利用した技術としては、CV値を持つ旧映像と未だCV値を持たない新映像とを比較して、新映像に旧映像と同じ座標系のCV値を与えることである。
これは新旧映像の画像更新の意味を持つ。
リアルタイムで取り込んだ映像は、本発明の新旧映像座標統合装置により、直ちにリアルタイムでCV値が求められる。すなわち、リアルタイムで自車両の三次元位置と姿勢が取得できることになる。
また、自動案内装置や自動運転装置等における案内地図としての旧映像のCV地図を、新しい新映像CV地図に更新することは上述した通りであり、本発明をそのまま映像更新装置として実現することができる。
特に、現実の対象物,風景等を測量して三次元化した三次元地図があれば、その三次元地図そのものや、あるいは三次元地図内にある対象物を、旧画像の三次元基準点として用いることができる。三次元地図においてはCV値を自由に取れることから、新旧映像の比較対応は容易になる。
従って、リアルタイムGPSの精度を大きく超える高精度でカメラ位置を取得できることになる。
この技術は、今後、自動運転や自動案内装置における位置特定技術等としてきわめて有効である。
以下、本発明の新旧映像座標統合装置を用いた具体的な実施例として、自動案内装置と自動追跡移動撮影装置について、図面を参照して説明する。
まず、本発明の新旧映像座標統合装置を利用した自動案内装置について説明する。
図18は、上述した本発明の第二実施形態に係る新旧映像座標統合装置100(図17参照)を用いた自動案内装置の実施形態の基本構成を示すブロック図である。
図19〜図22は、ぞれぞれ、図18に示す自動案内装置で生成される座標統合された新旧映像の一例を示す説明図である。
また、車両案内装置は航空機に搭載され、地上の目標とする対象物の映像を取得しながら目的のコースを飛行するように自動案内するものであるが、車両案内装置の出力を制御系に送れば航空機の自動運転装置となる。
車両にはビデオカメラからなる車載カメラ部115が積載されており、比較映像を車載カメラから取得してリアルタイム映像とする。
また、初期位置設定部105は、GPS等から概略位置を取得して、車載三次元地図との対応を取り、三次元地図との対応を取ることができる。
自車両位置検出部116は、比較映像部104のCV取得部108から、座標統合時の車両位置を取得する。
表示部117は、車載三次元地図を表示し、その中に自車両位置をCG等で重ね表示することができる。
そこで、三次元地図の中に合成されているCGそのものを三次元基準点の一つとすることができる。
図18に示すように、CGデータベース部120には、道路標識や道路標示,行き先表示板等の車両運行に必要な設置物のCGがデータベースとして保存され、CG合成部121で所定の位置に映像と合成され、三次元地図が構成される。
また、実写映像にCGが合成されていることから、基準点として、CG又はCGを構成している特徴点の三次元座標を、三次元基準点として利用することもできる。すなわち、CGは三次元座標を持つ形状そのものであることから、三次元基準点そのものであるといえる。
同図には、車載カメラで取得された実写リアルタイム映像と、三次元地図映像を示している。
ここでは、三次元地図映像が基準映像であり、リアルタイム映像が比較映像である。また、同図に示すように、三次元地図の中には、CGで自車両位置を表示してある。
図20は、三次元地図(基準画像)の地図表示のための仮想カメラ地点から前方を見て、車両で言えば車両後方から前方の自車両三次元地図上に自車両を表示したものである。ここで仮想カメラ地点とは、三次元地図においては仮想カメラ地点をカメラ位置とした映像を表示することを意味している。
また、図21は、三次元地図における先の交差点の横方向から、当該車両を表示したものである。図では見やすい位置とするために、交差点の真ん中付近まで進んだ車両を表記している。
三次元地図上の三次元基準点を「●」で示してあるが、それぞれが作る関係が三次元形状となる。
図22(b)に示すように、三次元形状は図中の実線で結んだ狭い範囲の形でも定義できるが、点線で結んだ点の分布そのものも三次元形状であり、その両方を三次元地図とリアルタイム映像の対応に利用することができる。
次に、本発明の新旧映像座標統合装置を用いた具体的な実施例として、自動追跡移動撮影装置について説明する。
図23は、上述した第二実施形態に係る新旧映像座標統合装置(図17参照)を用いた自動追跡移動撮影装置の実施形態の基本構成を示すブロック図である。
あるいは、自動追跡移動撮影装置100Bは、航空機に搭載したカメラ(車載カメラ部115)により、地上の監視対象物を自動的に撮影して、監視作業するためのものである。
すなわち、管理上必要な対象物を自動的に撮影して検査し、現地と三次元地図と一致しているか、あるいは拡大撮影し、破損がないか等を自動的に確認する作業を目的とした装置である。
これは、三次元地図が実用化された場合に、例えば、交通標識や看板,道路標示,ビルの看板,コンビニ看板等を更新するために必要な技術である。
自動追跡移動撮影装置100Bは、まず、撮影プログラム部130において、三次元地図に記載された管理対象物を前もって、プログラムされた順番に従い、又は現地での設定に従い、道順等に従って撮影対象を撮影するようにプログラム制御される。
撮影対象の三次元座標は三次元地図部101Aから取得しておく。
これは、三次元地図の中の対象物をマウスでクリックするだけでも可能であるし、管理対象物が、例えば信号機であれば、全信号機を三次元地図から読み出し、自動的に管理データを生成することも可能である。
また、このとき、車両の運転者は、指定された道順を走行すればよいし、もし自動運転装置であれば、自動運転に任せておけばよい。いずれの場合にも、オペレータが撮影作業に係わらなくても自動的に対象物を探して撮影することができるシステムとなる。
対象物座標取得部132においては、そのときの対処物の三次元座標を三次元地図から取得する。
既設対象物確認部133においては、対象物の三次元座標に、実際に対象物が存在するか否かを確認する。この場合、指定された座標に何らかの物体があるか否か、その後にその物体が対象物そのものであるか否か、を確認することになるが、後者は最終的にオフラインで確認することでも目的は達せられるので、一般には、リアルタイム処理としては前者のみで十分と考えられる。
また、その三次元座標の部分に当該対象物が存在するか否かを自動案内装置の基準点対応部106により確認することができる。
なお、探索する対象物の属性が分かっている場合は、分かっている範囲の条件で、新規対象物を絞り込み、探し出す。これは上述した自動案内装置の機能を使って検索することが適切である。
ここで、対象物を大きく捉えるためにカメラの画角は狭角とすることが多いので、同一地点近傍で捉える対象物が多い場合は、一台のカメラだけで視点方向を変えながらすべての対象物を捉えることが困難となる場合も想定される。その場合には複数台のカメラを設置した車載カメラ部と、複数台に対応するカメラコントロール部とすることが好ましい。
なお、車両に積載したカメラにより、自車両位置と姿勢をリアルタイムで検出できることは上述したとおりであり、従って、ここでは、上述した自動案内装置により車両位置を求めることが好適である。
対象物撮影部136においては、車両積載カメラにより、目的の対象物を予定の画角で撮影する。
さらに、対象物映像記録部137においては、対象物撮影部136で取得された目的対象物の映像を三次元地図の座標とともに記録することができる。
また、自動追跡移動撮影装置100Bにおいては、移動する車両に、車載カメラ部115におけるカメラとは別に、対象物撮影用のビデオカメラ又はスチルカメラが積載される。
なお、カメラを含めて他の機能についても、対象物撮影用のカメラと本発明に係る座標統合処理用のカメラとは、共通部分が多いことから、両者のカメラ及び各部機能を共用し、一台のカメラで、しかも各部の機能を共有することも十分可能である。ここでは理解を容易にするために、目的別に専用カメラを設置し、各部も分離したものとして説明した。
例えば、上述した実施形態においては、本発明の新旧映像座標統合装置の適用対象として、カーナビゲーション装置や歩行者ナビゲーション装置等を想定して説明したが、本発明に係る新旧映像の座標統合は、どのような装置やディスプレイにも応用できるものであり、その用途・使用方法等も特に限定されるものでないことは言うまでもない。
また、上述したように、三次元地図を更新する場合にも、本発明の新旧映像座標統合装置は効果的に用いられ、映像から地図を生成する際の更新にも当然利用することができる。
さらに、本発明によれば、GPSを用いないでも高精度の位置座標を取得できることから、高精度ナビゲーション技術への利用も期待できる。
100 新旧映像座標統合装置
101 基準映像部
102 CV付加部
103 三次元基準点指定部
104 比較映像部
105 初期位置設定部
106 基準点対応部
107 対応基準点追跡部
108 CV取得部
109 座標統合部
Claims (4)
- 撮影した動画映像からなる旧映像を基準映像として保持する基準映像部と、
前記基準映像に、カメラ位置と姿勢の三次元値を示すCV値を付加するCV付加部と、
前記基準映像の中に基準点を指定し、前記CV付加部で付加されたCV値から当該基準点の三次元座標を取得する三次元基準点指定部と、
前記基準映像と比較すべき、動画映像からなる新映像を比較映像として保持する比較映像部と、
前記基準映像と比較映像との中の共通地点の対応関係を初期設定する初期位置設定部と、
初期設定されたフレームから開始する動画像の各フレームに亘って、前記基準映像の中の前記三次元基準点に対応する部分を比較映像の中に自動的に対応付けて、各フレームに亘って対応基準点を探索し続ける基準点対応部と、
前記対応基準点を比較映像の進行する各フレームに亘って追跡する対応基準点追跡部と、
前記対応基準点の対応結果により、前記基準画像の三次元基準点の三次元座標を前記比較映像の対応基準点に移植して、前記初期位置設定部で初期設定された前記比較画像のCV値を演算で求めるとともに、追跡により各フレームに亘ってCV値をもとめるCV取得部と、
前記基準映像と同一の座標系に前記比較映像を座標統合させる座標統合部と、
を備え、
前記基準点対応部が、
基準映像内の複数の三次元基準点から構成される三次元形状に着目し、前記比較映像内に、前記三次元基準点と同一座標を持つ三次元対応点が、前記三次元形状に一致するようなCV値を求めることにより、当該三次元基準点と比較映像内の対応基準点との対応を求める三次元基準点形状対応部を備えるとともに、
前記対応基準点追跡部が、
前記対応基準点を比較映像中の隣接する複数のフレームに亘り追跡し、前記基準映像内の既知の三次元形状の三次元座標を前記比較映像中の追跡地点に移植する三次元基準点形状追跡部を備えることを特徴とする新旧映像座標統合装置。 - 撮影した動画映像からなる旧映像を基準映像として保持する基準映像部と、
前記基準映像に、カメラ位置と姿勢の三次元値を示すCV値を付加するCV付加部と、
前記基準映像の中に基準点を指定し、前記CV付加部で付加されたCV値から当該基準点の三次元座標を取得する三次元基準点指定部と、
前記基準映像と比較すべき、動画映像からなる新映像を比較映像として保持する比較映像部と、
前記基準映像と比較映像との中の共通地点の対応関係を初期設定する初期位置設定部と、
初期設定されたフレームから開始する動画像の各フレームに亘って、前記基準映像の中の前記三次元基準点に対応する部分を比較映像の中に自動的に対応付けて、各フレームに亘って対応基準点を探索し続ける基準点対応部と、
前記対応基準点を比較映像の進行する各フレームに亘って追跡する対応基準点追跡部と、
前記対応基準点の対応結果により、前記基準画像の三次元基準点の三次元座標を前記比較映像の対応基準点に移植して、前記初期位置設定部で初期設定された前記比較画像のCV値を演算で求めるとともに、追跡により各フレームに亘ってCV値をもとめるCV取得部と、
前記基準映像と同一の座標系に前記比較映像を座標統合させる座標統合部と、
を備え、
前記基準点対応部が、
前記基準映像内の複数の三次元基準点のカメラ位置からの方位仰角に着目し、前記比較映像中の三次元対応点が、CV値を仮定した場合の演算で予想される方位仰角に存在することを確認することで、当該三次元対応点を前記三次元基準点に対応させる基準点方向対応部を備えるとともに、
前記対応基準点追跡部が、
前記基準映像中の前記三次元基準点を、比較映像中に三次元座標が既知である三次元形状を構成する各点の方向として隣接する複数のフレームに亘り追跡する基準点方向追跡部を備えることを特徴とする新旧映像座標統合装置。 - 前記基準映像について、前記CV付加部で取得されたCV値から、当該基準映像の概略三次元空間を生成する概略基準空間構成部と、
前記比較映像について、前記基準映像とは無関係に、当該比較映像側で特徴点を検出して追跡し、単独でCV演算を行い、当該比較映像を取得したカメラの位置と姿勢を示す概略CV値を取得する概略CV取得部と、
前記概略CV取得部で取得された概略CV値から比較映像の概略比較空間を生成する概略比較空間構成部と、
前記基準対応部及び前記対応基準点追跡部で得られたCV値により、前記概略CV取得部で取得されたCV値を校正し、前記基準映像の座標系に変換するCVキャリブレーション部と、
前記基準映像の概略三次元空間と前記比較映像の概略三次元空間とを比較して対応付け、それぞれの空間を合致させて、前記基準点対応部における対応領域を絞り込む空間対応部と、
を備える請求項1又は2記載の新旧映像座標統合装置。 - 前記基準映像部が、
前記基準映像として、CGのみで構成されたCG三次元地図、又は映像から生成されて地図化された実写映像を含まないCG三次元地図、又は測量により生成されたCG三次元地図を保持し、
前記CV付加部が、前記CG三次元地図のCV値を、前記比較画像の概略CV値近傍に設定し、
前記空間対応部が、映像全体の対応を求めるとともに、
前記基準対応部が、映像中の所定部分の詳細対応を求める請求項3記載の新旧映像座標統合装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005303952A JP4773794B2 (ja) | 2005-10-19 | 2005-10-19 | 新旧映像座標統合装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005303952A JP4773794B2 (ja) | 2005-10-19 | 2005-10-19 | 新旧映像座標統合装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007114916A JP2007114916A (ja) | 2007-05-10 |
JP4773794B2 true JP4773794B2 (ja) | 2011-09-14 |
Family
ID=38097047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005303952A Active JP4773794B2 (ja) | 2005-10-19 | 2005-10-19 | 新旧映像座標統合装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4773794B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11256930B2 (en) | 2019-10-24 | 2022-02-22 | Kabushiki Kaisha Toshiba | Road surface management system and road surface management method thereof |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9811731B2 (en) * | 2013-10-04 | 2017-11-07 | Qualcomm Incorporated | Dynamic extension of map data for object detection and tracking |
JP6821154B2 (ja) * | 2016-11-16 | 2021-01-27 | 株式会社岩根研究所 | 基準映像地図を用いた自己位置姿勢標定装置 |
KR102233260B1 (ko) * | 2018-10-02 | 2021-03-29 | 에스케이텔레콤 주식회사 | 정밀 지도 업데이트 장치 및 방법 |
CN116887048A (zh) * | 2018-12-13 | 2023-10-13 | 索尼集团公司 | 控制器和控制方法 |
CN110490970B (zh) * | 2019-08-08 | 2023-05-05 | 广联达科技股份有限公司 | 存储三维几何信息的方法、装置和电子设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2778430B2 (ja) * | 1993-10-01 | 1998-07-23 | 株式会社デンソー | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 |
JP3475142B2 (ja) * | 2000-03-01 | 2003-12-08 | 三菱電機株式会社 | 地図データ送信装置、地図データ送信方法、及び、地図データ送信方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2001324310A (ja) * | 2000-03-06 | 2001-11-22 | Kazuhiro Shiina | 立体データ作成方法及び装置並びにシステム |
JP3486613B2 (ja) * | 2001-03-06 | 2004-01-13 | キヤノン株式会社 | 画像処理装置およびその方法並びにプログラム、記憶媒体 |
JP4153761B2 (ja) * | 2002-09-19 | 2008-09-24 | 成典 田中 | 3次元モデル空間生成装置、3次元モデル空間生成方法、及び3次元モデル空間生成プログラム |
JP4511147B2 (ja) * | 2003-10-02 | 2010-07-28 | 株式会社岩根研究所 | 三次元形状生成装置 |
JP4273119B2 (ja) * | 2003-10-21 | 2009-06-03 | 和郎 岩根 | ナビゲーション装置 |
JP4545093B2 (ja) * | 2003-10-29 | 2010-09-15 | 株式会社岩根研究所 | 3d自動測量装置 |
-
2005
- 2005-10-19 JP JP2005303952A patent/JP4773794B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11256930B2 (en) | 2019-10-24 | 2022-02-22 | Kabushiki Kaisha Toshiba | Road surface management system and road surface management method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2007114916A (ja) | 2007-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5227065B2 (ja) | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 | |
US10848732B2 (en) | Free viewpoint movement display device | |
JP4767578B2 (ja) | 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置 | |
JP4273119B2 (ja) | ナビゲーション装置 | |
JP4511147B2 (ja) | 三次元形状生成装置 | |
JP6821154B2 (ja) | 基準映像地図を用いた自己位置姿勢標定装置 | |
CN105928498B (zh) | 提供关于对象的信息的方法、大地测绘系统、存储介质 | |
JP5992184B2 (ja) | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム | |
JP2012118666A (ja) | 三次元地図自動生成装置 | |
EP3137850A1 (en) | Method and system for determining a position relative to a digital map | |
JP4446041B2 (ja) | カメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置 | |
JP4980606B2 (ja) | 移動型自動監視装置 | |
JP4272966B2 (ja) | 3dcg合成装置 | |
ES2576457T3 (es) | Procedimiento para el apoyo de la navegación inercial de un aparato volador | |
WO2020235286A1 (ja) | 認識位置決め装置及び情報変換装置 | |
JP4545093B2 (ja) | 3d自動測量装置 | |
JP4418857B1 (ja) | 路線の3次元動画生成用画像取得システム | |
JP6910454B2 (ja) | 道路の合成トップビュー画像を生成するための方法およびシステム | |
JP6723533B2 (ja) | ドライビングシミュレーター | |
JP2964402B1 (ja) | 三次元地図データベースの作成方法及び装置 | |
JP4624000B2 (ja) | 複合人工知能装置 | |
JP4980617B2 (ja) | 二次元図面と映像の合成表示装置 | |
JP4773794B2 (ja) | 新旧映像座標統合装置 | |
KR102506411B1 (ko) | 차량의 위치 및 자세 추정 방법, 장치 및 이를 위한 기록매체 | |
Trusheim et al. | Cooperative image orientation considering dynamic objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080502 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090616 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090824 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20091202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110621 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110624 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140701 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4773794 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |