[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019192299A - カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム - Google Patents

カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム Download PDF

Info

Publication number
JP2019192299A
JP2019192299A JP2019137814A JP2019137814A JP2019192299A JP 2019192299 A JP2019192299 A JP 2019192299A JP 2019137814 A JP2019137814 A JP 2019137814A JP 2019137814 A JP2019137814 A JP 2019137814A JP 2019192299 A JP2019192299 A JP 2019192299A
Authority
JP
Japan
Prior art keywords
camera
image
edge
camera information
information correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019137814A
Other languages
English (en)
Inventor
直之 郡司
Naoyuki Gunji
直之 郡司
仁 新垣
Jin Niigaki
仁 新垣
慎吾 安藤
Shingo Ando
慎吾 安藤
村崎和彦
Kazuhiko Murazaki
和彦 村崎
筒口 けん
Ken Tsutsuguchi
けん 筒口
杵渕 哲也
Tetsuya Kinebuchi
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019137814A priority Critical patent/JP2019192299A/ja
Publication of JP2019192299A publication Critical patent/JP2019192299A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラで画像を撮影した際のカメラの位置及び姿勢を精度良く推定することができるカメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラムを提供する。【解決手段】実世界のシーンを表す三次元点群から物体が抽出されると共に、抽出された物体の欠損部分が修復される。また、シーン内で撮影された撮影画像から画像エッジが抽出され、シーン内で撮影画像を撮影した際のカメラの位置及び姿勢を示す位置姿勢情報を用いて、復元された物体に対して透視投影を行い物体の輪郭に相当するモデルエッジが抽出され、抽出された画像エッジと、抽出されたモデルエッジとのズレ量に応じて位置姿勢情報が修正される。【選択図】図1

Description

本発明は、カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラムに係り、特に、画像が撮影された際のカメラの位置及び姿勢を推定するカメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラムに関する。
近年、ジャイロセンサ、GPS(Global Positioning System)等を搭載したスマートフォン、レーザー計測機器、カメラ等が広く使用されるようになった。また同様に、GPS、IMU(Inertial Measurement Unit)等の複数のセンサを具備した計測車両も広く使用されるようになった。これらの機器が使用されることにより、カメラで画像を撮影した際のカメラの位置及び姿勢を示す位置姿勢情報が付与された画像が容易に得られるようになった。
しかし、カメラの位置及び姿勢を計測するセンサによる計測結果には、ノイズが含まれていて、位置姿勢情報によって示されるカメラの位置及び姿勢と、実際のカメラの位置及び姿勢との間にズレが発生する。そのため、画像に付与された位置姿勢情報、及び、実世界の光景(シーン)を表す三次元モデルを用いて、実際に撮影された撮影画像と同様の画像を透視投影によって仮想的に復元しようとしても、三次元モデルの画像平面上への投影位置がズレてしまい、実世界のシーンと同じ画像を得ることは難しい。
よって、位置姿勢情報によって示されるカメラの位置及び姿勢と、実際のカメラの位置及び姿勢との間のズレを解消し、三次元モデルを画像平面上へ投影して得られる画像が、撮影画像に限りなく一致するように位置姿勢情報を修正することが望ましい。
ここで、予め用意されたCAD(computer-aided design)等の三次元モデルと、この三次元モデルに相当する実世界の物体を撮影した撮影画像と、が入力として与えられたとする。このような場合に、上記物体を撮影した際のカメラの位置及び姿勢を推定するという問題に対して、コンピュータビジョン分野において古くから取り組まれている。
このような問題を解決する手法として、三次元モデルによって示される物体と、撮影画像に写っている物体とのそれぞれから、物体の特徴的形状を表すコーナー、エッジ等の形状情報を検出し、三次元モデルによって示される物体を画像平面上に投影した際の特徴的形状の投影位置が、撮影画像から検出した特徴的形状の位置と一致するように、カメラの位置及び姿勢を推定する手法がある(非特許文献1参照)。
CAD、メッシュ等のように物体の境界、輪郭、あるいはコーナーが取得しやすい形式によって表現された三次元モデルによって示される物体を用いてカメラの位置及び姿勢を推定する場合には、用いられる三次元モデルはノイズを含まないため、物体の正確な形状情報を取得できる。そのため、三次元モデルによって示される物体を用いてカメラの位置及び姿勢を推定する手法は、カメラの位置及び姿勢を推定する手法に適していると考えられる。
しかし、このようなノイズを含まない三次元モデルを用いた場合であっても、エッジ、輪郭等を除いて、三次元モデル及び撮影画像の双方から自動的に同一の箇所に対応する形状情報を取り出すことは極めて困難であるため、このような手法の実用化はほぼ不可能であると考えられる。
さらに、実世界のシーンを表す三次元点群を三次元モデルとして表すためには、単一の物体のみならず複数の物体が存在する複雑な三次元モデルが必要となることに加え、計測時の制約等によって、実世界の物体が特定の一方向からのみ計測される場合が多い。その結果、実世界のシーンを一方向から見た片面のみの三次元点群しか存在しないことが多い。よって、不完全な三次元点群から物体のエッジ、輪郭等を抽出することになるため、実世界の物体とは異なる誤った形状情報が抽出されてしまう可能性がある。また、このようにして得られた誤った形状情報を撮影画像の形状情報に合わせこんだ結果、推定されるカメラの位置及び姿勢は当然のことながら誤ったものとなる。
SoftPOSIT: Simultaneous Pose and Correspondence Determination, P. David et al., International Journal of Computer Vision, vol. 59, no. 3, pp. 259-284, 2004.
一般的に、実世界のシーンを表す三次元点群と、当該シーンを撮影した撮影画像と、が入力された場合、三次元点群及び撮影画像の各々からエッジ、輪郭等を抽出し、三次元点群から抽出されたエッジ、輪郭等を画像平面上に投影した投影位置が、撮影画像から抽出されたエッジ、輪郭等に一致するように、カメラの位置及び姿勢を推定する。
しかし、実世界の物体を計測することにより得られる三次元点群は、実世界において複数の物体が重なり合っていること等により、欠損部分を含んでいることが多い。そのため、三次元点群からエッジ、輪郭等を正確に抽出することは困難であり、上述した欠損部分を含んでいることが、カメラの位置及び姿勢を推定する際の推定精度の低下の要因となっている。
本発明は、以上のような事情に鑑みてなされたものであり、カメラで画像を撮影した際のカメラの位置及び姿勢を精度良く推定することができるカメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラムを提供することを目的とする。
また、上記目的を達成するために、本発明のカメラ情報修正装置は、実世界のシーンを表す三次元点群から物体を抽出する物体抽出部と、前記物体抽出部により抽出された前記物体の欠損部分を修復する物体復元部と、前記シーン内で撮影された撮影画像から画像エッジを抽出する画像エッジ抽出部と、前記シーン内で撮影画像を撮影した際のカメラの位置及び姿勢を示す位置姿勢情報を用いて、前記物体復元部により復元された前記物体に対して透視投影を行い物体の輪郭に相当するモデルエッジを抽出するモデルエッジ抽出部と、前記画像エッジ抽出部により抽出された前記画像エッジと、前記モデルエッジ抽出部により抽出された前記モデルエッジとのズレ量に応じて前記位置姿勢情報を修正するカメラ情報修正部と、を含む。
また、本発明のカメラ情報修正装置は、前記物体抽出部は、円柱、角柱、円錐、角錐、球、トーラス、及び平面の何れかの形状の物体を抽出するようにしても良い。
また、本発明のカメラ情報修正装置は、前記物体抽出部は、全体が円柱の形状の前記物体、又は少なくとも一部に円柱の形状の部分を含む前記物体を抽出するようにしても良い。
また、本発明のカメラ情報修正装置は、前記物体復元部は、前記物体抽出部により抽出された前記物体を構成する前記三次元点群における点の分布に基づいて、前記物体を分割する必要があるか否かを判断し、前記分割する必要がないと判断した場合には前記物体に最も適合する幾何的プリミティブを当てはめることによって前記物体の前記欠損部分を復元すると共に、前記分割する必要があると判断した場合には前記物体を複数の部分に分割し、分割した前記部分に最も適合する幾何的プリミティブを当てはめることによって前記部分の前記欠損部分を復元するようにしても良い。
また、本発明のカメラ情報修正装置は、前記モデルエッジ抽出部は、前記物体の輪郭に相当する制御点の集合を抽出し、前記カメラ情報修正部は、画像平面上に投影された前記物体の輪郭に相当する前記制御点の集合を前記画像エッジに割り当てて前記ズレ量を算出し、算出した前記ズレ量に応じて前記位置姿勢情報を修正するようにしても良い。
また、本発明のカメラ情報修正装置は、前記カメラ情報修正部は、前記ズレ量、及び前記位置姿勢情報の修正回数の少なくとも一方に基づき前記ズレ量に重み付けを行った状態で、前記位置姿勢情報を修正するようにしても良い。
また、本発明のカメラ情報修正方法は、物体抽出部、物体復元部、画像エッジ抽出部、モデルエッジ抽出部、及びカメラ情報修正部を含むカメラ情報修正装置におけるカメラ情報修正方法であって、前記物体抽出部が、実世界のシーンを表す三次元点群から物体を抽出するステップと、前記物体復元部が、前記物体抽出部により抽出された物体の欠損部分を修復するステップと、前記画像エッジ抽出部が、前記シーン内で撮影された撮影画像から画像エッジを抽出するステップと、前記モデルエッジ抽出部が、前記シーン内で撮影画像を撮影した際のカメラの位置及び姿勢を示す位置姿勢情報を用いて、前記物体復元部により復元された前記物体に対して透視投影を行い物体の輪郭に相当するモデルエッジを抽出するステップと、前記カメラ情報修正部が、前記画像エッジ抽出部により抽出された前記画像エッジと、前記モデルエッジ抽出部により抽出された前記モデルエッジとのズレ量に応じて前記位置姿勢情報を修正するステップと、を行う。
また、上記目的を達成するために、本発明のカメラ情報修正プログラムは、コンピュータを、本発明のカメラ情報修正装置の各部として機能させるためのプログラムである。
本発明によれば、カメラで画像を撮影した際のカメラの位置及び姿勢を精度良く推定することが可能となる。
本発明の実施形態に係る三次元点群に対する画像のカメラ情報修正装置の構成を示すブロック図である。 本発明の実施形態に係るカメラ情報修正装置の基礎データ記憶部の一例を示す図である。 本発明の実施形態に係るカメラ情報修正装置のモデルエッジ抽出部の一例を説明する模式図である。 本発明の実施形態に係るカメラ情報修正装置の三次元物体記憶部の一例を示す図である。 本発明の実施形態に係るカメラ情報修正装置の物体復元部による物体の復元方法の一例を説明するための模式図である。 本発明の実施形態に係るカメラ情報修正装置の復元モデル記憶部の一例を示す図である。 本発明の実施形態に係るカメラ情報修正装置のモデルエッジ記憶部の一例を示す図である。 本発明の実施形態に係るカメラ情報修正装置の画像エッジ記憶部の一例を示す図である。 本発明の実施形態に係るカメラ情報修正装置のカメラ情報修正部で用いられるモデルエッジと画像エッジのズレを説明するための模式図である。 本発明の実施形態に係るカメラ情報修正装置におけるモデル抽出ルーチンを示すフローチャートである。 本発明の実施形態に係るカメラ情報修正装置における係る合わせこみルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施形態を詳細に説明する。
まず、図1を参照して、本実施形態に係るカメラ情報修正装置の構成について説明する。
本実施形態に係るカメラ情報修正装置100は、装置全体を統括して制御するCPUと、CPUによる制御に必要なデータを一時的に記憶するRAMと、後述するモデル抽出プログラム及び合わせこみプログラムを含む各種プログラム、各種データ等を記憶したROMと、を含むコンピュータで構成される。
また、カメラ情報修正装置100は、入力部10と、演算部20と、出力部50とを備えている。
入力部10は、実世界の光景(シーン)に相当する三次元点群を示すデータの入力を受け付け、受け付けた三次元点群を示すデータを基礎データ記憶部30へ格納する。三次元点群を示すデータは、一例として図2に示すように、三次元点群に含まれる各々の制御点を識別するための制御点番号、及びXYZ座標が、制御点毎に対応付けられたデータである。
本実施形態で用いる三次元点群としては、レーザーを用いた計測機器を具備した計測車両を用いて、計測機器により計測車両の屋外を計測することによって得られた三次元点群が例示される。あるいは、このような三次元点群としては、屋外において撮影された大量の画像から三次元再構成技術等を用いて復元された三次元点群等が例示される。
また、入力部10は、上述した三次元点群によって表されるシーンにおいてカメラにより撮影された撮影画像と、この撮影画像を撮影した際のカメラの位置及び姿勢を表す位置姿勢情報、及びカメラの内部パラメータと、を入力として受け付ける。入力部10は、受け付けた撮影画像を、画像データ記憶部31に格納させる。また、入力部10は、受け付けた位置姿勢情報及び内部パラメータをカメラ情報記憶部32に格納させる。
受け付けた撮影画像及び位置姿勢情報のペアは、例えば、カメラを有する携帯端末(例えば、スマートフォン)で撮影を行う場合、撮影時のジャイロ情報及びGPSの計測値、あるいはスマートフォンの位置及び姿勢を計測可能な計測機器を具備した計測車両によって取得される。また、カメラの位置姿勢情報は、例えば、3×3のサイズの回転行列Rと三次元列ベクトルtで与えられる。カメラの内部パラメータとしては、少なくとも焦点距離及び画像中心を取得する。しかし、歪み補正等に関するパラメータ等については、必ずしも取得する必要はない。
演算部20は、前処理部22と、物体抽出部24と、物体復元部26と、基礎データ記憶部30と、画像データ記憶部31と、カメラ情報記憶部32と、三次元物体記憶部33と、復元モデル記憶部34と、モデルエッジ記憶部35と、画像エッジ記憶部36と、モデルエッジ抽出部40と、画像エッジ抽出部42と、カメラ情報修正部44とを含んで構成される。
前処理部22は、後述する各部の処理によって、上述した三次元点群から、幾何的合わせこみに利用する三次元物体を抽出する。また、前処理部22は、抽出した三次元物体を予め用意された三次元モデルに当てはめるモデル当てはめを行うことによって、抽出した三次元物体における欠損部分を復元する。
前処理部22は、物体抽出部24と、物体復元部26とを含んで構成される。
物体抽出部24は、入力部10で受け付けられた三次元点群から、合わせこみの際の手がかりとして利用する予め定めた形状で区分的に近似できる物体を抽出する。予め定めた形状としては、円柱、角柱、円錐、角錐、球、トーラス、平面等の幾何的プリミティブが例示され、上述したように、本実施形態では、全体又は一部が円柱の形状の物体が抽出される。
具体的には、全体又は一部が円柱の形状の物体としては、例えば、電柱のように全体が円柱の形状に構成されている物体、細長い円柱をゆるやかに湾曲させることによって構成されるケーブルのような物体等が例示される。なお、幾何学的合わせこみに利用する三次元物体を三次元点群から抽出する技術は盛んに研究されており、このような技術として、例えば、下記参考文献1及び2に開示されている技術を利用することができる。
[参考文献1]特開2014−106725号公報
[参考文献2]特開2015−1901号公報
また、物体抽出部24は、抽出した物体を示す三次元点群のデータを三次元物体記憶部33に記憶させる。なお、ここで抽出されたN個の物体を、M,…,Mとする。
三次元物体記憶部33には、物体抽出部24で抽出された各々の物体を示す三次元点群(三次元座標の集合)のデータが記憶される。これらの三次元点群のデータは、一例として図4に示すように、抽出された各々の物体を識別するための物体番号(No)、分割フラグ、三次元点群を形成する各々の制御点を識別するための制御点番号(No)、及び制御点のXYZ座標が、抽出された物体毎に対応付けられたデータである。ここでの分割フラグは、分割された物体であるか否かを示すフラグであり、分割されている場合には「true」で表され、分割されていない場合には「false」で表される。
なお、本実施形態では、物体抽出部24が物体を抽出する際に、N個の物体M,…,Mのそれぞれについて、全体が円柱である場合、すなわち物体が分割されていない場合には、分割フラグを「false」とし、物体における一部分が円柱である場合、すなわち物体が分割されている場合には、分割フラグを「true」とする場合について説明する。しかし、全体が円柱であるか、物体における一部分が円柱であるかを判断できない場合には、分割フラグについて三次元物体記憶部33に記憶されなくても良い。
物体復元部26は、三次元物体記憶部33に記憶されたN個の物体M,…,Mのそれぞれについて、分割する必要があるか否かを判定する。この際、本実施形態では、三次元物体記憶部33に記憶されている分割フラグに基づいて、物体を分割する必要があるか否かを判定する。しかし、三次元物体記憶部33に分割フラグが記憶されていない場合には、物体を構成する点群が三次元空間上でどのように分布しているかを主成分分析によって求める。具体的には、物体に対して主成分分析を行うと、3つの固有値とこれらの固有値に対応する固有ベクトルが得られる。このうち最も大きな固有値λと、2番目に大きな固有値λの比率によって、物体を分割する必要があるか否かを判定すれば良い。
物体復元部26は、物体を分割する必要がない場合には、物体の全体に対して円柱を当てはめる。
一方、物体復元部26は、物体を分割する必要がある場合には、例えば、下記参考文献3に開示されているクラスタリングの手法を用いて、物体を複数の部分に分割する。
[参考文献3]Voxel cloud connectivity segmentation - supervoxels for point clouds, J. Papon et al., Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2013.
ここでは、物体MがK個の部分Pi1…PiKに分割されたとする。なお、分割で得られた各部分も点群であることに注意する。次に、物体復元部26は、分割で得られた各部分に対して円柱を当てはめる。
なお、円柱を当てはめる手法としては、ハフ変換やRANSACを利用した手法等が例示され、これらの手法を利用すれば良い(例えば、下記参考文献4参照)。
[参考文献4]Efficient RANSAC for point-cloud shape detection, R. Schnabel et al., Computer Graphics Forum, vol. 26, no. 2, pp. 214-226, 2007.
このように、三次元点群で示された円柱の形状の物体の部分に対して、円柱の三次元モデルを当てはめることにより、一例として図5に示すように、各部分について、計測によって得られた形状52における欠損部分52aが復元された形状54が得られる。
物体の部分に円柱を当てはめることにより得られた円柱を、底面に相当する2つの円の中心座標(x,y,z)及び(x,y,z)と、円の半径rとで表す。物体復元部26は、部分Pikをこれらの7つのパラメータ(x,y,z,x,y,z,r)で表すと共に、7つのパラメータで表した部分Pikを示すデータを復元モデル記憶部34に記憶させる。
部分Pikを示すデータは、一例として図6に示すように、各々の部分Pikを識別するための部分番号(No)、及び、上述した7つのパラメータ(x,y,z,x,y,z,r)が、部分Pik毎に対応付けられたデータである。
なお、本実施形態では、三次元点群で示された円柱の形状の物体、又は物体を分割して得られる円柱の形状の部分Pikに対して、円柱の幾何的プリミティブが当てはめられる場合について説明したが、これに限らない。例えば、上述した幾何的プリミティブのうち、円柱以外の形状を用いて、三次元点群で示された当該形状の物体、又は物体を分割して得られる当該形状の部分Pikに対して、当該形状の幾何的プリミティブが当てはめられれば良い。
モデルエッジ抽出部40は、カメラ情報記憶部32に記憶されているカメラの内部パラメータ及び位置姿勢情報に基づき、物体復元部26によって復元されて復元モデル記憶部34に記憶された円柱を、画像平面上に透視投影することにより得られる領域の輪郭のうち、円柱側面に対応するエッジを抽出する。
一例として図3に示すように、透視投影を行う際には、まず、円柱の形状の物体46を表現する上述した7つのパラメータを用いて、物体46の中心軸を通る鉛直な平面で円柱を切断して得られる長方形56の頂点56a、56b、56c、56dの三次元座標を計算する。ここで、円柱の底面に相当する2つの円盤58の半径をrとし、2つの円盤の中心58a、58bの中心座標を(x,y,z)及び(x,y,z)とし、これらの2点の中心座標を結ぶベクトルであって長さを1としたベクトルをvとし、三次元空間内で鉛直方向を向いた単位ベクトルをnとし、これらの2つのベクトルに直交する単位ベクトルをn^とした場合について考える。
ベクトルvと単位ベクトルnとが平行でない場合には、これらの4点は下記(1)式のように表される。


・・・(1)
ただし、単位ベクトルn^が自身の要素を用いてn^=[n^ n^ n^]と表される場合には、R(n^,θ)は、下記(2)式及び(3)式に示すようにロドリゲスの式で表される3×3の行列である。


・・・(2)


・・・(3)
一方、ベクトルvと単位ベクトルnとが平行な場合には、円柱の中心を通り、かつ、画像平面に対して平行な面で円柱を切断して得られる4点を考える。
続いて、長方形56の4辺のうち、円柱の中心軸を通る平面と円柱の側面との交線60a、60bを、カメラ48の内部パラメータを用いて画像平面62上に投影し、投影した画像における交線60a、60bをエッジ(以下、「モデルエッジ」という。)として抽出すると共に、交線60a、60bの両端の画像平面62上での座標を取得する。
なお、透視投影の詳細な計算方法については下記参考文献5に開示されているため、ここでの説明を省略する。
[参考文献5]コンピュータビジョン―アルゴリズムと応用―、Richard Szeliski 著・玉木 徹・福嶋 慶繁・飯山 将晃・鳥居 秋彦・栗田 多喜夫・波部 斉・林 昌希・野田 雅文訳、共立出版、2013.
このようにして得られた2つのモデルエッジの端点の画像平面62上の座標(画像座標系における座標)(x,y)と、三次元点群におけるこれらの端点に相当する三次元座標(u,v,w)とを示すモデルエッジ情報を、モデルエッジ記憶部35に記憶させる。なお、上述した長方形の頂点に相当する三次元座標は位置姿勢情報を更新する際に必要となる。
モデルエッジ情報は、一例として図7に示すように、上述した各々のモデルエッジを識別するためのモデルエッジ番号(No)、モデルエッジにおける一方の端点の画像平面62上の座標(x11,y11)と三次元点群における三次元座標(u11,v11,w11)、及び、モデルエッジにおける他方の端点の画像平面62上の座標(x12,y12)と三次元点群における三次元座標(u12,v12,w12)が、モデルエッジ毎に対応付けられた情報である。
なお、本実施形態では、モデルエッジ情報によりモデルエッジを現すが、これに限らない。例えば、モデルエッジ情報そのものではなく、モデルエッジとの距離が所定の閾値よりも短い制御点の座標と、それらの制御点の画像平面上の座標と、のペアからなる集合を、モデルエッジを現すものとして用いても良い。
画像エッジ抽出部42は、入力された撮影画像からエッジ(以下、「画像エッジ」という。)を検出する。
撮影画像から画像エッジを検出する手法としては、ハフ変換を用いる手法、確率的ハフ変換を用いる手法、LSD(Line Segment Detector)を用いる手法(非特許文献6参照)等が例示され、これらの手法を状況に応じて利用すれば良い。なお、本実施形態では、LSDを用いる場合について説明する。
[参考文献6]LSD: A Fast Line Segment Detector with a False Detection Control, R. Grompone et al., IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 32, no. 4, pp. 722-732, 2010.
画像エッジ抽出部42は、検出された画像エッジの端点を表す2つの画像座標(x,y)及び(x’,y’)を画像エッジ情報として画像エッジ記憶部36に記憶させる。
画像エッジ情報は、一例として図8に示すように、上述した各々の画像エッジを識別するための画像エッジ番号(No)、画像エッジにおける一方の端点の画像座標(x,y)、及び画像エッジにおける他方の端点の画像座標(x’,y’)が、画像エッジごとに対応付けられた情報である。
カメラ情報修正部44は、画像エッジ記憶部36に記憶されている画像エッジ情報と、モデルエッジ記憶部35に記憶されているモデルエッジ情報とを画像平面上で表した場合の画像平面上でのズレ量を求める。また、カメラ情報修正部44は、求めたズレ量が小さくなるようにモデルエッジの三次元座標情報を利用してカメラの位置姿勢情報を繰り返し更新する。
位置姿勢情報を更新する際には、更新後のカメラの位置及び姿勢における、取得した位置姿勢情報によって示されるカメラの位置及び姿勢からの微小変化量をパラメータとして導入し、ズレ量に基づく誤差を減少させる微小変化量をガウス=ニュートン法を用いて求める。また、求めた微小変化量を、位置姿勢情報に適用することによって、位置姿勢情報の更新を行う。
続いて、位置姿勢情報の更新量の具体的な計算法について説明する。
まず、モデルエッジ記憶部35に記憶されている各モデルエッジについて、当該モデルエッジと、画像エッジ記憶部36に記憶された各画像エッジとのズレ量を計算し、最もズレ量が小さい画像エッジを当該モデルエッジに対応付ける。
一例として図9に示すように、モデルエッジ記憶部35に記憶されているモデルエッジE(ただし、1≦i≦N)の端点の座標を(x11,y11)及び(x12,y12)とし、画像エッジ記憶部36に記憶されている画像エッジF(ただし、1≦j≦N)の端点の座標を(x21,y21)及び(x22,y22)とする。ただし、Nはモデルエッジの総数であり、Nは画像エッジの総数である。モデルエッジEに直交する法線ベクトルnEiと、画像エッジFに直交する法線ベクトルnFjを下記(4)式及び(5)式に従って計算する。


・・・(4)


・・・(5)
また、モデルエッジEの中点mEiと画像エッジFの中点mFjを表す2次元列ベクトルを下記(6)式及び(7)式に従って計算する。


・・・(6)


・・・(7)
計算した法線ベクトルnEi、法線ベクトルnFj、中点mEi、及び中点mFjを用いて、モデルエッジEの画像エッジFに対するズレ量eijを下記(8)式に従って計算する。


・・・(8)
なお、上記(8)式におけるベクトル表記の上付き文字Tは、ベクトルの転置を表す。これは、図9が示すように、モデルエッジ及び画像エッジの法線のなす角度の一致度と、モデルエッジの中点mEiから画像エッジFを含む直線に下した垂線の長さとの2つを、重みwで重み付けを行って足し合わせたものである。
このように、上述した例では、モデルエッジ及び画像エッジのうちの一方のエッジの重心から他方のエッジを含む直線に下した垂線の長さと、モデルエッジ及び画像エッジの傾きの類似度と、を用いて、モデルエッジ及び画像エッジのズレ量を計算しているが、その他の方法としては、一方のエッジの2つの端点から他方のエッジへ下ろした2本の垂線の長さの和を用いる等の方法がある。
また、モデルエッジ情報そのものではなく、モデルエッジとの距離が所定の閾値よりも短い制御点の座標と、それらの制御点の画像平面上の座標とのペアからなる集合を用いる場合は、各制御点の画像平面上の座標から画像エッジへ下した垂線の長さが最も短いエッジに、制御点を割り当て、モデルエッジと画像エッジとのズレ量を算出し、このズレ量がより小さくなるように位置姿勢情報を修正すれば良い。このとき、上記(8)式の右辺の第1項のみを用いるようにして上述した処理を修正すればよい。
各モデルエッジEについて、画像エッジ記憶部36に記憶されている全ての画像エッジFに対してこのズレ量eijを計算し、ズレ量eijの最小値をeとすると共に、ズレ量eijが最小となった画像エッジFを画像エッジFkiする。この場合、ズレ量eijの最小値をeと、ズレ量eijが最小となった画像エッジFkiとは、下記(9)式及び(10)式に示すように表される。


・・・(9)


・・・(10)
このように定義された最小値e及び画像エッジFkiを用いて、カメラの位置及び姿勢を最適化するための誤差Dを下記(11)式に示すように定義する。


・・・(11)
ここで、各最小値eに対して用いる重みwを、円柱、角柱等の物体の形状のカテゴリ、ズレ量eijの最小値e、及び位置姿勢情報のパラメータの修正回数の少なくとも1つに基づき決定し、ズレ量eijの最小値eに重み付けを行った状態で、位置姿勢情報を修正するようにしても良い。例えば、αを所与の定数とした場合に、ズレ量eijの最小値eに基づいて、重みwを下記(12)式に示すように定義すると良い。


・・・(12)
また、位置姿勢情報のパラメータの修正回数を利用して重みwを計算する方法としては、上記(12)式において、t回の修正回数で得られたズレ量e とし、(t−1)回の修正回数で得られたズレ量e t−1として、上記(12)式の定数αを、下記(13)式に示す定数αに置き換えると良い。


・・・(13)
なお、重みwを用いる場合には、以下の各式における最小値eをwと置き換えると良い。
ここで、位置姿勢情報の変動を表すパラメータp,p,p,p,p,pを導入し、これらのパラメータp,p,p,p,p,pを用いて位置姿勢情報を下記(14)式及び(15)式に示すように修正する。


・・・(14)


・・・(15)
誤差Dを減少させるパラメータp,p,p,p,p,pをガウス=ニュートン法によって求める(下記参考文献7参照)。
[参考文献7]バンドルアジャストメント、岡谷貴之、研究報告コンピュータビジョンとイメージメディア(CVIM) 2009-CVIM-167(37), pp. 1-16, 2009.
ここでは、ガウス=ニュートン法に基づく方法を用いた場合について説明するが、無論レベンバーグ=マーカート法に代表されるニュートン法の派生アルゴリズム等、利用するアルゴリズムは他のアルゴリズムであっても良い。ガウス=ニュートン法によって更新量を求めるには下記(16)式及び(17)式で示すベクトルe及びベクトルJが必要である。


・・・(16)


・・・(17)
上記(17)式で定義したJの各要素を求めるに当たっては、最小値eに含まれるモデルエッジの端点がパラメータp,p,p,p,p,pから影響を受けることに注意する。モデルエッジの端点が画像座標(x,y)であり、これに対応するものとしてモデルエッジ記憶部35に記憶された三次元座標が(u,v,w)であるとき、透視投影変換によって(x,y)と(u,v,w)は、下記(18)式及び(19)式に示すような関係を持つ。


・・・(18)


・・・(19)
ここで、f及びfは、内部パラメータに含まれる画像の水平方向及び鉛直方向の軸に関する焦点距離を表し、c及びcは、内部パラメータに含まれる画像の水平方向及び鉛直方向のそれぞれの軸に関する画像座標の値を表す。上記(18)式及び(19)式と、eの定義式を用いてベクトルe及びベクトルJを求めたら、下記(20)式の方程式をパラメータp,p,p,p,p,pについて解き、位置姿勢情報の修正量を求める。


・・・(20)
以上のようにして求めたパラメータp,p,p,p,p,pを用いて、上記(14)式及び上記(15)式によって、カメラ情報記憶部32に記憶された位置姿勢情報を修正する。更新した位置姿勢情報を用いて誤差Dを再度計算し、誤差が所定の値以下になるか、あるいは所定の回数だけ繰り返し位置姿勢情報の更新を行ったところで位置姿勢情報の更新を打ち切り、更新を終了した時点で、カメラ情報記憶部32に記憶された位置姿勢情報を最終的な位置姿勢情報として出力する。
次に、本発明の実施の形態に係るカメラ情報修正装置100の作用について説明する。
はじめに、モデル抽出ルーチンについて説明する。入力部10において実世界のシーンに相当する三次元点群を示すデータの入力を受け付けて、受け付けられたデータを基礎データ記憶部30に格納すると、カメラ情報修正装置100は、図10に示すモデル抽出ルーチンを実行する。
なお、本実施形態では、モデル抽出ルーチンのプログラムは予めROMに記憶されているが、これに限らない。例えば、当該プログラムは、外部装置から受信して実行されても良い。また、CD−ROM等の記録媒体に記録された当該プログラムがCD−ROMドライブ等で読み込まれることにより、モデル抽出ルーチンが実行されるようにしてもよい。
ステップS100では、物体抽出部24が、合わせこみに利用する物体を抽出し、抽出したN個の物体をそれぞれ三次元座標の集合として三次元物体記憶部33に記憶させる。
ステップS102では、物体復元部26が、三次元物体記憶部33に記憶されているN個の物体のそれぞれについて、物体を分割する必要がある場合には、物体を複数の部分に分割し、物体全体あるいは物体の分割された部分に対して、適切に復元しうる物体を当てはめることによって復元された物体全体あるいは物体の分割された部分の形状を、復元モデル記憶部34に記憶させ、本モデル抽出ルーチンの実行を終了する。
次に、合わせこみルーチンについて説明する。入力部10により、シーンにおいてカメラにより撮影された撮影画像と、この撮影画像を撮影した際のカメラの位置及び姿勢を表す位置姿勢情報、及びカメラの内部パラメータと、を受け付けて、撮影画像が画像データ記憶部31に記憶され、位置姿勢情報とカメラの内部パラメータとがカメラ情報記憶部32に記憶されると、カメラ情報修正装置100は、図11に示す合わせこみルーチンを実行する。
なお、本実施形態では、合わせこみルーチンのプログラムは予めROMに記憶されているが、これに限らない。例えば、当該プログラムは、外部装置から受信して実行されても良い。また、CD−ROM等の記録媒体に記録された当該プログラムがCD−ROMドライブ等で読み込まれることにより、合わせこみルーチンが実行されるようにしてもよい。
ステップS200では、画像エッジ抽出部42が、画像データ記憶部31に記憶されている撮影画像を示す画像情報から画像エッジを抽出し、抽出した情報を画像エッジ記憶部36に記憶させる。
ステップS202では、モデルエッジ抽出部40が、復元モデル記憶部34に記憶されているモデルを、カメラ情報記憶部32に記憶されているカメラの内部パラメータと位置姿勢情報に基づいて画像平面上へ透視投影を行い、モデルの輪郭に相当するエッジを抽出し、抽出した情報をモデルエッジ記憶部35に記憶させる。
ステップS204では、カメラ情報修正部44が、モデルエッジ記憶部35に記憶されているモデルエッジと、画像エッジ記憶部36に記憶されている画像エッジとを比較し、最もズレ量が小さい画像エッジとのズレ量を算出し、上記(11)で定義された誤差Dを計算する。
ステップS206では、カメラ情報修正部44が、誤差Dの値が予め定めた閾値以下であるか否かを判定する。ステップS206で誤差Dの値が予め定めた閾値以下であると判定した場合(S206,Y)はステップS212に移行する。また、ステップS206で誤差Dの値が予め定めた閾値以下でないと判定した場合(S206,N)はステップS208に移行する。
ステップS208では、カメラ情報修正部44が、最もズレ量が小さい画像エッジとのズレ量に基づいて、ガウス=ニュートン法を利用して位置姿勢情報の修正量を求め、カメラ情報記憶部32に記憶された位置姿勢情報へ反映させる。
ステップS210では、カメラ情報修正部44が、位置姿勢情報の修正回数が予め定めた回数に到達したか否かを判定する。ステップS210で位置姿勢情報の修正回数が予め定めた回数に到達したと判定した場合(S210,Y)はステップS212に移行する。また、ステップS210で位置姿勢情報の修正回数が予め定めた回数に到達していないと判定した場合(S210,N)はステップS202に移行し、再度、位置姿勢情報の修正を行う。
ステップS212では、カメラ情報修正部44が、カメラ情報記憶部32に記憶されている位置姿勢情報を最終的な結果として出力部50に出力して、本合わせこみルーチンの実行を終了する。
以上説明したように、本実施形態に係るカメラ情報修正装置100では、実世界のシーンを表す三次元点群から物体が抽出されると共に、抽出された物体の欠損部分が修復される。また、本実施形態に係るカメラ情報修正装置100では、シーン内で撮影された撮影画像から画像エッジが抽出され、シーン内で撮影画像を撮影した際のカメラの位置及び姿勢を示す位置姿勢情報を用いて、復元された物体に対して透視投影を行い物体の輪郭に相当するモデルエッジが抽出され、抽出された画像エッジと、抽出されたモデルエッジとのズレ量に応じて位置姿勢情報が修正される。
これにより、カメラで画像を撮影した際のカメラの位置及び姿勢を精度良く推定することができる。
以上、本実施形態について図面を参照して詳細に説明したが、具体的な構成は本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。
また、本実施形態では、図1に示す機能の構成要素の動作をプログラムとして構築し、カメラ情報修正装置100として利用されるコンピュータにインストールして実行させるが、これに限らず、ネットワークを介して流通させても良い。
また、構築されたプログラムをハードディスクやフレキシブルディスク、CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールしたり、配布したりしても良い。
10 入力部
20 演算部
22 前処理部
24 物体抽出部
26 物体復元部
30 基礎データ記憶部
31 画像データ記憶部
32 カメラ情報記憶部
33 三次元物体記憶部
34 復元モデル記憶部
35 モデルエッジ記憶部
36 画像エッジ記憶部
40 モデルエッジ抽出部
42 画像エッジ抽出部
44 カメラ情報修正部
50 出力部
100 物体特定装置

Claims (7)

  1. 実世界のシーンを表す三次元点群から物体を抽出する物体抽出部と、
    前記シーン内で撮影された撮影画像から画像エッジFを抽出する画像エッジ抽出部と、
    前記シーン内で撮影画像を撮影した際のカメラの位置及び姿勢を示す位置姿勢情報を用いて、前記物体抽出部により抽出された前記物体に対して透視投影を行い物体の輪郭に相当するモデルエッジEを抽出するモデルエッジ抽出部と、
    前記モデルエッジEの各々について、前記画像エッジFとのズレ量eijを計算しズレ量eijの最小値eを求め、前記モデルエッジEの最小値eから誤差Dを計算し、前記誤差Dを減少させるように前記位置姿勢情報を修正するカメラ情報修正部と、
    を含むカメラ情報修正装置。
  2. 前記カメラ情報修正部は、前記最小値e及び前記位置姿勢情報の修正回数の少なくとも一方に基づき前記最小値eに重み付けを行い、前記誤差Dを計算する
    請求項1記載のカメラ情報修正装置。
  3. 前記カメラ情報修正部は
    前記誤差Dを減少させる微小変化量をガウス=ニュートン法を用いて求め、求めた微小変化量を前記位置姿勢情報に適用することによって、前記位置姿勢情報を修正する
    請求項1または請求項2項記載のカメラ情報修正装置。
  4. 物体抽出部、画像エッジ抽出部、モデルエッジ抽出部、及びカメラ情報修正部を含むカメラ情報修正装置におけるカメラ情報修正方法であって、
    前記物体抽出部が、実世界のシーンを表す三次元点群から物体を抽出するステップと、
    前記画像エッジ抽出部が、前記シーン内で撮影された撮影画像から画像エッジFを抽出するステップと、
    前記モデルエッジ抽出部が、前記シーン内で撮影画像を撮影した際のカメラの位置及び姿勢を示す位置姿勢情報を用いて、前記物体抽出部により抽出された前記物体に対して透視投影を行い物体の輪郭に相当するモデルエッジEを抽出するステップと、
    前記カメラ情報修正部が、前記モデルエッジEの各々について、前記画像エッジFとのズレ量eijを計算しズレ量eijの最小値eを求め、前記モデルエッジEの最小値eから誤差Dを計算し、前記誤差Dを減少させるように前記位置姿勢情報を修正するステップと、
    を行うカメラ情報修正方法。
  5. 前記カメラ情報修正部は、前記最小値e及び前記位置姿勢情報の修正回数の少なくとも一方に基づき前記最小値eに重み付けを行い、前記誤差Dを計算する
    請求項4記載のカメラ情報修正方法。
  6. 前記カメラ情報修正部は
    前記誤差Dを減少させる微小変化量をガウス=ニュートン法を用いて求め、求めた微小変化量を前記位置姿勢情報に適用することによって、前記位置姿勢情報を修正する
    請求項4または請求項5項記載のカメラ情報修正方法。
  7. コンピュータを、請求項1〜3の何れか1項記載のカメラ情報修正装置を構成する各部として機能させるためのプログラム。
JP2019137814A 2019-07-26 2019-07-26 カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム Pending JP2019192299A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019137814A JP2019192299A (ja) 2019-07-26 2019-07-26 カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019137814A JP2019192299A (ja) 2019-07-26 2019-07-26 カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016206075A Division JP6636894B2 (ja) 2016-10-20 2016-10-20 カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム

Publications (1)

Publication Number Publication Date
JP2019192299A true JP2019192299A (ja) 2019-10-31

Family

ID=68390572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019137814A Pending JP2019192299A (ja) 2019-07-26 2019-07-26 カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム

Country Status (1)

Country Link
JP (1) JP2019192299A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022032114A (ja) * 2020-08-11 2022-02-25 トヨタ自動車株式会社 キャリブレーションシステム、キャリブレーション方法及びキャリブレーションプログラム
WO2023173727A1 (zh) * 2022-03-16 2023-09-21 北京字跳网络技术有限公司 图像处理方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046750A (ja) * 2006-08-11 2008-02-28 Canon Inc 画像処理装置および方法
JP2010279023A (ja) * 2009-04-30 2010-12-09 Canon Inc 情報処理装置およびその制御方法
JP2011174879A (ja) * 2010-02-25 2011-09-08 Canon Inc 位置姿勢推定装置及びその方法
JP2014153336A (ja) * 2013-02-13 2014-08-25 Nippon Telegr & Teleph Corp <Ntt> 点群解析処理装置及び点群解析処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046750A (ja) * 2006-08-11 2008-02-28 Canon Inc 画像処理装置および方法
JP2010279023A (ja) * 2009-04-30 2010-12-09 Canon Inc 情報処理装置およびその制御方法
JP2011174879A (ja) * 2010-02-25 2011-09-08 Canon Inc 位置姿勢推定装置及びその方法
JP2014153336A (ja) * 2013-02-13 2014-08-25 Nippon Telegr & Teleph Corp <Ntt> 点群解析処理装置及び点群解析処理プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022032114A (ja) * 2020-08-11 2022-02-25 トヨタ自動車株式会社 キャリブレーションシステム、キャリブレーション方法及びキャリブレーションプログラム
JP7314878B2 (ja) 2020-08-11 2023-07-26 トヨタ自動車株式会社 キャリブレーションシステム、キャリブレーション方法及びキャリブレーションプログラム
WO2023173727A1 (zh) * 2022-03-16 2023-09-21 北京字跳网络技术有限公司 图像处理方法、装置及电子设备

Similar Documents

Publication Publication Date Title
US11450063B2 (en) Method and apparatus for training object detection model
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
US10636168B2 (en) Image processing apparatus, method, and program
JP5406705B2 (ja) データ補正装置及び方法
JP6636894B2 (ja) カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
US20120155751A1 (en) Object recognition apparatus, object recognition method, learning apparatus, learning method, storage medium and information processing system
EP3633606B1 (en) Information processing device, information processing method, and program
JP2016179534A (ja) 情報処理装置、情報処理方法、プログラム
EP2960859B1 (en) Constructing a 3d structure
CN113705669A (zh) 一种数据匹配方法、装置、电子设备以及存储介质
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
CN114255323A (zh) 机器人、地图构建方法、装置和可读存储介质
JP2019192299A (ja) カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム
CN114981845A (zh) 图像扫描方法及装置、设备、存储介质
JP6692321B2 (ja) 幾何的合わせこみ装置、方法、及びプログラム
JP7298687B2 (ja) 物体認識装置及び物体認識方法
US20230410368A1 (en) Method for learning network parameter of neural network, method for calculating camera parameter, and computer-readable recording medium recording a program
Bracci et al. Challenges in fusion of heterogeneous point clouds
EP3605463B1 (en) Crossing point detector, camera calibration system, crossing point detection method, camera calibration method, and recording medium
Kim et al. Mesh modelling of 3D point cloud from UAV images by point classification and geometric constraints
US12056942B2 (en) Method and system for processing an image by determining rotation hypotheses
JP6260533B2 (ja) 位置姿勢推定装置、位置姿勢推定方法および位置姿勢推定プログラム
JPH06243251A (ja) 画像特徴抽出装置
JP7487266B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201013

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210202