JP2010199898A - Image processor, imaging apparatus, image generation method and program - Google Patents
Image processor, imaging apparatus, image generation method and program Download PDFInfo
- Publication number
- JP2010199898A JP2010199898A JP2009041519A JP2009041519A JP2010199898A JP 2010199898 A JP2010199898 A JP 2010199898A JP 2009041519 A JP2009041519 A JP 2009041519A JP 2009041519 A JP2009041519 A JP 2009041519A JP 2010199898 A JP2010199898 A JP 2010199898A
- Authority
- JP
- Japan
- Prior art keywords
- image
- captured image
- imaging
- dimensional
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、撮像装置、画像生成方法、および、プログラムに関し、特に、3次元画像の生成に好適な画像処理装置、撮像装置、画像生成方法、および、プログラムに関する。 The present invention relates to an image processing device, an imaging device, an image generation method, and a program, and more particularly, to an image processing device, an imaging device, an image generation method, and a program suitable for generating a three-dimensional image.
CCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementally Metal Oxide Semiconductor:相補型金属酸化物半導体)などのイメージセンサを用いて撮像画像を生成するデジタルカメラが広く普及している。 Digital cameras that generate captured images using an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) are widely used.
デジタルカメラにおいては、撮像画像がデジタルデータとして得られるため、撮像時に種々の画像処理をおこなうことができる(例えば、特許文献1)。 In a digital camera, since a captured image is obtained as digital data, various image processing can be performed during imaging (for example, Patent Document 1).
しかしながら、従来のデジタルカメラにおいては、レンズを通して得られた被写体像を平面のイメージセンサに結像させることで撮像画像を生成しているため、被写体に対しての距離情報がない。このため、一般的な単眼のデジタルカメラで撮像した画像から立体画像(3次元画像)を生成することができなかった。 However, in a conventional digital camera, a captured image is generated by forming a subject image obtained through a lens on a flat image sensor, and thus there is no distance information with respect to the subject. For this reason, it was not possible to generate a stereoscopic image (three-dimensional image) from an image captured by a general monocular digital camera.
本発明は、上記実状に鑑みてなされたものであり、撮像画像から3次元画像を生成することのできる画像処理装置、撮像装置、画像生成方法、および、プログラムを提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an imaging apparatus, an image generation method, and a program that can generate a three-dimensional image from a captured image.
上記目的を達成するため、本発明の第1の観点にかかる画像処理装置は、
撮像動作によって生成された撮像画像を取得する撮像画像取得手段と、
前記撮像動作時の位置と方向を示す位置情報と方向情報とを取得し、前記撮像画像取得手段が取得した前記撮像画像に対応づけて記録する撮像時情報取得手段と、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得手段と、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、前記地図情報取得手段が取得した前記数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成するモデリング手段と、
前記モデリング手段が生成した3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する3次元画像生成手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention provides:
Captured image acquisition means for acquiring a captured image generated by the imaging operation;
Image capturing time information acquisition means for acquiring position information and direction information indicating the position and direction during the image capturing operation, and recording the information in association with the captured image acquired by the captured image acquisition means;
Map information acquisition means for acquiring numerical map data of an imaging location based on the position information associated with the captured image;
Modeling that generates three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the numerical map data acquired by the map information acquisition unit. Means,
3D image generation means for mapping the captured image to 3D modeling data generated by the modeling means to generate a 3D image;
It is characterized by providing.
上記画像処理装置において、
前記3次元画像生成手段は、
前記撮像画像を構成しているオブジェクトを検出するオブジェクト検出手段と、
前記オブジェクト検出手段が検出したオブジェクトを示すオブジェクト画像を当該撮像画像から抽出するオブジェクト画像抽出手段と、
をさらに備えていることが望ましく、この場合、
前記オブジェクト画像抽出手段が抽出したオブジェクト画像を前記3次元モデリングデータにマッピングすることで前記3次元画像を生成することが望ましい。
In the image processing apparatus,
The three-dimensional image generation means includes
Object detection means for detecting an object constituting the captured image;
Object image extraction means for extracting an object image indicating the object detected by the object detection means from the captured image;
In this case,
It is preferable that the three-dimensional image is generated by mapping the object image extracted by the object image extraction unit to the three-dimensional modeling data.
上記画像処理装置において、
前記3次元画像生成手段は、
前記撮像動作時の照光条件を特定する照光条件特定手段と、
前記照光条件特定手段が特定した照光条件に基づいて、前記3次元モデリングデータにマッピングさせる画像を加工する画像加工手段と、をさらに備えていることが望ましい。
In the image processing apparatus,
The three-dimensional image generation means includes
An illumination condition specifying means for specifying an illumination condition during the imaging operation;
It is desirable to further include image processing means for processing an image to be mapped to the three-dimensional modeling data based on the illumination condition specified by the illumination condition specifying means.
上記目的を達成するため、本発明の第2の観点にかかる撮像装置は、
撮像時の位置を検出する位置検出手段と、
撮像時の方向を検出する方向検出手段と、
前記位置検出手段が検出した位置を示す位置情報と、前記方向検出手段が検出した方向を示す方向情報とを、当該撮像によって得られた撮像画像と対応づけて記憶する記憶手段と、
前記撮像画像に対応づけられた前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得手段と、
前記撮像画像に対応づけられた前記位置情報および前記方向情報と、前記地図情報取得手段が取得した数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成し、該3次元モデリングデータに当該撮像画像をマッピングして3次元画像を生成する3次元画像生成手段と、
を備えることを特徴とする。
In order to achieve the above object, an imaging apparatus according to a second aspect of the present invention provides:
Position detecting means for detecting a position at the time of imaging;
Direction detection means for detecting the direction during imaging;
Storage means for storing position information indicating the position detected by the position detection means and direction information indicating the direction detected by the direction detection means in association with a captured image obtained by the imaging;
Map information acquisition means for acquiring numerical map data of an imaging location based on the position information associated with the captured image;
Based on the position information and the direction information associated with the captured image, and the numerical map data acquired by the map information acquisition unit, three-dimensional modeling data corresponding to the captured image is generated, and the 3 3D image generation means for mapping the captured image to 3D modeling data to generate a 3D image;
It is characterized by providing.
上記撮像装置は、
前記数値地図データを格納する地図情報格納手段をさらに備えていることが望ましく、この場合、
前記地図情報取得手段は、前記地図情報格納手段から数値地図データを取得することが望ましい。
The imaging apparatus is
It is desirable to further comprise map information storage means for storing the numerical map data, in this case,
The map information acquisition means preferably acquires numerical map data from the map information storage means.
上記撮像装置において、
前記3次元画像生成手段は、前記撮像画像を構成しているオブジェクトを検出して抽出し、該抽出したオブジェクト画像を前記3次元モデリングデータにマッピングして前記3次元画像を生成することが望ましい。
In the imaging apparatus,
Preferably, the three-dimensional image generation means detects and extracts an object constituting the captured image, maps the extracted object image to the three-dimensional modeling data, and generates the three-dimensional image.
上記撮像装置において、
前記3次元画像生成手段は、撮像時の照光条件に基づいて、前記3次元モデリングデータにマッピングさせる画像を加工することが望ましい。
In the imaging apparatus,
The three-dimensional image generation means preferably processes an image to be mapped to the three-dimensional modeling data based on illumination conditions at the time of imaging.
上記目的を達成するため、本発明の第3の観点にかかる画像生成方法は、
画像処理装置が3次元画像を生成するための画像生成方法であって、
前記画像処理装置が、
撮像動作によって生成された撮像画像を取得する撮像画像取得ステップと、
前記撮像動作時の位置を示す位置情報と方向を示す方向情報とを取得し、前記撮像画像取得ステップで取得された前記撮像画像に対応づけて記録する撮像時情報取得ステップと、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得ステップと、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、前記地図情報取得ステップで取得された前記数値地図データとに基づいて、当該撮像画像に相当する3次元モデリングデータを生成するモデリングステップと、
前記モデリングステップで生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する3次元画像生成ステップと、
を含むことを特徴とする。
In order to achieve the above object, an image generation method according to a third aspect of the present invention includes:
An image generation method for an image processing apparatus to generate a three-dimensional image,
The image processing apparatus is
A captured image acquisition step of acquiring a captured image generated by the imaging operation;
An imaging time information acquisition step of acquiring position information indicating a position at the time of the imaging operation and direction information indicating a direction, and recording in association with the captured image acquired in the captured image acquisition step;
Based on the position information associated with the captured image, a map information acquisition step of acquiring numerical map data of the imaging location;
Modeling that generates three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the numerical map data acquired in the map information acquisition step. Steps,
A 3D image generation step of generating a 3D image by mapping the captured image onto the 3D modeling data generated in the modeling step;
It is characterized by including.
上記目的を達成するため、本発明の第4の観点にかかるプログラムは、
撮像装置によって得られた撮像画像に画像処理をおこなう画像処理装置を制御するコンピュータに、
撮像動作によって生成された撮像画像を取得する機能と、
前記撮像動作時の位置を示す位置情報と方向を示す方向情報とを取得し、前記取得した撮像画像に対応づけて記録する機能と、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する機能と、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、該取得された前記数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成する機能と、
該生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する機能と、
を実行させることを特徴とする。
In order to achieve the above object, a program according to the fourth aspect of the present invention is:
A computer that controls an image processing apparatus that performs image processing on a captured image obtained by the imaging apparatus;
A function of acquiring a captured image generated by the imaging operation;
A function of acquiring position information indicating a position at the time of the imaging operation and direction information indicating a direction, and recording the information in association with the acquired captured image;
Based on the position information associated with the captured image, a function of acquiring numerical map data of the imaging location;
A function of generating three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the acquired numerical map data;
A function of mapping the captured image to the generated three-dimensional modeling data to generate a three-dimensional image;
Is executed.
上記目的を達成するため、本発明の第5の観点にかかるプログラムは、
撮像時の位置と方向を検出する検出手段を備えた撮像装置を制御するコンピュータに、
前記検出手段が検出した位置および方向を示す位置情報および方向情報を、当該撮像によって得られた撮像画像と対応づけて記憶装置に記憶させる機能と、
前記撮像画像に対応づけられた前記位置情報に基づいて、撮像場所の数値地図データを取得する機能と、
前記撮像画像に対応づけられた前記位置情報および前記方向情報と、前記取得された数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成する機能と、
該生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する機能と、
を実現させることを特徴とする。
In order to achieve the above object, a program according to the fifth aspect of the present invention is:
To a computer that controls an imaging apparatus provided with detection means for detecting the position and direction at the time of imaging,
A function of storing position information and direction information indicating the position and direction detected by the detection unit in a storage device in association with a captured image obtained by the imaging;
Based on the position information associated with the captured image, a function of acquiring numerical map data of the imaging location;
A function of generating three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image, and the acquired numerical map data;
A function of mapping the captured image to the generated three-dimensional modeling data to generate a three-dimensional image;
It is characterized by realizing.
本発明によれば、撮像画像から3次元画像を生成することができる。 According to the present invention, a three-dimensional image can be generated from a captured image.
本発明にかかる実施形態を、図面を参照して以下に説明する。本実施形態では、本発明をデジタルスチルカメラ(以下、デジタルカメラ)によって実現した場合を例示する。 Embodiments according to the present invention will be described below with reference to the drawings. In the present embodiment, a case where the present invention is realized by a digital still camera (hereinafter referred to as a digital camera) is illustrated.
図1は、本発明の実施形態にかかるデジタルカメラ1の構成を示すブロック図である。本実施形態にかかるデジタルカメラ1の概略的構成は、図示するように、撮像部100、データ処理部200、インタフェース(I/F)部300、検出部400、などである。
FIG. 1 is a block diagram showing a configuration of a
撮像部100は、デジタルカメラ1の撮像動作をおこなう部分であり、図1に示すように、光学装置110やイメージセンサ部120などから構成されている。
The
光学装置110は、例えば、レンズ、絞り機構、シャッタ機構、などを含み、撮像にかかる光学的動作をおこなう。すなわち、光学装置110の動作により、入射光が集光されるとともに、焦点距離、絞り、シャッタスピードなどといった、画角やピント、露出などにかかる光学的要素の調整がなされる。なお、光学装置110に含まれるシャッタ機構はいわゆるメカニカルシャッタであり、イメージセンサの動作のみでシャッタ動作をおこなう場合には、光学装置110にシャッタ機構が含まれていなくてもよい。また、光学装置110は、後述する制御部210による制御によって動作する。
The
イメージセンサ部120は、光学装置110によって集光された入射光に応じた電気信号を生成する、例えば、CCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementally Metal Oxide Semiconductor:相補型金属酸化物半導体)などのイメージセンサから構成される。イメージセンサ部120は、光電変換をおこなうことで、受光に応じた電気信号を発生してデータ処理部200に出力する。
The
データ処理部200は、撮像部100による撮像動作によって生成された電気信号を処理し、撮像画像を示すデジタルデータを生成するとともに、撮像画像に対する画像処理などをおこなう。図1に示すように、データ処理部200は、制御部210、画像処理部220、画像メモリ230、画像出力部240、記憶部250、外部記憶部260、などから構成される。
The
制御部210は、例えば、CPU(Central Processing Unit:中央演算処理装置)などのプロセッサや、RAM(Random Access Memory)などの主記憶装置(メモリ)、などから構成され、後述する記憶部250などに格納されているプログラムを実行することで、デジタルカメラ1の各部を制御する。また、本実施形態では、所定のプログラムを実行することで、後述する各処理にかかる機能が制御部210によって実現される。
The
画像処理部220は、例えば、ADC(Analog-Digital Converter:アナログ−デジタル変換器)、バッファメモリ、画像処理用のプロセッサ(いわゆる、画像処理エンジン)などから構成され、イメージセンサ部120によって生成された電気信号に基づいて、撮像画像を示すデジタルデータを生成する。
The
すなわち、イメージセンサ部120から出力されたアナログ電気信号をADCがデジタル信号に変換して順次バッファメモリに格納すると、バッファされたデジタルデータに対し、画像処理エンジンがいわゆる現像処理などをおこなうことで、画質の調整やデータ圧縮などをおこなう。
That is, when the analog electric signal output from the
画像メモリ230は、例えば、RAMやフラッシュメモリなどの記憶装置から構成され、画像処理部220によって生成された撮像画像データや、制御部210によって処理される画像データなどを一時的に格納する。
The
画像出力部240は、例えば、RGB信号の生成回路などから構成され、画像メモリ230に展開された画像データをRGB信号などに変換して表示画面(後述する表示部310など)に出力する。
The
記憶部250は、例えば、ROM(Read Only Memory)やフラッシュメモリなどの記憶装置から構成され、デジタルカメラ1の動作に必要なプログラムやデータなどを格納する。本実施形態では、制御部210などが実行する動作プログラムや処理に必要となるパラメータや演算式などが記憶部250に格納されているものとする。
The
外部記憶部260は、例えば、メモリカードなどといった、デジタルカメラ1に着脱可能な記憶装置から構成され、デジタルカメラ1で撮像した画像データなどを格納する。
The
インタフェース部300は、デジタルカメラ1とその使用者あるいは外部装置とのインタフェースにかかる構成であり、図1に示すように、表示部310、外部インタフェース(I/F)部320、操作部330、などから構成される。
The
表示部310は、例えば、液晶表示装置などから構成され、デジタルカメラ1を操作するために必要な種々の画面や、撮影時のライブビュー画像、撮像画像、などを表示出力する。本実施形態では、画像出力部240からの画像信号(RGB信号)などに基づいて撮像画像等の表示出力がおこなわれる。
The
外部インタフェース部320は、例えば、USB(Universal Serial Bus)コネクタやビデオ出力端子などから構成され、外部のコンピュータ装置への画像データの出力や、外部のモニタ装置への撮像画像の表示出力などをおこなう。また、外部インタフェース部320は、例えば、通信ネットワークを介して外部のコンピュータ装置などと通信するためのインタフェースを備えていてもよい。この場合、例えば、無線LANモジュールなどを外部インタフェース部320に含めることができ、無線LANアクセスポイントとの無線通信によって、インターネットなどに接続できるようにしてもよい。
The
操作部330は、デジタルカメラ1の外面上に構成されている各種ボタンなどによって構成され、デジタルカメラ1の使用者による操作に応じた入力信号を生成して制御部210に入力する。操作部330を構成するボタンとして、例えば、シャッタ動作を指示するためのシャッタボタンや、デジタルカメラ1のもつ動作モードを指定するためのモードボタン、各種設定をおこなうための十字キーや機能ボタン、などが含まれているものとする。
The
検出部400は、撮像時のデジタルカメラ1の位置および方向を検出するためのものであり、図1に示すように、位置検出部410と、方向検出部420と、から構成される。
The
位置検出部410は、撮像動作時のデジタルカメラ1の位置を検出するためのものであり、例えば、GPS(Global Positioning System:全地球測位システム)モジュールなどから構成される。この場合、位置検出部410は、デジタルカメラ1の位置を示す座標情報をGPS機能によって取得する。
The
方向検出部420は、撮像動作時の撮像方向を検出するためのものであり、例えば、地磁気センサや角速度センサなどを含んだ3軸方位センサから構成され、デジタルカメラ1の撮像方向を検出する。この場合、例えば、地磁気センサなどによって撮像方向となっている方位(方位角)を検出し、角速度センサなどによって撮像方向の上下角度(仰角)を検出する。すなわち、方向検出部420によって、デジタルカメラ1の撮像方向が3次元方向で検出される。この場合、光学装置110を構成しているレンズの光軸方向が検出されるよう設定されているものとする。
The
このような構成のデジタルカメラ1においては、記憶部250に格納されている動作プログラムを制御部210が実行することで、後述する各処理が実現されるが、この場合に制御部210によって実現される機能を、図2を参照して説明する。
In the
図2は、制御部210によって実現される機能を示した機能ブロック図である。ここでは、デジタルカメラ1の撮像動作で得られた撮像画像から3次元画像を生成する動作を実現するために必要な機能構成を示す。この場合、図示するように、制御部210は、動作モード処理部211、撮像制御部212、検出情報取得部213、地図情報取得部214、3次元画像生成部215、などとして機能する。
FIG. 2 is a functional block diagram illustrating functions realized by the
動作モード処理部211は、表示部310との協働により、デジタルカメラ1が有する各種動作モードをデジタルカメラ1のユーザに指定させるために必要な画面表示や指定された動作モード毎の設定画面表示などをおこなう他、操作部330との協働により、ユーザが指定した動作モードを認識し、当該動作モードの実行に必要なプログラムや演算式などを記憶部250から読み出して制御部210の主記憶装置(メモリ)にロードする。本実施形態では、デジタルカメラ1での撮像時に撮像画像から3次元画像(3D画像)を生成する動作モード(以下、「3Dモード」とする)が用意されているものとし、3Dモードの選択が動作モード処理部211によって認識された場合に、以下の各機能が制御部210によって実現される。
The operation
撮像制御部212は、シャッタボタンが操作されたことによる操作部330からの入力信号などに応じて撮像部100を制御することで、デジタルカメラ1での撮像動作を実行する。ここで、撮像部100の撮像動作による撮像画像は、画像処理部220による処理の後、画像メモリ230に展開されるが、撮像画像のファイル形式は、例えば、Exif(Exchangeable Image File Format)であるものとし、撮像画像の画像データとともに撮像動作時のパラメータが記録されるものとする。本実施形態では、少なくとも、撮像画像の画角を示すパラメータ(例えば、レンズ焦点距離)が記録されているものとする。
The
検出情報取得部213は、検出部400を制御し、3Dモード下での撮像動作時に位置検出部410と方向検出部420を動作させ、それぞれの検出結果を示す検出情報を取得し、撮像画像の画像データと対応づけて記録する。この場合、例えば、Exifフォーマットで記録されるパラメータの一部として記録する。また、検出情報には、撮像時に位置検出部410が検出したデジタルカメラ1の位置(緯度・経度)を示す位置情報と、方向検出部420が検出した撮像方向を示す方向情報が含まれる。
The detection
地図情報取得部214は、撮像画像に対応づけられている位置情報に基づいて、特定された撮像位置に対応する数値地図データを取得する。本実施形態では、数値地図データが記憶部250に予め格納されているものとし、地図情報取得部214は、撮像位置に対応する数値地図データを記憶部250から取得する。なお、本実施形態で用いられる数値地図データには、地図画像を示す数値地図データ(例えば、「数値地図25000(地図画像)」(国土地理院)など)や、標高データを含んだメッシュデータ(例えば、「数値地図5mメッシュ(標高)」(国土地理院)など)が含まれているものとする。
The map
3次元画像生成部215は、地図情報取得部214が取得した数値地図データと撮像画像を用いて3次元画像を生成する。この場合、3次元画像生成部215は、当該撮像画像の撮像時に検出された撮像位置と撮像方向、撮像パラメータが示すレンズ焦点距離などに基づいて、撮像画像と同じアングルとなるモデリングデータ(3次元モデリングデータ)を数値地図データから生成し、撮像画像をマッピングテクスチャとしてモデリングデータにマッピングすることで、撮像画像に対応した3次元画像の生成をおこなう。また、3次元画像生成部215は、生成した3次元画像における照光条件を設定し、設定した照光条件に応じたレンダリングなどをおこなう。
The three-dimensional
以上が制御部210によって実現される機能である。なお、本実施形態では、制御部210がプログラムを実行することによる論理的処理で上述した各機能が実現されるものとするが、これらの機能を、例えば、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などのハードウェアによって構成してもよい。この場合、図2に示した機能のうち、画像処理にかかる機能については、画像処理部220によって実現されてもよい。
The above is the function realized by the
以上説明したデジタルカメラ1の構成は、本発明を実現するために必要な構成であり、デジタルカメラとしての基本機能や種々の付加機能に用いられる構成は必要に応じて備えられているものとする。
The configuration of the
このような構成のデジタルカメラ1による動作を以下に説明する。ここでは、3Dモードが選択されている場合に、撮像動作で得られた撮像画像から3次元画像を生成する「撮像時3D画像生成処理」を、図3に示すフローチャートを参照して説明する。この「撮像時3D画像生成処理」は、デジタルカメラ1のユーザが操作部330を操作することで、デジタルカメラ1の動作モードを3Dモードに設定したことを契機に開始される。なお、本実施形態にかかる3次元画像生成は、風景写真のような屋外での撮影によって得られる撮像画像に適用することが好適であるため、本実施形態では、このような撮影の際に3Dモードが設定されることを想定する。
The operation of the
処理が開始されると、動作モード処理部211により、3Dモードが設定された旨が検出情報取得部213に通知される。そして、デジタルカメラ1のユーザによるシャッタボタンの操作で生成された入力信号が制御部210に入力されると(ステップS101:Yes)、撮像制御部212は、撮像部100を制御して撮像動作を実行させる。撮像部100の撮像動作で生成された電気信号が画像処理部220での処理を経ることで撮像画像が生成され、画像メモリ230に展開される(ステップS102)。
When the process is started, the operation
ここで、シャッタ操作を検出したと同時に、撮像制御部212は、その旨を検出情報取得部213に通知する。撮像制御部212からの通知に応じて、検出情報取得部213は、検出部400の位置検出部410と方向検出部420を制御し、シャッタ操作がなされた時点でのデジタルカメラ1の位置と方向を検出させ、検出結果を示す位置情報と方向情報とを取得する(ステップS103)。
Here, at the same time when the shutter operation is detected, the
検出情報取得部213は、検出部400から位置情報と方向情報を検出すると、画像メモリ230に展開されている撮像画像にこれらを対応づける(ステップS104)。ここでは、例えば、撮像画像のExifデータとして位置情報と方向情報を付加する。
When the detection
撮像時の位置と方向を示した位置情報と方向情報を取得すると、検出情報取得部213は、その旨を地図情報取得部214に通知する。ここでは、例えば、当該撮像画像を特定する情報(ファイル名など)を地図情報取得部214に通知する。
When the position information and the direction information indicating the position and direction at the time of imaging are acquired, the detection
地図情報取得部214は、検出情報取得部213からの通知に応じて画像メモリ230に展開されている当該撮像画像にアクセスし、この撮像画像に対応づけられている位置情報を参照する。本実施形態では、GPSによって位置検出をおこなっているので、記録された位置情報は、撮像時におけるデジタルカメラ1の緯度・経度を示している。地図情報取得部214は、記憶部250に格納されている数値地図データにアクセスし、参照した位置情報(緯度・経度)に対応する数値地図データを取得し、例えば、制御部210のメモリに展開する(ステップS105)。
The map
ここで、数値地図データには標高データが含まれているため、特定された緯度・経度が示す地点の標高も特定することができるので、地図情報取得部214は、このようにして特定した標高情報を、撮像画像に対応づけられている位置情報に追加する。すなわち、3次元空間座標を示す位置情報によって撮像位置(地点)が示されることになる。
Here, since the altitude data is included in the numerical map data, the altitude at the point indicated by the specified latitude / longitude can also be specified, so the map
撮像位置の数値地図データを取得すると、地図情報取得部214は、その旨を3次元画像生成部215に通知する。この場合、地図情報取得部214は、例えば、取得した数値地図データと特定するためのメモリ上のアドレスなどを3次元画像生成部215に通知する。
When the numerical map data of the imaging position is acquired, the map
3次元画像生成部215は、地図情報取得部214から通知された数値地図データを使ったモデリングをおこなう。この場合、3次元画像生成部215は、3次元画像生成にかかる既知の手法によってモデリングをおこなうことで、例えば、ポリゴンモデリングなどによるモデリングデータ(3次元モデリングデータ)を生成する。
The 3D
モデリングをおこなうにあたり、3次元画像生成部215は、撮像画像に対応づけられている方向情報、および、撮像パラメータとして記録されている画角を示す情報(レンズ焦点距離など)を、パラメータとして3次元モデリングデータを生成する(ステップS106)。
In performing modeling, the three-dimensional
つまり、撮像位置(地点)を示す3次元座標を、数値地図データによって再現される疑似3次元空間内にあてはめ、そこから、方向情報が示す方向で撮像時の画角となるよう視点を設定することで、撮像画像と同じアングルとなるモデリングデータが生成される。例えば、図4(a)に示すような撮像画像である場合、この撮像時に得られた位置情報、方向情報、および、画角のパラメータから生成されるモデリングデータは、図4(b)に示すような撮像画像と同じアングルのものとなる。 In other words, the three-dimensional coordinates indicating the imaging position (point) are applied to the pseudo three-dimensional space reproduced by the numerical map data, and the viewpoint is set so as to obtain the angle of view at the time of imaging in the direction indicated by the direction information. Thus, modeling data having the same angle as the captured image is generated. For example, in the case of a captured image as shown in FIG. 4A, the modeling data generated from the position information, direction information, and angle-of-view parameters obtained at the time of imaging is shown in FIG. 4B. It becomes a thing of the same angle as such a captured image.
このように生成されたモデリングデータは、数値地図データから生成されているので、モデリングデータ内では各種のオブジェクト(例えば、山岳、河川、湖沼などのような地形を形成している自然物、建造物や道路などのような地図情報として含まれうる人工物など)が識別可能となっている。ここで、図4に示したように、撮像画像と同じアングルとなるモデリングデータを生成しているので、モデリングデータを2次元平面上に投影した画像と撮像画像との間で、画像サイズや解像度を同一にしたり、画像間で座標変換をおこなったりすることで、同じ座標系で処理することができる。このため、モデリングデータ上で認識されるオブジェクトに対応する部分を撮像画像上で特定することができる。 Since modeling data generated in this way is generated from numerical map data, various objects in the modeling data (for example, natural objects, buildings, etc. that form terrain such as mountains, rivers, lakes, etc.) Artifacts that can be included as map information such as roads) can be identified. Here, as shown in FIG. 4, since modeling data having the same angle as the captured image is generated, the image size and resolution between the image obtained by projecting the modeling data on the two-dimensional plane and the captured image are determined. Can be processed in the same coordinate system by making them the same or performing coordinate transformation between images. For this reason, the part corresponding to the object recognized on modeling data can be specified on a captured image.
3次元画像生成部215は、このような方法によって撮像画像上でオブジェクト部分を特定すると、各オブジェクトを示す画像領域(オブジェクト画像)を抽出する(ステップS107)。抽出されるオブジェクト画像の例を図5に示す。図示するように、図5(a)に示す撮像画像から、図5(b)〜図5(d)に示すようなオブジェクト画像が抽出される。ここで、オブジェクト画像の抽出では、輝度情報などに基づいて範囲選択をおこなう既知の手法(例えば、フラッドフィルなど)を用い、モデリングデータから特定された各オブジェクトの座標位置での範囲選択をおこなう。
When the three-dimensional
このようにして撮像画像からオブジェクト画像を抽出すると、3次元画像生成部215は、抽出したオブジェクト画像をマッピングテクスチャとするマッピングをおこなう。すなわち、ステップS106で生成したモデリングデータ(図4(b))に、ステップS107で撮像画像から抽出したオブジェクト画像をマッピングする(ステップS108)。これにより、撮像画像を用いた3D画像(3次元画像)が生成される。
When the object image is extracted from the captured image in this way, the three-dimensional
このように生成された3D画像は、撮像画像と同じアングルとなるモデリングデータに撮像画像をマッピングしたものであるから、マッピングされた画像は、撮像時の照光状態(光源方向や減衰など)が反映されたものである。 Since the 3D image generated in this way is obtained by mapping the captured image to modeling data having the same angle as the captured image, the mapped image reflects the illumination state (light source direction, attenuation, etc.) at the time of imaging. It has been done.
一方で、モデリングデータにマッピングテクスチャをマッピングするという一般的な3次元コンピュータグラフィクスの手法で生成されているので、各種のパラメータを変更することで、生成した3D画像の視点を変更することもできる。 On the other hand, since it is generated by a general three-dimensional computer graphics technique of mapping a mapping texture onto modeling data, the viewpoint of the generated 3D image can be changed by changing various parameters.
視点を変更した場合、光源方向なども変化するため、基準となる照光条件を設定する。ここでは、3次元画像生成部215が、撮像時の照光条件を設定し、生成した3D画像と対応づけて記録する(ステップS109)。
When the viewpoint is changed, the light source direction and the like also change, so a reference illumination condition is set. Here, the three-dimensional
本実施形態では、風景写真のような屋外での撮影によって得られた撮像画像を想定しているので、光源を太陽とする。よって、照光条件には、撮像時の太陽方向(方位角および仰角)を設定する。太陽の方向は、地球上の位置(緯度・経度)、年月日、時刻から求めることができるので、本処理で取得した位置情報(緯度・経度)と、Exifデータなどに通常記録される撮像日時情報に基づいて、撮像時の太陽方向を求めることができる。 In the present embodiment, since a captured image obtained by photographing outdoors such as a landscape photograph is assumed, the light source is the sun. Therefore, the sun direction (azimuth angle and elevation angle) at the time of imaging is set as the illumination condition. The sun's direction can be obtained from the position on the earth (latitude / longitude), date, and time, so the position information (latitude / longitude) acquired in this process and the image that is normally recorded in Exif data, etc. Based on the date and time information, the sun direction at the time of imaging can be obtained.
本実施形態では、緯度・経度、年月日、時刻から太陽方向を算出するための演算式が記憶部250に予め格納されているものとし、3次元画像生成部215は、位置情報が示す緯度・経度と撮像日時をこの演算式にあてはめて演算することで、撮像時の太陽方向を特定し、照光条件として設定する。
In the present embodiment, it is assumed that an arithmetic expression for calculating the sun direction from latitude / longitude, date, time, and time is stored in the
ここで、ステップS108で生成した3D画像をデジタルカメラ1のユーザに視認させるため、3次元画像生成部215は、生成した3D画像を表示部310に表示させる。この場合、表示部310には、3D画像とともに、例えば、操作部330の十字キーなどで操作可能なスライダバーなどを表示する。このスライダバーは、表示された3D画像の視点変更を指示するためのもので、ユーザが視点変更を所望する場合には、操作部330を操作することでスライダバーを動かし、視点変更にかかる方向や移動量などを入力する。
Here, in order for the user of the
このような操作にかかる入力信号が操作部330から制御部210に入力された場合、3次元画像生成部215は、視点変更操作がなされたと判別する(ステップS110:Yes)。この場合、3次元画像生成部215は、入力された視点変更の方向や移動量に応じて、モデリングデータのパラメータを変更し、指定された視点からのモデリングデータに変化させる。そして、変化させたモデリングデータに、ステップS107で抽出したオブジェクト画像をマッピングすることで3次元画像を生成するが、当初は撮像位置であった視点位置が変わったので、照光状態も変化している。
When an input signal related to such an operation is input from the
よって、3次元画像生成部215は、ステップS109で設定した照光条件に基づいて、視点変更後の3D画像における照光パラメータを変更してレンダリングをおこなう(ステップS111)。この場合、照光条件として、撮像時の太陽方向が記録されているので、3次元画像生成部215は、視点変更による撮像方向に基づいて、当該3D画像での太陽方向を算出する。
Therefore, the three-dimensional
また、オブジェクト画像の抽出において、数値地図データから生成したモデリングデータからオブジェクトを認識していたので、モデリングデータの3次元座標空間における視点からオブジェクトまでの距離を算出することができる。よって、3次元画像生成部215は、変更した視点から各オブジェクトまでの距離をモデリングデータの3次元空間座標から算出する。
In the extraction of the object image, since the object is recognized from the modeling data generated from the numerical map data, the distance from the viewpoint to the object in the three-dimensional coordinate space of the modeling data can be calculated. Therefore, the three-dimensional
このようにして、視点変更後の3D画像における光源方向と、各オブジェクトまでの距離が算出されるので、3次元画像生成部215は、視点変更後のモデリングデータ上で、変更された光源方向と各オブジェクトまでの距離をパラメータとしたレンダリングをおこなうことで、マッピングする画像に対する照光状態を計算する。
Thus, since the light source direction in the 3D image after the viewpoint change and the distance to each object are calculated, the three-dimensional
3次元画像生成部215は、計算した照光状態に応じて、マッピングするオブジェクト画像を加工する。この場合、各オブジェクト画像の輝度を変えることなどにより、視点変更後の照光状態を反映したマッピングテクスチャとする。
The three-dimensional
3次元画像生成部215は、このように加工したオブジェクト画像をマッピングすることで、ユーザが指定した視点からの3D画像を生成する。この場合も、撮像画像から抽出したオブジェクト画像をマッピングテクスチャとしているので、撮像画像を用いつつ、撮像時とは異なるアングルからの3D画像が生成されることになる。
The three-dimensional
このように、任意の視点変更指示に応じてパラメータを変更することで、あらゆるアングルからの3D画像とすることができる。よって、ユーザは、3D画像とともに表示されるスライダバーなどを随時操作することで、視点変化を何度でもおこなうことができる。 In this way, by changing the parameter according to an arbitrary viewpoint change instruction, a 3D image from any angle can be obtained. Therefore, the user can change the viewpoint as many times as necessary by operating a slider bar or the like displayed together with the 3D image.
ここで、生成した3D画像を保存する指示をユーザがおこなうまで、視点変更可能な状態とする(ステップS112:No)。そして、ユーザが操作部330を操作することなどによって、3D画像の保存を指示した場合(ステップS112:Yes)、3次元画像生成部215は、生成した3D画像を外部記憶部260などに保存する(ステップS113)。この場合、ステップS109で設定した照光条件を3D画像に対応づけて保存する。また、画像メモリ230に展開した撮像画像も、対応づけられている位置情報および方向情報とともに、3D画像と対応づけて外部記憶部260に保存する。
Here, the viewpoint can be changed until the user gives an instruction to save the generated 3D image (step S112: No). When the user instructs to save the 3D image by operating the operation unit 330 (step S112: Yes), the 3D
このようにして、撮像動作で得た撮像画像について、当該撮像画像を用いて生成した3D画像と当該撮像画像とが外部記憶部260に保存された後、所定の終了イベント(例えば、3Dモードの解除など)がなければ(ステップS114:No)、ステップS101以降の処理が繰り返しおこなわれ、次の撮像動作にかかる3D画像の生成がおこなわれる。
In this way, for the captured image obtained by the imaging operation, the 3D image generated using the captured image and the captured image are stored in the
そして、終了イベントの発生により本処理を終了する(ステップS114:Yes)。 Then, the process ends when an end event occurs (step S114: Yes).
以上説明したように、本発明を上記実施形態の如く適用することにより、撮像画像を用いた3次元画像の生成が実現される。 As described above, by applying the present invention as in the above embodiment, generation of a three-dimensional image using a captured image is realized.
この場合において、撮像画像とともに撮像位置や撮像方向を示す情報を取得することで、数値地図データを用いて撮像画像と同じアングルとなるモデリングをおこなうことができ、このモデリングデータに撮像画像をマッピングすることで、あたかも撮像画像を立体表示したような3次元画像を生成することができる In this case, by obtaining information indicating the imaging position and the imaging direction together with the captured image, modeling with the same angle as the captured image can be performed using the numerical map data, and the captured image is mapped to the modeling data. As a result, it is possible to generate a three-dimensional image as if the captured image was stereoscopically displayed.
ここで、撮像画像をマッピングする際、撮像画像から抽出したオブジェクト画像をマッピングすることが望ましい。これにより、オブジェクト毎に撮影距離を算出することができるので、視点変更時にオブジェクト毎に照光状態を設定することができ、実際の撮像画像とは異なるアングルにした場合でも、適切なレンダリングをおこなうことができる。 Here, when mapping the captured image, it is desirable to map the object image extracted from the captured image. As a result, the shooting distance can be calculated for each object, so that the illumination state can be set for each object when the viewpoint is changed, and appropriate rendering is performed even when the angle is different from the actual captured image. Can do.
また、太陽を光源としている場合、撮像画像について取得された位置情報や方向情報、撮像日時などに基づいて撮像画像における光源方向を特定することができるので、このような撮像時の照光条件を特定することで、生成した3次元画像の視点を変化させた場合などでも、照光が適切になされた3次元画像とすることができる。 In addition, when the sun is used as the light source, the light source direction in the captured image can be specified based on the position information and direction information acquired for the captured image, the imaging date and time, etc., so the illumination conditions at the time of imaging are specified. Thus, even when the viewpoint of the generated three-dimensional image is changed, it is possible to obtain a three-dimensional image appropriately illuminated.
そして、撮像時の撮像位置や撮像方向を検出するGPSやセンサを搭載した撮像装置とすることで、撮像画像を用いた3次元画像を撮像したその場で生成することができる。 And it can produce | generate on the spot which imaged the three-dimensional image using the captured image by setting it as the imaging device carrying GPS and the sensor which detects the imaging position and imaging direction at the time of imaging.
この場合、3次元画像の生成に用いる数値地図データを撮像装置内に予め格納しておくことで、より短時間に3次元画像を生成することができる。 In this case, it is possible to generate a three-dimensional image in a shorter time by storing numerical map data used for generating a three-dimensional image in the imaging apparatus in advance.
上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。 The said embodiment is an example and the application range of this invention is not restricted to this. That is, various applications are possible, and all embodiments are included in the scope of the present invention.
例えば、上記実施形態では、記憶部250に予め格納してある数値地図データから、撮像位置に対応する数値地図データを取得するものとしたが、インターネットなどの通信ネットワークと接続することのできる撮像装置である場合、通信ネットワークを介した通信によって、外部装置から数値地図データを取得するようにしてもよい。
For example, in the above embodiment, the numerical map data corresponding to the imaging position is acquired from the numerical map data stored in advance in the
また、本発明を上記実施形態で例示したデジタルカメラ1のような撮像装置で実現する場合においては、本発明にかかる構成や機能を予め備えた撮像装置として提供できる他、制御部210の各機能と同様の機能を実現するプログラムを適用することにより、既存の撮像装置を本発明にかかる撮像装置をして機能させることもできる。この場合、撮像時の撮像位置および撮像方向を検出する機能を有する撮像装置であれば、本発明の適用により、撮像画像を用いた3次元画像生成をおこなうことができる。
In the case where the present invention is realized by an imaging apparatus such as the
また、上記実施形態では、撮像装置として本発明を実現した場合を例示したが、撮像機能のない装置(例えば、パーソナルコンピュータなど)として本発明の画像処理装置を実現してもよい。 Moreover, although the case where this invention was implement | achieved as an imaging device was illustrated in the said embodiment, you may implement | achieve the image processing apparatus of this invention as an apparatus (for example, personal computer etc.) without an imaging function.
すなわち、上記実施形態では、本発明を撮像装置として実現した場合を例示したが、撮像時の撮像位置と撮像方向を示す情報を撮像画像とともに取得することができるのであれば、撮像装置以外の装置に本発明を適用することができる。 That is, in the above-described embodiment, the case where the present invention is realized as an imaging device is illustrated, but any device other than the imaging device can be used as long as information indicating the imaging position and imaging direction at the time of imaging can be acquired together with the captured image. The present invention can be applied to.
この場合も、プログラムを適用することで、既存の装置を本発明にかかる画像処理装置として機能させることができる。 Also in this case, by applying the program, an existing apparatus can be made to function as the image processing apparatus according to the present invention.
このようなプログラムの適用方法は任意であり、例えば、CD−ROMやメモリカードなどの記憶媒体に格納して適用できる他、例えば、インターネットなどの通信媒体を介して適用することもできる。 The application method of such a program is arbitrary. For example, the program can be applied by being stored in a storage medium such as a CD-ROM or a memory card, or can be applied via a communication medium such as the Internet.
1…デジタルカメラ、100…撮像部、110…光学装置、120…イメージセンサ部、200…データ処理部、210…制御部、211…動作モード処理部、212…撮像制御部、213…検出情報取得部、214…地図情報取得部、215…3次元画像生成部、220…画像処理部、230…画像メモリ、240…画像出力部、250…記憶部、260…外部記憶部、300…インタフェース部、310…表示部、320…外部インタフェース部、330…操作部、400…検出部、410…位置検出部、420…方向検出部
DESCRIPTION OF
Claims (10)
前記撮像動作時の位置と方向を示す位置情報と方向情報とを取得し、前記撮像画像取得手段が取得した前記撮像画像に対応づけて記録する撮像時情報取得手段と、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得手段と、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、前記地図情報取得手段が取得した前記数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成するモデリング手段と、
前記モデリング手段が生成した3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する3次元画像生成手段と、
を備えることを特徴とする画像処理装置。 Captured image acquisition means for acquiring a captured image generated by the imaging operation;
Image capturing time information acquisition means for acquiring position information and direction information indicating the position and direction during the image capturing operation, and recording the information in association with the captured image acquired by the captured image acquisition means;
Map information acquisition means for acquiring numerical map data of an imaging location based on the position information associated with the captured image;
Modeling that generates three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the numerical map data acquired by the map information acquisition unit. Means,
3D image generation means for mapping the captured image to 3D modeling data generated by the modeling means to generate a 3D image;
An image processing apparatus comprising:
前記撮像画像を構成しているオブジェクトを検出するオブジェクト検出手段と、
前記オブジェクト検出手段が検出したオブジェクトを示すオブジェクト画像を当該撮像画像から抽出するオブジェクト画像抽出手段と、
をさらに備え、
前記オブジェクト画像抽出手段が抽出したオブジェクト画像を前記3次元モデリングデータにマッピングすることで前記3次元画像を生成する、
ことを特徴とする請求項1に記載の画像処理装置。 The three-dimensional image generation means includes
Object detection means for detecting an object constituting the captured image;
Object image extraction means for extracting an object image indicating the object detected by the object detection means from the captured image;
Further comprising
Mapping the object image extracted by the object image extraction means to the three-dimensional modeling data to generate the three-dimensional image;
The image processing apparatus according to claim 1.
前記撮像動作時の照光条件を特定する照光条件特定手段と、
前記照光条件特定手段が特定した照光条件に基づいて、前記3次元モデリングデータにマッピングさせる画像を加工する画像加工手段と、をさらに備える、
ことを特徴とする請求項1または2に記載の画像処理装置。 The three-dimensional image generation means includes
An illumination condition specifying means for specifying an illumination condition during the imaging operation;
Image processing means for processing an image to be mapped to the three-dimensional modeling data based on the illumination condition specified by the illumination condition specifying means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
撮像時の方向を検出する方向検出手段と、
前記位置検出手段が検出した位置を示す位置情報と、前記方向検出手段が検出した方向を示す方向情報とを、当該撮像によって得られた撮像画像と対応づけて記憶する記憶手段と、
前記撮像画像に対応づけられた前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得手段と、
前記撮像画像に対応づけられた前記位置情報および前記方向情報と、前記地図情報取得手段が取得した数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成し、該3次元モデリングデータに当該撮像画像をマッピングして3次元画像を生成する3次元画像生成手段と、
を備えることを特徴とする撮像装置。 Position detecting means for detecting a position at the time of imaging;
Direction detection means for detecting the direction during imaging;
Storage means for storing position information indicating the position detected by the position detection means and direction information indicating the direction detected by the direction detection means in association with a captured image obtained by the imaging;
Map information acquisition means for acquiring numerical map data of an imaging location based on the position information associated with the captured image;
Based on the position information and the direction information associated with the captured image, and the numerical map data acquired by the map information acquisition unit, three-dimensional modeling data corresponding to the captured image is generated, and the 3 3D image generation means for mapping the captured image to 3D modeling data to generate a 3D image;
An imaging apparatus comprising:
前記地図情報取得手段は、前記地図情報格納手段から数値地図データを取得する、
ことを特徴とする請求項4に記載の撮像装置。 Map information storage means for storing the numerical map data;
The map information acquisition means acquires numerical map data from the map information storage means;
The imaging apparatus according to claim 4.
ことを特徴とする請求項4または5に記載の撮像装置。 The three-dimensional image generation means detects and extracts an object constituting the captured image, maps the extracted object image to the three-dimensional modeling data, and generates the three-dimensional image.
The imaging apparatus according to claim 4 or 5, wherein
ことを特徴とする請求項4乃至6のいずれか1項に記載の撮像装置。 The three-dimensional image generation means processes an image to be mapped to the three-dimensional modeling data based on illumination conditions at the time of imaging.
The image pickup apparatus according to claim 4, wherein the image pickup apparatus is an image pickup apparatus.
前記画像処理装置が、
撮像動作によって生成された撮像画像を取得する撮像画像取得ステップと、
前記撮像動作時の位置を示す位置情報と方向を示す方向情報とを取得し、前記撮像画像取得ステップで取得された前記撮像画像に対応づけて記録する撮像時情報取得ステップと、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する地図情報取得ステップと、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、前記地図情報取得ステップで取得された前記数値地図データとに基づいて、当該撮像画像に相当する3次元モデリングデータを生成するモデリングステップと、
前記モデリングステップで生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する3次元画像生成ステップと、
を含むことを特徴とする画像生成方法。 An image generation method for an image processing apparatus to generate a three-dimensional image,
The image processing apparatus is
A captured image acquisition step of acquiring a captured image generated by the imaging operation;
An imaging time information acquisition step of acquiring position information indicating a position at the time of the imaging operation and direction information indicating a direction, and recording in association with the captured image acquired in the captured image acquisition step;
Based on the position information associated with the captured image, a map information acquisition step of acquiring numerical map data of the imaging location;
Modeling that generates three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the numerical map data acquired in the map information acquisition step. Steps,
A 3D image generation step of generating a 3D image by mapping the captured image onto the 3D modeling data generated in the modeling step;
An image generation method comprising:
撮像動作によって生成された撮像画像を取得する機能と、
前記撮像動作時の位置を示す位置情報と方向を示す方向情報とを取得し、前記取得した撮像画像に対応づけて記録する機能と、
前記撮像画像に対応づけられている前記位置情報に基づいて、撮像場所の数値地図データを取得する機能と、
前記撮像画像に対応づけられている前記位置情報および前記方向情報と、該取得された前記数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成する機能と、
該生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する機能と、
を実行させることを特徴とするプログラム。 A computer that controls an image processing apparatus that performs image processing on a captured image obtained by the imaging apparatus;
A function of acquiring a captured image generated by the imaging operation;
A function of acquiring position information indicating a position at the time of the imaging operation and direction information indicating a direction, and recording the information in association with the acquired captured image;
Based on the position information associated with the captured image, a function of acquiring numerical map data of the imaging location;
A function of generating three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image and the acquired numerical map data;
A function of mapping the captured image to the generated three-dimensional modeling data to generate a three-dimensional image;
A program characterized by having executed.
前記検出手段が検出した位置および方向を示す位置情報および方向情報を、当該撮像によって得られた撮像画像と対応づけて記憶装置に記憶させる機能と、
前記撮像画像に対応づけられた前記位置情報に基づいて、撮像場所の数値地図データを取得する機能と、
前記撮像画像に対応づけられた前記位置情報および前記方向情報と、前記取得された数値地図データと、に基づいて、当該撮像画像に相当する3次元モデリングデータを生成する機能と、
該生成された3次元モデリングデータに前記撮像画像をマッピングして3次元画像を生成する機能と、
を実現させることを特徴とするプログラム。 In a computer that controls an imaging apparatus provided with a detecting means for detecting a position and a direction at the time of imaging,
A function of storing position information and direction information indicating the position and direction detected by the detection unit in a storage device in association with a captured image obtained by the imaging;
Based on the position information associated with the captured image, a function of acquiring numerical map data of the imaging location;
A function of generating three-dimensional modeling data corresponding to the captured image based on the position information and the direction information associated with the captured image, and the acquired numerical map data;
A function of mapping the captured image to the generated three-dimensional modeling data to generate a three-dimensional image;
A program characterized by realizing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009041519A JP2010199898A (en) | 2009-02-24 | 2009-02-24 | Image processor, imaging apparatus, image generation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009041519A JP2010199898A (en) | 2009-02-24 | 2009-02-24 | Image processor, imaging apparatus, image generation method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010199898A true JP2010199898A (en) | 2010-09-09 |
Family
ID=42824168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009041519A Pending JP2010199898A (en) | 2009-02-24 | 2009-02-24 | Image processor, imaging apparatus, image generation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010199898A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785678A (en) * | 2019-11-09 | 2021-05-11 | 李本彦 | Sunshine analysis method and system based on three-dimensional simulation |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005141655A (en) * | 2003-11-10 | 2005-06-02 | Olympus Corp | Three-dimensional modeling apparatus and three-dimensional modeling method |
JP2008017223A (en) * | 2006-07-06 | 2008-01-24 | Casio Comput Co Ltd | Imaging apparatus, guide display method of imaging apparatus, and program |
-
2009
- 2009-02-24 JP JP2009041519A patent/JP2010199898A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005141655A (en) * | 2003-11-10 | 2005-06-02 | Olympus Corp | Three-dimensional modeling apparatus and three-dimensional modeling method |
JP2008017223A (en) * | 2006-07-06 | 2008-01-24 | Casio Comput Co Ltd | Imaging apparatus, guide display method of imaging apparatus, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785678A (en) * | 2019-11-09 | 2021-05-11 | 李本彦 | Sunshine analysis method and system based on three-dimensional simulation |
CN112785678B (en) * | 2019-11-09 | 2023-12-12 | 李本彦 | Sunlight analysis method and system based on three-dimensional simulation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103595979B (en) | Image processing equipment, image picking-up apparatus and image processing method | |
US10437545B2 (en) | Apparatus, system, and method for controlling display, and recording medium | |
US8339477B2 (en) | Digital camera capable of detecting name of captured landmark and method thereof | |
JP2013027021A (en) | Omnidirectional imaging device and omnidirectional imaging method | |
JP5279636B2 (en) | Imaging device | |
JP5750696B2 (en) | Display device and display program | |
JP2009139634A (en) | Shooting apparatus for microscope | |
JP6016516B2 (en) | Image processing apparatus, control method therefor, image processing program, and imaging apparatus | |
JP6532370B2 (en) | Imaging system, composition setting device, and composition setting program | |
JP2011234274A (en) | Imaging processing device, method for the same, and program | |
JP6685814B2 (en) | Imaging device and control method thereof | |
JP2006279135A (en) | Starry-sky photographic device camera and method for photographing starry sky and program | |
JP2010199898A (en) | Image processor, imaging apparatus, image generation method and program | |
JP6714819B2 (en) | Image display system, information processing device, image display method, and image display program | |
JP2019087984A (en) | Information processing apparatus, imaging system, program | |
JP5753514B2 (en) | Image display device and computer program | |
JP6610741B2 (en) | Image display system, image display apparatus, image display method, and program | |
JP5744642B2 (en) | Image processing apparatus, image processing method, and program. | |
JP5543636B2 (en) | Imaging device | |
WO2022181056A1 (en) | Imaging device, information processing method, and program | |
EP4412191A1 (en) | Information processing apparatus, information processing system, and information processing method | |
JP5911307B2 (en) | Imaging device | |
WO2015052959A1 (en) | Imaging device, imaging system, imaging method and imaging program | |
KR101205961B1 (en) | Apparatus for caculating 3D spatial coordinates of digital images | |
JP2011193170A (en) | Imaged image display device, imaged image display method, and electronic map output by the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130312 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131112 |