JP6685814B2 - Imaging device and control method thereof - Google Patents
Imaging device and control method thereof Download PDFInfo
- Publication number
- JP6685814B2 JP6685814B2 JP2016082153A JP2016082153A JP6685814B2 JP 6685814 B2 JP6685814 B2 JP 6685814B2 JP 2016082153 A JP2016082153 A JP 2016082153A JP 2016082153 A JP2016082153 A JP 2016082153A JP 6685814 B2 JP6685814 B2 JP 6685814B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- object image
- imaging
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Description
本発明は撮像装置に関し、特に合成画像を撮像するための撮像装置およびその制御方法に関する。 The present invention relates to an image pickup apparatus, and more particularly to an image pickup apparatus for taking a composite image and a control method thereof.
近年、撮像した画像を組み合わせることにより、レンズとイメージセンサによる実写画像だけでは得ることのできない合成画像を得ることができる撮像装置が開発されている。これらの撮像装置の多くは、撮像済みの画像データを比較し、画像データ間で被写体のサイズ、傾きなどが整合するように画像データを合成している。 2. Description of the Related Art In recent years, an imaging device has been developed that can obtain a composite image that cannot be obtained only by a real image captured by a lens and an image sensor by combining captured images. Many of these image pickup apparatuses compare imaged image data and synthesize image data so that the size, inclination, etc. of a subject are matched between the image data.
また、拡張現実の技術を応用し、合成画像をリアルタイムに表示できる装置が開発されている。これらの装置は、撮像中のライブビュー画像内において空間座標を算出する。そして、合成対象のサイズ、傾きなどをライブビュー画像内の空間座標と矛盾のないように調整し、調整後の合成対象をライブビュー画像と合成している。 In addition, an apparatus that can display a composite image in real time has been developed by applying the technology of augmented reality. These devices calculate spatial coordinates within the live view image being captured. Then, the size, inclination, etc. of the synthesis target are adjusted so as to be consistent with the spatial coordinates in the live view image, and the adjusted synthesis target is synthesized with the live view image.
特許文献1には、被写体の構図(背景)を変更することが可能な撮像装置が開示されている。特許文献1の撮像装置は、合成対象となる被写体をライブビュー画像上に表示する。ユーザは、ライブビュー画像を見ながら被写体の構図を決定し、合成画像を撮像する。 Patent Document 1 discloses an imaging device capable of changing the composition (background) of a subject. The imaging device of Patent Document 1 displays a subject to be combined on a live view image. The user determines the composition of the subject while viewing the live view image, and captures the composite image.
特許文献2には、拡張現実を体験する際に、現実世界の物体と仮想世界の物体との整合性を保つことができる画像表示装置が開示されている。特許文献2の画像表示装置は、撮像した画像データに対して、幾何学的位置関係が整合性を保つように仮想物体の画像データの位置合わせを行う。
特許文献1の撮像装置では、被写体の全体像をライブビュー画像上に表示し、表示された被写体に合わせてライブビュー画像の方向、画角を変更している。特許文献2の画像表示装置では、ユーザの視角と撮像装置の画角とを一致させ、仮想物体を撮像装置の画角内で現実空間の画像と合成している。特許文献1および特許文献2の装置では、合成対象となるオブジェクト画像を撮像装置の画角内に収まるように配置することが前提となっており、オブジェクト画像を画角外に配置することは想定されていない。
拡張現実の技術においては、取り込んでいる撮像画像内においてのみ座標が設定されているため、オブジェクト画像を撮像画像の外側に配置するとオブジェクト画像の位置を正しく算出することが困難になってしまう。このために、配置されたオブジェクト画像を適正なサイズに調整することが困難となる場合がある。
本発明は上記の問題点に鑑み、撮像装置の画角外に配置されたオブジェクト画像を適切に合成することが可能な撮像装置およびその制御方法を提供することを目的とする。
In the imaging device of Patent Document 1, the entire image of the subject is displayed on the live view image, and the direction and the angle of view of the live view image are changed according to the displayed subject. In the image display device of
In the augmented reality technology, since the coordinates are set only in the captured image that has been captured, if the object image is arranged outside the captured image, it becomes difficult to correctly calculate the position of the object image. Therefore, it may be difficult to adjust the arranged object image to an appropriate size.
SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide an image pickup apparatus capable of appropriately synthesizing an object image arranged outside the angle of view of the image pickup apparatus and a control method thereof.
本発明に係る撮像装置は、光学系を通して撮像空間を撮像する撮像部と、前記撮像部からの信号に基づき撮像画像を生成する画像生成部と、前記撮像部の位置、前記撮像部の姿勢、および前記撮像部から前記撮像空間における被写体までの距離を含む測定情報を取得する測定部と、前記撮像画像および前記測定情報から、前記撮像空間および前記撮像空間の外側の空間を表す実座標を生成する座標生成部と、前記撮像画像に合成されるオブジェクト画像の合成位置を指定する指定部と、前記実座標に基づき、前記合成位置に応じて前記オブジェクト画像を加工するとともに、前記オブジェクト画像を前記合成位置に合成する画像処理部とを備えることを特徴とする。 An image pickup apparatus according to the present invention includes an image pickup section that picks up an image pickup space through an optical system, an image generation section that generates a picked-up image based on a signal from the image pickup section, a position of the image pickup section, and a posture of the image pickup section. And a measurement unit that acquires measurement information including a distance from the image capturing unit to a subject in the image capturing space, and real coordinates that represent the image capturing space and a space outside the image capturing space, from the captured image and the measurement information. A coordinate generation unit for designating, a designating unit for designating a synthesis position of an object image to be synthesized with the captured image, and processing the object image according to the synthesis position based on the actual coordinates, and the object image is And an image processing unit for synthesizing at a synthesizing position.
本発明に係る撮像装置の制御方法は、撮像部において、光学系を通して撮像空間を撮像するステップと、前記撮像部からの信号に基づき撮像画像を生成するステップと、前記撮像部の位置、前記撮像部の姿勢、および前記撮像部から前記撮像空間における被写体までの距離を含む測定情報を取得するステップと、前記撮像画像および前記測定情報から、前記撮像空間および前記撮像空間の外側の空間を表す実座標を生成するステップと、前記撮像画像に合成されるオブジェクト画像の合成位置を指定するステップと、前記実座標に基づき、前記合成位置に応じて前記オブジェクト画像を加工するとともに、前記オブジェクト画像を前記合成位置に合成するステップとを備えることを特徴とする。 A control method of an image pickup apparatus according to the present invention includes a step of, in an image pickup unit, capturing an image of an image pickup space through an optical system; a step of generating a picked-up image based on a signal from the image pickup unit; a position of the image pickup unit; A step of obtaining measurement information including a posture of a section and a distance from the image pickup section to a subject in the image pickup space; and an actual image representing the image pickup space and a space outside the image pickup space from the picked-up image and the measurement information. A step of generating coordinates, a step of designating a combination position of an object image to be combined with the captured image, a step of processing the object image according to the combination position based on the actual coordinates, And a step of combining at a combination position.
本発明によれば、レンズを通して撮像している撮像空間とその外側の空間を表す実座標を生成し、実座標における合成位置に応じて合成対象を加工することにより、撮像装置の画角外に配置されたオブジェクト画像を適切に合成することができる。 According to the present invention, by generating real coordinates representing the imaging space being imaged through the lens and the space outside the imaging space, and processing the composition target according to the composition position in the real coordinates, it is possible to move the image outside the angle of view of the imaging device. The arranged object images can be appropriately combined.
[第1実施形態]
図1は、本実施形態に係る撮像装置100の構成を示すブロック図である。撮像装置100は、レンズ部101、イメージセンサ部102、A/D変換部103、信号処理部104、メモリ105、画像生成部106、データ合成部107、表示部108、CPU109を備えている。撮像装置100は、さらに、GPSセンサ110、高さセンサ111、傾きセンサ112、位置測定部113、距離センサ114、距離測定部115、データ加工部116、抽出部117、保存部118、選択部119、撮像制御部120を備えている。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of the
レンズ部101は、フォーカスレンズ、ズームレンズ、絞りなどから構成される光学系である。レンズ部101は、所定の画角(視野角)αを有しており、画角内の撮像空間からの光をイメージセンサ部102の受光面に結像させる。レンズ部101は、フォーカスレンズを不図示のアクチュエータでレンズの光軸に沿って移動させることにより、フォーカスレンズのピントを調節することができる。同様に、レンズ部101は、ズームレンズ、絞りなどを調節することができる。イメージセンサ部(撮像部)102は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などから構成される。イメージセンサ部102は、レンズ部101から受光した光を電気信号に変換し、アナログ撮像信号として出力する。なお、説明を簡単にするために、イメージセンサ部102の画角は、レンズ部101の画角αに等しいものとする。
The
A/D(Analog/Digital)変換部103は、イメージセンサ部102から入力されたアナログ撮像信号をデジタルの撮像データに変換する。例えば、信号処理部104は、デジタル撮像データに対して、ホワイトバランス調整、補間、輪郭強調、ガンマ補正、階調変換、歪み補正などの画像処理を施し、処理後の撮像データをメモリ105に記憶させる。なお、A/D変換部103をイメージセンサ部102内に設けても良い。
The A / D (Analog / Digital)
メモリ105は、例えばDRAM(Dynamic Random Access Memory)、フラッシュメモリなどから構成され、撮像装置100を動作させるための制御プログラムを記憶する。メモリ105は、撮像データなどの各種データの一時記憶領域として使用されるとともに、撮像装置100の各部が演算を行う際の作業領域としても使用される。CPU(Central Processing Unit)109は、撮像装置100の全体を制御するプロセッサであり、メモリ105から所定のプログラムを読み出し、実行することにより、撮像装置100の各部の機能を実現する。
The
画像生成部106は、信号処理部104またはメモリ105から撮像データを取得し、表示用の撮像画像を生成する。例えば、画像生成部106は、表示部108の画面の解像度に応じた撮像画像を生成し、データ合成部107に出力する。また、画像生成部106は、取得した撮像データをMPEG−4、H.264などの動画ファイルの形式に従って圧縮し、データ合成部107を介して保存部118に記憶させる。さらに、画像生成部106は、信号処理部104またはメモリ105から撮像データを取得し、撮像画像(静止画)を生成する。例えば、画像生成部106は、JPEGなどの静止画ファイルの形式に従って撮像データを圧縮する。
The
データ合成部(画像処理部)107は、データ加工部116からのオブジェクト画像を撮像画像に重畳(合成)する。データ合成部107は、画像生成部106から入力された撮像画像、またはオブジェクト画像が合成された撮像画像を表示部108および保存部118に出力する。
The data synthesizing unit (image processing unit) 107 superimposes (synthesizes) the object image from the
表示部(指定部)108は、液晶ディスプレイ、有機発光デバイスなどから構成され、データ合成部107から入力された撮像画像、メモリ105に記憶された各種データ、撮像装置100を操作するためのメニュー画面などを表示する。また、表示部108の画面には透過型のタッチセンサが設けられている。ユーザは、画面に表示された撮像画像の任意の位置を指などで触れることにより、オブジェクト画像を配置する位置、フォーカスポイントを設定する位置などを指定することができる。また、ユーザは、オブジェクト画像を画面の外側にドラッグすることにより、オブジェクト画像の一部を撮像画像の画角外に配置することが可能である。本実施形態によれば、撮像画像の画角外の位置を算出できる実座標を設定することにより、オブジェクト画像の一部を撮像画像の画角外に配置した場合であっても、オブジェクト画像を適切に撮像画像と合成することができる。
The display unit (designating unit) 108 includes a liquid crystal display, an organic light emitting device, and the like, and a captured image input from the
GPS(Global Positioning System)センサ110は、複数のGPS衛星からの電波を受信し、撮像装置100の座標(緯度、経度、高度)を測位する。高さセンサ111は、赤外線センサ、超音波センサなどから構成され、傾きセンサ112は、加速度センサ、ジャイロセンサなどから構成される。撮像装置100は、さらに方位センサなどを備えてもよい。
A GPS (Global Positioning System)
位置測定部113は、GPSセンサ110、高さセンサ111からの信号に基づき、撮像装置100の座標(緯度、経度、高度)と地面からの高さを測定する。また、位置測定部113は、傾きセンサ112からの信号に基づき、撮像装置100の前傾・後傾角度(仰俯角)と左右の傾き(ロール角)を取得する。
The
距離センサ114は、赤外線センサ、超音波センサなどから構成され、赤外線、超音波を物体に向けて照射し、その反射波を受信する。距離測定部115は、距離センサ114が赤外線、超音波を照射してから、反射波を受信するまでの時間に基づき、距離を測定する。すなわち、距離測定部115は、撮像装置100から被写体までの距離を測定することができる。
The
データ加工部(座標生成部)116は、画像生成部106からの撮像画像を分析し、撮像座標(X’,Y’,Z’)を生成する(図2参照)。撮像座標は、レンズ部101、イメージセンサ部102が映像として捉えている撮像空間を表す3次元の座標であり、撮像画像の各画素に対応した座標値を有している。撮像座標は、例えば撮像画像に含まれる幾何学的特徴に基づいて算出することができる。具体的には、SfM(Structure from Motion)法、SLAM(Simultaneous Localization And Mapping)法などの拡張現実の技術を応用することができる。また、撮像座標の精度を高めるために、レンズ部101の焦点距離、画角などのレンズ情報、位置測定部113から取得した撮像装置100の位置および姿勢、距離測定部115から取得した被写体までの距離などの測定情報を使用してもよい。
The data processing unit (coordinate generation unit) 116 analyzes the picked-up image from the
さらに、データ加工部116は、位置測定部113および距離測定部115からの測定情報に基づいて、撮像装置100を中心とする3次元の実座標(X,Y,Z)を算出する。実座標は、現実の3次元空間の座標であり、実座標に基づき任意の2点間の距離を算出することができる。データ加工部116は、実座標の座標値に対して撮像座標の各座標値を関連づけ、実座標の中に撮像座標を設定する(図3参照)。すなわち、実座標で表される空間は、撮像座標で表される撮像空間を拡張した空間となる。
Further, the
また、データ加工部(画像処理部)116は、オブジェクト画像に対してサイズの変更、変形などの加工処理を行う。具体的には、データ加工部116は、ユーザが指定した配置に応じて、オブジェクト画像に対し回転、ロール、変形、拡大、縮小などの処理を施し、オブジェクト画像のサイズ、傾きなどを撮像画像と整合させる。データ加工部116は、撮像画像のフォーカスポイント(ピントが合っている領域)に応じて、オブジェクト画像にぼかし処理を施すこともできる。例えば、データ加工部116は、オブジェクト画像が撮像画像のフォーカスポイントではない位置(背景など)に配置された場合に、ガウシアンフィルタなどの空間フィルタを用いてピントのずれに応じた強度のボケを付加する。
Further, the data processing unit (image processing unit) 116 performs processing processing such as size change and deformation on the object image. Specifically, the
また、データ加工部116は、加工処理後のオブジェクト画像が撮像画像からはみ出している場合、すなわちオブジェクト画像の一部が撮像座標の外部に配置された場合、撮像座標にある部分のみをオブジェクト画像からトリミングする。言い換えれば、データ加工部116は、オブジェクト画像からレンズ部101の画角α内に対応する領域のみをトリミングする。このように、データ加工部116は、座標生成部および画像処理部を構成する。
In addition, when the processed object image is outside the captured image, that is, when a part of the object image is arranged outside the image capturing coordinates, the
抽出部117は、保存部118から画像データを読み出し、ユーザにより指定されたオブジェクト画像を抽出する。抽出部117は、画像データから主要な被写体を判別し、オブジェクト画像として抽出してもよい。また、抽出部117は、読み出した画像データに含まれている撮像時のレンズ情報および測定情報に基づいて、オブジェクト画像の現実の高さ、幅、奥行きなどの実サイズを算出する。オブジェクト画像の実サイズは、撮像時において画像データ(撮像画像)と関連付けて保存部118に記憶させておいてもよい。抽出部117は、オブジェクト画像とその実サイズをデータ加工部116に出力する。
The
保存部118は、ハードディスクなどの記憶装置であり、撮像装置100において生成される撮像画像などの各種画像データを格納する。保存部118は、脱着可能なメモリカードなどの可搬記憶媒体を含み、撮像装置100以外の装置で撮像または生成された画像データを格納することができる。
The
選択部119は、操作キー、決定ボタンなどの入力デバイスから構成され、保存部118に格納されている画像データの中から、オブジェクト画像を含む画像データを選択する。例えば、選択部119は、保存部118に格納されている画像データのリストを表示部108に表示させる。オブジェクト画像は、撮像済みの撮像画像に含まれたものに限らず、オブジェクトの現実のサイズが定義されているものであれば、CG(Computer Graphics)により作成されたキャラクタなどの生成画像であっても良い。また、選択部119は、実際のボタンではなく、表示部108に表示される表示上の操作キー、決定ボタンとして構成されてもよい。
The
撮像制御部120は、レンズ部101のフォーカスレンズ、ズームレンズ、絞りなどを制御し、ピントの調節、ズーム倍率の変更、明るさの調整などを行う。また、撮像制御部120は、撮像中の画像に関するフォーカス位置、被写体距離、画角などの情報をレンズ部101から取得し、データ加工部116に出力する。また、撮像制御部120は、信号処理部104に対して、レンズ部101およびイメージセンサ部102が取り込んでいる画像を静止画として取得するタイミングを指示する。
The
図2は、本実施形態に係る撮像座標を説明するための図である。図2は、画像生成部106により生成される撮像画像200の一例を示しており、撮像画像200に対してX’軸、Y’軸、Z’軸からなる直交座標系の撮像座標(X’、Y’、Z’)が生成される。図2に示される撮像座標では、手前の人物の足元付近を原点とし、地面(床面)を含む平面をX’Y’面、鉛直方向(高さ方向)をZ’軸に設定している。撮像画像200の各画素は、撮像座標で表される。なお、撮像座標の座標軸は、図2の例に限定されるものではなく、撮像画像200の構図に応じて適宜設定される。
FIG. 2 is a diagram for explaining imaging coordinates according to the present embodiment. FIG. 2 shows an example of the captured
図3は、本実施形態に係る撮像装置100を基点とした実座標を説明するための図である。図3に示されるように、X軸、Y軸、Z軸からなる直交座標系の実座標(X、Y、Z)が生成され、実座標の中に撮像座標(X’、Y’、Z’)が設定される。例えば、撮像座標の各座標軸は、実座標の各座標軸の方向と一致し、撮像座標の各座標値は、実座標の座標値と対応づけられる。撮像座標により表される空間は、レンズ部101が画像として捉えている空間、すなわちレンズ部101の画角に収まる空間と一致しており、実座標により表される空間の中に含まれている。図3に示される実座標では、撮像装置100の位置を原点とし、地面を含む水平面において互いに直交するX軸、Y軸、および地面に鉛直方向(高さ方向)をZ軸に設定している。実座標の座標軸は、図3の例に限定されるものではなく、撮像装置100の位置、撮像方向などに応じて適宜設定される。実座標の各座標値は、例えば、緯度、経度、高度の組み合わせで表される。
FIG. 3 is a diagram for explaining actual coordinates with the
図4は、本実施形態に係るオブジェクト画像301を含む画像データ300を示す図である。図4に示す画像データ300は、保存部118に格納されている撮像画像の中から、ユーザにより選択部119において選択されたものである。画像データ300には、合成対象となるオブジェクト画像301が含まれている。オブジェクト画像301は、例えば表示部108においてユーザにより指定される。
FIG. 4 is a diagram showing the
図5は、本実施形態に係るオブジェクト画像301を示す図である。図5のオブジェクト画像301は、選択された画像データ300から抽出部117により抽出されたものである。オブジェクト画像301には、オブジェクト画像301を配置する際に基準となる基準点301aが設定される。基準点301aは、例えばオブジェクト画像301の足元、重心などの位置に設定される。基準点301aは、表示部108においてユーザにより指定されてもよく、オブジェクト画像301の形状に基づき、抽出部117により算出されてもよい。
FIG. 5 is a diagram showing an
図6は、本実施形態に係るオブジェクト画像301の配置方法を説明するための図である。図6は、表示部108に表示された例であり、撮像画像200に合成されたオブジェクト画像301が示されている。撮像画像200の任意の位置をユーザが指で指定することにより、オブジェクト画像301が撮像画像200の指定された位置に配置される。ここで、例えば基準点301aがオブジェクト画像301の足元に設定されている場合、ユーザはオブジェクト画像301を撮像画像200の地面、床面上に配置することを想定しているものとする。オブジェクト画像301が配置される際は、基準点301aに対応する実座標に基づき、撮像装置100からオブジェクト画像301が配置された現実の合成位置が算出される。そして、オブジェクト画像301の現実の合成位置に応じて、オブジェクト画像301に対して加工処理が施される。例えば、オブジェクト画像301の実サイズ(例えば身長)に基づきオブジェクト画像301が拡大または縮小される。
FIG. 6 is a diagram for explaining a method of arranging the
図7は、本実施形態に係るオブジェクト画像301の配置方法を説明するための図である。図7では、撮像画像200内に一度配置されたオブジェクト画像301の位置がユーザの操作により変更されている。具体的には、ユーザは、図6のように撮像画像200の中央付近に配置されたオブジェクト画像301を指でドラッグすることにより、撮像画像200の手前の位置にオブジェクト画像301を移動させている。図7に示すように、ユーザは、オブジェクト画像301の一部が撮像画像200からはみ出す場合、特に基準点301aが撮像画像200の外部に位置する場合であっても、オブジェクト画像301を配置することができる。ドラッグによりオブジェクト画像301が移動されている間には、オブジェクト画像301のサイズ変更、変形などの加工処理が所定の周期で行われる。図7の例では、オブジェクト画像301を撮像装置100に対して近づけているため、オブジェクト画像301のサイズが拡大されている。
FIG. 7 is a diagram for explaining a method of arranging the
図8は、本実施形態に係る撮像装置100とオブジェクト画像301の位置関係を示す図である。図8は、図6に対応するオブジェクト画像301の配置を実座標(X、Y、Z)上で示したものであり、地面に対して水平な方向(X軸方向)から見た実座標のYZ面が示されている。撮像装置100は、高さHsに位置し、レンズ部101を通して画角α内の撮像空間を撮像している。オブジェクト画像301は、身長(現実のサイズ)Hを有し、レンズ部101の画角α内に配置されている。オブジェクト画像301には、高さHfの位置にフォーカスポイントFが設定されている。撮像装置100とオブジェクト画像301のフォーカスポイントFの実座標に基づき、撮像装置100からオブジェクト画像301までの実距離Lが算出される。オブジェクト画像301にフォーカスポイントFが設定されていない場合には、例えばオブジェクト画像301の基準点301aに基づき、撮像装置100からオブジェクト画像301の合成位置までの実距離が算出される。この合成位置までの実距離を撮像装置100からオブジェクト画像301までの実距離Lとみなしてもよい。
FIG. 8 is a diagram showing a positional relationship between the
図9は、本実施形態に係る撮像装置100とオブジェクト画像301の位置関係を示す図である。図9は、図7に対応するオブジェクト画像301の配置を実座標(X、Y、Z)上で示したものであり、地面に対して水平な方向(X軸方向)から見た実座標のYZ面が示されている。図8の例と同様に、撮像装置100は、高さHsに位置し、レンズ部101を通して画角α内の撮像空間を撮像している。オブジェクト画像301は、身長(実際のサイズ)Hを有し、オブジェクト画像301には、高さHfの位置にフォーカスポイントFが設定されている。図9において、オブジェクト画像301は、レンズ部101の画角α外に配置されている。ここで、基準点301aがレンズ部101の画角αの外に位置している場合に、オブジェクト画像301が画角α外に配置されていると表現している。オブジェクト画像301がレンズ部101の画角α外に配置された場合であっても、図8の例と同様に、実座標に基づきオブジェクト画像301までの実距離Lが算出できる。
FIG. 9 is a diagram showing a positional relationship between the
図10は、本実施形態に係る撮像装置100の制御方法を示すフローチャートである。このフローチャートの処理は、撮像制御部120によって信号処理部104へ割り込み処理が行われていない間であり、かつイメージセンサ部102により撮像空間が撮像されている間、繰り返し行われる。
FIG. 10 is a flowchart showing a control method of the
撮像装置100は、ユーザにより撮像開始の操作がなされると、フローチャートの処理を開始する。まず、イメージセンサ部102は、レンズ部101の画角α内の撮像空間を撮像する(ステップS101)。次に、A/D変換部103は、イメージセンサ部102からのアナログ撮像信号をデジタルの撮像データに変換する。信号処理部104は、撮像データに対して画像処理を施し、画像生成部106は、撮像データから撮像画像200を生成する(ステップS102)。画像生成部106は、撮像画像200をデータ加工部116に出力するとともに、データ合成部107を介して表示部108に伝送する。表示部108は、伝送された撮像画像200を表示する(ステップS103)。
The
次に、データ加工部116は、画像生成部106から撮像画像200を受信するとともに、距離測定部115から撮像画像200に関する距離の情報を取得する。さらに、データ加工部116は、位置測定部113から測定情報を取得する(ステップS104)。続いて、データ加工部116は、撮像座標(X’、Y’、Z’)が含まれた実座標(X、Y、Z)を生成する(ステップS105)。すなわち、データ加工部116は、撮像画像200を分析し、撮像座標を生成するとともに、測定情報を用いて撮像装置100を中心とした実座標を算出し、実座標の中に撮像座標を設定する。
Next, the
次に、データ加工部116は、オブジェクト画像301が撮像画像200に配置されているかを判定する(ステップS106)。具体的には、データ加工部116は、表示部108に表示された撮像画像200に対して、オブジェクト画像301を合成する位置が指定されたか否かを判定する。オブジェクト画像301が配置されていない場合(ステップS106でNO)、データ加工部116は、フローチャートの処理をステップS101に移行する。
Next, the
オブジェクト画像301が配置されている場合(ステップS106でYES)、データ加工部116は、オブジェクト画像301までの実距離を算出する(ステップS107)。すなわち、データ加工部116は、生成した実座標を用いて、撮像装置100のレンズ部101からオブジェクト画像301が配置された合成位置またはオブジェクト画像301のフォーカスポイントまでの実距離を算出する。
When the
次に、データ加工部116は、オブジェクト画像301までの実距離が変化したかを判定する(ステップS108)。すなわち、データ加工部116は、前回算出したオブジェクト画像301までの実距離と今回算出したオブジェクト画像301までの実距離とを比較する。オブジェクト画像301までの実距離が変化していない場合(ステップS108でNO)、データ加工部116は、フローチャートの処理をステップS110に移行する。
Next, the
オブジェクト画像301までの実距離が変化している場合、またはオブジェクト画像301までの実距離を初めて算出した場合(ステップS108でYES)、データ加工部116は、オブジェクト画像301に対して加工処理を行う(ステップS109)。具体的には、データ加工部116は、生成した実座標、オブジェクト画像301の実サイズ、オブジェクト画像301までの実距離に基づき、オブジェクト画像301を撮像画像200と適合したサイズ、形状、傾きのオブジェクト画像に変換する。データ加工部116は、オブジェクト画像301までの実距離とレンズ部101の画角αから、変換したオブジェクト画像301の領域のうちのイメージセンサ部102に投影される領域、すなわち撮像画像200に含まれる領域を算出する。データ加工部116は、オブジェクト画像301から算出した領域をトリミングし、データ合成部107に出力する。
When the actual distance to the
データ合成部107は、オブジェクト画像301を撮像画像200に合成し、表示部108は、オブジェクト画像301が合成された合成画像を表示する(ステップS110)。最後に、撮像装置100は、ユーザから撮像停止の指示があったか否かを判定する(ステップS111)。撮像停止の指示が無い場合(ステップS111でNO)、撮像装置100は、フローチャートの処理をステップS101に移行する。撮像停止の指示があった場合(ステップS111でYES)、撮像装置100は、フローチャートの処理を終了する。
The
図11は、本実施形態に係る撮像装置100の制御方法を示すフローチャートである。図11のフローチャートの処理は、オブジェクト画像301が合成された合成画像を静止画として保存するための処理であり、図10のフローチャートの処理に対する割り込み処理として実行される。よって、図11のフローチャートの処理が開始された時点で、撮像座標と撮像装置100自身を含む実座標は、既に生成されている。
FIG. 11 is a flowchart showing a control method of the
まず、ユーザによって静止画撮像の開始操作が行われると、撮像制御部120は、画像生成部106に対して静止画の生成指示を通知する(ステップS201)。画像生成部106は、撮像制御部120からの通知のタイミングで、信号処理部104から撮像データを取得する(ステップS202)。画像生成部106は、取得した撮像データを変換し、イメージセンサ部102の解像度に応じた静止画(撮像画像)を生成する(ステップS203)。画像生成部106は、生成した静止画をデータ加工部116に出力する。
First, when the user performs a still image capturing start operation, the image capturing
データ加工部116は、抽出部117から取得したオブジェクト画像301を静止画の解像度に合わせて変換するとともに、図10のステップS109と同様の加工処理を施す(ステップS204)。そして、データ合成部107は、加工したオブジェクト画像301を画像生成部106からの静止画と合成する。データ合成部107は、オブジェクト画像301が合成された合成画像を保存部118に保存する(ステップS205)。
The
このように、本実施形態によれば、撮像装置を中心とした実座標を算出し、撮像座標を実座標の範囲内に設定することにより、撮像装置のレンズ部の画角外の空間をも含む、より広い座標空間が定義される。これにより、撮像座標の範囲を超えて合成対象となるオブジェクト画像を配置することが可能になる。 As described above, according to the present embodiment, by calculating the real coordinates around the image pickup device and setting the image pickup coordinates within the range of the real coordinates, a space outside the angle of view of the lens unit of the image pickup device can be obtained. A wider coordinate space is defined that contains. As a result, it becomes possible to arrange the object images to be combined beyond the range of the image pickup coordinates.
図12は、撮像座標においてオブジェクト画像の配置可能な位置を示している。上述のように、撮像座標に収まるように配置したオブジェクト画像を撮像装置に近づけていく際、オブジェクト画像の配置位置が撮像装置に近づくほど、表示部に表示されるオブジェクト画像のサイズも大きくなる。従来の合成機能を有する撮像装置では、撮像座標を超えてオブジェクト画像を移動させた場合、オブジェクト画像までの距離を定めることができなくなるため、合成処理を適切に行うことが困難となる。一方、本実施形態では、レンズとイメージセンサを通じて得られる撮像座標を、撮像装置自身を基点とした実座標へ展開することで、撮像画像中で認識できない位置に配置されたオブジェクト画像を適正な形で合成することができる。したがって、オブジェクト画像が撮像画像の画角外に配置されており、その一部のみが撮像画像内に写り込むような合成画像を得ることができる。また、フォーカスポイントをオブジェクト画像に設定することで、オブジェクト画像にピントを合わせた画像を撮像することができる。 FIG. 12 shows positions where the object image can be arranged in the image pickup coordinates. As described above, when the object image arranged so as to fit in the image pickup coordinates is brought closer to the image pickup apparatus, the size of the object image displayed on the display unit becomes larger as the arrangement position of the object image gets closer to the image pickup apparatus. In the conventional image pickup apparatus having the combining function, when the object image is moved beyond the image pickup coordinates, the distance to the object image cannot be determined, which makes it difficult to appropriately perform the combining process. On the other hand, in the present embodiment, the imaging coordinates obtained through the lens and the image sensor are expanded to the actual coordinates with the imaging device itself as a base point, so that the object image placed at a position that cannot be recognized in the captured image has an appropriate shape. Can be synthesized with. Therefore, it is possible to obtain a composite image in which the object image is arranged outside the angle of view of the captured image, and only part of it is reflected in the captured image. Further, by setting the focus point on the object image, it is possible to capture an image in which the object image is in focus.
[変形実施形態]
本発明は上記実施形態に限らず種々の変形が可能である。例えば、図10に示したフローチャートの処理では、オブジェクト画像301までの実距離を算出しているが、オブジェクト画像301の地面に対する傾きを算出してもよい。また、オブジェクト画像301を合成する際には、オブジェクト画像301の合成位置と撮像画像200内の各被写体との位置関係に基づき、オブジェクト画像301を前景または後景とするような画像処理を施すことも可能である。
[Modified Embodiment]
The present invention is not limited to the above embodiment, and various modifications can be made. For example, in the process of the flowchart shown in FIG. 10, the actual distance to the
100 撮像装置
101 レンズ部
102 イメージセンサ部
103 A/D変換部
104 信号処理部
106 画像生成部
107 データ合成部
108 表示部
113 位置測定部
115 距離測定部
116 データ加工部
200 撮像画像
301 オブジェクト画像
100
Claims (15)
前記撮像手段の位置、前記撮像手段の姿勢、および前記撮像手段から前記撮像空間における被写体までの距離を含む測定情報を取得する測定手段と、
前記撮像画像および前記測定情報から、前記撮像空間および前記撮像空間の外側の空間を表す実座標空間を生成する座標空間生成手段と、
前記撮像画像上の位置を指定することで、前記撮像画像に合成されるオブジェクト画像の合成位置を指定する指定手段と、
前記指定手段で指定された合成位置の、前記実座標空間における位置に応じて前記オブジェクト画像を加工するとともに、前記オブジェクト画像を前記撮像画像における前記合成位置に合成する画像処理手段と
を備え、
前記画像処理手段は、前記指定手段で指定された合成位置に対応する加工を該オブジェクト画像に行って前記撮像画像に合成することを特徴とする画像処理装置。 An image generating unit that generates a captured image based on a signal from an image capturing unit that captures an image capturing space through an optical system,
Measuring means for acquiring the measurement information including the distance to the subject in the imaging space position and orientation of the imaging unit, and the imaging unit of the imaging means,
Coordinate space generation means for generating an actual coordinate space representing the imaging space and a space outside the imaging space from the captured image and the measurement information;
By specifying the position on the captured image, and designation means for designating a combining position of the object image to be combined with the captured image,
The specified combination position in the designation unit, thereby processing the object image in accordance with a position in the real coordinate space, and an image processing means for synthesizing the object image in the combined position in the captured image,
Wherein the image processing means, the processing corresponding to the specified combination position in the designation unit image processing apparatus characterized that you synthesis in the captured image by performing on the object image.
前記指定手段は、前記表示部に表示された前記撮像画像上の位置を指定することで前記合成位置を指定することを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the designation unit designates the composite position by designating a position on the captured image displayed on the display unit.
前記撮像手段の位置、前記撮像手段の姿勢、および前記撮像手段から前記撮像空間における被写体までの距離を含む測定情報を取得するステップと、
前記撮像画像および前記測定情報から、前記撮像空間および前記撮像空間の外側の空間を表す実座標空間を生成するステップと、
前記撮像画像上の位置を指定することで、前記撮像画像に合成されるオブジェクト画像の合成位置を指定するステップと、
前記指定するステップで指定された合成位置の、前記実座標空間における位置に応じて前記オブジェクト画像を加工するとともに、前記オブジェクト画像を前記撮像画像における前記合成位置に合成するステップと
を備え、
前記合成するステップは、前記指定するステップにおいて変更された合成位置に対応する加工を該オブジェクト画像に行って前記撮像画像に合成するステップを含むことを特徴とする画像処理装置の制御方法。 A step of generating a picked-up image obtained by picking up an image pickup space through an optical system by the image pickup means ;
Acquiring measurement information including the distance to the subject in the imaging space position and orientation of the imaging unit, and the imaging unit of the imaging means,
Generating a real coordinate space representing the imaging space and a space outside the imaging space from the captured image and the measurement information;
Specifying a position on the captured image to specify a composite position of an object image to be combined with the captured image,
A step of synthesizing the object image according to the position in the real coordinate space of the synthesis position designated in the step of designating, and synthesizing the object image at the synthesis position in the captured image ,
Step, a method of controlling an image processing apparatus characterized by comprising the steps you combining said captured image processing corresponding to the changed combination position in the step of specifying go to the object image to the composite.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016082153A JP6685814B2 (en) | 2016-04-15 | 2016-04-15 | Imaging device and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016082153A JP6685814B2 (en) | 2016-04-15 | 2016-04-15 | Imaging device and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017192106A JP2017192106A (en) | 2017-10-19 |
JP6685814B2 true JP6685814B2 (en) | 2020-04-22 |
Family
ID=60085113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016082153A Active JP6685814B2 (en) | 2016-04-15 | 2016-04-15 | Imaging device and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6685814B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11754833B2 (en) | 2021-03-30 | 2023-09-12 | Canon Kabushiki Kaisha | Image processing apparatus and control method for image processing apparatus |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7277410B2 (en) * | 2020-03-30 | 2023-05-18 | 東邦ガスネットワーク株式会社 | augmented reality display |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4115117B2 (en) * | 2001-10-31 | 2008-07-09 | キヤノン株式会社 | Information processing apparatus and method |
JP2010033397A (en) * | 2008-07-30 | 2010-02-12 | Dainippon Printing Co Ltd | Image composition device and method |
JP2012174116A (en) * | 2011-02-23 | 2012-09-10 | Ntt Docomo Inc | Object display device, object display method and object display program |
JP2015026286A (en) * | 2013-07-26 | 2015-02-05 | セイコーエプソン株式会社 | Display device, display system and control method of display device |
-
2016
- 2016-04-15 JP JP2016082153A patent/JP6685814B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11754833B2 (en) | 2021-03-30 | 2023-09-12 | Canon Kabushiki Kaisha | Image processing apparatus and control method for image processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2017192106A (en) | 2017-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10964108B2 (en) | Augmentation of captured 3D scenes with contextual information | |
JP5093053B2 (en) | Electronic camera | |
US10437545B2 (en) | Apparatus, system, and method for controlling display, and recording medium | |
US8564693B2 (en) | Image processing device, image processing method, and image processing program | |
KR101270893B1 (en) | Image processing device, image processing method, program thereof, recording medium containing the program, and imaging device | |
JP4115117B2 (en) | Information processing apparatus and method | |
KR101694689B1 (en) | Method for generating video data and image photographing device thereof | |
JP6677098B2 (en) | Spherical video shooting system and program | |
US10855916B2 (en) | Image processing apparatus, image capturing system, image processing method, and recording medium | |
JP7182920B2 (en) | Image processing device, image processing method and program | |
KR20140090022A (en) | Method and Apparatus for displaying the video on 3D map | |
JP2013027021A (en) | Omnidirectional imaging device and omnidirectional imaging method | |
US20190289206A1 (en) | Image processing apparatus, image capturing system, image processing method, and recording medium | |
WO2015156149A1 (en) | Image processing apparatus and image processing method | |
JP6685814B2 (en) | Imaging device and control method thereof | |
JP2018109946A (en) | Display device, program, and method for display | |
US20200167948A1 (en) | Control system, method of performing analysis and storage medium | |
JP2018010473A (en) | Image processing apparatus, image processing method, and image processing program | |
JP7150460B2 (en) | Image processing device and image processing method | |
CN112969963A (en) | Information processing apparatus, control method thereof, program, and storage medium | |
WO2017057426A1 (en) | Projection device, content determination device, projection method, and program | |
WO2020262391A1 (en) | Display control device, display control method, and program | |
JP6859763B2 (en) | Program, information processing device | |
JP4135934B2 (en) | Electronics | |
JP6704700B2 (en) | Image processing apparatus, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20171214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190412 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200401 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6685814 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |