[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6685814B2 - Imaging device and control method thereof - Google Patents

Imaging device and control method thereof Download PDF

Info

Publication number
JP6685814B2
JP6685814B2 JP2016082153A JP2016082153A JP6685814B2 JP 6685814 B2 JP6685814 B2 JP 6685814B2 JP 2016082153 A JP2016082153 A JP 2016082153A JP 2016082153 A JP2016082153 A JP 2016082153A JP 6685814 B2 JP6685814 B2 JP 6685814B2
Authority
JP
Japan
Prior art keywords
image
unit
object image
imaging
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016082153A
Other languages
Japanese (ja)
Other versions
JP2017192106A (en
Inventor
英一 高木
英一 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016082153A priority Critical patent/JP6685814B2/en
Publication of JP2017192106A publication Critical patent/JP2017192106A/en
Application granted granted Critical
Publication of JP6685814B2 publication Critical patent/JP6685814B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は撮像装置に関し、特に合成画像を撮像するための撮像装置およびその制御方法に関する。   The present invention relates to an image pickup apparatus, and more particularly to an image pickup apparatus for taking a composite image and a control method thereof.

近年、撮像した画像を組み合わせることにより、レンズとイメージセンサによる実写画像だけでは得ることのできない合成画像を得ることができる撮像装置が開発されている。これらの撮像装置の多くは、撮像済みの画像データを比較し、画像データ間で被写体のサイズ、傾きなどが整合するように画像データを合成している。   2. Description of the Related Art In recent years, an imaging device has been developed that can obtain a composite image that cannot be obtained only by a real image captured by a lens and an image sensor by combining captured images. Many of these image pickup apparatuses compare imaged image data and synthesize image data so that the size, inclination, etc. of a subject are matched between the image data.

また、拡張現実の技術を応用し、合成画像をリアルタイムに表示できる装置が開発されている。これらの装置は、撮像中のライブビュー画像内において空間座標を算出する。そして、合成対象のサイズ、傾きなどをライブビュー画像内の空間座標と矛盾のないように調整し、調整後の合成対象をライブビュー画像と合成している。   In addition, an apparatus that can display a composite image in real time has been developed by applying the technology of augmented reality. These devices calculate spatial coordinates within the live view image being captured. Then, the size, inclination, etc. of the synthesis target are adjusted so as to be consistent with the spatial coordinates in the live view image, and the adjusted synthesis target is synthesized with the live view image.

特許文献1には、被写体の構図(背景)を変更することが可能な撮像装置が開示されている。特許文献1の撮像装置は、合成対象となる被写体をライブビュー画像上に表示する。ユーザは、ライブビュー画像を見ながら被写体の構図を決定し、合成画像を撮像する。   Patent Document 1 discloses an imaging device capable of changing the composition (background) of a subject. The imaging device of Patent Document 1 displays a subject to be combined on a live view image. The user determines the composition of the subject while viewing the live view image, and captures the composite image.

特許文献2には、拡張現実を体験する際に、現実世界の物体と仮想世界の物体との整合性を保つことができる画像表示装置が開示されている。特許文献2の画像表示装置は、撮像した画像データに対して、幾何学的位置関係が整合性を保つように仮想物体の画像データの位置合わせを行う。   Patent Document 2 discloses an image display device capable of maintaining consistency between an object in the real world and an object in the virtual world when experiencing augmented reality. The image display device of Patent Document 2 aligns the image data of the virtual object with the captured image data so that the geometrical positional relationship is consistent.

特開2014−93732号公報JP, 2014-93732, A 特開2015−7722号公報JP, 2005-7722, A

特許文献1の撮像装置では、被写体の全体像をライブビュー画像上に表示し、表示された被写体に合わせてライブビュー画像の方向、画角を変更している。特許文献2の画像表示装置では、ユーザの視角と撮像装置の画角とを一致させ、仮想物体を撮像装置の画角内で現実空間の画像と合成している。特許文献1および特許文献2の装置では、合成対象となるオブジェクト画像を撮像装置の画角内に収まるように配置することが前提となっており、オブジェクト画像を画角外に配置することは想定されていない。
拡張現実の技術においては、取り込んでいる撮像画像内においてのみ座標が設定されているため、オブジェクト画像を撮像画像の外側に配置するとオブジェクト画像の位置を正しく算出することが困難になってしまう。このために、配置されたオブジェクト画像を適正なサイズに調整することが困難となる場合がある。
本発明は上記の問題点に鑑み、撮像装置の画角外に配置されたオブジェクト画像を適切に合成することが可能な撮像装置およびその制御方法を提供することを目的とする。
In the imaging device of Patent Document 1, the entire image of the subject is displayed on the live view image, and the direction and the angle of view of the live view image are changed according to the displayed subject. In the image display device of Patent Document 2, the visual angle of the user and the angle of view of the image pickup device are matched, and the virtual object is combined with the image of the real space within the angle of view of the image pickup device. In the devices of Patent Document 1 and Patent Document 2, it is premised that the object image to be combined is arranged within the angle of view of the imaging device, and it is assumed that the object image is arranged outside the angle of view. It has not been.
In the augmented reality technology, since the coordinates are set only in the captured image that has been captured, if the object image is arranged outside the captured image, it becomes difficult to correctly calculate the position of the object image. Therefore, it may be difficult to adjust the arranged object image to an appropriate size.
SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide an image pickup apparatus capable of appropriately synthesizing an object image arranged outside the angle of view of the image pickup apparatus and a control method thereof.

本発明に係る撮像装置は、光学系を通して撮像空間を撮像する撮像部と、前記撮像部からの信号に基づき撮像画像を生成する画像生成部と、前記撮像部の位置、前記撮像部の姿勢、および前記撮像部から前記撮像空間における被写体までの距離を含む測定情報を取得する測定部と、前記撮像画像および前記測定情報から、前記撮像空間および前記撮像空間の外側の空間を表す実座標を生成する座標生成部と、前記撮像画像に合成されるオブジェクト画像の合成位置を指定する指定部と、前記実座標に基づき、前記合成位置に応じて前記オブジェクト画像を加工するとともに、前記オブジェクト画像を前記合成位置に合成する画像処理部とを備えることを特徴とする。   An image pickup apparatus according to the present invention includes an image pickup section that picks up an image pickup space through an optical system, an image generation section that generates a picked-up image based on a signal from the image pickup section, a position of the image pickup section, and a posture of the image pickup section. And a measurement unit that acquires measurement information including a distance from the image capturing unit to a subject in the image capturing space, and real coordinates that represent the image capturing space and a space outside the image capturing space, from the captured image and the measurement information. A coordinate generation unit for designating, a designating unit for designating a synthesis position of an object image to be synthesized with the captured image, and processing the object image according to the synthesis position based on the actual coordinates, and the object image is And an image processing unit for synthesizing at a synthesizing position.

本発明に係る撮像装置の制御方法は、撮像部において、光学系を通して撮像空間を撮像するステップと、前記撮像部からの信号に基づき撮像画像を生成するステップと、前記撮像部の位置、前記撮像部の姿勢、および前記撮像部から前記撮像空間における被写体までの距離を含む測定情報を取得するステップと、前記撮像画像および前記測定情報から、前記撮像空間および前記撮像空間の外側の空間を表す実座標を生成するステップと、前記撮像画像に合成されるオブジェクト画像の合成位置を指定するステップと、前記実座標に基づき、前記合成位置に応じて前記オブジェクト画像を加工するとともに、前記オブジェクト画像を前記合成位置に合成するステップとを備えることを特徴とする。   A control method of an image pickup apparatus according to the present invention includes a step of, in an image pickup unit, capturing an image of an image pickup space through an optical system; a step of generating a picked-up image based on a signal from the image pickup unit; a position of the image pickup unit; A step of obtaining measurement information including a posture of a section and a distance from the image pickup section to a subject in the image pickup space; and an actual image representing the image pickup space and a space outside the image pickup space from the picked-up image and the measurement information. A step of generating coordinates, a step of designating a combination position of an object image to be combined with the captured image, a step of processing the object image according to the combination position based on the actual coordinates, And a step of combining at a combination position.

本発明によれば、レンズを通して撮像している撮像空間とその外側の空間を表す実座標を生成し、実座標における合成位置に応じて合成対象を加工することにより、撮像装置の画角外に配置されたオブジェクト画像を適切に合成することができる。   According to the present invention, by generating real coordinates representing the imaging space being imaged through the lens and the space outside the imaging space, and processing the composition target according to the composition position in the real coordinates, it is possible to move the image outside the angle of view of the imaging device. The arranged object images can be appropriately combined.

本発明の第1実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram showing the composition of the imaging device concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る撮像座標を説明するための図である。It is a figure for demonstrating the imaging coordinate which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る撮像装置を基点とした実座標を説明するための図である。It is a figure for demonstrating the real coordinate which made the imaging device which concerns on 1st Embodiment of this invention a base point. 本発明の第1実施形態に係るオブジェクト画像を含む画像データを示す図である。It is a figure which shows the image data containing the object image which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るオブジェクト画像を示す図である。It is a figure which shows the object image which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るオブジェクト画像の配置方法を説明するための図である。It is a figure for demonstrating the arrangement method of the object image which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るオブジェクト画像の配置方法を説明するための図である。It is a figure for demonstrating the arrangement method of the object image which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る撮像装置とオブジェクト画像の位置関係を示す図である。It is a figure which shows the positional relationship of the imaging device and object image which concern on 1st Embodiment of this invention. 本発明の第1実施形態に係る撮像装置とオブジェクト画像の位置関係を示す図である。It is a figure which shows the positional relationship of the imaging device and object image which concern on 1st Embodiment of this invention. 本発明の第1実施形態に係る撮像装置の制御方法を示すフローチャートである。3 is a flowchart showing a control method of the image pickup apparatus according to the first embodiment of the present invention. 本発明の第1実施形態に係る撮像装置の制御方法を示すフローチャートである。3 is a flowchart showing a control method of the image pickup apparatus according to the first embodiment of the present invention. 撮像座標におけるオブジェクト画像の配置可能な位置を示す図である。It is a figure which shows the position which can arrange the object image in an imaging coordinate.

[第1実施形態]
図1は、本実施形態に係る撮像装置100の構成を示すブロック図である。撮像装置100は、レンズ部101、イメージセンサ部102、A/D変換部103、信号処理部104、メモリ105、画像生成部106、データ合成部107、表示部108、CPU109を備えている。撮像装置100は、さらに、GPSセンサ110、高さセンサ111、傾きセンサ112、位置測定部113、距離センサ114、距離測定部115、データ加工部116、抽出部117、保存部118、選択部119、撮像制御部120を備えている。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of the image pickup apparatus 100 according to this embodiment. The imaging device 100 includes a lens unit 101, an image sensor unit 102, an A / D conversion unit 103, a signal processing unit 104, a memory 105, an image generation unit 106, a data synthesis unit 107, a display unit 108, and a CPU 109. The image pickup apparatus 100 further includes a GPS sensor 110, a height sensor 111, a tilt sensor 112, a position measurement unit 113, a distance sensor 114, a distance measurement unit 115, a data processing unit 116, an extraction unit 117, a storage unit 118, and a selection unit 119. The imaging control unit 120 is provided.

レンズ部101は、フォーカスレンズ、ズームレンズ、絞りなどから構成される光学系である。レンズ部101は、所定の画角(視野角)αを有しており、画角内の撮像空間からの光をイメージセンサ部102の受光面に結像させる。レンズ部101は、フォーカスレンズを不図示のアクチュエータでレンズの光軸に沿って移動させることにより、フォーカスレンズのピントを調節することができる。同様に、レンズ部101は、ズームレンズ、絞りなどを調節することができる。イメージセンサ部(撮像部)102は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などから構成される。イメージセンサ部102は、レンズ部101から受光した光を電気信号に変換し、アナログ撮像信号として出力する。なお、説明を簡単にするために、イメージセンサ部102の画角は、レンズ部101の画角αに等しいものとする。   The lens unit 101 is an optical system including a focus lens, a zoom lens, a diaphragm, and the like. The lens unit 101 has a predetermined angle of view (viewing angle) α, and forms light from the imaging space within the angle of view on the light receiving surface of the image sensor unit 102. The lens unit 101 can adjust the focus of the focus lens by moving the focus lens along the optical axis of the lens with an actuator (not shown). Similarly, the lens unit 101 can adjust a zoom lens, a diaphragm, and the like. The image sensor unit (imaging unit) 102 includes a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), and the like. The image sensor unit 102 converts the light received from the lens unit 101 into an electric signal and outputs it as an analog image pickup signal. For the sake of simplicity, the angle of view of the image sensor unit 102 is equal to the angle of view α of the lens unit 101.

A/D(Analog/Digital)変換部103は、イメージセンサ部102から入力されたアナログ撮像信号をデジタルの撮像データに変換する。例えば、信号処理部104は、デジタル撮像データに対して、ホワイトバランス調整、補間、輪郭強調、ガンマ補正、階調変換、歪み補正などの画像処理を施し、処理後の撮像データをメモリ105に記憶させる。なお、A/D変換部103をイメージセンサ部102内に設けても良い。   The A / D (Analog / Digital) conversion unit 103 converts the analog image pickup signal input from the image sensor unit 102 into digital image pickup data. For example, the signal processing unit 104 performs image processing such as white balance adjustment, interpolation, contour enhancement, gamma correction, gradation conversion, and distortion correction on the digital image pickup data, and stores the processed image pickup data in the memory 105. Let The A / D conversion unit 103 may be provided in the image sensor unit 102.

メモリ105は、例えばDRAM(Dynamic Random Access Memory)、フラッシュメモリなどから構成され、撮像装置100を動作させるための制御プログラムを記憶する。メモリ105は、撮像データなどの各種データの一時記憶領域として使用されるとともに、撮像装置100の各部が演算を行う際の作業領域としても使用される。CPU(Central Processing Unit)109は、撮像装置100の全体を制御するプロセッサであり、メモリ105から所定のプログラムを読み出し、実行することにより、撮像装置100の各部の機能を実現する。   The memory 105 includes, for example, a DRAM (Dynamic Random Access Memory), a flash memory, and the like, and stores a control program for operating the imaging device 100. The memory 105 is used as a temporary storage area for various data such as image pickup data and also as a work area when each unit of the image pickup apparatus 100 performs calculation. A CPU (Central Processing Unit) 109 is a processor that controls the entire imaging device 100, and realizes the functions of the respective units of the imaging device 100 by reading and executing a predetermined program from the memory 105.

画像生成部106は、信号処理部104またはメモリ105から撮像データを取得し、表示用の撮像画像を生成する。例えば、画像生成部106は、表示部108の画面の解像度に応じた撮像画像を生成し、データ合成部107に出力する。また、画像生成部106は、取得した撮像データをMPEG−4、H.264などの動画ファイルの形式に従って圧縮し、データ合成部107を介して保存部118に記憶させる。さらに、画像生成部106は、信号処理部104またはメモリ105から撮像データを取得し、撮像画像(静止画)を生成する。例えば、画像生成部106は、JPEGなどの静止画ファイルの形式に従って撮像データを圧縮する。   The image generation unit 106 acquires captured image data from the signal processing unit 104 or the memory 105 and generates a captured image for display. For example, the image generation unit 106 generates a captured image according to the resolution of the screen of the display unit 108 and outputs it to the data synthesis unit 107. In addition, the image generation unit 106 uses the acquired image pickup data as MPEG-4, H.264, H.264, H.264, and the like. It is compressed according to the format of a moving image file such as H.264 and is stored in the storage unit 118 via the data synthesis unit 107. Further, the image generation unit 106 acquires captured image data from the signal processing unit 104 or the memory 105 and generates a captured image (still image). For example, the image generation unit 106 compresses the captured data according to the format of a still image file such as JPEG.

データ合成部(画像処理部)107は、データ加工部116からのオブジェクト画像を撮像画像に重畳(合成)する。データ合成部107は、画像生成部106から入力された撮像画像、またはオブジェクト画像が合成された撮像画像を表示部108および保存部118に出力する。   The data synthesizing unit (image processing unit) 107 superimposes (synthesizes) the object image from the data processing unit 116 on the captured image. The data composition unit 107 outputs the captured image input from the image generation unit 106 or the captured image in which the object image is composited to the display unit 108 and the storage unit 118.

表示部(指定部)108は、液晶ディスプレイ、有機発光デバイスなどから構成され、データ合成部107から入力された撮像画像、メモリ105に記憶された各種データ、撮像装置100を操作するためのメニュー画面などを表示する。また、表示部108の画面には透過型のタッチセンサが設けられている。ユーザは、画面に表示された撮像画像の任意の位置を指などで触れることにより、オブジェクト画像を配置する位置、フォーカスポイントを設定する位置などを指定することができる。また、ユーザは、オブジェクト画像を画面の外側にドラッグすることにより、オブジェクト画像の一部を撮像画像の画角外に配置することが可能である。本実施形態によれば、撮像画像の画角外の位置を算出できる実座標を設定することにより、オブジェクト画像の一部を撮像画像の画角外に配置した場合であっても、オブジェクト画像を適切に撮像画像と合成することができる。   The display unit (designating unit) 108 includes a liquid crystal display, an organic light emitting device, and the like, and a captured image input from the data combining unit 107, various data stored in the memory 105, and a menu screen for operating the image capturing apparatus 100. Is displayed. Further, a transmissive touch sensor is provided on the screen of the display unit 108. By touching an arbitrary position of the captured image displayed on the screen with a finger or the like, the user can specify the position where the object image is arranged, the position where the focus point is set, and the like. In addition, the user can arrange a part of the object image outside the angle of view of the captured image by dragging the object image to the outside of the screen. According to the present embodiment, by setting the real coordinates capable of calculating the position outside the angle of view of the captured image, even when a part of the object image is arranged outside the angle of view of the captured image, It can be appropriately combined with the captured image.

GPS(Global Positioning System)センサ110は、複数のGPS衛星からの電波を受信し、撮像装置100の座標(緯度、経度、高度)を測位する。高さセンサ111は、赤外線センサ、超音波センサなどから構成され、傾きセンサ112は、加速度センサ、ジャイロセンサなどから構成される。撮像装置100は、さらに方位センサなどを備えてもよい。   A GPS (Global Positioning System) sensor 110 receives radio waves from a plurality of GPS satellites and measures the coordinates (latitude, longitude, altitude) of the imaging device 100. The height sensor 111 is composed of an infrared sensor, an ultrasonic sensor, etc., and the tilt sensor 112 is composed of an acceleration sensor, a gyro sensor, etc. The image pickup apparatus 100 may further include a direction sensor and the like.

位置測定部113は、GPSセンサ110、高さセンサ111からの信号に基づき、撮像装置100の座標(緯度、経度、高度)と地面からの高さを測定する。また、位置測定部113は、傾きセンサ112からの信号に基づき、撮像装置100の前傾・後傾角度(仰俯角)と左右の傾き(ロール角)を取得する。   The position measuring unit 113 measures the coordinates (latitude, longitude, altitude) of the imaging device 100 and the height from the ground based on the signals from the GPS sensor 110 and the height sensor 111. In addition, the position measuring unit 113 acquires a forward tilt / backward tilt angle (elevation depression angle) and a left / right tilt (roll angle) of the imaging device 100 based on a signal from the tilt sensor 112.

距離センサ114は、赤外線センサ、超音波センサなどから構成され、赤外線、超音波を物体に向けて照射し、その反射波を受信する。距離測定部115は、距離センサ114が赤外線、超音波を照射してから、反射波を受信するまでの時間に基づき、距離を測定する。すなわち、距離測定部115は、撮像装置100から被写体までの距離を測定することができる。   The distance sensor 114 is composed of an infrared sensor, an ultrasonic sensor, etc., irradiates an object with infrared rays and ultrasonic waves, and receives a reflected wave thereof. The distance measuring unit 115 measures the distance based on the time from when the distance sensor 114 irradiates infrared rays or ultrasonic waves to when the reflected wave is received. That is, the distance measuring unit 115 can measure the distance from the imaging device 100 to the subject.

データ加工部(座標生成部)116は、画像生成部106からの撮像画像を分析し、撮像座標(X’,Y’,Z’)を生成する(図2参照)。撮像座標は、レンズ部101、イメージセンサ部102が映像として捉えている撮像空間を表す3次元の座標であり、撮像画像の各画素に対応した座標値を有している。撮像座標は、例えば撮像画像に含まれる幾何学的特徴に基づいて算出することができる。具体的には、SfM(Structure from Motion)法、SLAM(Simultaneous Localization And Mapping)法などの拡張現実の技術を応用することができる。また、撮像座標の精度を高めるために、レンズ部101の焦点距離、画角などのレンズ情報、位置測定部113から取得した撮像装置100の位置および姿勢、距離測定部115から取得した被写体までの距離などの測定情報を使用してもよい。   The data processing unit (coordinate generation unit) 116 analyzes the picked-up image from the image generation unit 106 and generates picked-up coordinates (X ′, Y ′, Z ′) (see FIG. 2). The imaging coordinates are three-dimensional coordinates that represent the imaging space captured by the lens unit 101 and the image sensor unit 102 as an image, and have coordinate values corresponding to each pixel of the captured image. The imaging coordinates can be calculated, for example, based on the geometrical features included in the captured image. Specifically, an augmented reality technique such as a SfM (Structure from Motion) method and a SLAM (Simultaneous Localization And Mapping) method can be applied. In addition, in order to improve the accuracy of the imaging coordinates, lens information such as the focal length of the lens unit 101 and the angle of view, the position and orientation of the imaging device 100 acquired from the position measuring unit 113, and the object acquired from the distance measuring unit 115 to the object. Measurement information such as distance may be used.

さらに、データ加工部116は、位置測定部113および距離測定部115からの測定情報に基づいて、撮像装置100を中心とする3次元の実座標(X,Y,Z)を算出する。実座標は、現実の3次元空間の座標であり、実座標に基づき任意の2点間の距離を算出することができる。データ加工部116は、実座標の座標値に対して撮像座標の各座標値を関連づけ、実座標の中に撮像座標を設定する(図3参照)。すなわち、実座標で表される空間は、撮像座標で表される撮像空間を拡張した空間となる。   Further, the data processing unit 116 calculates three-dimensional real coordinates (X, Y, Z) centered on the imaging device 100 based on the measurement information from the position measuring unit 113 and the distance measuring unit 115. The real coordinates are coordinates in a real three-dimensional space, and the distance between any two points can be calculated based on the real coordinates. The data processing unit 116 associates each coordinate value of the imaging coordinates with the coordinate value of the actual coordinates and sets the imaging coordinates in the actual coordinates (see FIG. 3). That is, the space represented by the real coordinates is a space obtained by expanding the imaging space represented by the imaging coordinates.

また、データ加工部(画像処理部)116は、オブジェクト画像に対してサイズの変更、変形などの加工処理を行う。具体的には、データ加工部116は、ユーザが指定した配置に応じて、オブジェクト画像に対し回転、ロール、変形、拡大、縮小などの処理を施し、オブジェクト画像のサイズ、傾きなどを撮像画像と整合させる。データ加工部116は、撮像画像のフォーカスポイント(ピントが合っている領域)に応じて、オブジェクト画像にぼかし処理を施すこともできる。例えば、データ加工部116は、オブジェクト画像が撮像画像のフォーカスポイントではない位置(背景など)に配置された場合に、ガウシアンフィルタなどの空間フィルタを用いてピントのずれに応じた強度のボケを付加する。   Further, the data processing unit (image processing unit) 116 performs processing processing such as size change and deformation on the object image. Specifically, the data processing unit 116 performs processing such as rotation, roll, deformation, enlargement, reduction, etc. on the object image according to the arrangement designated by the user, and determines the size, inclination, etc. of the object image as a captured image. Align. The data processing unit 116 can also perform the blurring process on the object image according to the focus point (the focused area) of the captured image. For example, when the object image is arranged at a position (background or the like) that is not the focus point of the captured image, the data processing unit 116 uses a spatial filter such as a Gaussian filter to add blurring of intensity according to the focus shift. To do.

また、データ加工部116は、加工処理後のオブジェクト画像が撮像画像からはみ出している場合、すなわちオブジェクト画像の一部が撮像座標の外部に配置された場合、撮像座標にある部分のみをオブジェクト画像からトリミングする。言い換えれば、データ加工部116は、オブジェクト画像からレンズ部101の画角α内に対応する領域のみをトリミングする。このように、データ加工部116は、座標生成部および画像処理部を構成する。   In addition, when the processed object image is outside the captured image, that is, when a part of the object image is arranged outside the image capturing coordinates, the data processing unit 116 extracts only the part at the image capturing coordinates from the object image. Trimming. In other words, the data processing unit 116 trims only the area corresponding to the angle of view α of the lens unit 101 from the object image. In this way, the data processing unit 116 constitutes a coordinate generation unit and an image processing unit.

抽出部117は、保存部118から画像データを読み出し、ユーザにより指定されたオブジェクト画像を抽出する。抽出部117は、画像データから主要な被写体を判別し、オブジェクト画像として抽出してもよい。また、抽出部117は、読み出した画像データに含まれている撮像時のレンズ情報および測定情報に基づいて、オブジェクト画像の現実の高さ、幅、奥行きなどの実サイズを算出する。オブジェクト画像の実サイズは、撮像時において画像データ(撮像画像)と関連付けて保存部118に記憶させておいてもよい。抽出部117は、オブジェクト画像とその実サイズをデータ加工部116に出力する。   The extraction unit 117 reads out the image data from the storage unit 118 and extracts the object image designated by the user. The extraction unit 117 may determine a main subject from the image data and extract it as an object image. In addition, the extraction unit 117 calculates the actual size such as the actual height, width, and depth of the object image based on the lens information and the measurement information at the time of imaging included in the read image data. The actual size of the object image may be stored in the storage unit 118 in association with the image data (captured image) at the time of capturing. The extraction unit 117 outputs the object image and its actual size to the data processing unit 116.

保存部118は、ハードディスクなどの記憶装置であり、撮像装置100において生成される撮像画像などの各種画像データを格納する。保存部118は、脱着可能なメモリカードなどの可搬記憶媒体を含み、撮像装置100以外の装置で撮像または生成された画像データを格納することができる。   The storage unit 118 is a storage device such as a hard disk, and stores various image data such as a captured image generated by the imaging device 100. The storage unit 118 includes a removable storage medium such as a removable memory card, and can store image data imaged or generated by a device other than the imaging device 100.

選択部119は、操作キー、決定ボタンなどの入力デバイスから構成され、保存部118に格納されている画像データの中から、オブジェクト画像を含む画像データを選択する。例えば、選択部119は、保存部118に格納されている画像データのリストを表示部108に表示させる。オブジェクト画像は、撮像済みの撮像画像に含まれたものに限らず、オブジェクトの現実のサイズが定義されているものであれば、CG(Computer Graphics)により作成されたキャラクタなどの生成画像であっても良い。また、選択部119は、実際のボタンではなく、表示部108に表示される表示上の操作キー、決定ボタンとして構成されてもよい。   The selection unit 119 includes input devices such as operation keys and an enter button, and selects image data including an object image from the image data stored in the storage unit 118. For example, the selection unit 119 causes the display unit 108 to display a list of image data stored in the storage unit 118. The object image is not limited to the one included in the captured image, but may be a generated image such as a character created by CG (Computer Graphics) as long as the actual size of the object is defined. Is also good. Further, the selection unit 119 may be configured as an operation key on the display displayed on the display unit 108 or an enter button instead of an actual button.

撮像制御部120は、レンズ部101のフォーカスレンズ、ズームレンズ、絞りなどを制御し、ピントの調節、ズーム倍率の変更、明るさの調整などを行う。また、撮像制御部120は、撮像中の画像に関するフォーカス位置、被写体距離、画角などの情報をレンズ部101から取得し、データ加工部116に出力する。また、撮像制御部120は、信号処理部104に対して、レンズ部101およびイメージセンサ部102が取り込んでいる画像を静止画として取得するタイミングを指示する。   The imaging control unit 120 controls the focus lens, the zoom lens, the diaphragm, and the like of the lens unit 101 to adjust the focus, change the zoom magnification, and adjust the brightness. The imaging control unit 120 also acquires information such as the focus position, subject distance, and angle of view regarding the image being captured from the lens unit 101, and outputs the information to the data processing unit 116. Further, the imaging control unit 120 instructs the signal processing unit 104 when to acquire the image captured by the lens unit 101 and the image sensor unit 102 as a still image.

図2は、本実施形態に係る撮像座標を説明するための図である。図2は、画像生成部106により生成される撮像画像200の一例を示しており、撮像画像200に対してX’軸、Y’軸、Z’軸からなる直交座標系の撮像座標(X’、Y’、Z’)が生成される。図2に示される撮像座標では、手前の人物の足元付近を原点とし、地面(床面)を含む平面をX’Y’面、鉛直方向(高さ方向)をZ’軸に設定している。撮像画像200の各画素は、撮像座標で表される。なお、撮像座標の座標軸は、図2の例に限定されるものではなく、撮像画像200の構図に応じて適宜設定される。   FIG. 2 is a diagram for explaining imaging coordinates according to the present embodiment. FIG. 2 shows an example of the captured image 200 generated by the image generation unit 106, and the captured image 200 has image capturing coordinates (X ′) in an orthogonal coordinate system composed of an X ′ axis, a Y ′ axis, and a Z ′ axis. , Y ′, Z ′) is generated. In the imaging coordinates shown in FIG. 2, the vicinity of the feet of the person in front is set as the origin, the plane including the ground (floor surface) is set as the X'Y 'plane, and the vertical direction (height direction) is set as the Z'axis. . Each pixel of the captured image 200 is represented by imaging coordinates. It should be noted that the coordinate axes of the image capturing coordinates are not limited to the example of FIG. 2, and are appropriately set according to the composition of the captured image 200.

図3は、本実施形態に係る撮像装置100を基点とした実座標を説明するための図である。図3に示されるように、X軸、Y軸、Z軸からなる直交座標系の実座標(X、Y、Z)が生成され、実座標の中に撮像座標(X’、Y’、Z’)が設定される。例えば、撮像座標の各座標軸は、実座標の各座標軸の方向と一致し、撮像座標の各座標値は、実座標の座標値と対応づけられる。撮像座標により表される空間は、レンズ部101が画像として捉えている空間、すなわちレンズ部101の画角に収まる空間と一致しており、実座標により表される空間の中に含まれている。図3に示される実座標では、撮像装置100の位置を原点とし、地面を含む水平面において互いに直交するX軸、Y軸、および地面に鉛直方向(高さ方向)をZ軸に設定している。実座標の座標軸は、図3の例に限定されるものではなく、撮像装置100の位置、撮像方向などに応じて適宜設定される。実座標の各座標値は、例えば、緯度、経度、高度の組み合わせで表される。   FIG. 3 is a diagram for explaining actual coordinates with the image pickup apparatus 100 according to the present embodiment as a base point. As shown in FIG. 3, real coordinates (X, Y, Z) of a Cartesian coordinate system composed of X-axis, Y-axis, and Z-axis are generated, and imaging coordinates (X ′, Y ′, Z) are included in the real coordinates. ') Is set. For example, each coordinate axis of the imaging coordinates matches the direction of each coordinate axis of the actual coordinates, and each coordinate value of the imaging coordinates is associated with the coordinate value of the actual coordinates. The space represented by the imaging coordinates matches the space captured by the lens unit 101 as an image, that is, the space within the angle of view of the lens unit 101, and is included in the space represented by the actual coordinates. . In the actual coordinates shown in FIG. 3, the position of the imaging device 100 is set as the origin, and the X axis and the Y axis that are orthogonal to each other in a horizontal plane including the ground, and the vertical direction (height direction) to the ground are set as the Z axis. . The coordinate axes of the real coordinates are not limited to the example of FIG. 3, and are appropriately set according to the position of the image pickup apparatus 100, the image pickup direction, and the like. Each coordinate value of the actual coordinates is represented by a combination of latitude, longitude, and altitude, for example.

図4は、本実施形態に係るオブジェクト画像301を含む画像データ300を示す図である。図4に示す画像データ300は、保存部118に格納されている撮像画像の中から、ユーザにより選択部119において選択されたものである。画像データ300には、合成対象となるオブジェクト画像301が含まれている。オブジェクト画像301は、例えば表示部108においてユーザにより指定される。   FIG. 4 is a diagram showing the image data 300 including the object image 301 according to this embodiment. The image data 300 shown in FIG. 4 is selected by the user in the selection unit 119 from the captured images stored in the storage unit 118. The image data 300 includes an object image 301 to be combined. The object image 301 is designated by the user on the display unit 108, for example.

図5は、本実施形態に係るオブジェクト画像301を示す図である。図5のオブジェクト画像301は、選択された画像データ300から抽出部117により抽出されたものである。オブジェクト画像301には、オブジェクト画像301を配置する際に基準となる基準点301aが設定される。基準点301aは、例えばオブジェクト画像301の足元、重心などの位置に設定される。基準点301aは、表示部108においてユーザにより指定されてもよく、オブジェクト画像301の形状に基づき、抽出部117により算出されてもよい。   FIG. 5 is a diagram showing an object image 301 according to this embodiment. The object image 301 of FIG. 5 is extracted by the extraction unit 117 from the selected image data 300. In the object image 301, a reference point 301a, which serves as a reference when arranging the object image 301, is set. The reference point 301a is set at a position such as a foot and a center of gravity of the object image 301, for example. The reference point 301a may be designated by the user on the display unit 108, or may be calculated by the extraction unit 117 based on the shape of the object image 301.

図6は、本実施形態に係るオブジェクト画像301の配置方法を説明するための図である。図6は、表示部108に表示された例であり、撮像画像200に合成されたオブジェクト画像301が示されている。撮像画像200の任意の位置をユーザが指で指定することにより、オブジェクト画像301が撮像画像200の指定された位置に配置される。ここで、例えば基準点301aがオブジェクト画像301の足元に設定されている場合、ユーザはオブジェクト画像301を撮像画像200の地面、床面上に配置することを想定しているものとする。オブジェクト画像301が配置される際は、基準点301aに対応する実座標に基づき、撮像装置100からオブジェクト画像301が配置された現実の合成位置が算出される。そして、オブジェクト画像301の現実の合成位置に応じて、オブジェクト画像301に対して加工処理が施される。例えば、オブジェクト画像301の実サイズ(例えば身長)に基づきオブジェクト画像301が拡大または縮小される。   FIG. 6 is a diagram for explaining a method of arranging the object image 301 according to this embodiment. FIG. 6 is an example displayed on the display unit 108, and shows the object image 301 combined with the captured image 200. When the user designates an arbitrary position on the captured image 200 with the finger, the object image 301 is arranged at the designated position on the captured image 200. Here, for example, when the reference point 301a is set at the foot of the object image 301, it is assumed that the user arranges the object image 301 on the ground and floor of the captured image 200. When the object image 301 is arranged, the actual composite position where the object image 301 is arranged is calculated from the imaging device 100 based on the actual coordinates corresponding to the reference point 301a. Then, the processing process is performed on the object image 301 according to the actual composite position of the object image 301. For example, the object image 301 is enlarged or reduced based on the actual size (for example, height) of the object image 301.

図7は、本実施形態に係るオブジェクト画像301の配置方法を説明するための図である。図7では、撮像画像200内に一度配置されたオブジェクト画像301の位置がユーザの操作により変更されている。具体的には、ユーザは、図6のように撮像画像200の中央付近に配置されたオブジェクト画像301を指でドラッグすることにより、撮像画像200の手前の位置にオブジェクト画像301を移動させている。図7に示すように、ユーザは、オブジェクト画像301の一部が撮像画像200からはみ出す場合、特に基準点301aが撮像画像200の外部に位置する場合であっても、オブジェクト画像301を配置することができる。ドラッグによりオブジェクト画像301が移動されている間には、オブジェクト画像301のサイズ変更、変形などの加工処理が所定の周期で行われる。図7の例では、オブジェクト画像301を撮像装置100に対して近づけているため、オブジェクト画像301のサイズが拡大されている。   FIG. 7 is a diagram for explaining a method of arranging the object image 301 according to this embodiment. In FIG. 7, the position of the object image 301 once arranged in the captured image 200 is changed by a user operation. Specifically, the user moves the object image 301 to a position in front of the captured image 200 by dragging the object image 301 arranged near the center of the captured image 200 with a finger as shown in FIG. . As shown in FIG. 7, the user arranges the object image 301 even when a part of the object image 301 protrudes from the captured image 200, particularly when the reference point 301 a is located outside the captured image 200. You can While the object image 301 is being moved by dragging, processing such as resizing and deformation of the object image 301 is performed in a predetermined cycle. In the example of FIG. 7, since the object image 301 is brought closer to the image capturing apparatus 100, the size of the object image 301 is enlarged.

図8は、本実施形態に係る撮像装置100とオブジェクト画像301の位置関係を示す図である。図8は、図6に対応するオブジェクト画像301の配置を実座標(X、Y、Z)上で示したものであり、地面に対して水平な方向(X軸方向)から見た実座標のYZ面が示されている。撮像装置100は、高さHsに位置し、レンズ部101を通して画角α内の撮像空間を撮像している。オブジェクト画像301は、身長(現実のサイズ)Hを有し、レンズ部101の画角α内に配置されている。オブジェクト画像301には、高さHfの位置にフォーカスポイントFが設定されている。撮像装置100とオブジェクト画像301のフォーカスポイントFの実座標に基づき、撮像装置100からオブジェクト画像301までの実距離Lが算出される。オブジェクト画像301にフォーカスポイントFが設定されていない場合には、例えばオブジェクト画像301の基準点301aに基づき、撮像装置100からオブジェクト画像301の合成位置までの実距離が算出される。この合成位置までの実距離を撮像装置100からオブジェクト画像301までの実距離Lとみなしてもよい。   FIG. 8 is a diagram showing a positional relationship between the image capturing apparatus 100 and the object image 301 according to this embodiment. FIG. 8 shows the arrangement of the object image 301 corresponding to FIG. 6 on the real coordinates (X, Y, Z), and shows the real coordinates viewed from the direction horizontal to the ground (X-axis direction). The YZ plane is shown. The imaging device 100 is located at the height Hs, and images the imaging space within the angle of view α through the lens unit 101. The object image 301 has a height (actual size) H and is arranged within the angle of view α of the lens unit 101. In the object image 301, the focus point F is set at the position of height Hf. Based on the actual coordinates of the focus point F of the imaging device 100 and the object image 301, the actual distance L from the imaging device 100 to the object image 301 is calculated. When the focus point F is not set on the object image 301, the actual distance from the imaging device 100 to the composite position of the object image 301 is calculated based on the reference point 301a of the object image 301, for example. The actual distance to this combined position may be regarded as the actual distance L from the imaging device 100 to the object image 301.

図9は、本実施形態に係る撮像装置100とオブジェクト画像301の位置関係を示す図である。図9は、図7に対応するオブジェクト画像301の配置を実座標(X、Y、Z)上で示したものであり、地面に対して水平な方向(X軸方向)から見た実座標のYZ面が示されている。図8の例と同様に、撮像装置100は、高さHsに位置し、レンズ部101を通して画角α内の撮像空間を撮像している。オブジェクト画像301は、身長(実際のサイズ)Hを有し、オブジェクト画像301には、高さHfの位置にフォーカスポイントFが設定されている。図9において、オブジェクト画像301は、レンズ部101の画角α外に配置されている。ここで、基準点301aがレンズ部101の画角αの外に位置している場合に、オブジェクト画像301が画角α外に配置されていると表現している。オブジェクト画像301がレンズ部101の画角α外に配置された場合であっても、図8の例と同様に、実座標に基づきオブジェクト画像301までの実距離Lが算出できる。   FIG. 9 is a diagram showing a positional relationship between the image capturing apparatus 100 and the object image 301 according to this embodiment. FIG. 9 shows the arrangement of the object image 301 corresponding to FIG. 7 on the real coordinates (X, Y, Z), and shows the real coordinates viewed from the direction horizontal to the ground (X axis direction). The YZ plane is shown. Similar to the example of FIG. 8, the imaging device 100 is located at the height Hs and images the imaging space within the angle of view α through the lens unit 101. The object image 301 has a height (actual size) H, and the object image 301 has a focus point F set at a position of height Hf. In FIG. 9, the object image 301 is arranged outside the angle of view α of the lens unit 101. Here, when the reference point 301a is located outside the angle of view α of the lens unit 101, it is expressed that the object image 301 is located outside the angle of view α. Even when the object image 301 is arranged outside the angle of view α of the lens unit 101, the actual distance L to the object image 301 can be calculated based on the actual coordinates, as in the example of FIG.

図10は、本実施形態に係る撮像装置100の制御方法を示すフローチャートである。このフローチャートの処理は、撮像制御部120によって信号処理部104へ割り込み処理が行われていない間であり、かつイメージセンサ部102により撮像空間が撮像されている間、繰り返し行われる。   FIG. 10 is a flowchart showing a control method of the image pickup apparatus 100 according to this embodiment. The process of this flowchart is repeatedly performed while the image capturing control unit 120 is not interrupting the signal processing unit 104 and while the image sensor unit 102 is capturing an image of the image capturing space.

撮像装置100は、ユーザにより撮像開始の操作がなされると、フローチャートの処理を開始する。まず、イメージセンサ部102は、レンズ部101の画角α内の撮像空間を撮像する(ステップS101)。次に、A/D変換部103は、イメージセンサ部102からのアナログ撮像信号をデジタルの撮像データに変換する。信号処理部104は、撮像データに対して画像処理を施し、画像生成部106は、撮像データから撮像画像200を生成する(ステップS102)。画像生成部106は、撮像画像200をデータ加工部116に出力するとともに、データ合成部107を介して表示部108に伝送する。表示部108は、伝送された撮像画像200を表示する(ステップS103)。   The imaging apparatus 100 starts the processing of the flowchart when the user operates to start imaging. First, the image sensor unit 102 images the imaging space within the angle of view α of the lens unit 101 (step S101). Next, the A / D converter 103 converts the analog image pickup signal from the image sensor unit 102 into digital image pickup data. The signal processing unit 104 performs image processing on the captured data, and the image generation unit 106 generates the captured image 200 from the captured data (step S102). The image generation unit 106 outputs the captured image 200 to the data processing unit 116 and also transmits it to the display unit 108 via the data synthesis unit 107. The display unit 108 displays the transmitted captured image 200 (step S103).

次に、データ加工部116は、画像生成部106から撮像画像200を受信するとともに、距離測定部115から撮像画像200に関する距離の情報を取得する。さらに、データ加工部116は、位置測定部113から測定情報を取得する(ステップS104)。続いて、データ加工部116は、撮像座標(X’、Y’、Z’)が含まれた実座標(X、Y、Z)を生成する(ステップS105)。すなわち、データ加工部116は、撮像画像200を分析し、撮像座標を生成するとともに、測定情報を用いて撮像装置100を中心とした実座標を算出し、実座標の中に撮像座標を設定する。   Next, the data processing unit 116 receives the captured image 200 from the image generation unit 106 and acquires distance information regarding the captured image 200 from the distance measurement unit 115. Further, the data processing unit 116 acquires measurement information from the position measuring unit 113 (step S104). Subsequently, the data processing unit 116 generates real coordinates (X, Y, Z) including the image pickup coordinates (X ', Y', Z ') (step S105). That is, the data processing unit 116 analyzes the captured image 200, generates imaging coordinates, calculates real coordinates centered on the imaging device 100 using the measurement information, and sets the imaging coordinates in the real coordinates. .

次に、データ加工部116は、オブジェクト画像301が撮像画像200に配置されているかを判定する(ステップS106)。具体的には、データ加工部116は、表示部108に表示された撮像画像200に対して、オブジェクト画像301を合成する位置が指定されたか否かを判定する。オブジェクト画像301が配置されていない場合(ステップS106でNO)、データ加工部116は、フローチャートの処理をステップS101に移行する。   Next, the data processing unit 116 determines whether the object image 301 is arranged in the captured image 200 (step S106). Specifically, the data processing unit 116 determines whether or not the position where the object image 301 is to be combined is designated with respect to the captured image 200 displayed on the display unit 108. When the object image 301 is not arranged (NO in step S106), the data processing unit 116 shifts the process of the flowchart to step S101.

オブジェクト画像301が配置されている場合(ステップS106でYES)、データ加工部116は、オブジェクト画像301までの実距離を算出する(ステップS107)。すなわち、データ加工部116は、生成した実座標を用いて、撮像装置100のレンズ部101からオブジェクト画像301が配置された合成位置またはオブジェクト画像301のフォーカスポイントまでの実距離を算出する。   When the object image 301 is arranged (YES in step S106), the data processing unit 116 calculates the actual distance to the object image 301 (step S107). That is, the data processing unit 116 uses the generated actual coordinates to calculate the actual distance from the lens unit 101 of the imaging device 100 to the combined position where the object image 301 is arranged or the focus point of the object image 301.

次に、データ加工部116は、オブジェクト画像301までの実距離が変化したかを判定する(ステップS108)。すなわち、データ加工部116は、前回算出したオブジェクト画像301までの実距離と今回算出したオブジェクト画像301までの実距離とを比較する。オブジェクト画像301までの実距離が変化していない場合(ステップS108でNO)、データ加工部116は、フローチャートの処理をステップS110に移行する。   Next, the data processing unit 116 determines whether the actual distance to the object image 301 has changed (step S108). That is, the data processing unit 116 compares the actual distance to the object image 301 calculated last time with the actual distance to the object image 301 calculated this time. When the actual distance to the object image 301 has not changed (NO in step S108), the data processing unit 116 shifts the process of the flowchart to step S110.

オブジェクト画像301までの実距離が変化している場合、またはオブジェクト画像301までの実距離を初めて算出した場合(ステップS108でYES)、データ加工部116は、オブジェクト画像301に対して加工処理を行う(ステップS109)。具体的には、データ加工部116は、生成した実座標、オブジェクト画像301の実サイズ、オブジェクト画像301までの実距離に基づき、オブジェクト画像301を撮像画像200と適合したサイズ、形状、傾きのオブジェクト画像に変換する。データ加工部116は、オブジェクト画像301までの実距離とレンズ部101の画角αから、変換したオブジェクト画像301の領域のうちのイメージセンサ部102に投影される領域、すなわち撮像画像200に含まれる領域を算出する。データ加工部116は、オブジェクト画像301から算出した領域をトリミングし、データ合成部107に出力する。   When the actual distance to the object image 301 has changed, or when the actual distance to the object image 301 is calculated for the first time (YES in step S108), the data processing unit 116 performs the processing process on the object image 301. (Step S109). Specifically, the data processing unit 116, based on the generated real coordinates, the real size of the object image 301, and the real distance to the object image 301, the object image 301 is an object having a size, shape, and inclination suitable for the captured image 200. Convert to image. The data processing unit 116 is included in the captured image 200, that is, the region projected from the image sensor unit 102 in the region of the converted object image 301 based on the actual distance to the object image 301 and the angle of view α of the lens unit 101. Calculate the area. The data processing unit 116 trims the area calculated from the object image 301 and outputs it to the data synthesizing unit 107.

データ合成部107は、オブジェクト画像301を撮像画像200に合成し、表示部108は、オブジェクト画像301が合成された合成画像を表示する(ステップS110)。最後に、撮像装置100は、ユーザから撮像停止の指示があったか否かを判定する(ステップS111)。撮像停止の指示が無い場合(ステップS111でNO)、撮像装置100は、フローチャートの処理をステップS101に移行する。撮像停止の指示があった場合(ステップS111でYES)、撮像装置100は、フローチャートの処理を終了する。   The data combination unit 107 combines the object image 301 with the captured image 200, and the display unit 108 displays the combined image with the object image 301 combined (step S110). Finally, the imaging device 100 determines whether or not the user has instructed to stop imaging (step S111). If there is no instruction to stop imaging (NO in step S111), the imaging apparatus 100 moves the process of the flowchart to step S101. If there is an instruction to stop imaging (YES in step S111), the imaging apparatus 100 ends the process of the flowchart.

図11は、本実施形態に係る撮像装置100の制御方法を示すフローチャートである。図11のフローチャートの処理は、オブジェクト画像301が合成された合成画像を静止画として保存するための処理であり、図10のフローチャートの処理に対する割り込み処理として実行される。よって、図11のフローチャートの処理が開始された時点で、撮像座標と撮像装置100自身を含む実座標は、既に生成されている。   FIG. 11 is a flowchart showing a control method of the image pickup apparatus 100 according to this embodiment. The process of the flowchart of FIG. 11 is a process for saving the combined image in which the object image 301 is combined as a still image, and is executed as an interrupt process to the process of the flowchart of FIG. 10. Therefore, when the process of the flowchart of FIG. 11 is started, the image capturing coordinates and the actual coordinates including the image capturing apparatus 100 have already been generated.

まず、ユーザによって静止画撮像の開始操作が行われると、撮像制御部120は、画像生成部106に対して静止画の生成指示を通知する(ステップS201)。画像生成部106は、撮像制御部120からの通知のタイミングで、信号処理部104から撮像データを取得する(ステップS202)。画像生成部106は、取得した撮像データを変換し、イメージセンサ部102の解像度に応じた静止画(撮像画像)を生成する(ステップS203)。画像生成部106は、生成した静止画をデータ加工部116に出力する。   First, when the user performs a still image capturing start operation, the image capturing control unit 120 notifies the image generating unit 106 of a still image generation instruction (step S201). The image generation unit 106 acquires the imaging data from the signal processing unit 104 at the timing of the notification from the imaging control unit 120 (step S202). The image generation unit 106 converts the acquired captured image data and generates a still image (captured image) according to the resolution of the image sensor unit 102 (step S203). The image generation unit 106 outputs the generated still image to the data processing unit 116.

データ加工部116は、抽出部117から取得したオブジェクト画像301を静止画の解像度に合わせて変換するとともに、図10のステップS109と同様の加工処理を施す(ステップS204)。そして、データ合成部107は、加工したオブジェクト画像301を画像生成部106からの静止画と合成する。データ合成部107は、オブジェクト画像301が合成された合成画像を保存部118に保存する(ステップS205)。   The data processing unit 116 converts the object image 301 acquired from the extraction unit 117 according to the resolution of the still image and performs the same processing as step S109 of FIG. 10 (step S204). Then, the data synthesizing unit 107 synthesizes the processed object image 301 with the still image from the image generating unit 106. The data synthesizing unit 107 stores the synthesized image in which the object image 301 is synthesized in the storage unit 118 (step S205).

このように、本実施形態によれば、撮像装置を中心とした実座標を算出し、撮像座標を実座標の範囲内に設定することにより、撮像装置のレンズ部の画角外の空間をも含む、より広い座標空間が定義される。これにより、撮像座標の範囲を超えて合成対象となるオブジェクト画像を配置することが可能になる。   As described above, according to the present embodiment, by calculating the real coordinates around the image pickup device and setting the image pickup coordinates within the range of the real coordinates, a space outside the angle of view of the lens unit of the image pickup device can be obtained. A wider coordinate space is defined that contains. As a result, it becomes possible to arrange the object images to be combined beyond the range of the image pickup coordinates.

図12は、撮像座標においてオブジェクト画像の配置可能な位置を示している。上述のように、撮像座標に収まるように配置したオブジェクト画像を撮像装置に近づけていく際、オブジェクト画像の配置位置が撮像装置に近づくほど、表示部に表示されるオブジェクト画像のサイズも大きくなる。従来の合成機能を有する撮像装置では、撮像座標を超えてオブジェクト画像を移動させた場合、オブジェクト画像までの距離を定めることができなくなるため、合成処理を適切に行うことが困難となる。一方、本実施形態では、レンズとイメージセンサを通じて得られる撮像座標を、撮像装置自身を基点とした実座標へ展開することで、撮像画像中で認識できない位置に配置されたオブジェクト画像を適正な形で合成することができる。したがって、オブジェクト画像が撮像画像の画角外に配置されており、その一部のみが撮像画像内に写り込むような合成画像を得ることができる。また、フォーカスポイントをオブジェクト画像に設定することで、オブジェクト画像にピントを合わせた画像を撮像することができる。   FIG. 12 shows positions where the object image can be arranged in the image pickup coordinates. As described above, when the object image arranged so as to fit in the image pickup coordinates is brought closer to the image pickup apparatus, the size of the object image displayed on the display unit becomes larger as the arrangement position of the object image gets closer to the image pickup apparatus. In the conventional image pickup apparatus having the combining function, when the object image is moved beyond the image pickup coordinates, the distance to the object image cannot be determined, which makes it difficult to appropriately perform the combining process. On the other hand, in the present embodiment, the imaging coordinates obtained through the lens and the image sensor are expanded to the actual coordinates with the imaging device itself as a base point, so that the object image placed at a position that cannot be recognized in the captured image has an appropriate shape. Can be synthesized with. Therefore, it is possible to obtain a composite image in which the object image is arranged outside the angle of view of the captured image, and only part of it is reflected in the captured image. Further, by setting the focus point on the object image, it is possible to capture an image in which the object image is in focus.

[変形実施形態]
本発明は上記実施形態に限らず種々の変形が可能である。例えば、図10に示したフローチャートの処理では、オブジェクト画像301までの実距離を算出しているが、オブジェクト画像301の地面に対する傾きを算出してもよい。また、オブジェクト画像301を合成する際には、オブジェクト画像301の合成位置と撮像画像200内の各被写体との位置関係に基づき、オブジェクト画像301を前景または後景とするような画像処理を施すことも可能である。
[Modified Embodiment]
The present invention is not limited to the above embodiment, and various modifications can be made. For example, in the process of the flowchart shown in FIG. 10, the actual distance to the object image 301 is calculated, but the inclination of the object image 301 with respect to the ground may be calculated. In addition, when the object image 301 is combined, image processing is performed such that the object image 301 is the foreground or the background based on the positional relationship between the combined position of the object image 301 and each subject in the captured image 200. Is also possible.

100 撮像装置
101 レンズ部
102 イメージセンサ部
103 A/D変換部
104 信号処理部
106 画像生成部
107 データ合成部
108 表示部
113 位置測定部
115 距離測定部
116 データ加工部
200 撮像画像
301 オブジェクト画像
100 image pickup apparatus 101 lens section 102 image sensor section 103 A / D conversion section 104 signal processing section 106 image generation section 107 data synthesis section 108 display section 113 position measurement section 115 distance measurement section 116 data processing section 200 captured image 301 object image

Claims (15)

光学系を通して撮像空間を撮像する撮像手段からの信号に基づき撮像画像を生成する画像生成手段と、
前記撮像手段の位置、前記撮像手段の姿勢、および前記撮像手段から前記撮像空間における被写体までの距離を含む測定情報を取得する測定手段と、
前記撮像画像および前記測定情報から、前記撮像空間および前記撮像空間の外側の空間を表す実座標空間を生成する座標空間生成手段と、
前記撮像画像上の位置を指定することで、前記撮像画像に合成されるオブジェクト画像の合成位置を指定する指定手段と、
前記指定手段で指定された合成位置の、前記実座標空間における位置に応じて前記オブジェクト画像を加工するとともに、前記オブジェクト画像を前記撮像画像における前記合成位置に合成する画像処理手段
を備え
前記画像処理手段は、前記指定手段で指定された合成位置に対応する加工を該オブジェクト画像に行って前記撮像画像に合成することを特徴とする画像処理装置。
An image generating unit that generates a captured image based on a signal from an image capturing unit that captures an image capturing space through an optical system,
Measuring means for acquiring the measurement information including the distance to the subject in the imaging space position and orientation of the imaging unit, and the imaging unit of the imaging means,
Coordinate space generation means for generating an actual coordinate space representing the imaging space and a space outside the imaging space from the captured image and the measurement information;
By specifying the position on the captured image, and designation means for designating a combining position of the object image to be combined with the captured image,
The specified combination position in the designation unit, thereby processing the object image in accordance with a position in the real coordinate space, and an image processing means for synthesizing the object image in the combined position in the captured image,
Wherein the image processing means, the processing corresponding to the specified combination position in the designation unit image processing apparatus characterized that you synthesis in the captured image by performing on the object image.
前記画像処理手段で生成された合成画像を表示部に表示する表示制御手段を備え、A display control unit that displays the composite image generated by the image processing unit on a display unit;
前記指定手段は、前記表示部に表示された前記撮像画像上の位置を指定することで前記合成位置を指定することを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the designation unit designates the composite position by designating a position on the captured image displayed on the display unit.
前記指定手段は、前記表示部に設けられたタッチセンサを含むことを特徴とする請求項2に記載の画像処理装置。The image processing apparatus according to claim 2, wherein the designation unit includes a touch sensor provided on the display unit. 前記指定手段は、前記撮像画像上に合成されたオブジェクト画像をドラッグする操作を受け付けることにより該オブジェクト画像の前記合成位置を変更することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。The said designation | designated means changes the said synthetic | combination position of the said object image by accepting the operation which drags the object image synthesize | combined on the said captured image, The any one of Claim 1 thru | or 3 characterized by the above-mentioned. Image processing device. 前記画像処理手段は、前記指定手段によってドラッグの操作を受け付けることに応じて所定の周期で前記オブジェクト画像に加工処理を行うことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。The image processing unit according to claim 1, wherein the image processing unit performs a processing process on the object image at a predetermined cycle in response to a drag operation received by the designating unit. Processing equipment. 前記オブジェクト画像は、前記オブジェクト画像のサイズ情報と関連付けてメモリに記憶されていることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the object image is stored in a memory in association with size information of the object image. 前記オブジェクト画像は、画像データから抽出された被写体の画像であることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the object image is an image of a subject extracted from image data. 前記画像処理手段は、前記実座標空間を用いて前記撮像手段から前記合成位置までの実距離を算出し、前記実距離と前記オブジェクト画像の実サイズに応じて、前記オブジェクト画像のサイズを調整することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 The image processing means calculates an actual distance from the image pickup means to the composite position using the actual coordinate space , and adjusts the size of the object image according to the actual distance and the actual size of the object image. the image processing apparatus according to any one of claims 1 to 7, characterized in that. 前記撮像手段を備えることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。The image processing apparatus according to claim 1, further comprising the image pickup unit. 前記撮像手段は、前記オブジェクト画像にフォーカスポイントが設定された場合、前記光学系のピントを前記オブジェクト画像までの実距離に合わせることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 9 , wherein the imaging unit adjusts the focus of the optical system to the actual distance to the object image when a focus point is set on the object image. 前記画像処理手段は、前記オブジェクト画像までの実距離に対する前記光学系のピントのずれに応じて、前記オブジェクト画像にボケを付加することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 11. The image processing means adds a blur to the object image according to a focus shift of the optical system with respect to an actual distance to the object image, according to any one of claims 1 to 10. Image processing device. 前記画像処理手段は、前記オブジェクト画像から前記光学系の画角内に収まる領域をトリミングする請求項1乃至11のいずれか1項に記載の画像処理装置。 Wherein the image processing means, the image processing apparatus according to any one of claims 1 to 11 trims an area falling within the angle of view of the optical system from the object image. 前記座標空間生成手段は、前記撮像手段を基点とした前記実座標空間を生成することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。 The coordinate space generation means, image processing apparatus according to any one of claims 1 to 12, characterized in that generating the real coordinate space as a base point of the imaging means. 前記測定情報は、前記撮像手段の位置を示す緯度、経度、高度の情報を含むことを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。 The measurement information, latitude indicating the position of the imaging means, longitude, image processing apparatus according to any one of claims 1 to 13, characterized in that it comprises a high degree of information. 撮像手段によって光学系を通して撮像空間を撮像した撮像画像を生成するステップと、
前記撮像手段の位置、前記撮像手段の姿勢、および前記撮像手段から前記撮像空間における被写体までの距離を含む測定情報を取得するステップと、
前記撮像画像および前記測定情報から、前記撮像空間および前記撮像空間の外側の空間を表す実座標空間を生成するステップと、
前記撮像画像上の位置を指定することで、前記撮像画像に合成されるオブジェクト画像の合成位置を指定するステップと、
前記指定するステップで指定された合成位置の、前記実座標空間における位置に応じて前記オブジェクト画像を加工するとともに、前記オブジェクト画像を前記撮像画像における前記合成位置に合成するステップと
を備え
前記合成するステップは、前記指定するステップにおいて変更された合成位置に対応する加工を該オブジェクト画像に行って前記撮像画像に合成すステップを含むことを特徴とする画像処理装置の制御方法。
A step of generating a picked-up image obtained by picking up an image pickup space through an optical system by the image pickup means ;
Acquiring measurement information including the distance to the subject in the imaging space position and orientation of the imaging unit, and the imaging unit of the imaging means,
Generating a real coordinate space representing the imaging space and a space outside the imaging space from the captured image and the measurement information;
Specifying a position on the captured image to specify a composite position of an object image to be combined with the captured image,
A step of synthesizing the object image according to the position in the real coordinate space of the synthesis position designated in the step of designating, and synthesizing the object image at the synthesis position in the captured image ,
Step, a method of controlling an image processing apparatus characterized by comprising the steps you combining said captured image processing corresponding to the changed combination position in the step of specifying go to the object image to the composite.
JP2016082153A 2016-04-15 2016-04-15 Imaging device and control method thereof Active JP6685814B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016082153A JP6685814B2 (en) 2016-04-15 2016-04-15 Imaging device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016082153A JP6685814B2 (en) 2016-04-15 2016-04-15 Imaging device and control method thereof

Publications (2)

Publication Number Publication Date
JP2017192106A JP2017192106A (en) 2017-10-19
JP6685814B2 true JP6685814B2 (en) 2020-04-22

Family

ID=60085113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016082153A Active JP6685814B2 (en) 2016-04-15 2016-04-15 Imaging device and control method thereof

Country Status (1)

Country Link
JP (1) JP6685814B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11754833B2 (en) 2021-03-30 2023-09-12 Canon Kabushiki Kaisha Image processing apparatus and control method for image processing apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7277410B2 (en) * 2020-03-30 2023-05-18 東邦ガスネットワーク株式会社 augmented reality display

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4115117B2 (en) * 2001-10-31 2008-07-09 キヤノン株式会社 Information processing apparatus and method
JP2010033397A (en) * 2008-07-30 2010-02-12 Dainippon Printing Co Ltd Image composition device and method
JP2012174116A (en) * 2011-02-23 2012-09-10 Ntt Docomo Inc Object display device, object display method and object display program
JP2015026286A (en) * 2013-07-26 2015-02-05 セイコーエプソン株式会社 Display device, display system and control method of display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11754833B2 (en) 2021-03-30 2023-09-12 Canon Kabushiki Kaisha Image processing apparatus and control method for image processing apparatus

Also Published As

Publication number Publication date
JP2017192106A (en) 2017-10-19

Similar Documents

Publication Publication Date Title
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
JP5093053B2 (en) Electronic camera
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
US8564693B2 (en) Image processing device, image processing method, and image processing program
KR101270893B1 (en) Image processing device, image processing method, program thereof, recording medium containing the program, and imaging device
JP4115117B2 (en) Information processing apparatus and method
KR101694689B1 (en) Method for generating video data and image photographing device thereof
JP6677098B2 (en) Spherical video shooting system and program
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP7182920B2 (en) Image processing device, image processing method and program
KR20140090022A (en) Method and Apparatus for displaying the video on 3D map
JP2013027021A (en) Omnidirectional imaging device and omnidirectional imaging method
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
WO2015156149A1 (en) Image processing apparatus and image processing method
JP6685814B2 (en) Imaging device and control method thereof
JP2018109946A (en) Display device, program, and method for display
US20200167948A1 (en) Control system, method of performing analysis and storage medium
JP2018010473A (en) Image processing apparatus, image processing method, and image processing program
JP7150460B2 (en) Image processing device and image processing method
CN112969963A (en) Information processing apparatus, control method thereof, program, and storage medium
WO2017057426A1 (en) Projection device, content determination device, projection method, and program
WO2020262391A1 (en) Display control device, display control method, and program
JP6859763B2 (en) Program, information processing device
JP4135934B2 (en) Electronics
JP6704700B2 (en) Image processing apparatus, control method thereof, and program

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200401

R151 Written notification of patent or utility model registration

Ref document number: 6685814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151