[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011022796A - Image processing method and image processor - Google Patents

Image processing method and image processor Download PDF

Info

Publication number
JP2011022796A
JP2011022796A JP2009167262A JP2009167262A JP2011022796A JP 2011022796 A JP2011022796 A JP 2011022796A JP 2009167262 A JP2009167262 A JP 2009167262A JP 2009167262 A JP2009167262 A JP 2009167262A JP 2011022796 A JP2011022796 A JP 2011022796A
Authority
JP
Japan
Prior art keywords
image
images
image processing
tag information
movement amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009167262A
Other languages
Japanese (ja)
Other versions
JP2011022796A5 (en
Inventor
Yuichi Nakada
有一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009167262A priority Critical patent/JP2011022796A/en
Publication of JP2011022796A publication Critical patent/JP2011022796A/en
Publication of JP2011022796A5 publication Critical patent/JP2011022796A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method and an image processor, allowing a user to easily decide content of an image when a generation image is displayed for the first time, in image processing of generating the image having an arbitrary focus distance, an aperture radius, and a viewpoint by use of a plurality of images captured from a plurality of viewpoints. <P>SOLUTION: The image processor extracts tag information including an acquisition condition of the image from a plurality of images of a photographic object captured from at least two different viewpoints, extracts an object from one of the plurality of images, calculates moving amount of the plurality of images based on the extracted tag information when the tag information is extracted, calculates moving amount of the plurality of images such that positions of the object overlap when the object is extracted, moves the plurality of images based on the calculated moving amount, and generates the output image from the plurality of images. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、視点位置の異なる複数の画像を用いて画像を生成する画像処理方法および画像処理装置に関するものである。   The present invention relates to an image processing method and an image processing apparatus that generate an image using a plurality of images having different viewpoint positions.

従来から、被写体を多くの視点から撮影した画像を基に、任意のフォーカス距離、被写界深度、視点の画像を生成する方法があった。例えば、非特許文献1では、複数のカメラを2次元平面上に格子状に配置することで、視点の異なる複数の画像を取得する。そして、これらの複数の画像に基づいて計算処理を行うことで、任意の距離にフォーカスの合った画像を生成する。また、特許文献1では、マイクロレンズを格子状に並べたマイクロレンズアレイをセンサ上に配置したプレノプティックカメラ(Plenoptic Camera)を用いて撮影を行っている。図14は、プレノプティックカメラの構造例を示す図である。プレノプティックカメラは、マイクロレンズによってカメラに入射する光を分割することにより、異なる視点の画像を一度の撮影で取得可能とする。そのため、プレノプティックカメラで撮影した画像に基づき計算処理を行うことで、任意の視点、開口径、フォーカス距離の画像を生成することができる。   Conventionally, there has been a method of generating an image with an arbitrary focus distance, depth of field, and viewpoint based on images obtained by photographing a subject from many viewpoints. For example, in Non-Patent Document 1, a plurality of images with different viewpoints are acquired by arranging a plurality of cameras in a grid on a two-dimensional plane. Then, a calculation process is performed based on the plurality of images, thereby generating an image focused on an arbitrary distance. Moreover, in patent document 1, it image | photographs using the plenoptic camera (Plenoptic Camera) which has arrange | positioned the micro lens array which arranged the micro lens in the grid | lattice form on the sensor. FIG. 14 is a diagram illustrating a structure example of a plenoptic camera. A plenoptic camera divides light incident on the camera by a microlens, thereby enabling images from different viewpoints to be acquired by one shooting. Therefore, an image with an arbitrary viewpoint, aperture diameter, and focus distance can be generated by performing calculation processing based on an image photographed by the plenoptic camera.

US 2007/0252074 A1US 2007/0252074 A1

Bennet Wilburn, Neel Joshi, Vaibhav Vaish, Eino-Ville (Eddy) Talvala, Emilio Antunez, Adam Barth, Andrew Adams, Marc Levoy, Mark Horwitz, "High Perfomance Imaging Using Large Camera Arrays", アメリカ, Proceedings of ACM SIGGRAPH 2005, 765-776頁.Bennet Wilburn, Neel Joshi, Vaibhav Vaish, Eino-Ville (Eddy) Talvala, Emilio Antunez, Adam Barth, Andrew Adams, Marc Levoy, Mark Horwitz, "High Perfomance Imaging Using Large Camera Arrays", USA, Proceedings of ACM SIGGRAPH 2005, 765-776.

しかしながら、上述の非特許文献1や特許文献1では、計算処理によって得られる画像を表示する際には、視点、フォーカス距離、開口径をパラメータとして与える必要がある。そのため、ユーザがこれらのパラメータを与えない場合に予め設定しておいたデフォルト値を用いる等の代替処理が必要となる。   However, in the above-described Non-Patent Document 1 and Patent Document 1, when displaying an image obtained by calculation processing, it is necessary to give a viewpoint, a focus distance, and an aperture diameter as parameters. Therefore, an alternative process such as using a default value set in advance when the user does not give these parameters is necessary.

例えば、カメラアレイで撮影した画像を基に、ユーザが特定のフォーカス距離に焦点のあった生成画像を表示する場合について述べる。図15の(a)には、カメラアレイと撮影対象との関係を示す.被写体A, B, CはそれぞれカメラアレイからD1, D2, D3の距離に配置されているものとする。また、リフォーカス処理を行うパラメータ(ここでは焦点距離)のデフォルト値をD0とする。   For example, a case where a user displays a generated image focused on a specific focus distance based on an image captured by a camera array will be described. FIG. 15 (a) shows the relationship between the camera array and the object to be imaged. Assume that the subjects A, B, and C are arranged at distances D1, D2, and D3 from the camera array, respectively. Further, a default value of a parameter (here, a focal length) for performing the refocus processing is set to D0.

まず、デフォルト値を用いて画像を表示した場合について述べる。図15の(b)は、カメラアレイで撮影した画像を基にデフォルト値を用いて生成した画像である。図15の(b)に示すように、デフォルト値を用いた場合では被写体がぼけてしまう。そのため、ユーザは最初に表示されたリフォーカス画像から、その内容を判断し難いという課題があった。   First, a case where an image is displayed using default values will be described. FIG. 15B shows an image generated using default values based on an image photographed by the camera array. As shown in FIG. 15B, the subject is blurred when the default value is used. For this reason, there is a problem that it is difficult for the user to determine the content from the refocus image displayed first.

続いて、ユーザがパラメータ(焦点距離)を与える場合について述べる。図15の(c)に、ユーザが焦点距離を与えた場合のカメラアレイで撮影された画像から得られる生成画像を示す。ここでは、各被写体に焦点の合った生成画像をそれぞれ示している。これらの生成画像を表示するためには、それぞれ被写体に応じた距離をパラメータとして与える必要がある。ここでは、被写体A, B, Cにリフォーカスした画像を得るためには、それぞれ距離値D1, D2, D3を与えなければならない.しかしながら、これらの距離値は自明ではない。そのため、画像を最初に表示する際にこれらの距離値を与えるのは困難である。また、これらD1, D2, D3以外の距離値を与えた場合には、デフォルト値を与えた場合と同様に被写体がぼけてしまうため、ユーザは最初に表示されたリフォーカス画像からその内容を判断し難い。   Next, a case where the user gives a parameter (focal length) will be described. FIG. 15C shows a generated image obtained from an image captured by the camera array when the user gives a focal length. Here, a generated image focused on each subject is shown. In order to display these generated images, it is necessary to give a distance corresponding to the subject as a parameter. Here, in order to obtain images refocused on the subjects A, B, and C, distance values D1, D2, and D3 must be given, respectively. However, these distance values are not self-evident. Therefore, it is difficult to give these distance values when the image is first displayed. If distance values other than D1, D2, and D3 are given, the subject will be blurred in the same manner as when the default value is given. Therefore, the user determines the contents from the refocus image displayed first. It is hard to do.

本発明は、複数の視点から撮影した複数の画像を用いて任意のフォーカス距離、開口径、視点の画像を生成する画像処理に関し、生成画像を初めて表示する際にユーザが画像の内容を容易に判断可能とする画像処理方法および画像処理装置を提供する。   The present invention relates to image processing for generating an image of an arbitrary focus distance, aperture diameter, and viewpoint using a plurality of images photographed from a plurality of viewpoints. When a generated image is displayed for the first time, the user can easily display the contents of the image Provided are an image processing method and an image processing apparatus that enable determination.

上記目的を達成するため、本発明の画像処理装置は、少なくとも2つの異なる視点から撮像した被写体の複数の画像を処理する画像処理装置であって、前記複数の画像のいずれかの画像からオブジェクトを抽出する抽出手段と、前記抽出されたオブジェクトの位置が重なるように前記複数の画像の移動量を算出する移動量算出手段と、前記算出された移動量に基づいて前記複数の画像を移動し、前記複数の画像から出力画像を生成する画像生成手段とを有することを特徴とする。   In order to achieve the above object, an image processing apparatus of the present invention is an image processing apparatus that processes a plurality of images of a subject captured from at least two different viewpoints, and an object is obtained from any one of the plurality of images. Extracting means for extracting; movement amount calculating means for calculating a movement amount of the plurality of images so that positions of the extracted objects overlap; and moving the plurality of images based on the calculated movement amount; And an image generation means for generating an output image from the plurality of images.

本発明によれば、複数の視点から撮影した複数の画像を用いて任意のフォーカス距離、開口径、視点の画像を生成する画像処理に関し、生成画像を初めて表示する際にユーザが画像の内容を容易に判断可能となった。   The present invention relates to image processing for generating an image of an arbitrary focus distance, aperture diameter, and viewpoint using a plurality of images photographed from a plurality of viewpoints. It became easy to judge.

本実施形態の画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus of this embodiment. 入力端子102より入力される撮像装置情報の例を示す図である。6 is a diagram illustrating an example of imaging device information input from an input terminal 102. FIG. 撮像装置106の一例を示す図である。1 is a diagram illustrating an example of an imaging device 106. FIG. カメラの水平画角及び垂直画角を示す図である。It is a figure which shows the horizontal view angle and vertical view angle of a camera. 入力端子101より入力される撮像データと撮像データに含まれる画像の一例を示す図である。5 is a diagram illustrating an example of imaging data input from an input terminal 101 and an image included in the imaging data. FIG. 画像生成パラメータと撮像装置との関係を示す図である。It is a figure which shows the relationship between an image generation parameter and an imaging device. 画像生成パラメータ抽出部103の処理手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of a processing procedure of an image generation parameter extraction unit 103. 図7の再構成パラメータ出力手順S805の一例を示すフローチャートである。It is a flowchart which shows an example of the reconstruction parameter output procedure S805 of FIG. 図8の顔領域抽出処理手順S1001及び顔領域の距離値算出手順S1003のの一例を示す図である。It is a figure which shows an example of the face area extraction process procedure S1001 of FIG. 8, and the distance value calculation procedure S1003 of a face area. カメラの間隔と被写体までの距離との関係を示す図である。It is a figure which shows the relationship between the space | interval of a camera, and the distance to a to-be-photographed object. 画像生成部104の処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing procedure of an image generation unit 104. 顔領域が一つだけ抽出された場合と顔領域が複数抽出された場合の、顔領域抽出結果と生成画像の一例を示す図である。It is a figure which shows an example of a face area extraction result and a generated image when only one face area is extracted and when a plurality of face areas are extracted. 表示部及びユーザインタフェース部の例を示す図である。It is a figure which shows the example of a display part and a user interface part. プレノプティックカメラの構造と撮影される画像を示した図である。It is the figure which showed the structure of a plenoptic camera, and the image image | photographed. カメラアレイと被写体との関係及びデフォルトパラメータで生成した画像、被写体の距離に応じて生成した画像を示す図である。It is a figure which shows the image produced | generated according to the relationship of a camera array and a to-be-photographed object, the image produced | generated with the default parameter, and the distance of a to-be-photographed object.

本実施形態では、複数のカメラを2次元平面上に格子状に配置したカメラアレイを用いて取得した複数の画像および各画像の視点情報から、任意のフォーカス距離、開口径、視点の画像を生成する画像処理装置について述べる。ここで、各カメラの水平方向、垂直方向、解像度、視野角は全て等しく、光軸は全て平行であるものとする。また、各カメラでは全ての画素で焦点の合った画像が得られるものとする。   In this embodiment, an arbitrary focus distance, aperture diameter, and viewpoint image are generated from a plurality of images obtained using a camera array in which a plurality of cameras are arranged in a grid on a two-dimensional plane and viewpoint information of each image. An image processing apparatus will be described. Here, it is assumed that the horizontal direction, the vertical direction, the resolution, and the viewing angle of each camera are all equal and the optical axes are all parallel. In addition, it is assumed that each camera can obtain an in-focus image at all pixels.

<本実施形態の画像処理装置の構成例> 図1において、100は画像処理装置である。101は、視点の異なる複数の画像を含む後述の撮像データを入力する入力端子である。102は、撮影に用いたカメラの視点情報を含む後述の撮像装置情報を入力する入力端子である。103は、前記入力端子101より入力される前記撮像データ及び前記入力端子102より入力される前記撮像装置情報とを基に、画像生成処理に必要となる後述の画像生成パラメータを抽出する画像生成パラメータ抽出部である。104は、前記入力端子101より入力される前記撮像データと、前記入力端子102より入力される前記撮像装置情報と、前記画像生成パラメータ抽出部103より入力される前記画像生成パラメータとを基に、画像生成処理を行う画像生成部である。105は、前記画像生成部104で生成された生成画像を出力する出力端子である。106は、撮影に用いる撮像装置であり撮像データを出力する。107は、前記撮像データ及び撮像装置情報が記録されているメモリ部である。108は、前記画像生成部105から出力された前記生成画像を表示する表示部である。109は、ユーザが画像生成パラメータを調整するための操作指示を行うユーザインタフェース部である。なお、表示部108とユーザインタフェース部109とは、共通のタッチパネル式の表示部であってもよい。   <Configuration Example of Image Processing Apparatus According to this Embodiment> In FIG. 1, reference numeral 100 denotes an image processing apparatus. Reference numeral 101 denotes an input terminal for inputting later-described imaging data including a plurality of images with different viewpoints. Reference numeral 102 denotes an input terminal for inputting later-described imaging device information including viewpoint information of the camera used for shooting. 103 is an image generation parameter for extracting an image generation parameter, which will be described later, necessary for image generation processing based on the imaging data input from the input terminal 101 and the imaging device information input from the input terminal 102 It is an extraction unit. 104, based on the imaging data input from the input terminal 101, the imaging device information input from the input terminal 102, and the image generation parameters input from the image generation parameter extraction unit 103, It is an image generation part which performs an image generation process. Reference numeral 105 denotes an output terminal that outputs a generated image generated by the image generation unit 104. Reference numeral 106 denotes an imaging device used for shooting, which outputs imaging data. Reference numeral 107 denotes a memory unit in which the imaging data and imaging device information are recorded. Reference numeral 108 denotes a display unit that displays the generated image output from the image generation unit 105. Reference numeral 109 denotes a user interface unit that gives an operation instruction for the user to adjust image generation parameters. Note that the display unit 108 and the user interface unit 109 may be a common touch panel display unit.

本実施形態の画像処理装置100において、画像生成パラメータ抽出部103はメモリ部106より入力する撮像データ及び撮像装置情報を基に画像生成パラメータを抽出して出力する。ここで、画像生成パラメータは、フォーカス距離、開口径、視点位置を含む。また、画像生成部104では、撮像データ、撮像装置情報、画像生成パラメータを基に画像を生成して表示部108へ出力する。表示部108で表示された画像を基に、ユーザはユーザインターフェース部109から画像生成部104に画像生成パラメータを出力して、画像生成部104で使用される画像生成パラメータを調節することができる。   In the image processing apparatus 100 of the present embodiment, the image generation parameter extraction unit 103 extracts and generates image generation parameters based on the imaging data and imaging apparatus information input from the memory unit 106. Here, the image generation parameters include a focus distance, an aperture diameter, and a viewpoint position. Further, the image generation unit 104 generates an image based on the imaging data, imaging device information, and image generation parameters, and outputs the generated image to the display unit 108. Based on the image displayed on the display unit 108, the user can output image generation parameters from the user interface unit 109 to the image generation unit 104 to adjust the image generation parameters used in the image generation unit 104.

なお、図1では、画像生成パラメータ抽出部103と画像生成部104とを画像処理装置100としたが、画像処理装置が図1の他の構成要素の全部あるいは一部を含んでもよい。また、構成要素の内、特に画像生成パラメータ抽出部103と画像生成部104はソフトウェアで動作するコンピュータで実現されてよく、画像処理装置100が汎用のパーソナルコンピュータ(PC)で実現されてよい。その場合は、記憶媒体に格納されたプログラムをRAMにロードしてCPUで実行するころで、各機能が達成されることになる。   In FIG. 1, the image generation parameter extraction unit 103 and the image generation unit 104 are the image processing device 100, but the image processing device may include all or part of the other components in FIG. In addition, among the constituent elements, the image generation parameter extraction unit 103 and the image generation unit 104 may be realized by a computer operating with software, and the image processing apparatus 100 may be realized by a general-purpose personal computer (PC). In that case, each function is achieved when the program stored in the storage medium is loaded into the RAM and executed by the CPU.

(撮像装置情報の構成例) 図2は、図1の入力端子102より入力される撮像装置情報の一例である。200は、本実施形態の撮像装置情報である。撮像装置情報200は、水平視野角と垂直視野角が含まれるカメラの視野角情報201と、各カメラの位置情報202を含む。   (Configuration Example of Imaging Device Information) FIG. 2 is an example of imaging device information input from the input terminal 102 of FIG. Reference numeral 200 denotes imaging apparatus information of the present embodiment. The imaging device information 200 includes camera viewing angle information 201 including a horizontal viewing angle and a vertical viewing angle, and position information 202 of each camera.

(撮像装置の構成例とカメラの位置情報) 図3に、本実施形態で使用した撮像装置の構成例を示す。本実施形態では、5x5の格子状に配置した25台のカメラで撮影を行う。300はカメラの水平方向を示すu軸であり、301はカメラの垂直方向を示すv軸である。各カメラの水平方向及び垂直方向は、全てuv軸に平行である。また、各カメラの位置はuv座標系で表される。なお、図3の例ではuv座標の原点を中央のカメラ位置としているが、任意の位置としてもよい。図3に示す25台のカメラをカメラ1〜カメラ25とし、カメラjに対応するuv座標上の位置を(uj, vj)とする。図2のカメラ位置情報202には、各カメラの位置(u1, v1)、・・・、(u25, v25)が記憶される。   (Configuration Example of Imaging Device and Camera Position Information) FIG. 3 shows a configuration example of the imaging device used in this embodiment. In this embodiment, shooting is performed with 25 cameras arranged in a 5 × 5 grid. 300 is a u-axis indicating the horizontal direction of the camera, and 301 is a v-axis indicating the vertical direction of the camera. The horizontal direction and vertical direction of each camera are all parallel to the uv axis. In addition, the position of each camera is expressed in the uv coordinate system. In the example of FIG. 3, the origin of the uv coordinates is the central camera position, but it may be an arbitrary position. The 25 cameras shown in FIG. 3 are camera 1 to camera 25, and the positions on the uv coordinates corresponding to camera j are (uj, vj). The camera position information 202 in FIG. 2 stores the positions (u1, v1),..., (U25, v25) of each camera.

(カメラの水平視野角と垂直視野角) 図4の(a)に、カメラと水平視野角との関係を示す。破線の範囲が水平方向の撮影範囲であり、この間の角度を水平視野角θとする。図4の(B)に、カメラと垂直視野角との関係を示す。破線の範囲が垂直方向の撮影範囲であり、この間の角度を垂直視野角φとする。なお、本実施形態では、全カメラで水平視野角θと垂直視野角φは等しい。従って、図2の視野角情報201には水平視野角θの値と垂直視野角φの値が記録される。   (Horizontal Viewing Angle and Vertical Viewing Angle of Camera) FIG. 4A shows the relationship between the camera and the horizontal viewing angle. A broken line range is a horizontal photographing range, and an angle therebetween is defined as a horizontal viewing angle θ. FIG. 4B shows the relationship between the camera and the vertical viewing angle. The range indicated by the broken line is the shooting range in the vertical direction, and the angle therebetween is defined as the vertical viewing angle φ. In this embodiment, the horizontal viewing angle θ and the vertical viewing angle φ are the same for all cameras. Accordingly, the value of the horizontal viewing angle θ and the value of the vertical viewing angle φ are recorded in the viewing angle information 201 in FIG.

(撮像データの構成例) 図5の(a)は、図1の入力端子101より入力される撮像データの一例である。図5の(a)において、本実施形態の撮像データ600は、撮像データの取得条件を含むタグ情報である画像生成パラメータとカメラアレイで撮影された複数の画像が含まれる画像部604とを有する。ここで、画像生成パラメータとしては、フォーカス距離が記録されているフォーカス距離情報タグ601と、開口径情報が記録されている開口径情報タグ602と、視点位置が記録されている視点位置情報タグ603を含む。これら画像生成パラメータの詳細は後述する。本実施形態では、画像部604に25台のカメラで撮影された25個の画像が含まれている。なお、タグ情報は、撮像装置106で撮像時にメタデータとして撮像データに付加されてもよい。   (Configuration Example of Imaging Data) FIG. 5A is an example of imaging data input from the input terminal 101 in FIG. In FIG. 5A, the imaging data 600 of the present embodiment includes an image generation parameter that is tag information including imaging data acquisition conditions, and an image unit 604 that includes a plurality of images captured by the camera array. . Here, as the image generation parameters, a focus distance information tag 601 in which the focus distance is recorded, an aperture diameter information tag 602 in which the aperture diameter information is recorded, and a viewpoint position information tag 603 in which the viewpoint position is recorded. including. Details of these image generation parameters will be described later. In the present embodiment, the image unit 604 includes 25 images captured by 25 cameras. The tag information may be added to the imaging data as metadata at the time of imaging by the imaging device 106.

図5の(b)は、画像部604に含まれる画像の例を示す。図5の(b)では、異なる3台のカメラA、B、Cで撮影した3枚の画像A、画像B、画像Cを示している。本実施形態では、このように異なるカメラで撮影した視点の異なる25枚の画像が含まれる。フォーカス距離情報タグ601、開口径情報タグ602、視点位置情報タグ603は、撮像装置106で撮影を行った際に撮像データ600に付与される。この際、各タグ601〜603は撮影時のカメラの情報を基に与える。例えば、カメラに用いているレンズの焦点距離や絞り値を基に与えても良い。あるいは、撮影時に被写体の情報を基に与える。例えば、撮影された被写体と撮像装置との距離情報を基に与えてもよい。さらに撮影時に固定値として与えても良い。   FIG. 5B shows an example of an image included in the image unit 604. FIG. 5B shows three images A, B, and C taken by three different cameras A, B, and C. FIG. In the present embodiment, 25 images with different viewpoints captured by different cameras are included. The focus distance information tag 601, the aperture diameter information tag 602, and the viewpoint position information tag 603 are added to the imaging data 600 when shooting is performed with the imaging device 106. At this time, the tags 601 to 603 are given based on the camera information at the time of shooting. For example, you may give based on the focal distance and aperture value of the lens which are used for the camera. Alternatively, it is given based on information on the subject at the time of shooting. For example, you may give based on the distance information of the image | photographed subject and an imaging device. Further, it may be given as a fixed value at the time of photographing.

なお、撮像データ600には画像部604が含まれていれば良く、フォーカス距離情報タグ601、開口径情報タグ602、視点位置情報タグ603は、必ずしも撮像データ600に含まれる必要は無い。   Note that the imaging data 600 only needs to include the image portion 604, and the focus distance information tag 601, the aperture diameter information tag 602, and the viewpoint position information tag 603 are not necessarily included in the imaging data 600.

(画像生成パラメータの例) 画像生成パラメータ抽出部103で出力され画像生成部104に入力される本実施形態の画像生成パラメータは、フォーカス距離f、開口径r、視点位置(u0, v0)を含む。ここで、フォーカス距離fは、画像生成処理を行う際にピントのあう距離を示す。例えば、f=1000mmとした場合、カメラアレイから1000mmの距離にある被写体にピントがあう画像が生成される。視点位置(u0, v0)は、カメラアレイが配置されているuv平面上の座標を表す。開口径rは、画像生成処理を行う際の開口径を示す。   (Example of Image Generation Parameter) The image generation parameters of the present embodiment output from the image generation parameter extraction unit 103 and input to the image generation unit 104 include a focus distance f, an aperture diameter r, and a viewpoint position (u0, v0). . Here, the focus distance f indicates a distance that is in focus when performing image generation processing. For example, when f = 1000 mm, an image in which a subject at a distance of 1000 mm from the camera array is in focus is generated. The viewpoint position (u0, v0) represents coordinates on the uv plane where the camera array is arranged. The opening diameter r indicates the opening diameter when performing image generation processing.

図6に、開口径、視点位置、カメラアレイの関係を示す。画像生成処理では、視点位置(u0, v0)から半径r/2以内に配置されたカメラ群を1つのレンズと見立てて処理を行う。図6では、破線で囲まれた範囲が画像生成処理で用いられるカメラ群となる。ここで、開口径rは、画像生成処理を行う際にピントのずれた被写体のぼけの大きさを決める。開口径rの値が大きいほどぼけが大きくなり、開口径rの値が小さいほどぼけが小さくなる。視点位置(u0, v0)は、画像生成処理で得られる画像の視点位置を表す。   FIG. 6 shows the relationship between the aperture diameter, the viewpoint position, and the camera array. In the image generation processing, processing is performed by regarding a camera group arranged within a radius r / 2 from the viewpoint position (u0, v0) as one lens. In FIG. 6, a range surrounded by a broken line is a camera group used in the image generation process. Here, the aperture diameter r determines the size of the blur of the subject that is out of focus when performing the image generation process. The blur increases as the value of the opening diameter r increases, and the blur decreases as the value of the opening diameter r decreases. The viewpoint position (u0, v0) represents the viewpoint position of the image obtained by the image generation process.

<画像生成パラメータ抽出部103の動作例> 本実施形態の画像生成パラメータ抽出部103では、撮像データと撮像装置情報とを基に画像生成パラメータを抽出する。なお、画像生成パラメータ抽出部103はハードウェア回路で構成されてもよいが、本実施形態ではメモリに記憶されたプログラムに従ってCPUが動作することによって画像生成パラメータが抽出される。   <Operation Example of Image Generation Parameter Extraction Unit 103> The image generation parameter extraction unit 103 of the present embodiment extracts image generation parameters based on imaging data and imaging device information. Note that the image generation parameter extraction unit 103 may be configured by a hardware circuit, but in the present embodiment, the image generation parameter is extracted by the CPU operating in accordance with a program stored in the memory.

図7は、画像生成パラメータ抽出部103の動作の一例を示すフローチャートである。まず、図1の入力端子101より撮像データ600が画像生成パラメータ抽出部103に入力される(S801)。次に、図1の入力端子102より撮像装置情報200が画像生成パラメータ抽出部103に入力される(S902)。次に、画像生成パラメータ抽出部103で撮像データ600内のタグ情報601〜603の有無を判定する(S903)。すなわち、タグ情報抽出を行う。画像生成パラメータ抽出部103がタグ情報601〜603があると判定した場合、画像生成パラメータ抽出部103はタグ情報601〜603を基に画像生成パラメータを画像生成部104へ出力する(S904)。そして、処理は終了となる。画像生成パラメータ抽出部103がタグ情報601〜603がないと判定した場合、画像生成パラメータ抽出部103は撮像データ600内の画像部604から抽出されるオブジェクトを基に画像生成パラメータを出力する(S905)。そして、処理は終了となる。ステップS905のオブジェクト抽出処理の詳細については、次に示す。   FIG. 7 is a flowchart showing an example of the operation of the image generation parameter extraction unit 103. First, the imaging data 600 is input from the input terminal 101 of FIG. 1 to the image generation parameter extraction unit 103 (S801). Next, the imaging device information 200 is input to the image generation parameter extraction unit 103 from the input terminal 102 of FIG. 1 (S902). Next, the image generation parameter extraction unit 103 determines the presence / absence of tag information 601 to 603 in the imaging data 600 (S903). That is, tag information extraction is performed. When the image generation parameter extraction unit 103 determines that the tag information 601 to 603 is present, the image generation parameter extraction unit 103 outputs the image generation parameters to the image generation unit 104 based on the tag information 601 to 603 (S904). Then, the process ends. When the image generation parameter extraction unit 103 determines that there is no tag information 601 to 603, the image generation parameter extraction unit 103 outputs image generation parameters based on the object extracted from the image unit 604 in the imaging data 600 (S905). ). Then, the process ends. Details of the object extraction processing in step S905 will be described below.

(オブジェクト抽出処理例S905) 図7のステップS905における、オブジェクト情報に基づいて画像生成パラメータを出力する方法について説明する。本実施形態では画像内の注目するオブジェクトとして顔領域を基に画像生成パラメータを出力する。   (Object Extraction Processing Example S905) A method for outputting image generation parameters based on object information in step S905 of FIG. 7 will be described. In this embodiment, an image generation parameter is output based on a face area as an object of interest in an image.

図8にオブジェクト抽出処理のフローチャートを示す。まず、画像部604に含まれる複数の画像より、適当な画像を選択して顔検出を行う(S1001)。次に、検出された顔領域の数を判定する(S1002)。顔領域の数が1つの場合は、抽出された顔領域の距離値を複数の画像を基に算出する(S1003)。そして、顔領域の距離値に基づき、顔領域にピントが合う画像を生成するようなパラメータを出力する(S1004)。そして、処理を終了してリターンする。顔領域が複数ある場合あるいは顔領域が無い場合は、パンフォーカス画像を画像生成する画像生成パラメータを出力する(S1005)。そして、処理を終了してリターンする。   FIG. 8 shows a flowchart of the object extraction process. First, an appropriate image is selected from a plurality of images included in the image unit 604 and face detection is performed (S1001). Next, the number of detected face areas is determined (S1002). If the number of face areas is one, the distance value of the extracted face areas is calculated based on a plurality of images (S1003). Then, based on the distance value of the face area, a parameter that generates an image that focuses on the face area is output (S1004). Then, the process ends and returns. If there are a plurality of face areas or no face area, an image generation parameter for generating a pan focus image is output (S1005). Then, the process ends and returns.

なお、ステップS1001の処理で選択される画像は、どのカメラで撮影された画像でも構わない。ここでは、カメラjで撮影された画像jを用いることとする。顔検出方法については既存のアルゴリズムを用いればよい。例として、テンプレートマッチングを用いたアルゴリズムや、Hair-Like特長を用いたアルゴリズムなどがある。本実施形態ではテンプレートマッチングによって顔領域を検出する。以下に、図8の顔領域抽出例S1001と顔領域の距離値算出例S1003の詳細手順を示す。   Note that the image selected in step S1001 may be an image taken by any camera. Here, an image j photographed by the camera j is used. An existing algorithm may be used for the face detection method. Examples include algorithms that use template matching and algorithms that use the Hair-Like feature. In this embodiment, a face area is detected by template matching. The detailed procedure of the face area extraction example S1001 and the face area distance value calculation example S1003 in FIG. 8 will be described below.

(顔領域抽出例S1001) 図9の(a)に、顔領域抽出処理のフローチャートを示す。まず始めに、入力画像に対して閾値処理を施して肌色の領域を抽出する(S1101)。抽出された領域を顔候補領域とする。次に、様々な大きさの顔画像テンプレートを用いて顔候補領域に対してマッチングを行う(S1102)。最後に、マッチングにより算出される尤度を基に顔領域か否かを判定することで、顔領域を抽出する(S1103)。   (Face Area Extraction Example S1001) FIG. 9A shows a flowchart of face area extraction processing. First, a skin color region is extracted by performing threshold processing on the input image (S1101). The extracted area is set as a face candidate area. Next, matching is performed on the face candidate areas using face image templates of various sizes (S1102). Finally, the face area is extracted by determining whether or not the face area is based on the likelihood calculated by the matching (S1103).

図12に抽出された顔領域の例を示す。顔が1つだけ含まれる場合は、図12の(a)の左図のように顔領域が1つ抽出される。顔が複数含まれる場合は、図12の(b)の左図のように、その数だけ顔領域が抽出される。   FIG. 12 shows an example of the extracted face area. When only one face is included, one face area is extracted as shown in the left figure of FIG. When a plurality of faces are included, the same number of face regions are extracted as shown in the left diagram of FIG.

(顔領域の距離値算出例S1003) 顔領域が1つだけ抽出された場合は、ステップS1003で、ステップS1001で抽出された顔領域と複数の画像とを用いて顔領域の距離値を算出する。距離値を算出するアルゴリズムとしては、ステレオマッチング法やマルチベースラインステレオ法などが適用可能である。本実施形態では、隣り合うステレオマッチング法により顔領域の距離値を算出する。   (Face Area Distance Value Calculation Example S1003) When only one face area is extracted, in step S1003, the face area distance value is calculated using the face area extracted in step S1001 and a plurality of images. . As an algorithm for calculating the distance value, a stereo matching method, a multi-baseline stereo method, or the like can be applied. In the present embodiment, the distance value of the face area is calculated by the adjacent stereo matching method.

顔領域の距離値を算出する処理の流れを、図9の(b)のフローチャートに示す。まず、抽出した顔領域をテンプレートとして2つの画像に対してマッチングを行い、2つの画像における顔領域の位置を算出する(S1301)。そして、2つの画像における顔領域の位置、対応する2つのカメラの位置、カメラの画角を用いて三角測量を行い、顔領域の距離値を算出する(S1302)。   The flow of processing for calculating the distance value of the face area is shown in the flowchart of FIG. First, matching is performed on two images using the extracted face area as a template, and the position of the face area in the two images is calculated (S1301). Then, triangulation is performed using the position of the face area in the two images, the position of the corresponding two cameras, and the angle of view of the camera, and the distance value of the face area is calculated (S1302).

図10に、2つのカメラ画像を用いて距離値を算出する場合の一例を示す。本実施形態では、隣り合う2つのカメラを用いて被写体までの距離値dを算出する。距離値dは、図10のα、βを基に以下の式で表される。   FIG. 10 shows an example in the case of calculating the distance value using two camera images. In the present embodiment, the distance value d to the subject is calculated using two adjacent cameras. The distance value d is expressed by the following formula based on α and β in FIG.

Figure 2011022796
Figure 2011022796

ここで、αはカメラAの位置、画角、カメラAで撮影された画像中の顔領域の位置から算出される。βはカメラBの位置、画角、カメラBで撮影された画像中の顔領域の位置から算出される。 Here, α is calculated from the position of the camera A, the angle of view, and the position of the face area in the image taken by the camera A. β is calculated from the position of the camera B, the angle of view, and the position of the face area in the image taken by the camera B.

(再構成パラメータ生成例S1004) なお、図8のステップS1004では、上記の式で算出された顔領域の距離値dをフォーカス距離とすることで、顔領域にフォーカスした画像を生成するためのパラメータを出力する。この際、視点位置及び、開口半径は任意の値で良い。一方、ステップS905における、パンフォーカス画像を画像生成するような画像生成パラメータとしては、視点位置をカメラjの位置(uj, vj)、開口半径を0とする。この際フォーカス値は任意の値でよい。   (Reconstruction Parameter Generation Example S1004) In step S1004 in FIG. 8, a parameter for generating an image focused on the face area by using the distance value d of the face area calculated by the above formula as a focus distance. Is output. At this time, the viewpoint position and the opening radius may be arbitrary values. On the other hand, as image generation parameters for generating a pan-focus image in step S905, the viewpoint position is set to the position (uj, vj) of the camera j, and the opening radius is set to 0. At this time, the focus value may be an arbitrary value.

上述の顔領域の距離値算出と再構成パラメータ生成が、オブジェクトが重なるような複数の画像の移動量算出に対応する。   The above-described face area distance value calculation and reconstruction parameter generation correspond to the movement amount calculation of a plurality of images such that the objects overlap.

<画像生成処理部104の動作例> 画像生成処理部104では、画像生成パラメータ抽出部103から入力される画像生成パラメータを基に、出力画像を画像生成する。なお、画像生成処理部104はハードウェア回路で構成されてもよいが、本実施形態ではメモリに記憶されたプログラムに従ってCPUが動作することによって画像生成パラメータが抽出される。   <Operation Example of Image Generation Processing Unit 104> The image generation processing unit 104 generates an output image based on the image generation parameters input from the image generation parameter extraction unit 103. Note that the image generation processing unit 104 may be configured by a hardware circuit, but in this embodiment, the image generation parameters are extracted by the CPU operating in accordance with a program stored in the memory.

図11は、画像生成処理部104の動作の一例を示すフローチャートである。まず、図1の入力端子101より画像生成処理部104に撮像データ600が入力される(S1501)。次に、図1の入力端子102より画像生成処理部104に撮像装置情報200が入力される(S1502)。次に、画像生成パラメータ抽出部103から画像生成パラメータが入力される(S1503)。ここで、画像生成パラメータ抽出部103から入力される画像生成パラメータは、フォーカス距離f、開口径r、視点位置(u0, v0)とする。次に、画像生成処理部104は、開口径及び視点位置を基に絞り関数を算出する(S1504)。次に、画像生成処理部104は、フォーカス距離及び撮像装置情報を基に各画像のシフト量を算出する(S1505)。続いて、画像生成処理部104は、絞り関数とシフト量を基に画像を足し合わせて、出力画像を生成する(S1506)。最後に、画像生成処理部104は、画像生成された出力画像を図1の出力端子105へ出力する(S1505)。   FIG. 11 is a flowchart illustrating an example of the operation of the image generation processing unit 104. First, imaging data 600 is input to the image generation processing unit 104 from the input terminal 101 of FIG. 1 (S1501). Next, the imaging device information 200 is input to the image generation processing unit 104 from the input terminal 102 in FIG. 1 (S1502). Next, image generation parameters are input from the image generation parameter extraction unit 103 (S1503). Here, the image generation parameters input from the image generation parameter extraction unit 103 are a focus distance f, an aperture diameter r, and a viewpoint position (u0, v0). Next, the image generation processing unit 104 calculates a diaphragm function based on the aperture diameter and the viewpoint position (S1504). Next, the image generation processing unit 104 calculates the shift amount of each image based on the focus distance and the imaging device information (S1505). Subsequently, the image generation processing unit 104 adds the images based on the aperture function and the shift amount, and generates an output image (S1506). Finally, the image generation processing unit 104 outputs the generated output image to the output terminal 105 in FIG. 1 (S1505).

以下、各処理を更に詳細に説明する。まず、ステップS1504の絞り関数の設定においては、開口径rと視点位置(u0, v0)を基に、絞り関数A(u, v)を以下のように定義する。   Hereinafter, each process will be described in more detail. First, in setting the aperture function in step S1504, the aperture function A (u, v) is defined as follows based on the aperture diameter r and the viewpoint position (u0, v0).

Figure 2011022796
Figure 2011022796

ここで、カメラiの位置を(ui, vi)としたときにA(ui, vi)=1であれば、画像生成処理にカメラiの画像を用いる。A(ui, vi)=0であれば、画像生成処理にカメラiの画像を用いないことを意味する。つまり、視点位置から半径r以内の位置にあるカメラで撮影した画像のみを用いて画像生成処理を行う。ここで、開口径rが大きい場合はぼけの大きな画像が画像生成され、開口径rが小さい場合はぼけの小さな画像が画像生成される。また、r=0の場合はパンフォーカス画像が画像生成される。 Here, if A (ui, vi) = 1 when the position of the camera i is (ui, vi), the image of the camera i is used for the image generation process. If A (ui, vi) = 0, it means that the image of the camera i is not used for the image generation process. That is, image generation processing is performed using only an image taken by a camera located within a radius r from the viewpoint position. Here, when the aperture diameter r is large, an image with a large blur is generated, and when the aperture diameter r is small, an image with a small blur is generated. When r = 0, a pan focus image is generated.

また、ステップS1505のシフト量の算出では、フォーカス距離fに応じた各画像のシフト量を算出する。ここで算出したシフト量を基に各画像をシフトさせて足し合わせることで画像生成処理を行う。画像jの水平方向のシフト量Δx(j,f)、垂直方向のシフト量Δy(j,f)は、以下の式で表される。   In the calculation of the shift amount in step S1505, the shift amount of each image corresponding to the focus distance f is calculated. Based on the shift amount calculated here, each image is shifted and added to perform image generation processing. The horizontal shift amount Δx (j, f) and the vertical shift amount Δy (j, f) of the image j are expressed by the following equations.

Figure 2011022796
Figure 2011022796

ここで。W、Hはそれぞれ画像の横方向の解像度、縦方向の解像度、θはカメラの水平視野角、φはカメラの垂直視野角、(ui, vi)はカメラの位置である。このシフト量は、視点位置から遠いカメラほど大きな値となる。また、視点位置とカメラ位置が等しい場合、シフト量は0となる。 here. W and H are the horizontal resolution and vertical resolution of the image, respectively, θ is the horizontal viewing angle of the camera, φ is the vertical viewing angle of the camera, and (ui, vi) is the position of the camera. This shift amount becomes larger as the camera is farther from the viewpoint position. Further, when the viewpoint position and the camera position are equal, the shift amount is zero.

また、ステップS1506の再構成画像の生成では、ステップS1504で算出した絞り関数と、ステップS1505で算出した画像毎のシフト量を用いて各画像を足し合わせることで、画像生成処理を行う。カメラjで撮影された画像をIj、画像生成画像をHとしたとき、画像生成処理は以下の式で表される。   Further, in the generation of the reconstructed image in step S1506, image generation processing is performed by adding each image using the aperture function calculated in step S1504 and the shift amount for each image calculated in step S1505. When the image taken by the camera j is Ij and the image generation image is H, the image generation processing is expressed by the following equation.

Figure 2011022796
Figure 2011022796

ただし、Nはカメラの数である。 N is the number of cameras.

(出力画像の生成例) 図12の(a)は、画像に顔オブジェクトが1つだけ含まれている場合の、顔領域検出結果と画像生成される画像の例を示す。図12の(a)のように、顔領域が1つだけ検出された場合は、その顔にピントのあった画像が画像生成される。図12の(b)は、画像に顔オブジェクトが複数含まれている場合の、顔領域検出結果と画像生成される画像の例を示す。顔領域が2つ検出された場合は、パンフォーカス画像が画像生成される
<表示部108およびインターフェース部109の例> 図13に、表示部108及びユーザインターフェース部109の一例を示す。図13の(a)の1800は表示部108の表示画面である。1801はユーザインターフェース部109に含まれるフォーカス距離調整つまみである。図13の(a)では、顔領域が2つ検出された場合の生成画像であるパンフォーカス画像を表示部108の表示画面1800に表示している。
(Example of Output Image Generation) FIG. 12A shows an example of a face area detection result and an image generated when only one face object is included in the image. As shown in FIG. 12A, when only one face area is detected, an image in which the face is in focus is generated. FIG. 12B shows an example of a face area detection result and an image to be generated when a plurality of face objects are included in the image. When two face areas are detected, a pan focus image is generated. <Example of Display Unit 108 and Interface Unit 109> FIG. 13 shows an example of the display unit 108 and the user interface unit 109. Reference numeral 1800 in FIG. 13A denotes a display screen of the display unit 108. Reference numeral 1801 denotes a focus distance adjustment knob included in the user interface unit 109. In FIG. 13A, a pan focus image, which is a generated image when two face areas are detected, is displayed on the display screen 1800 of the display unit 108.

なお、本実施形態において、ユーザインタフェースはソフトウェアとして実装され、パソコン等の制御装置に接続されたディスプレイや液晶パネル等に表示されるものとする。ユーザはフォーカス距離調整つまみ1801を左右に移動させることにより、画像生成パラメータに含まれるフォーカス距離を調整することが可能である。フォーカス距離調整つまみ1801を左に移動させることでフォーカス距離を小さくすることができ、フォーカス距離調整つまみ1801を右に移動させることでフォーカス距離は大きくすることができる。   In the present embodiment, the user interface is implemented as software and is displayed on a display or a liquid crystal panel connected to a control device such as a personal computer. The user can adjust the focus distance included in the image generation parameter by moving the focus distance adjustment knob 1801 left and right. The focus distance can be reduced by moving the focus distance adjustment knob 1801 to the left, and the focus distance can be increased by moving the focus distance adjustment knob 1801 to the right.

フォーカス距離調整つまみ1801を移動させた場合、フォーカス距離調整つまみ1801の位置に対応したフォーカス距離が画像生成部104に出力されて、画像生成部104で新たに画像が生成される。生成された画像は、表示部108の表示画面1800に表示される。図13の(b)に、フォーカス距離調節つまみを移動させた場合の例を示す。表示部108には図13の(a)で表示していたパンフォーカス画像ではなく、特定の位置にフォーカスの合った画像が表示される
なお、本実施形態では、撮像データ600内のタグ情報601〜603の有無を判定した。そして、有る場合は撮像データ600内のタグ情報601〜603を用いて、又、無い場合は撮像データ600内の画像から抽出されるオブジェクトのいずれかの情報を用いて、画像生成パラメータを抽出する方法を説明した。しかしながら、処理はこの形だけに限定されない。例えば、最初にオブジェクト抽出処理を行い、その結果を基にタグ情報を使用するか否か判定を行っても良い。また、これら両方を用いる場合においても適用可能である。例えば、フォーカス距離情報のみオブジェクトを基に決定し、絞り情報や視点情報はタグを用いて決定することも可能である。
When the focus distance adjustment knob 1801 is moved, the focus distance corresponding to the position of the focus distance adjustment knob 1801 is output to the image generation unit 104, and a new image is generated by the image generation unit 104. The generated image is displayed on the display screen 1800 of the display unit 108. FIG. 13B shows an example when the focus distance adjustment knob is moved. The display unit 108 displays not the pan-focus image displayed in FIG. 13A but the focused image at a specific position. In the present embodiment, tag information 601 in the imaging data 600 is displayed. The presence or absence of ~ 603 was determined. If there is, the image generation parameter is extracted using the tag information 601 to 603 in the imaging data 600, and if not, the information on any object extracted from the image in the imaging data 600 is used. Explained the method. However, processing is not limited to this form. For example, an object extraction process may be performed first, and it may be determined whether to use tag information based on the result. Further, the present invention can also be applied when both of these are used. For example, only focus distance information can be determined based on an object, and aperture information and viewpoint information can be determined using a tag.

また、本実施形態ではオブジェクトの奥行情報を基に画像のシフト量を算出して画像を生成していたが、シフト量の算出方法は奥行情報を基に算出する方法に限定するものではない。例えば、入力され全ての画像においてオブジェクトを抽出し、各オブジェクトが重なるようにシフト量を算出する方法も可能である。   In this embodiment, the image is generated by calculating the shift amount of the image based on the depth information of the object, but the shift amount calculation method is not limited to the method of calculating based on the depth information. For example, a method of extracting objects from all input images and calculating the shift amount so that the objects overlap each other is also possible.

<本実施形態の効果> 以上説明したように、本実施形態によれば、特定のオブジェクトに焦点の合う画像あるいはパンフォーカス画像を好適に選択して画像生成することを可能とする。   <Effects of the Present Embodiment> As described above, according to the present embodiment, it is possible to generate an image by suitably selecting an image or a pan-focus image that is focused on a specific object.

<その他の実施例> また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   Other Embodiments The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (14)

少なくとも2つの異なる視点から撮像した被写体の複数の画像を処理する画像処理装置であって、
前記複数の画像のいずれかの画像からオブジェクトを抽出する抽出手段と、
前記抽出されたオブジェクトの位置が重なるように前記複数の画像の移動量を算出する移動量算出手段と、
前記算出された移動量に基づいて前記複数の画像を移動し、前記複数の画像から出力画像を生成する画像生成手段とを有することを特徴とする画像処理装置。
An image processing apparatus that processes a plurality of images of a subject imaged from at least two different viewpoints,
Extraction means for extracting an object from any one of the plurality of images;
A movement amount calculating means for calculating a movement amount of the plurality of images so that the positions of the extracted objects overlap;
An image processing apparatus comprising: an image generation unit configured to move the plurality of images based on the calculated movement amount and generate an output image from the plurality of images.
前記画像生成手段は、前記抽出手段が複数のオブジェクトを抽出した場合に、パンフォーカス画像を生成することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image generation unit generates a pan focus image when the extraction unit extracts a plurality of objects. 前記抽出手段が抽出するオブジェクトは、注目する被写体の領域であることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the object extracted by the extraction unit is a region of a subject of interest. 前記注目する被写体の領域は顔領域であることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the region of the subject of interest is a face region. 少なくとも2つの異なる視点から撮像した被写体の複数の画像を処理する画像処理装置であって、
前記複数の画像から画像の取得条件を含むタグ情報を抽出する抽出手段と、
前記抽出されたタグ情報を基に前記複数の画像の移動量を算出する移動量算出手段と、
前記算出された移動量に基づいて前記複数の画像を移動し、前記複数の画像から出力画像を生成する画像生成手段とを有することを特徴とする画像処理装置。
An image processing apparatus that processes a plurality of images of a subject imaged from at least two different viewpoints,
Extraction means for extracting tag information including image acquisition conditions from the plurality of images;
A movement amount calculating means for calculating a movement amount of the plurality of images based on the extracted tag information;
An image processing apparatus comprising: an image generation unit configured to move the plurality of images based on the calculated movement amount and generate an output image from the plurality of images.
前記タグ情報は、前記視点から前記被写体までの距離を示すタグを含むことを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the tag information includes a tag indicating a distance from the viewpoint to the subject. 撮像した画像に前記タグ情報を付与する付与手段を更に有することを特徴とする請求項5または6に記載の画像処理装置。   The image processing apparatus according to claim 5, further comprising an adding unit that adds the tag information to the captured image. 前記移動量算出手段は、移動量を前記視点から前記被写体までの距離に基づき算出することを特徴とする請求項1または5に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the movement amount calculation unit calculates a movement amount based on a distance from the viewpoint to the subject. ユーザによる前記視点から前記被写体までの距離の指示を入力する入力手段を更に有し、
前記移動量算出手段は、前記ユーザの指示に基づいて前記複数の画像の移動量を算出することを特徴とする請求項8に記載の画像処理装置。
An input unit for inputting an instruction of a distance from the viewpoint to the subject by a user;
The image processing apparatus according to claim 8, wherein the movement amount calculation unit calculates movement amounts of the plurality of images based on an instruction from the user.
前記複数の画像のいずれかの画像、または前記画像生成手段により生成された出力画像を表示する表示手段を更に有することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a display unit that displays any one of the plurality of images or an output image generated by the image generation unit. . 少なくとも2つの異なる視点から撮像した被写体の複数の画像を処理する画像処理装置であって、
前記複数の画像から画像の取得条件を含むタグ情報を抽出するタグ情報抽出手段と、
前記複数の画像のいずれかの画像からオブジェクトを抽出するオブジェクト抽出手段と、
前記タグ情報抽出手段によりタグ情報が抽出された場合は、前記抽出されたタグ情報を基に前記複数の画像の移動量を算出し、前記オブジェクト抽出手段によりオブジェクトが抽出された場合は、前記抽出されたオブジェクトの位置が重なるように前記複数の画像の移動量を算出する移動量算出手段と、
前記算出された移動量に基づいて前記複数の画像を移動し、前記複数の画像から出力画像を生成する画像生成手段とを有することを特徴とする画像処理装置。
An image processing apparatus that processes a plurality of images of a subject imaged from at least two different viewpoints,
Tag information extraction means for extracting tag information including image acquisition conditions from the plurality of images;
Object extraction means for extracting an object from any one of the plurality of images;
When tag information is extracted by the tag information extraction unit, the movement amount of the plurality of images is calculated based on the extracted tag information, and when an object is extracted by the object extraction unit, the extraction is performed. A movement amount calculating means for calculating a movement amount of the plurality of images so that the positions of the objects that have been overlapped,
An image processing apparatus comprising: an image generation unit configured to move the plurality of images based on the calculated movement amount and generate an output image from the plurality of images.
少なくとも2つの異なる視点から撮像した被写体の複数の画像を処理する画像処理方法であって、
前記複数の画像から画像の取得条件を含むタグ情報を抽出するタグ情報抽出工程と、
前記複数の画像のいずれかの画像からオブジェクトを抽出するオブジェクト抽出工程と、
前記タグ情報抽出工程でタグ情報が抽出された場合は、前記抽出されたタグ情報を基に前記複数の画像の移動量を算出し、前記オブジェクト抽出工程でオブジェクトが抽出された場合は、前記抽出されたオブジェクトの位置が重なるように前記複数の画像の移動量を算出する移動量算出工程と、
前記算出された移動量に基づいて前記複数の画像を移動し、前記複数の画像から出力画像を生成する画像生成工程とを有することを特徴とする画像処理方法。
An image processing method for processing a plurality of images of a subject imaged from at least two different viewpoints,
A tag information extraction step of extracting tag information including image acquisition conditions from the plurality of images;
An object extraction step of extracting an object from any one of the plurality of images;
When tag information is extracted in the tag information extraction step, the movement amount of the plurality of images is calculated based on the extracted tag information, and when an object is extracted in the object extraction step, the extraction is performed. A movement amount calculation step of calculating movement amounts of the plurality of images so that the positions of the objects that have been overlapped,
An image processing method comprising: an image generation step of moving the plurality of images based on the calculated movement amount and generating an output image from the plurality of images.
請求項12に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the image processing method according to claim 12. 請求項13に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 13.
JP2009167262A 2009-07-15 2009-07-15 Image processing method and image processor Pending JP2011022796A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009167262A JP2011022796A (en) 2009-07-15 2009-07-15 Image processing method and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009167262A JP2011022796A (en) 2009-07-15 2009-07-15 Image processing method and image processor

Publications (2)

Publication Number Publication Date
JP2011022796A true JP2011022796A (en) 2011-02-03
JP2011022796A5 JP2011022796A5 (en) 2012-08-30

Family

ID=43632817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009167262A Pending JP2011022796A (en) 2009-07-15 2009-07-15 Image processing method and image processor

Country Status (1)

Country Link
JP (1) JP2011022796A (en)

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012186790A (en) * 2011-02-18 2012-09-27 Canon Inc Image processing device, imaging device, image processing method, and program
JP2012191351A (en) * 2011-03-09 2012-10-04 Sony Corp Image pickup apparatus and image processing method
JP2012248001A (en) * 2011-05-27 2012-12-13 Canon Inc Image processing apparatus, image processing method, and program
JP2012253444A (en) * 2011-05-31 2012-12-20 Canon Inc Imaging apparatus, image processing system, and method thereof
JP2013009275A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device, image processing method, and program
JP2013009274A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device, image processing method, and program
JP2013027023A (en) * 2011-07-26 2013-02-04 Canon Inc Image processing device and image processing method, and program
WO2013024659A1 (en) * 2011-08-15 2013-02-21 Canon Kabushiki Kaisha Image capturing apparatus, method of controlling the same and program
CN103002218A (en) * 2011-09-12 2013-03-27 佳能株式会社 Image processing apparatus and image processing method
JP2013128212A (en) * 2011-12-19 2013-06-27 Canon Inc Image processing device, imaging device, and method therefor
JP2013145982A (en) * 2012-01-13 2013-07-25 Canon Inc Imaging apparatus, image processing apparatus and method
JP2013201720A (en) * 2012-03-26 2013-10-03 Canon Inc Information processing apparatus, control method thereof, and program
JP2013201752A (en) * 2012-02-20 2013-10-03 Canon Inc Image processing device, image pickup device, control method, and program
JP2013214254A (en) * 2012-04-04 2013-10-17 Nikon Corp Information detection device
JP2013232889A (en) * 2012-04-05 2013-11-14 Canon Inc Image processing device and control method thereof
JP2014056065A (en) * 2012-09-12 2014-03-27 Canon Inc Imaging device, imaging system, image processing apparatus, and control method of imaging device
JP2014057141A (en) * 2012-09-11 2014-03-27 Canon Inc Image processing device, method and program, and imaging apparatus including image processing device
WO2014109270A1 (en) 2013-01-11 2014-07-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program, and image pickup apparatus
JP2014154981A (en) * 2013-02-06 2014-08-25 Canon Inc Imaging apparatus and control method therefor
JP2014179925A (en) * 2013-03-15 2014-09-25 Canon Inc Image processing apparatus, and control method thereof
JP2015011049A (en) * 2013-06-26 2015-01-19 富士通セミコンダクター株式会社 Imaging apparatus, selection method, and selection program
JP2015023487A (en) * 2013-07-22 2015-02-02 株式会社ニコン Image processing apparatus, image display apparatus, and imaging apparatus
JP2015041884A (en) * 2013-08-22 2015-03-02 キヤノン株式会社 Imaging apparatus, control method for imaging apparatus, program, and storage medium
JP2015046687A (en) * 2013-08-27 2015-03-12 キヤノン株式会社 Image processing apparatus, image processing method, program, and imaging apparatus
US9036072B2 (en) 2012-06-08 2015-05-19 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9208569B2 (en) 2013-02-01 2015-12-08 Canon Kabushiki Kaisha Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data
US9237269B2 (en) 2012-07-11 2016-01-12 Kabushiki Kaisha Toshiba Image processing device, image processing method, and computer program product
JP2016003930A (en) * 2014-06-16 2016-01-12 日本電信電話株式会社 Image processing apparatus, image processing method, and image processing program
JP2016086362A (en) * 2014-10-28 2016-05-19 キヤノン株式会社 Image processing device, image processing method, and computer program
JP2016096556A (en) * 2012-02-20 2016-05-26 キヤノン株式会社 Image processing device, imaging device, control method, and program
JP2016119694A (en) * 2016-02-02 2016-06-30 キヤノン株式会社 Information processing apparatus, control method thereof, and program
US9420168B2 (en) 2013-09-20 2016-08-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US9451148B2 (en) 2012-06-15 2016-09-20 Canon Kabushiki Kaisha Image recording apparatus and image reproducing apparatus
JP2016178706A (en) * 2016-07-07 2016-10-06 キヤノン株式会社 Image reproducing apparatus and control method of the same
US9591203B2 (en) 2014-03-31 2017-03-07 Canon Kabushiki Kaisha Image processing apparatus, image processing method, recording medium, and image pickup apparatus
US9727585B2 (en) 2014-02-19 2017-08-08 Canon Kabushiki Kaisha Image processing apparatus and method for controlling the same
JP2017161941A (en) * 2017-06-07 2017-09-14 キヤノン株式会社 Reproducer, imaging apparatus, and control method of reproducer
JP2017201810A (en) * 2017-06-27 2017-11-09 株式会社ニコン Imaging apparatus and imaging method
JP2018019422A (en) * 2017-10-04 2018-02-01 株式会社ニコン Image processing apparatus, image display apparatus, and imaging apparatus
JP2018519733A (en) * 2015-06-17 2018-07-19 トムソン ライセンシングThomson Licensing Apparatus and method for obtaining an alignment error map representing the sharpness level of an image
JP2018133094A (en) * 2018-03-14 2018-08-23 株式会社ニコン Image processing apparatus, image display device, and imaging device
JP2019041401A (en) * 2018-10-26 2019-03-14 株式会社ニコン Image combining device and image combining program
US10325356B2 (en) 2015-11-30 2019-06-18 Canon Kabushiki Kaisha Image processing device, image processing method, imaging device, and recording medium for exclusively performing adjustment processing or viewpoint change processing
US10356384B2 (en) 2016-01-14 2019-07-16 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, and storage medium for storing image processing program
US10545311B2 (en) 2015-03-10 2020-01-28 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
US10868953B2 (en) 2017-10-11 2020-12-15 Canon Kabushiki Kaisha Image processing device capable of notifying an effect of emphasizing a subject before performing imaging, control method thereof, and medium
US10924665B2 (en) 2016-03-24 2021-02-16 Canon Kabushiki Kaisha Image processing apparatus, imaging apparatus, control methods thereof, and storage medium for generating a display image based on a plurality of viewpoint images
US11032465B2 (en) 2017-07-10 2021-06-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, imaging apparatus, and recording medium
US11170514B2 (en) 2015-10-27 2021-11-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, 3D printing system, and storage medium
EP4386659A1 (en) 2015-03-10 2024-06-19 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
WO2024135218A1 (en) * 2022-12-19 2024-06-27 国立大学法人広島大学 Image processing device, image processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188283A (en) * 2006-01-13 2007-07-26 Seiko Epson Corp Image evaluation device, image evaluation method, image evaluation program, recording medium, and image server system
WO2008050904A1 (en) * 2006-10-25 2008-05-02 Tokyo Institute Of Technology High-resolution vertual focusing-plane image generating method
JP2008245015A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Image processing unit and program
JP2009147574A (en) * 2007-12-13 2009-07-02 Casio Comput Co Ltd Imaging apparatus, and program thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188283A (en) * 2006-01-13 2007-07-26 Seiko Epson Corp Image evaluation device, image evaluation method, image evaluation program, recording medium, and image server system
WO2008050904A1 (en) * 2006-10-25 2008-05-02 Tokyo Institute Of Technology High-resolution vertual focusing-plane image generating method
JP2008245015A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Image processing unit and program
JP2009147574A (en) * 2007-12-13 2009-07-02 Casio Comput Co Ltd Imaging apparatus, and program thereof

Cited By (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012186790A (en) * 2011-02-18 2012-09-27 Canon Inc Image processing device, imaging device, image processing method, and program
JP2012191351A (en) * 2011-03-09 2012-10-04 Sony Corp Image pickup apparatus and image processing method
JP2012248001A (en) * 2011-05-27 2012-12-13 Canon Inc Image processing apparatus, image processing method, and program
JP2012253444A (en) * 2011-05-31 2012-12-20 Canon Inc Imaging apparatus, image processing system, and method thereof
US8970714B2 (en) 2011-05-31 2015-03-03 Canon Kabushiki Kaisha Image capturing apparatus, image processing apparatus, and method thereof
JP2013009275A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device, image processing method, and program
JP2013009274A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device, image processing method, and program
JP2013027023A (en) * 2011-07-26 2013-02-04 Canon Inc Image processing device and image processing method, and program
JP2013041103A (en) * 2011-08-15 2013-02-28 Canon Inc Image pickup apparatus, control method thereof, and program
US9420261B2 (en) 2011-08-15 2016-08-16 Canon Kabushiki Kaisha Image capturing apparatus, method of controlling the same and program
WO2013024659A1 (en) * 2011-08-15 2013-02-21 Canon Kabushiki Kaisha Image capturing apparatus, method of controlling the same and program
RU2565855C1 (en) * 2011-08-15 2015-10-20 Кэнон Кабусики Кайся Image capturing device, method of controlling said device and programme
CN103733133A (en) * 2011-08-15 2014-04-16 佳能株式会社 Image capturing apparatus, method of controlling the same and program
CN103002218A (en) * 2011-09-12 2013-03-27 佳能株式会社 Image processing apparatus and image processing method
JP2013061743A (en) * 2011-09-12 2013-04-04 Canon Inc Image processing apparatus and image processing method
US9412151B2 (en) 2011-09-12 2016-08-09 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2013128212A (en) * 2011-12-19 2013-06-27 Canon Inc Image processing device, imaging device, and method therefor
JP2013145982A (en) * 2012-01-13 2013-07-25 Canon Inc Imaging apparatus, image processing apparatus and method
US9210315B2 (en) 2012-02-20 2015-12-08 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, control method, and recording medium
JP2016096556A (en) * 2012-02-20 2016-05-26 キヤノン株式会社 Image processing device, imaging device, control method, and program
JP2013201752A (en) * 2012-02-20 2013-10-03 Canon Inc Image processing device, image pickup device, control method, and program
US9087237B2 (en) 2012-03-26 2015-07-21 Canon Kabushiki Kaisha Information processing apparatus, control method thereof, and storage medium
US9639778B2 (en) 2012-03-26 2017-05-02 Canon Kabushiki Kaisha Information processing apparatus, control method thereof, and storage medium
JP2013201720A (en) * 2012-03-26 2013-10-03 Canon Inc Information processing apparatus, control method thereof, and program
JP2013214254A (en) * 2012-04-04 2013-10-17 Nikon Corp Information detection device
JP2013232889A (en) * 2012-04-05 2013-11-14 Canon Inc Image processing device and control method thereof
US9036072B2 (en) 2012-06-08 2015-05-19 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9451148B2 (en) 2012-06-15 2016-09-20 Canon Kabushiki Kaisha Image recording apparatus and image reproducing apparatus
US10021309B2 (en) 2012-06-15 2018-07-10 Canon Kabushiki Kaisha Image recording apparatus and image reproducing apparatus
US9237269B2 (en) 2012-07-11 2016-01-12 Kabushiki Kaisha Toshiba Image processing device, image processing method, and computer program product
JP2014057141A (en) * 2012-09-11 2014-03-27 Canon Inc Image processing device, method and program, and imaging apparatus including image processing device
JP2014056065A (en) * 2012-09-12 2014-03-27 Canon Inc Imaging device, imaging system, image processing apparatus, and control method of imaging device
US9742981B2 (en) 2013-01-11 2017-08-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program, and image pickup apparatus for processing light field data
KR20150105401A (en) 2013-01-11 2015-09-16 캐논 가부시끼가이샤 Image processing apparatus, image processing method and program, and image pickup apparatus
WO2014109270A1 (en) 2013-01-11 2014-07-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program, and image pickup apparatus
US9208569B2 (en) 2013-02-01 2015-12-08 Canon Kabushiki Kaisha Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data
JP2014154981A (en) * 2013-02-06 2014-08-25 Canon Inc Imaging apparatus and control method therefor
JP2014179925A (en) * 2013-03-15 2014-09-25 Canon Inc Image processing apparatus, and control method thereof
JP2015011049A (en) * 2013-06-26 2015-01-19 富士通セミコンダクター株式会社 Imaging apparatus, selection method, and selection program
JP2015023487A (en) * 2013-07-22 2015-02-02 株式会社ニコン Image processing apparatus, image display apparatus, and imaging apparatus
JP2015041884A (en) * 2013-08-22 2015-03-02 キヤノン株式会社 Imaging apparatus, control method for imaging apparatus, program, and storage medium
JP2015046687A (en) * 2013-08-27 2015-03-12 キヤノン株式会社 Image processing apparatus, image processing method, program, and imaging apparatus
US9420168B2 (en) 2013-09-20 2016-08-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US9727585B2 (en) 2014-02-19 2017-08-08 Canon Kabushiki Kaisha Image processing apparatus and method for controlling the same
US9591203B2 (en) 2014-03-31 2017-03-07 Canon Kabushiki Kaisha Image processing apparatus, image processing method, recording medium, and image pickup apparatus
JP2016003930A (en) * 2014-06-16 2016-01-12 日本電信電話株式会社 Image processing apparatus, image processing method, and image processing program
JP2016086362A (en) * 2014-10-28 2016-05-19 キヤノン株式会社 Image processing device, image processing method, and computer program
EP3668083A1 (en) 2015-03-10 2020-06-17 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
EP4386659A1 (en) 2015-03-10 2024-06-19 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
US10545311B2 (en) 2015-03-10 2020-01-28 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
JP2018519733A (en) * 2015-06-17 2018-07-19 トムソン ライセンシングThomson Licensing Apparatus and method for obtaining an alignment error map representing the sharpness level of an image
US10818020B2 (en) 2015-06-17 2020-10-27 Interdigital Ce Patent Holdings Apparatus and a method for obtaining a registration error map representing a level of sharpness of an image
US11694349B2 (en) 2015-06-17 2023-07-04 Interdigital Ce Patent Holdings Apparatus and a method for obtaining a registration error map representing a level of sharpness of an image
JP7013244B2 (en) 2015-06-17 2022-01-31 インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ Devices and methods for obtaining alignment error maps that represent the sharpness level of an image
US11170514B2 (en) 2015-10-27 2021-11-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, 3D printing system, and storage medium
US10325356B2 (en) 2015-11-30 2019-06-18 Canon Kabushiki Kaisha Image processing device, image processing method, imaging device, and recording medium for exclusively performing adjustment processing or viewpoint change processing
US10356384B2 (en) 2016-01-14 2019-07-16 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, and storage medium for storing image processing program
JP2016119694A (en) * 2016-02-02 2016-06-30 キヤノン株式会社 Information processing apparatus, control method thereof, and program
US10924665B2 (en) 2016-03-24 2021-02-16 Canon Kabushiki Kaisha Image processing apparatus, imaging apparatus, control methods thereof, and storage medium for generating a display image based on a plurality of viewpoint images
JP2016178706A (en) * 2016-07-07 2016-10-06 キヤノン株式会社 Image reproducing apparatus and control method of the same
JP2017161941A (en) * 2017-06-07 2017-09-14 キヤノン株式会社 Reproducer, imaging apparatus, and control method of reproducer
JP2017201810A (en) * 2017-06-27 2017-11-09 株式会社ニコン Imaging apparatus and imaging method
US11032465B2 (en) 2017-07-10 2021-06-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, imaging apparatus, and recording medium
JP2018019422A (en) * 2017-10-04 2018-02-01 株式会社ニコン Image processing apparatus, image display apparatus, and imaging apparatus
US10868953B2 (en) 2017-10-11 2020-12-15 Canon Kabushiki Kaisha Image processing device capable of notifying an effect of emphasizing a subject before performing imaging, control method thereof, and medium
JP2018133094A (en) * 2018-03-14 2018-08-23 株式会社ニコン Image processing apparatus, image display device, and imaging device
JP2019041401A (en) * 2018-10-26 2019-03-14 株式会社ニコン Image combining device and image combining program
WO2024135218A1 (en) * 2022-12-19 2024-06-27 国立大学法人広島大学 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP2011022796A (en) Image processing method and image processor
EP3101624B1 (en) Image processing method and image processing device
KR102480245B1 (en) Automated generation of panning shots
JP6244655B2 (en) Image processing apparatus and image processing method
TWI510086B (en) Digital refocusing method
CN114245905A (en) Depth aware photo editing
EP3032494B1 (en) Using depth for recovering missing information in an image
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
WO2012129252A1 (en) Digital 3d camera using periodic illumination
JP2017022694A (en) Method and apparatus for displaying light field based image on user&#39;s device, and corresponding computer program product
JP5886242B2 (en) Image processing apparatus, image processing method, and image processing program
JP6655379B2 (en) Method and apparatus for generating an adaptive slice image from a focus stack
CN104867125B (en) Obtain the method and device of image
JP2013009274A (en) Image processing device, image processing method, and program
US9100563B2 (en) Apparatus, method and computer-readable medium imaging through at least one aperture of each pixel of display panel
JP2014150466A (en) Imaging apparatus and control method of the same
CN114445315A (en) Image quality enhancement method and electronic device
US9319579B2 (en) Image processing apparatus, control method, and program for the same with focus state specification and deletion confirmation of image data
JP2017060010A (en) Imaging device, method of controlling imaging device, and program
JP2009047498A (en) Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP6104066B2 (en) Image processing apparatus and image processing method
JP6162971B2 (en) Image processing apparatus, image processing method, imaging apparatus, and control method thereof
Lee et al. Fast-rolling shutter compensation based on piecewise quadratic approximation of a camera trajectory
JP2020009099A (en) Image processing device, image processing method, and program
JP6263024B2 (en) Image processing apparatus, image processing method, program, and image reproduction apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130612

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130726