JP6207202B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP6207202B2 JP6207202B2 JP2013076141A JP2013076141A JP6207202B2 JP 6207202 B2 JP6207202 B2 JP 6207202B2 JP 2013076141 A JP2013076141 A JP 2013076141A JP 2013076141 A JP2013076141 A JP 2013076141A JP 6207202 B2 JP6207202 B2 JP 6207202B2
- Authority
- JP
- Japan
- Prior art keywords
- refocus
- image
- focus
- image data
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、複数の視点位置から取得された情報に基づき画像データを処理する画像処理装置及び画像処理方法に関するものである。 The present invention relates to an image processing apparatus and an image processing method for processing image data based on information acquired from a plurality of viewpoint positions.
現在、撮像装置において撮像後に撮像画像を確認する方法として、いわゆる再生モードにおいて撮像画像を表示させ、確認する方法が知られている。 Currently, as a method for confirming a captured image after image capturing in an image capturing apparatus, a method for displaying and confirming the captured image in a so-called reproduction mode is known.
また、近年、「Light Field Photography」と呼ばれる手法を用いた撮像装置が提案されている(非特許文献1、特許文献1)。この撮像装置は、撮像レンズと、マイクロレンズアレイと、撮像素子と、画像処理部と、から構成され、撮像素子から得られる撮像画像データが、受光面における光の強度分布に加えてその光の進行方向の情報も含むようになっている。そして画像処理部において、複数の視点や方向からの観察画像を再構築できるようになっている。
In recent years, an imaging apparatus using a technique called “Light Field Photography” has been proposed (Non-Patent
その再構築の一つに撮像後のピント調整処理(以降、リフォーカスと呼ぶ)があり(たとえば特許文献2)、撮像後にリフォーカスが可能な撮像装置(以降、ライトフィールドカメラと呼ぶ)が開発されている。 One of the reconstruction is focus adjustment processing after imaging (hereinafter referred to as refocusing) (for example, Patent Document 2), and an imaging device capable of refocusing after imaging (hereinafter referred to as light field camera) has been developed. Has been.
画像処理部に於ける複数の視点や方向からの観察画像を再構築するリフォーカス演算処理は、複数の視点や方向からの画像に関する位置合わせ処理が必須であり、この位置合わせ演算量(処理負荷)が大きい。 In the refocus calculation processing to reconstruct observation images from multiple viewpoints and directions in the image processing unit, alignment processing for images from multiple viewpoints and directions is essential, and this alignment calculation amount (processing load) ) Is large.
また、リフォーカス演算処理は領域毎にフォーカスを合わせる演算と、ぼかす演算とが必要となる。特にぼかしについては、前記フォーカス領域以外の領域に対して一律にぼかすのではなく、視覚的に自然なぼかし処理(例えば、焦点深度の浅い撮像画像データの生成)が必須であり、こちらも演算量(処理負荷)が大きい。 In addition, the refocus calculation process requires calculation for focusing on each area and calculation for blurring. In particular, for blurring, it is not necessary to uniformly blur areas other than the focus area, but visually natural blurring processing (for example, generation of captured image data with a shallow depth of focus) is essential. (Processing load) is large.
現行の画像処理装置では画像表示時にリフォーカス画像を生成する場合、ユーザーの操作に応じてリフォーカス画像を生成しており、該リフォーカス画像生成に時間がかかる為、待ち時間が生じていた。 In the current image processing apparatus, when a refocus image is generated when an image is displayed, the refocus image is generated according to the user's operation, and it takes time to generate the refocus image, so that there is a waiting time.
本発明に係る画像処理装置は、操作履歴を示す履歴情報に基づいて焦点を合わせる対象の順位を決定する決定手段と、前記決定手段で決定された順位に従って、前記対象に焦点を合わせた合成画像データを複数の視点位置から撮像して得られた多視点画像データから順次生成する生成手段と、前記生成された合成画像データを表示させる制御手段と、を備え、前記生成手段は、前記表示された合成画像データに対するユーザーからのパラメータの入力がない間、前記順位に従って前記合成画像データを順次生成することを特徴とする。 An image processing apparatus according to the present invention includes: a determination unit that determines a rank of a target to be focused based on history information indicating an operation history; and a composite image that focuses on the target according to the rank determined by the determination unit Generation means for sequentially generating data from multi-viewpoint image data obtained by imaging data from a plurality of viewpoint positions ; and control means for displaying the generated composite image data, wherein the generation means is the display The composite image data is sequentially generated according to the order while no parameter is input from the user to the composite image data .
本発明によれば、ユーザーが、リフォーカス表示したい領域の指定操作を行う前にユーザーがリフォーカス表示を希望する領域を予測し、リフォーカス演算を開始又は完了させることが可能となる。従って、ユーザーがリフォーカス領域を指定してから、リフォーカス画像を表示するまでの待ち時間を短縮することができる。 According to the present invention, it is possible to predict a region where the user desires refocus display before the user performs an operation for designating a region to be refocused, and to start or complete the refocus calculation. Accordingly, it is possible to reduce the waiting time from when the user designates the refocus area until the refocus image is displayed.
以下、図面を用いて本発明の実施例について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明による実施例1の画像処理装置のハードウェア構成の一例を示すブロック図である。以下、図1について詳細に説明する。多眼カメラ撮像部101は、相互に独立した光学系と撮像素子とを持つ相互に独立した複数のカメラの集合体である。多眼カメラ撮像部101は、撮像素子の制御部等を含み、複数の撮像素子からの出力データの集合を多視点画像データとして出力する。
FIG. 1 is a block diagram illustrating an example of a hardware configuration of the image processing apparatus according to the first embodiment of the present invention. Hereinafter, FIG. 1 will be described in detail. The multi-lens
RAM102は、多眼カメラ撮像部101で撮像した多視点画像データの一時記憶や生成したリフォーカス画像データの一時記憶、およびその他演算途中のデータなどの一時記憶に使用する為のメモリである。FlashROM107は、不揮発メモリであり、過去にユーザーが選択した画像(種別と位置)や操作に関する操作履歴を累積、記憶する履歴情報記憶部として機能する。外部メモリ109は、SDカードなどの外部メモリである。また、外部メモリ109は不揮発メモリであり、電源を切っても画像データは保存される。外部メモリ109には、多眼カメラ撮像部101で撮像した多視点画像データが、例えば図8に示される画像データフォーマットに従って画像ファイルとして保存される。画像データフォーマットの詳細は後述する。また外部メモリ109は、処理中の画像データを一時画像ファイルとして一時的に保存する領域としても利用される。
The
メモリ制御部110は、いわゆるバスシステムと、バスシステムに接続されるメモリやデバイスの制御部から構成され、例えば、RAM102、FlashROM107、外部メモリ109の各メモリに対するデータの読み書きを制御する。
The
ユーザーI/F(インターフェース)106は、機器の操作や、ユーザーがリフォーカス表示を希望する画像又は領域を選択したり、又は撮像済み画像の表示に係わるモード選択を行う為のI/F(インターフェース)である。具体的には、ディスプレイ105上に設置されるタッチパネルや、シャッターボタン、操作ダイヤルなどユーザーI/Fに対応する。
A user I / F (interface) 106 is an I / F (interface) for operating a device, selecting an image or region that a user desires to display refocused, or selecting a mode related to displaying a captured image. ). Specifically, it corresponds to the user I / F such as a touch panel installed on the
全体制御部(CPU)108は、機器全体の制御や、FlashROM107に記憶されている履歴情報から最も頻度の高い領域を選択し、リフォーカス演算部103へ指示するなどの演算制御を行う。
The overall control unit (CPU) 108 performs overall control of the device and calculation control such as selecting the most frequent area from the history information stored in the
リフォーカス演算部103は、全体制御部108の指示に従って、多視点画像データからリフォーカス画像データを生成する。ここで、多視点画像データからリフォーカス画像データを生成する概要を説明する。ライトフィールドフォトグラフィでは、多視点画像データから、空間中の複数の位置について、それぞれの位置を通過する光線の方向と強度(ライトフィールド、以下、「LF」という。)を計算する。そして、得られたLFの情報を用いて、仮想の光学系を通過して仮想のセンサに結像した場合の画像を計算する。このような仮想の光学系やセンサを適宜設定する事で、所定の対象に焦点を合わせた合成画像データであるリフォーカス画像データを生成することが可能となる。なお、リフォーカス処理は本実施例の主眼ではなく、上述した手法以外の手法を用いても良い。生成されたリフォーカス画像データは、RAM102や、外部メモリ109などへ格納される。詳細は後述する。
The
グラフィックプロセッサ104は、リフォーカス演算部103で生成されたリフォーカス画像データをディスプレイ105に表示する機能を具備している。ネットワークI/F1110は、機器外とネットワーク接続を行い、ネットワーク上の外部機器との間でデータ転送を行う。
The
画像解析部112は、画像データ中の被写体の領域を検出し、領域毎に識別コードを割り当てる。画像解析部112は、検出した被写体の領域情報と識別コードとをRAM102に記憶する。本実施例の被写体とは、前景にあたる人や動物だけでなく、背景に含まれる風景部分も含む物体であるとする。被写体の検出は、例えば、いくつかの顕著な特徴(2つの目、口、鼻など)とその特徴間の固有の幾何学的位置関係とを利用することで実施できる。あるいは、被写体の検出は、顔の対称的特徴、顔色の特徴、テンプレート・マッチング、ニューラル・ネットワークなどを利用することによっても実施できる。背景の検出は、例えば前述の方法で画像内の人物や動物の顔を検出し、その位置やサイズを算出する。この算出結果に基づいて画像中の人物を含む被写体領域と、それ以外の背景領域とに画像を区分することができる。例えば、被写体領域を矩形と仮定すると、領域情報の形式は、左上と右下の座標で示される。また、被写体の識別対象は、人(又は顔)、動物、風景の三種類としているが、これに限定されず、さらに細かい分類をすることも可能である。なお、被写体の検出および識別方法は、本実施例の主眼ではなく、上述した手法以外の手法を用いても良い。画像解析部112での被写体検出および認識機能は、画像撮像後、直ちに実施され、その結果は例えば、FlashROM107や外部メモリ109のような不揮発メモリに記憶される。したがって、本実施例の説明に於いては、これら被写体の領域情報と識別コードとが既に記憶されていることを前提とする。
The
多眼カメラ撮像部101が撮像した多視点画像データは、図8の画像データフォーマットに従って、画像ファイルとして、外部メモリ109に記録される。
The multi-viewpoint image data captured by the multiview
図8は、本実施例に於ける多視点画像データを画像ファイルとして保存する際に用いる画像データフォーマットを説明する図である。図8に示す画像ファイルは、画像幅を示す情報801、画像高さを示す情報802、リフォーカス位置情報803、多視点画像ヘッダ情報810、多視点画像データ804を含む。
FIG. 8 is a diagram illustrating an image data format used when multi-viewpoint image data is stored as an image file in the present embodiment. The image file shown in FIG. 8 includes
リフォーカス位置情報803は、位置情報存在フラグ805を含む。位置情報存在フラグ805は、リフォーカス位置情報が存在するか否かを示す情報である。この位置情報存在フラグは、例えば初期状態(履歴が無い状態)では0(偽)である。1(真)である場合に後続の位置情報806〜809の値を有効とすることができる。すなわち、位置情報存在フラグが真である場合、リフォーカスされた位置を示す情報が含まれていることになる。Top_left_x806は、リフォーカス領域の左上のX座標を示す情報である。Top_left_y807は、リフォーカス領域の左上のY座標を示す情報である。Bottom_right_x808は、リフォーカス領域の右下のX座標を示す情報である。Bottom_right_y809は、リフォーカス領域の右下のY座標を示す情報である。
The
なお、位置情報存在フラグ805は、画像ファイルの付加の真偽を示す一ビットの情報で十分であるが、かならずしも、1ビットに限定されない。リフォーカス位置情報フォーマットの形式を示す多値をとってもよい。例えば、次のような構成をとることも可能である。位置情報存在フラグ805が0の場合は、位置情報が存在しない。位置情報存在フラグ805が1の場合は、位置情報は、上述のように矩形情報として表現される。位置情報存在フラグ805が2の場合は、位置情報は、フォーカス対象を示す円の中心座標と半径を位置情報として表現される。
The position
多視点画像ヘッダ情報810には、リフォーカス処理を行うために必要な情報や補助的な撮像情報が含まれる。例えば、カメラ機種名、レンズ構成、撮像日、シャッタースピード、および、露出プログラムなどである。また、多視点画像ヘッダ情報810には、リフォーカス処理に用いられる多視点画像データの中の各画像データの位置情報が含まれる。つまり、各撮像部の位置を示す情報が含まれる。本実施例では、位置情報存在フラグの真偽に関わらず、位置情報806〜809が存在する構成例を示している。しかしこの例に限定されず、位置情報存在フラグが偽の場合は、位置情報806〜809エントリーそのものを画像データに含めない構成とすることも可能である。また、リフォーカス位置情報は、任意の形状を示すように構成することも可能であり、本実施例で説明する矩形領域に限定するものではない。
The multi-viewpoint
なお、多視点画像データ804は、撮像素子から得られたRAW画像データであってもよいし、デモザイキング処理、ホワイトバランス処理、ガンマ処理、及びノイズ低減処理などの現像処理が施された現像後画像データであってもよい。また、本実施例では多眼カメラ撮像部101を用いる例を説明したが、多視点画像データは複数の視点位置からのデータであればよく、例えばマイクロレンズアレイを用いて得られる撮像データを用いてもよい。
Note that the
図2は、再生モードに移行してから、1枚目のリフォーカス画像を表示するまでのフローチャートである。再生モードは、外部メモリ109に保存された画像ファイルをディスプレイ105で表示する制御を行う動作モードである。図2のフローは、全体制御部(CPU)108が、リフォーカス演算部103およびグラフィックプロセッサ104等を制御することにより実行される。
FIG. 2 is a flowchart from the transition to the playback mode to the display of the first refocus image. The reproduction mode is an operation mode in which control for displaying an image file stored in the
全体制御部108が、図2に示す制御を実行する為のプログラムは、例えば、FlashROM107等に記憶されている。また、上述したリフォーカスのためのプログラムも同様に記憶されている。図2に示すフローに於ける画像ファイルは、多眼カメラ撮像部101により撮像された多視点画像データが、図8で示すようにヘッダ情報と共に外部メモリ109に既に記録されていることを前提としている。
A program for the
ステップS201では、全体制御部108は、動作モードを再生モードに移行する。ステップS201の処理に移る場合として、以下の3パターンが考えられる。
1.再生モード以外で起動中であり、その後再生モードに切り換え
2.起動時に既に再生モード
3.再生モードで別の画像を指定された時
In step S201, the
1. 1. It is being activated in a mode other than the playback mode and then switched to the
ステップS202では、全体制御部108が画像ファイルを外部メモリ109から取得する。ステップS203では、全体制御部108が再生リフォーカスモードと履歴情報とを取得して、処理をS204へ移行する。再生リフォーカスモードとは、リフォーカス演算済みの画像データ(以下、リフォーカス画像データと称する)を表示する際に、例えば、人モード、風景モード、動物モードなどを選択するモードである。履歴情報とは、過去にユーザーが選択した画像データの種別及び位置や、操作に関する履歴を累積した情報である。履歴情報の詳細については後述する。ステップS204では、全体制御部108が読み込んだ画像ファイルのヘッダ情報を解析する。ヘッダ情報は、図8の801から803に該当する。本実施例では、リフォーカス位置情報803を特に解析する。
In step S <b> 202, the
ステップS205では、全体制御部108が、ステップS204で解析したヘッダ情報に推奨パラメータが存在するか否かを判定する。推奨パラメータとは、画像ファイルをリフォーカスする際に推奨される画像や表示方法などを示すパラメータである。推奨パラメータが存在する場合には処理がステップS206に移行し、存在しない場合にはステップS207に移行する。本実施例では、図8に示される位置情報存在フラグ805を1ビットのフラグとして扱い、フラグの値が1の場合には、全体制御部108は、推奨パラメータが存在すると判定してステップS206に遷移する。フラグの値が0の場合は、全体制御部108は推奨パラメータが存在しないと判定してステップS207に移行する。
In step S205, the
ステップS206では、全体制御部108は、ステップS202で読み込んだ画像ファイルのリフォーカス位置情報803を解析して得られた推奨パラメータを利用してリフォーカス演算部103を制御し、リフォーカス画像データを生成する。
In step S206, the
具体的には、リフォーカス演算部103は、再生ファイルに含まれる多視点画像データ804から、位置情報806と808との平均をX座標、位置情報807と809との平均をY座標とする位置にフォーカスが合った画像データを生成する。リフォーカス演算部103で生成されたリフォーカス画像データは、グラフィックプロセッサ104を介して、ディスプレイ105に表示される。また生成されたリフォーカス画像データは、図7に示される一時画像ファイルフォーマットに従って一時画像ファイルとして、外部メモリ109又はRAM102に保存される。図7は、リフォーカス演算部103で生成されたリフォーカス画像データを含む画像ファイルの一時画像ファイルフォーマットの一例を示す図である。一時画像ファイルフォーマットに従う画像ファイルは、リフォーカス位置情報702と、リフォーカス画像データ705とを含む。リフォーカス位置情報702には、リフォーカス画像データ705のリフォーカス処理を行った際にフォーカスを合わせた位置を示す情報が含まれる。位置情報706〜709は、図8の位置情報806〜809と同じ情報とすることができる。なお、図7に示す一時画像ファイルは、例えばリフォーカスの画像データ毎に生成される。
Specifically, the
ステップS206に処理が進んでいるということは、推奨パラメータが存在していることになる。従って、その推奨パラメータに含まれる情報を図7の702で示すリフォーカス位置情報に含めた一時画像ファイルを記憶する。なお、一時画像ファイルの記憶場所は、外部メモリ109、RAM102に限定されるものではなく、ネットワークI/F111を介して、クラウド上に存在する任意の記憶装置に記憶しても良い。
If the process proceeds to step S206, the recommended parameter exists. Therefore, the temporary image file in which the information included in the recommended parameter is included in the refocus position information indicated by
次に、ステップS205にて、ヘッダ情報に推奨パラメータが存在しない場合の処理を説明する。ステップS207の処理は、ステップS202でメモリから読み出した画像ファイルに推奨パラメータが無い場合、即ち再生モードでの表示が初めての画像ファイルである場合の処理である。本実施例では、履歴情報に基づいてリフォーカス画像データを生成し、一時画像ファイルとして記憶する。また、履歴情報の更新を実施する。履歴情報に基づいてリフォーカス画像データを生成する処理、および履歴情報を更新する処理については、図3に関連して説明するため、ここで説明を省略する。 Next, a process when there is no recommended parameter in the header information in step S205 will be described. The process in step S207 is a process when there is no recommended parameter in the image file read from the memory in step S202, that is, when the display is the first image file in the playback mode. In this embodiment, refocus image data is generated based on the history information and stored as a temporary image file. Also, history information is updated. The process of generating refocus image data based on the history information and the process of updating the history information will be described with reference to FIG.
ステップS208は、グラフィックプロセッサ104がステップS207で生成したリフォーカス済み画像をディスプレイ105に表示する。図6は、ステップS206又はステップS207で生成されたリフォーカス画像データを表示した際の一例を示す図である。図6の(a)は、風景(樹木)にフォーカスの合った画像の例を示してある。
In step S208, the
ステップS209では、グラフィックプロセッサ104がパラメータ選択UI画面を追加でディスプレイ105に表示する。パラメータ選択UI画面を追加した例を図6(b)に示す。図6(b)の例に於いては、タッチパネルでユーザーがフォーカスを合わせたいポイントを指定することを想定している。すなわち、グラフィックプロセッサ104は、フォーカスを合わる位置(パラメータ)をユーザーに入力させるためのUI画面を表示する。なお、パラメータは、画像中の2次元の位置情報を表してもよいし、多視点画像の中の空間的な距離(奥行き)を表してもよい。
In step S209, the
ステップS210では、全体制御部108は、ステップS202で読み取った画像ファイルのリフォーカス位置情報803の更新を実施する。すなわち、ヘッダ情報に推奨パラメータが存在していない場合、ステップS207でリフォーカス位置が決定された領域の位置情報でリフォーカス位置情報803を更新する。なお、ヘッダ情報に推奨パラメータが存在している場合、ステップS202で読み取った画像ファイルのリフォーカス位置情報803の更新は行わなくてよい。以上が、再生モードを起動した場合の動作、すなわち、ある画像ファイルを読み取った場合の最初に表示されるリフォーカス画像に関する処理である。
In step S210, the
続いて、1枚目のリフォーカス画像データを表示した後の動作(2枚目以降のリフォーカス画像データの表示、動作の終了等)について、図3を用いて説明する。すなわち、図2のフローで説明した画像ファイルを読み取った場合に最初に表示されるリフォーカス画像を表示した後の処理を図3を用いて説明する。図3に示すフロー全体が、図2のフローと同様に、全体制御部108により制御されている。
Next, the operation after displaying the first refocus image data (display of the second and subsequent refocus image data, the end of the operation, etc.) will be described with reference to FIG. That is, the processing after displaying the refocus image that is initially displayed when the image file described in the flow of FIG. 2 is read will be described with reference to FIG. The entire flow shown in FIG. 3 is controlled by the
図2のステップS209で、図6(b)に示すパラメータ選択UIが表示されると、ユーザーは、表示されたUIを利用して、パラメータの選択を行う事が可能になる。ステップS301では、全体制御部108は、UIを使用して、ユーザーがパラメータを選択した時は、処理をステップS304へ移行する。本実施例では、ユーザーが画面上の1点を指定することによって、パラメータを選択することとする。次に、ステップS304では、ステップS301でユーザーによって選択されたパラメータを取得する。ステップS304では、全体制御部108は、図7の形式で記憶されている一時画像ファイル群の中から、ステップS301にてユーザーが指定(選択)したパラメータを含むリフォーカス画像データが存在するか否かを判定する。すなわち、ユーザーが指定したパラメータを含むリフォーカス位置情報702を含む一時画像ファイルが存在するか否かを判定する。ステップS304でユーザーが指定したパラメータに適合するリフォーカス画像データを含む一時画像ファイルが存在する場合、全体制御部108は、処理をステップS309へ移行する。ステップS309では、前記リフォーカス画像を含む一時画像の情報(位置、表示履歴情報)を更新し、処理をステップS306へ移行する。詳細は後述する。
When the parameter selection UI shown in FIG. 6B is displayed in step S209 of FIG. 2, the user can select a parameter using the displayed UI. In step S301, the
ステップS306では、グラフィックプロセッサ104が、ユーザーが指定したパラメータに適合するリフォーカス画像データを含む一時画像を所定のディスプレイ105に表示する。
In step S306, the
一方、ステップS304で、ユーザーが指定したパラメータに適合するリフォーカス画像データを含む一時画像ファイルが存在しなかった場合は、全体制御部108は、処理をステップS305へ移行する。ステップS305では、ステップS301でユーザーが指定したパラメータに基づいて、リフォーカス演算部103が、当該パラメータが示す領域にフォーカスが合ったリフォーカス画像データを生成する。ステップS305では、生成したリフォーカス画像データを例えば、RAM102等に図7に示す一時画像ファイルとして記憶する。
On the other hand, if there is no temporary image file including refocus image data matching the parameter specified by the user in step S304, the
ステップS305の処理が完了したら、全体制御部108は、処理をステップS309へ移行する。
When the process of step S305 is completed, the
ステップS309では、ステップS305にて、ユーザーが、ステップS301で指定したパラメータに従って生成したリフォーカス画像に関する情報(位置および表示履歴情報)の更新を実施し、処理をステップS306へ移行する。詳細は後述する。 In step S309, in step S305, the user updates information (position and display history information) related to the refocus image generated according to the parameter specified in step S301, and the process proceeds to step S306. Details will be described later.
ステップS306では、例えば、RAM102等から、ステップS301で指定されたパラメータに従って生成または選択されたリフォーカス画像データを読み出して、ディスプレイ105へ表示する。
In step S306, for example, the refocus image data generated or selected according to the parameter specified in step S301 is read from the
ここで、ステップS309に於ける情報更新について、詳しく説明する。先に説明したように、画像解析部112によって、撮像後の多視点画像データ内の被写体の領域が検出され、領域毎に識別コードを割り当てられ、領域情報と識別コードとがFlashROM107や、外部メモリ109のような不揮発メモリに記憶されている。ここでは、記憶されている領域情報と指定されたパラメータとを比較して、領域情報の中に指定されたパラメータが含まれている場合、その領域情報を位置情報として更新する。すなわち、被写体として分類され、その被写体の位置が特定されている領域情報を、一時画像ファイルのリフォーカス位置情報702として更新する。一方、記憶されている領域情報と指定されたパラメータとを比較して、領域情報の中に指定されたパラメータが含まれていない場合、指定パラメータを一時画像ファイルのリフォーカス位置情報702として更新する。
Here, the information update in step S309 will be described in detail. As described above, the
次に、履歴情報について、図5を用いて説明する。図5に於いて、識別コードは、画像解析部112で識別された識別コードである。頻度は、再生モードに於いて、識別コード(人、風景等)で示される各領域に対して、ユーザーがフォーカスを合わせた画像の表示を指示した頻度のことである。この頻度は、ある画像ファイルごとの頻度であってもよいし、画像ファイルを問わずに、画像処理装置におけてあるユーザーが指示した頻度であってもよい。図5(a)は、501が識別コード=風景、502が識別コード=人、503が識別コード=動物の例を示している。ここで、識別コード毎の頻度順位は、以下の通りである。
1位:風景(501)
2位:人(502)
3位:動物(503)
Next, history information will be described with reference to FIG. In FIG. 5, the identification code is an identification code identified by the
1st place: Landscape (501)
2nd place: People (502)
3rd place: Animals (503)
図5(b)は、識別コード=人に関して、識別コードを更に細分化した例を示したものである。なお、娘、息子、父の区別は、例えばそれぞれの顔画像の特徴ベクトルを算出しておき、人物と判定された領域の特徴ベクトルと比較することによって判定することができる。ここで、識別コード毎の頻度順位は、以下の通りである。
1位:ユーザーの娘(505)
2位:ユーザーの息子(506)
3位:ユーザーの父(507)
4位:登録外の人物(508)
本実施例に於いて、履歴情報は、各識別コードの頻度情報のことを指す。
FIG. 5B shows an example in which the identification code is further subdivided for the identification code = person. The distinction between the daughter, son, and father can be determined by, for example, calculating the feature vector of each face image and comparing it with the feature vector of the region determined to be a person. Here, the frequency ranking for each identification code is as follows.
1st place: User's daughter (505)
2nd place: User's son (506)
3rd place: User's father (507)
4th: Unregistered person (508)
In the present embodiment, the history information indicates frequency information of each identification code.
次に履歴情報の更新について述べる。先に説明したように、領域情報の中に指定されたパラメータが含まれていた場合、その領域に関連付けられた識別コードの頻度情報をインクリメントする。一方、領域情報の中に指定されたパラメータが含まれていない場合、有用な情報は、座標情報のみなので、履歴情報は更新しない。 Next, update of history information will be described. As described above, when the designated parameter is included in the area information, the frequency information of the identification code associated with the area is incremented. On the other hand, when the designated parameter is not included in the area information, the useful information is only the coordinate information, and the history information is not updated.
次にステップS301で、ユーザーが、パラメータを選択しなかった場合の処理について説明する。すでに表示されている画像を継続して表示した状態で、処理をステップS302へ移行する。 Next, a process when the user does not select a parameter in step S301 will be described. In a state where the already displayed image is continuously displayed, the process proceeds to step S302.
ステップS302では、画像解析部112で抽出した全ての領域情報に対して、全体制御部108は、各領域情報にフォーカスを合わせたリフォーカス画像データを生成したか否かを判定する。具体的には、全ての領域情報に対して、各領域情報を含むリフォーカス位置情報702を有する一時画像ファイルが存在するか否かを判定する。
In step S302, for all the region information extracted by the
ステップS302で、全ての領域情報に対して、リフォーカス画像を生成していないと判定された場合、処理をS303へ移行する。一方、ステップS302で、全ての領域情報に対して、リフォーカス画像の生成が完了していると判定された場合は、処理をS307へ移行する。 If it is determined in step S302 that no refocus image has been generated for all region information, the process proceeds to S303. On the other hand, if it is determined in step S302 that the generation of the refocus image has been completed for all the area information, the process proceeds to S307.
全ての領域情報に対して、リフォーカス画像を生成していないと判定された場合、ステップS303で、履歴情報に基づいて、リフォーカス画像データを生成する。詳細は後述する。次に生成したリフォーカス画像をS306で表示した後、ステップS307へ移行する。 If it is determined that no refocus image has been generated for all region information, refocus image data is generated based on the history information in step S303. Details will be described later. Next, after the generated refocus image is displayed in S306, the process proceeds to step S307.
S307では、全体制御部108は、再生モードを終了するか、継続するかを判定する。S307に於ける再生モードの終了条件は、例えば以下の3つである。
1.再生モードを除くモードに切り換えた時
2.電源をOFFした時
3.再生モードで別の画像を指定された時
S307で再生モード終了と判定された場合は、処理をS308へ移行し、再生モードの終了に必要な各種処理が実行され、再生モードを終了する。一方、ステップS307で再生モード継続と判定された場合は、処理をステップS301へ戻し、ステップS301からの操作を繰り返す。
In S307, the
1. 1. When switching to a mode other than the
なお、パラメータ選択は、ユーザーが画面上の1点を指すことで行うこととしたが、閉領域として指定することも可能である。例えば、ユーザーが指定した点を含む画像および指定された閉領域に含まれる画像をFlashROM(履歴記憶部)107の履歴と比較することにより、履歴情報の有無を判定することができる。 Note that parameter selection is performed by the user pointing to one point on the screen, but it can also be specified as a closed region. For example, the presence / absence of history information can be determined by comparing the image including the point designated by the user and the image included in the designated closed region with the history of the flash ROM (history storage unit) 107.
次に、図2のS207と図3のS303に於ける処理詳細について、図4のフローチャートを用いて説明する。図4のフローチャートに示す処理は、全体制御部(CPU)108が、リフォーカス演算部103およびグラフィックプロセッサ104等を制御することにより、実行される。
Next, details of the processing in S207 of FIG. 2 and S303 of FIG. 3 will be described using the flowchart of FIG. The process shown in the flowchart of FIG. 4 is executed by the overall control unit (CPU) 108 controlling the
先に説明したように、画像解析部112によって、撮像後の多視点画像データ内の被写体の領域が検出され、かつ領域毎に識別コードを割り当てられ、領域情報と識別コードとがRAM102や、外部メモリ109のような不揮発メモリに記憶されている。また、履歴情報は、図5に示す頻度情報のこととする。即ち、過去の履歴(頻度)は、風景画像が頻度1位、人の画像が2位、動物の画像が3位であると仮定する。更に、人の画像は、頻度1位が娘、2位が息子、3位が父、4位が登録外人物と仮定する。
As described above, the
ステップS401では、全体制御部108は、リフォーカス画像データを未生成の領域を特定する。まず、全体制御部108は、対象画像データ(すなわち、S202で読み込んだ画像ファイルの多視点画像データが示す画像データ)に関する画像解析結果の識別コード及び領域情報のペアの全てを取得する。また、全ての一時画像ファイルに含まれるリフォーカス画像データの位置情報を取得する。次に、取得した情報の中から、一時画像ファイルに含まれるリフォーカス位置情報702と、領域情報とを比較する。そして、位置情報が領域情報に含まれるものは省いて、対応する位置情報が存在しない領域情報を抽出する。この領域情報は、即ち、リフォーカス画像データを生成していない領域に対応する。
In step S401, the
次に、全体制御部108は、ステップS402で、ステップS401で抽出した領域情報に関連付けられた識別コードの中で、履歴情報の頻度が最も高い識別コードに一致するものを選択する。選択の結果、風景に該当する識別コードの頻度が、最上位であった場合、ステップS403へ移行する。ステップS403では、風景画像に対応する領域が、S401で抽出した領域情報にあるか否かを判定する。風景画像がある場合、ステップS404へ移行する。
Next, in step S402, the
ステップS404では、識別コードが風景である領域情報を抽出して、それが1つである場合は、その領域を次にリフォーカス画像データを生成する領域として決定する。また風景に該当する識別コードを持つ領域が複数存在する場合、例えば、領域情報の左上のX座標とY座標をもって、順位を決定することができる。具体的には、X座標の値が小さい順にリフォーカス演算順位を決定することができる。また、同一のX座標が複数存在する場合は、Y座標の小さい順でリフォーカス演算順位を決定することができる。ここでは、最も順位の高い領域情報を次にリフォーカス画像を生成する領域として決定する。 In step S404, area information whose identification code is landscape is extracted, and when there is only one area, that area is determined as an area for generating next refocus image data. Further, when there are a plurality of regions having identification codes corresponding to the landscape, for example, the order can be determined by using the X coordinate and Y coordinate at the upper left of the region information. Specifically, the refocus calculation order can be determined in ascending order of the X coordinate value. If there are a plurality of the same X coordinates, the refocus calculation order can be determined in ascending order of the Y coordinates. Here, the region information with the highest rank is determined as the region for generating the next refocus image.
次に処理をステップS405へ移行する。ステップS405では、リフォーカス演算部103が、ステップS404で決定された順位に基づいて当該順位の領域情報にフォーカスを合わせたリフォーカス画像データを生成する。具体的には、多視点画像データから、左上と右下の座標の平均を取った結果をX座標、Y座標とする位置にフォーカスが合った画像データを生成する。
Next, the process proceeds to step S405. In step S405, the
次に、処理をステップS406へ移行する。ステップS406では、ステップS405で生成したリフォーカス画像データと共に、そのフォーカスを合わせた領域情報をリフォーカス位置情報とした一時画像ファイルを図7に示す一時画像ファイルフォーマットで記憶する。 Next, the process proceeds to step S406. In step S406, along with the refocus image data generated in step S405, a temporary image file having the focused area information as the refocus position information is stored in the temporary image file format shown in FIG.
次に処理をステップS407へ移行する。ステップS407では、履歴情報を更新する。具体的には、選択された識別コードに該当する頻度をインクリメントする。そして処理を終了する。 Next, the process proceeds to step S407. In step S407, the history information is updated. Specifically, the frequency corresponding to the selected identification code is incremented. Then, the process ends.
次に、ステップS402に戻って、選択の結果、人に該当する識別コードの頻度が、最上位であった場合、ステップS409へ移行する。ステップS409では、人の画像があるか否かを判定する。人の画像がない場合、ステップS402に戻る。人の画像がある場合、ステップS410に移行する。ステップS410では、図5(b)で示すような登録者の識別コードがあるか否かを判定する。登録者の識別コードがあった場合、処理をステップS411へ移行する。ステップS411では、履歴情報の中に、ステップS410で存在が確認された登録者がいるか否かを判定する。履歴情報の中に登録者がいた場合、処理をステップS412へ移行する。ステップS412では、履歴情報の頻度に従って、リフォーカス画像生成の順位を決定する。図5(b)では、順位1位が娘、2位が息子、3位が父というようになっているので、例えば、識別コードの中に娘が存在すれば、娘を最上位とする。 Next, returning to step S402, if the frequency of the identification code corresponding to the person is the highest as a result of selection, the process proceeds to step S409. In step S409, it is determined whether there is a human image. If there is no human image, the process returns to step S402. If there is a human image, the process proceeds to step S410. In step S410, it is determined whether there is a registrant identification code as shown in FIG. If there is a registrant identification code, the process proceeds to step S411. In step S411, it is determined whether or not there is a registrant whose existence has been confirmed in step S410 in the history information. If there is a registrant in the history information, the process proceeds to step S412. In step S412, the order of refocus image generation is determined according to the frequency of history information. In FIG. 5B, since the first rank is the daughter, the second rank is the son, and the third rank is the father, for example, if there is a daughter in the identification code, the daughter is the highest rank.
ステップS411で、履歴情報の中に登録者がいない場合、処理をステップS413へ移行する。また、ステップS410で、登録者の識別コードが無かった場合、処理をステップS414へ移行する。なお、ステップS413及びS414は、S404と同様の処理を行う。 If it is determined in step S411 that there is no registrant in the history information, the process proceeds to step S413. In step S410, if there is no registrant identification code, the process proceeds to step S414. Note that steps S413 and S414 perform the same processing as step S404.
次に、ステップS402に戻って、選択の結果、動物に該当する識別コードの頻度が、最上位であった場合、ステップS415へ移行する。ステップS415で動物の画像があると判定した場合、ステップS416へ移行する。なお、ステップS416の処理については、S404と同様の処理を行うことができる。 Next, returning to step S402, if the frequency of the identification code corresponding to the animal is the highest as a result of selection, the process proceeds to step S415. If it is determined in step S415 that there is an animal image, the process proceeds to step S416. In addition, about the process of step S416, the process similar to S404 can be performed.
以上、説明したように構成することによって、過去の履歴を利用することで、リフォーカス画像データの生成をユーザーに指示される前に、実施することが可能となる。すなわち、多視点画像データを含む画像ファイルを最初に読み出した際に、そのファイルのヘッダ情報に推奨パラメータが含まれていない場合、履歴情報を用いてリフォーカス画像データをユーザーの指示なしに生成することができる。また、履歴情報を用いることで、そのユーザーが過去にフォーカスを合わせた被写体の頻度に応じてリフォーカス画像データを生成することができる。ユーザーの指示なしに予めリフォーカス画像データを生成しておくことによって、ユーザーが希望するフォーカス領域を指定した時、リフォーカス演算時間を待つことなく、ユーザーが希望するリフォーカス画像を表示することが可能となる効果がある。 With the configuration as described above, it is possible to perform generation of refocus image data before instructing the user by using the past history. That is, when an image file including multi-viewpoint image data is first read and the recommended parameter is not included in the header information of the file, refocus image data is generated without user instruction using history information. be able to. Further, by using the history information, it is possible to generate refocus image data according to the frequency of the subject that the user has focused on in the past. By generating refocus image data in advance without user instruction, when the user specifies the desired focus area, the user can display the desired refocus image without waiting for the refocus calculation time. There is a possible effect.
また、リフォーカス画像を表示中に次のリフォーカス画像を予測し、リフォーカス演算を実施することが可能となったことにより、演算リソースの利用効率が向上し、ハードウェア的なグレードアップ無しで処理速度が向上することと同様の効果を期待できる。 In addition, it is now possible to predict the next refocus image while displaying the refocus image and perform the refocus calculation, so that the use efficiency of calculation resources is improved and there is no hardware upgrade. The same effect as an improvement in processing speed can be expected.
更に、リフォーカス演算回数を重ねる度に、ユーザーの趣向をより明確に判定することができるので、使い込む毎にリフォーカス領域の予測精度が向上し、リフォーカス画像の切り換えの高速化が期待できる。 Furthermore, each time the refocus calculation is repeated, the user's preference can be determined more clearly, so that the prediction accuracy of the refocus area is improved every time it is used, and the switching speed of the refocus image can be expected to be increased.
また、本実施例では、多視点画像データが含まれる画像ファイルに、ユーザーが最後に指定したフォーカス位置を特定するパラメータ情報を埋め込んでいる。これにより、次回、画像ファイルを読み込んで、表示する際、ユーザーが最後に表示していた画像を、パラメータの再設定なしに表示することができる。これにより、ユーザーによるパラメータ設定の手間を省くことができ、本技術を組み込んだ装置の操作性が向上することにつながる。 In this embodiment, parameter information for specifying a focus position last specified by the user is embedded in an image file including multi-viewpoint image data. As a result, when the image file is read and displayed next time, the image that was last displayed by the user can be displayed without resetting the parameters. As a result, it is possible to save the user from setting parameters and to improve the operability of the apparatus incorporating the present technology.
なお、本実施例では、説明を簡単にする為、図4の例では3種類(人、風景、動物)の選択肢を例に挙げて説明したが、識別可能なものは選択肢に加えて構わない。更に、人の画像に関しても本実施例では、娘、息子、父、登録外人物というように、3人の登録者と登録外人物として説明したが、登録者を例えば、4人以上としても構わない。また、登録人物についても家族としたが、それに限定されるものではない。 In this embodiment, for the sake of simplicity, the example of FIG. 4 has been described with three types of options (people, scenery, and animals) as an example, but identifiable items may be added to the options. . Further, in the present embodiment, the image of a person has been described as three registrants and unregistered persons such as a daughter, son, father, and unregistered person, but the number of registrants may be four or more. Absent. Although the registered person is also a family, the present invention is not limited to this.
また、本実施例では画像ファイルのヘッダ情報に推奨パラメータが存在していない場合に、履歴情報に基づいてリフォーカス画像データを順次生成する例を説明した。しかしながら、画像ファイルのヘッダ情報に推奨パラメータが存在している場合においても、図2のステップS209の処理(すなわち図3で示す処理)のように、履歴情報に基づいてリフォーカス画像データを生成できる点に留意されたい。 Further, in this embodiment, an example in which refocus image data is sequentially generated based on history information when a recommended parameter does not exist in the header information of the image file has been described. However, even when the recommended parameter exists in the header information of the image file, the refocus image data can be generated based on the history information as in the process of step S209 in FIG. 2 (that is, the process shown in FIG. 3). Please note that.
実施例2は、現在の再生リフォーカスモード及び再生リフォーカスモードの履歴情報を予測要因に加えた例について説明する。 In the second embodiment, an example in which the current reproduction refocus mode and the history information of the reproduction refocus mode are added to the prediction factor will be described.
図2(実施例1)のステップS207の説明では、メモリに格納されている画像ファイルに推奨パラメータが存在しない場合、即ち再生モードでの表示が初めてである場合の処理について説明した。また実施例1のステップS207に関する説明で、リフォーカス画像の再生に関する過去の履歴情報に基づいてリフォーカス領域を予測し、リフォーカス演算が可能であることを説明した。 In the description of step S207 in FIG. 2 (Example 1), the process when the recommended parameter does not exist in the image file stored in the memory, that is, when the display in the reproduction mode is the first time has been described. In the description of step S207 in the first embodiment, it has been described that the refocus area can be predicted based on the past history information related to the refocus image reproduction and the refocus calculation can be performed.
実施例1との差異は、図2のステップS207、図3のステップS303で示すリフォーカス領域の予測要因(すなわち、過去の履歴情報)に現在の再生リフォーカスモードの情報および現在の再生リフォーカスモードの履歴情報を予測要因に加えた点にある。再生リフォーカスモードとは、ピントを合わせたい対象に応じてリフォーカス対象を切り替えることが可能な機能で、例えば、人、風景、動物モードが選択可能で、それぞれの被写体に適合したリフォーカス演算が可能な設定である。 The difference from the first embodiment is that the replay area prediction factor (ie, past history information) shown in step S207 of FIG. 2 and step S303 of FIG. The mode history information is added to the prediction factor. Playback refocus mode is a function that allows you to switch the refocus target according to the target you want to focus on.For example, you can select the human, landscape, or animal mode, and refocus calculation that suits each subject. This is a possible setting.
実施例1で説明した履歴情報は、過去の履歴全般の情報である。本実施例の現在の再生リフォーカスモードの履歴情報は、再生リフォーカスモードにおける履歴の情報である。ここでは、実施例1で説明した履歴情報を第1の履歴情報とし、現在の再生リフォーカスモードの履歴情報を第2の履歴情報と称する場合がある。 The history information described in the first embodiment is general history information. The history information in the current playback refocus mode in this embodiment is information on the history in the playback refocus mode. Here, the history information described in the first embodiment may be referred to as first history information, and the history information in the current reproduction refocus mode may be referred to as second history information.
実施例1では、過去のリフォーカス演算又は表示についての履歴情報のみを用いる例を説明した。本実施例では、この履歴情報に再生リフォーカスモードの情報を予測要因に加えたことで、リフォーカス領域と演算順位の予測精度向上を意図したものである。 In the first embodiment, an example in which only history information about past refocus calculation or display is used has been described. In the present embodiment, the information on the reproduction refocus mode is added to the history information as a prediction factor, so that the prediction accuracy of the refocus area and the calculation order is improved.
初めに、メモリに格納されているリフォーカス画像ファイルに推奨パラメータが存在しない場合、即ち本実施例に於ける1枚目のリフォーカス画像の表示までの処理について説明する。なお、次に図9を参照して説明する例では1枚目のリフォーカス画像の表示に際しては、前述の再生リフォーカスモードの履歴情報(第2の履歴情報)は使用しないが、後述する図10の処理のように第2の履歴情報も使用してもよい。 First, the process up to the display of the first refocus image in this embodiment when there is no recommended parameter in the refocus image file stored in the memory will be described. In the example described with reference to FIG. 9, the history information (second history information) in the above-described reproduction refocus mode is not used when displaying the first refocus image. The second history information may also be used as in the process of 10.
図9のステップS901からステップS906は図2の処理と同様であるのでここでの説明は省略する。図9のステップS910にて、全体制御部108が第1の履歴情報を参照して、過去のリフォーカス演算処理の頻度情報を読み出し、頻度の大きい順でリフォーカス演算順位を仮決定し、処理をステップS911へ移行する。この仮決定する処理は、例えば図4に示すフローで示す処理と同等の処理とすることができる。
Steps S901 to S906 in FIG. 9 are the same as the processing in FIG. In step S910 in FIG. 9, the
ステップS911では、カメラ等に於ける設定が、現在の再生リフォーカスモードを優先する優先設定であるか、過去の履歴情報(例えば、図5)優先する設定であるかを全体制御部108が判定する。ステップS910にて、現在の再生リフォーカスモード優先と判定された場合は、処理をステップS913へ移行する。過去の履歴優先と判定された場合は、処理をステップS912へ移行する。
In step S911, the
現在の再生リフォーカスモードの設定および過去の履歴情報のどちらを優先するかの設定は、ユーザーが、カメラ本体やPC等のビューア等に表示されるメニュー等で選択するのが一般的である。また、初期値としてどちらを優先するかを予め設定しておいてもよい。 Generally, the user selects the current playback refocus mode setting or the past history information setting by a menu or the like displayed on a camera body or a viewer such as a PC. Also, which of the priority values is set as the initial value may be set in advance.
ステップS911で再生リフォーカスモード優先であると判定された場合、ステップS913では、全体制御部108が、次の処理をする。すなわち、画像解析部112で検出された被写体の全リフォーカス対象領域に対して、現在の再生リフォーカスモードに適合する画像を含むリフォーカス対象領域があるか否かを判定する。再生リフォーカスモードに適合する画像が含まれていると判定された場合は、処理をステップS914へ移行する。一方、ステップS913で、リフォーカス対象領域に、現在の再生リフォーカスモードに適合する画像が含まれていないと判定された場合、処理をステップS912へ移行する。以後の処理は、ステップS911で現在の再生リフォーカスモードを優先しないと判定された場合と同様となる。
If it is determined in step S911 that the playback refocus mode has priority, in step S913, the
ステップS914では、全体制御部108が、ステップS913で、現在の再生リフォーカスモード設定に適合する画像が含まれていると判定された領域に対するリフォーカス演算順位(ステップS910で仮決定)を1順位あげる。なお、この1順位あげることは例示に過ぎず、順位の変動幅に制約は設けない。ステップS913の処理により、ステップS910で仮決定されたリフォーカス演算順位を変更する。そして、全リフォーカス対象領域のリフォーカス演算順位を確定し、確定したリフォーカス演算順位に従って、各リフォーカス演算対象領域のリフォーカス演算を実施し、リフォーカス画像データを生成する。
In step S914, the
ステップS914で、リフォーカス演算が完了したら、生成したリフォーカス画像データを一時記憶ファイルとして外部メモリ109などのメモリに記憶する。ステップS908では、メモリに記憶したリフォーカス画像データを読み出して、所定のディスプレイに表示して、処理をステップS909へ移行する。ステップS909、S920の処理は、図2の実施例1のステップS209,ステップS210と同様なので、説明を割愛する。
When the refocus calculation is completed in step S914, the generated refocus image data is stored in a memory such as the
次に、本実施例に於ける2枚目以降のリフォーカス処理について、主として、図10を用いて説明する。すなわち、図9のステップS909に引き続く処理を図10において説明する。図10では、第2の履歴情報を用いる場合がある。 Next, the second and subsequent refocus processing in the present embodiment will be described mainly with reference to FIG. That is, processing subsequent to step S909 in FIG. 9 will be described with reference to FIG. In FIG. 10, the second history information may be used.
図10で示すケースは、2枚目以降のリフォーカス演算を実施する場合のケースを想定している。すなわち、少なくとも過去に1回以上のリフォーカス演算を行い生成したリフォーカス画像データの表示履歴があり、リフォーカス演算又は表示に関するリフォーカス位置情報の履歴が残っている状態を想定している。なお、画像ファイルのヘッダ情報に推奨パラメータが含まれている場合には、その推奨パラメータをリフォーカス位置情報の履歴として扱うこともできる。本動作は、図1における全体制御部108がRAM102、FlashROM107、外部メモリ109などに記憶されているプログラムを読み出して実行することで行われる。
The case shown in FIG. 10 assumes a case where a refocus calculation for the second and subsequent sheets is performed. That is, it is assumed that there is a display history of refocus image data generated by performing at least one refocus calculation in the past, and a history of refocus position information regarding refocus calculation or display remains. When the recommended parameter is included in the header information of the image file, the recommended parameter can be handled as a history of the refocus position information. This operation is performed when the
ステップS1010で、全体制御部108はユーザーによるパラメータ選択の有無を判定し、パラメータ選択があったと判定された場合は、処理をステップS1050へ移行する。
In step S1010, the
ステップS1050では、全体制御部108は所定のメモリに記憶されている一時画像ファイルから、指定されたパラメータに適合するリフォーカス画像データを探索する。すなわち、指定されたパラメータを含むリフォーカス位置情報に関連付けられたリフォーカス画像データの検出を試みる。適合するリフォーカス画像データが検出された場合(すなわち、既に当該リフォーカス画像データを生成済みの場合)は、ステップS1052へ、検出されなかった場合は、ステップS1051へ処理を移行する。
In step S1050, the
ステップS1051では、全体制御部108はユーザーにより指定されたパラメータに基づいて、当該パラメータに対応する領域にフォーカスを合わせたリフォーカス演算を行いリフォーカス画像データを生成する。また、リフォーカス対象に関する位置情報、被写体の指定頻度等の履歴情報を更新して、処理をステップS1052へ移行する。
In step S <b> 1051, the
ステップS1052では、全体制御部108はステップS1050で検出された画像データ、又はステップS1051でリフォーカス演算して生成されたリフォーカス画像データを所定のメモリから読み出す。そして、所定のディスプレイへ表示した後、処理をステップS1060へ移行する。
In step S1052, the
ステップS1060では、カメラ、PC等のリフォーカス画像再生装置に関して、再生モードの終了操作、再生モードを除く他のモードへの移行操作、全リフォーカス候補のリフォーカス演算および表示の完了の3つの要因(再生モード終了要因)を判定する。 In step S1060, with respect to the refocus image playback device such as a camera or PC, three factors of the end operation of the playback mode, the transition operation to other modes except the playback mode, the refocus calculation of all refocus candidates, and the completion of display (Replay mode end factor) is determined.
ステップS1060の3つの判定要因に該当する操作が無かった場合は、全体制御部108は再生モード継続と判定し、処理をステップS1010へ移行して、前述の処理を繰り返す。ステップS1060の3つの判定要因に該当する操作があったと判定された場合は、全体制御部108は処理をステップS1070へ移し、再生モードの終了処理を実施する。
If there is no operation corresponding to the three determination factors in step S1060, the
ステップS1010で、前述のようにユーザーによるパラメータ選択が無かったと判定された場合は、全体制御部108は処理をステップS1011へ移行する。ステップS1011では、パラメータの選択が無い期間が、所定の時間を超過したか否かを判定し、超過と判定された場合は、本フローの処理を終了する。なおステップS1011で、一定時間内にパラメータ指定が無いと判定された場合、省電力等の観点からシステムの全機能を終了してもよいし、スリープモード等に入るように構成しても良い。
If it is determined in step S1010 that the user has not selected a parameter as described above, the
ステップS1011の判定で、パラメータ選択の無い期間が、所定の時間内であると判定された場合は、全体制御部108は処理をステップS1020へ移行する。なお、所定の時間とは、ユーザーによるパラメータの選択を待つ時間であると共に、ユーザーが次にリフォーカス表示を希望する領域の画像を予測し、予測された画像に対するリフォーカス演算し、生成された画像データをメモリに記憶する期間である。
If it is determined in step S1011 that the period without parameter selection is within a predetermined time, the
ステップS1020では、全体制御部108はリフォーカス対象画像の中に、予測に基づくリフォーカス画像生成候補(画像又は領域)が存在するか否かを判定する。すなわち、第1の履歴情報に基づいてフォーカス位置を合わせる領域が特定される被写体の候補が存在するか否かを判定する。候補が存在すると判定された場合は、全体制御部108は処理をステップS1030へ移行する。一方、ステップS1020に於いて、候補が無いと判定された場合は、全体制御部108は処理をステップS1021へ移行する。
In step S1020, the
ステップS1021では、現在カメラ、PC等のリフォーカス画像再生装置に設定に於ける現在のリフォーカス再生モードに適合するリフォーカスを合わせる被写体の候補を選択し、リフォーカス演算を実施して、処理をステップS1053へ移行する。 In step S1021, a candidate for a subject to be refocused that matches the current refocus playback mode set in the refocus image playback device such as the current camera or PC is selected, a refocus calculation is performed, and processing is performed. The process proceeds to step S1053.
ステップS1030では、全体制御部108は図9のステップS910での説明と同様に、過去のリフォーカス演算に用いた第1の履歴情報を読み出す。そして、その頻度順に従って、リフォーカス演算対象となる被写体の順位を仮決定し、処理をステップS1031へ移行する。この仮決定する処理は、例えば図4に示すフローで示す処理と同等の処理とすることができる。
In step S1030, the
ステップS1031では、全体制御部108はリフォーカス画像再生装置の現在の設定が、再生リフォーカスモード優先か否かを判定する。使用するモードとして、再生リフォーカスモードを優先するモードと、過去の第1の履歴情報を優先するモードとが存在する。これらの設定は、ユーザーがユーザーI/F106を介して設定してもよいし、デフォルト設定に従ってもよい。ステップS1031では、この設定されているモードがどちらを優先するモードとなっているかを判定する。
In step S1031, the
ステップS1031で再生リフォーカスモード優先と判定された場合は、全体制御部108は処理をステップS1033へ移行し、再生リフォーカスモードを優先しないと判定された場合は、処理をステップS1032へ移行する。図10における再生リフォーカスモード優先とは、現在の再生リフォーカスモード又は再生リフォーカスモードの履歴情報(第2の履歴情報)に基づいて、リフォーカス領域とその演算順位を予測するモードのことである。
If it is determined in step S1031 that the playback refocus mode is prioritized, the
ステップS1032では、ステップS1030で第1の履歴情報に基づいて決定した仮のリフォーカス演算順位に従って、リフォーカス対象の被写体の領域にフォーカスを合わせたリフォーカス演算を実施し、リフォーカス画像データを生成する。すなわち、仮のリフォーカス演算順位を、実際のリフォーカス演算順位として使用する。そして、処理をステップS1053へ移行する。 In step S1032, refocus calculation is performed by focusing on the area of the subject to be refocused according to the provisional refocus calculation order determined based on the first history information in step S1030, and refocus image data is generated. To do. In other words, the temporary refocus calculation order is used as the actual refocus calculation order. Then, the process proceeds to step S1053.
ステップS1033では、リフォーカス演算対象領域に於いて、現在の再生リフォーカスモードに適合する画像が候補の中にあるか否か、又は、再生リフォーカスモードの履歴情報(第2の履歴情報)に適合する画像が候補の中にあるか否かを判定する。いずれかが存在する場合は、処理をステップS1034へ移行し、いずれも存在しない場合は、処理をステップS1032へ移行する。すなわち、ステップS1033では、再生リフォーカスモードに適合する被写体を含むリフォーカス対象領域が、読み込んだ画像ファイルの多視点画像データに含まれているか否かを判定する。 In step S1033, in the refocus calculation target area, whether or not there is an image suitable for the current playback refocus mode, or the history information (second history information) of the playback refocus mode is displayed. It is determined whether there is a matching image among the candidates. If any exists, the process proceeds to step S1034. If none exists, the process proceeds to step S1032. That is, in step S1033, it is determined whether or not a refocus target area including a subject that is compatible with the playback refocus mode is included in the multi-viewpoint image data of the read image file.
ステップS1033に於いて、再生リフォーカスモードの履歴情報(第2の履歴情報)が存在するかを判定する。第2の履歴情報がある場合、全体制御部108はその頻度1位の再生リフォーカスモードから順番に、その再生リフォーカスモードに適合する被写体を含む領域を探索する。ステップS1033では、ステップS1030で仮決定した演算順位の高い領域から順番に頻度第1位である現在の再生リフォーカスモードに適合する領域を探索し、適合する領域が検出された場合は、処理をステップS1034へ移行する。
In step S1033, it is determined whether there is history information (second history information) in the playback refocus mode. When there is the second history information, the
当然頻度1位の再生リフォーカスモードに適合する領域の探索を終えたら、頻度2位の再生リフォーカスモードに適合する領域を探索するように、頻度順に探索が実施されるのは、言うまでもない。 Of course, when the search for the region suitable for the reproduction refocus mode with the first frequency is finished, it goes without saying that the search is performed in order of frequency so as to search for the region suitable for the reproduction refocus mode with the second highest frequency.
探索の結果、適合する画像が未検であった場合は、処理をステップS1032へ移行する。そして、既に説明したように、過去の第1の履歴情報から決定した仮のリフォーカス演算順位に従って、リフォーカス演算を実施し、全体制御部108は処理をステップS1053へ移行する。
As a result of the search, if a suitable image has not been detected, the process proceeds to step S1032. Then, as described above, the refocus calculation is performed according to the temporary refocus calculation order determined from the past first history information, and the
なお、再生リフォーカスモードには、前述したように、ユーザーの設定による現在の再生リフォーカスモードの場合と、再生リフォーカスモードの第2の履歴情報を用いる場合とがある。後者の場合は、複数種類の再生リフォーカスモードに対して、その頻度に応じた順位が付与されている。従って、ステップS1033では、この第2の履歴情報で決定された順位に従って、第1の履歴情報で仮決定された順位の領域に探索を実施する処理ということもできる。 As described above, the playback refocus mode includes the case of the current playback refocus mode set by the user and the case of using the second history information of the playback refocus mode. In the latter case, ranks corresponding to the frequencies are given to a plurality of types of reproduction refocus modes. Therefore, in step S1033, it can be said that the search is performed in the region of the order temporarily determined by the first history information in accordance with the order determined by the second history information.
一方、ステップS1033で現在の再生リフォーカス画像に適合する領域が検出された場合は、ステップS1034にてその検出された再生リフォーカスモードに適合する画像を含む領域のリフォーカス演算順位を変更(上げる)する処理を実施する。 On the other hand, if a region suitable for the current reproduction refocus image is detected in step S1033, the refocus calculation order of the region including the image suitable for the reproduction refocus mode detected is changed (increased) in step S1034. ) Is executed.
ステップS1034では、全体制御部108は、ステップS1033で検出された再生リフォーカスモードに適合する領域の演算順位をステップS1030で仮決定した演算順位に対して、n位上げる(nは任意の整数)。再生リフォーカスモードによって、nの値を変えても良い。具体的には、再生リフォーカスモードが、人(家族)、人(知人)、人(その他)、風景、動物とあった場合、家族を最優先として、自動的に演算順位を1位に順位アップ、友人は2ランクアップする等の処理が考えられるが、特に限定しない。
In step S1034, the
ステップS1034における再生リフォーカスモードに適合する画像を含む領域のリフォーカス演算順位の変更と、変更された順位に応じたリフォーカス演算が完了したら、全体制御部108は処理をステップS1053へ移行する。
When the change of the refocus calculation order of the region including the image conforming to the reproduction refocus mode in step S1034 and the refocus calculation according to the changed order are completed, the
ステップS1053では、実施例1でも説明したように、ステップS1034で実施したリフォーカス画像に関するパラメータ(リフォーカス画像の位置情報等)と、リフォーカス画像ファイルを外部メモリ109などに記憶する。そして、処理を再びステップS1010へ移行する。
In step S1053, as described in the first embodiment, the parameters related to the refocus image (refocus image position information and the like) executed in step S1034 and the refocus image file are stored in the
ステップS1053では、前述のステップS1021、ステップS1032で生成されたリフォーカス画像データについても同様の処理を実施し、処理をステップS1010へ移行する。 In step S1053, the same process is performed for the refocus image data generated in steps S1021 and S1032, and the process proceeds to step S1010.
再生リフォーカスモードを含む各種設定は、カメラ本体、PC上のソフトウェア等で設定(選択)することが可能である。例えば、カメラのダイヤルのようなメカニカルな選択方法、カメラ、PCのタッチパネル上の表示メニューから選択する等の方法が考えられる。 Various settings including the playback refocus mode can be set (selected) by the camera body, software on the PC, and the like. For example, a mechanical selection method such as a camera dial, a method of selecting from a display menu on a camera or a touch panel of a PC, and the like can be considered.
再生リフォーカスモードの第2の履歴情報(例えば、人モード、風景モードの頻度情報)は、実施例1で述べた第1の履歴情報(過去の頻度情報)と同様に、モード毎に履歴が更新(累積)され、履歴情報記憶部107の記憶内容も更新される。
Similar to the first history information (past frequency information) described in the first embodiment, the second history information in the reproduction refocus mode (for example, frequency information in the person mode and the landscape mode) has a history for each mode. It is updated (accumulated), and the stored contents of the history
以上、説明したように構成することによって、ユーザーが指定するリフォーカス画像の生成順序を予測し、ユーザーがリフォーカス領域を指定する以前に、リフォーカス演算を開始することが可能となる。 By configuring as described above, the generation order of the refocus image specified by the user can be predicted, and the refocus calculation can be started before the user specifies the refocus area.
本実施例は、実施例1の第1の履歴情報に、現在の再生リフォーカスモード又はその第2の履歴情報を加えたことにより、ユーザーの趣向、領域選択の予測精度の更なる向上を意図したものである。また、ユーザーがパラメータ選択を行っていない期間を利用して、予測された領域のリフォーカス演算を実施して、外部メモリ109などに格納することにより、パラメータ指定からリフォーカス画像表示までの時間短縮も期待したものである。
This embodiment intends to further improve the user's preference and prediction accuracy of region selection by adding the current playback refocus mode or its second history information to the first history information of the first embodiment. It is a thing. In addition, using the period during which the user has not performed parameter selection, refocus calculation of the predicted area is performed and stored in the
前述のように予測され、リフォーカス演算されて生成されたリフォーカス画像データは、画像の位置情報をヘッダとして付加した形式(例えば図7参照)で、外部メモリ109やネットワーク上の記憶装置に記憶される。
The refocus image data predicted and generated by the refocus calculation as described above is stored in the
図10のフローチャートでは、表現を省略したが、実際のリフォーカス再生装置では、パラメータが指定されたら、その時点での処理を中断して、処理をステップS1051へ強制移行するのが理想的である。 Although the expression is omitted in the flowchart of FIG. 10, in an actual refocus playback apparatus, when a parameter is designated, it is ideal to interrupt the process at that point and forcibly shift the process to step S1051. .
実施例1、2では、リフォーカス画像を生成する際に、焦点を合わせる(以下合焦)対象に着目した場合の例を示した。しかし、リフォーカス画像を生成する際には、焦点を合わせない(以下非合焦)対象に着目した場合の方がユーザーの意図をよく表現できる場合も考えられる。 In the first and second embodiments, an example in which attention is focused on an object to be focused (hereinafter referred to as in-focus) when generating a refocus image has been described. However, when generating a refocus image, it may be possible to express the user's intention better when focusing on an object that is not focused (hereinafter referred to as non-focused).
現行の画像処理装置では、画像表示時にリフォーカス画像データを生成する場合、非合焦状態にさせたい場所を簡便に指定する方法はない。例えば、前述の特許文献2の技術は、被写体が複数の場合はパンフォーカスによって複数の被写体にフォーカスを合わせるものである。しかし合焦した複数の被写体から特定の被写体のみ合焦状態から外したい場合に、的確に指示して一部の被写体を非合焦状態にすることはできなかった。したがって、特定の被写体を合焦状態から外した画像を簡単に生成・表示することもできないという問題も存在する。
In the current image processing apparatus, when refocus image data is generated at the time of image display, there is no method for simply designating a place to be brought out of focus. For example, the technique disclosed in
本実施例では、非合焦状態にさせたい場所の指定に基づき特定の被写体を合焦から外した画像を生成する例、及び非合焦状態にさせたい場所を簡便に指定する方法に関する例を示す。 In the present embodiment, an example of generating an image in which a specific subject is out of focus based on designation of a place where the in-focus state is desired, and an example of a method for simply designating a place where the subject is desired to be out of focus. Show.
[画像処理装置のハードウェア構成の概観]
実施例3の画像処理装置のハードウェア構成を図1、及び図11、図12、図13などを用いながら詳細に説明する。なお、図1に関しては、第1の実施例と共通であるので、その詳細な説明は省略する。
[Overview of hardware configuration of image processing device]
A hardware configuration of the image processing apparatus according to the third embodiment will be described in detail with reference to FIGS. 1, 11, 12, and 13. Since FIG. 1 is common to the first embodiment, a detailed description thereof will be omitted.
図11は多眼カメラ撮像部101の外観を示す図である。
FIG. 11 is a diagram illustrating an appearance of the multi-lens
図11に示すように、多眼カメラ撮像部101の正面には複数の撮像部1101−1109が配置されている。ここでは、撮像部1101−1109は、正方格子状に均等に配置され、それら撮像部の上下軸、左右軸、光軸はすべて同じ方向である。
As shown in FIG. 11, a plurality of imaging units 1101-1109 are arranged in front of the multiview
ユーザーの撮像指示により、撮像部1101−1109はそれぞれ、撮像レンズや絞りなどを介して撮像デバイス上に結像された被写体の光情報に相当するアナログ信号を撮像素子から取り出す。そして、アナログ信号をアナログ-ディジタル変換し、さらにデモザイキングなどの画像処理を施した画像データの集合を多視点画像データとして出力する。 In response to a user's imaging instruction, each of the imaging units 1101-1109 extracts an analog signal corresponding to the optical information of the subject imaged on the imaging device via an imaging lens, a diaphragm, or the like from the imaging element. Then, the analog signal is subjected to analog-digital conversion, and a set of image data subjected to image processing such as demosaicing is output as multi-viewpoint image data.
このような多眼カメラ撮像部101により、同一の被写体を複数の視点位置から撮像した画像データ群を得ることができる。ここでは撮像部の数が9個の例を示すが、複数の撮像部があれば本実施例を適用することが可能であり、撮像部の数は任意である。また、撮像部の配置は、正方格子状に均等な配置である必要はなく、撮像部の配置も任意である。例えば、放射状や直線状に配置してもよいし、全くランダムな配置でもよい。
By such a multi-lens
[多視点画像データの画像データフォーマット]
実施例1の図8に示した例では、位置情報存在フラグ805は、画像ファイルにリフォーカス位置情報が存在するか否かを示す1ビットの情報である例を主として説明した。本実施例では、位置情報存在フラグ805は、リフォーカス位置情報によって特定される位置の領域が合焦対象か非合焦対象かを示す多値をとってもよい。例えば、図12(a)に示すような構成をとることも可能である。図12(a)において、リフォーカス位置情報1203は、図8のリフォーカス位置情報803に対応する。図12(a)においては、位置情報存在フラグ1205はチェイン情報1210と属性情報1220との2つのフィールドのフラグによって構成される。チェイン情報1210は、チェイン情報1210のフラグの後に続くリフォーカス位置情報が有効であるか否かを示すと共に、図12(a)で示す1210から1209までの一連のリフォーカス位置情報のまとまりが繰り返し続くかどうかを示している。例えば、チェイン情報1210が1である場合、それに続く一連の属性情報1220、位置情報1206〜1209までの情報は有効な情報である。そして、当該一連のリフォーカス位置情報のまとまりの更に後ろに別のリフォーカス位置情報のまとまりが存在することを示している。属性情報1220は、その属性情報1220に続く位置情報1206から1209のフィールド情報で示している位置情報の属性を示す。例えば、属性情報1220が0である場合、その属性情報1220に続く位置情報1206から1209のフィールド情報は、焦点を合わせるべき位置(合焦点位置)を示す情報として扱われる。一方、属性情報1220が1である場合、その属性情報1220に続く位置情報1206から1209のフィールド情報は、焦点を外して、ぼかすべき対象が存在する位置(非合焦点位置)を示す情報として扱われる。つまり、属性情報1220は、合焦の状態を示す合焦状態データともいえる。
[Image data format of multi-viewpoint image data]
In the example shown in FIG. 8 of the first embodiment, the position
図12(b)に位置情報存在フラグ1205に多値フラグを使用した場合の具体例を示す。図12(b)は図8のリフォーカス位置情報1203の位置に図12(a)で示すリフォーカス位置情報のフィールドが4つ存在する場合に、当該フィールドを抜き出したものである。チェイン情報1210a〜cは1であるので、それぞれ1203a、1203b、1203cのリフォーカス位置情報は有効な情報である。一方、チェイン情報1210dは0であるので、1203dのリフォーカス位置情報は無効の情報であり、この1203dをもってリフォーカス位置情報のフィールドは終了し、次に図8に示す多視点画像ヘッダ情報810が続くことを示している。また、属性情報1220aおよび1220bは0であるので、1203a、1203bは合焦点についての位置情報を持っていることを示している。この場合、焦点を合わせるべき対象が2か所に分かれて存在していることを示している。一方、属性情報1220cは1であるので、1203cではぼかすべき対象の位置である非合焦点について位置情報を示している。つまり、図12(b)に示す多値フラグを有する例では、2つの合焦点と1つの非合焦とを示す3つの有効な位置情報を有する例を示している。
FIG. 12B shows a specific example when a multi-value flag is used for the position
[リフォーカス演算部103の構成例と処理の流れ]
図13のブロック図を用いてリフォーカス演算部103の機能構成例と処理の流れを説明する。なお、図13においては、長方形の枠が処理モジュールを表し、角丸長方形が内蔵SRAMなどによって構成されるデータバッファを表している。
[Configuration Example of
A functional configuration example of the
本実施例では、データバッファはリフォーカス演算部内部に置かれることを想定しているが、場合によっては、データ入力部/出力部を介してRAM102などを用いることも可能である。また、本実施例では、リフォーカス演算部103内部の処理モジュールが、リフォーカス演算部コントローラ1301の指示に基づき各処理を実行していくことを前提としている。なお、リフォーカス演算部コントローラ1301からの指示を示す制御信号は図示していない。しかしながら、以下に示す処理全体を一つもしくは複数のCPUを用いて画像処理プログラムを実行することによっても実現は可能である。
In this embodiment, it is assumed that the data buffer is placed inside the refocus calculation unit, but in some cases, the
リフォーカス演算部コントローラ1301の指示を受け、データ入力部1302は、RAM102または外部メモリ109などから撮像データおよび撮像データを撮像した装置(例えば多眼カメラ撮像部101)の情報や撮像情報を示す撮像付随情報を入力する。ここで、例えば図8における多視点画像ヘッダ情報810が撮像情報に相当する。また図8の多視点画像データ804が撮像データに対応する。入力されたデータの内、撮像付随情報はバッファ1311に、撮像データはバッファ1312に格納される。この場合の、撮像データは、複数の撮像部(例えば多眼カメラ撮像部101の撮像部1101〜1109)によって撮像された複数の画像データを含む。
In response to an instruction from the refocus
また、バッファ1311に格納される撮像付随情報には、前述したように個々の撮像部の撮像情報以外に、各撮像部の撮像位置(相対的な位置関係)などが含まれる。
Further, the imaging accompanying information stored in the
更に、必要に応じて、ユーザー指示情報が同じくデータ入力部1302から入力される。このユーザー指示情報は、ユーザーがリフォーカス画像を生成するにあたって特に指示したい内容、例えば、焦点を合わせたい合焦対象や、合わせたくない非合焦対象等の情報が含まれる。例えば、図12におけるリフォーカス位置情報1203などがユーザー指示情報に該当する。
Further, user instruction information is similarly input from the
処理に必要なデータの取り込みが終了すると、リフォーカス演算部コントローラ1301の制御に従い、フォーカス座標取得部1304は、基準の画像データをバッファ1312から入力する。フォーカス座標取得部1304は、バッファ1313に格納されたユーザー指示情報に従い表示画面上でフォーカスを合わせる位置等を示すフォーカス座標情報を出力する。フォーカス座標情報はバッファ1315に保存される。
When the acquisition of data necessary for processing is completed, the focus coordinate
なお、基準の画像データはバッファ1312に格納された撮像データである複数の画像データのうちの一つであり、複数の画像データのどれでもよい。本実施例では、多眼カメラ撮像部101の撮像部1101〜1109のうち、中央に位置する撮像部1105によって撮像された画像データを基準の画像データとする。
Note that the reference image data is one of a plurality of pieces of image data that is imaging data stored in the
次いでリフォーカス演算部コントローラ1301の制御により、距離推定部1303は、バッファ1312から複数の画像データを入力する。また距離推定部1303は、バッファ1311から撮像付随情報を入力する。そして、距離推定部1303は、複数の画像データと撮像付随情報とに基づいてステレオマッチングにより撮像シーンのデプス値を推定して距離画像データを生成する。生成された距離画像データはバッファ1314に格納される。
Next, the
フォーカス座標情報と距離画像との生成が完了すると、リフォーカス演算部コントローラ1301の制御により、仮想ピント面生成部1305は、フォーカス座標情報と、距離画像データと、ユーザー指示情報とを入力して、ピント面情報を生成する。
When the generation of the focus coordinate information and the distance image is completed, the virtual focus
ピント面情報とは、撮像時のカメラと焦点を合わすべき被写体との位置等を3次元空間的にとらえるための情報であり、カメラとピント面との距離、ピント面の形状、被写界深度情報などによって構成される。ピント面情報はバッファ1316に保存される。
The focus plane information is information for capturing in three dimensions the position of the camera and the subject to be focused at the time of imaging, such as the distance between the camera and the focus plane, the shape of the focus plane, and the depth of field. It consists of information. The focus plane information is stored in the
最後に、リフォーカス演算部コントローラ1301の制御により、画像合成部1306は、複数の画像データと、撮像付随情報と、距離画像データと、ピント面情報とをそれぞれバッファ1312、1311、1314、1316から読み出す。そして画像合成部1306はリフォーカス画像データを生成する。
Finally, under the control of the refocus
リフォーカス画像データはバッファ1317に一旦保存された後、データ出力部を介してリフォーカス演算部103から出力され、RAM102や外部メモリ109に格納される。また、場合によってはグラフィックプロセッサ104を介してディスプレイ105に対して表示されたりする。
The refocus image data is temporarily stored in the
[非合焦対象を指示した場合の処理の流れ]
図1、図12、図13と図14のフローチャート、及び図15、16を用いて、非合焦対象を指示した場合の処理の流れを説明する。図14のフローチャートは、全体制御部108がユーザー指示情報の入力を受けてどのような処理の指示をリフォーカス演算部103をはじめとする各モジュールに対して行うかを示したものである。
[Processing flow when an out-of-focus target is specified]
The flow of processing when an in-focus target is instructed will be described with reference to the flowcharts of FIGS. 1, 12, 13 and 14, and FIGS. The flowchart of FIG. 14 shows what processing instruction is given to each module including the
図15、16は画像処理を行う対象を撮像した際の撮像装置と撮像被写体との位置関係を説明する図である。また、撮像画像がディスプレイ105でどのように表示されているか、及びディスプレイ105上に設置されるタッチパネル上でどのような指示がなされたかを説明するものである。
FIGS. 15 and 16 are diagrams illustrating the positional relationship between the imaging device and the imaging subject when an object to be subjected to image processing is imaged. In addition, it explains how the captured image is displayed on the
図15(a)は図15(b)に示される画像を撮像した時の多眼カメラ撮像部101と撮像被写体との位置関係を上空から見下ろした様子を示している。多眼カメラ撮像部101の画角は、多眼カメラ撮像部101から斜めに伸びる1510、1511の2本の線によって示され、その範囲内の被写体である、人物A、B、C、Dが山や木と一緒に撮像されている。また、図15(b)は、ディスプレイ105に表示されたこの画像の撮像時の初期画像である。
FIG. 15A shows a state where the positional relationship between the multi-lens
ここで、まず図14のステップS1401からS1403までとステップS1414、S1415を用いて、図15(b)の画像が表示されるまでの処理を説明する。 Here, first, the processing until the image of FIG. 15B is displayed will be described using steps S1401 to S1403 and steps S1414 and S1415 of FIG.
図14のステップS1401において、画像の表示が指示されると、全体制御部108は、保存されている多視点画像データのリフォーカス位置情報1203が有効か否かを判定する。全体制御部108は、リフォーカス位置情報が有効と判定した場合は、ステップS1402に処理を進める。ステップS1402において、全体制御部108は、そのリフォーカス位置情報に適合する一時画像ファイルが存在するかを判定する。全体制御部108は、一時画像ファイルが存在すると判定した場合、ステップS1403に処理を進める。ステップS1403において、全体制御部108は、その一時画像ファイルの画像を外部メモリ109などから読み出し、グラフィックプロセッサ104に送り込み、ディスプレイ105のGUI画面上に表示する。
In step S1401 of FIG. 14, when an image display is instructed, the
ステップS1402において、全体制御部108は、一時画像ファイルが存在しないと判定した場合、ステップS1415に処理を進める。ステップS1415において、全体制御部108の制御により、リフォーカス演算部103は、リフォーカス位置情報に基づき仮想ピント面や被写界深度を設定した上で画像データを生成する。次に、ステップS1403において、全体制御部108は、ステップS1415によって生成された画像データによって表される画像を表示する。
If the
一方、ステップS1401において、全体制御部108は、リフォーカス位置情報が有効ではないと判定した場合には、ステップS1414に処理を進める。ステップS1414において、全体制御部108は、実施例1の図4で示したようにしてまずリフォーカスすべき対象を検出し、その対象を含む位置をリフォーカス位置情報に追加する。次に、全体制御部108は、ステップS1415において画像を生成し、ステップS1403において、画像を表示する。
On the other hand, if the
なお、ステップS1401においてリフォーカス位置情報が無効であると判定した場合には、全体制御部108は、実施例1の図4で示す処理を行わずに、単に基準となる画像データによって表される画像を表示する処理を行っても良い。この場合、以下で説明する例では、基準となる画像データによって表される画像が、図15(b)であるものとする。
If it is determined in step S1401 that the refocus position information is invalid, the
ステップS1403で表示されたGUI上の画像は図15(b)である場合について以下で説明を続ける。ここで、図15(b)中に太線で示された物体は合焦対象となっていることを示している。この場合、人物A、B、C、DとCの後ろの木が合焦対象となって表示されている。これは、多視点画像データのリフォーカス位置情報において、人物A,B,C,Dが合焦対象であると指定されたことによる。本実施例では、図15(a)に示されるように、仮想ピント面が人物A及びBを通る線分1501の位置に設定される。更に人物C及びDが合焦範囲内に入るように、被写界深度が矢印1502で示される範囲となるように設定が行われる。そして仮想ピント面と被写界深度に基づき表示画像が生成されている。よって、結果的に多眼カメラ撮像部101から遠い側の線分1503と近い側の線分1504との間の物体に焦点の合った画像がディスプレイ105に表示されることになる。この時Cの後ろの木も被写界深度1502の範囲内に入っているので、これにも焦点が合っている画像が表示されることになる。ここで線分1501、1503,1504は直線で表わされているが、実際には多眼カメラ撮像部101からの距離に応じた緩い弧を描いている。本実施例では簡易に表現するためにこの表現形式を用いる。
The description on the case where the image on the GUI displayed in step S1403 is FIG. Here, an object indicated by a thick line in FIG. 15B indicates that it is a focusing target. In this case, the trees behind the persons A, B, C, D and C are displayed as in-focus objects. This is because the persons A, B, C, and D are designated as in-focus objects in the refocus position information of the multi-viewpoint image data. In this embodiment, as shown in FIG. 15A, the virtual focus plane is set at the position of a
次いで、非合焦状態にさせたい場所の指定に基づき特定の被写体を合焦から外した画像データを生成する方法、及び非合焦状態にさせたい場所を簡便に指定する方法に関して図14のステップS1404以降を用いて説明する。 Next, the steps of FIG. 14 relate to a method for generating image data in which a specific subject is out of focus based on designation of a place to be brought into the out-of-focus state, and a method for simply designating a place to be brought into the out-of-focus state. This will be described using S1404 and subsequent steps.
ステップS1403によってディスプレイ105に画像が表示されると、ステップS1404において、全体制御部108は、ユーザーによるパラメータ選択待ちになる。本実施例では、ユーザーI/F106として、ディスプレイ105上に設置されるタッチパネルを利用するとする。次いでステップS1405において、全体制御部108は、ユーザーが画面上の点を指で触ってパラメータ(この場合は合焦・非合焦の変更を意図する位置)を選択したか否かを判定する。ステップS1405において、全体制御部108は、ユーザーがパラメータを選択したと判定した場合には、ステップS1406に処理を進める。ステップS1406において、全体制御部108は、ステップS1405の選択行為として、パラメータを選択するために画面上の特定の点を押している時間が一定以上連続したか(長押しされたか)を判定する。すなわち、ユーザーが画像上の領域を一定時間以上指示したかを判定する。本実施例では長押しするという行為は選択した点を非合焦にするという指示であるとする。例えば、本実施例では3秒以上押し続けられた場合、長押しされたと判定するとする。なおこの時間の基準は一例であり、必要に応じて時間は変更されてもよい。ステップS1406において、全体制御部108は、長押しされたと判定するとステップS1407に処理を進める。ステップS1407において、全体制御部108は、長押しによって指定された位置が、表示している多視点画像データのリフォーカス位置情報1203に含まれるか否かを判定する。ここで、長押しによって指定された位置が含まれるかどうかの判定は、指定された位置が有効なリフォーカス位置情報の位置情報1206〜1209で表現される矩形内部にあるか否かで判定される。
When an image is displayed on the
ステップS1407において、全体制御部108は、長押しによって指定された位置がリフォーカス位置情報に含まれていないと判定した場合、ステップS1408に処理を進める。ステップS1408において、全体制御部108は、ステップS1405においてユーザーの選択した位置を中心とする領域を新たに表現するためのリフォーカス位置情報のエントリーを作成する。この時、新たに作られる属性情報1220のフィールドは、非合焦指示を意味する1に設定される。
In step S1407, when the
次いでS1409において、全体制御部108は、ユーザーが指定した位置を内部に含んだ非合焦の範囲を決定するための領域認識を行う。この領域認識は実施例1で説明したように画像解析部112で行われる。その領域認識の結果に基づき、非合焦とするべき範囲が新規に作成されたリフォーカス位置情報の位置情報1206〜1209に設定される。
In step S <b> 1409, the
ステップS1407において、全体制御部108は、長押しによって指定された位置が有効なリフォーカス位置情報の位置情報1206〜1209で表現される矩形内部に含まれていると判定した場合、ステップS1418に処理を進める。ステップS1418において、全体制御部108は、必要に応じてリフォーカス位置情報の属性情報1220のフィールドを、非合焦指示を意味する1に設定する。
In step S1407, if the
ここでは、合焦、非合焦の情報とそのリフォーカス位置の情報とを、多視点画像を保存する画像データフォーマットの一部として保存する例を示した。一方、同じタイミングで合焦、非合焦の情報と、リフォーカス位置を示す情報に基づいて画像中から切り出した画像情報などとを組み合わせて、個別の多視点画像データとは独立したリストとして保存し、利用することも可能である。例えば、図18に示す形式のリストを作成し保存することが考えられる。このリストの詳細と利用に関しては、後述の実施例4にて説明する。 Here, an example is shown in which in-focus information and out-of-focus information and information on the refocus position are stored as part of an image data format for storing a multi-viewpoint image. On the other hand, in-focus and out-of-focus information at the same timing and image information cut out from the image based on information indicating the refocus position, etc. are combined and saved as a list independent of individual multi-viewpoint image data However, it can also be used. For example, it is conceivable to create and save a list of the format shown in FIG. Details and use of this list will be described in Example 4 described later.
次に、ステップS1410において、全体制御部108は、長押しされていた時間の長さに応じて、非合焦強度を指定する情報を、表示している多視点画像データの多視点画像ヘッダ情報810に追加する。多視点画像ヘッダ情報810の詳細なフィールドの中身は記述していないが、この非合焦強度を指定する情報は、リフォーカス位置情報における非合焦を示すフィールドの位置と、ボケさせる強度とを組みにして保存される。ボケさせる強度は長押しされていた時間が長いほど強く設定されるが、ボケの強度の最大値まで指定されると、それ以上長く押されても強度は最大値から更新されない。
Next, in step S1410, the
次いで、ステップS1411において、リフォーカス演算部103は、更新後のリフォーカス位置情報に基づき、仮想ピント面の変更及び被写界深度の変更などを行う。そして変更後の仮想ピント面と被写界深度などに基づき画像データを生成する。ステップS1412において、全体制御部108は、ステップS1411で生成された画像を表示する。この非合焦をするための仮想ピント面の変更および被写界深度の変更がどのように行われるかの例を図15及び図16、図17を用いて示す。
Next, in step S1411, the
図15(b)において、人物Cが非合焦の対象として選択され、ディスプレイ105上でCの文字が描かれている位置をユーザーが指で3秒以上継続して長押ししたとする。全体制御部108はその状況を監視し、新たなリフォーカス位置情報を含んだデータをリフォーカス演算部103に渡す。リフォーカス演算部103では、先に示した図14のフローに基づいて仮想ピント面と被写界深度とを決定する。同様にして人物Dを非合焦の対象として指示することもできる。
In FIG. 15B, it is assumed that the person C is selected as an out-of-focus object, and the user continuously presses the position where the letter C is drawn on the
例えば、人物C及び人物Dが合焦対象から外され、人物A、Bのみに焦点が合った絵を作ることが要求された場合を考える。本実施例においては、人物A,Bは図15(b)表示時の仮想ピント面1501上にあり、人物C及びDは仮想ピント面から少し離れたところに位置している。このような場合、仮想ピント面は変えずに、被写界深度を狭く調整することにより、人物C及び人物Dが合焦対象から外すことが可能である。その場合、本実施例では、図16(a)に示されるように、仮想ピント面は人物A及びBを通る線分1501の位置から動かさず、人物C、Dが被写界深度の範囲から外れるように被写界深度が矢印1602で示される範囲となるように設定が行われる。そして、このような仮想ピント面と被写界深度とに基づき表示画像が生成される。すなわち、点線1603と点線1604との間の物体にピントの合った画像(図16(b))が生成され、ステップS1412においてディスプレイ105に表示されることになる。図16(b)では、人物C及びDが非合焦状態になったことを太い点線で示している。
For example, consider a case where the person C and the person D are excluded from the focus targets and it is required to create a picture in which only the persons A and B are in focus. In this embodiment, the persons A and B are on the
また、人物C、Dの両方ではなく、人物Cのみが合焦対象から外され、人物A、B、Dに焦点が合った絵を作ることが要求されることも考えられる。その場合、人物Cは他にピントを合わすべき人物A,B,Dに比べて多眼カメラ撮像部101に近いところにあるため、ピント面を後方にずらすことによって対応が可能である。そのような場合を図17を用いて説明する。この例では、図17(a)に示されるように、仮想ピント面が人物A及びBを通る線分1501の位置からそれより後方の点線1701の位置に設定される。更に人物Cが被写界深度の範囲から外れるように被写界深度が矢印1702で示される範囲となるように設定が行われる。このような仮想ピント面と被写界深度とに基づき表示画像が生成される。すなわち、点線1703と点線1704の間の物体にピントの合った画像図17(b)が生成され、ステップS1412においてディスプレイ105に表示されることになる。
It is also conceivable that only the person C, not both the persons C and D, is excluded from the focus target, and it is required to make a picture that focuses on the persons A, B, and D. In this case, since the person C is closer to the multi-lens
図17(b)では、人物Cが非合焦状態になったことを太い点線で示している。なお、この例の場合人物Dの後ろの木が新たに合焦対象に入っているが、本実施例では人物以外の物体に関しては合焦状態に関して特に制限を行っていないため、問題となるものではない。 In FIG. 17B, the thick dotted line indicates that the person C is out of focus. In this example, the tree behind the person D is newly included in the focus target. However, in the present embodiment, there is no particular restriction on the focus state with respect to objects other than the person, which is problematic. is not.
次に、図14に戻りフローチャートの説明を続ける。 Next, returning to FIG. 14, the description of the flowchart will be continued.
ステップS1412においてディスプレイ105上の画像が更新されると、ステップS1413において、全体制御部108は、ユーザーの指定が更に継続しているかを判定する。ユーザーの指定が更に継続しているとは、長押しがまだ継続していることを意味する。ステップS1413において、全体制御部108は、長押しがまだ継続していると判定した場合には、ステップS1410に戻り、その指定行為の継続時間に応じて非合焦強度を変更し、必要に応じて画像を作り直す。ステップS1413において、全体制御部108は、長押しが継続していないと判定した場合には、ステップS1404に戻り、ユーザーのパラメータ選択待ちとなる。続くステップS1405において、全体制御部108は、ユーザーがパラメータを選択しないと判定した場合、ステップS1420に処理を進める。ステップS1420において、全体制御部108は、リフォーカスの表示処理の終了指示があるかを判定する。ステップS1420において、全体制御部108は、リフォーカスの表示処理の終了指示がないと判定した場合は、ステップS1404に戻り更にユーザーによるパラメータ選択待ちを継続する。
When the image on the
ステップS1420において全体制御部108は、リフォーカス表示の終了指示があると判定した場合、この表示動作を終了して一連の動作を終了する。なお、このリフォーカス表示の終了指示は、ユーザーが明示的にボタンなどのユーザーIF等を選択することや、一定の時間以上ユーザーからの指示がなかった場合のタイムアウトに基づく指示などによって行うことが可能である。
If it is determined in step S1420 that there is an instruction to end the refocus display, the
ステップS1406において、ユーザーからの指示がタッチパネル上であったが長押しでなかった場合には、全体制御部108は、ステップS1416に処理を進める。ステップS1416において、全体制御部108は、ユーザーの近傍箇所の選択が一定時間内に複数回あるか否かを判定する。本実施例では、一定の時間内(例えば2秒以内)に一定の距離内(例えばタッチパネル上の距離5mm以内)にある箇所が複数回選択された場合には、その位置を合焦させる対象に加える指示であると解釈することにする。ステップS1416において一定時間内に複数回の選択があったと判定した場合、全体制御部108は、S1417において、ユーザーの選択した位置をリフォーカス位置情報に合焦対象として追加する。ステップS1417における内容はほぼステップS1407からS1409までの工程と同一であり、属性情報1220のフィールドに設定される値が合焦指示を意味する0に設定されるのが主に異なる点である。なお、ステップS1416において一定時間内に複数回の選択があったと判定しなかった場合には、ステップS1419に示すように、パラメータや画像の変更が行われることはなく、全体制御部108は、ステップS1404に処理を進める。
In step S1406, if the instruction from the user is on the touch panel but not a long press, the
なお、本実施例では、ユーザーの焦点を合わせない対象を指定する方法として、タッチパネルを用いた表示画像上の長押しという手法を用いたが、それ以外の手法によって指定することも可能である。例えば、タッチパネル画面上に予め非合焦に設定するというボタンを設け、そのボタンに触った後に画面上で指示した箇所を非合焦設定箇所と認識してもよい。また、タッチパネル画面上でオブジェクトを指定するとメニューが出て合焦/非合焦の指示をするようにしてもよい。 In the present embodiment, as a method for designating a target on which the user is not focused, a method of long pressing on a display image using a touch panel is used. However, designation by other methods is also possible. For example, a button for setting in-focus in advance may be provided on the touch panel screen, and a location pointed on the screen after touching the button may be recognized as a non-focus setting location. Further, when an object is specified on the touch panel screen, a menu may be displayed to instruct in-focus / in-focus.
また、タッチパネルを用いない場合、マウス等で指示を出すことも考えられる。例えば、アプリケーションで右クリックを非合焦指示と結びつけることによって、指示を出すことも考えられる。その場合、右クリックの長押し指示や、右クリックの複数回指示などによって意味を持たせることも可能である。 In addition, when a touch panel is not used, it may be possible to give an instruction with a mouse or the like. For example, it is possible to issue an instruction by linking a right click with an out-of-focus instruction in an application. In that case, it is also possible to give meaning by a long-press instruction for a right click or a plurality of instructions for a right click.
上記のようにすることによって、撮像後にユーザーの好みに応じて焦点を合わせる位置を変えた画像を表示することが可能であるシステムに置いて、焦点を合わせない対象を簡便に指定することが可能となる。また、焦点を合わせない指定に基づき、特定の被写体を合焦から外した画像を作成することが可能となる。 By doing the above, it is possible to easily specify the target that is not focused in the system that can display the image with the focused position changed according to the user's preference after imaging It becomes. Further, it is possible to create an image in which a specific subject is out of focus based on a designation for not focusing.
従って、ユーザーが意図しない合焦状態を解消し、特定の被写体だけを選んで非合焦状態にすることが可能になる。結果として、ユーザーの望む対象にのみ合焦させた画像を簡便に生成、表示することが可能になる。 Therefore, it is possible to eliminate the in-focus state unintended by the user and select only a specific subject to make it out of focus. As a result, it is possible to easily generate and display an image focused on only the target desired by the user.
実施例3では焦点を合わせる対象、焦点を合わせない対象を指定し、指定に基づいたリフォーカス画像を生成する方法を示した。実施例3における焦点を合わせる対象、焦点を合わせない対象を個々の画像データと別に記憶、管理することで、例えば特定の人物に焦点を合わせたリフォーカス画像を一括で生成できればユーザーの操作の負荷を軽減することが可能である。なぜならば、現行の画像処理装置では複数の視点から撮影した画像を合成する際のピント面を生成する際に、画像毎にユーザーの操作に応じて操作を行う必要があるため、ユーザーにとって煩わしい場合があるからである。本実施例では焦点を合わせる対象、焦点を合わせない対象を記憶、管理する手法の例を示す。以降では、焦点を合わせる対象を合焦対象、焦点を合わせない対象を非合焦対象と記述する。 In the third embodiment, a method of generating a refocus image based on designation by designating an object to be focused and an object not to be focused is shown. By storing and managing the in-focus object and the out-of-focus object separately from the individual image data in the third embodiment, for example, if a refocus image focused on a specific person can be generated in a batch, the user's operation load Can be reduced. This is because the current image processing apparatus needs to perform operations according to the user's operation for each image when generating a focus plane when combining images taken from a plurality of viewpoints. Because there is. In this embodiment, an example of a technique for storing and managing a target to be focused and a target to be unfocused will be described. Hereinafter, an object to be focused is described as an in-focus object, and an object that is not focused is described as an out-of-focus object.
実施例4のハードウェア構成の例を図1、図11、及び図13に示す。図1、図11、及び図13については実施例1、実施例3と共通であるため詳細な説明は省略する。 Examples of the hardware configuration of the fourth embodiment are shown in FIGS. 1, 11, and 13. Since FIG. 1, FIG. 11 and FIG. 13 are common to the first embodiment and the third embodiment, detailed description thereof is omitted.
[データフォーマットとデータ構造]
合焦対象、非合焦対象を記憶、管理するためのデータフォーマットについて図18を用いて詳細に説明する。実施例3で少し説明したとおり、図18は、個別の多視点画像データとは独立したリスト形式のデータフォーマットである。合焦対象または非合焦対象のデータについては、1801から1803に示すように対象物ごとのデータがリスト形式で保存される。このリストは以降で合焦・非合焦対象リスト又は単にリストと記述する。なお、データフォーマットは保存済みの任意の対象物にアクセス可能であればリスト形式に限定されるものではない。
[Data format and data structure]
A data format for storing and managing in-focus objects and out-of-focus objects will be described in detail with reference to FIG. As described a little in the third embodiment, FIG. 18 shows a list format data format independent of individual multi-viewpoint image data. As for the data of the in-focus object or the out-of-focus object, data for each object is stored in a list format as indicated by 1801 to 1803. This list is hereinafter referred to as a focused / unfocused list or simply a list. Note that the data format is not limited to the list format as long as any stored object can be accessed.
リスト内の各対象物のデータは識別コード1804、属性情報1805、認識情報1806により構成されている。識別コード1804は対象物を識別するための情報であり、例えば人物、動物、樹木などを示す多値情報である。さらに例えば人物を本人、妻、長女、長男などのように、より詳細に分類した識別の情報であってもよい。識別コードは対象物を識別するための識別用データともいえる。属性情報1805は対象物が合焦対象か非合焦対象かを示す1ビットの情報である。合焦・非合焦を示すには1ビットで十分であるが、属性情報のビット数を限定するものではない。認識情報1806は合焦・非合焦対象の特徴を示す情報である。例えば、人物の場合には眉や目などの特徴点の距離、特徴点で囲まれる領域の面積や領域内の画素の輝度などである。認識情報1806は、画像解析部112による解析によって得られる。認識情報1806を基に画像中の被写体に対して合焦対象物か、非合焦対象物が識別される。認識情報もまた、対象物を識別するための識別用データともいえる。
Data of each object in the list includes an
次に本実施例の画像のデータフォーマットに含まれるリフォーカス位置情報1203フィールドついて図19を用いて詳細に説明する。実施例3では位置情報存在フラグ1205はチェイン情報1210、属性情報1220から構成される情報の例を説明した。本実施例においてはさらに識別コード1901を加えた構成とする。ここで識別コード1901は図18の識別コード1804と同じである。他の構成要素は実施例1と共通であるため説明を省略する。図19に示すリフォーカス位置情報1203のフィールドは、実施例3で説明したように多値情報を有することができる。すなわち、複数の合焦対象または非合焦対象の位置情報をリフォーカス位置情報1203のフィールドに追加・または削除可能な形態になっている。
Next, the
図20を用いて合焦・非合焦対象リストと保存画像とを管理するためのデータ構造の一例を詳細に説明する。保存画像とは、外部メモリ109などに保存されている画像データのことであり、図19で示すリフォーカス位置情報を含む図8の画像データフォーマットにて規定される画像データのことである。図18、図19で示した合焦・非合焦対象リストと画像データとは、図20に示すように階層化されたグループ毎に分類されて管理される。合焦・非合焦対象リストは、対象物定義情報と称しても良い。後述する合焦・非合焦対象リストに基づく各画像データへのリフォーカス位置情報付加処理は、合焦・非合焦対象リストが存在するグループとそのグループに包含されるグループ内の画像データに対して適用される。リフォーカス位置情報付加処理の詳細については後述する。
An example of the data structure for managing the in-focus / in-focus target list and the saved image will be described in detail with reference to FIG. The saved image is image data saved in the
図20においてグループ1(家族)2005は、グループ1.1(旅行)2006とグループ1.2(運動会)2007を包含するグループである。グループ1(家族)2005内の合焦・非合焦対象リスト2002に基づくリフォーカス位置情報付加処理は、次の保存画像に対して適用する。すなわち、グループ1.1(旅行)内の保存画像2004と、グループ1.2(運動会)2007内とその包含するグループ内に存在する図示しない保存画像に対して適用される。一方、グループ1.1(旅行)内の合焦・非合焦対象リスト2003に基づくリフォーカス位置情報付加処理は、グループ1.1(旅行)内の保存画像2004にのみ適用される。なお、グローバル合焦・非合焦対象リスト2001は、グループに依存せず全ての保存画像にリフォーカス位置情報を付加する合焦・非合焦対象リストである。このような階層構造のグループ内にそれぞれ合焦・非合焦対象リストと保存画像とを含めることにより、ユーザーの利便性が向上する。例えば、グループ1(家族)2005の合焦・非合焦対象リストでは、家族の人物を合焦する対象物として設定する。一方で、グループ1.1(旅行)2005の合焦・非合焦対象リストでは、例えばツアー旅行に行った場合における、同行者の人物を非合焦する対象物として設定する。このように設定することにより、グループ1.1内の保存画像については、家族の人物に合焦し、かつツアーの同行者の人物には合焦しない画像データが生成されることになる。
In FIG. 20, group 1 (family) 2005 is a group including group 1.1 (travel) 2006 and group 1.2 (athletic meet) 2007. The refocus position information addition processing based on the focus /
本実施例においては前述のデータ構造を採用しているが、このデータ構造に限定せずとも実施可能である。 In the present embodiment, the above-described data structure is adopted, but the present invention can be implemented without being limited to this data structure.
[合焦・非合焦対象リスト更新とリフォーカス位置情報更新の処理フロー]
図18、図19及び図21から図25を用いて合焦・非合焦対象リスト更新とリフォーカス位置情報付加の処理フローの詳細な説明を行う。以降の説明は、合焦・非合焦対象リストの更新を行った際の処理、新規に画像を撮像した際の処理、任意のタイミングで合焦・非合焦対象リストに基づくリフォーカス位置情報更新を行う際の処理の3つに分けて行う。
[Processing flow for updating the focus / non-focus target list and refocus position information]
The processing flow for updating the in-focus / non-focus target list and adding refocus position information will be described in detail with reference to FIGS. 18, 19 and 21 to 25. The following explanation is the processing when updating the in-focus / non-focus target list, the processing when newly capturing an image, and the refocus position information based on the focus / non-focus target list at any timing This is divided into three processes for updating.
まず、合焦・非合焦対象リストの更新を行った際の処理について説明を行う。図21から図23は、いずれか又は複数の合焦・非合焦対象リストに対して新しい対象物の追加、既存の対象物の削除などのリスト更新を行う際の処理フローを示している。図21のステップS2101において、全体制御部108は、ユーザーが保存画像中の対象を指定し合焦・非合焦対象リストに追加指示したか否かの判定を行う。例えばディスプレイ105上に任意の保存画像を表示し、ユーザーI/Fを介してユーザーからの合焦・非合焦対象リストに追加指示があるか否かを判定する。例えば、ユーザーがディスプレイ105上に表示中の保存画像中の任意の位置を指定し、その位置の対象物の合焦・非合焦対象リストに追加する旨の項目を選択した場合に、全体制御部108は、追加指示があったと判定する。なお、ステップS2101における合焦・非合焦対象リストは、図20で説明したように、保存画像と同一グループに属するリストとすることができる。あるいは、ユーザーにどのグループを対象とするリストに追加するかを選択させてもよい。ステップS2101において、全体制御部108は、リストへの対象の追加指示がないと判定した場合、処理をステップS2107に進める。ステップS2101において、全体制御部108は、リストへの対象の追加指示があると判定した場合、ステップS2102へ処理を進める。
First, the processing when the focus / non-focus target list is updated will be described. FIG. 21 to FIG. 23 show a processing flow when updating a list such as adding a new object or deleting an existing object with respect to one or a plurality of in-focus / in-focus object lists. In step S2101 in FIG. 21, the
ステップS2102では全体制御部108は、ステップS2101で指示された対象物へ識別コード1804を割り当て、その対象物の認識情報1806と共にFlashROM107や外部メモリ109に保存する。
In step S2102, the
ここではユーザーが保存画像中から対象を指定して、その対象物の認識情報を画像解析部112が算出し、保存する場合を想定している。しかし、特定の個人でない人物全般などの認識情報は、予めFlashROM107などに保存されていてもよい。この場合、ステップS2102において保存する認識情報1806は、認識情報が保存されているFlashROM107上のアドレスを示すポインタなどであってもよい。
Here, it is assumed that the user specifies a target from the stored image, and the
次にステップS2103では全体制御部108は、ステップS2101で指示された合焦・非合焦対象リストへの追加対象物が合焦対象か、非合焦対象かを判定する。合焦対象か非合焦対象かはユーザーが実施例3に示すような方法で指示することができる。リストへの追加対象物が合焦対象である場合、全体制御部108はステップS2104に処理を進め、属性情報1805のビットを0に設定する。リストへの追加対象物が非合焦対象である場合、全体制御部108はステップS2105処理を進め属性情報1805のビットを1に設定する。ステップS2106では全体制御部108は、ステップS2101で指示された全ての追加対象物が処理されたか判定する。全体制御部108は、全て処理されるまでステップS2102からステップS2105の処理を繰り返す。
Next, in step S2103, the
リストへの全ての追加対象が処理されると、ステップS2107にて全体制御部108は、合焦・非合焦対象リストからの対象物の削除指示があるか否かを判定する。削除指示についても、追加指示と同様に、例えばディスプレイ105上に任意の保存画像を表示し、ユーザーI/Fを介してユーザーからの合焦・非合焦対象リストからの削除指示があるか否かを判定する。例えば、ユーザーがディスプレイ105上に表示中の保存画像中の任意の位置を指定し、その位置の対象物の合焦・非合焦対象リストから削除する旨の項目を選択した場合に、全体制御部108は、削除指示があったと判定する。
When all the targets to be added to the list have been processed, in step S2107, the
ステップS2107においてリストからの対象物削除指示がないと判定した場合、全体制御部108は、ステップS2110へ処理を進める。ステップS2107においてリストからの対象物削除指示があると判定した場合、全体制御部108は、ステップS2108へ処理を進める。ステップS2108において、全体制御部108は、ステップS2107で指示された対象物をリストから削除する。このとき対象物を削除するリストは、保存画像と同一グループに属するリストであってもよい。あるいは、ユーザーにどのグループに属するリストから対象物を削除するかを選択させてもよい。あるいは全てのグループに属するリストから対象物を削除してもよい。ステップS2109では、全体制御部108は、ステップS2107にて指示された対象物を全てリストから削除したかを判定し、全ての削除対象物が処理されるまでステップS2108の処理を繰り返す。リストからの全削除対象物に対する処理を終えると、全体制御部108は、ステップS2110へ処理を進める。
If it is determined in step S2107 that there is no object deletion instruction from the list, the
ステップS2110では全体制御部108は、合焦・非合焦対象リストが更新された際の保存画像に対するリフォーカス位置情報更新の指示があるか否かを判定する。ここで、保存画像は、更新された合焦・非合焦対象リストが属するグループとそのグループが包含するグループとに含まれる全ての保存画像とすることができる。また、リフォーカス位置情報更新とは、図8のフォーマットにおけるリフォーカス位置情報803のフィールドに対して、図19に示すような位置情報のフィールドを追加したり、削除したりする処理である。なお、上述したように図19に示すリフォーカス位置情報1203は、複数の項目に対する値を含めることができる。なお、リフォーカス位置情報更新指示はステップS2110のリスト更新時に指示するか否かをユーザーインターフェイス(以下UI)によりユーザーに選択させるようにすることができる。あるいは、ステップS2101におけるリストへの対象物の追加指示の際にユーザーから指示されてもよい。あるいは、事前にユーザー、又は機器によって自動で設定されている指示であってもよい。ステップS2110において、全体制御部108は、リフォーカス位置情報更新指示がないと判定した場合、そのまま処理を終了する。ステップS2110において、全体制御部108は、リフォーカス位置情報更新指示があると判定した場合、ステップS2111のリスト追加反映処理に進む。
In step S2110, the
図22はリストへの追加対象物を保存画像のリフォーカス位置情報に反映するリスト追加反映処理ステップS2111の詳細を示しており、これについて説明を行う。まず、ステップS2201では全体制御部108は、合焦・非合焦対象リストへの対象物の追加処理があるか否かの判定を行う。ステップS2201においてリストへの対象物の追加がないと判定した場合、全体制御部108は、リスト追加反映処理を終了し、ステップS2112へ処理を進める。ステップS2201において、全体制御部108は、合焦・非合焦対象リストへの対象物の追加処理が行われたと判定した場合、ステップS2202へ処理を進める。
FIG. 22 shows details of the list addition reflection processing step S2111 in which the object to be added to the list is reflected in the refocus position information of the stored image, which will be described. First, in step S2201, the
ステップS2202において、全体制御部108は、保存画像内に追加対象物が存在するか否かを判定する。例えば、全体制御部108は、対象物が追加された合焦・非合焦対象リストが適用される全ての保存画像の中から1つの保存画像を抽出する。そして、全体制御部108は、保存画像内に追加の対象物が存在するかを判定する。この判定は画像解析部112による保存画像内の領域の認識情報とリスト内の対象物の認識情報との比較により、その値の差が所定の範囲内に収まっているか否かで行うことができる。ステップS2202において、全体制御部108は、保存画像内に追加対象物が存在しないと判定した場合、ステップS2205へ処理を進める。ステップS2202において、全体制御部108は、保存画像内に追加対象物が存在すると判定した場合、ステップS2203へと処理を進める。ステップS2203では全体制御部108は、保存画像のデータのうち、図19のリフォーカス位置情報1203内の位置情報1206から1209と、チェイン情報1210と、属性情報1220と、識別コード1901とを更新する。すなわち、追加された対象物についての項目がそれぞれ追加されたリフォーカス位置情報1203を有する保存画像に更新する。追加された対象物が合焦対象の場合も非合焦対象の場合も、本ステップにおいてリフォーカス位置情報1203が更新される。位置情報1206から1209とチェイン情報1210、属性情報1220については実施例1及び実施例3と共通であるため説明を省略する。識別コード1901の更新についてはリスト合焦・非合焦対象リストにおける追加対象物の識別コード1804をコピーして保存する。
In step S2202, the
次に、ステップS2204では全体制御部108は、リストへの1つの追加対象物に関して、適用範囲グループ内の保存画像すべてについてリフォーカス位置情報付加処理を行ったか否かを判定する。ステップS2204において未処理の処理すべき保存画像が存在すると判定した場合、全体制御部108は、次の保存画像に関するリフォーカス位置情報付加処理を行うためステップS2202に処理を戻す。ステップS2204において未処理の処理すべき保存画像がないと判定した場合、全体制御部108は、ステップS2205へ処理を進める。ステップS2205では全体制御部108は、リストへのすべて追加対象物に関して、リフォーカス位置情報付加処理を行ったか否かを判定する。未処理の追加対象物が存在する場合、全体制御部108は、ステップS2202へ処理を戻し、次の追加対象物に関する処理を行う。ステップS2205において、未処理の追加対象物が存在しないと判定した場合全体制御部108は、リスト追加反映処理を終了し、ステップS2112へ処理を進める。
Next, in step S2204, the
図23はリストからの削除対象物を保存画像データ内のリフォーカス位置情報に反映するリスト削除反映処理ステップS2112の詳細を示す図である。まず、ステップS2301では全体制御部108は、合焦・非合焦対象リストから対象物の削除を行ったか否かの判定を行う。リストからの削除対象物がないと判定した場合全体制御部108は、リスト削除反映処理を終了しリスト更新処理は完了となる。リストからの削除対象物が存在すると判定した場合全体制御部108は、ステップS2302へ処理を進める。ステップS2302において全体制御部108は、削除対象物に関して保存画像データ内に削除対象物に対するリフォーカス位置情報が存在するか否かを判定する。判定は削除対象物の識別コード1804と保存画像データに付加されているリフォーカス位置情報中の識別コード1901との照合により行うことができる。識別コードが合致するものが存在しないと判定した場合全体制御部108は、ステップS2304へ処理を進める。識別コードが合致するものが存在すると判定した場合全体制御部108は、ステップS2303に処理を進める。ステップS2303において、全体制御部108は、ステップS2302において合致すると判定した識別コードを持つリフォーカス位置情報の削除を行う。すなわち、全体制御部108は、図19に示す識別コード1901と、その識別コード1901に関連付けられたチェイン情報1210、属性情報1220、位置情報1206−1209を削除する。なお、リフォーカス位置情報は前述の通り多値を有することができる。したがって、リフォーカス位置情報に複数のフィールド(すなわち、複数の対象物に関する情報)が含まれている場合には、ステップS2302において合致すると判定された識別コードに関連する情報のみを削除する。
FIG. 23 is a diagram showing details of the list deletion reflection processing step S2112 for reflecting the object to be deleted from the list on the refocus position information in the stored image data. First, in step S2301, the
ステップS2304では全体制御部108は、リストからの削除対象物の適用範囲グループ内の保存画像を全て処理したか否かを判定する。未処理の処理すべき保存画像が存在すると判定した場合、全体制御部108は、次の保存画像を処理するためステップS2302へ処理を戻す。未処理の処理すべき保存画像が存在しないと判定した場合全体制御部108は、ステップS2305へ処理を進める。ステップS2305では全体制御部108は、リストから削除が行われた対象物すべてに関して、リフォーカス位置情報削除処理が行われたか否かを判定する。未処理のリストからの削除対象物が存在すると判定した場合、全体制御部108は、次の削除対象物に関する処理を行うためステップS2302に処理を戻す。未処理のリストからの削除対象物が存在しないと判定した場合全体制御部108は、リスト削除反映処理を終了しリスト更新処理は完了となる。
In step S2304, the
次に、画像撮像時に撮像画像に合焦・非合焦対象リストに基づいたリフォーカス位置情報を付加する際の処理フローを、図24を用いて詳細に説明する。まず、ステップS2401で全体制御部108は、ユーザーの指示により撮像画像が所属するグループを決定する。例えば、全体制御部108は、例えばディスプレイ105上に撮像画像が所属するグループを選択させる設定画面を表示し、ユーザーI/Fを介してユーザーから指示により撮像画像が所属するグループを決定する。あるいは、事前にユーザー、又は機器によって自動で設定されている指示であってもよい。
Next, a processing flow when adding refocus position information based on a focused / unfocused target list to a captured image at the time of image capturing will be described in detail with reference to FIG. First, in step S2401, the
次に、ステップS2402では全体制御部108は、撮像画像に対するリフォーカス位置情報付加指示があるか否かを判定する。ステップS2401と同様に、全体制御部108は、例えばディスプレイ105上に撮像画像に対してリフォーカス位置情報を付加するか否かを選択させる設定画面を表示する。そして、ユーザーI/Fを介してユーザーから指示によりリフォーカス位置情報付加指示があるか否かを判定する。あるいは、事前にユーザー、又は機器によって自動で設定されている指示であってもよい。リフォーカス位置情報付加指示がないと判定した場合、全体制御部108は処理を終了する。ステップS2402においてリフォーカス位置情報付加指示があると判定した場合、全体制御部108は、ステップS2403へ処理を進める。リフォーカス位置情報付加指示は、リスト更新時に指示するか否かをUIによりユーザーに選択させるようにすることもできる。
In step S2402, the
ステップS2403では全体制御部108は、撮像画像の所属グループに基づいて適用する合焦・非合焦対象リストを決定する。ステップS2404において全体制御部108は、撮像画像に対して一般オブジェクト認識を行いオブジェクトを抽出する。ステップS2405において全体制御部108は、ステップS2404において抽出されたオブジェクトのうち所定個を抽出する。一例として、全体制御部108は、ステップS2404の一般オブジェクト認識として、顔認識処理を行い、検出された複数の顔領域のうちS2405において顔領域の面積の大きい順に所定個抽出するように処理することができる。ステップS2404におけるオブジェクトは顔に限定されてはおらず、動物や樹木、それら複数の組み合わせであってもよい。また、ステップS2405における所定個のオブジェクト抽出の方法はオブジェクトの領域面積の大きい順に限定されない。例えば、合焦対象に対しては画像の中央から距離が近いものから順に適用し、非合焦対象に対しては画像の中央から遠い順に順位付けするなど、その他の方法による順位付けを用いてもよい。ステップS2404、ステップS2405のように処理することで後述するステップS2406からステップS2408の処理負荷を軽減することができる。しかしながら、ステップS2404、ステップS2405は必須の処理ではなく、含まずとも本実施例の実施は可能である。
In step S2403, the
ステップS2406では全体制御部108は、ステップS2405で抽出したオブジェクトが合焦・非合焦対象リスト内の対象物であるか否かの判定を行う。この判定は、ステップS2405で抽出したオブジェクトと合焦・非合焦対象リスト内の認識情報とを比較することによって行われる。抽出オブジェクトがリスト内の対象物でないと判定した場合全体制御部108は、ステップS2408へ処理を進める。抽出オブジェクトがリスト内の対象物であると判定した場合、全体制御部108は、ステップS2407に処理を進める。ステップS2407では撮像画像へのリフォーカス位置情報付加処理を行う。ステップS2407はステップS2203と同じ処理であり、詳細な説明は省略する。
In step S2406, the
ステップS2408では全体制御部108は、適用する合焦・非合焦対象リスト内の対象物と抽出オブジェクトの全ての組み合わせでステップS2406、ステップS2407の処理を行ったか否かを判定する。全ての組み合わせで完了していない場合、全体制御部108は、次の組み合わせの処理を行うためステップS2406に処理を戻す。全ての組み合わせで完了している場合、全体制御部108は、撮像時の全体の処理を終了する。
In step S <b> 2408, the
次に、任意のタイミングでその時点の合焦・非合焦対象リストに基づき保存画像のリフォーカス位置情報を更新する際の処理フローについて、図25などを用いて説明を行う。 Next, a processing flow when updating the refocus position information of the stored image based on the focus / non-focus target list at that time at an arbitrary timing will be described with reference to FIG.
まず、ステップS2501において、全体制御部108は、リフォーカス位置情報の更新を行う画像の選択を受け付ける。選択はユーザーがUIにより行っても良いし、機器の設定により自動で選択されても良い。ステップS2502では全体制御部108は、リフォーカス位置情報を更新する画像の所属グループに基づき適用する合焦・非合焦対象リストを適用リストとして決定する。
First, in step S2501, the
ステップS2503では全体制御部108は、ステップS2502で決定された適用リスト内の対象物に関するリフォーカス位置情報がステップS2501で選択された保存画像に既に存在しているか否かを判定する。この判定は適用リスト内の対象物の識別コードと同じ識別コードを持つリフォーカス位置情報が保存画像データに含まれるかどうかを調べることにより行うことができる。ステップS2503において適用リスト内の対象物に関するリフォーカス位置情報が既に存在していると判定した場合全体制御部108は、処理をステップS2510に進める。ステップS2503において適用リスト内の対象物に関するリフォーカス位置情報が存在しないと判定した場合全体制御部108は、処理をステップS2504へ進める。
In step S2503, the
ステップS2504では全体制御部108は、リスト内の対象物がステップS2501で選択された画像内に存在するか否かを判定する。ステップS2504の処理は、画像解析部112による保存画像内の領域の認識情報とリスト内の対象物の認識情報との比較により、その値の差が所定の範囲内に収まっているか否かで行うことができる。すなわち、ステップS2503では識別コードの有無によって判定を行い、ステップS2504では認識情報の比較により判定を行う。ステップS2504においてリスト内の対象物がステップS2501で選択された保存画像内に存在しない場合、全体制御部108は、ステップS2506へ処理を進める。ステップS2504においてリスト内の対象物がステップS2501で選択された保存画像内に存在する場合全体制御部108は、ステップS2505に処理を進める。ステップS2505では全体制御部108は、リフォーカス位置情報の付加を保存画像に対して行う。ステップS2505の処理はステップS2203と同じであるので詳細な説明は省略する。
In step S2504, the
一方、ステップS2510では全体制御部108は、ステップS2502で決定した適用リスト内の対象物の属性情報と、ステップS2503で同一の識別コードを有すると判定されたリフォーカス位置情報に含まれる属性情報とを比較する。属性情報が一致している場合全体制御部108は、属性情報の変更なしと判定しステップS2506に処理を進める。属性情報が一致しない場合全体制御部108は、属性情報の変更ありと判定し、ステップS2511に処理を進める。ステップS2511において、全体制御部108は、リフォーカス位置情報に含まれる属性情報をステップS2502で決定された適用リスト内の対象物の属性情報で上書きする。これは、いままで合焦対象であったものが、非合焦とされた場合などにおいて適用される。
On the other hand, in step S2510, the
ステップS2506では全体制御部108は、適用する合焦・非合焦対象物リスト内の対象物すべてについて保存画像に対するリフォーカス位置情報付加処理が終了したか否かを判定する。リスト内の対象物に未処理のものが存在する場合、全体制御部108は、次の対象物の処理のためステップS2503に処理を戻す。リスト内の対象物に未処理のものが存在しない場合全体制御部108は、処理をステップS2507に進める。
In step S2506, the
ステップS2507では全体制御部108は、ステップS2501で選択された保存画像に付加されているリフォーカス位置情報のうち、ステップS2502で決定された適用のリスト内に存在しない対象物に関するものが存在するか否かを判定する。この判定は適用リスト内の対象物の識別コードのいずれにも該当しない識別コードを持つリフォーカス位置情報があるかどうかを調べることにより行うことができる。適用リスト内に存在しない対象物に関するリフォーカス情報がある場合、全体制御部108は、ステップS2508に処理を進め、保存画像に付加されている当該リフォーカス情報を削除する。適用リスト内に存在しない対象物に関するリフォーカス位置情報がない場合、全体制御部108は、ステップS2509に処理を進める。
In step S2507, the
ステップS2509では全体制御部108は、ステップS2501で選択された保存画像すべてに対してリフォーカス位置情報更新処理が行われたか否かを判定する。未処理の保存画像が存在する場合全体制御部108は、次の画像の処理のためステップS2502へ処理を戻す。未処理の保存画像が存在しない場合全体制御部108は、処理を終了する。
In step S2509, the
図25のように処理することで、合焦・非合焦対象リストの更新を任意のタイミングで任意の保存画像に対して適用することができる。 By performing processing as shown in FIG. 25, the update of the in-focus / non-in-focus target list can be applied to any saved image at any timing.
なお、図21、図24、図25の各処理では、リストの更新や保存画像のリフォーカス位置情報の更新をする処理について説明した。その後の処理として、リフォーカス位置情報の追加または削除がされた保存画像に対して、実施例3で説明したピント面を新たに形成した画像データを生成する処理を行う。この保存画像の更新処理は、図21、図24、図25の各処理のあとに行っても良いし、ユーザーからの指示に応じて行っても良い。 21, 24, and 25, the process of updating the list and updating the refocus position information of the stored image has been described. As a subsequent process, a process for generating image data in which a focus surface is newly formed as described in the third embodiment is performed on the saved image to which the refocus position information is added or deleted. This stored image update processing may be performed after each processing of FIGS. 21, 24, and 25, or may be performed in accordance with an instruction from the user.
以上のように焦点を合わせる対象、焦点を合わせない対象を個々の画像データと別に記憶、管理することによって、複数の視点から撮像した画像を合成する際にユーザーの意図を反映した画像を迅速に作成して表示することが可能になる。 By storing and managing in-focus objects and in-focus objects separately from individual image data as described above, images that reflect the user's intention can be quickly displayed when combining images captured from multiple viewpoints. It can be created and displayed.
また、特定の対象に焦点を合わせるように、あるグループに属するリフォーカス画像に対して一括して指示することが可能になり、ユーザーの操作の負荷を軽減することが可能となる。 In addition, it is possible to collectively instruct refocus images belonging to a certain group so as to focus on a specific target, and it is possible to reduce the load of the user's operation.
本実施例を図1、図11、図12、及び図18から図27を用いて詳細に説明する。図1、図11、図12、図18から図25については実施例1、3、4と共通のため説明を省略する。 The present embodiment will be described in detail with reference to FIGS. 1, 11, 12, and 18 to 27. FIG. Since FIG. 1, FIG. 11, FIG. 12, and FIG. 18 to FIG.
実施例4においては合焦・非合焦対象リストを記憶・管理し、このリストに基づいて画像データにリフォーカス位置情報を一括で更新する例を示した。本実施例ではユーザーが保存画像中から対象物を指定することによって特定された合焦・非合焦対象の認識情報1806をより識別性の高いものに簡便に更新するための方法の例を示す。また、合焦・非合焦対象リストに基づき生成されたリフォーカス位置情報のうち、ユーザーの意図と異なるものをユーザーが判断し、簡便に訂正を行う手法の例を示す。
In the fourth embodiment, an example is shown in which a focusing / non-focusing target list is stored and managed, and refocus position information is collectively updated to image data based on this list. In this embodiment, an example of a method for easily updating the
本実施例においては実施例4における合焦・非合焦対象リストのデータフォーマットは図26となる。図26では図18のデータフォーマットに加えて、対象物ごとにその対象物の領域を切出した対象物切出し画像2601を付加する。対象物切出し画像(以下、切出し画像という)2601は、ユーザーが合焦・非合焦対象リストへの追加対象物を画像中から指定する際に、認識した対象物の領域を切出すことで得られる。
In this embodiment, the data format of the in-focus / non-focus object list in
図27はユーザーにより合焦・非合焦対象リスト内の対象物の認識情報の更新と、ユーザーの意図と異なるリフォーカス位置情報の訂正とを行うためのUIの例を示している。 FIG. 27 shows an example of a UI for the user to update the recognition information of the object in the in-focus / non-focus object list and correct the refocus position information different from the user's intention.
図27(a)において2701から2703は合焦・非合焦対象リスト内における、それぞれの合焦対象物の切出し画像2601に対応する画像を表示している。同様に2704、2705は非合焦対象物の切出し画像を表示している。以降UIによる選択操作はタッチパネル上の操作として説明を行うが、マウスでカーソルを移動して選択する方法や、ボタン操作により選択する方法であっても良く、操作方法を限定するものではない。また、以降で記述するタップという操作はタッチパネル上の一定範囲内を一定時間以上押下してその後離す一連の動作のことを指す。
In FIG. 27A, 2701 to 2703 display images corresponding to the cut-out
ここでは、ユーザーがリスト内の対象物である人物Aについて認識情報、リフォーカス位置情報を操作する場合を考える。まず、ユーザーは図27(a)上で画像2701をタップし選択を行う。2701を囲んでいる太枠は選択したことを表すものである。次に、認識データ更新ボタン2719をタップすることで、表示が図27(a)から図27(b)に切替わる。
Here, a case is considered where the user operates recognition information and refocus position information for the person A who is the object in the list. First, the user taps an
2706、2707は人物Aを示す識別コードが割当てられた合焦・非合焦対象リスト内の対象物切出し画像2601を表示しているものである。なお、図27の例において2706、2707の対象物データには人物Aを示す同一の識別コード1804が割当てられている。なお、このように同じ識別コードを持つ複数の対象物データをリスト内に持ってもよい。同じ識別コードを持つ複数のデータがある場合、前述の図27(a)で表示する切出し画像は同じ識別コードを持つ対象物については、それらの切出し画像のうちいずれか1枚を表示すればよい。また、同じ識別コードを持つ複数のデータがある場合、先の実施例で説明した認識情報の比較は、複数の識別コードを用いて各保存画像について行うことができる。
図27(b)中の2708から2714は、合焦・非合焦対象リスト内の対象物2706、又は2707と同じ識別コードが割当てられたリフォーカス位置情報を含む画像データから得た切出し画像である。この切出し画像は各画像データに含まれるリフォーカス位置情報1203中の位置情報1206から1209の座標が示す矩形領域を切出すことにより得ることができる。
ここで、2708から2714はすべて人物Aであることが望ましいが、図27(b)の例では誤認識により人物F2709、人物G2714が表示されている。このとき、ユーザーは2709、2714をタップして選択し、適用解除ボタン2718をタップすることで2709と2714に関するリフォーカス位置情報を対応する画像データ中から削除することができる。すなわち、人物Aを示す識別コードを含むリフォーカス位置情報のフィールドを画像2709と2714の切出し元である画像データから削除する。これにより、次に認識データ更新を行う場合には、人物Aを示す識別コードが含まれていないため、図27(b)の適用対象として抽出されなくなる。
Here, 2708 to 2714 are all desirably person A, but in the example of FIG. 27B, person F2709 and person G2714 are displayed due to misrecognition. At this time, the user can select 2709 and 2714 by tapping and select an application cancel
また、人物Aに合焦するためのリフォーカス位置情報は適用対象の保存画像中の全ての人物Aについて生成されることが望ましい。しかしながら、合焦・非合焦対象リストに含まれる人物Aの認識情報によっては、必ずしもすべての人物Aに対してリフォーカス位置情報が生成されないことが考えられる。 In addition, it is desirable that the refocus position information for focusing on the person A is generated for all the persons A in the application target saved image. However, depending on the recognition information of the person A included in the in-focus / non-focus target list, it is conceivable that the refocus position information is not necessarily generated for all the persons A.
これを改善するために、ユーザーはまず、2708から2714の中で、より識別に適すると判断した画像をタップして選択する。次に、リストに追加ボタン2717をタップすることで当該画像を人物Aの識別コードを持つ合焦対象物として合焦・非合焦対象リストに追加することができる。
In order to improve this, the user first taps and selects an image determined to be more suitable for identification from 2708 to 2714. Next, by tapping an add to list
さらに、2706、2707に示すリスト内の対象物は、これらをタップして選択し、削除ボタン2715をタップすることで削除することもできる。
Furthermore, the objects in the lists shown in 2706 and 2707 can be deleted by tapping them and selecting a
一連のリスト更新処理の後、リスト再適用ボタン2716をタップすると保存画像の画像データから人物Aの識別コードが割当てられたリフォーカス位置情報をすべて削除する。その後、リスト更新後の人物Aの認識情報を用いて再度、実施例4の方法によって適用保存画像にリフォーカス位置情報を付加する。その結果を図27(b)のUI上に反映する。なお、ここで、リスト更新の追加対象物の認識情報は追加対象物の切出し画像、又は切出し元画像に対して画像解析部112が処理することにより得られる。
When a list reapply
図27(c)は図27(b)において対象物2711をリストに追加し、リスト再適用を行った結果の画面を示している。追加された画像はリスト内対象物として2720に示されている。2701から2714と2721がリスト内対象物2706、2707、2720に基づいてリフォーカス位置情報が付加された保存画像からの切出し画像である。対象物2720をリストに追加したことにより、適用対象として図27(b)の7件に加えて、切出し画像2721が表示されている。これは、切出し元画像2721に人物Aを示す識別コードが関連付けられたリフォーカス位置情報が付加されたことを示している。
FIG. 27C shows a screen as a result of adding the
以上のように処理することで、ユーザーが合焦・非合焦の対象となっている切出し画像を確認しながらリストの認識情報をより識別性の高いものに更新することができる。また、生成されるリフォーカス位置情報のうち不要なものを簡便に削除することも可能である。その上で、リストの更新に基づき、あるグループに属するリフォーカス画像に対して一括して合焦・非合焦を指示することが可能になり、ユーザーの操作の負荷を軽減することが可能となる。 By performing the processing as described above, it is possible to update the recognition information of the list to one having higher discriminability while confirming the cut-out image targeted by the user for focusing and non-focusing. It is also possible to easily delete unnecessary information from the generated refocus position information. In addition, based on the list update, it is possible to instruct in-focus / in-focus for refocused images belonging to a certain group, reducing the user's operation load. Become.
本実施例を図28を用いて詳細に説明する。前述した実施例と共通の内容については説明を省略する。 This embodiment will be described in detail with reference to FIG. The description common to the above-described embodiment is omitted.
本実施例におけるシステム構成を図28に示す。本実施例におけるシステムは、図1に示すような構成を持つデジタルカメラ2801、PC、携帯電話、タブレットなどの画像表示端末2802、サーバー2804を含む。これらはネットワークに接続するための通信機能を備えている。ネットワーク2803にはデジタルカメラ2801、PC、携帯電話、タブレットなどの画像表示端末2802、サーバー2804などが接続されている。
The system configuration in this embodiment is shown in FIG. The system in this embodiment includes a
実施例4、5で示した合焦・非合焦対象リストの運用は図28に示すような機器同士のネットワークを介した連携により、より効率的な運用が可能となる。 The operation of the in-focus / non-in-focus target list shown in the fourth and fifth embodiments can be performed more efficiently by cooperation through a network of devices as shown in FIG.
サーバー2804は人物、動物、電柱、樹木などユーザーが個別に合焦・非合焦対象リストに登録しない、一般的な対象物を識別するための識別情報を所持している。また、認識情報と合焦状態の情報に基づいてリフォーカス位置情報を生成する機能を持っている。さらに、サーバー2804はリフォーカス位置情報を基にリフォーカス画像を生成する機能を持っていてもよい。
The
サーバー2804上でリフォーカス画像を生成した場合には、PC、携帯電話、タブレットなどの画像表示端末2802にネットワークを介してリフォーカス画像を転送することで、画像表示端末2802上でリフォーカス画像を閲覧することもできる。
When a refocus image is generated on the
また、画像表示端末2802はその表示画面を用いて、実施例5に示したような合焦・非合焦対象リストの更新作業が可能であるとする。その場合、合焦・非合焦対象リストはサーバー2804上から画像表示端末2802にダウンロードされるのでもよいし、サーバー2804上のデータを直接変更できる仕組みがあってもよい。画像表示端末2802にダウンロードされる場合は、合焦・非合焦対象リストの更新処理後サーバーに対してリストがアップロードされる。その後、必要に応じて更新された合焦・非合焦対象リストに応じて、サーバー側でリフォーカス位置情報を生成するようにすることも可能である。
Further, it is assumed that the
デジタルカメラ2801はサーバー2804との通信により、サーバーが処理することのできる合焦・非合焦対象物の情報を得る。この情報入手は、サーバー上の合焦・非合焦対象リストの更新が行われた後にサーバー2804とデジタルカメラ2801の通信が行われた場合に、自動で行われるようにすることも可能である。また、その更新の内容を、UIを通しユーザーに通知することも可能である。更新した場合にユーザーに通知するような設定にした場合には、ユーザーはその中から合焦・非合焦対象物を選択し、デジタルカメラ2801内に保存する。このようにすることにより、デジタルカメラ2801では、更新した合焦・非合焦対象リストに基づいて、その後に撮像した画像の表示を最適化することが可能になる。
The
デジタルカメラ2801において撮像、保存された画像データとユーザーが選択、保存したサーバーに処理させる合焦・非合焦対象物情報はネットワーク2803を介してサーバー2804に転送される。サーバー2804へ転送される画像データにはその時点で付加されているリフォーカス位置情報も含む。サーバー2804はユーザーが設定した合焦・非合焦対象物情報に基づき、各画像データに対するリフォーカス位置情報生成処理を行う。生成されたリフォーカス位置情報は再びネットワーク2803を介してデジタルカメラ2801に転送され、デジタルカメラ2801内の対応する画像のリフォーカス位置情報が更新される。その際、リフォーカス位置情報を基にサーバー2804により生成されたリフォーカス画像データが、同時にデジタルカメラ2801へ転送されてもよい。
Image data captured and stored in the
このように構成することでデジタルカメラ2801上のリフォーカス位置情報生成・リフォーカス画像生成の処理負荷を軽減することができ、また、デジタルカメラ2801上に保持しておく認識情報のデータ量を低減することが可能になる。
With this configuration, the processing load of refocus position information generation / refocus image generation on the
実施例4においては、合焦・非合焦の指示に対応した基本的な仮想ピント面や被写界深度の変更の仕方について示した。本実施例においては、さらに複雑な要求に対応して仮想ピント面を変更する方法について説明する。図15、図29〜図33を用いて説明する。 In the fourth embodiment, how to change the basic virtual focus plane and the depth of field corresponding to the in-focus / in-focus instructions has been described. In this embodiment, a method for changing the virtual focus plane in response to a more complicated request will be described. This will be described with reference to FIGS. 15 and 29 to 33.
図15(b)において、人物Cが画面上で長押しされ、非合焦対象にする指示が出されたとする。このとき、仮想ピント面を変更する方針として「指定された対象以外のものはなるべく見え方を変更しない」という方針がユーザーにより設定されていたとする。この場合、仮想ピント面は変えずに、画角上の人物Cに関連する部分だけ被写界深度を浅くすることによって、人物Cをぼかすようにすることが可能である。図29(a)にそのような場合の例を示す。仮想ピント面1501は変更されていないが、人物Cの画角に関連する部分のみ被写界深度が矢印2902に示すように浅く設定される。そのため、合焦する範囲が点線2903と点線2904の間となり、人物Cが合焦範囲から外れることとなる。図29(b)にその時の表示画像を示す。
In FIG. 15 (b), it is assumed that the person C is long pressed on the screen and an instruction to make it out of focus is issued. At this time, it is assumed that the user has set a policy of “change the appearance of things other than the designated target as much as possible” as a policy for changing the virtual focus plane. In this case, it is possible to blur the person C by reducing the depth of field only for the part related to the person C on the angle of view without changing the virtual focus plane. FIG. 29 (a) shows an example of such a case. Although the
図30、31を用いて、同一仮想ピント面上にある人物のうち、一人を外して合焦させたい場合のピント面の変更方法に関して示す。図30(a)において、人物A,B,Eは同一仮想ピント面3001上に存在するものとして、合焦状態にある。人物Dはこの時合焦対象ではないので、人物Dを合焦範囲から外すように被写界深度3002が決められたとする。よって、図30においては、合焦範囲は直線3003と直線3004の間となっている。その時のディスプレイ105上の表示画像を図30(b)に示す。
With reference to FIGS. 30 and 31, a method for changing the focus surface when one of the persons on the same virtual focus surface is desired to be focused will be described. In FIG. 30A, the persons A, B, and E are in the focused state assuming that they exist on the same
この図30(b)の画面において、人物Eが画面上で長押しされ、非合焦対象にする指示が出されたとする。このとき、人物A,B,Eは同一仮想ピント面上に存在するため、被写界深度の調節だけでは、人物Eを非合焦状態にすることはできない。そのような場合には、仮想ピント面の一部をずらすことによって対応が可能である。そのような場合を図31に示す。図31(a)においては、仮想ピント面3101は人物Eの近辺で多眼カメラ撮像部101から遠い側に曲げられている。被写界深度の変更は行われていないため、仮想ピント面の変更に伴い、被写界深度範囲を示す線も点線3103及び3104のように曲げられる。この操作により、図31(b)に示すように、人物A,Bにのみ合焦した画像がディスプレイ105に表示されることになる。
Assume that on the screen of FIG. 30B, the person E is long pressed on the screen, and an instruction to make it out of focus is issued. At this time, since the persons A, B, and E exist on the same virtual focus plane, the person E cannot be brought out of focus only by adjusting the depth of field. In such a case, it is possible to cope by shifting a part of the virtual focus surface. Such a case is shown in FIG. In FIG. 31A, the
図32、33を用いて、仮想ピント面を曲面で定義した場合の例を示す。図32(a)は、人物A,B,C,Dに合焦した画像を合成する場合を示したものである。この場合、仮想ピント面3201は人物A,B,C,Dを通った曲面として定義される。そのため、図32(b)に示すように、人物A,B,C,Dに対して、それぞれ合焦し、なおかつ被写界深度の浅い(ピントが合っているところ以外はぼけ具合が大きい)画像をディスプレイ105に表示することが可能になる。
An example in which the virtual focus surface is defined by a curved surface will be described with reference to FIGS. FIG. 32A shows a case where images focused on persons A, B, C, and D are combined. In this case, the
ここで、ディスプレイ105上のCの画像を長押しし、人物Cを非合焦対象として指定したとする。その結果作成された画像と仮想ピント面の状況を図33に示す。図33(a)では、仮想ピント面3301が人物Cではなく、人物Cの後ろの木の場所を通るように変更された様子を示している。先に述べたように、この画像の被写界深度は浅いため、図33(b)に示したように人物Cはボケた画像となる。
Here, it is assumed that the C image on the
仮想ピント面を曲面として定義して画像を合成する処理の流れは、先に実施例3の図13を用いて説明した。ここでは、曲面として定義する上での特徴的な事象について図13を再度用いて説明する。 The flow of processing for synthesizing an image by defining the virtual focus surface as a curved surface has been described above with reference to FIG. Here, a characteristic phenomenon in defining as a curved surface will be described with reference to FIG. 13 again.
仮想ピント面生成部1305は、指示された合焦すべき対象の数と位置に応じてピント面の形状を生成する。例えば、図32の場合、人物A,B,C,Dに合焦するように指示が出されている。この時、仮想ピント面生成部1305は、バッファ1315のフォーカス座標情報から、人物A,B,C,Dの表示画面(ここでは、図33(b)の画像)に対応する2次元座標(XA,YA)(XB,YB)(XC,YC)(XD,YD)を入手する。また、バッファ1314の距離画像から、前記2次元座標を用いて人物A,B,C,Dの撮像時の3次元空間位置(xA,yA,zA), (xB,yB,zB), (xC,yC,zC), (xD,yD,zD)を把握する。その上で、仮想ピント面生成部は合焦すべき対象の数に基づき、ピント面を生成するベースになる曲線の次数を定義する。本実施例では、“合焦すべき対象の数−1”を次数とする。この例では合焦すべき対象は人物A,B,C,Dの4人であることから、合焦すべき対象の数は4となり、曲線の次数は3と定義される。なお、この次数の決め方はこの方式に一意に決まるものではなく、合焦すべき対象が多い場合には、上限を設けるなどすることも考えられる。また、実際の合焦すべき対象の位置関係においては、曲線の次数が先に示した次数より低い次数となる場合もある。
The virtual focus
次に仮想ピント面生成部1305は、実際の曲面を定義する。図32(a)は、そのまま被写体が存在する3次元空間をy軸方向から観察した様子となっている。すなわち、図32(a)の奥行き方向がz軸になり、撮像部と各被写体との距離となる。いま、曲線の次数が3と定義されたので、曲線に対応する多項式は以下のようになる。
z = ax^3 + bx^2 + cx +d
Next, the virtual focus
z = ax ^ 3 + bx ^ 2 + cx + d
この式に先に求めた人物A,B,C,Dの撮像時の3次元空間位置(xA,yA,zA), (xB,yB,zB), (xC,yC,zC), (xD,yD,zD)のxとzに対応する値を入れた連立方程式を解く。これによって、xz平面上の曲線を求めることができる。求め方としては行列演算によるものや最小二乗法による近似曲線を求めるなど様々な方法があるが、ここでは割愛する。ここで求めた多項式の次数と係数がバッファ1316に格納されるピント面の形状を表現するピント面情報となる。
The three-dimensional spatial positions (xA, yA, zA), (xB, yB, zB), (xC, yC, zC), (xD, Solves simultaneous equations with values corresponding to x and z of yD, zD). As a result, a curve on the xz plane can be obtained. There are various methods for obtaining such as using a matrix operation and obtaining an approximate curve by the method of least squares, but this is omitted here. The degree and coefficient of the polynomial obtained here become the focal plane information expressing the shape of the focal plane stored in the
ピント面情報が求まると、画像合成部1306は求めた多項式が示す曲線をy軸方向に拡張し、仮想ピント面を生成する。そして、バッファ1312の撮像データの各個眼毎に重み付けをして足し合わせ、画像を合成する。その際、仮想ピント面上の人物A,B,C,Dに相当する位置に対しては仮想ピント面上に焦点の合った画像を合成する。また、人物A,B,C,D以外に対しては、実際にその撮像対象が存在した3次元空間位置と仮想ピント面の存在する位置との距離から、ぼかし具合を計算し、その距離に応じたぼかし効果を持つ画像を合成する。ぼかし具合の計算には設定される被写界深度を考慮して行う。このように曲面のピント面を利用することによって、図31や図33に示したように指定された対象のみを選択的に非合焦にすることが可能になる。
When the focal plane information is obtained, the
以上のようにすることで、多眼カメラ撮像部101から同じ距離にあるような2つの物体に対しても選択的に片方だけぼかした画像を作ることが可能になる。よって、ユーザーは画面上に表示された物体に対して、特に距離や被写界深度を意識することなく、簡単に非合焦対象を選択して指示を行い、意図した画像を作成することが可能になる。
By doing as described above, it is possible to create an image in which only one of the two objects at the same distance from the multi-view
ここまでの実施例では多眼カメラ撮像部101を用いて複数の画像として異なる視点から同時に撮像された画像を用いていたが、例えば、連続した時刻において撮像した画像を用いることも可能である。例えば、連続する2つ以上の時刻において、カメラの位置を微小に変化させて撮像した場合や、カメラのレンズの焦点位置を微小に変化させて撮像した場合が考えられる。どちらの場合も被写体に動きがなく、カメラの位置変化もしくはレンズの焦点位置の変化が既知であれば、複数画像を用いて距離推定を行って距離画像を作ることが可能である。
In the embodiments so far, images that are simultaneously captured from different viewpoints as a plurality of images using the
図34にカメラのレンズの焦点位置を微小に変化させて連続撮像した場合の例を示す。図34において、3401は連写の可能なカメラ撮像部である。カメラ撮像部3401の画角は3401から斜めに伸びる3410、3411の2本の線によって示され、その範囲内の被写体である、人物A、B、C、Dが山や木と一緒に撮像されている。
FIG. 34 shows an example in which continuous imaging is performed by slightly changing the focal position of the camera lens. In FIG. 34,
ここで、時刻t1に人物Cに焦点が合うように仮想ピント面3402を設定した画像が撮像されたとする。その直後の時刻t2に人物A及びBに焦点が合うように仮想ピント面3403を設定した画像が撮像されたとする。更に時刻t3に人物Dに焦点が合うように仮想ピント面3404を設定した画像が撮像されたとする。
Here, it is assumed that an image in which the
ここで、時刻t1、t2、t3の間隔が十分に短く被写体の動きが無視できるとする。その場合、3つの仮想ピント面で撮像した画像と、その時の焦点距離情報、及び撮像した画像情報から距離推定を行い、距離画像を作ることが可能である。距離画像ができれば、あとは第3の実施例において図13を用いて説明した処理の流れに沿って焦点位置を変えた画像を作成することが可能になる。よって、ユーザーが表示画像上で焦点を合わせたくない領域を指示し、その指示領域を非合焦領域になるようにピント面を生成し、画像を合成・表示することが可能になる。 Here, it is assumed that the intervals between the times t1, t2, and t3 are sufficiently short so that the movement of the subject can be ignored. In that case, it is possible to make a distance image by estimating the distance from the images captured by the three virtual focus planes, the focal length information at that time, and the captured image information. If a distance image is created, it is possible to create an image in which the focal position is changed along the processing flow described with reference to FIG. 13 in the third embodiment. Therefore, it is possible for the user to designate an area that is not desired to be focused on the display image, generate a focus plane so that the designated area becomes an out-of-focus area, and combine and display the image.
<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other examples>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (8)
前記決定手段で決定された順位に従って、前記対象に焦点を合わせた合成画像データを複数の視点位置から撮像して得られた多視点画像データから順次生成する生成手段と、
前記生成された合成画像データを表示させる制御手段と、を備え、
前記生成手段は、前記表示された合成画像データに対するユーザーからのパラメータの入力がない間、前記順位に従って前記合成画像データを順次生成することを特徴とする画像処理装置。 A determination means for determining a target order to be focused based on history information indicating an operation history;
Generating means for sequentially generating composite image data focused on the object from a plurality of viewpoint positions according to the order determined by the determining means, from multi-view image data obtained;
Control means for displaying the generated composite image data,
The image processing apparatus is characterized in that the generation means sequentially generates the composite image data according to the order while there is no parameter input from the user for the displayed composite image data.
前記入力されたパラメータに対応する対象に焦点を合わせた合成画像データが前記生成手段によって生成されているかを判定し、
前記生成手段によって生成されていると判定した場合は当該生成されている合成画像データを表示させ、
前記生成手段によって生成されていないと判定した場合は当該パラメータに対応する対象に焦点を合わせた合成画像データを前記生成手段に生成させる、
ことを特徴とする請求項1に記載の画像処理装置。 When there is an input of a parameter from the user for the displayed composite image data, the control means
Determining whether composite image data focused on a target corresponding to the input parameter is generated by the generation unit;
If it is determined that the generating means has generated, the generated composite image data is displayed,
If it is determined that the generation unit has not generated, the generation unit generates composite image data focused on a target corresponding to the parameter,
The image processing apparatus according to claim 1.
前記決定手段は、前記認識手段によって認識された物体を前記対象として抽出することを特徴とする請求項1または2に記載の画像処理装置。 Recognizing means for recognizing an object included in the image indicated by the multi-viewpoint image data;
The image processing apparatus according to claim 1, wherein the determination unit extracts an object recognized by the recognition unit as the target.
前記決定手段は、前記判定手段によって前記モードが優先設定されていると判定された場合、前記モードに適合する対象の前記順位を変更することを特徴とする請求項1から4のいずれかに記載の画像処理装置。 A determination means for determining whether or not a mode indicating an object to be focused is preferentially set;
5. The determination unit according to claim 1, wherein, when the determination unit determines that the mode is preferentially set, the determination unit changes the order of objects to be adapted to the mode. Image processing apparatus.
前記決定ステップで決定された順位に従って、前記対象に焦点を合わせた合成画像データを複数の視点位置から撮像して得られた多視点画像データから順次生成する生成ステップと、
前記生成された合成画像データを表示させる制御ステップと、を備え、
前記生成ステップにおいて、前記表示された合成画像データに対するユーザーからのパラメータの入力がない間、前記順位に従って前記合成画像データが順次生成されることを特徴とする画像処理方法。 A determination step for determining a target order to be focused based on history information indicating an operation history;
A generation step for sequentially generating composite image data focused on the object from multi-viewpoint image data obtained by imaging from a plurality of viewpoint positions according to the order determined in the determination step;
A control step of displaying the generated composite image data,
In the generation step, the composite image data is sequentially generated in accordance with the order while no parameter is input from the user to the displayed composite image data.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013076141A JP6207202B2 (en) | 2012-06-08 | 2013-04-01 | Image processing apparatus and image processing method |
US13/908,101 US20130329068A1 (en) | 2012-06-08 | 2013-06-03 | Image processing apparatus and image processing method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012130865 | 2012-06-08 | ||
JP2012130865 | 2012-06-08 | ||
JP2013076141A JP6207202B2 (en) | 2012-06-08 | 2013-04-01 | Image processing apparatus and image processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014014071A JP2014014071A (en) | 2014-01-23 |
JP2014014071A5 JP2014014071A5 (en) | 2016-05-26 |
JP6207202B2 true JP6207202B2 (en) | 2017-10-04 |
Family
ID=50109494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013076141A Active JP6207202B2 (en) | 2012-06-08 | 2013-04-01 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6207202B2 (en) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6336284B2 (en) * | 2014-01-30 | 2018-06-06 | キヤノン株式会社 | Image processing apparatus, control method thereof, and program |
JP6320075B2 (en) * | 2014-02-19 | 2018-05-09 | キヤノン株式会社 | Image processing apparatus and control method thereof |
JP6294703B2 (en) * | 2014-02-26 | 2018-03-14 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
CN103973978B (en) | 2014-04-17 | 2018-06-26 | 华为技术有限公司 | It is a kind of to realize the method focused again and electronic equipment |
CN105335950B (en) * | 2014-05-28 | 2019-02-12 | 华为技术有限公司 | Image processing method and image processing apparatus |
JP2016046777A (en) * | 2014-08-26 | 2016-04-04 | キヤノン株式会社 | Image processing apparatus, control method therefor, and program |
JP6444198B2 (en) * | 2015-02-09 | 2018-12-26 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2016158205A (en) * | 2015-02-26 | 2016-09-01 | 三菱電機株式会社 | Video monitoring system |
JP2016219991A (en) * | 2015-05-19 | 2016-12-22 | キヤノン株式会社 | Image processor and control method thereof and program |
JP6401674B2 (en) * | 2015-07-30 | 2018-10-10 | 日本電信電話株式会社 | Image processing method, image processing apparatus, and image processing program |
US10291845B2 (en) * | 2015-08-17 | 2019-05-14 | Nokia Technologies Oy | Method, apparatus, and computer program product for personalized depth of field omnidirectional video |
JP6865395B2 (en) * | 2016-03-10 | 2021-04-28 | パナソニックIpマネジメント株式会社 | Imaging device |
JP6547809B2 (en) * | 2017-10-04 | 2019-07-24 | 株式会社ニコン | Image processing apparatus, image display apparatus, and imaging apparatus |
JP6580172B2 (en) * | 2018-02-16 | 2019-09-25 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
KR20210139256A (en) * | 2019-03-18 | 2021-11-22 | 소니그룹주식회사 | Imaging device, information processing method, and program |
KR102334503B1 (en) * | 2019-04-25 | 2021-12-13 | 주식회사 와일드비전 | Apparatus and method for reproducing multi-focused image |
JP7431549B2 (en) * | 2019-10-01 | 2024-02-15 | キヤノン株式会社 | Encoding device, imaging device, control method, and program |
KR20220053876A (en) * | 2020-10-23 | 2022-05-02 | 강성철 | Apparatus and method for reproducing multi-focused image |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008294741A (en) * | 2007-05-24 | 2008-12-04 | Olympus Corp | Imaging system |
JP5875839B2 (en) * | 2011-11-21 | 2016-03-02 | オリンパス株式会社 | Plenoptic camera |
-
2013
- 2013-04-01 JP JP2013076141A patent/JP6207202B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014014071A (en) | 2014-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6207202B2 (en) | Image processing apparatus and image processing method | |
US20130329068A1 (en) | Image processing apparatus and image processing method | |
CN105491294B (en) | Image processing apparatus, image capturing device and image processing method | |
US10681287B2 (en) | Apparatus and method for displaying AR object | |
CN104284064B (en) | Method and apparatus for preview twin-lens image | |
US8686993B2 (en) | Image processing for controlling disparity in 3D images | |
US9036072B2 (en) | Image processing apparatus and image processing method | |
CN110519519A (en) | User interface for the selection parameter during image is focused again | |
KR20110028877A (en) | Method for providing user interface and display apparatus applying the same | |
CN111539960B (en) | Image processing method and related device | |
EP3754958A1 (en) | Mobile terminal and control method therefor | |
CN105247567A (en) | Image refocusing | |
EP3038347A1 (en) | Method for displaying focus picture and image processing device | |
KR20190050516A (en) | Electronic device for processing image based on priority and method for operating thefeof | |
JP2013254151A (en) | Image processing apparatus and image processing method | |
JP6245892B2 (en) | Image processing apparatus, control method therefor, and program | |
KR20220102401A (en) | Electronic device and operating method thereof | |
KR101881356B1 (en) | Method for providing User Interface and display apparatus applying the same | |
JP6611588B2 (en) | Data recording apparatus, imaging apparatus, data recording method and program | |
JP2018029270A (en) | Image processing apparatus, control method thereof, imaging apparatus, and program | |
JP6429483B2 (en) | Information processing apparatus, imaging apparatus, information processing system, information processing method, and program | |
CN106815237B (en) | Search method, search device, user terminal and search server | |
JP6362433B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2013255172A (en) | Image processing apparatus and image processing method | |
CN115812177A (en) | Image processing device, imaging device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160401 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160401 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170905 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6207202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |