[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010154323A - 画像処理装置、画像抽出方法、および、プログラム - Google Patents

画像処理装置、画像抽出方法、および、プログラム Download PDF

Info

Publication number
JP2010154323A
JP2010154323A JP2008331103A JP2008331103A JP2010154323A JP 2010154323 A JP2010154323 A JP 2010154323A JP 2008331103 A JP2008331103 A JP 2008331103A JP 2008331103 A JP2008331103 A JP 2008331103A JP 2010154323 A JP2010154323 A JP 2010154323A
Authority
JP
Japan
Prior art keywords
image
area
subject
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008331103A
Other languages
English (en)
Inventor
Mitsuyasu Nakajima
光康 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2008331103A priority Critical patent/JP2010154323A/ja
Publication of JP2010154323A publication Critical patent/JP2010154323A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】効果的な被写体抽出をより効率的におこなう。
【解決手段】画像分割部213は、第1撮像部100Aと第2撮像部100Bが撮像した2つの撮像画像の一方を、色情報や輝度情報などに基づいて複数の領域に分割する。距離算出部214は、分割された領域をテンプレートとし、他方の撮像画像上で走査する。距離算出部214は、視差を用いた三角測量の原理により、探索された領域についての撮影距離を算出する。被写体位置が指定されている場合には、当該位置の領域をテンプレートとし、指定されていない場合はすべての領域をテンプレートとし、撮影距離に基づいて候補領域を抽出する。被写体抽出部215は、候補領域と候補領域に隣接する非候補領域との間で色間距離を算出し、色間距離が近い場合には、候補から除外する。色間距離による修正後の候補領域を被写体画像として抽出する。
【選択図】図3

Description

本発明は、画像処理装置、画像抽出方法、および、プログラムに関し、特に、撮像画像からの被写体領域抽出に好適な画像処理装置、画像抽出方法、および、プログラムに関する。
デジタルカメラの普及により、撮影した画像に対する様々な画像処理を容易におこなうことができる。例えば、同じアングルから複数の撮影をおこなうことで、被写体部分を抽出して合成する手法などが確立している(例えば、特許文献1)。
特開2003−338977号公報
特許文献1などの従来技術では、被写体領域を抽出する際、主に色情報に基づいた抽出が一般的である。例えば、赤い被写体を背景から分離させる場合には、画像中の各画素の色がある範囲の赤い色に入るか判定し、その結果に基づいて抽出する画素であるか識別する。
このような色情報を用いた画像抽出では、単調な背景の中に異なる色の被写体がある場合などには好適であるが、背景と被写体とで同じような色を含んでいる場合には、適切な画像抽出をおこなうことができない。
その他の方法として、画像のエッジ情報、すなわち、画像中の画素の値(例えば、色や明度)が変化する部分の情報を用いる方法がある。この方法では、通常、画像中で隣接する画素間の色や画像濃度の差が大きいところをエッジとして求め、エッジを繋ぐことで輪郭を求める。
しかしながら、この方法では、エッジを探索して次々に繋ぐ処理をコンピュータによる自動処理でおこなうため、例えば、エッジの候補が多数現れたり、途切れたりする場合には、エッジがうまく繋がらないことがある。
本発明は、上記実状に鑑みてなされたものであり、効果的な画像抽出をより効率的におこなうことのできる画像処理装置、画像抽出方法、および、プログラムを提供することを目的とする。
上記目的を達成するため、本発明の第1の観点にかかる画像処理装置は、
同一の被写体について撮像時の光軸位置が異なる2つの撮像画像を取得する画像取得手段と、
前記画像取得手段が取得した撮像画像の一方を複数の領域に分割する分割手段と、
前記分割された領域をテンプレートとした前記撮像画像の他方に対するテンプレートマッチングにより、前記分割された領域単位で撮影距離を算出する撮影距離算出手段と、
前記撮影距離算出手段が算出した撮影距離に基づいて、前記撮像画像から被写体領域を抽出する抽出手段と、
を備えることを特徴とする。
上記画像処理装置において、
前記分割手段は、前記撮像画像における画素値に基づいて前記複数の領域に分割することが望ましい。
上記画像処理装置において、
前記抽出手段は、前記撮影距離が最も短い領域と、前記撮影距離に基づいて該領域と連続する領域と、を前記被写体領域として抽出することができる。
上記画像処理装置において、
前記抽出手段は、前記撮像画像の中央にある領域と、前記撮影距離に基づいて該領域と連続する領域と、を前記被写体領域として抽出することができる。
上記画像処理装置において、
前記抽出手段は、前記撮像画像上で指定された位置にある領域と、前記撮影距離に基づいて該領域と連続する領域と、を前記被写体領域として抽出することができる。
上記画像処理装置は、
前記撮像画像上で人物の顔を認識する顔認識手段をさらに備えていてもよく、この場合、
前記抽出手段は、前記顔認識手段が認識した顔部分の領域と、前記撮影距離に基づいた該領域に連結する領域と、を前記被写体領域として抽出することができる。
上記画像処理装置において、
前記抽出手段は、
被写体領域として抽出した領域を候補領域とし、該候補領域に隣接する非候補領域との色間距離を算出する色間距離算出手段と、
前記色間距離算出手段が算出した色間距離に基づいて、前記候補領域を候補から除外する除外手段と、をさらに備えていることが望ましい。
上記画像処理装置において、
前記画像取得手段は、前記2つの撮像画像を取得する平行ステレオカメラを備えていることが望ましい。
上記目的を達成するため、本発明の第2の観点にかかる画像抽出方法は、
同一の被写体について撮像時の光軸位置が異なる2つの撮像画像から被写体領域を抽出する画像抽出方法であって、
前記2つの撮像画像を取得する画像取得ステップと、
前記画像取得ステップで取得した撮像画像の一方を複数の領域に分割する分割ステップと、
前記分割された領域をテンプレートとした前記撮像画像の他方に対するテンプレートマッチングにより、前記分割された領域単位で撮影距離を算出する撮影距離算出ステップと、
前記撮影距離算出ステップで算出された撮影距離に基づいて、前記撮像画像から被写体領域を抽出する抽出ステップと、
を含むことを特徴とする。
上記目的を達成するため、本発明の第3の観点にかかるプログラムは、
コンピュータに、
同一の被写体について撮像時の光軸位置が異なる2つの撮像画像を取得する機能と、
前記取得した撮像画像の一方を複数の領域に分割する機能と、
前記分割された領域をテンプレートとした前記撮像画像の他方に対するテンプレートマッチングにより、前記分割された領域単位で撮影距離を算出する機能と、
前記算出した撮影距離に基づいて、前記撮像画像から被写体領域を抽出する機能と、
を実現させることを特徴とする。
本発明によれば、より効率的に被写体領域を抽出することができる。
本発明にかかる実施形態を、図面を参照して以下に説明する。本実施形態では、本発明をデジタルスチルカメラ(以下、デジタルカメラ)によって実現した場合を例示する。本実施形態にかかるデジタルカメラ1は、一般的なデジタルスチルカメラが有する機能を備えているものとするが、撮像にかかる構成を2つ備えた、いわゆる複眼カメラとする。
図1は、本発明の実施形態にかかるデジタルカメラ1の構成を示すブロック図である。本実施形態にかかるデジタルカメラ1の概略的構成は、図示するように、第1撮像部100A、第2撮像部100B、データ処理部200、インタフェース(I/F)部300、などである。
第1撮像部100Aおよび第2撮像部100Bは、デジタルカメラ1の撮像動作をおこなう部分である。上述したように、本実施形態にかかるデジタルカメラ1は複眼カメラであるため、第1撮像部100Aと第2撮像部100Bとを有する構成であるが、第1撮像部100Aと第2撮像部100Bは同一の構成である。以下、第1撮像部100Aについての構成には参照符号の末尾に「A」を付し、第2撮像部100Bについての構成には参照符号の末尾に「B」を付す。
図1に示すように、第1撮像部100A(第2撮像部100B)は、光学装置110A(110B)やイメージセンサ部120A(120B)などから構成されている。
光学装置110A(110B)は、例えば、レンズ、絞り機構、シャッタ機構、などを含み、撮像にかかる光学的動作をおこなう。すなわち、光学装置110A(110B)の動作により、入射光が集光されるとともに、焦点距離、絞り、シャッタスピードなどといった、画角やピント、露出などにかかる光学的要素の調整がなされる。なお、光学装置110A(110B)に含まれるシャッタ機構はいわゆるメカニカルシャッタであり、イメージセンサの動作のみでシャッタ動作をおこなう場合には、光学装置110A(110B)にシャッタ機構が含まれていなくてもよい。また、光学装置110A(110B)は、後述する制御部210による制御によって動作する。
イメージセンサ部120A(120B)は、光学装置110A(110B)によって集光された入射光に応じた電気信号を生成する、例えば、CCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementally Metal Oxide Semiconductor:相補型金属酸化物半導体)などのイメージセンサから構成される。イメージセンサ部120A(120B)は、光電変換をおこなうことで、受光に応じた電気信号を発生してデータ処理部200に出力する。
上述したように、第1撮像部100Aと第2撮像部100Bは同一の構成である。より詳細には、レンズの焦点距離fやF値、絞り機構の絞り範囲、イメージセンサのサイズや画素数、配列、画素面積などの各仕様がすべて同一である。
このような第1撮像部100Aと第2撮像部100Bを有するデジタルカメラ1は、図2(a)に示すように、光学装置110Aに構成されたレンズと光学装置110Bに構成されたレンズとが、デジタルカメラ1の外面における同一面上に形成された構成とする。ここでは、シャッタボタンが上になる方向でデジタルカメラ1を水平にした場合に、中心位置が水平方向で同一線上となるよう2つのレンズ(受光部)が配置されるものとする。つまり、第1撮像部100Aと第2撮像部100Bとを同時に動作させた場合、同一被写体についての画像が撮像されることになるが、各画像における光軸位置が横方向にずれている画像となる。
この場合、図2(b)の透視射影モデルに示すような光学的特性となるよう第1撮像部100Aと第2撮像部100Bが配置される。図2(b)に示す透視射影モデルは、X、Y、Zからなる3次元直交座標系に基づくものであり、第1撮像部100Aについてのこの座標系を以下「カメラ座標」と呼ぶ。図2(b)では、第1撮像部100Aの光学中心を原点としたカメラ座標を示している。
カメラ座標においては、Z軸をカメラの光学方向に一致する方向とし、X軸とY軸はそれぞれ画像の横方向と縦方向に平行する。ここで、光軸と画像座標面の交点を原点(すなわち、光学中心)とし、イメージセンサの画素間隔を換算してカメラ座標と長さの単位を合わせた場合、第1撮像部100Aについての画像座標面で被写体A1を示す画像座標を(u1, v1)とし、第2撮像部100Bについての画像座標面では(u'1, v'1)とする。
第1撮像部100Aと第2撮像部100Bは、それぞれの光軸が平行(すなわち、輻輳角が0)になり、かつ、第1撮像部100Aについての画像座標u軸と第2撮像部100Bについての画像座標u'軸が同一線上で同じ方向となるよう配置される(すなわち、エピポーラ線が一致)。また、上述したように、第1撮像部100Aおよび第2撮像部100Bの焦点距離fや画素間隔は同じであり、光軸と画像座標面とが垂直に交わっている。このような構成を「平行ステレオ」と呼び、デジタルカメラ1の第1撮像部100Aと第2撮像部100Bは平行ステレオの構成となっている。
図1に戻り、デジタルカメラ1の構成の説明を続ける。
データ処理部200は、第1撮像部100Aおよび第2撮像部100Bによる撮像動作によって生成された電気信号を処理し、撮像画像を示すデジタルデータを生成するとともに、撮像画像に対する画像処理などをおこなう。図1に示すように、データ処理部200は、制御部210、画像処理部220、画像メモリ230、画像出力部240、記憶部250、外部記憶部260、などから構成される。
制御部210は、例えば、CPU(Central Processing Unit:中央演算処理装置)などのプロセッサや、RAM(Random Access Memory)などの主記憶装置(メモリ)、などから構成され、後述する記憶部250などに格納されているプログラムを実行することで、デジタルカメラ1の各部を制御する。また、本実施形態では、所定のプログラムを実行することで、後述する各処理にかかる機能が制御部210によって実現される。
画像処理部220は、例えば、ADC(Analog-Digital Converter:アナログ−デジタル変換器)、バッファメモリ、画像処理用のプロセッサ(いわゆる、画像処理エンジン)などから構成され、イメージセンサ部120Aおよび120Bによって生成された電気信号に基づいて、撮像画像を示すデジタルデータを生成する。
すなわち、イメージセンサ部120A(120B)から出力されたアナログ電気信号をADCがデジタル信号に変換して順次バッファメモリに格納すると、バッファされたデジタルデータに対し、画像処理エンジンがいわゆる現像処理などをおこなうことで、画質の調整やデータ圧縮などをおこなう。
画像メモリ230は、例えば、RAMやフラッシュメモリなどの記憶装置から構成され、画像処理部220によって生成された撮像画像データや、制御部210によって処理される画像データなどを一時的に格納する。
画像出力部240は、例えば、RGB信号の生成回路などから構成され、画像メモリ230に展開された画像データをRGB信号などに変換して表示画面(後述する表示部310など)に出力する。
記憶部250は、例えば、ROM(Read Only Memory)やフラッシュメモリなどの記憶装置から構成され、デジタルカメラ1の動作に必要なプログラムやデータなどを格納する。本実施形態では、制御部210などが実行する動作プログラムや処理に必要となるパラメータや演算式などが記憶部250に格納されているものとする。
外部記憶部260は、例えば、メモリカードなどといった、デジタルカメラ1に着脱可能な記憶装置から構成され、デジタルカメラ1で撮像した画像データなどを格納する。
インタフェース部300は、デジタルカメラ1とその使用者あるいは外部装置とのインタフェースにかかる構成であり、図1に示すように、表示部310、外部インタフェース(I/F)部320、操作部330、などから構成される。
表示部310は、例えば、液晶表示装置などから構成され、デジタルカメラ1を操作するために必要な種々の画面や、撮影時のライブビュー画像、撮像画像、などを表示出力する。本実施形態では、画像出力部240からの画像信号(RGB信号)などに基づいて撮像画像等の表示出力がおこなわれる。
外部インタフェース部320は、例えば、USB(Universal Serial Bus)コネクタやビデオ出力端子などから構成され、外部のコンピュータ装置への画像データの出力や、外部のモニタ装置への撮像画像の表示出力などをおこなう。
操作部330は、デジタルカメラ1の外面上に構成されている各種ボタンなどによって構成され、デジタルカメラ1の使用者による操作に応じた入力信号を生成して制御部210に入力する。操作部330を構成するボタンとして、例えば、シャッタ動作を指示するためのシャッタボタンや、デジタルカメラ1のもつ動作モードを指定するためのモードボタン、各種設定をおこなうための十字キーや機能ボタン、などが含まれているものとする。
ここで、本実施形態では、記憶部250に格納されている動作プログラムを制御部210が実行することで、後述する各処理が実現されるが、この場合に制御部210によって実現される機能を、図3を参照して説明する。
図3は、制御部210によって実現される機能を示した機能ブロック図である。ここでは、複眼カメラによって撮像された画像から被写体画像を抽出する機能を実現するために必要な機能構成を示す。この場合、図示するように、制御部210は、動作モード処理部211、撮像制御部212、画像分割部213、距離算出部214、被写体抽出部215、などとして機能する。
動作モード処理部211は、表示部310との協働により、デジタルカメラ1が有する各種動作モードをデジタルカメラ1のユーザに指定させるために必要な画面表示や指定された動作モード毎の設定画面表示などをおこなう他、操作部330との協働により、ユーザが指定した動作モードを認識し、当該動作モードの実行に必要なプログラムや演算式などを記憶部250から読み出し、制御部210の主記憶装置(メモリ)にロードする。
本実施形態では、デジタルカメラ1での撮影後に撮像画像から被写体部分を抽出する動作モード(画像抽出モード)がユーザによって指定されるものとし、以下に説明する制御部210の各機能構成は、画像抽出モードの指定に応じて動作モード処理部211がロードしたプログラムを実行することで実現される機能構成である。
撮像制御部212は、第1撮像部100Aおよび第2撮像部100Bを制御することでデジタルカメラ1での撮像動作を実行する。本実施形態にかかる被写体画像抽出機能は、平行ステレオ構成となっている第1撮像部100Aと第2撮像部100Bから得られた撮像画像から被写体画像を抽出するので、本実施形態にかかる撮像制御部212は、第1撮像部100Aと第2撮像部100Bで同時に撮像動作をおこなうよう制御する。これにより、同一の被写体について、光軸位置の異なる2つの撮像画像が取得される。
画像分割部213は、撮像制御部212の制御によって得られた撮像画像上での領域分割をおこなう。ここでは、取得された2つの撮像画像のうちの一方について領域分割をおこなう。本実施形態では、第1撮像部100Aによる撮像動作で得られた撮像画像(以下、「対象画像」とする)で領域分割をおこなうものとする。本実施形態にかかる画像分割部213は、例えば、色情報や輝度勾配情報などを用いるMeanshift法やWatershed法などによって領域分割をおこなうものとする。
距離算出部214は、対象画像上で分割された領域に基づく2つの撮像画像間の照合により、領域毎の撮影距離を算出する処理をおこなう。本実施形態では、対象画像上で分割された領域をテンプレートとして、第2撮像部100Bの撮像動作で得られた撮像画像(以下、「基準画像」とする)に対するテンプレート照合をおこない、照合する分割領域の画像の相違度から撮影距離を算出する。本実施形態にかかる距離算出部214は、例えば、差の2乗和を評価式とするSSD(Sum of Squared Difference)を用いたテンプレート照合をおこなうものとする。
被写体抽出部215は、距離算出部214によるテンプレート照合で算出された分割領域毎の撮影距離に基づいて、所望する被写体像が示されている領域を抽出する。ここで、撮影距離に基づく判定では、被写体領域の候補を抽出し、抽出した被写体領域候補と背景との境界における色間距離を算出することで、正確な被写体画像の抽出をおこなう。
以上が制御部210によって実現される機能である。なお、本実施形態では、制御部210がプログラムを実行することによる論理的処理で上述した各機能が実現されるものとするが、これらの機能を、例えば、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などのハードウェアによって構成してもよい。この場合、図3に示した機能のうち、画像処理にかかる機能については、画像処理部220によって実現されてもよい。
以上説明したデジタルカメラ1の構成は、本発明を実現するために必要な構成であり、デジタルカメラとしての基本機能や種々の付加機能に用いられる構成は必要に応じて備えられているものとする。
このような構成のデジタルカメラ1による動作を以下に説明する。ここでは、デジタルカメラ1の動作モードのうち、上述した「画像抽出モード」が選択された場合にデジタルカメラ1が実行する「被写体抽出処理」を、図4に示すフローチャートを参照して説明する。この「被写体抽出処理」は、デジタルカメラ1のユーザが操作部330を操作することで、画像抽出モードを選択したことを契機に開始される。この場合、動作モード処理部211が、被写体抽出動作にかかるプログラムなどを記憶部250からロードすることで、図3に示した各機能構成により以下の処理が実行される。
処理が開始されると、撮像制御部212は、シャッタボタン(操作部330)が操作されたことに応じて、第1撮像部100Aおよび第2撮像部100Bを制御し、第1撮像部100Aおよび第2撮像部100Bで同時に撮像動作(複眼同時撮像)をおこなわせる(ステップS11:Yes、ステップS12)。
ここで、本実施形態では、図8(a)に示すような場面をデジタルカメラ1で撮影する場合を想定する。ここでは、図8(a)に示すように、被写体Aと被写体Bをデジタルカメラ1で撮影するが、デジタルカメラ1から各被写体までの距離は、被写体Aの方が近くなっている。
このような場面で複眼同時撮像をおこなった場合の撮像画像の例を、図8(b)および図8(c)に示す。本実施形態では、被写体に向かって左側となるレンズが第2撮像部100Bに構成され、被写体に向かって右側となるレンズが第1撮像部100Aに構成されているものとする。この場合、図8(b)は、第2撮像部100Bによって撮像された画像を示し、図8(c)は、第1撮像部100Aによって撮像された画像を示す。
上述したように、各レンズの光軸が水平方向に異なるよう配置されているので、撮像によって得られた2つの画像には、同じ被写体が写っているが、その横方向の位置は異なっている。
このようにして2つの撮像画像が取得されると、動作モード処理部211は、表示部310に設定画面を表示し、デジタルカメラ1のユーザに、撮像画像からの抽出を所望する被写体位置の指定方法を設定させる(ステップS13)。ここでは、被写体位置を指定する方法として、例えば、「画像中央」、「任意指定」、「顔認識」、「最短距離」、などが選択可能に設定画面に表示され、デジタルカメラ1のユーザは、操作部330を操作することで、撮像画像に適した方法を指定する。
ここで、「画像中央」は、抽出を所望する被写体が撮像画像の中央部に写っている場合に選択される方法であり、被写体位置が画像の中央であることが指定される。
「任意指定」は、抽出を所望する被写体の撮像画像上での位置をユーザが任意に指定する方法であり、例えば、カーソルによって撮像画像上の位置を指定する。
「顔認識」は、デジタルカメラ1が顔認識機能を有している場合に選択可能な方法であり、顔認識によって認識された顔部分の位置が被写体位置として指定される方法である。
「最短距離」は、撮像画像に写っている複数の被写体のうち、デジタルカメラ1と最も近い距離にある被写体を、抽出対象として指定する方法である。この方法は、撮影距離に基づいて被写体部分を判定するため、上記の各方法と異なり、被写体位置を指定しない方法である。
これらの方法のいずれかが指定されると、動作モード処理部211は、指定された方法がいずれであるかを示す情報を、制御部210のメモリに保持する。
被写体位置の指定方法が選択されると、動作モード処理部211は、その旨を画像分割部213に通知する。画像分割部213は、動作モード処理部211からの通知に応じて、画像メモリ230に展開されている撮像画像のうち、第1撮像部100Aによって撮像された画像(対象画像)を、複数の小領域に分割する(ステップS14)。
ここでは、色情報や輝度勾配情報などを用いるMeanshift法やWatershed法などによって領域分割をおこなう。すなわち、色や輝度などの画素値に基づいて、撮像画像が複数の領域に分割される。領域分割された対象画像の例を図9(a)に示す。
このようにして対象画像を複数の小領域に分割すると、画像分割部213は、その旨を距離算出部214に通知する。距離算出部214は、画像分割部213からの通知に応じて、分割された領域単位で撮影距離を算出する処理をおこなう。ここで、上述した被写体位置の指定方法により被写体位置の指定があるか否かを判別する(ステップS15)。ここでは、上述した「画像中央」、「任意指定」、「顔認識」のいずれかが選択されていれば「被写体位置の指定あり」と判別し(ステップS15:Yes)、「最短距離」が選択されていれば「被写体位置の指定なし」と判別する(ステップS15:No)。
距離算出部214は、「被写体位置の指定あり」と判別した場合には(ステップS15:Yes)、「候補領域抽出処理(1)」を実行し(ステップS100)、「被写体位置の指定なし」と判別した場合には(ステップS15:No)、「候補領域抽出処理(2)」を実行する(ステップS200)。
まず、「候補領域抽出処理(1)」を、図5に示すフローチャートを参照して説明する。
処理が開始されると、距離算出部214は、対象画像上で分割された領域のうち、指定された位置に該当する領域を基準テンプレートに指定する(ステップS101)。
ここで、位置指定方法が「画像中央」である場合、距離算出部214は、対象画像の中央位置を示す座標が含まれている領域を基準テンプレートに指定する。
また、位置指定方法が「任意指定」であれば、ユーザが指定した位置の座標が含まれている領域を基準テンプレートに指定する。
位置指定方法が「顔認識」の場合は、対象画像上で顔認識動作を実行し、認識された顔部分の座標が含まれている領域を基準テンプレートに指定する。なお、顔認識にかかる動作は、既知の顔認識技術を用いて制御部210によって実行されるものとする。
基準テンプレートを指定すると、距離算出部214は、領域分割がおこなわれた対象画像とは光軸位置の異なる基準画像上で、指定した基準テンプレートを走査する(ステップS102)。ここでは、SSDなどによるテンプレートマッチングにより、基準テンプレートと類似する画像領域を基準画像上で探索する。ここで、SSDによるテンプレートマッチングをおこなった場合、完全に一致する画像があれば、値が0になる。この値は画像間の相違が大きい程大きくなるので、テンプレートマッチングによって得られる値は、テンプレートとの相違度を示すことになる。
よって、距離算出部214は、基準テンプレートを基準画像上で走査して得られる相違度が最小となる部分が、基準テンプレートに対応する画像領域として特定する(ステップS103)。
例えば、対象画像上で指定された基準テンプレートが図9(b)でハッチングによって示した領域であるとすると、基準画像上で探索される領域は、例えば、図9(c)でハッチングによって示した領域となる。この場合、各画像上の対応領域の座標は横方向で異なるため、図示するような視差dが生じている。
よって、距離算出部214は、ステップS103で特定した基準画像上の領域と、対象画像上で指定した基準テンプレートとの座標上の差異を算出する(ステップS104)。
このようにして座標上の差異が求められると、三角測量の原理により、基準テンプレートの領域に写っている被写体からデジタルカメラ1までの距離(撮影距離)を算出することができる(ステップS105)。
ここで、本実施形態では、抽出対象とする被写体を被写体Aとし(図8(a)参照)、被写体Aが写っている領域(図9(b)でハッチングによって示した基準テンプレート)の中心位置をA1とし、カメラ座標において座標(X1、Y1、Z1)であるものとする。この場合、図2(b)に示したような平行ステレオ構成のデジタルカメラ1においては、A1の座標(X1、Y1、Z1)はそれぞれ、以下の数1〜数3で表される。ここで、(u1, v1)は、第1撮像部100Aについての画像座標面(すなわち、対象画像)への射影点、(u'1, v'1)は、第2撮像部100Bについての画像座標面(すなわち、基準画像)への射影点を示す。また、bは第1撮像部100Aおよび第2撮像部100Bの光軸間距離(基線間距離)を示す。
(数1)
X1=(b×(u1))/((u'1)−u1)
(数2)
Y1=(b×(v1))/((u'1)−u1)
(数3)
Z1=(b×f)/((u'1)−u1)
ここで、デジタルカメラ1からA1までの距離は、A1の座標Z1によって示されるので、距離算出部214は、上記数3を演算することで、基準テンプレートまでの撮影距離を算出することができる。
この数3は、三角測量の原理によって導かれるものである。三角測量の原理を、図10を参照して説明する。
図10は、図2(b)に示した平行ステレオ構成におけるカメラ座標を上から見た模式図である。第1撮像部100Aによる視点がカメラ座標となっているので、被写体位置A1のX軸方向の座標はカメラ座標上のX1で与えられ、この数値は図10に示した数式(1)で求められる。
一方、第2撮像部100Bからの視点におけるA1のX軸方向の座標は、光軸間距離bとカメラ座標のX1との和であり、図10に示した数式(2)で求められ、これらの数式(1)と数式(2)から、上記数3が導き出される。
このような三角測量の原理を用いて、基準テンプレートの撮影距離(以下、「基準撮影距離」とする)を算出すると、距離算出部214は、対象画像上で、基準テンプレートに連続して隣接する複数の領域を選択し(ステップS106)、選択した各領域について、上述したようなテンプレートマッチングをおこなう(ステップS107)。
すなわち、抽出を所望する被写体の位置として指定された基準テンプレートであるが、当該基準テンプレートの領域のみで被写体のすべてが含まれているとは限らないため、基準テンプレートに隣接する領域についてテンプレートマッチングをおこなって、被写体Aを示している領域を探索する。
この場合、被写体Aが写っている領域は、基準テンプレートについて算出された撮影距離と同一もしくは近似するので、距離算出部214は、選択した領域それぞれの撮影距離をテンプレートマッチングによって算出する。
そして、距離算出部214は、基準テンプレートで算出した撮影距離と同一もしくは近似する撮影距離が算出された領域を特定する(ステップS108)。ここで、被写体に奥行きがある場合、基準テンプレートの撮影距離と同一の撮影距離となる領域だけでは、被写体を示すことができない。よって、奥行き方向の距離に一定の範囲を設定し、この範囲内の撮影距離となる領域を特定する。この範囲は、予め既定値が設定されていてもよく、あるいは、本処理をおこなう都度、ユーザに指定させるようにしてもよい。
距離算出部214は、ステップS101で基準テンプレートとして指定した領域と、ステップS108で特定した領域とを、被写体を示す領域の候補、すなわち、抽出する領域の候補とし、各領域を示す画像データを対象画像から抽出する(ステップS109)。
このようにして、被写体領域として抽出する候補となる領域が抽出されると、「被写体抽出処理」(図4)のフローに戻る。
次に、被写体位置が指定されなかった場合に実行される「候補領域抽出処理(2)」を、図6に示すフローチャートを参照して説明する。
被写体位置が指定された場合は、当該位置を基準テンプレートとしたが、被写体位置が指定されず、撮影距離が最短距離となる部分を被写体位置とする場合には、対象画像上で分割された領域すべてを用いてテンプレートマッチングをおこなう。
よって、距離算出部214はまず、対象画像上で分割された領域にナンバリングをおこない(ステップS201)、領域番号順に順次指定する(ステップS202)。
この場合、指定した領域をテンプレートとして基準画像上を走査する(ステップS203、ステップS204)。ここでは、上述した「候補領域抽出処理(1)」でおこなったテンプレートマッチングと同様の方法で走査する。
そして、各テンプレートについて、相違度が最小となる部分を特定すると(ステップS205)、距離算出部214は、当該相違度と閾値を比較する。つまり、撮像画像全体を対象とした場合、視差の影響などにより対応部分が存在しないことがある。よって、相違度が最小となる部分が特定されても、その相違度が所定の閾値より大きい場合には、マッチングの対象から除外する。
この場合、距離算出部214は、相違度が閾値以内となる領域については(ステップS206:Yes)、その座標上の差異を算出した上で三角測量の原理で撮影距離を算出し(ステップS207、ステップS208)、その領域の座標と撮影距離をメモリなどに記録する(ステップS209)。
一方、相違度が閾値より大きい場合(ステップS206:No)、このような撮影距離の算出はおこなわない。
このような動作を分割された各領域についておこなう(ステップS210、ステップS211:No)。
すべての分割領域について上記の処理をおこなうと(ステップS211:Yes)、距離算出部214は、ステップS209で記録した撮影距離に基づき、対象画像上の分割領域の中で、撮影距離が最短となる領域を特定する(ステップS212)。
抽出を所望する被写体(被写体A)が最も近くにある場合、ステップS212で特定された領域に当該被写体が写っていることになる。よって、距離算出部214は、特定した領域に連続して隣接する領域のうち、撮影距離が所定の範囲内となる領域を特定し(ステップS213)、ステップS212とステップS213で特定した領域を、抽出候補として抽出する(ステップS214)。
このようにして抽出候補となる領域の画像データを抽出すると、「被写体抽出処理」(図4)のフローに戻る。
「被写体抽出処理」では、上述した「候補領域抽出処理(1)」または「候補領域抽出処理(2)」で抽出された被写体領域を修正するための「抽出領域修正処理」が被写体抽出部215によって実行される(ステップS300)。
つまり、撮影距離に基づいて被写体領域を抽出した場合、距離の近い他の被写体が含まれてしまう場合がある。例えば、被写体Aを抽出対象とした場合に抽出された候補領域が、図11(a)にハッチングで示す部分である場合、この領域によって示される画像は、図11(b)に示すように、被写体Aとは異なるものになってしまう。
このような誤認識を修正するため、被写体抽出部215は「抽出領域修正処理」を実行する。この「抽出領域修正処理」を、図7に示すフローチャートを参照して説明する。
処理が開始されると、被写体抽出部215は、候補となった領域にナンバリングをおこない(ステップS301)、候補領域を順次指定する(ステップS302)。
このとき被写体抽出部215は、修正動作の状態を判定するためのフラグ(状態判定フラグ)に「0」を設定することでリセットする(ステップS303)。
被写体抽出部215は、指定した候補領域に隣接する領域(図11(c)参照)で、「候補領域抽出処理(1)」または「候補領域抽出処理(2)」で候補領域とされなかった領域(以下、「隣接非候補領域」とする)を抽出する(ステップS304)。
この状態を、図12(a)を参照して説明する。図12(a)は、理解を容易にするため、候補領域と、これに隣接する他の領域を模式的に示したものである。図12(a)に示す候補領域には、複数の隣接領域があるが、このうち、相違度が閾値より大きいと判別された領域については「隣接非候補領域」から除外する。このような領域については、相違度が閾値より大きいと判別された時点で、例えば、マスクするなどにより除外する。
被写体抽出部215は、現在対象となっている候補領域に隣接し、かつ、相違度が閾値以内であった非候補領域を「隣接非候補領域」に指定すると、当該候補領域と隣接非候補領域の双方に、図12(a)に示すような判定領域を設定する(ステップS305)。
この判定領域は、例えば、候補領域と隣接非候補領域の境界部分に設定され、例えば、1ピクセル分の幅をもった矩形領域である。なお、判定領域の位置は境界部分に限られるものではなく、例えば、図12(b)に示すように、境界からオフセットした位置に設定してもよい。
被写体抽出部215は、このようにして設定した2つの判定領域間の色間距離を算出する(ステップS306)。ここでは、例えば、各判定領域におけるRGB空間をLab空間に変換し、abのユークリッド間距離を算出することで色間距離を算出する。
被写体抽出部215は、算出した色空間距離を閾値と比較し(ステップS307)、閾値以内の色間距離であれば(ステップS308:Yes)、当該候補領域を、被写体領域としての抽出対象から除外する(ステップS309)。
例えば、図11(a)の例においては、被写体Aを示す領域の他に、被写体Aが置かれていたテーブルの一部が候補として誤認識されているが、誤認識された領域についての隣接非候補領域はテーブル部分を示しているので、色間距離が近いことになる。よって、候補領域と隣接非候補領域との色間距離が閾値以内となる場合には、当該候補領域は誤認識されたものとみなすことができ、この候補領域を除外する。
このような、色間距離に基づいて候補領域を除外した場合、被写体抽出部215は、状態判定フラグに「1」を設定する(ステップS310)。
このような動作を、全ての候補領域についておこなう(ステップS311、ステップS312:No)。
すべての候補領域について上記処理をおこなうと(ステップS312:Yes)、被写体抽出部215は、状態判定フラグが「0」であるか否かを判別する(ステップS313)。上述したように、色間距離に基づいて候補領域の除外がおこなわれると、状態判定フラグが「1」となるが、除外がおこなわれなかった場合(ステップS308:No)には、状態判定フラグは「0」のままとなる。
状態判定フラグが「1」となっている場合(ステップS313:No)、色間距離に基づいた修正がおこなわれたことになるので、除外後の候補領域を対象としてステップS301〜ステップS312の処理をおこなうことで、より詳細に誤認識領域の除去をおこなう。
このような処理を繰り返し、色間距離に基づく修正がなされなくなれば(ステップS313:Yes)、本処理を終了し、「被写体抽出処理」(図4)のフローに戻る。
「被写体抽出処理」では、「抽出領域修正処理」で修正された候補領域を被写体領域として抽出する(ステップS16)。この場合、被写体抽出部215は、抽出した被写体領域の画像データから被写体部分のみを示した画像を生成し、例えば、表示部310に表示出力する。また、操作部330の操作によるユーザ指示に基づいて、抽出した被写体画像を記憶部250や外部記憶部260などに保存する。
そして、所定の終了イベント(例えば、画像抽出モードの解除や、デジタルカメラ1の電源オフなど)が発生するまで上述した各処理をおこない(ステップS17:No)、終了イベントの発生により処理を終了する(ステップS17:Yes)。
以上説明したように、本発明を上記実施形態の如く適用することにより、撮像画像からの効果的な被写体抽出を効率的におこなうことができる。
つまり、平行ステレオに基づいて得られる光軸の異なる撮像画像から、三角測量の原理で撮影距離を算出することができるので、撮像画像上の領域単位で撮影距離に基づいた領域抽出をおこなうことができ、正確な被写体抽出を自動的におこなうことができる。
この場合において、例えば、色情報や輝度情報などの画素値に基づいた領域分割をおこなってテンプレートマッチングをおこなうので、被写体部分の画像上の特徴がテンプレートとなり、効率的なテンプレートマッチングをおこなうことができる。
また、撮影距離に基づいて被写体領域を特定しているので、撮影距離が最短となる領域を被写体部分として抽出することができ、被写体位置を指定しない場合でも、自動的に被写体領域を抽出することができる。
あるいは、被写体位置が指定できる場合には、指定された位置の周辺でマッチングをおこなうので、処理時間を大幅に短縮することができる。
さらに、撮影距離に基づいて被写体領域の候補を特定し、候補領域に隣接する非候補領域との間の色間距離に基づいて候補を除外するので、撮影距離だけでは誤認識されるような領域のない、より正確な被写体抽出をおこなうことができる。
上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
また、上記実施形態では、色情報や輝度情報に基づいて領域分割する例を示したが、テンプレートマッチングをおこなうことができるのであれば、領域分割の方法はこれに限られず任意である。
また、上記実施形態で示した被写体位置を指定する方法は一例であり、これらに限られるものではない。
また、上記実施形態では、誤認識された領域を修正する際に、色間距離に基づく判定をおこなったが、被写体部分を峻別することができるのであれば、判定に用いる方法は任意である。
なお、本発明を上記実施形態で例示したデジタルカメラ1のような撮像装置で実現する場合においては、本発明にかかる構成や機能を予め備えた撮像装置として提供できる他、制御部210の各機能と同様の機能を実現するプログラムを適用することにより、既存の撮像装置を本発明にかかる撮像装置をして機能させることもできる。この場合、平行ステレオの構成となっている撮像装置であることが望ましいが、撮像手段が単一の撮像装置であっても、同一の被写体について光軸位置の異なる画像を取得することができれば、本発明の適用により、効率的な被写体抽出をおこなうことができる。
例えば、上記実施形態では、平行ステレオの撮像装置として本発明を実現した場合を例示したが、撮像機能のない装置(例えば、パーソナルコンピュータなど)として本発明の画像処理装置を実現してもよい。
この場合も、本発明にかかるプログラムを適用することで、既存の装置を本発明にかかる画像処理装置として機能させることができる。
このようなプログラムの適用方法は任意であり、例えば、CD−ROMやメモリカードなどの記憶媒体に格納して適用できる他、例えば、インターネットなどの通信媒体を介して適用することもできる。
本発明の実施形態にかかるデジタルカメラの構成を示すブロック図である。 本発明の実施形態にかかるデジタルカメラが複眼カメラ(平行ステレオカメラ)であることを説明するための図であり、(a)はデジタルカメラの外観構成を示し、(b)は平行ステレオの概念を示す。 図1に示す制御部によって実現される機能を示す機能ブロック図である。 本発明の実施形態にかかる「被写体抽出処理」を説明するためのフローチャートである。 図4に示す「被写体抽出処理」で実行される「候補領域抽出処理(1)」を説明するためのフローチャートである。 図4に示す「被写体抽出処理」で実行される「候補領域抽出処理(2)」を説明するためのフローチャートである。 図4に示す「被写体抽出処理」で実行される「抽出領域修正処理」を説明するためのフローチャートである。 本発明の実施形態で想定する場面を説明するための図であり、(a)は撮影する場面の例を示し、(b)および(c)は撮像された画像の例を示す。 図5または図6に示した「候補領域抽出処理(1)」または「候補領域抽出処理(2)」における動作を説明するための図であり、(a)は領域分割された撮像画像の例を示し、(b)はテンプレートとして指定された領域の例を示し、(c)はテンプレートマッチングによって探索された領域の例を示す。 三角測量の原理を説明するための図である。 図7に示した「抽出領域修正処理」における動作を説明するための図であり、(a)は候補領域が誤認識された場合の例を示し、(b)は候補領域が誤認識された場合の被写体画像の例を示し、(c)は誤認識された領域を修正するために用いられる領域の例を示す。 図7に示した「抽出領域修正処理」における動作を説明するための図であり、(a)は候補領域と隣接非候補領域に設定される判定領域の例を示し、(b)は候補領域と隣接非候補領域に設定される判定領域の他の例を示す。
符号の説明
1…デジタルカメラ、100A…第1撮像部、110A…光学装置、120A…イメージセンサ部、100B…第2撮像部、110B…光学装置、120B…イメージセンサ部、200…データ処理部、210…制御部、211…動作モード処理部、212…撮像制御部、213…画像分割部、214…距離算出部、215…被写体抽出部、220…画像処理部、230…画像メモリ、240…画像出力部、250…記憶部、260…外部記憶部、300…インタフェース部、310…表示部、320…外部インタフェース部、330…操作部

Claims (10)

  1. 同一の被写体について撮像時の光軸位置が異なる2つの撮像画像を取得する画像取得手段と、
    前記画像取得手段が取得した撮像画像の一方を複数の領域に分割する分割手段と、
    前記分割された領域をテンプレートとした前記撮像画像の他方に対するテンプレートマッチングにより、前記分割された領域単位で撮影距離を算出する撮影距離算出手段と、
    前記撮影距離算出手段が算出した撮影距離に基づいて、前記撮像画像から被写体領域を抽出する抽出手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記分割手段は、前記撮像画像における画素値に基づいて前記複数の領域に分割する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記抽出手段は、前記撮影距離が最も短い領域と、前記撮影距離に基づいて該領域と連続する領域と、を前記被写体領域として抽出する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記抽出手段は、前記撮像画像の中央にある領域と、前記撮影距離に基づいて該領域と連続する領域と、を前記被写体領域として抽出する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記抽出手段は、前記撮像画像上で指定された位置にある領域と、前記撮影距離に基づいて該領域と連続する領域と、を前記被写体領域として抽出する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  6. 前記撮像画像上で人物の顔を認識する顔認識手段をさらに備え、
    前記抽出手段は、前記顔認識手段が認識した顔部分の領域と、前記撮影距離に基づいた該領域に連結する領域と、を前記被写体領域として抽出する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  7. 前記抽出手段は、
    被写体領域として抽出した領域を候補領域とし、該候補領域に隣接する非候補領域との色間距離を算出する色間距離算出手段と、
    前記色間距離算出手段が算出した色間距離に基づいて、前記候補領域を候補から除外する除外手段と、をさらに備える、
    ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記画像取得手段は、前記2つの撮像画像を取得する平行ステレオカメラを備える、
    ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 同一の被写体について撮像時の光軸位置が異なる2つの撮像画像から被写体領域を抽出する画像抽出方法であって、
    前記2つの撮像画像を取得する画像取得ステップと、
    前記画像取得ステップで取得した撮像画像の一方を複数の領域に分割する分割ステップと、
    前記分割された領域をテンプレートとした前記撮像画像の他方に対するテンプレートマッチングにより、前記分割された領域単位で撮影距離を算出する撮影距離算出ステップと、
    前記撮影距離算出ステップで算出された撮影距離に基づいて、前記撮像画像から被写体領域を抽出する抽出ステップと、
    を含むことを特徴とする画像抽出方法。
  10. コンピュータに、
    同一の被写体について撮像時の光軸位置が異なる2つの撮像画像を取得する機能と、
    前記取得した撮像画像の一方を複数の領域に分割する機能と、
    前記分割された領域をテンプレートとした前記撮像画像の他方に対するテンプレートマッチングにより、前記分割された領域単位で撮影距離を算出する機能と、
    前記算出した撮影距離に基づいて、前記撮像画像から被写体領域を抽出する機能と、
    を実現させることを特徴とするプログラム。
JP2008331103A 2008-12-25 2008-12-25 画像処理装置、画像抽出方法、および、プログラム Pending JP2010154323A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008331103A JP2010154323A (ja) 2008-12-25 2008-12-25 画像処理装置、画像抽出方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008331103A JP2010154323A (ja) 2008-12-25 2008-12-25 画像処理装置、画像抽出方法、および、プログラム

Publications (1)

Publication Number Publication Date
JP2010154323A true JP2010154323A (ja) 2010-07-08

Family

ID=42572855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008331103A Pending JP2010154323A (ja) 2008-12-25 2008-12-25 画像処理装置、画像抽出方法、および、プログラム

Country Status (1)

Country Link
JP (1) JP2010154323A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249149A (ja) * 2011-05-30 2012-12-13 Canon Inc 画像処理装置、画像処理方法およびそのプログラム
JP2013017053A (ja) * 2011-07-04 2013-01-24 Taisei Corp パノラマ画像距離算出装置
WO2016002296A1 (ja) * 2014-07-01 2016-01-07 ソニー株式会社 光学制御装置、および光学制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366963A (ja) * 2001-06-12 2002-12-20 Ricoh Co Ltd 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
JP2006301962A (ja) * 2005-04-20 2006-11-02 Toyota Motor Corp 画像処理方法及び画像処理装置
JP2006310979A (ja) * 2005-04-26 2006-11-09 Fuji Photo Film Co Ltd 撮像装置
JP2008021224A (ja) * 2006-07-14 2008-01-31 Digital Fashion Ltd 画像処理プログラム、画像処理方法、及び画像処理装置
JP2008187260A (ja) * 2007-01-26 2008-08-14 Nikon Corp 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366963A (ja) * 2001-06-12 2002-12-20 Ricoh Co Ltd 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
JP2006301962A (ja) * 2005-04-20 2006-11-02 Toyota Motor Corp 画像処理方法及び画像処理装置
JP2006310979A (ja) * 2005-04-26 2006-11-09 Fuji Photo Film Co Ltd 撮像装置
JP2008021224A (ja) * 2006-07-14 2008-01-31 Digital Fashion Ltd 画像処理プログラム、画像処理方法、及び画像処理装置
JP2008187260A (ja) * 2007-01-26 2008-08-14 Nikon Corp 撮像装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249149A (ja) * 2011-05-30 2012-12-13 Canon Inc 画像処理装置、画像処理方法およびそのプログラム
JP2013017053A (ja) * 2011-07-04 2013-01-24 Taisei Corp パノラマ画像距離算出装置
WO2016002296A1 (ja) * 2014-07-01 2016-01-07 ソニー株式会社 光学制御装置、および光学制御方法

Similar Documents

Publication Publication Date Title
JP4983905B2 (ja) 撮像装置、3dモデリングデータ生成方法、および、プログラム
JP4752918B2 (ja) 画像処理装置、画像照合方法、および、プログラム
KR101657039B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 촬상 시스템
JP2014143673A (ja) 画像処理装置、撮像装置、画像処理方法、及び記録媒体
JP2010166545A (ja) 撮像装置、ストロボ画像生成方法、および、プログラム
JP6020471B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
CN111726521B (zh) 终端的拍照方法、拍照装置和终端
JP2019106045A (ja) 画像処理装置、方法及びプログラム
JP2011191568A (ja) 撮像装置、表示方法、および、プログラム
JP2014127965A (ja) 画像処理装置及び画像処理方法
JP5263437B2 (ja) 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP5310837B2 (ja) 画像生成装置、デジタルカメラ、方法、及びプログラム
JP2009111716A (ja) 撮像装置、プログラムおよびテンプレート生成方法
JP6635764B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2019175112A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2009053786A (ja) 画像処理装置、撮像装置、画像処理方法、および、プログラム
JP2010154323A (ja) 画像処理装置、画像抽出方法、および、プログラム
JP2013195577A (ja) 撮像装置、撮像方法及びプログラム
JP2018182700A (ja) 画像処理装置およびその制御方法、プログラム、並びに記憶媒体
WO2015198478A1 (ja) 画像歪み補正装置、情報処理装置および画像歪み補正方法
JP5359930B2 (ja) 撮像装置、表示方法、および、プログラム
JP6604760B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2019191661A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2012073930A (ja) 画像処理装置、画像処理方法及びプログラム
JP7373297B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130723