JP5911292B2 - 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム - Google Patents
画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム Download PDFInfo
- Publication number
- JP5911292B2 JP5911292B2 JP2011277732A JP2011277732A JP5911292B2 JP 5911292 B2 JP5911292 B2 JP 5911292B2 JP 2011277732 A JP2011277732 A JP 2011277732A JP 2011277732 A JP2011277732 A JP 2011277732A JP 5911292 B2 JP5911292 B2 JP 5911292B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- blur kernel
- image processing
- blur
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 46
- 238000003384 imaging method Methods 0.000 title claims description 13
- 238000003672 processing method Methods 0.000 title claims description 11
- 238000004364 calculation method Methods 0.000 claims description 33
- 230000008859 change Effects 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000010365 information processing Effects 0.000 claims description 3
- 238000005316 response function Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 description 27
- 238000013527 convolutional neural network Methods 0.000 description 16
- 238000000034 method Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Processing Of Color Television Signals (AREA)
- Studio Devices (AREA)
Description
本発明は、撮影画像からぼけ付加画像を生成する画像処理装置に関する。
近年、イメージセンサのサイズを大きくしてぼけ味の良好なコンパクトデジタルカメラが提案されている。しかし、イメージセンサのサイズが大きいと結像光学系も大きくなるため、カメラの小型化は困難である。そこで特許文献1には、パンフォーカス(全ての領域でピントが合った状態の画像)に近い画像を撮影するとともに被写体距離の情報を取得し、撮影画像に所定の画像処理を施すことによりぼけ味を付加するカメラが開示されている。また非特許文献1には、ぼけ味の付加方法に関し、結像光学系の情報を利用し、ガウシアンや熱拡散方程式等の解析的な関数を利用する方法が開示されている。非特許文献2には、このような画像処理をGPUなどのアクセラレータを用いてハードウエア的に高速処理する構成が開示されている。
しかしながら、連続的な距離変化を含む画像データにぼけを付加しようとすると、大きな演算量が必要となる。非特許文献2では、GPUを用いてハードウエア的に高速処理を行うことで計算時間を短縮しているが、演算量そのものを削減するものではない。また、演算量を削減するために被写体側に制限を設ける手法または連続的な距離変化を不連続なデータとして扱う手法が考えられるが、距離感のない画像になるか、または、画像のぼけ味が不自然になる。
そこで本発明は、少ない演算量でぼけ付加画像を生成可能な画像処理装置、撮像装置、画像処理方法、および、画像処理プログラムを提供する。
本発明の一側面としての画像処理装置は、撮影画像の被写体距離および画角に応じたぼけカーネルを用いて該撮影画像をぼかした場合に画質の変化量が所定の範囲内となる画像領域を決定し、該撮影画像を該画像領域に分割する画像領域分割部と、前記画像領域分割部で分割された前記画像領域ごとにぼけカーネルを算出するぼけカーネル生成部と、前記ぼけカーネル生成部で算出された前記ぼけカーネルを用いて前記撮影画像に対するコンボリューション演算を行うことで、ぼけ付加画像を生成する画像処理演算部とを有する。
本発明の他の側面としての撮像装置は、前記画像処理装置を有する。
本発明の他の側面としての画像処理方法は、撮影画像の被写体距離および画角に応じたぼけカーネルを用いて該撮影画像をぼかした場合に画質の変化量が所定の範囲内となる画像領域を決定し、該撮影画像を該画像領域に分割するステップと、分割された前記画像領域ごとにぼけカーネルを算出するステップと、前記画像領域ごとに算出された前記ぼけカーネルを用いて前記撮影画像に対するコンボリューション演算を行うことで、ぼけ付加画像を生成するステップとを有する。
本発明の他の側面としての画像処理プログラムは、撮影画像の被写体距離および画角に応じたぼけカーネルを用いて該撮影画像をぼかした場合に画質の変化量が所定の範囲内となる画像領域を決定し、該撮影画像を該画像領域に分割するステップと、分割された前記画像領域ごとにぼけカーネルを算出するステップと、前記画像領域ごとに算出された前記ぼけカーネルを用いて前記撮影画像に対するコンボリューション演算を行うことで、ぼけ付加画像を生成するステップとを有する画像処理方法を情報処理装置に実行させるように構成されている。
本発明の他の目的及び特徴は、以下の実施例において説明される。
本発明によれば、少ない演算量でぼけ付加画像を生成可能な画像処理装置、撮像装置、画像処理方法、および、画像処理プログラムを提供することができる。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。
まず、図1を参照して、本発明の実施例1における画像処理装置の構成について説明する。図1は、本実施例における画像処理装置のブロック図である。画像処理装置1は、画像データ入力部101、画像メモリ部102、パラメータ入力部103、パラメータメモリ部104、画像領域分割部105、ぼけカーネル生成部106、画像処理演算部107、および、画像記憶部108を有する。
画像データ入力部101は、撮像装置で撮影された画像やコンピュータグラフィックス(CG)で生成された二次元の輝度値を示す画像データ、および、その画像データに対応した距離(被写体距離)を示す距離データを取り入れる(入力する)。画像メモリ部102は、画像データ入力部101に入力された画像データおよび距離データを記憶する。パラメータ入力部103は、画像情報、画像領域を分割する際の許容条件、および、ぼけカーネルに関する情報(各種パラメータデータ)を取り入れる(入力する)。パラメータメモリ部104は、パラメータ入力部103に入力された各種パラメータデータを記憶する。
画像領域分割部105は、画像メモリ部102に記憶された画像データと距離データ、および、パラメータメモリ部104に記憶された各種パラメータデータに基づいて、シフトインバリアント領域(画像領域)を決定して画像を分割する。シフトインバリアント領域は、画像にぼけを付加してぼけ付加画像を作成する場合において、ぼけカーネルを同一とみなしても許容可能な画像領域である。すなわち、画像領域分割部105は、撮影画像の被写体距離および画角に応じたぼけカーネルを用いて撮影画像をぼかした場合に画質の変化量が所定の範囲内となるシフトインバリアント領域を決定し、この撮影画像をシフトインバリアント領域に分割する。シフトインバリアント領域の具体的な分割方法については後述する。ここで所定の範囲内とは、撮影画像の被写体距離および画角に応じたぼけカーネルの相違による画質の変化量が許容限界内ということであり、後述の許容限界評価パラメータIに基づいて判定される。
ぼけカーネル生成部106は、画像領域分割部105で分割されたシフトインバリアント領域ごとにぼけカーネルを算出する。画像処理演算部107は、ぼけカーネル生成部106で算出されたぼけカーネルに基づいて、画像メモリ部102に記憶されている画像データにぼけカーネルの効果を付加する演算処理を行い、ぼけ付加画像を生成する。すなわち画像処理演算部107は、ぼけカーネル生成部106で算出されたぼけカーネルを用いて撮影画像に対するコンボリューション演算(畳み込み演算)を行うことで、ぼけ付加画像を生成する。画像記憶部108は、画像処理演算部107で生成されたぼけ付加画像を記憶する。
次に、図2を参照して、本実施例における画像処理装置1の動作(画像処理方法)について説明する。図2は、画像処理装置1の動作を示すフローチャートであり、画像処理装置1を用いて、入力された画像データおよびパラメータに基づいてぼけ付加画像を生成し、ぼけ付加画像を画像出力装置(不図示)に記録して表示するまでの処理を示す。
まずステップS201において、画像データ入力部101は、撮像装置により撮影された画像やコンピュータグラフィックスで生成された画像などの画像データ、および、その画像データに対応した距離データまたは距離データに換算可能なデータを入力する。画像データ入力部101に入力された画像データや距離データは、画像メモリ部102に記憶される。
ここで、距離データに換算可能なデータとは、入力された画像データの視点位置からの相対距離やあるグローバル座標における位置等の直接的な距離データに加えて、例えば複数の撮像装置からの画像情報を用いて生成された視差情報等が挙げられる。また、Computational Photographyの技術群を用いた距離取得のためのデータも含まれる。例えば、Depth From Defocusと呼ばれる技術では、ぼけ量の解析に基づいて距離(被写体距離)が求められる。その他、種々の方法が存在する。後述のように、最終的には距離データからぼけカーネルの形状やサイズを決定するため、直接ぼけカーネルの形状やサイズを決定しても構わない。また、距離データと後述のステップS202で入力される撮影条件のパラメータの一つであるフォーカス位置とを用いて算出されるデフォーカス量を入力データとしてもよい。
続いてステップS202において、パラメータ入力部103は、撮影条件のパラメータ、後述する画像領域分割処理における許容限界の決定に必要なパラメータ、ぼけカーネルの形状やサイズの決定に必要なパラメータなどの各種パラメータを入力する。パラメータ入力部103に入力された各種パラメータは、パラメータメモリ部104に記憶される。撮影条件のパラメータに関しては、画像領域分割処理やぼけカーネル算出処理によって必要な情報が確定する。
次にステップS203において、画像領域分割部105は、ぼけ付加画像処理の際のシフトインバリアント領域(画像領域)を決定して画像を分割する画像領域分割処理を行う。図3を参照して、この画像領域分割処理(ステップS203)について詳述する。図3は、画像領域分割部105により行われる画像領域分割処理(ステップS203)を示すフローチャートである。
まずステップS301において、画像領域分割部105は、ぼけカーネルマップを生成する(ぼけカーネル生成処理)。ぼけカーネルマップは、被写体距離や画角などの三次元の空間情報に対応したぼけカーネルの形状や大きさに関するデータ群である。実際の光学系に即して考えた場合、被写体距離や画角に応じて点像分布関数PSF(Point Spread Function)を計測するか、または、シミュレーションにより予め算出した値を記憶しておけばよい。仮想的なぼけカーネルを考えた場合、被写体距離や画角とぼけカーネルの関係式を用意しておけばよい。画像領域分割部105は、例えば、光学系から計測または算出された応答関数またはガウシアンや熱拡散方程式などの解析的な関数を用いてぼけカーネルを生成する。ここで、解析的な関数とは、所定のぼけカーネルを生成するための関数であり、所定の式で表された関数である。この際、必ずしも一般的な光学系で形成されるぼけカーネルに捉われる必要はなく、所望の形でどのように決定してもよい。
次にステップS302において、画像領域分割部105は、許容限界評価パラメータを算出する。許容限界評価パラメータとは、ぼけカーネルに関するパラメータである。第一の評価パラメータとして、ぼけカーネルの大きさや形状を表すパラメータが挙げられる。例えば、ぼけカーネルをガウス分布とした場合の分散値である。なお、分散値を用いた演算を行わずに別の基準を用いて画像領域を決定する場合でも、ぼけカーネルをガウス分布とした場合の分散値と、画像領域の分割と結果的に対応していればよい。
また第二の評価パラメータとして、ぼけカーネルの空間周波数特性を利用して算出されるパラメータがある。例えば、ぼけカーネルをフーリエ変換し、光学伝達関数OTFの絶対値であるMTF(Modulation Transfer Function)を用いて許容限界評価パラメータを算出する。この場合、許容限界評価パラメータIは、以下の式(1)のように表される。
ここで、μは空間周波数、μ1およびμ2はそれぞれ空間周波数μの上限下限を設定する定数である。許容限界評価パラメータIは、MTFを空間周波数μで積分して得られる。このとき、画像データのフーリエ変換を行い、画像データの周波数特性を利用することもできる。上述の第一の評価パラメータや第二の評価パラメータとして得られる許容限界評価パラメータIは、種々の被写体距離や画角のぼけカーネルデータ間での比較が可能である。
続いてステップS303において、画像領域分割部105は、ステップS302で算出された許容限界評価パラメータIを利用して、画像メモリ部102に記憶されている画像(画像データ)の領域を分割する。本実施例では、許容限界評価パラメータIに対応した許容限界閾値Tを用意し、画像データ内で許容限界評価パラメータIの変化量が許容限界閾値T以下の画像領域をシフトインバリアント領域とする。すなわちこの画像領域は、同一のぼけカーネルを使用する領域であるとし、全画像領域をシフトインバリアント領域に分割する。なお、許容限界閾値Tは、ステップS202で入力されるパラメータに含まれている場合、または、予め設定されている値を利用する場合のいずれでもよい。
例えば図4は、実際の光学系でのぼけ量の変化と同等にガウス分布のぼけを付加しようとする場合において、許容限界評価パラメータIと被写体距離との関係(領域分割結果)を示す図である。図4において、横軸は被写体距離、縦軸は許容限界評価パラメータIを示している。本実施例では、許容限界評価パラメータIをガウス分布の分散値としているため、許容限界評価パラメータIは合焦位置Pにて0となる。許容限界評価パラメータIと被写体距離との関係から許容限界閾値Tに従って被写体距離を分割すると、図4中の点線で示されるように分割領域が決定される。すなわち、点線の前後で異なるぼけカーネルが生成される。
続いて図2中のステップS204において、ぼけカーネル生成部106は、ステップS203で分割された画像領域(シフトインバリアント領域)ごとに、ぼけカーネルを算出する。具体的には、ぼけカーネル生成部106は、ステップS301で生成されたぼけカーネル(ぼけカーネルマップ)と同様のものを分割画像領域ごとに算出する。また、このようなぼけカーネルマップを予め算出または計測することなどにより記憶されている場合には、その記憶されているぼけカーネルを用いてもよい。ぼけカーネルは、分割画像領域ごとに算出して記憶しておくか、または、分割画像領域との対応関係のみを記憶しておいてもよい。このような構成により、分割画像領域ごとに対応するぼけカーネルが決定されている。
次にステップS205において、画像処理演算部107は、画像メモリ部102に記憶されている画像データとぼけカーネル生成部106で算出されたぼけカーネル(各分割画像領域に対応するぼけカーネル)と用いて、ぼけ付加画像を生成する。具体的には、画像処理演算部107は、撮影画像に関する画像データとぼけカーネルとのコンボリューション演算(畳み込み演算)を行う。
ある分割画像領域における画像データをP、その分割画像領域に対応するぼけカーネルをBとすると、画像データPとぼけカーネルBのコンボリューションは、以下の式(2)のように表される。
式(2)は、分割画像領域中の一画素の計算である。このため、式(2)の計算を分割画像領域内の全画素に対して行うことで、分割画像領域におけるぼけ付加画像計算を行うことができる。本実施例では、分割画像領域内では同一のぼけカーネルが用いられる。このため、コンボリューション定理を用いて、式(2)は以下の式(3)のように表され、ぼけ付加画像のための計算量を削減することができる。
ここで、FTは二次元のフーリエ変換を表し、IFTは二次元の逆フーリエ変換を表す。
式(3)で表される計算を画像領域分割部105で分割された全ての分割画像領域に対して行うことにより、画像データ入力部101で入力された画像データにぼけ付加の効果を与える、すなわちぼけ付加画像を生成することができる。続いてステップS206において、画像処理演算部107はぼけ付加画像を出力し、画像記憶部108はぼけ付加画像を記憶する。
本実施例の画像処理装置によれば、任意の画像およびぼけカーネルに対応したシフトインバリアント領域(ぼけカーネルの相違量を同一とみなせる領域)を算出することが可能である。これにより、撮影画像の画質を維持しつつ、ぼけカーネル演算量を削減してコンボリューション演算を行うことができる。
次に、本発明の実施例2における画像処理装置について説明する。本実施例は、ぼけカーネルの周波数特性および視覚の空間周波数特性をも考慮して、許容限界パラメータIを決定する。具体的には、本実施例は、図3を参照して説明したステップS302での許容限界評価パラメータIの算出方法のみが実施例1と異なり、その他の構成および処理方法については実施例1と同様である。
本実施例では、ぼけカーネルの空間周波数特性(MTF)と視覚の空間周波数特性を利用して許容限界評価パラメータIを算出する際に、CMTA(Cascaded Modulation Transfer Acutance)という値を用いる。CMTAに関しては以下に説明するが、“新編 画像解析ハンドブック”(東京大学出版会,pp77−78)に詳述されている。
シフトインバリアント領域は、実施例1にて説明した方法を用いて判定可能である。しかしながら、人の視覚には特徴的な空間周波数特性があることが知られており、空間周波数の変化に対して反応が大きい空間周波数と、変化に対して反応が小さい空間周波数とが存在する。そのため、視覚の空間周波数特性によってぼけカーネルのMTFを重み付けすることで、シフトインバリアント領域を人が変化を知覚できない領域として、より正確に許容限界評価パラメータIを決定することが可能となる。
視覚の空間周波数に対するMTFは、CSF(Contrast Sensitivity Function)として知られている。CSFは、眼球における結像系でのローパスフィルタの特性と、網膜から脳に至る信号処理系でのバンドパスフィルタの特性を考慮してモデル化したものである、CSFの一例は、以下の式(4)で表わされる。
ここで、fは空間周波数であり、人の視角1度の中でコントラスト縞が見える数を表す単位[cycle/deg]で表わされる。通常、aは75、bは0.2であるが、これらの値a、bは固定ではなく、評価環境の種々の条件に応じて変化する。
ある空間周波数範囲におけるぼけカーネルのMTFとCSFとの積の積分値を正規化した値を主観的画質係数SQF(Subjective Quality Factor)と呼び、ぼけカーネルのMTFをMTFとすると、以下の式(5)のように表わされる。
ここで、fは空間周波数を、f1およびf2はそれぞれ空間周波数の上限下限を設定する定数である。
CMTAは、主観的画質係数SQFをウェーバー−フェヒナーの法則(Weber−Fechner’s law)を用いて、人の感覚に対して線形になるようにし、100に規格化したものである。ウェーバー−フェヒナーの法則とは、人の感覚は刺激の対数に比例するという法則であり、CMTAは以下の式(6)のように定式化される。
CMTAを許容限界評価パラメータIとして用いることで、視覚の空間周波数特性を反映したシフトインバリアント領域を決定することができる。このように画像領域分割部105は、ぼけカーネルの空間周波数特性と視覚の空間周波数との乗算の積算値と、視覚の空間周波数の積算値との比(SQF)を用いてシフトインバリアント領域を決定する。
本実施例の画像処理装置によれば、CMTAを利用した評価値(分割評価値)を用いることにより、人がぼけカーネルの変化を知覚できないシフトインバリアント領域を自動的に算出することが可能である。これにより、人の視覚に合わせて撮影画像の画質を維持しつつ、ぼけカーネル計算量を削減してコンボリューション計算を行うことができる。
各実施例の画像処理装置は撮像装置にも適用可能であり、また、各実施例の画像処理方法を情報処理装置(コンピュータ)に実行させる画像処理プログラムとして用いることもできる。このため各実施例によれば、少ない演算量でぼけ付加画像を生成可能な画像処理装置、撮像装置、画像処理方法、および、画像処理プログラムを提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
1 画像処理装置
101 画像データ入力部
102 画像メモリ部
103 パラメータ入力部
104 パラメータメモリ部
105 画像領域分割部
106 ぼけカーネル生成部
107 画像処理演算部
108 画像記憶部
101 画像データ入力部
102 画像メモリ部
103 パラメータ入力部
104 パラメータメモリ部
105 画像領域分割部
106 ぼけカーネル生成部
107 画像処理演算部
108 画像記憶部
Claims (9)
- 撮影画像の被写体距離および画角に応じたぼけカーネルを用いて該撮影画像をぼかした場合に画質の変化量が所定の範囲内となる画像領域を決定し、該撮影画像を該画像領域に分割する画像領域分割部と、
前記画像領域分割部で分割された前記画像領域ごとにぼけカーネルを算出するぼけカーネル生成部と、
前記ぼけカーネル生成部で算出された前記ぼけカーネルを用いて前記撮影画像に対するコンボリューション演算を行うことで、ぼけ付加画像を生成する画像処理演算部と、を有することを特徴とする画像処理装置。 - 前記画像領域分割部は、前記ぼけカーネルの大きさを用いて前記画像領域を決定することを特徴とする請求項1に記載の画像処理装置。
- 前記画像領域は、前記ぼけカーネルをガウス分布とした場合の分散値に対応していることを特徴とする請求項1に記載の画像処理装置。
- 前記画像領域分割部は、光学系から計測または算出された応答関数または解析的な関数で表されるぼけカーネルの空間周波数特性を用いて前記画像領域を決定することを特徴とする請求項1に記載の画像処理装置。
- 前記画像領域分割部は、更に、視覚の空間周波数特性を用いて前記画像領域を決定することを特徴とする請求項4に記載の画像処理装置。
- 前記画像領域分割部は、前記ぼけカーネルの空間周波数特性と前記視覚の空間周波数との乗算の積算値と、該視覚の空間周波数の積算値との比を用いて前記画像領域を決定することを特徴とする請求項5に記載の画像処理装置。
- 請求項1乃至6のいずれか1項に記載の画像処理装置を有することを特徴とする撮像装置。
- 撮影画像の被写体距離および画角に応じたぼけカーネルを用いて該撮影画像をぼかした場合に画質の変化量が所定の範囲内となる画像領域を決定し、該撮影画像を該画像領域に分割するステップと、
分割された前記画像領域ごとにぼけカーネルを算出するステップと、
前記画像領域ごとに算出された前記ぼけカーネルを用いて前記撮影画像に対するコンボリューション演算を行うことで、ぼけ付加画像を生成するステップと、を有することを特徴とする画像処理方法。 - 撮影画像の被写体距離および画角に応じたぼけカーネルを用いて該撮影画像をぼかした場合に画質の変化量が所定の範囲内となる画像領域を決定し、該撮影画像を該画像領域に分割するステップと、
分割された前記画像領域ごとにぼけカーネルを算出するステップと、
前記画像領域ごとに算出された前記ぼけカーネルを用いて前記撮影画像に対するコンボリューション演算を行うことで、ぼけ付加画像を生成するステップと、を有する画像処理方法を情報処理装置に実行させるように構成されていることを特徴とする画像処理プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011277732A JP5911292B2 (ja) | 2011-12-19 | 2011-12-19 | 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム |
PCT/JP2012/007731 WO2013094131A1 (en) | 2011-12-19 | 2012-12-03 | Image processing apparatus, image pickup apparatus, image processing method, and image processing program |
US14/124,323 US9251575B2 (en) | 2011-12-19 | 2012-12-03 | Image processing apparatus, image pickup apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011277732A JP5911292B2 (ja) | 2011-12-19 | 2011-12-19 | 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013127759A JP2013127759A (ja) | 2013-06-27 |
JP5911292B2 true JP5911292B2 (ja) | 2016-04-27 |
Family
ID=48668050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011277732A Active JP5911292B2 (ja) | 2011-12-19 | 2011-12-19 | 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9251575B2 (ja) |
JP (1) | JP5911292B2 (ja) |
WO (1) | WO2013094131A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8503801B2 (en) * | 2010-09-21 | 2013-08-06 | Adobe Systems Incorporated | System and method for classifying the blur state of digital image pixels |
KR101896026B1 (ko) * | 2011-11-08 | 2018-09-07 | 삼성전자주식회사 | 휴대 단말기에서 움직임 블러를 생성하는 장치 및 방법 |
JP6319972B2 (ja) * | 2013-08-26 | 2018-05-09 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、およびプログラム |
US9299132B2 (en) * | 2013-10-23 | 2016-03-29 | Adobe Systems Incorporated | Automatically determining the size of a blur kernel |
WO2016203282A1 (en) * | 2015-06-18 | 2016-12-22 | The Nielsen Company (Us), Llc | Methods and apparatus to capture photographs using mobile devices |
US10628924B2 (en) * | 2015-12-14 | 2020-04-21 | Peking University Shenzhen Graduate School | Method and device for deblurring out-of-focus blurred images |
CN110189251B (zh) * | 2019-06-04 | 2022-11-01 | 厦门美图之家科技有限公司 | 一种模糊图像生成方法及装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000207549A (ja) | 1999-01-11 | 2000-07-28 | Olympus Optical Co Ltd | 画像処理装置 |
FR2857133A1 (fr) * | 2003-07-03 | 2005-01-07 | Thomson Licensing Sa | Procede de generation de flou |
US7412110B1 (en) * | 2004-01-28 | 2008-08-12 | Adobe Systems Incorporated | Using forward and backward kernels to filter images |
EP1954030B1 (en) * | 2005-10-18 | 2012-11-28 | Kyocera Corporation | Image pickup apparatus and image processing method |
US7990429B2 (en) * | 2005-10-28 | 2011-08-02 | Nikon Corporation | Imaging device with blur enhancement |
JP5181913B2 (ja) * | 2008-08-07 | 2013-04-10 | 株式会社リコー | 画像処理装置、撮像装置、画像処理方法及びプログラム |
JP5434361B2 (ja) * | 2009-02-24 | 2014-03-05 | 株式会社リコー | 画像処理装置及び画像処理方法 |
JP5396231B2 (ja) * | 2009-10-21 | 2014-01-22 | オリンパスイメージング株式会社 | 撮像装置 |
KR101214536B1 (ko) * | 2010-01-12 | 2013-01-10 | 삼성전자주식회사 | 뎁스 정보를 이용한 아웃 포커스 수행 방법 및 이를 적용한 카메라 |
US8406510B2 (en) * | 2010-03-10 | 2013-03-26 | Industrial Technology Research Institute | Methods for evaluating distances in a scene and apparatus and machine readable medium using the same |
US8767254B2 (en) * | 2010-05-06 | 2014-07-01 | Xerox Corporartion | Processing images to be blended with reflected images |
JP5765893B2 (ja) * | 2010-06-16 | 2015-08-19 | キヤノン株式会社 | 画像処理装置、撮像装置および画像処理プログラム |
US8363085B2 (en) * | 2010-07-06 | 2013-01-29 | DigitalOptics Corporation Europe Limited | Scene background blurring including determining a depth map |
US8406548B2 (en) * | 2011-02-28 | 2013-03-26 | Sony Corporation | Method and apparatus for performing a blur rendering process on an image |
-
2011
- 2011-12-19 JP JP2011277732A patent/JP5911292B2/ja active Active
-
2012
- 2012-12-03 US US14/124,323 patent/US9251575B2/en active Active - Reinstated
- 2012-12-03 WO PCT/JP2012/007731 patent/WO2013094131A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US9251575B2 (en) | 2016-02-02 |
US20140104458A1 (en) | 2014-04-17 |
JP2013127759A (ja) | 2013-06-27 |
WO2013094131A1 (en) | 2013-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109737874B (zh) | 基于三维视觉技术的物体尺寸测量方法及装置 | |
JP5911292B2 (ja) | 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム | |
US10304161B2 (en) | Image processing apparatus, control method, and recording medium | |
US20210241495A1 (en) | Method and system for reconstructing colour and depth information of a scene | |
US8754963B2 (en) | Processing images having different focus | |
JP4782899B2 (ja) | 視差検出装置、測距装置及び視差検出方法 | |
KR20200049833A (ko) | 깊이 추정 방법 및 장치, 전자 기기, 프로그램 및 매체 | |
US10559095B2 (en) | Image processing apparatus, image processing method, and medium | |
JP5968073B2 (ja) | 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム | |
US20130223759A1 (en) | Image processing method and device, and program | |
JP2015035658A (ja) | 画像処理装置、画像処理方法、および撮像装置 | |
WO2014045479A1 (ja) | オブジェクト情報抽出装置、オブジェクト情報抽出プログラム、及びオブジェクト情報抽出方法 | |
US11869172B2 (en) | Kernel reshaping-powered splatting-based efficient image space lens blur | |
JP6552256B2 (ja) | 画像処理装置及び画像処理装置の制御方法 | |
US20180007291A1 (en) | Image processing apparatus, image capturing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP7263149B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
KR101526465B1 (ko) | 그래픽 프로세서 기반 깊이 영상 화질 개선 방법 | |
JP6320165B2 (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
US9077963B2 (en) | Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data | |
JP7504614B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN113658321B (zh) | 三维重建方法、系统及相关设备 | |
JP2023035903A (ja) | 深度推定方法、深度推定装置 | |
CN118158375A (zh) | 立体视频质量评估方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160329 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5911292 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |