JP6116436B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP6116436B2 JP6116436B2 JP2013167667A JP2013167667A JP6116436B2 JP 6116436 B2 JP6116436 B2 JP 6116436B2 JP 2013167667 A JP2013167667 A JP 2013167667A JP 2013167667 A JP2013167667 A JP 2013167667A JP 6116436 B2 JP6116436 B2 JP 6116436B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- main subject
- blurred
- region
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 139
- 238000003672 processing method Methods 0.000 title claims 3
- 238000000034 method Methods 0.000 claims description 156
- 238000001914 filtration Methods 0.000 claims description 83
- 238000009499 grossing Methods 0.000 claims description 52
- 238000011946 reduction process Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 16
- 238000005259 measurement Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 239000002131 composite material Substances 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 230000006837 decompression Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 2
- 101150013335 img1 gene Proteins 0.000 description 2
- 101150071665 img2 gene Proteins 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000011045 prefiltration Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、特に、領域の一部をぼかした画像を生成するために用いて好適な画像処理装置および画像処理方法に関する。 The present invention is particularly directed to a suitable image processing apparatus and how be used to generate an image obtained by blurring the partial region.
近年、数多くのデジタルカメラやデジタルビデオカメラなどの撮像装置に、被写体以外の領域に対して画像処理を行う機能が搭載されている。例えば、その機能の一つとして、撮影された画像の背景領域に対して、疑似的にぼかし効果を与える機能がある。 In recent years, a large number of imaging devices such as digital cameras and digital video cameras are equipped with a function of performing image processing on an area other than a subject. For example, as one of the functions, there is a function of giving a pseudo blurring effect to the background area of the photographed image.
背景がぼやけた画像は、被写体を浮き立たせて印象付ける効果があるため、ポートレート写真等に広く利用されている。一般的に、一眼レフカメラのように撮像素子が大きい撮像装置では、絞りを開いて焦点距離を長くすることにより被写界深度が浅くなり、上記のように合焦している被写体以外の背景をぼかした画像を容易に撮影することができる。一方、コンパクトデジタルカメラ等の撮像素子が小さい撮像装置では、被写界深度が比較的深くなる傾向にあるため、背景をぼかした画像を撮影することが困難である。 An image with a blurred background is widely used for portrait photography and the like because it has the effect of making a subject stand out and make an impression. In general, in an imaging apparatus having a large imaging device such as a single-lens reflex camera, the depth of field is reduced by opening the aperture and increasing the focal length, and the background other than the subject in focus as described above. It is possible to easily shoot a blurred image. On the other hand, in an imaging apparatus such as a compact digital camera having a small imaging element, the depth of field tends to be relatively deep, so it is difficult to capture an image with a blurred background.
そこで、画像処理により疑似的に背景にぼかし効果を与える機能を備えたコンパクトデジタルカメラが数多く開発されている。例えば特許文献1には、主被写体領域と背景領域とを分離させ、背景領域の画像にぼかし処理を行い、主被写体領域の画像と合成する方法が開示されている。
Therefore, many compact digital cameras having a function of giving a blurring effect to the background artificially by image processing have been developed. For example,
しかしながら、特許文献1に記載の方法では、背景の深度が奥行き方向に徐々に深くなるようなシーンに対して背景にぼかし処理を行うと、背景の途中でぼかし領域に切り替わる境界が目立ち、違和感のある画像となってしまう問題がある。
However, in the method described in
本発明は前述の問題点に鑑み、背景の深度が奥行き方向に徐々に深くなるようなシーンで鮮鋭領域とぼかし領域との切り替わりに違和感の無い背景ぼかし画像を得ることができるようにすることを目的としている。 In view of the above-described problems, the present invention provides a background-blurred image that does not give a sense of incongruity in switching between a sharp area and a blurred area in a scene in which the depth of the background gradually increases in the depth direction. It is aimed.
本発明に係る画像処理装置は、主被写体に焦点を合わせた第1の画像と、前記主被写体を含む画像であって前記主被写体の背景に焦点を合わせた第2の画像とを取得する取得手段と、前記第1の画像および第2の画像から、主被写体領域、背景領域、および前記主被写体領域と前記背景領域との間の中間領域を判定する領域判定手段と、前記第1の画像に対してフィルタリング処理を行って第1のぼかし画像を生成するとともに、前記第1の画像に対してフィルタリング処理を行って前記第1のぼかし画像よりもぼかし量が小さい第2のぼかし画像を生成する生成手段と、前記第1の画像から前記主被写体領域を切り出すとともに、前記第2のぼかし画像から前記中間領域を切り出し、前記第1のぼかし画像に前記切り出された主被写体領域および中間領域を合成して背景ぼかし画像を生成する合成手段と、を備えることを特徴とする。 An image processing device according to the present invention acquires a first image focused on a main subject and a second image that includes the main subject and is focused on a background of the main subject. means and, before Symbol first image and the second image, the main object region, and the region determining means for determining an intermediate region between the background region, and the main subject region and the background region, before Symbol first A first blurred image is generated by performing a filtering process on the first image, and a second blurred image having a smaller blur amount than the first blurred image by performing a filtering process on the first image. a generating means for generating a, with cut out before Symbol main subject region from the first image, before Symbol cut out before SL during area from the second blurred image, it cuts out the prior SL first blurred image Main subject area By combining the intermediate region and characterized in that it comprises a synthesizing means for generating a background blurred image.
本発明によれば、鮮鋭領域とぼかし領域との切り替わる境界が目立たない背景ぼかし画像を得ることができる。 According to the present invention, it is possible to obtain a background blurred image in which the boundary between the sharp area and the blurred area is not conspicuous.
以下、本発明の実施形態について図面を参照しながら説明する。
(第1の実施形態)
図1は、本実施形態の撮像装置100の構成例を示すブロック図である。
図1において、撮像素子14は、撮影レンズ10を介して入力された光学像を電気信号に変換する。A/D変換器16は、撮像素子14から出力されるアナログ信号をデジタル信号の画像データに変換する。
タイミング発生回路18は、撮像素子14及びA/D変換器16にクロック信号や制御信号を供給する回路であり、メモリ制御回路22及びシステム制御回路50により制御される。また、絞り機能を備える機械式のシャッター12以外に、撮像素子14のリセットタイミングの制御によって、電子シャッターとして蓄積時間を制御することが可能であり、動画撮影などに使用することができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of the
In FIG. 1, the image sensor 14 converts an optical image input via the photographing lens 10 into an electrical signal. The A / D converter 16 converts the analog signal output from the image sensor 14 into image data of a digital signal.
The timing generation circuit 18 is a circuit that supplies a clock signal and a control signal to the image sensor 14 and the A / D converter 16, and is controlled by the memory control circuit 22 and the system control circuit 50. In addition to the
画像処理回路20は、A/D変換器16からのデータ或いはメモリ制御回路22からのデータに対して所定の画素補間処理や色変換処理を行う。画像処理回路20によって画像の切り出し、変倍処理を行うことにより電子ズーム機能が実現される。また、画像処理回路20は、撮像して得られた画像データを用いて所定の演算処理を行い、システム制御回路50は、得られた演算結果に基づいて露光制御部40及び測距制御部42に対して制御を行う。これにより、TTL方式のAF処理、AE処理、及びEF処理を行っている。さらに、画像処理回路20は、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行う。 The image processing circuit 20 performs predetermined pixel interpolation processing and color conversion processing on the data from the A / D converter 16 or the data from the memory control circuit 22. An electronic zoom function is realized by performing image clipping and scaling processing by the image processing circuit 20. The image processing circuit 20 performs predetermined calculation processing using image data obtained by imaging, and the system control circuit 50 performs exposure control unit 40 and distance measurement control unit 42 based on the obtained calculation result. To control. Thus, TTL AF processing, AE processing, and EF processing are performed. Further, the image processing circuit 20 also performs TTL AWB (auto white balance) processing based on the obtained calculation result.
メモリ制御回路22は、A/D変換器16、タイミング発生回路18、画像処理回路20、メモリ30、及び圧縮・伸長回路32を制御する。A/D変換器16から出力される画像データは、画像処理回路20及びメモリ制御回路22を介して、或いはメモリ制御回路22を直接介して、メモリ30に書き込まれる。
The memory control circuit 22 controls the A / D converter 16, the timing generation circuit 18, the image processing circuit 20, the
画像表示部28は、TFT、LCD等からなる表示部であり、メモリ30に書き込まれた表示用の画像データがメモリ制御回路22を介して読み出されて画像表示部28にその画像が表示される。画像表示部28に撮影画像を逐次表示すれば、電子ファインダー機能を実現することが可能である。また、画像表示部28は、システム制御回路50の指示により任意に表示をON/OFFで切り替えることが可能であり、表示をOFFにした場合には撮像装置100の電力消費を大幅に低減することができる。
The image display unit 28 is a display unit including a TFT, an LCD, and the like. Display image data written in the
メモリ30は撮影により得られた静止画像データや動画像データを格納するためのメモリであり、所定枚数の静止画像データや所定時間の動画像データを格納するのに十分な記憶量を備えている。これにより、複数枚の静止画像を連続して撮影する連写撮影やパノラマ撮影の場合にも、高速かつ大量に画像データをメモリ30に書き込むことが可能となる。また、メモリ30はシステム制御回路50の作業領域としても使用される。
The
不揮発性メモリ31は、FlashROM等で構成されるメモリである。システム制御回路50が実行するプログラムコードは不揮発性メモリ31に書き込まれ、逐次読み出しながらプログラムコードを実行する。また、不揮発性メモリ31内にはシステム情報を記憶する領域や、ユーザー設定情報を記憶する領域が設けられ、さまざまな情報や設定を次回起動時に読み出して、復元することを実現している。 The non-volatile memory 31 is a memory composed of a flash ROM or the like. The program code executed by the system control circuit 50 is written in the nonvolatile memory 31, and the program code is executed while being read sequentially. In addition, an area for storing system information and an area for storing user setting information are provided in the nonvolatile memory 31, and various information and settings are read and restored at the next startup.
圧縮・伸長回路32は、適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する。圧縮・伸長回路32は、メモリ30に格納された画像データを読み出して圧縮処理或いは伸長処理を行い、処理を終えたデータをメモリ30に書き込む。
The compression / decompression circuit 32 compresses and decompresses image data by adaptive discrete cosine transform (ADCT) or the like. The compression / decompression circuit 32 reads the image data stored in the
露光制御部40は、絞り機能を備えるシャッター12を制御し、フラッシュ48と連動することによりフラッシュ調光機能も有する。測距制御部42は、撮影レンズ10のフォーカシングを制御する。ズーム制御部44は、撮影レンズ10のズーミングを制御する。フラッシュ48は、AF補助光の投光機能、およびフラッシュ調光機能を有する。また、露光制御部40および測距制御部42はTTL方式を用いて制御されており、撮像して得られた画像データを画像処理回路20によって演算した演算結果に基づき、システム制御回路50により制御される。
The exposure control unit 40 controls the
システム制御回路50は、撮像装置100全体を制御する。また、撮像装置100は、システム制御回路50の各種の動作指示を入力するための操作部を備えており、スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせにより構成される。ここで、これらの操作部の具体的な説明を行う。
The system control circuit 50 controls the
モードダイアルスイッチ60は、電源オフ、自動撮影モード、撮影モード、HDR撮影モード、パノラマ撮影モード、動画撮影モード、再生モード、PC接続モード等の各機能モードを切り替え設定することができる。シャッタースイッチ(SW1)62は、シャッターボタンの操作途中でONとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AEB(オートホワイトバランス)処理等の動作開始を指示する。
The
シャッタースイッチ(SW2)64は、シャッターボタンの操作完了でONとなる。フラッシュ撮影の場合は、EF(フラッシュプリ発光)処理を行った後に、AE処理で決定された露光時間分、撮像素子14を露光させる。そして、この露光期間中に発光させて、露光期間終了によって露光制御部40により遮光することにより、撮像素子14への露光を終了させる。これにより、撮像素子14から読み出した信号をA/D変換器16、メモリ制御回路22を介してメモリ30に画像データを書き込む処理を行う。さらに、画像処理回路20やメモリ制御回路22による演算を用いた現像処理や、メモリ30から画像データを読み出し、圧縮・伸長回路32で圧縮を行う。そして、記録媒体200に画像データを書き込む記録処理を行う。このようにシャッタースイッチ(SW2)64がONにされると、以上のような一連の処理の動作開始を指示する。
The shutter switch (SW2) 64 is turned on when the operation of the shutter button is completed. In the case of flash photography, after performing EF (flash pre-emission) processing, the image sensor 14 is exposed for the exposure time determined by the AE processing. Then, light is emitted during the exposure period, and light is shielded by the exposure control unit 40 when the exposure period ends, whereby the exposure to the image sensor 14 is terminated. As a result, a process of writing image data to the
表示切替スイッチ66は、画像表示部28の表示を切り替えることができるスイッチである。この機能により、光学ファインダー104を用いて撮影を行う際に、TFT、LCD等からなる画像表示部28への電流供給を遮断することにより、省電力を図ることが可能となる。 The display changeover switch 66 is a switch that can change the display of the image display unit 28. With this function, when photographing is performed using the optical viewfinder 104, it is possible to save power by cutting off the current supply to the image display unit 28 including a TFT, an LCD, and the like.
操作部70は、各種ボタン、タッチパネルや回転式ダイアル等からなり、メニューボタン、セットボタン、マクロボタン、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン等がある。また、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン等もある。 The operation unit 70 includes various buttons, a touch panel, a rotary dial, and the like, and includes a menu button, a set button, a macro button, a multi-screen playback page break button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, and the like. . Also, menu movement + (plus) button, menu movement-(minus) button, playback image movement + (plus) button, playback image-(minus) button, shooting image selection button, exposure compensation button, date / time setting button, etc. There is also.
ズームスイッチ72は、ユーザーが撮像画像の倍率を変更する指示を行うためのスイッチである。このズームスイッチ72は、撮像画角を望遠側に変更させるテレスイッチと、広角側に変更させるワイドスイッチとからなる。このズームスイッチ72を用いることにより、ズーム制御部44に撮影レンズ10の撮像画角の変更を指示し、光学ズーム操作を行うトリガとなる。また、画像処理回路20による画像の切り出しや、画素補間処理などによる撮像画角の電子的なズーミング変更のトリガともなる。 The zoom switch 72 is a switch for the user to give an instruction to change the magnification of the captured image. The zoom switch 72 includes a tele switch that changes the imaging field angle to the telephoto side and a wide switch that changes the wide angle side. By using the zoom switch 72, the zoom control unit 44 is instructed to change the imaging field angle of the photographing lens 10, and becomes a trigger for performing an optical zoom operation. In addition, it also serves as a trigger for electronic zooming change of the imaging angle of view by image cropping by the image processing circuit 20 or pixel interpolation processing.
電源部86は、アルカリ電池の一次電池やNiCd電池やNiMH電池、Liイオン電池等の二次電池、ACアダプター等からなる。インタフェース90は、メモリカードやハードディスク等の記録媒体200と接続するためのインタフェースであり、コネクタ92は、メモリカードやハードディスク等の記録媒体200と接続するコネクタである。
The power supply unit 86 includes a primary battery of an alkaline battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li ion battery, an AC adapter, or the like. The
光学ファインダー104は、画像表示部28による電子ファインダー機能を使用せずに撮影を行う際に用いられる。通信部110は、USB、IEEE1394、LAN、無線通信等の各種通信機能を有する。コネクタ112は、通信部110により撮像装置100を他の機器と接続するためのものであり、無線通信の場合はアンテナである。
The optical viewfinder 104 is used when shooting is performed without using the electronic viewfinder function of the image display unit 28. The communication unit 110 has various communication functions such as USB, IEEE 1394, LAN, and wireless communication. The connector 112 is used to connect the
記録媒体200はメモリカードやハードディスク等であり、記録媒体200は、半導体メモリや磁気ディスク等から構成される記録部202、撮像装置100とのインタフェース204、および撮像装置100と接続を行うコネクタ206を備えている。
The recording medium 200 is a memory card, a hard disk, or the like. The recording medium 200 includes a recording unit 202 composed of a semiconductor memory, a magnetic disk, or the like, an interface 204 with the
次に、図2のフローチャートを参照しながら、画像処理回路20による画像の背景ぼかし処理について説明する。図2は、本実施形態に係る撮像装置100による背景ぼかし処理の手順の一例を示すフローチャートである。
まず、ステップS201において、システム制御回路50は、測距制御部42を制御しながら主被写体に焦点を合わせて撮影を行う。そして、測距制御部42の制御により撮影レンズ10を所定量ずらし、背景に合焦して撮影を行う。
Next, image background blurring processing by the image processing circuit 20 will be described with reference to the flowchart of FIG. FIG. 2 is a flowchart illustrating an example of a procedure of background blurring processing performed by the
First, in step S <b> 201, the system control circuit 50 performs imaging while focusing on the main subject while controlling the distance measurement control unit 42. Then, the photographing lens 10 is shifted by a predetermined amount under the control of the distance measurement control unit 42, and photographing is performed while focusing on the background.
続いてステップS202において、画像処理回路20は、主被写体に合焦して撮影された画像、および背景に合焦して撮影された画像のエッジを検出する。エッジ検出方法の一例としては、撮影された画像にバンドパスフィルタリングを行って絶対値をとることによってエッジを検出する方法が挙げられる。なお、エッジの検出方法はこれに限定されず、他の方法を用いてもよい。以降、主被写体に合焦させた撮影により得られた画像データから検出されたエッジを、主被写体合焦側のエッジ画像と称し、背景に合焦させて撮影された画像から検出されたエッジを、背景合焦側のエッジ画像と称す。 Subsequently, in step S202, the image processing circuit 20 detects an edge of an image photographed while focusing on the main subject and an image photographed while focusing on the background. As an example of the edge detection method, there is a method of detecting an edge by performing band pass filtering on a photographed image and taking an absolute value. Note that the edge detection method is not limited to this, and other methods may be used. Hereinafter, the edge detected from the image data obtained by shooting focused on the main subject is referred to as the edge image on the main subject focused side, and the edge detected from the image shot focused on the background This is referred to as an edge image on the background in-focus side.
次に、ステップS203において、画像処理回路20は、主被写体合焦側のエッジ画像と背景合焦側のエッジ画像とのそれぞれについて、複数の領域に分割し、各領域のエッジの絶対値を積分する。そして、ステップS204において、画像処理回路20は、各分割領域について、主被写体領域、背景領域、中間領域のいずれかを判定する。ここで、ステップS204における領域判定処理の詳細について、図3のフローチャートを用いて説明する。 Next, in step S203, the image processing circuit 20 divides each of the edge image on the main subject focusing side and the edge image on the background focusing side into a plurality of regions, and integrates the absolute values of the edges in each region. To do. In step S204, the image processing circuit 20 determines one of the main subject area, the background area, and the intermediate area for each divided area. Here, the details of the area determination processing in step S204 will be described using the flowchart of FIG.
図3は、図2のステップS204における領域判定処理の詳細な処理手順の一例を示すフローチャートである。なお、以下の説明では、ステップS203で算出された各分割領域[i,j]における被写体合焦側のエッジ積分値(鮮鋭度)をEGI1[i,j]とし、背景合焦側のエッジ積分値をEGI2[i,j]とする。
まず、ステップS301において、画像処理回路20は、各分割領域[i,j]について、ステップS203において算出された積分値EGI1[i,j]、EGI2[i,j]を比較し、全ての分割領域について比較するまで処理を繰り返す。
FIG. 3 is a flowchart illustrating an example of a detailed processing procedure of the region determination processing in step S204 of FIG. In the following description, the edge integration value (sharpness) on the subject in-focus side in each divided area [i, j] calculated in step S203 is EGI1 [i, j], and the edge integration on the background in-focus side. Let the value be EGI2 [i, j].
First, in step S301, the image processing circuit 20 compares the integral values EGI1 [i, j] and EGI2 [i, j] calculated in step S203 with respect to each divided region [i, j], and performs all divisions. The process is repeated until the areas are compared.
ステップS302において、画像処理回路20は、積分値EGI1[i,j]、EGI2[i,j]及び所定の閾値THの間で、以下の式(1)の関係を満たすかどうかを判定する。この判定の結果、式(1)の関係が満たされる場合(鮮鋭度の差分が所定の範囲内である場合)はステップS303へ進み、式(1)の関係が満たされない場合はステップS304へ進む。
|EGI1[i,j]−EGI2[i,j]|≦TH ・・・(1)
In step S302, the image processing circuit 20 determines whether or not the relationship of the following expression (1) is satisfied between the integral values EGI1 [i, j], EGI2 [i, j] and a predetermined threshold value TH. As a result of the determination, when the relationship of the expression (1) is satisfied (when the sharpness difference is within a predetermined range), the process proceeds to step S303, and when the relationship of the expression (1) is not satisfied, the process proceeds to step S304. .
| EGI1 [i, j] −EGI2 [i, j] | ≦ TH (1)
ステップS303においては、画像処理回路20は、当該領域を中間領域として定義する。一方、ステップS304においては、画像処理回路20は、積分値EGI1[i,j]が積分値EGI2[i,j]よりも大きいか否かを判定する。この判定の結果、積分値EGI1[i,j]が積分値EGI2[i,j]よりも大きい場合はステップS305へ進み、積分値EGI1[i,j]が積分値EGI2[i,j]よりも小さいもしくは同じである場合はステップS306へ進む。 In step S303, the image processing circuit 20 defines the area as an intermediate area. On the other hand, in step S304, the image processing circuit 20 determines whether or not the integral value EGI1 [i, j] is larger than the integral value EGI2 [i, j]. As a result of the determination, if the integral value EGI1 [i, j] is larger than the integral value EGI2 [i, j], the process proceeds to step S305, where the integral value EGI1 [i, j] is greater than the integral value EGI2 [i, j]. If they are smaller or the same, the process proceeds to step S306.
ステップS305においては、画像処理回路20は、当該領域を主被写体領域として定義する。一方、ステップS306においては、画像処理回路20は、当該領域を背景領域として定義する。なお、本実施形態では、全分割領域で領域判定を行っているが、低コントラストでエッジが正しく検出できない領域での判定を除くために、エッジ積分値が所定値以上の領域に限定して判定してもよい。 In step S305, the image processing circuit 20 defines the area as the main subject area. On the other hand, in step S306, the image processing circuit 20 defines the area as a background area. In this embodiment, the region determination is performed in all divided regions. However, in order to exclude the determination in the region where the edge cannot be detected correctly with low contrast, the determination is performed by limiting the region to which the edge integral value is equal to or greater than a predetermined value. May be.
次に、ステップS205において、画像処理回路20は、ステップS204における領域判定結果に基づいて、主被写体領域と、背景領域と、中間領域とを判別可能な切り出しマップを生成する。切り出しマップにおいては、例えば合成比率αが画像データ自体の画素値で表される。 Next, in step S205, the image processing circuit 20 generates a cutout map that can distinguish the main subject area, the background area, and the intermediate area based on the area determination result in step S204. In the cut-out map, for example, the composition ratio α is represented by the pixel value of the image data itself.
図4(a)は、本実施形態において撮影された撮影画像の一例を示す図である。図4(a)に示す背景402は、主被写体401から深度が奥行き方向に徐々に深くなるような構図となっている。図4(b)は、図4(a)に示す画像を複数領域に分割した例を示す図であり、この分割されたそれぞれの領域403について、被写体合焦側のエッジ積分値と背景合焦側のエッジ積分値とを算出し、ステップS204で領域判定を行う。
FIG. 4A is a diagram illustrating an example of a photographed image photographed in the present embodiment. The
図5(a)〜図5(c)は、ステップS205において生成される切り出しマップの例を示す図である。図5(a)に示す黒領域501は、主被写体領域と判定された領域を示し、図5(b)に示す黒領域502は、背景領域と判定された領域を示す。また、図5(c)に示す黒領域503は、中間領域と判定された領域を示す。
Fig.5 (a)-FIG.5 (c) are figures which show the example of the cut-out map produced | generated in step S205. A
次に、ステップS206において、画像処理回路20は、主被写体に合焦して撮影された画像に対して第1のぼかし処理を実施して第1のぼかし画像を生成する。さらに、主被写体に合焦して撮影された画像に対し、第1のぼかし画像の半分程度のぼかし量となる第2のぼかし処理を実施して第2のぼかし画像を生成する。 Next, in step S <b> 206, the image processing circuit 20 performs a first blurring process on an image photographed while focusing on the main subject to generate a first blurred image. Further, a second blurred image is generated by performing a second blurring process on the image photographed while focusing on the main subject so that the blur amount is about half that of the first blurred image.
ここで、ぼかし処理について説明する。ぼかし処理では、画像処理回路20は、撮影された画像に対してリサイズ処理及びフィルタリング処理を行う。リサイズ処理における縮小処理および拡大処理は線形補間によって行う。以下、具体的な手順について説明する。 Here, the blurring process will be described. In the blur processing, the image processing circuit 20 performs resizing processing and filtering processing on the captured image. Reduction processing and enlargement processing in resizing processing are performed by linear interpolation. Hereinafter, a specific procedure will be described.
図6は、本実施形態において、画像にぼかしを付加する処理手順の一例を示すフローチャートである。
まず、ステップS601において、画像処理回路20は、ぼかしを付加する対象となる画像を1/Nの画像サイズ(Nは任意のリサイズ係数)まで縮小する。その際、プレフィルタを用いて高周波信号の折り返りを防ぐようにする。なお、具体的な手順については後述する。
FIG. 6 is a flowchart illustrating an example of a processing procedure for adding blur to an image in the present embodiment.
First, in step S601, the image processing circuit 20 reduces the image to be blurred to an image size of 1 / N (N is an arbitrary resizing coefficient). At that time, a pre-filter is used to prevent folding of the high-frequency signal. A specific procedure will be described later.
次に、ステップS602において、画像処理回路20は、指定されたフィルタ形状に基づき、縮小された画像に対して空間フィルタリング処理を行う。空間フィルタリング処理は、任意のフィルタ係数で画像フィルタ処理を行う。そして、ステップS603において、画像処理回路20は、ステップS602で空間フィルタリング処理が行われた画像を元の画像サイズまで拡大する。以上の処理により、画像処理回路20は、第1のぼかし画像および第2のぼかし画像を生成する。 Next, in step S602, the image processing circuit 20 performs a spatial filtering process on the reduced image based on the designated filter shape. In the spatial filtering process, an image filter process is performed with an arbitrary filter coefficient. In step S603, the image processing circuit 20 enlarges the image subjected to the spatial filtering process in step S602 to the original image size. Through the above processing, the image processing circuit 20 generates a first blurred image and a second blurred image.
次に、ステップS601の縮小処理の詳細について説明する。縮小処理においては、高周波信号の折り返りを防ぐため、本実施形態では一般的な手段である平滑化フィルタリング処理を実施してから縮小処理を実施する。 Next, details of the reduction process in step S601 will be described. In the reduction process, in order to prevent aliasing of the high-frequency signal, the reduction process is performed after the smoothing filtering process, which is a general means, is performed in the present embodiment.
図7(a)には、画像を2分の1倍に縮小する処理の例を示している。図7(a)に示すように、画像処理回路20は、まず、縮小処理前の画像701に対して垂直方向と水平方向とに{1,2,1}/4で表されるフィルタ係数で平滑化フィルタリング処理を実施する。次に、画像処理回路20は線形補間により画素サイズが2分の1倍になるように縮小を実施し、画像702を生成する。
FIG. 7A shows an example of processing for reducing an image by a factor of two. As shown in FIG. 7A, the image processing circuit 20 first uses filter coefficients represented by {1, 2, 1} / 4 in the vertical and horizontal directions with respect to the
また、ステップS603の拡大処理においても、拡大後の画像に発生するジャギーを防ぐため、平滑化フィルタリング処理を行ってから拡大処理を実施する。図7(b)には、画像を2倍に拡大する処理の例を示している。図7(b)に示すように、画像処理回路20は、拡大処理前の画像703に対して垂直方向と水平方向とに{1,2,1}/4で表されるフィルタ係数で平滑化フィルタリング処理を実施する。次に、画像処理回路20は線形補間により画素サイズが2倍になるように拡大を実施し、画像704を生成する。
Also in the enlargement process in step S603, the enlargement process is performed after the smoothing filtering process is performed in order to prevent jaggies occurring in the enlarged image. FIG. 7B shows an example of processing for enlarging an image twice. As shown in FIG. 7B, the image processing circuit 20 smoothes the
なお、以上の縮小処理及び拡大処理は、必要に応じて縮小倍率及び拡大倍率を変更してもよく、更に、繰り返し行うことによって所望の画像サイズへの縮小処理及び拡大処理を行ってもよい。 Note that the above reduction processing and enlargement processing may be performed by changing the reduction magnification and the enlargement magnification as necessary, and may further be repeatedly performed to perform reduction processing and enlargement processing to a desired image size.
一方、画像に平滑化フィルタリング処理を実施した場合、画像に存在していた高輝度画素が、周辺の非高輝度画素との補間により輝度レベルが減衰する場合がある。また、その影響は平滑化フィルタリング処理を実施する画像サイズが小さいほど大きいと考えられる。この場合、縮小処理及び拡大処理を実施せず空間フィルタリング処理だけを実施して生成したぼかし画像と比べ、縮小処理及び拡大処理を実施した画像は空間フィルタリング後の画像の輝度レベルが低くなる。そのため、空間フィルタリング処理の特徴を活かせなくなるという問題がある。これに対し、本実施形態では高輝度画素の輝度レベルをなるべく下げないように、縮小処理及び拡大処理において、平滑化フィルタリング処理を実施するか否かを切り替える。 On the other hand, when the smoothing filtering process is performed on the image, the brightness level of the high brightness pixel existing in the image may be attenuated by interpolation with the surrounding non-high brightness pixels. In addition, the influence is considered to be greater as the image size for performing the smoothing filtering process is smaller. In this case, the brightness level of the image after the spatial filtering is lower in the image subjected to the reduction process and the enlargement process than the blurred image generated by performing only the spatial filtering process without performing the reduction process and the enlargement process. Therefore, there is a problem that the feature of the spatial filtering process cannot be used. On the other hand, in this embodiment, whether or not to perform the smoothing filtering process is switched in the reduction process and the enlargement process so as not to reduce the luminance level of the high-luminance pixel as much as possible.
次に、平滑化フィルタリング処理を実施するか否かを判定する処理について説明する。初めに、画像処理回路20は、縮小処理における平滑化フィルタリング処理の実施箇所(実施タイミング)を判定する。ここで、画像処理回路20は、入力される画像サイズにおいて、平滑化フィルタリング処理が入力画像の高輝度画素の輝度レベルを大きく下げるかどうかに基づいて判定を行う。 Next, a process for determining whether to perform the smoothing filtering process will be described. First, the image processing circuit 20 determines an execution location (execution timing) of the smoothing filtering process in the reduction process. Here, the image processing circuit 20 makes a determination based on whether the smoothing filtering process greatly reduces the luminance level of the high-luminance pixels of the input image in the input image size.
図8は、本実施形態における縮小処理を説明するための図である。
図8に示す画像801は、縮小処理前の画像であり、画像サイズは水平方向が4000画素、垂直方向が3000画素である。また、画像802は、第1の縮小処理によって画像801を2分の1倍に縮小したものであり、画像サイズは水平方向が2000画素、垂直方向が1500画素である。さらに、画像803は、画像802を第2の縮小処理によって2分の1倍に縮小したものであり、画像サイズは水平方向が1000画素、垂直方向が750画素である。
FIG. 8 is a diagram for explaining the reduction processing in the present embodiment.
An
このとき、画像処理回路20は、縮小処理で入力される画像データの画像サイズが所定の画像サイズS1以上である場合には、平滑化フィルタリング処理を実施し、所定のサイズS1未満である場合には平滑化フィルタリング処理を実施しないようにする。例えば、図8において、画像801から画像802への第1の縮小処理では第1の平滑化フィルタリング処理を実施し、画像802から画像803への第2の縮小処理では第2の平滑化フィルタリング処理を実施しないようにする。
At this time, the image processing circuit 20 performs the smoothing filtering process when the image size of the image data input in the reduction process is equal to or larger than the predetermined image size S1, and when the image size is smaller than the predetermined size S1. Does not perform the smoothing filtering process. For example, in FIG. 8, the first smoothing filtering process is performed in the first reduction process from the
一方、拡大処理においても同様に、画像処理回路20は拡大処理で入力される画像データの画像サイズが所定の画像サイズS2以上である場合には平滑化フィルタリング処理を実施する。そして、所定の画像サイズS2未満である場合には平滑化フィルタリング処理を実施しないようにする。以上のように画像処理回路20は、平滑化フィルタリング処理の実施箇所を決定してぼかし処理を実施する。 On the other hand, similarly in the enlargement process, the image processing circuit 20 performs the smoothing filtering process when the image size of the image data input in the enlargement process is equal to or larger than the predetermined image size S2. If the image size is less than the predetermined image size S2, the smoothing filtering process is not performed. As described above, the image processing circuit 20 determines a place where the smoothing filtering process is performed and performs the blurring process.
次に、図9を参照しながら、本実施形態における画像処理回路20によるぼかし処理の動作手順について説明する。図9(a)は、図6のステップS601における縮小処理の詳細な処理手順の一例を示すフローチャートであり、図9(b)は、図6のステップS603における拡大処理の詳細な処理手順の一例を示すフローチャートである。 Next, the operation procedure of the blurring process by the image processing circuit 20 in the present embodiment will be described with reference to FIG. FIG. 9A is a flowchart showing an example of a detailed processing procedure of the reduction process in step S601 of FIG. 6, and FIG. 9B is an example of a detailed processing procedure of the enlargement process in step S603 of FIG. It is a flowchart which shows.
まず、縮小処理について説明する。まず、図9(a)のステップS901において、先に決定した平滑化フィルタリング処理決定情報に基づき、入力された画像に対して平滑化フィルタリング処理を実施するか否かを判定する。平滑化フィルタリング処理決定情報の一例としては、例えば図8で説明したような画像サイズなどが挙げられる。この判定の結果、平滑化フィルタリング処理を実施する場合はステップS902へ進み、平滑化フィルタリング処理を実施しない場合はステップS903へ進む。 First, the reduction process will be described. First, in step S901 in FIG. 9A, it is determined based on the previously determined smoothing filtering processing determination information whether or not to perform the smoothing filtering processing on the input image. As an example of the smoothing filtering processing determination information, for example, the image size described with reference to FIG. As a result of this determination, when the smoothing filtering process is performed, the process proceeds to step S902, and when the smoothing filtering process is not performed, the process proceeds to step S903.
ステップS902においては、画像処理回路20は、入力された画像に対して平滑化フィルタリング処理を実施する。そして、ステップS903において、画像処理回路20は、予め設定された縮小率で画像に対して縮小処理を実施する。次に、ステップS904において、予め設定されたサイズまで画像の縮小が完了しているか否かを判定する。この判定の結果、予め設定されたサイズまで画像データの縮小が完了している場合は縮小処理を終了し、縮小が完了していない場合はステップS901へ戻り、処理を繰り返す。 In step S902, the image processing circuit 20 performs a smoothing filtering process on the input image. In step S903, the image processing circuit 20 performs a reduction process on the image at a preset reduction rate. Next, in step S904, it is determined whether or not the image has been reduced to a preset size. As a result of the determination, if the reduction of the image data to the preset size is completed, the reduction process is terminated, and if the reduction is not completed, the process returns to step S901 to repeat the process.
次に、拡大処理について説明する。まず、図9(b)のステップS906において、先に決定した平滑化フィルタリング処理決定情報に基づき、空間フィルタリング処理が実施された画像に平滑化フィルタリング処理を実施するか否かを判定する。平滑化フィルタリング処理決定情報については前述したとおりである。この判定の結果、平滑化フィルタリング処理を実施する場合はステップS907へ進み、平滑化フィルタリング処理を実施しない場合はステップS908へ進む。 Next, the enlargement process will be described. First, in step S906 of FIG. 9B, it is determined based on the previously determined smoothing filtering process determination information whether or not to perform the smoothing filtering process on the image on which the spatial filtering process has been performed. The smoothing filtering process determination information is as described above. As a result of the determination, if the smoothing filtering process is performed, the process proceeds to step S907. If the smoothing filtering process is not performed, the process proceeds to step S908.
ステップS907においては、画像処理回路20は、空間フィルタリング処理が実施された画像に対して平滑化フィルタリング処理を実施する。そして、ステップS908において、画像処理回路20は、予め設定された拡大率で画像データに対して拡大処理を実施する。次に、ステップS909において、予め設定されたサイズまで画像の拡大が完了しているか否かを判定する。この判定の結果、予め設定されたサイズまで画像データの拡大が完了している場合は拡大処理を終了し、拡大が完了していない場合はステップS906へ戻り、処理を繰り返す。 In step S907, the image processing circuit 20 performs the smoothing filtering process on the image on which the spatial filtering process has been performed. In step S908, the image processing circuit 20 performs an enlargement process on the image data at a preset enlargement ratio. Next, in step S909, it is determined whether the image has been enlarged to a preset size. If the result of this determination is that the enlargement of the image data to a preset size has been completed, the enlargement process is terminated, and if the enlargement has not been completed, the process returns to step S906 to repeat the process.
本実施形態では、以上の処理によって第1のぼかし画像および第2のぼかし画像を生成する。なお、本実施形態では撮影画像の特徴の解析結果によって平滑化フィルタリング処理を実施するか否か判定しているが、撮影画像の解析を行わず、各平滑化フィルタリングを実施するか否かを予め決定してもよい。例えば、撮影画像の解析を実施せずに、全ての平滑化フィルタリング処理を実施しないようにしてもよい。また、縮小処理の場合は平滑化フィルタリング処理を実施し、拡大処理の場合は平滑化フィルタリング処理を実施しないように固定してもよい。 In the present embodiment, the first blurred image and the second blurred image are generated by the above processing. In this embodiment, it is determined whether or not to perform the smoothing filtering process based on the analysis result of the characteristics of the captured image. However, whether or not to perform each smoothing filtering without analyzing the captured image is determined in advance. You may decide. For example, all the smoothing filtering processes may not be performed without analyzing the captured image. Further, in the case of the reduction process, the smoothing filtering process may be performed, and in the case of the enlargement process, the smoothing filtering process may not be performed.
図2の説明に戻り、次にステップS207において、画像処理回路20は、ステップS205において生成された切り出しマップに基づいて、主被写体に合焦して撮影された画像から主被写体領域を切り出す。そして、ステップS206において生成された第1のぼかし画像と切り出した主被写体領域とを合成して第1の合成画像を生成する。さらに、ステップS206において生成された第2のぼかし画像から中間領域を切り出し、前述の第1の合成画像と切り出した中間領域とを合成して第2の合成画像を生成する。 Returning to the description of FIG. 2, in step S207, the image processing circuit 20 cuts out the main subject region from the image photographed while focusing on the main subject based on the cutout map generated in step S205. Then, the first blurred image generated in step S206 and the cut out main subject region are combined to generate a first combined image. Further, an intermediate area is cut out from the second blurred image generated in step S206, and the first combined image and the cut out intermediate area are combined to generate a second combined image.
ここで、画像の合成処理の一例について説明する。画像処理回路20は、切り出しマップの画素値から求まる値α[i,j](0≦α≦1)に基づいて、主被写体に合焦して撮影された画像IMG1[i,j]の被写体領域とぼかし画像IMG2[i,j]とを合成する。そして、合成画像B[i,j]を生成する。すなわち、画像処理回路20は、合成画像B[i,j]を、以下の式(2)を用いて算出する。なお、[i,j]は各画素を示している。
B[i,j]
=IMG1[i,j]*α[i,j]+IMG2[i,j]*(1−α)[i,j]
・・・(2)
Here, an example of image composition processing will be described. The image processing circuit 20 subjects the subject of the image IMG1 [i, j] that is photographed while focusing on the main subject based on the value α [i, j] (0 ≦ α ≦ 1) obtained from the pixel value of the cut-out map. The region and the blurred image IMG2 [i, j] are combined. Then, a composite image B [i, j] is generated. That is, the image processing circuit 20 calculates the composite image B [i, j] using the following equation (2). [I, j] indicates each pixel.
B [i, j]
= IMG1 [i, j] * α [i, j] + IMG2 [i, j] * (1-α) [i, j]
... (2)
上記の処理によって得られた第2の合成画像を、背景ぼかし画像として取得する。以上のよう、本実施形態によれば、鮮鋭領域とぼかし領域との切り替わる境界が目立たない背景ぼかし画像を得ることができる。また、画像サイズに応じて平滑化フィルタリング処理の有無を切り替えるようにしたので、縮小画像に空間フィルタ処理を行ってぼかし効果を得る場合でも、高輝度画素の輝度レベルをできるだけ残した状態で空間フィルタリング処理を行うことができる。さらには拡大処理後にジャギーの発生を抑えたぼかし画像を得ることができる。なお、処理時間を短縮するために、第2のぼかし画像を生成する際には、フィルタリング処理を行う領域を中間領域のみとするようにしてもよい。 The second composite image obtained by the above processing is acquired as a background blurred image. As described above, according to the present embodiment, it is possible to obtain a background blurred image in which the boundary between the sharp area and the blurred area is not conspicuous. In addition, since smoothing filtering processing is switched according to the image size, spatial filtering is performed with the luminance level of high-luminance pixels remaining as much as possible even when performing spatial filtering processing on a reduced image to obtain a blurring effect. Processing can be performed. Furthermore, it is possible to obtain a blurred image in which the occurrence of jaggy is suppressed after the enlargement process. In order to shorten the processing time, when the second blurred image is generated, the region where the filtering process is performed may be only the intermediate region.
(第2の実施形態)
第1の実施形態では、主被写体に合焦した画像と、背景に合焦した画像との2枚を撮影した。本実施形態では、主被写体に合焦した画像を含む3枚以上の画像を撮影した場合について、第1の実施形態と異なる点を中心に説明する。なお、本実施形態に係る撮像装置の構成は、図1と同様であるため、説明は省略する。
(Second Embodiment)
In the first embodiment, two images of an image focused on the main subject and an image focused on the background were taken. In this embodiment, a case where three or more images including an image focused on a main subject are photographed will be described focusing on differences from the first embodiment. Note that the configuration of the imaging apparatus according to the present embodiment is the same as that shown in FIG.
図10は、2つの被写体を含む画像の一例を示す図である。図10に示す画像には、主被写体1001の後方に第2被写体1002が写っており、背景1003は、深度が奥行き方向に徐々に深くなるような構図となっている。
FIG. 10 is a diagram illustrating an example of an image including two subjects. In the image shown in FIG. 10, the second subject 1002 is shown behind the main subject 1001, and the
本実施形態における背景ぼかし処理の手順については、基本的には図2に示した手順と同様である。以下、第1の実施形態と異なる点をについて説明する。
まず、図2のステップS201においては、撮像装置100は測距制御部42の制御により主被写体に合焦して撮影を行う。次に、測距制御部42の制御により撮影レンズ10を所定量ずらし、主被写体後方の第2被写体に合焦して撮影を行う。さらに、測距制御部42の制御により撮影レンズ10を所定量ずらし、背景に合焦して撮影を行う。次に、画像処理回路20は、第2被写体に合焦して撮影された画像と、背景に合焦して撮影された画像とを用いて、ステップS202〜S205までの処理を行う。
The procedure of the background blur processing in this embodiment is basically the same as the procedure shown in FIG. Hereinafter, differences from the first embodiment will be described.
First, in step S201 in FIG. 2, the
続いてステップS206において、画像処理回路20は、主被写体に合焦して撮影された画像に第1のぼかし処理を実施して第1のぼかし画像を生成し、第2のぼかし処理を実施して第2のぼかし画像を生成する。さらに、主被写体に合焦して撮影された画像に対し、第1のぼかし画像と第2ぼかし画像との中間的なぼかし量となる第3のぼかし処理を実施して、第3のぼかし画像を生成する。 Subsequently, in step S206, the image processing circuit 20 performs a first blurring process on the image photographed while focusing on the main subject to generate a first blurring image, and performs a second blurring process. To generate a second blurred image. Further, the third blurred image is obtained by performing a third blurring process that is an intermediate blur amount between the first blurred image and the second blurred image on the image photographed while focusing on the main subject. Is generated.
次に、ステップS207において、画像処理回路20は、第1のぼかし画像からステップS205において生成された切り出しマップに基づいた領域を切り出し、第2のぼかし画像と合成して第1の合成画像を生成する。次に、画像処理回路20は、第3のぼかし画像からステップS205において生成された切り出しマップに基づいた領域を切り出し、第1の合成画像と合成して第2の合成画像を生成する。 Next, in step S207, the image processing circuit 20 cuts out an area based on the cut-out map generated in step S205 from the first blurred image, and combines it with the second blurred image to generate a first combined image. To do. Next, the image processing circuit 20 cuts out an area based on the cut-out map generated in step S205 from the third blurred image and combines it with the first composite image to generate a second composite image.
以上のように本実施形態によれば、第1のぼかし画像の領域と第2のぼかし画像の領域とが切り替わる境界が目立たない多段階のぼかし画像を得ることができる。さらに、多段階のぼかし画像に、主被写体に合焦して撮影された画像を合成することにより、各領域が切り替わる境界が目立たない多段階の背景ぼかし画像を得ることが可能となる。 As described above, according to the present embodiment, it is possible to obtain a multi-stage blurred image in which the boundary where the first blurred image region and the second blurred image region are switched is inconspicuous. Furthermore, by synthesizing an image photographed while focusing on the main subject with a multi-stage blurred image, it is possible to obtain a multi-stage background blurred image in which the boundary where each area is switched is not conspicuous.
なお、本実施形態における領域判別処理は、被写体側に合焦している画像と背景側に合焦している画像とを用いて行っているが、これに限定されるものではない。例えば、主被写体よりも前側に存在する被写体にぼかし処理を行う場合、前側の被写体に合焦した画像と主被写体に合焦した画像とを用いるようにしてもよい。 In addition, although the area | region discrimination | determination process in this embodiment is performed using the image focused on the to-be-photographed object side and the image focused on the background side, it is not limited to this. For example, when blurring is performed on a subject existing in front of the main subject, an image focused on the front subject and an image focused on the main subject may be used.
(第3の実施形態)
第1の実施形態では、画像サイズに応じて平滑化フィルタリング処理を実施するか否かを決定した。これに対して本実施形態では、入力画像の輝度分布や斜線検出情報などの情報によって平滑化フィルタリング処理を実施するか否かを決定する方法について説明する。なお、本実施形態に係る撮像装置の構成は、図1と同様であるため、説明は省略する。第1の実施形態と異なる点を中心に説明する。
(Third embodiment)
In the first embodiment, whether to perform the smoothing filtering process is determined according to the image size. In contrast, in the present embodiment, a method for determining whether or not to perform the smoothing filtering process based on information such as the luminance distribution of the input image and the oblique line detection information will be described. Note that the configuration of the imaging apparatus according to the present embodiment is the same as that shown in FIG. A description will be given centering on differences from the first embodiment.
本実施形態における背景ぼかし処理の手順については、図2のフローチャートにおいて、ステップS201からS205までの処理は、第1の実施形態と同様に実施する。次のステップS206におけるぼかし処理については第1の実施形態と異なるため、その詳細について以下に説明する。本実施形態では、前述したように、平滑化フィルタリング処理を実施するか否かの判定方法が第1の実施形態と異なっている。なお、画像にぼかしを付加する基本的な処理手順は図6と同様である。 Regarding the procedure of the background blur processing in the present embodiment, the processing from step S201 to S205 in the flowchart of FIG. 2 is performed in the same manner as in the first embodiment. Since the blurring process in the next step S206 is different from that of the first embodiment, the details will be described below. In the present embodiment, as described above, the method for determining whether or not to perform the smoothing filtering process is different from that in the first embodiment. The basic processing procedure for adding blur to an image is the same as that shown in FIG.
初めに、画像処理回路20は、画像全体における所定の輝度値Yth以上の画素が占める比率R1と、所定の比率Rthとを比較し、R1≧Rthを満たす場合に、平滑化フィルタリング処理を実施するか否かをさらに判定する。一方、前記関係を満たさない場合は、平滑化フィルタリング処理を実施するものと決定する。 First , the image processing circuit 20 compares the ratio R 1 occupied by pixels having a predetermined luminance value Y th or more in the entire image with the predetermined ratio R th, and performs smoothing when R 1 ≧ R th is satisfied. It is further determined whether or not to perform the filtering process. On the other hand, when the relationship is not satisfied, it is determined that the smoothing filtering process is performed.
前記関係を満たす場合は、初めに、画像処理回路20は、縮小処理における平滑化フィルタリング処理を実施するか否かを判定する。このとき、画像処理回路20は、所定のテーブルを参照し、所望の縮小倍率に対応して平滑化フィルタリング処理を実施するか否かを決定する。 If the relationship is satisfied, first, the image processing circuit 20 determines whether or not to perform the smoothing filtering process in the reduction process. At this time, the image processing circuit 20 refers to a predetermined table and determines whether or not to perform the smoothing filtering process corresponding to a desired reduction ratio.
次に、画像処理回路20は、拡大処理における平滑化フィルタリング処理を実施するか否かを判定する。具体的には、まず、画像処理回路20は、縮小画像に対して所定の斜線検出フィルタ係数を用いて斜線検出フィルタリング処理を実施して斜線検出を行う。次に、画像処理回路20は、検出された斜線が前記縮小画像に占める比率R2を算出し、所定の判定テーブルを参照して1回目の拡大処理からの平滑化フィルタリング処理の実施回数Nを決定する。 Next, the image processing circuit 20 determines whether or not to perform the smoothing filtering process in the enlargement process. Specifically, first, the image processing circuit 20 performs oblique line detection filtering processing on a reduced image using a predetermined oblique line detection filter coefficient to detect oblique lines. Next, the image processing circuit 20 calculates a ratio R 2 in which the detected oblique line occupies the reduced image, and refers to a predetermined determination table to determine the number N of smoothing filtering processes performed from the first enlargement process. decide.
図11は、縮小画像に対して3回の拡大処理を実施する場合の判定テーブルの一例を示す図である。図11に示す例では、斜線の占める比率R2が90%以上の場合は、画像処理回路20は拡大画像におけるジャギーの発生を抑えるため、平滑化フィルタリング処理を3回全て実施することを決定する。一方、斜線の占める比率R2が30%未満の場合は、画像処理回路20は平滑化フィルタリング処理を実施しないことを決定する。 FIG. 11 is a diagram illustrating an example of a determination table when the enlargement process is performed three times on a reduced image. In the example shown in FIG. 11, when the ratio R 2 occupied by oblique lines is 90% or more, the image processing circuit 20 determines to perform the smoothing filtering process all three times in order to suppress the occurrence of jaggy in the enlarged image. . On the other hand, when the ratio R 2 occupied by the oblique lines is less than 30%, the image processing circuit 20 determines not to perform the smoothing filtering process.
以上のように本実施形態においては、以上のような手順で平滑化フィルタリング処理を実施するか否かを決定し、その後、図6に示す手順により第1のぼかし画像および第2のぼかし画像を生成する。次のステップS207においては、第1の実施形態と同様の手順により背景ぼかし画像を取得する。 As described above, in the present embodiment, it is determined whether or not to perform the smoothing filtering process by the procedure as described above, and then the first blurred image and the second blurred image are processed by the procedure shown in FIG. Generate. In the next step S207, a background blurred image is acquired by the same procedure as in the first embodiment.
なお、本実施形態では、画像全体における所定の輝度値Yth以上の画素が占める比率によって平滑化フィルタリング処理を実施するか否かを判定しているが、それ以外の方法によって判定を行ってもよい。例えば、画像全体における輝度レベルのヒストグラムを作成し、輝度レベルの分布に応じて判定を行ってもよい。また、図11に示す実施回数Nおよび比率R2などの数値は、本実施形態における一例であり、これに限るものではない。 In the present embodiment, it is determined whether or not the smoothing filtering process is performed based on the ratio of pixels in the entire image that are equal to or greater than the predetermined luminance value Yth . However, the determination may be performed by other methods. Good. For example, a histogram of luminance levels in the entire image may be created, and determination may be performed according to the distribution of luminance levels. Further, the numerical values such as the number N of implementations and the ratio R 2 shown in FIG. 11 are examples in the present embodiment, and are not limited thereto.
以上のように本実施形態によれば、縮小画像に空間フィルタ処理を行ってぼかし効果を得る場合でも、高輝度画素の輝度レベルをできるだけ残した状態で空間フィルタリング処理を行うことができる。また、さらには拡大処理後にジャギーの発生を抑えたぼかし画像を得ることができる。なお、本実施形態における領域判別処理は、被写体側に合焦している画像と背景側に合焦している画像を用いて行っているが、これに限定されるものではない。例えば、主被写体よりも前側に存在する被写体にぼかし処理を行う場合、前側の被写体に合焦した画像と主被写体に合焦した画像とを用いるようにしてもよい。 As described above, according to the present embodiment, even when a spatial filter process is performed on a reduced image to obtain a blurring effect, the spatial filtering process can be performed with the luminance level of high-luminance pixels remaining as much as possible. Further, it is possible to obtain a blurred image in which the occurrence of jaggy is suppressed after the enlargement process. Note that the area determination processing in the present embodiment is performed using an image focused on the subject side and an image focused on the background side, but is not limited to this. For example, when blurring is performed on a subject existing in front of the main subject, an image focused on the front subject and an image focused on the main subject may be used.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
20 画像処理回路
50 システム制御部
20 Image processing circuit 50 System control unit
Claims (12)
前記第1の画像および第2の画像から、主被写体領域、背景領域、および前記主被写体領域と前記背景領域との間の中間領域を判定する領域判定手段と、
前記第1の画像に対してフィルタリング処理を行って第1のぼかし画像を生成するとともに、前記第1の画像に対してフィルタリング処理を行って前記第1のぼかし画像よりもぼかし量が小さい第2のぼかし画像を生成する生成手段と、
前記第1の画像から前記主被写体領域を切り出すとともに、前記第2のぼかし画像から前記中間領域を切り出し、前記第1のぼかし画像に前記切り出された主被写体領域および中間領域を合成して背景ぼかし画像を生成する合成手段と、
を備えることを特徴とする画像処理装置。 Acquisition means for acquiring a first image focused on a main subject and a second image including the main subject and focused on a background of the main subject;
Before Symbol first image and the second image, the main object region, and the region determining means for determining an intermediate region between the background region, and the main subject region and the background region,
To generate a first blurred image by performing filtering processing on the pre-Symbol first image, the blurring amount than the first blurred image by performing filtering processing on the first image is smaller Generating means for generating two blurred images;
With cut out before Symbol main subject region from the first image, before Symbol cut out before SL during area from the second blurred image, the pre-Symbol the cut main subject region and the intermediate regions in the first blurred image A combining means for generating a background blurred image by combining;
An image processing apparatus comprising:
前記第1の画像および第2の画像から、主被写体領域、背景領域、および前記主被写体領域と前記背景領域との間の中間領域を判定する領域判定手段と、Area determining means for determining a main subject area, a background area, and an intermediate area between the main subject area and the background area from the first image and the second image;
前記第1の画像に対してフィルタリング処理を行って第1のぼかし画像を生成するとともに、前記第1の画像に対してフィルタリング処理を行って前記第1のぼかし画像よりもぼかし量が小さい第2のぼかし画像を生成する生成手段と、A filtering process is performed on the first image to generate a first blurred image, and a filtering process is performed on the first image to reduce a blur amount smaller than that of the first blurred image. Generating means for generating a blurred image of
前記第1の画像から切り出された前記主被写体領域と、前記第2のぼかし画像から切り出された前記中間領域と、前記第1のぼかし画像から切り出された背景領域を合成することによって、背景ぼかし画像を生成する合成手段と、By combining the main subject region cut out from the first image, the intermediate region cut out from the second blurred image, and the background region cut out from the first blurred image, background blurring is performed. Combining means for generating an image;
を備えることを特徴とする画像処理装置。An image processing apparatus comprising:
前記合成手段は、前記多段階の複数のぼかし画像を用いて前記背景ぼかし画像を生成することを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。 The generation means performs a filtering process on the first image to generate a plurality of multi- stage blurred images having a smaller amount of blur than the first blurred image,
The combining means, an image processing apparatus according to any one of claim 1 to 5, characterized in that to generate the background blurred image by using a plurality of blurred images of the multiple stages.
前記第1の画像に対して縮小処理を行う縮小手段と、
前記縮小手段によって縮小された縮小画像に対して空間フィルタリング処理を行うフィルタリング手段と、
前記フィルタリング手段によって空間フィルタリング処理が行われた縮小画像に対して拡大処理を行って前記第1のぼかし画像又は前記第2のぼかし画像を生成する拡大手段と、
を備えることを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。 The generating means includes
Reduction means for performing reduction processing on the first image;
Filtering means for performing spatial filtering processing on the reduced image reduced by the reduction means;
An enlarging unit that performs an enlarging process on the reduced image subjected to the spatial filtering process by the filtering unit to generate the first blurred image or the second blurred image;
The image processing apparatus according to claim 1, further comprising:
前記拡大手段は、所定の拡大率になるまで拡大処理を繰り返すことを特徴とする請求項7に記載の画像処理装置。 The reduction means repeats the reduction process until a predetermined reduction rate is reached,
The image processing apparatus according to claim 7, wherein the enlargement unit repeats the enlargement process until a predetermined enlargement ratio is reached.
前記拡大手段は、画像サイズに応じて前記拡大処理を行う前に平滑化フィルタリング処理を行うことを特徴とする請求項8に記載の画像処理装置。 The reduction means performs a smoothing filtering process before performing the reduction process according to the image size,
The image processing apparatus according to claim 8, wherein the enlarging unit performs a smoothing filtering process before performing the enlarging process according to an image size.
前記拡大手段は、前記第1の画像の輝度分布および前記縮小画像における斜線の検出情報に応じて前記拡大処理を行う前に平滑化フィルタリング処理を行うことを特徴とする請求項8に記載の画像処理装置。 The reduction means performs a smoothing filtering process before performing the reduction process according to the luminance distribution of the first image,
9. The image according to claim 8, wherein the enlarging unit performs a smoothing filtering process before performing the enlarging process according to luminance distribution of the first image and detection information of oblique lines in the reduced image. Processing equipment.
前記第1の画像および第2の画像から、主被写体領域、背景領域、および前記主被写体領域と前記背景領域との間の中間領域を判定する領域判定工程と、
前記第1の画像に対してフィルタリング処理を行って第1のぼかし画像を生成するとともに、前記第1の画像に対してフィルタリング処理を行って前記第1のぼかし画像よりもぼかし量が小さい第2のぼかし画像を生成する生成工程と、
前記第1の画像から前記主被写体領域を切り出すとともに、前記第2のぼかし画像から前記中間領域を切り出し、前記第1のぼかし画像に前記切り出された主被写体領域および中間領域を合成して背景ぼかし画像を生成する合成工程と、
を備えることを特徴とする画像処理方法。 An acquisition step of acquiring a first image focused on a main subject and a second image including the main subject and focused on a background of the main subject;
Before Symbol first image and the second image, the main object region, and the region determining step of determining an intermediate region between the background region, and the main subject region and the background region,
To generate a first blurred image by performing filtering processing on the pre-Symbol first image, the blurring amount than the first blurred image by performing filtering processing on the first image is smaller A generation process for generating two blurred images;
With cut out before Symbol main subject region from the first image, before Symbol cut out before SL during area from the second blurred image, the pre-Symbol the cut main subject region and the intermediate regions in the first blurred image A compositing process for compositing to generate a background blurred image;
An image processing method comprising:
前記第1の画像および第2の画像から、主被写体領域、背景領域、および前記主被写体領域と前記背景領域との間の中間領域を判定する領域判定工程と、An area determination step of determining a main subject area, a background area, and an intermediate area between the main subject area and the background area from the first image and the second image;
前記第1の画像に対してフィルタリング処理を行って第1のぼかし画像を生成するとともに、前記第1の画像に対してフィルタリング処理を行って前記第1のぼかし画像よりもぼかし量が小さい第2のぼかし画像を生成する生成工程と、A filtering process is performed on the first image to generate a first blurred image, and a filtering process is performed on the first image to reduce a blur amount smaller than that of the first blurred image. A generation process for generating a blurred image of
前記第1の画像から切り出された前記主被写体領域と、前記第2のぼかし画像から切り出された前記中間領域と、前記第1のぼかし画像から切り出された背景領域を合成することによって、背景ぼかし画像を生成する合成工程と、By combining the main subject region cut out from the first image, the intermediate region cut out from the second blurred image, and the background region cut out from the first blurred image, background blurring is performed. A compositing process to generate an image;
を備えることを特徴とする画像処理方法。An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013167667A JP6116436B2 (en) | 2013-08-12 | 2013-08-12 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013167667A JP6116436B2 (en) | 2013-08-12 | 2013-08-12 | Image processing apparatus and image processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015037215A JP2015037215A (en) | 2015-02-23 |
JP2015037215A5 JP2015037215A5 (en) | 2016-09-23 |
JP6116436B2 true JP6116436B2 (en) | 2017-04-19 |
Family
ID=52687535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013167667A Active JP6116436B2 (en) | 2013-08-12 | 2013-08-12 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6116436B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017021467A (en) * | 2015-07-08 | 2017-01-26 | キヤノン株式会社 | Image processing device, control method and control program of the same |
CN105847674B (en) * | 2016-03-25 | 2019-06-07 | 维沃移动通信有限公司 | A kind of preview image processing method and mobile terminal based on mobile terminal |
CN105979165B (en) * | 2016-06-02 | 2019-02-05 | Oppo广东移动通信有限公司 | Blur photograph generation method, device and mobile terminal |
CN111263067B (en) * | 2020-02-18 | 2022-02-15 | RealMe重庆移动通信有限公司 | Image processing method, device, terminal equipment and storage medium |
TWI813181B (en) * | 2021-09-09 | 2023-08-21 | 大陸商星宸科技股份有限公司 | Image processing circuit and image processing method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008294785A (en) * | 2007-05-25 | 2008-12-04 | Sanyo Electric Co Ltd | Image processor, imaging apparatus, image file, and image processing method |
JP2011211523A (en) * | 2010-03-30 | 2011-10-20 | Fujifilm Corp | Image processing method, and imaging device |
JP5482589B2 (en) * | 2010-09-10 | 2014-05-07 | 富士通株式会社 | Image processing apparatus, image processing method, and image processing program |
-
2013
- 2013-08-12 JP JP2013167667A patent/JP6116436B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015037215A (en) | 2015-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8837864B2 (en) | Image synthesis and rotation processing apparatus and image synthesis processing method | |
US20160028969A1 (en) | Digital photographing apparatus and method of controlling the digital photographing apparatus | |
CN106851088B (en) | Image pickup apparatus and image pickup method | |
JP6472183B2 (en) | Image processing apparatus, control method thereof, and program | |
JP6116299B2 (en) | Imaging apparatus and control method thereof | |
JP2009212899A (en) | Imaging device | |
JP6218378B2 (en) | Image processing apparatus and image processing method | |
JP6116436B2 (en) | Image processing apparatus and image processing method | |
JP2015040941A (en) | Image-capturing device, control method therefor, and program | |
JP6827854B2 (en) | Image processing equipment and methods, and imaging equipment | |
JP6192416B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP2017143354A (en) | Image processing apparatus and image processing method | |
JP2016019161A (en) | Imaging device | |
JP6445831B2 (en) | Imaging apparatus, control method thereof, and program | |
EP3125523A1 (en) | Image processing apparatus, image processing method and image capture apparatus | |
JP2012090041A (en) | Image processing device, method, and program | |
JP2015041865A (en) | Image processing apparatus and image processing method | |
JP2007081732A (en) | Imaging apparatus | |
JP6353585B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP5289354B2 (en) | Imaging device | |
JP6516410B2 (en) | Image processing apparatus, image processing method and program | |
JP6433177B2 (en) | Image processing apparatus and image processing method | |
JP2014138378A (en) | Image pickup device, control method thereof, and control program thereof | |
JP2015053652A (en) | Imaging apparatus, and control method and control program for the same | |
JP2019106647A (en) | Image processing apparatus and method, and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160803 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170321 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6116436 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |