JP2013232751A - Imaging apparatus, image processing apparatus, image processing method, and program - Google Patents
Imaging apparatus, image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2013232751A JP2013232751A JP2012103103A JP2012103103A JP2013232751A JP 2013232751 A JP2013232751 A JP 2013232751A JP 2012103103 A JP2012103103 A JP 2012103103A JP 2012103103 A JP2012103103 A JP 2012103103A JP 2013232751 A JP2013232751 A JP 2013232751A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- distance
- image
- unit
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 119
- 238000012545 processing Methods 0.000 title claims description 45
- 238000003672 processing method Methods 0.000 title claims description 15
- 238000009499 grossing Methods 0.000 claims abstract description 49
- 238000000605 extraction Methods 0.000 claims abstract description 25
- 239000000284 extract Substances 0.000 claims abstract description 12
- 230000003287 optical effect Effects 0.000 claims description 46
- 238000005259 measurement Methods 0.000 claims description 14
- 238000003708 edge detection Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 description 23
- 230000006854 communication Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 210000001747 pupil Anatomy 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000012546 transfer Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮像装置、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an imaging device, an image processing device, an image processing method, and a program.
従来、カメラで被写体を撮像した後に、画像データを加工してリフォーカスする技術がある。この技術は、レンズの表面を複数の視点に分割して視点毎に一つのイメージを生成する。そして、視点毎のイメージの有する視差を補正して、再合成する(例えば、非特許文献1参照)。
非特許文献1 Light Field Photography with a Hand-held Plenoptic Camera, Ren Ng, et. al., Stanford Tech Report CTSR 2005-02
2. Description of the Related Art Conventionally, there is a technique for processing an image data and then refocusing it after imaging a subject with a camera. This technique divides the surface of a lens into a plurality of viewpoints and generates one image for each viewpoint. And the parallax which the image for every viewpoint has is correct | amended, and it recombines (for example, refer nonpatent literature 1).
しかしながら、従来の方法では、任意の被写体にピントが合った擬似合焦像が得られるものの、被写体の被写体距離を変更することはできなかった。 However, with the conventional method, a pseudo-focused image in which an arbitrary subject is in focus can be obtained, but the subject distance of the subject cannot be changed.
本発明の第1の態様においては、撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出部と、撮像画像に含まれる各被写体について、撮像部までの被写体距離を示す情報を取得し、選択被写体の被写体距離を、ユーザが指定した被写体距離に置き換えた画像データを生成する置換部と、置換部が生成した画像データに対して、それぞれの被写体に対応する被写体距離に基づいて、撮像画像を平滑化する平滑処理部とを備える撮像装置が提供される。 In the first aspect of the present invention, an extraction unit that extracts an image area corresponding to a selected subject selected by a user from a captured image, and a subject distance to the imaging unit for each subject included in the captured image is shown. Information is obtained, a replacement unit that generates image data in which the subject distance of the selected subject is replaced with the subject distance specified by the user, and the subject distance corresponding to each subject with respect to the image data generated by the replacement unit Based on this, an imaging apparatus is provided that includes a smoothing processing unit that smoothes the captured image.
本発明の第2の態様においては、撮像装置が撮像した被写体の撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出部と、撮像画像に含まれる各被写体について、撮像部までの被写体距離を示す情報を取得し、選択被写体の被写体距離を、ユーザが指定した被写体距離に置き換えた画像データを生成する置換部と、置換部が生成した画像データに対して、それぞれの被写体に対応する被写体距離に基づいて、撮像画像を平滑化する平滑処理部とを備える画像処理装置が提供される。 In the second aspect of the present invention, an extraction unit that extracts an image region corresponding to the selected subject selected by the user from the captured image of the subject captured by the imaging device, and each subject included in the captured image is captured. Information indicating the subject distance to the image, and a replacement unit that generates image data in which the subject distance of the selected subject is replaced with the subject distance specified by the user, and the image data generated by the replacement unit An image processing apparatus is provided that includes a smoothing unit that smoothes a captured image based on a subject distance corresponding to a subject.
本発明の第3の態様においては、撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出段階と、撮像画像に含まれる各被写体について、撮像装置までの被写体距離を示す情報を取得し、選択被写体の被写体距離を、ユーザが指定した被写体距離に置き換えた画像データを生成する置換段階と、置換段階で生成した画像データに対して、それぞれの被写体に対応する被写体距離に基づいて、撮像画像を平滑化する平滑処理段階とが提供される。 In the third aspect of the present invention, an extraction stage for extracting an image region corresponding to the selected subject selected by the user from the captured image, and the subject distance to the imaging device for each subject included in the captured image are shown. Information is obtained, and the subject distance of the selected subject is replaced with the subject distance specified by the user, and the subject distance corresponding to each subject is generated for the image data generated in the replacement step. And a smoothing step for smoothing the captured image.
本発明の第4の態様においては、コンピュータを上記画像処理装置として機能させるためのプログラムが提供される。 In a fourth aspect of the present invention, a program for causing a computer to function as the image processing apparatus is provided.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本発明の実施形態にかかる撮像装置100のブロック図である。撮像装置100は、撮像部10と、距離測定部12と、メモリ14と、画像生成部16と、表示部18と、抽出部20と、置換部21と、計算部22と、平滑処理部24と、ユーザ・インターフェース25と、メインメモリ26と、ユーザ・インターフェース27と、出力インターフェース28を備える。画像生成部16と、抽出部20と、置換部21と、計算部22と、平滑処理部24は、画像処理装置11を構成する。
FIG. 1 is a block diagram of an
撮像部10は、被写体の撮像画像を撮像する。ここで、撮像画像とは、画像処理装置11により画像処理を施す前の画像を指す。本例の撮像画像は、2次元または3次元のパンフォーカス画像である。パンフォーカス画像とは、2以上の被写体のそれぞれと撮像部10との被写体距離が異なっても、当該2以上の被写体のそれぞれに対してピントが合っているように見える画像を指す。パンフォーカス画像は、光学的な絞りを絞った状態で撮像することにより取得することができる。つまり、パンフォーカス画像は、被写界深度が深くなる状態で撮影することで得ることができる、被写界深度の深い状態とは、被写界深度内に∞及び近距離(例えば、1m)の被写体の両方が含まれる状態を指す。パンフォーカス画像を撮像する撮像部10は、開放f値が比較的大きいレンズを有する。開放f値はF8以上であってよい。
The
距離測定部12は、撮像部10から2以上の被写体の各々までの被写体距離を測定する。ここで、被写体距離とは、撮像部10から2以上の被写体の各々までの光学的距離を指す。同一被写体内において当該距離の差がある場合、距離測定部12は、同一被写体内の複数の点について距離を測定してよい。距離測定部12は、例えば撮像部10と同一範囲の被写体について、撮像部10よりも低い解像度で距離情報を測定する。例えば撮像部10は、数百万から数千万程度の画素を有する。これに対して距離測定部12は、800×400程度の画素を有し、それぞれの画素に対して距離を測定してよい。距離測定部12の詳細は、後述する。距離測定部12は、撮像部10の一部であってよい。また、距離測定部12は、撮像部10とは独立の光学系であってもよい。後者の場合、距離測定部12は、撮像部10に近接して配置されるが好ましい。
The
メモリ14は、撮像部10及び距離測定部12と接続し、撮像部10からの撮像画像データ、並びに、距離測定部12からの距離情報データを格納する。メモリ14は、キャッシュメモリであってもよい。その場合、メインメモリ26が撮像部10からの撮像画像データ及び距離測定部12からの距離情報データを格納する。メモリ14は、それぞれのデータのアドレス、フラグなどの属性情報を保持してよい。
The
画像生成部16は、メモリ14と接続し、距離測定部12によって測定した、撮像部10から2以上の被写体の各々までの距離に基づいて、2以上の被写体の各々と撮像部10との間の距離を表す距離情報画像を生成する。画像生成部16は、メモリ14にアクセスすることにより、メモリ14またはメインメモリ26から距離情報データを取得する。ここで、距離情報データとは、撮像部10から各被写体までの光学的距離を表すデータを指す。画像生成部16は、取得した距離情報データに基づいて、距離情報画像を生成する。ここで、距離情報画像は、撮像部10から2以上の被写体の各々までの距離の範囲毎に区別された画像を指す。距離の範囲は、例えば、撮像部10から被写体までの距離を、50cm、80cmもしくは1m毎に区別することで得られる。所定の範囲は、等間隔であってもよいし、等間隔でなくてもよい。距離の範囲は、線によって区別してよく、色によって区別してもよい。また、距離の範囲は、模様もしくは文字その他の記号によって区別してもよい。
The
表示部18は、画像生成部16から距離情報画像データを取得し、距離情報画像を表示する。表示部18は、例えば、撮像装置100の表面に設けられた液晶カラーディスプレイである。
The
抽出部20は、表示部18に表示された画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する。本例の抽出部20は、ユーザが、表示部18に表示された画像に基づいて選択被写体を選択した場合に、選択被写体に対応する撮像画像の領域をエッジ検出により区分する。また、抽出部20は、選択被写体以外の非選択被写体についても、対応する画像領域を同様に抽出する。抽出部20は、撮像部10が撮像した画像に含まれる複数の被写体に対応する各画像領域を、ユーザが選択被写体を選択する前に予め区分してよい。また、抽出部20は、ユーザが選択被写体を選択した後に、各被写体の画像領域を抽出してもよい。
The
表示部18は、画面がタッチパネルであってよい。この例では、ユーザは表示部18が表示する距離情報画像のいずれかの画像領域を、指先もしくはペンなどでタッチすることにより選択することで、選択被写体を指定してよい。また、抽出部20は、距離情報画像上に表示したカーソル等をユーザが操作して選択被写体を選択するためのユーザ・インターフェース25を含んでよい。他の例では、ユーザは無線用のユーザ・インターフェース25を介して、遠隔操作により目的の被写体に対応する画像を含む画像領域を選択してもよい。例えば、ユーザは携帯電話などから目的の被写体に対応する画像を含む画像領域を選択してもよい。
The
置換部21は、撮像画像に含まれる各被写体について、撮像部10までの被写体距離を示す情報を取得し、選択被写体の被写体距離を、ユーザが指定した被写体距離に置き換えた画像データを生成する。置換部21は、距離データのみを置き換えた画像データを生成してよく、また、置き換え前後の被写体距離の差分に応じて、当該被写体の大きさを変化させた画像データを生成してもよい。例えば置換部21は、被写体距離を小さくした場合(撮像部10に近くした場合)には、被写体の大きさを大きくしてよい。また、置換部21は、被写体距離を大きくした場合には、被写体の大きさを小さくしてよい。この場合、置き換え前の被写体に隠れていた領域の画像データは、当該被写体の周囲の画像データから補間してよい。また、置換部21は、被写体距離を大きくした場合には、被写体の大きさを変化させなくともよい。
The
置換部21は、更に、ユーザから希望焦点距離を指定されてよい。希望焦点距離は、撮像画像を擬似合焦させるための、仮想的な焦点距離を指す。希望焦点距離は、撮像画像の撮像時における焦点距離とは異なる距離を指定できる。
The
ユーザは、いずれかの被写体を選択することで、希望焦点距離を指定することができる。置換部21は、ユーザが希望焦点距離を指定するために選択した被写体の被写体距離を、希望焦点距離としてよい。また、置換部21は、ユーザが入力した数値に基づいて、希望焦点距離を設定してもよい。ユーザ・インターフェース27は、これらの情報を受け取ってよい。例えばユーザ・インターフェース27は、タッチパネルまたはキーパッド等を介して、これらの情報を受け取る。また、置換部21は、ユーザが順次選択する各被写体の被写体距離を、ユーザが順次指定する被写体距離に置き換えてよい。
The user can designate a desired focal length by selecting one of the subjects. The
また、置換部21は、選択被写体と同一の距離にある他の被写体の被写体距離を、選択被写体の被写体距離と同一の距離に置き換えてよい。この場合、同じ距離の範囲に属する複数の被写体の各々は、同一の仮想距離の範囲に属することとなる。
The
計算部22は、距離測定部12が測定した距離に基づいて、ユーザが指定する希望焦点距離に対する、それぞれの被写体の被写体距離の相対距離を計算する。ここで、相対距離とは、希望焦点距離と、撮像画像に含まれる2以上の被写体の各々及び撮像部10の間の距離との差分を指す。相対距離は、正または負の値を取り得る。つまり、希望焦点距離よりも光学的距離が短い被写体については、相対距離は負の値となり、希望焦点距離よりも光学的距離が長い被写体については、相対距離は正の値となる。
Based on the distance measured by the
平滑処理部24は、それぞれの被写体に対して計算した相対距離に基づいて、撮像画像を平滑化する。ここで、相対距離に基づいてとは、相対距離の絶対値を対比することにより、撮像画像を平滑化することを含んでよい。また、相対距離の閾値を予め指定し、当該閾値と各被写体の相対距離とを対比して、撮像画像を平滑化することを含んでよい。さらに、被写体どうしの相対距離の差が小さい場合に、相対距離に重み付けをして、その重み付けされた相対距離と閾値とを対比して、撮像画像を平滑化することを含んでよい。平滑処理部24は、相対距離に応じて、平滑化フィルタを作成する。平滑化フィルタは、撮像画像の縦方向及び横方向に画素レベルを平均化するローパスフィルタであってよい。
The smoothing
平滑処理部24は、メモリ14にアクセスして撮像部10で撮像したパンフォーカス画像データを読み込む。平滑処理部24は、メモリ14から読み出したパンフォーカス画像データに対して、平滑化処理を行う。平滑処理部24は、相対距離がより大きい被写体に対応する撮像画像の領域に対して、ぼかしの程度をより大きくする。ここで、ぼかしの程度とは、平滑化の相対強度を指す。平滑化フィルタは、パンフォーカス画像の中で、相対距離が大きい被写体に対応する画像については、平滑化の強度を相対的に強くして、強くぼかすようにフィルタリングする。
The smoothing
一方、平滑化フィルタは、相対距離の小さい被写体に対応する画像については、平滑化の強度を相対的に弱くして、弱くぼかすようにフィルタリングする。ローパスフィルタをかける回数を増減することにより、ぼかしの相対的な強さを変更することができる。本実施形態によれば、複数の視差画像を同時に取得せずとも、選択した任意の位置に擬似合焦像を生成できるので、高解像度の画像が得られる。また、平滑化処理のみで、解像度の高い擬似合焦像を得ることができるので、平滑化処理後に、画像データを再合成しなくともよい。したがって、画像処理における装置の負荷を軽減することができる。 On the other hand, the smoothing filter filters the image corresponding to the subject with a small relative distance so as to make the smoothing intensity relatively weak and weakly blur. By increasing or decreasing the number of times the low-pass filter is applied, the relative strength of blur can be changed. According to the present embodiment, a pseudo-focused image can be generated at an arbitrary selected position without acquiring a plurality of parallax images at the same time, so that a high-resolution image can be obtained. In addition, since the pseudo-focused image with high resolution can be obtained only by the smoothing process, it is not necessary to re-synthesize the image data after the smoothing process. Therefore, the load on the apparatus in image processing can be reduced.
メインメモリ26は、平滑処理部24と接続し、擬似合焦像データを格納する。表示部18は、メインメモリ26から読み出した擬似合焦像データを擬似合焦像として表示する。また、出力インターフェース28は、メインメモリ26と接続し、メインメモリ26に格納された擬似合焦像データを撮像装置100の外部に出力する。撮像装置100は、出力インターフェース28を介して、携帯電話、PAD端末、パソコン、テレビ等の外部のディスプレイ装置と接続することができる。
The
図2は、実施形態にかかる画像処理方法のフロー図である。本実施形態にかかる画像処理方法は、撮像ステップS1と、距離測定ステップS2と、パンフォーカス画像表示ステップS3と、エッジ検出ステップS4と、画像選択ステップS5と、希望焦点距離指定ステップS6と、置換ステップS7と、相対距離計算ステップS8と、平滑化処理ステップS9と、判断ステップS10を備える。 FIG. 2 is a flowchart of the image processing method according to the embodiment. The image processing method according to the present embodiment includes an imaging step S1, a distance measurement step S2, a pan focus image display step S3, an edge detection step S4, an image selection step S5, and a desired focal length designation step S6. Step S7, relative distance calculation step S8, smoothing processing step S9, and determination step S10 are provided.
まず、撮像ステップS1において、撮像部10が被写体を撮像した撮像画像を取得する。本実施形態において撮像部10が撮像した撮像画像は、パンフォーカス画像である。次に、距離測定ステップS2において、距離測定部12が、撮像部10から2以上の被写体の各々までの距離を測定し、各被写体と距離情報データとを関連づける。ここで、距離とは、撮像部10からそれぞれの被写体までの最短距離を意味する。距離測定方法の詳細は、図8から図14において後述する。
First, in imaging step S1, the
続いて、パンフォーカス画像表示ステップS3において、画像生成部16がメモリ14にアクセスし、撮像部10が撮像したパンフォーカス画像を読み出す。そして、読み出したパンフォーカス画像を表示部18に表示する。
Subsequently, in the pan focus image display step S3, the
次に、エッジ検出ステップS5において、抽出部20が表示されたパンフォーカス画像に対して、エッジ検出を行う。例えば、エッジ検出は、表示された各被写体に対応する画像に対してガウシアンフィルタリングをして平滑化画像生成し、各被写体に対応する画像領域から平滑化画像を減算することにより行うことができる。エッジ検出により、各被写体に対応する画像領域が区分される。
Next, in edge detection step S5, edge detection is performed on the pan focus image on which the
続いて、画像選択ステップS5において、目的の被写体に対応する画像領域をユーザが選択する。抽出部20は、撮像画像からユーザにより選択された被写体に対応する画像領域を抽出する。
Subsequently, in an image selection step S5, the user selects an image area corresponding to the target subject. The
次に、希望焦点距離指定ステップS6において、ユーザが希望焦点距離を指定する。希望焦点距離の指定は、ユーザ・インターフェース27を介して行う。
Next, in the desired focal length designation step S6, the user designates the desired focal length. The desired focal length is designated via the
続いて、置換ステップS7において、置換部21が選択被写体の被写体距離を、ユーザが指定した被写体距離に置き換えた画像データを生成する。置換ステップS7においてユーザが指定する被写体距離として、希望焦点距離を用いてもよい。
Subsequently, in replacement step S7, the
次に、相対距離計算ステップS8において、計算部22が希望焦点距離と、撮像画像に含まれる2以上の被写体の各々及び撮像部10の間の距離との差分である相対距離をそれぞれの被写体に対して計算する。相対距離計算ステップS8において、目的の被写体と、それ以外の被写体が撮像画像において区別される。計算部22は、被写体と当該被写体の相対距離とを関連づける。希望焦点距離に配置される目的の被写体に対する相対距離は0となる。
Next, in the relative distance calculation step S8, the
続いて、平滑化処理ステップS9において、平滑処理部24が、それぞれの被写体に対して計算した相対距離に基づいて、撮像画像を平滑化処理する。平滑処理部24はメモリ14にアクセスし、撮像部10が撮像したパンフォーカス画像のデータを読み出す。平滑化処理ステップS9は、一例として、ローパスフィルタによるフィルタリング処理であってよい。平滑化処理ステップS9は、相対距離がより大きい被写体に対応する撮像画像の領域に対して、ぼかしの程度をより大きくするように処理する。ぼかしの程度は、例えば平滑化フィルタのフィルタ係数およびタップ数を変更することで制御できる。
Subsequently, in the smoothing processing step S9, the smoothing
次に、判断ステップS10において、他の選択被写体を選択するか否かを判断する。ユーザが他の選択被写体を選択すると判断した場合には、画像選択ステップS5に戻る。ユーザが選択しないと判断した場合には、画像処理は終了する。また、判断ステップS10においては、ユーザは、他の希望焦点距離を選択するか否かを判断してもよい。希望焦点距離を選択する場合、希望焦点距離指定ステップS6に戻る。 Next, in determination step S10, it is determined whether or not another selected subject is to be selected. When the user determines to select another selected subject, the process returns to the image selection step S5. If it is determined that the user does not select, the image processing ends. In determination step S10, the user may determine whether to select another desired focal length. When the desired focal length is selected, the process returns to the desired focal length designation step S6.
本実施形態にかかる撮像装置100及び画像処理方法によれば、任意の被写体の被写体距離を、撮像時とは異なる位置に変更することができる。例えば、一度撮像した画像から、異なる距離にあるはずの各被写体を同じ距離にあるように見せる画像を生成すること、また、同じ距離にあるはずの各被写体を、異なる距離にあるように見せる画像を生成することができる。したがって、一度撮像した画像から、奥行き方向の表現を自由に編集することができる。また、本実施形態にかかる撮像装置100及び画像処理方法によれば、複数の視差画像を必要としないので、解像度の高い擬似合焦像を取得することができる。さらに、本実施形態にかかる撮像装置100及び画像処理方法によれば、画像処理を簡素化することができるので、画像処理に伴う装置の負荷を低減することができる。また、本実施形態にかかる撮像装置100及び画像処理方法によれば、画像処理の高速化及び装置コストの低減を図ることができる。
According to the
図3は、他の画像処理方法のフロー図である。本実施形態にかかる画像処理方法は、撮像ステップS21と、距離測定ステップS22と、距離情報画像作成/表示ステップS23と、画像選択ステップS24と、希望焦点距離指定ステップS25と、置換ステップS26と、相対距離計算ステップS27と、平滑化処理ステップS28と、判断ステップS29を備える。距離情報画像作成/表示ステップS23及び画像選択ステップS24以外は、図2に示した画像処理方法と同様なので説明を省略する。 FIG. 3 is a flowchart of another image processing method. The image processing method according to the present embodiment includes an imaging step S21, a distance measurement step S22, a distance information image creation / display step S23, an image selection step S24, a desired focal length designation step S25, a replacement step S26, Relative distance calculation step S27, smoothing processing step S28, and determination step S29 are provided. Other than the distance information image creation / display step S23 and the image selection step S24 is the same as the image processing method shown in FIG.
距離情報画像作成/表示ステップS23において、画像生成部16が、距離測定ステップS22で測定した距離情報データから距離情報画像データを生成する。距離情報画像データは、表示部18に送信され、表示部18が距離情報画像を表示する。距離情報画像は、撮像部10から、各画素に対応する被写体の各々までの距離を、予め定められた範囲毎に区別して表示する。それぞれの距離範囲の区別は、線、色、模様、文字または記号等によりおこなわれる。本例の距離情報画像は、撮像部10からの距離がそれぞれの範囲内にある領域を、境界線で区別する。
In the distance information image creation / display step S23, the
続いて、画像選択ステップS24において、抽出部20は、距離範囲の境界線の密度が予め定められた閾値よりも高い箇所を境界として、それぞれの被写体の画像領域を抽出する。つまり、抽出部20は、距離情報画像で示される、被写体距離の変化の勾配が、予め定められた閾値よりも急である画像領域を自動的に検出し、各被写体の画像領域として区分してよい。区分した後に、ユーザの選択命令に基づいて、選択被写体に対応する画像領域を含む区分を決定する。
Subsequently, in the image selection step S24, the
図4は、相対距離とぼかし量の強度との関係を示すグラフである。縦軸は、平滑化処理によるぼかし量の強度を表し、横軸は各被写体の相対距離を表す。また、図4においては、撮像部10の撮像レンズの開放f値毎に、ぼかし量の強度および相対距離の関係を示す。3つの開放f値の間には、f1>f2>f3の関係がある。グラフより、相対距離の絶対値が大きいほど、ぼかし量の強度が大きくなることがわかる。平滑処理部24は、相対距離の絶対値が大きいほど、ぼかし量を大きくしてよい。また、その傾向は開放f値が大きいレンズほど顕著となることがわかる。
FIG. 4 is a graph showing the relationship between the relative distance and the intensity of the blur amount. The vertical axis represents the intensity of the blur amount by the smoothing process, and the horizontal axis represents the relative distance of each subject. FIG. 4 shows the relationship between the intensity of the blur amount and the relative distance for each open f value of the imaging lens of the
図5は、表示部18が表示した距離情報画像200の一例である。本例において、被写体210は、両手を前に突き出した一人の人間の上半身である。距離情報画像200は、被写体210の画像及びその横に表示された模様チャート220を含む。距離情報画像200は、被写体210の輪郭がわかる程度の解像度を有する画像であってよい。距離情報画像200において、被写体210の体の表面は、撮像部10からの距離に応じて、所定の距離の範囲毎に異なる模様が付されて区別されている。また、距離情報画像は、撮像部10からの距離がそれぞれの範囲内にある領域を境界線で区別する。本例では、1mから7mまでの距離を5段階で5種類の模様により区別している。
FIG. 5 is an example of the
例えば、距離の範囲aによって区別される被写体部分と距離の範囲bによって区別される被写体部分とでは、模様が異なるので、撮像部10からの距離が異なることがユーザは容易に識別することができる。模様の境界線どうしの間隔が狭い場所は、奥行き方向の距離の変化量が大きいことを示す。一方、模様の境界線どうしの間隔が広い場所は、奥行き方向の距離の変化量が小さいことを示す。距離の範囲は、模様以外に、色、文字もしくは記号等によって区別してもよい。本例では、被写体210が一人の人間の上半身である場合について説明したが、被写体が景色のような2以上の物体で構成される場合も同様である。
For example, since the subject portion distinguished by the distance range a and the subject portion distinguished by the distance range b have different patterns, the user can easily identify that the distance from the
抽出部20は、距離情報画像200において、所定の距離の範囲毎に区分する境界線の密度が予め定められた閾値よりも高い箇所を境界として、それぞれの被写体の画像領域を抽出してよい。平滑処理部24は、当該境界線に沿って、平滑化処理を行ってよい。つまり、同一の境界線上の画像のぼかし量が略同一となるように、フィルタリングの範囲を境界線に沿って移動させてよい。
The
図6は、本実施形態にかかる撮像装置100の撮像部10により、屋外の様子を撮像した撮像画像の一例である。本例の撮像画像は、中央の海に浮かんだ人間、その後方の海面、水平線、海に浮かんだヨット、上空の雲などの複数の被写体に対応する画像を含む。本例の撮像画像は、撮像部10の絞りを絞って撮像したパンフォーカス画像である。
FIG. 6 is an example of a captured image obtained by capturing an image of the outdoors using the
図7は、図6に示す撮像画像を本実施形態にかかる画像処理方法により処理した擬似合焦像である。本例の擬似合焦像は、中央の人間に擬似合焦した画像を示している。複数の被写体の中で、中央の人間にのみピントが合っており、それ以外の被写体は強くぼけて見える。このように本実施形態にかかる撮像装置100によれば、被写界深度の深い画像を被写界深度の浅い画像に見せることができる。つまり、本実施形態にかかる撮像装置100によれば、ユーザが指定した任意の希望焦点距離に応じて、当該希望焦点距離の位置にあたかもピントがあっているような画像を得ることができる。
FIG. 7 is a pseudo-focused image obtained by processing the captured image shown in FIG. 6 by the image processing method according to the present embodiment. The pseudo-focused image of this example shows an image that is pseudo-focused on the person at the center. Among multiple subjects, only the central person is in focus, and the other subjects appear to be strongly blurred. Thus, according to the
図8は、図1に示す距離測定部12のひとつの実施形態を示す。本実施形態にかかる距離測定部12は、同一の被写体33からの光を異なる光路44及び光路46を介して受光する像面位相差センサ50を含む。ここで、像面位相差センサ50は、撮像素子30と、2つの開口部38、40を含む開口保持部42を含む。撮像素子30は、フォトダイオード32、瞳分割部34、マイクロレンズ48を含む。瞳分割部34には、スリット36が設けられており、光路44または光路46のいずれかを通過した光をフォトダイオード32に入射させる。開口保持部42において、開口部38及び開口部40は、それぞれマイクロレンズ48の光軸線37から等距離に配置される。
FIG. 8 shows an embodiment of the
像面位相差センサ50は、各々の光が受光された位置に基づいて、撮像部10から2以上の被写体の各々までの距離を測定する。像面位相差センサ50は、瞳分割を施した2種類の撮像素子30を、チップ上に混在させて配置することにより、得られた視差情報に基づいて、撮像部10から2以上の被写体の各々までの距離を測定する。なお、像面位相差センサ50は、通常の画像も同時に取得することができる。
The image plane
瞳分割部34は、液晶によって構成されてよい。瞳分割部34は、液晶に印加する電圧の変化に応じて、スリット36の位置を位置A及び位置Bの間で交替させる。位置Aにスリット36がある場合、マイクロレンズ48を通過した光路46の光がスリット36を通過して位置Aに対応するフォトダイオード32に入射する。位置Bにスリット36がある場合、マイクロレンズ48を通過した光路44の光がスリット36を通過して位置Bに対応するフォトダイオード32に入射する。
The
図9は、撮像素子30をマトリクス状に並べた撮像チップ52の一例を示す。本例において、撮像素子30は、ある時間において位置Bにスリット36を有する撮像素子30−1と位置Aにスリットを有する撮像素子30−2がx方向に交互に配置されている。また、y方向には隣接する撮像素子と同一の位置にスリット36を有する複数の撮像素子30が配置されている。スリット36の位置は時間の経過とともに位置Aと位置Bとの間を交替してよい。撮像素子30−1、30−2の撮像チップ52における配置は、これに限定されない。撮像チップ52の全面に撮像素子30―1、30−2を敷き詰めてもよいが、所定の間隔で撮像素子30―1、30−2を配置してもよい。その場合、撮像素子30―1、30−2の配置密度は、被写体33までの距離を予測可能な程度であればよい。
FIG. 9 shows an example of an
図10は、図9に示す像面位相差センサ50の撮像チップ52の位置A及び位置Bにおける、撮像素子30のx方向の位置と撮像素子30―1、30−2で受光した光の信号量との関係を示すグラフである。線Aは、位置Aにスリット36を有する撮像素子30−1が受光した信号量と撮像素子30−1のx方向の位置との関係を示す。線Bは、位置Bにスリット36を有する撮像素子30−2が受光した信号量と撮像素子30−2のx方向の位置との関係を示す。つまり、線Aは位置Aで瞳分割した撮像素子30−1が構成する画像を示し、線Bは位置Bで瞳分割した撮像素子30−2が構成する画像を示している。
FIG. 10 shows the position of the
まず、像面位相差センサ50で撮像した全体画像を一定の範囲に区分する。次に、区分した範囲の画像から像面位相差センサの出力のみを切り出し瞳分割画像を抽出する。次に瞳分割画像における位置Aの瞳分割画素と位置Bの瞳分割画素のズレ量をシフト演算により算出する。次に、ズレ量を画像の各位置について算出し、距離差の情報として保存する。データの保存は、画像と距離情報算出後の結果を分けて保存する方法、画像の中に距離情報算出後の結果も混ぜて一つのファイルで保存する方法、一つの画像として、距離情報算出前の瞳分割画像と通常画像を保存する方法などがある。
First, the entire image captured by the image plane
図11は、図1に示す距離測定部12の他の実施形態を示す。本実施形態にかかる距離測定部12は、光の飛翔時間を測定するTOFイメージセンサ60を含む。TOFイメージセンサ60は、撮像部10から被写体65までの光の往復時間に基づいて、撮像部10から被写体65までの距離を測定する。TOFイメージセンサ60は、発光素子64と、受光素子62と、飛翔時間測定部63を有する。発光素子64は、被写体65に向けて光66を照射する。発光素子64は、例えば、赤外線LEDである。赤外線LEDは、散乱されにくい波長の長い赤外線を放出するので好ましい。受光素子62は、被写体65から反射された光68を受光する。受光素子62はフォトダイオードであってよい。受光素子62は、光電変換の速度が速いフォトダイオードを有するデバイスが好ましい。飛翔時間測定部63は、発光素子64及び受光素子62に接続されて、光66及び光68の飛翔時間を測定する。
FIG. 11 shows another embodiment of the
図12は、TOFイメージセンサ60の動作のタイミングチャートを示す。波形72は発光素子64が発光する光66のパルス波形を示す。波形74は受光素子62が受光する光68のパルス波形を示す。時刻t1は光66の発光パルスの立ち上がりの時刻を示し、時刻t2は光68の受光パルスの立ち上がりの時刻を示す。飛翔時間測定部63は、t2−t1を正確に測定することができる。t2−t1は光の遅延時間76を指す。被写体までの距離をDとすると、D=(t2−t1)×c/2の関係が成り立つ。ここで、cは光速を表す。
FIG. 12 shows a timing chart of the operation of the
図13は、図1に示す距離測定部12の他の実施形態を示す。本実施形態にかかる距離測定部12は、異なる光学位置から被写体85を撮像する光学系80を含む。光学系80において、異なる光学位置から撮像した撮像画像間の視差に基づいて、撮像部10から被写体85までの距離を測定する。光学系80は、一対のレンズ86及びレンズ88と、それぞれのレンズ86、88に対応する撮像素子82、84を有する。被写体85から光路81を進む光はレンズ88を通過し、撮像素子84の位置mのフォトダイオードに入射する。一方、光路83を進む光は、レンズ86を通過し、撮像素子82の位置nのフォトダイオードに入射する。撮像素子84のフォトダイオードの位置mと撮像素子82のフォトダイオードの位置nは、異なる光学位置を構成している。つまり、光学系80は、異なる光学位置n、mから同一の被写体85を撮像する。光学位置nと光学位置mとの視点間距離87は視差を表す。光学系80は、例えば、2眼カメラ、立体画像のキャプチャーデバイスである。
FIG. 13 shows another embodiment of the
図14は、被写体85と撮像部10との距離が図13よりも短い場合の光学系80を示す。光学系80の構成及び動作は図13に示す光学系80と同じなので説明を省略する。図14に示す光学系80は、異なる光学位置p、qから同一の被写体85を撮像する。光学位置pと光学位置qとの視点間距離89は視差を表す。ここで、図13と図14を比較すると、被写体85がより遠くにある場合の視点間距離87よりも、被写体85がより近くにある場合の視点間距離89の方が長い。光学系80は、撮像部10から被写体85までの距離の変化から生じる視差の相違に基づいて、撮像部10から被写体85までの距離を測定する。
FIG. 14 shows the
図15は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェース2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。
FIG. 15 shows an example of a hardware configuration of a
ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
The
入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェース2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェース2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。
The input /
また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。
The input /
RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。
A program provided to the
コンピュータ1900にインストールされ、コンピュータ1900を画像処理装置11として機能させるプログラムは、画像生成モジュールと、抽出モジュールと、置換モジュールと、計算モジュールと、平滑処理モジュールを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、画像生成部16、抽出部20、置換部21,計算部22、及び平滑処理部24としてそれぞれ機能させる。
A program installed in the
これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である画像生成部16、抽出部20、置換部21、計算部22、及び平滑処理部24として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の画像処理装置11が構築される。
The information processing described in these programs is read by the
一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェース2030に対して通信処理を指示する。通信インターフェース2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェース2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェース2030からデータを読み出し、転送先の通信インターフェース2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。
As an example, when communication is performed between the
また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。
The
また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。
In addition, the
また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。
Further, the
以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。
The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
10 撮像部、11 画像処理装置、12 距離測定部、14 メモリ、16 画像生成部、18 表示部、20 抽出部、21 置換部、22 計算部、24 平滑処理部、25 ユーザ・インターフェース、27 ユーザ・インターフェース、26 メインメモリ、28 出力インターフェース、30 撮像素子、32 フォトダイオード、33 被写体、34 瞳分割部、36 スリット、37 光軸線、38 開口部、40 開口部、42 開口保持部、44 光路、46 光路、48 マイクロレンズ、50 像面位相差センサ、52 撮像チップ、60 TOFイメージセンサ、62 受光素子、63 飛翔時間測定部、64 発光素子、65 被写体、66 光、68 光、72 波形、74 波形、76 遅延時間、80 光学系、81 光路、82 撮像素子、83 光路、84 撮像素子、85 被写体、86 レンズ、87 視点間距離、88 レンズ、89 視点間距離、100 撮像装置、200 距離情報画像、210 被写体、220 模様チャート、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェース、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 CD−ROMドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 CD−ROM DESCRIPTION OF SYMBOLS 10 Imaging part, 11 Image processing apparatus, 12 Distance measurement part, 14 Memory, 16 Image generation part, 18 Display part, 20 Extraction part, 21 Replacement part, 22 Calculation part, 24 Smoothing process part, 25 User interface, 27 User -Interface, 26 Main memory, 28 Output interface, 30 Image sensor, 32 Photodiode, 33 Subject, 34 Pupil dividing part, 36 Slit, 37 Optical axis, 38 Aperture, 40 Aperture, 42 Aperture holding part, 44 Optical path, 46 optical path, 48 microlens, 50 image plane phase difference sensor, 52 imaging chip, 60 TOF image sensor, 62 light receiving element, 63 flight time measuring unit, 64 light emitting element, 65 subject, 66 light, 68 light, 72 waveform, 74 Waveform, 76 delay time, 80 optical system, 81 optical path, 82 Image element, 83 optical path, 84 image sensor, 85 subject, 86 lens, 87 distance between viewpoints, 88 lens, 89 distance between viewpoints, 100 imaging device, 200 distance information image, 210 subject, 220 pattern chart, 1900 computer, 2000 CPU , 2010 ROM, 2020 RAM, 2030 communication interface, 2040 hard disk drive, 2050 flexible disk drive, 2060 CD-ROM drive, 2070 input / output chip, 2075 graphic controller, 2080 display device, 2082 host controller, 2084 input / output controller , 2090 Flexible disk, 2095 CD-ROM
Claims (17)
前記撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出部と、
前記撮像画像に含まれる各被写体について、前記撮像部までの被写体距離を示す情報を取得し、前記選択被写体の前記被写体距離を、前記ユーザが指定した被写体距離に置き換えた画像データを生成する置換部と、
前記置換部が生成した前記画像データに対して、それぞれの前記被写体に対応する前記被写体距離に基づいて、前記撮像画像を平滑化する平滑処理部と
を備える撮像装置。 An imaging unit that captures a captured image of the subject;
An extraction unit that extracts an image region corresponding to the selected subject selected by the user from the captured image;
For each subject included in the captured image, a replacement unit that acquires information indicating the subject distance to the imaging unit and generates image data in which the subject distance of the selected subject is replaced with the subject distance specified by the user When,
An imaging apparatus comprising: a smoothing unit that smoothes the captured image based on the subject distance corresponding to each subject with respect to the image data generated by the replacement unit.
前記平滑処理部は、前記計算部が計算した前記相対距離に基づいて、前記撮像画像を平滑化する
請求項1に記載の撮像装置。 A calculation unit that calculates a relative distance of the subject distance of each subject with respect to a desired focal length specified by the user;
The imaging apparatus according to claim 1, wherein the smoothing unit smoothes the captured image based on the relative distance calculated by the calculation unit.
請求項2に記載の撮像装置。 The imaging apparatus according to claim 2, wherein the smoothing unit sets the subject distance designated by the user for the selected subject as the desired focal length.
請求項1から3のいずれか一項に記載の撮像装置。 The replacement unit, when replacing the subject distance of the selected subject, changes the size of the selected subject on the image according to a difference between the subject distances before and after replacement. The imaging device according to one item.
前記抽出部は、前記境界線の密度が予め定められた閾値よりも高い箇所を境界として、それぞれの前記被写体の前記画像領域を抽出する請求項11に記載の撮像装置。 In the distance information image, a region where the distance from the imaging unit is within the respective range is distinguished by a boundary line,
The imaging apparatus according to claim 11, wherein the extraction unit extracts the image area of each of the subjects with a boundary where a density of the boundary line is higher than a predetermined threshold.
前記撮像画像に含まれる各被写体について、前記撮像装置までの被写体距離を示す情報を取得し、前記選択被写体の前記被写体距離を、前記ユーザが指定した被写体距離に置き換えた画像データを生成する置換部と、
前記置換部が生成した前記画像データに対して、それぞれの前記被写体に対応する前記被写体距離に基づいて、前記撮像画像を平滑化する平滑処理部と
を備える画像処理装置。 An extraction unit that extracts an image region corresponding to the selected subject selected by the user from the captured image of the subject captured by the imaging device;
For each subject included in the captured image, a replacement unit that acquires information indicating a subject distance to the imaging device and generates image data in which the subject distance of the selected subject is replaced with a subject distance specified by the user When,
An image processing apparatus comprising: a smoothing unit that smoothes the captured image based on the subject distance corresponding to each of the subjects with respect to the image data generated by the replacement unit.
前記撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出段階と、
前記撮像画像に含まれる各被写体について、前記撮像装置までの被写体距離を示す情報を取得し、前記選択被写体の前記被写体距離を、前記ユーザが指定した被写体距離に置き換えた画像データを生成する置換段階と、
前記置換段階で生成した前記画像データに対して、それぞれの前記被写体に対応する前記被写体距離に基づいて、前記撮像画像を平滑化する平滑処理段階と
を備える画像処理方法。 Acquiring a captured image obtained by imaging the subject by the imaging device;
An extraction step of extracting an image region corresponding to the selected subject selected by the user from the captured image;
For each subject included in the captured image, a replacement step of acquiring information indicating a subject distance to the imaging device and generating image data in which the subject distance of the selected subject is replaced with a subject distance specified by the user When,
An image processing method comprising: a smoothing step of smoothing the captured image based on the subject distance corresponding to each subject with respect to the image data generated in the replacement step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012103103A JP5919998B2 (en) | 2012-04-27 | 2012-04-27 | Imaging apparatus, image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012103103A JP5919998B2 (en) | 2012-04-27 | 2012-04-27 | Imaging apparatus, image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013232751A true JP2013232751A (en) | 2013-11-14 |
JP5919998B2 JP5919998B2 (en) | 2016-05-18 |
Family
ID=49678846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012103103A Active JP5919998B2 (en) | 2012-04-27 | 2012-04-27 | Imaging apparatus, image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5919998B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017022565A (en) * | 2015-07-10 | 2017-01-26 | キヤノン株式会社 | Image processing apparatus, control method of the same, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006067521A (en) * | 2004-08-30 | 2006-03-09 | Kyocera Corp | Image processor, image processing method, image pickup device, and image pickup method |
JP2009015828A (en) * | 2007-06-06 | 2009-01-22 | Sony Corp | Image processing device, image processing method, and image processing program |
JP2010232961A (en) * | 2009-03-27 | 2010-10-14 | Casio Computer Co Ltd | Image processor, image processing method and program |
JP2011147109A (en) * | 2009-12-16 | 2011-07-28 | Canon Inc | Image capturing apparatus and image processing apparatus |
JP2011249923A (en) * | 2010-05-24 | 2011-12-08 | Nikon Corp | Imaging apparatus, image processing apparatus, and image processing program |
JP2012042623A (en) * | 2010-08-17 | 2012-03-01 | Olympus Imaging Corp | Display device |
JP2012044564A (en) * | 2010-08-20 | 2012-03-01 | Sanyo Electric Co Ltd | Imaging apparatus |
-
2012
- 2012-04-27 JP JP2012103103A patent/JP5919998B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006067521A (en) * | 2004-08-30 | 2006-03-09 | Kyocera Corp | Image processor, image processing method, image pickup device, and image pickup method |
JP2009015828A (en) * | 2007-06-06 | 2009-01-22 | Sony Corp | Image processing device, image processing method, and image processing program |
JP2010232961A (en) * | 2009-03-27 | 2010-10-14 | Casio Computer Co Ltd | Image processor, image processing method and program |
JP2011147109A (en) * | 2009-12-16 | 2011-07-28 | Canon Inc | Image capturing apparatus and image processing apparatus |
JP2011249923A (en) * | 2010-05-24 | 2011-12-08 | Nikon Corp | Imaging apparatus, image processing apparatus, and image processing program |
JP2012042623A (en) * | 2010-08-17 | 2012-03-01 | Olympus Imaging Corp | Display device |
JP2012044564A (en) * | 2010-08-20 | 2012-03-01 | Sanyo Electric Co Ltd | Imaging apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017022565A (en) * | 2015-07-10 | 2017-01-26 | キヤノン株式会社 | Image processing apparatus, control method of the same, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5919998B2 (en) | 2016-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109565551B (en) | Synthesizing images aligned to a reference frame | |
CN108604379A (en) | System and method for determining the region in image | |
US10269103B2 (en) | Image processing apparatus, image processing method, and image processing system | |
KR20140004592A (en) | Image blur based on 3d depth information | |
JP5779089B2 (en) | Edge detection apparatus, edge detection program, and edge detection method | |
US10397498B2 (en) | Compressive sensing capturing device and method | |
US20150227789A1 (en) | Information processing apparatus, information processing method, and program | |
JP5246078B2 (en) | Object location program and camera | |
US9955111B2 (en) | Electronic apparatus and display control method | |
TW201407420A (en) | Improved video tracking | |
CN110213491B (en) | Focusing method, device and storage medium | |
KR20190120106A (en) | Method for determining representative image of video, and electronic apparatus for processing the method | |
JP6261199B2 (en) | Information processing apparatus, information processing method, and computer program | |
JP2013232757A (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP5919998B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
CN106101542B (en) | A kind of image processing method and terminal | |
CN104933677B (en) | Method to determine multiple candidate frames in multiple frames | |
JP7172066B2 (en) | Information processing device and program | |
JP6762779B2 (en) | Image processing equipment, imaging equipment, image processing methods, and programs | |
JP2016206228A (en) | Focused position detection device, focused position detection method, imaging device and imaging system | |
US20230131704A1 (en) | Information processing apparatus, learning device, imaging apparatus, control method of information processing apparatus, and program | |
US11632601B1 (en) | User interface for camera focus | |
JP5556494B2 (en) | Image processing apparatus, image processing method, and program | |
JP5733451B2 (en) | Image processing apparatus, image processing method, and program | |
JP5962810B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5919998 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |