[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013232751A - Imaging apparatus, image processing apparatus, image processing method, and program - Google Patents

Imaging apparatus, image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2013232751A
JP2013232751A JP2012103103A JP2012103103A JP2013232751A JP 2013232751 A JP2013232751 A JP 2013232751A JP 2012103103 A JP2012103103 A JP 2012103103A JP 2012103103 A JP2012103103 A JP 2012103103A JP 2013232751 A JP2013232751 A JP 2013232751A
Authority
JP
Japan
Prior art keywords
subject
distance
image
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012103103A
Other languages
Japanese (ja)
Other versions
JP5919998B2 (en
Inventor
Shiro Tsunai
史郎 綱井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012103103A priority Critical patent/JP5919998B2/en
Publication of JP2013232751A publication Critical patent/JP2013232751A/en
Application granted granted Critical
Publication of JP5919998B2 publication Critical patent/JP5919998B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To acquire an arbitrary focus image from a captured image.SOLUTION: The imaging apparatus comprises: an imaging unit for capturing an image of subjects; an extraction unit which extracts an image area corresponding to a subject selected by a user from the captured image; a replacing unit which acquires information representing a subject distance from each subject included in the captured image to the imaging unit, and generates image data in which the subject distance from the selected subject is replaced with a subject distance designated by the user; and a smoothing unit for smoothing the captured image on the basis of the subject distance corresponding to each subject, with respect to the image data generated by the replacing unit.

Description

本発明は、撮像装置、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an imaging device, an image processing device, an image processing method, and a program.

従来、カメラで被写体を撮像した後に、画像データを加工してリフォーカスする技術がある。この技術は、レンズの表面を複数の視点に分割して視点毎に一つのイメージを生成する。そして、視点毎のイメージの有する視差を補正して、再合成する(例えば、非特許文献1参照)。
非特許文献1 Light Field Photography with a Hand-held Plenoptic Camera, Ren Ng, et. al., Stanford Tech Report CTSR 2005-02
2. Description of the Related Art Conventionally, there is a technique for processing an image data and then refocusing it after imaging a subject with a camera. This technique divides the surface of a lens into a plurality of viewpoints and generates one image for each viewpoint. And the parallax which the image for every viewpoint has is correct | amended, and it recombines (for example, refer nonpatent literature 1).
Non-Patent Document 1 Light Field Photography with a Hand-held Plenoptic Camera, Ren Ng, et. Al., Stanford Tech Report CTSR 2005-02

しかしながら、従来の方法では、任意の被写体にピントが合った擬似合焦像が得られるものの、被写体の被写体距離を変更することはできなかった。   However, with the conventional method, a pseudo-focused image in which an arbitrary subject is in focus can be obtained, but the subject distance of the subject cannot be changed.

本発明の第1の態様においては、撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出部と、撮像画像に含まれる各被写体について、撮像部までの被写体距離を示す情報を取得し、選択被写体の被写体距離を、ユーザが指定した被写体距離に置き換えた画像データを生成する置換部と、置換部が生成した画像データに対して、それぞれの被写体に対応する被写体距離に基づいて、撮像画像を平滑化する平滑処理部とを備える撮像装置が提供される。   In the first aspect of the present invention, an extraction unit that extracts an image area corresponding to a selected subject selected by a user from a captured image, and a subject distance to the imaging unit for each subject included in the captured image is shown. Information is obtained, a replacement unit that generates image data in which the subject distance of the selected subject is replaced with the subject distance specified by the user, and the subject distance corresponding to each subject with respect to the image data generated by the replacement unit Based on this, an imaging apparatus is provided that includes a smoothing processing unit that smoothes the captured image.

本発明の第2の態様においては、撮像装置が撮像した被写体の撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出部と、撮像画像に含まれる各被写体について、撮像部までの被写体距離を示す情報を取得し、選択被写体の被写体距離を、ユーザが指定した被写体距離に置き換えた画像データを生成する置換部と、置換部が生成した画像データに対して、それぞれの被写体に対応する被写体距離に基づいて、撮像画像を平滑化する平滑処理部とを備える画像処理装置が提供される。   In the second aspect of the present invention, an extraction unit that extracts an image region corresponding to the selected subject selected by the user from the captured image of the subject captured by the imaging device, and each subject included in the captured image is captured. Information indicating the subject distance to the image, and a replacement unit that generates image data in which the subject distance of the selected subject is replaced with the subject distance specified by the user, and the image data generated by the replacement unit An image processing apparatus is provided that includes a smoothing unit that smoothes a captured image based on a subject distance corresponding to a subject.

本発明の第3の態様においては、撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出段階と、撮像画像に含まれる各被写体について、撮像装置までの被写体距離を示す情報を取得し、選択被写体の被写体距離を、ユーザが指定した被写体距離に置き換えた画像データを生成する置換段階と、置換段階で生成した画像データに対して、それぞれの被写体に対応する被写体距離に基づいて、撮像画像を平滑化する平滑処理段階とが提供される。   In the third aspect of the present invention, an extraction stage for extracting an image region corresponding to the selected subject selected by the user from the captured image, and the subject distance to the imaging device for each subject included in the captured image are shown. Information is obtained, and the subject distance of the selected subject is replaced with the subject distance specified by the user, and the subject distance corresponding to each subject is generated for the image data generated in the replacement step. And a smoothing step for smoothing the captured image.

本発明の第4の態様においては、コンピュータを上記画像処理装置として機能させるためのプログラムが提供される。   In a fourth aspect of the present invention, a program for causing a computer to function as the image processing apparatus is provided.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

実施形態にかかる撮像装置100のブロック図である。1 is a block diagram of an imaging apparatus 100 according to an embodiment. 実施形態にかかる画像処理方法のフロー図である。It is a flowchart of the image processing method concerning embodiment. 他の例の画像処理方法のフロー図である。It is a flowchart of the image processing method of another example. 相対距離とぼかし量との関係を示すグラフである。It is a graph which shows the relationship between a relative distance and the blurring amount. 撮像装置100で生成した距離情報画像200の例である。3 is an example of a distance information image 200 generated by the imaging apparatus 100. 撮像部10で撮像したパンフォーカス画像の例を示す。The example of the pan focus image imaged with the imaging part 10 is shown. 画像処理装置11で平滑化処理した後の擬似合焦像の例を示す。An example of a pseudo-focused image after smoothing processing by the image processing apparatus 11 is shown. 距離測定部12の実施形態を示す。An embodiment of the distance measuring unit 12 is shown. 図8の距離測定部12の撮像素子30の配列の例を示す。The example of the arrangement | sequence of the image pick-up element 30 of the distance measurement part 12 of FIG. 8 is shown. 撮像素子30の位置と光の信号量の関係を示すグラフである。6 is a graph showing the relationship between the position of the image sensor 30 and the amount of light signal. 距離測定部12の他の実施形態を示す。Another embodiment of the distance measurement part 12 is shown. TOFイメージセンサ60の動作のタイミングチャートを示す。6 shows a timing chart of the operation of the TOF image sensor 60. 距離測定部12の他の実施形態を示す。Another embodiment of the distance measurement part 12 is shown. 光学系80の一例を示す。An example of the optical system 80 is shown. 実施形態にかかるコンピュータ1900のブロック図である。It is a block diagram of the computer 1900 concerning embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本発明の実施形態にかかる撮像装置100のブロック図である。撮像装置100は、撮像部10と、距離測定部12と、メモリ14と、画像生成部16と、表示部18と、抽出部20と、置換部21と、計算部22と、平滑処理部24と、ユーザ・インターフェース25と、メインメモリ26と、ユーザ・インターフェース27と、出力インターフェース28を備える。画像生成部16と、抽出部20と、置換部21と、計算部22と、平滑処理部24は、画像処理装置11を構成する。   FIG. 1 is a block diagram of an imaging apparatus 100 according to an embodiment of the present invention. The imaging device 100 includes an imaging unit 10, a distance measurement unit 12, a memory 14, an image generation unit 16, a display unit 18, an extraction unit 20, a replacement unit 21, a calculation unit 22, and a smoothing processing unit 24. A user interface 25, a main memory 26, a user interface 27, and an output interface 28. The image generation unit 16, the extraction unit 20, the replacement unit 21, the calculation unit 22, and the smoothing processing unit 24 constitute the image processing device 11.

撮像部10は、被写体の撮像画像を撮像する。ここで、撮像画像とは、画像処理装置11により画像処理を施す前の画像を指す。本例の撮像画像は、2次元または3次元のパンフォーカス画像である。パンフォーカス画像とは、2以上の被写体のそれぞれと撮像部10との被写体距離が異なっても、当該2以上の被写体のそれぞれに対してピントが合っているように見える画像を指す。パンフォーカス画像は、光学的な絞りを絞った状態で撮像することにより取得することができる。つまり、パンフォーカス画像は、被写界深度が深くなる状態で撮影することで得ることができる、被写界深度の深い状態とは、被写界深度内に∞及び近距離(例えば、1m)の被写体の両方が含まれる状態を指す。パンフォーカス画像を撮像する撮像部10は、開放f値が比較的大きいレンズを有する。開放f値はF8以上であってよい。   The imaging unit 10 captures a captured image of a subject. Here, the captured image refers to an image before image processing is performed by the image processing apparatus 11. The captured image of this example is a two-dimensional or three-dimensional pan focus image. A pan-focus image refers to an image that appears to be in focus with respect to each of the two or more subjects even if the subject distance between each of the two or more subjects and the imaging unit 10 is different. A pan-focus image can be acquired by capturing an image with the optical aperture stopped. That is, a pan-focus image can be obtained by shooting in a state where the depth of field is deep. The deep state of depth of field is ∞ and a short distance (for example, 1 m) within the depth of field. Indicates a state in which both of the subjects are included. The imaging unit 10 that captures a pan-focus image has a lens with a relatively large open f value. The open f value may be greater than or equal to F8.

距離測定部12は、撮像部10から2以上の被写体の各々までの被写体距離を測定する。ここで、被写体距離とは、撮像部10から2以上の被写体の各々までの光学的距離を指す。同一被写体内において当該距離の差がある場合、距離測定部12は、同一被写体内の複数の点について距離を測定してよい。距離測定部12は、例えば撮像部10と同一範囲の被写体について、撮像部10よりも低い解像度で距離情報を測定する。例えば撮像部10は、数百万から数千万程度の画素を有する。これに対して距離測定部12は、800×400程度の画素を有し、それぞれの画素に対して距離を測定してよい。距離測定部12の詳細は、後述する。距離測定部12は、撮像部10の一部であってよい。また、距離測定部12は、撮像部10とは独立の光学系であってもよい。後者の場合、距離測定部12は、撮像部10に近接して配置されるが好ましい。   The distance measuring unit 12 measures a subject distance from the imaging unit 10 to each of two or more subjects. Here, the subject distance refers to an optical distance from the imaging unit 10 to each of two or more subjects. When there is a difference in the distance within the same subject, the distance measuring unit 12 may measure the distance for a plurality of points within the same subject. The distance measurement unit 12 measures distance information with a resolution lower than that of the imaging unit 10, for example, for a subject in the same range as the imaging unit 10. For example, the imaging unit 10 has about several million to tens of millions of pixels. On the other hand, the distance measuring unit 12 may have about 800 × 400 pixels and measure the distance for each pixel. Details of the distance measuring unit 12 will be described later. The distance measuring unit 12 may be a part of the imaging unit 10. Further, the distance measuring unit 12 may be an optical system independent of the imaging unit 10. In the latter case, it is preferable that the distance measuring unit 12 is disposed close to the imaging unit 10.

メモリ14は、撮像部10及び距離測定部12と接続し、撮像部10からの撮像画像データ、並びに、距離測定部12からの距離情報データを格納する。メモリ14は、キャッシュメモリであってもよい。その場合、メインメモリ26が撮像部10からの撮像画像データ及び距離測定部12からの距離情報データを格納する。メモリ14は、それぞれのデータのアドレス、フラグなどの属性情報を保持してよい。   The memory 14 is connected to the imaging unit 10 and the distance measuring unit 12 and stores captured image data from the imaging unit 10 and distance information data from the distance measuring unit 12. The memory 14 may be a cache memory. In that case, the main memory 26 stores the captured image data from the imaging unit 10 and the distance information data from the distance measuring unit 12. The memory 14 may hold attribute information such as addresses and flags of the respective data.

画像生成部16は、メモリ14と接続し、距離測定部12によって測定した、撮像部10から2以上の被写体の各々までの距離に基づいて、2以上の被写体の各々と撮像部10との間の距離を表す距離情報画像を生成する。画像生成部16は、メモリ14にアクセスすることにより、メモリ14またはメインメモリ26から距離情報データを取得する。ここで、距離情報データとは、撮像部10から各被写体までの光学的距離を表すデータを指す。画像生成部16は、取得した距離情報データに基づいて、距離情報画像を生成する。ここで、距離情報画像は、撮像部10から2以上の被写体の各々までの距離の範囲毎に区別された画像を指す。距離の範囲は、例えば、撮像部10から被写体までの距離を、50cm、80cmもしくは1m毎に区別することで得られる。所定の範囲は、等間隔であってもよいし、等間隔でなくてもよい。距離の範囲は、線によって区別してよく、色によって区別してもよい。また、距離の範囲は、模様もしくは文字その他の記号によって区別してもよい。   The image generation unit 16 is connected to the memory 14, and based on the distance from the imaging unit 10 to each of the two or more subjects measured by the distance measurement unit 12, between each of the two or more subjects and the imaging unit 10. A distance information image representing the distance is generated. The image generation unit 16 acquires distance information data from the memory 14 or the main memory 26 by accessing the memory 14. Here, the distance information data refers to data representing the optical distance from the imaging unit 10 to each subject. The image generation unit 16 generates a distance information image based on the acquired distance information data. Here, the distance information image indicates an image distinguished for each distance range from the imaging unit 10 to each of two or more subjects. The range of distance is obtained, for example, by distinguishing the distance from the imaging unit 10 to the subject every 50 cm, 80 cm, or 1 m. The predetermined range may be equally spaced or may not be equally spaced. The range of distance may be distinguished by a line or by color. The range of distance may be distinguished by a pattern, a character, or other symbols.

表示部18は、画像生成部16から距離情報画像データを取得し、距離情報画像を表示する。表示部18は、例えば、撮像装置100の表面に設けられた液晶カラーディスプレイである。   The display unit 18 acquires distance information image data from the image generation unit 16 and displays the distance information image. The display unit 18 is a liquid crystal color display provided on the surface of the imaging device 100, for example.

抽出部20は、表示部18に表示された画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する。本例の抽出部20は、ユーザが、表示部18に表示された画像に基づいて選択被写体を選択した場合に、選択被写体に対応する撮像画像の領域をエッジ検出により区分する。また、抽出部20は、選択被写体以外の非選択被写体についても、対応する画像領域を同様に抽出する。抽出部20は、撮像部10が撮像した画像に含まれる複数の被写体に対応する各画像領域を、ユーザが選択被写体を選択する前に予め区分してよい。また、抽出部20は、ユーザが選択被写体を選択した後に、各被写体の画像領域を抽出してもよい。   The extraction unit 20 extracts an image area corresponding to the selected subject selected by the user from the image displayed on the display unit 18. When the user selects a selected subject based on an image displayed on the display unit 18, the extraction unit 20 of this example classifies a captured image region corresponding to the selected subject by edge detection. Further, the extraction unit 20 similarly extracts corresponding image regions for non-selected subjects other than the selected subject. The extraction unit 20 may classify each image region corresponding to a plurality of subjects included in the image captured by the imaging unit 10 before the user selects a selected subject. Further, the extraction unit 20 may extract the image area of each subject after the user selects the selected subject.

表示部18は、画面がタッチパネルであってよい。この例では、ユーザは表示部18が表示する距離情報画像のいずれかの画像領域を、指先もしくはペンなどでタッチすることにより選択することで、選択被写体を指定してよい。また、抽出部20は、距離情報画像上に表示したカーソル等をユーザが操作して選択被写体を選択するためのユーザ・インターフェース25を含んでよい。他の例では、ユーザは無線用のユーザ・インターフェース25を介して、遠隔操作により目的の被写体に対応する画像を含む画像領域を選択してもよい。例えば、ユーザは携帯電話などから目的の被写体に対応する画像を含む画像領域を選択してもよい。   The display unit 18 may have a touch panel screen. In this example, the user may specify the selected subject by selecting any one of the distance information images displayed on the display unit 18 by touching with a fingertip or a pen. Further, the extraction unit 20 may include a user interface 25 for the user to select a selected subject by operating a cursor or the like displayed on the distance information image. In another example, the user may select an image area including an image corresponding to a target subject by remote operation via the wireless user interface 25. For example, the user may select an image area including an image corresponding to a target subject from a mobile phone or the like.

置換部21は、撮像画像に含まれる各被写体について、撮像部10までの被写体距離を示す情報を取得し、選択被写体の被写体距離を、ユーザが指定した被写体距離に置き換えた画像データを生成する。置換部21は、距離データのみを置き換えた画像データを生成してよく、また、置き換え前後の被写体距離の差分に応じて、当該被写体の大きさを変化させた画像データを生成してもよい。例えば置換部21は、被写体距離を小さくした場合(撮像部10に近くした場合)には、被写体の大きさを大きくしてよい。また、置換部21は、被写体距離を大きくした場合には、被写体の大きさを小さくしてよい。この場合、置き換え前の被写体に隠れていた領域の画像データは、当該被写体の周囲の画像データから補間してよい。また、置換部21は、被写体距離を大きくした場合には、被写体の大きさを変化させなくともよい。   The replacement unit 21 acquires information indicating the subject distance to the imaging unit 10 for each subject included in the captured image, and generates image data in which the subject distance of the selected subject is replaced with the subject distance specified by the user. The replacement unit 21 may generate image data in which only distance data is replaced, or may generate image data in which the size of the subject is changed according to the difference in subject distance before and after replacement. For example, the replacement unit 21 may increase the size of the subject when the subject distance is reduced (closer to the imaging unit 10). In addition, the replacement unit 21 may reduce the size of the subject when the subject distance is increased. In this case, the image data of the area hidden behind the subject before replacement may be interpolated from the image data around the subject. Further, the replacement unit 21 may not change the size of the subject when the subject distance is increased.

置換部21は、更に、ユーザから希望焦点距離を指定されてよい。希望焦点距離は、撮像画像を擬似合焦させるための、仮想的な焦点距離を指す。希望焦点距離は、撮像画像の撮像時における焦点距離とは異なる距離を指定できる。   The replacement unit 21 may further specify a desired focal length from the user. The desired focal length refers to a virtual focal length for quasi-focusing the captured image. As the desired focal length, a distance different from the focal length at the time of capturing the captured image can be designated.

ユーザは、いずれかの被写体を選択することで、希望焦点距離を指定することができる。置換部21は、ユーザが希望焦点距離を指定するために選択した被写体の被写体距離を、希望焦点距離としてよい。また、置換部21は、ユーザが入力した数値に基づいて、希望焦点距離を設定してもよい。ユーザ・インターフェース27は、これらの情報を受け取ってよい。例えばユーザ・インターフェース27は、タッチパネルまたはキーパッド等を介して、これらの情報を受け取る。また、置換部21は、ユーザが順次選択する各被写体の被写体距離を、ユーザが順次指定する被写体距離に置き換えてよい。   The user can designate a desired focal length by selecting one of the subjects. The replacement unit 21 may set the subject distance of the subject selected by the user to specify the desired focal length as the desired focal length. The replacement unit 21 may set a desired focal length based on a numerical value input by the user. The user interface 27 may receive this information. For example, the user interface 27 receives such information via a touch panel or a keypad. Further, the replacement unit 21 may replace the subject distance of each subject sequentially selected by the user with the subject distance sequentially designated by the user.

また、置換部21は、選択被写体と同一の距離にある他の被写体の被写体距離を、選択被写体の被写体距離と同一の距離に置き換えてよい。この場合、同じ距離の範囲に属する複数の被写体の各々は、同一の仮想距離の範囲に属することとなる。   The replacement unit 21 may replace the subject distance of another subject that is the same distance as the selected subject with the same distance as the subject distance of the selected subject. In this case, each of a plurality of subjects belonging to the same distance range belongs to the same virtual distance range.

計算部22は、距離測定部12が測定した距離に基づいて、ユーザが指定する希望焦点距離に対する、それぞれの被写体の被写体距離の相対距離を計算する。ここで、相対距離とは、希望焦点距離と、撮像画像に含まれる2以上の被写体の各々及び撮像部10の間の距離との差分を指す。相対距離は、正または負の値を取り得る。つまり、希望焦点距離よりも光学的距離が短い被写体については、相対距離は負の値となり、希望焦点距離よりも光学的距離が長い被写体については、相対距離は正の値となる。   Based on the distance measured by the distance measuring unit 12, the calculating unit 22 calculates the relative distance of the subject distance of each subject with respect to the desired focal length specified by the user. Here, the relative distance refers to a difference between the desired focal length and the distance between each of the two or more subjects included in the captured image and the imaging unit 10. The relative distance can take a positive or negative value. That is, for a subject whose optical distance is shorter than the desired focal length, the relative distance is a negative value, and for a subject whose optical distance is longer than the desired focal length, the relative distance is a positive value.

平滑処理部24は、それぞれの被写体に対して計算した相対距離に基づいて、撮像画像を平滑化する。ここで、相対距離に基づいてとは、相対距離の絶対値を対比することにより、撮像画像を平滑化することを含んでよい。また、相対距離の閾値を予め指定し、当該閾値と各被写体の相対距離とを対比して、撮像画像を平滑化することを含んでよい。さらに、被写体どうしの相対距離の差が小さい場合に、相対距離に重み付けをして、その重み付けされた相対距離と閾値とを対比して、撮像画像を平滑化することを含んでよい。平滑処理部24は、相対距離に応じて、平滑化フィルタを作成する。平滑化フィルタは、撮像画像の縦方向及び横方向に画素レベルを平均化するローパスフィルタであってよい。   The smoothing processing unit 24 smoothes the captured image based on the relative distance calculated for each subject. Here, based on the relative distance may include smoothing the captured image by comparing absolute values of the relative distance. In addition, a threshold value of relative distance may be designated in advance, and the captured image may be smoothed by comparing the threshold value with the relative distance of each subject. Furthermore, when the difference in relative distance between subjects is small, the relative distance may be weighted, and the weighted relative distance may be compared with a threshold value to smooth the captured image. The smoothing processing unit 24 creates a smoothing filter according to the relative distance. The smoothing filter may be a low-pass filter that averages pixel levels in the vertical direction and the horizontal direction of the captured image.

平滑処理部24は、メモリ14にアクセスして撮像部10で撮像したパンフォーカス画像データを読み込む。平滑処理部24は、メモリ14から読み出したパンフォーカス画像データに対して、平滑化処理を行う。平滑処理部24は、相対距離がより大きい被写体に対応する撮像画像の領域に対して、ぼかしの程度をより大きくする。ここで、ぼかしの程度とは、平滑化の相対強度を指す。平滑化フィルタは、パンフォーカス画像の中で、相対距離が大きい被写体に対応する画像については、平滑化の強度を相対的に強くして、強くぼかすようにフィルタリングする。   The smoothing processing unit 24 accesses the memory 14 and reads pan focus image data captured by the imaging unit 10. The smoothing processing unit 24 performs a smoothing process on the pan focus image data read from the memory 14. The smoothing processing unit 24 increases the degree of blurring for a captured image region corresponding to a subject having a larger relative distance. Here, the degree of blur refers to the relative strength of smoothing. The smoothing filter filters the image corresponding to the subject having a large relative distance in the pan-focus image so that the smoothing strength is relatively increased and the image is strongly blurred.

一方、平滑化フィルタは、相対距離の小さい被写体に対応する画像については、平滑化の強度を相対的に弱くして、弱くぼかすようにフィルタリングする。ローパスフィルタをかける回数を増減することにより、ぼかしの相対的な強さを変更することができる。本実施形態によれば、複数の視差画像を同時に取得せずとも、選択した任意の位置に擬似合焦像を生成できるので、高解像度の画像が得られる。また、平滑化処理のみで、解像度の高い擬似合焦像を得ることができるので、平滑化処理後に、画像データを再合成しなくともよい。したがって、画像処理における装置の負荷を軽減することができる。   On the other hand, the smoothing filter filters the image corresponding to the subject with a small relative distance so as to make the smoothing intensity relatively weak and weakly blur. By increasing or decreasing the number of times the low-pass filter is applied, the relative strength of blur can be changed. According to the present embodiment, a pseudo-focused image can be generated at an arbitrary selected position without acquiring a plurality of parallax images at the same time, so that a high-resolution image can be obtained. In addition, since the pseudo-focused image with high resolution can be obtained only by the smoothing process, it is not necessary to re-synthesize the image data after the smoothing process. Therefore, the load on the apparatus in image processing can be reduced.

メインメモリ26は、平滑処理部24と接続し、擬似合焦像データを格納する。表示部18は、メインメモリ26から読み出した擬似合焦像データを擬似合焦像として表示する。また、出力インターフェース28は、メインメモリ26と接続し、メインメモリ26に格納された擬似合焦像データを撮像装置100の外部に出力する。撮像装置100は、出力インターフェース28を介して、携帯電話、PAD端末、パソコン、テレビ等の外部のディスプレイ装置と接続することができる。   The main memory 26 is connected to the smoothing processing unit 24 and stores pseudo focused image data. The display unit 18 displays the pseudo focused image data read from the main memory 26 as a pseudo focused image. In addition, the output interface 28 is connected to the main memory 26, and outputs pseudo focused image data stored in the main memory 26 to the outside of the imaging apparatus 100. The imaging device 100 can be connected to an external display device such as a mobile phone, a PAD terminal, a personal computer, or a television via the output interface 28.

図2は、実施形態にかかる画像処理方法のフロー図である。本実施形態にかかる画像処理方法は、撮像ステップS1と、距離測定ステップS2と、パンフォーカス画像表示ステップS3と、エッジ検出ステップS4と、画像選択ステップS5と、希望焦点距離指定ステップS6と、置換ステップS7と、相対距離計算ステップS8と、平滑化処理ステップS9と、判断ステップS10を備える。   FIG. 2 is a flowchart of the image processing method according to the embodiment. The image processing method according to the present embodiment includes an imaging step S1, a distance measurement step S2, a pan focus image display step S3, an edge detection step S4, an image selection step S5, and a desired focal length designation step S6. Step S7, relative distance calculation step S8, smoothing processing step S9, and determination step S10 are provided.

まず、撮像ステップS1において、撮像部10が被写体を撮像した撮像画像を取得する。本実施形態において撮像部10が撮像した撮像画像は、パンフォーカス画像である。次に、距離測定ステップS2において、距離測定部12が、撮像部10から2以上の被写体の各々までの距離を測定し、各被写体と距離情報データとを関連づける。ここで、距離とは、撮像部10からそれぞれの被写体までの最短距離を意味する。距離測定方法の詳細は、図8から図14において後述する。   First, in imaging step S1, the imaging unit 10 acquires a captured image obtained by imaging a subject. In the present embodiment, the captured image captured by the imaging unit 10 is a pan focus image. Next, in distance measurement step S2, the distance measurement unit 12 measures the distance from the imaging unit 10 to each of two or more subjects, and associates each subject with distance information data. Here, the distance means the shortest distance from the imaging unit 10 to each subject. Details of the distance measuring method will be described later with reference to FIGS.

続いて、パンフォーカス画像表示ステップS3において、画像生成部16がメモリ14にアクセスし、撮像部10が撮像したパンフォーカス画像を読み出す。そして、読み出したパンフォーカス画像を表示部18に表示する。   Subsequently, in the pan focus image display step S3, the image generation unit 16 accesses the memory 14, and reads the pan focus image captured by the imaging unit 10. Then, the read pan focus image is displayed on the display unit 18.

次に、エッジ検出ステップS5において、抽出部20が表示されたパンフォーカス画像に対して、エッジ検出を行う。例えば、エッジ検出は、表示された各被写体に対応する画像に対してガウシアンフィルタリングをして平滑化画像生成し、各被写体に対応する画像領域から平滑化画像を減算することにより行うことができる。エッジ検出により、各被写体に対応する画像領域が区分される。   Next, in edge detection step S5, edge detection is performed on the pan focus image on which the extraction unit 20 is displayed. For example, edge detection can be performed by performing Gaussian filtering on an image corresponding to each displayed subject to generate a smoothed image, and subtracting the smoothed image from an image region corresponding to each subject. By the edge detection, an image area corresponding to each subject is segmented.

続いて、画像選択ステップS5において、目的の被写体に対応する画像領域をユーザが選択する。抽出部20は、撮像画像からユーザにより選択された被写体に対応する画像領域を抽出する。   Subsequently, in an image selection step S5, the user selects an image area corresponding to the target subject. The extraction unit 20 extracts an image area corresponding to the subject selected by the user from the captured image.

次に、希望焦点距離指定ステップS6において、ユーザが希望焦点距離を指定する。希望焦点距離の指定は、ユーザ・インターフェース27を介して行う。   Next, in the desired focal length designation step S6, the user designates the desired focal length. The desired focal length is designated via the user interface 27.

続いて、置換ステップS7において、置換部21が選択被写体の被写体距離を、ユーザが指定した被写体距離に置き換えた画像データを生成する。置換ステップS7においてユーザが指定する被写体距離として、希望焦点距離を用いてもよい。   Subsequently, in replacement step S7, the replacement unit 21 generates image data in which the subject distance of the selected subject is replaced with the subject distance designated by the user. The desired focal length may be used as the subject distance designated by the user in the replacement step S7.

次に、相対距離計算ステップS8において、計算部22が希望焦点距離と、撮像画像に含まれる2以上の被写体の各々及び撮像部10の間の距離との差分である相対距離をそれぞれの被写体に対して計算する。相対距離計算ステップS8において、目的の被写体と、それ以外の被写体が撮像画像において区別される。計算部22は、被写体と当該被写体の相対距離とを関連づける。希望焦点距離に配置される目的の被写体に対する相対距離は0となる。   Next, in the relative distance calculation step S8, the calculation unit 22 sets the relative distance, which is the difference between the desired focal length and the distance between each of the two or more subjects included in the captured image and the imaging unit 10, to each subject. To calculate. In the relative distance calculation step S8, the target subject and other subjects are distinguished in the captured image. The calculation unit 22 associates the subject with the relative distance between the subject. The relative distance to the target subject placed at the desired focal length is zero.

続いて、平滑化処理ステップS9において、平滑処理部24が、それぞれの被写体に対して計算した相対距離に基づいて、撮像画像を平滑化処理する。平滑処理部24はメモリ14にアクセスし、撮像部10が撮像したパンフォーカス画像のデータを読み出す。平滑化処理ステップS9は、一例として、ローパスフィルタによるフィルタリング処理であってよい。平滑化処理ステップS9は、相対距離がより大きい被写体に対応する撮像画像の領域に対して、ぼかしの程度をより大きくするように処理する。ぼかしの程度は、例えば平滑化フィルタのフィルタ係数およびタップ数を変更することで制御できる。   Subsequently, in the smoothing processing step S9, the smoothing processing unit 24 smoothes the captured image based on the relative distance calculated for each subject. The smoothing processing unit 24 accesses the memory 14 and reads pan focus image data captured by the imaging unit 10. The smoothing process step S9 may be a filtering process using a low-pass filter, for example. In the smoothing processing step S9, processing is performed so as to increase the degree of blurring in the region of the captured image corresponding to the subject having a larger relative distance. The degree of blurring can be controlled, for example, by changing the filter coefficient and the number of taps of the smoothing filter.

次に、判断ステップS10において、他の選択被写体を選択するか否かを判断する。ユーザが他の選択被写体を選択すると判断した場合には、画像選択ステップS5に戻る。ユーザが選択しないと判断した場合には、画像処理は終了する。また、判断ステップS10においては、ユーザは、他の希望焦点距離を選択するか否かを判断してもよい。希望焦点距離を選択する場合、希望焦点距離指定ステップS6に戻る。   Next, in determination step S10, it is determined whether or not another selected subject is to be selected. When the user determines to select another selected subject, the process returns to the image selection step S5. If it is determined that the user does not select, the image processing ends. In determination step S10, the user may determine whether to select another desired focal length. When the desired focal length is selected, the process returns to the desired focal length designation step S6.

本実施形態にかかる撮像装置100及び画像処理方法によれば、任意の被写体の被写体距離を、撮像時とは異なる位置に変更することができる。例えば、一度撮像した画像から、異なる距離にあるはずの各被写体を同じ距離にあるように見せる画像を生成すること、また、同じ距離にあるはずの各被写体を、異なる距離にあるように見せる画像を生成することができる。したがって、一度撮像した画像から、奥行き方向の表現を自由に編集することができる。また、本実施形態にかかる撮像装置100及び画像処理方法によれば、複数の視差画像を必要としないので、解像度の高い擬似合焦像を取得することができる。さらに、本実施形態にかかる撮像装置100及び画像処理方法によれば、画像処理を簡素化することができるので、画像処理に伴う装置の負荷を低減することができる。また、本実施形態にかかる撮像装置100及び画像処理方法によれば、画像処理の高速化及び装置コストの低減を図ることができる。   According to the imaging apparatus 100 and the image processing method according to the present embodiment, the subject distance of an arbitrary subject can be changed to a position different from that at the time of imaging. For example, from an image that has been taken once, generate an image that makes each subject that should be at a different distance appear to be at the same distance, and an image that makes each subject that should be at the same distance appear at a different distance Can be generated. Therefore, the expression in the depth direction can be freely edited from the image once captured. Further, according to the imaging apparatus 100 and the image processing method according to the present embodiment, a plurality of parallax images are not required, and thus a pseudo focused image with high resolution can be acquired. Furthermore, according to the imaging device 100 and the image processing method according to the present embodiment, the image processing can be simplified, so that the load on the device accompanying the image processing can be reduced. Further, according to the imaging apparatus 100 and the image processing method according to the present embodiment, it is possible to increase the speed of image processing and reduce the apparatus cost.

図3は、他の画像処理方法のフロー図である。本実施形態にかかる画像処理方法は、撮像ステップS21と、距離測定ステップS22と、距離情報画像作成/表示ステップS23と、画像選択ステップS24と、希望焦点距離指定ステップS25と、置換ステップS26と、相対距離計算ステップS27と、平滑化処理ステップS28と、判断ステップS29を備える。距離情報画像作成/表示ステップS23及び画像選択ステップS24以外は、図2に示した画像処理方法と同様なので説明を省略する。   FIG. 3 is a flowchart of another image processing method. The image processing method according to the present embodiment includes an imaging step S21, a distance measurement step S22, a distance information image creation / display step S23, an image selection step S24, a desired focal length designation step S25, a replacement step S26, Relative distance calculation step S27, smoothing processing step S28, and determination step S29 are provided. Other than the distance information image creation / display step S23 and the image selection step S24 is the same as the image processing method shown in FIG.

距離情報画像作成/表示ステップS23において、画像生成部16が、距離測定ステップS22で測定した距離情報データから距離情報画像データを生成する。距離情報画像データは、表示部18に送信され、表示部18が距離情報画像を表示する。距離情報画像は、撮像部10から、各画素に対応する被写体の各々までの距離を、予め定められた範囲毎に区別して表示する。それぞれの距離範囲の区別は、線、色、模様、文字または記号等によりおこなわれる。本例の距離情報画像は、撮像部10からの距離がそれぞれの範囲内にある領域を、境界線で区別する。   In the distance information image creation / display step S23, the image generation unit 16 generates distance information image data from the distance information data measured in the distance measurement step S22. The distance information image data is transmitted to the display unit 18, and the display unit 18 displays the distance information image. The distance information image displays the distance from the imaging unit 10 to each of the subjects corresponding to each pixel separately for each predetermined range. Each distance range is distinguished by a line, color, pattern, character, symbol, or the like. In the distance information image of the present example, regions where the distance from the imaging unit 10 is within the respective ranges are distinguished by boundary lines.

続いて、画像選択ステップS24において、抽出部20は、距離範囲の境界線の密度が予め定められた閾値よりも高い箇所を境界として、それぞれの被写体の画像領域を抽出する。つまり、抽出部20は、距離情報画像で示される、被写体距離の変化の勾配が、予め定められた閾値よりも急である画像領域を自動的に検出し、各被写体の画像領域として区分してよい。区分した後に、ユーザの選択命令に基づいて、選択被写体に対応する画像領域を含む区分を決定する。   Subsequently, in the image selection step S24, the extraction unit 20 extracts an image area of each subject with a boundary where the density of the boundary line in the distance range is higher than a predetermined threshold. In other words, the extraction unit 20 automatically detects an image area indicated by the distance information image in which the gradient of the change in the subject distance is steeper than a predetermined threshold, and classifies the image area as an image area of each subject. Good. After the segmentation, the segment including the image area corresponding to the selected subject is determined based on the user's selection command.

図4は、相対距離とぼかし量の強度との関係を示すグラフである。縦軸は、平滑化処理によるぼかし量の強度を表し、横軸は各被写体の相対距離を表す。また、図4においては、撮像部10の撮像レンズの開放f値毎に、ぼかし量の強度および相対距離の関係を示す。3つの開放f値の間には、f1>f2>f3の関係がある。グラフより、相対距離の絶対値が大きいほど、ぼかし量の強度が大きくなることがわかる。平滑処理部24は、相対距離の絶対値が大きいほど、ぼかし量を大きくしてよい。また、その傾向は開放f値が大きいレンズほど顕著となることがわかる。   FIG. 4 is a graph showing the relationship between the relative distance and the intensity of the blur amount. The vertical axis represents the intensity of the blur amount by the smoothing process, and the horizontal axis represents the relative distance of each subject. FIG. 4 shows the relationship between the intensity of the blur amount and the relative distance for each open f value of the imaging lens of the imaging unit 10. There is a relationship of f1> f2> f3 between the three open f values. From the graph, it can be seen that the greater the absolute value of the relative distance, the greater the intensity of the blur amount. The smoothing processing unit 24 may increase the blur amount as the absolute value of the relative distance increases. It can also be seen that this tendency becomes more prominent for lenses with a large open f value.

図5は、表示部18が表示した距離情報画像200の一例である。本例において、被写体210は、両手を前に突き出した一人の人間の上半身である。距離情報画像200は、被写体210の画像及びその横に表示された模様チャート220を含む。距離情報画像200は、被写体210の輪郭がわかる程度の解像度を有する画像であってよい。距離情報画像200において、被写体210の体の表面は、撮像部10からの距離に応じて、所定の距離の範囲毎に異なる模様が付されて区別されている。また、距離情報画像は、撮像部10からの距離がそれぞれの範囲内にある領域を境界線で区別する。本例では、1mから7mまでの距離を5段階で5種類の模様により区別している。   FIG. 5 is an example of the distance information image 200 displayed by the display unit 18. In this example, the subject 210 is the upper body of a single human who has both hands protruding forward. The distance information image 200 includes an image of the subject 210 and a pattern chart 220 displayed beside it. The distance information image 200 may be an image having a resolution that allows the outline of the subject 210 to be understood. In the distance information image 200, the surface of the body of the subject 210 is distinguished by being given a different pattern for each predetermined distance range according to the distance from the imaging unit 10. Further, the distance information image distinguishes regions where the distances from the imaging unit 10 are within the respective ranges by boundary lines. In this example, the distance from 1 m to 7 m is distinguished by five types of patterns in five stages.

例えば、距離の範囲aによって区別される被写体部分と距離の範囲bによって区別される被写体部分とでは、模様が異なるので、撮像部10からの距離が異なることがユーザは容易に識別することができる。模様の境界線どうしの間隔が狭い場所は、奥行き方向の距離の変化量が大きいことを示す。一方、模様の境界線どうしの間隔が広い場所は、奥行き方向の距離の変化量が小さいことを示す。距離の範囲は、模様以外に、色、文字もしくは記号等によって区別してもよい。本例では、被写体210が一人の人間の上半身である場合について説明したが、被写体が景色のような2以上の物体で構成される場合も同様である。   For example, since the subject portion distinguished by the distance range a and the subject portion distinguished by the distance range b have different patterns, the user can easily identify that the distance from the imaging unit 10 is different. . A place where the interval between the boundary lines of the pattern is narrow indicates that the amount of change in the distance in the depth direction is large. On the other hand, a place where the distance between the boundary lines of the pattern is wide indicates that the amount of change in the distance in the depth direction is small. The range of the distance may be distinguished by a color, a character, a symbol, or the like other than the pattern. In this example, the case where the subject 210 is the upper body of one person has been described, but the same applies to the case where the subject is composed of two or more objects such as a landscape.

抽出部20は、距離情報画像200において、所定の距離の範囲毎に区分する境界線の密度が予め定められた閾値よりも高い箇所を境界として、それぞれの被写体の画像領域を抽出してよい。平滑処理部24は、当該境界線に沿って、平滑化処理を行ってよい。つまり、同一の境界線上の画像のぼかし量が略同一となるように、フィルタリングの範囲を境界線に沿って移動させてよい。   The extraction unit 20 may extract the image area of each subject using a boundary in the distance information image 200 where the density of the boundary line divided for each predetermined distance range is higher than a predetermined threshold. The smoothing processing unit 24 may perform a smoothing process along the boundary line. That is, the filtering range may be moved along the boundary line so that the blurring amounts of the images on the same boundary line are substantially the same.

図6は、本実施形態にかかる撮像装置100の撮像部10により、屋外の様子を撮像した撮像画像の一例である。本例の撮像画像は、中央の海に浮かんだ人間、その後方の海面、水平線、海に浮かんだヨット、上空の雲などの複数の被写体に対応する画像を含む。本例の撮像画像は、撮像部10の絞りを絞って撮像したパンフォーカス画像である。   FIG. 6 is an example of a captured image obtained by capturing an image of the outdoors using the imaging unit 10 of the imaging apparatus 100 according to the present embodiment. The captured image of this example includes images corresponding to a plurality of subjects such as a person floating in the central sea, the sea surface behind the sea, the horizon, a yacht floating in the sea, and clouds in the sky. The captured image in this example is a pan-focus image captured with the aperture of the imaging unit 10 being narrowed.

図7は、図6に示す撮像画像を本実施形態にかかる画像処理方法により処理した擬似合焦像である。本例の擬似合焦像は、中央の人間に擬似合焦した画像を示している。複数の被写体の中で、中央の人間にのみピントが合っており、それ以外の被写体は強くぼけて見える。このように本実施形態にかかる撮像装置100によれば、被写界深度の深い画像を被写界深度の浅い画像に見せることができる。つまり、本実施形態にかかる撮像装置100によれば、ユーザが指定した任意の希望焦点距離に応じて、当該希望焦点距離の位置にあたかもピントがあっているような画像を得ることができる。   FIG. 7 is a pseudo-focused image obtained by processing the captured image shown in FIG. 6 by the image processing method according to the present embodiment. The pseudo-focused image of this example shows an image that is pseudo-focused on the person at the center. Among multiple subjects, only the central person is in focus, and the other subjects appear to be strongly blurred. Thus, according to the imaging apparatus 100 according to the present embodiment, an image with a deep depth of field can be shown as an image with a shallow depth of field. That is, according to the imaging apparatus 100 according to the present embodiment, an image as if the position of the desired focal length is in focus can be obtained according to an arbitrary desired focal length designated by the user.

図8は、図1に示す距離測定部12のひとつの実施形態を示す。本実施形態にかかる距離測定部12は、同一の被写体33からの光を異なる光路44及び光路46を介して受光する像面位相差センサ50を含む。ここで、像面位相差センサ50は、撮像素子30と、2つの開口部38、40を含む開口保持部42を含む。撮像素子30は、フォトダイオード32、瞳分割部34、マイクロレンズ48を含む。瞳分割部34には、スリット36が設けられており、光路44または光路46のいずれかを通過した光をフォトダイオード32に入射させる。開口保持部42において、開口部38及び開口部40は、それぞれマイクロレンズ48の光軸線37から等距離に配置される。   FIG. 8 shows an embodiment of the distance measuring unit 12 shown in FIG. The distance measuring unit 12 according to the present embodiment includes an image plane phase difference sensor 50 that receives light from the same subject 33 via different optical paths 44 and 46. Here, the image plane phase difference sensor 50 includes an imaging element 30 and an opening holding portion 42 including two openings 38 and 40. The image sensor 30 includes a photodiode 32, a pupil division unit 34, and a microlens 48. The pupil division unit 34 is provided with a slit 36, and the light that has passed through either the optical path 44 or the optical path 46 is incident on the photodiode 32. In the opening holding part 42, the opening 38 and the opening 40 are arranged at an equal distance from the optical axis 37 of the microlens 48.

像面位相差センサ50は、各々の光が受光された位置に基づいて、撮像部10から2以上の被写体の各々までの距離を測定する。像面位相差センサ50は、瞳分割を施した2種類の撮像素子30を、チップ上に混在させて配置することにより、得られた視差情報に基づいて、撮像部10から2以上の被写体の各々までの距離を測定する。なお、像面位相差センサ50は、通常の画像も同時に取得することができる。   The image plane phase difference sensor 50 measures the distance from the imaging unit 10 to each of two or more subjects based on the position where each light is received. The image plane phase difference sensor 50 arranges two types of image pickup elements 30 that have undergone pupil division on a chip so that two or more subjects from the image pickup unit 10 are obtained based on the obtained parallax information. Measure the distance to each. The image plane phase difference sensor 50 can also acquire a normal image at the same time.

瞳分割部34は、液晶によって構成されてよい。瞳分割部34は、液晶に印加する電圧の変化に応じて、スリット36の位置を位置A及び位置Bの間で交替させる。位置Aにスリット36がある場合、マイクロレンズ48を通過した光路46の光がスリット36を通過して位置Aに対応するフォトダイオード32に入射する。位置Bにスリット36がある場合、マイクロレンズ48を通過した光路44の光がスリット36を通過して位置Bに対応するフォトダイオード32に入射する。   The pupil division unit 34 may be configured by a liquid crystal. The pupil division unit 34 changes the position of the slit 36 between the position A and the position B in accordance with a change in the voltage applied to the liquid crystal. When the slit 36 exists at the position A, the light in the optical path 46 that has passed through the microlens 48 passes through the slit 36 and enters the photodiode 32 corresponding to the position A. When the slit 36 exists at the position B, the light of the optical path 44 that has passed through the microlens 48 passes through the slit 36 and enters the photodiode 32 corresponding to the position B.

図9は、撮像素子30をマトリクス状に並べた撮像チップ52の一例を示す。本例において、撮像素子30は、ある時間において位置Bにスリット36を有する撮像素子30−1と位置Aにスリットを有する撮像素子30−2がx方向に交互に配置されている。また、y方向には隣接する撮像素子と同一の位置にスリット36を有する複数の撮像素子30が配置されている。スリット36の位置は時間の経過とともに位置Aと位置Bとの間を交替してよい。撮像素子30−1、30−2の撮像チップ52における配置は、これに限定されない。撮像チップ52の全面に撮像素子30―1、30−2を敷き詰めてもよいが、所定の間隔で撮像素子30―1、30−2を配置してもよい。その場合、撮像素子30―1、30−2の配置密度は、被写体33までの距離を予測可能な程度であればよい。   FIG. 9 shows an example of an imaging chip 52 in which the imaging elements 30 are arranged in a matrix. In this example, in the image sensor 30, an image sensor 30-1 having a slit 36 at a position B and an image sensor 30-2 having a slit at a position A are alternately arranged in the x direction at a certain time. A plurality of image sensors 30 having slits 36 are arranged at the same positions as adjacent image sensors in the y direction. The position of the slit 36 may alternate between position A and position B over time. The arrangement of the imaging elements 30-1 and 30-2 in the imaging chip 52 is not limited to this. The imaging elements 30-1 and 30-2 may be spread over the entire surface of the imaging chip 52, but the imaging elements 30-1 and 30-2 may be arranged at a predetermined interval. In this case, the arrangement density of the image sensors 30-1 and 30-2 may be such that the distance to the subject 33 can be predicted.

図10は、図9に示す像面位相差センサ50の撮像チップ52の位置A及び位置Bにおける、撮像素子30のx方向の位置と撮像素子30―1、30−2で受光した光の信号量との関係を示すグラフである。線Aは、位置Aにスリット36を有する撮像素子30−1が受光した信号量と撮像素子30−1のx方向の位置との関係を示す。線Bは、位置Bにスリット36を有する撮像素子30−2が受光した信号量と撮像素子30−2のx方向の位置との関係を示す。つまり、線Aは位置Aで瞳分割した撮像素子30−1が構成する画像を示し、線Bは位置Bで瞳分割した撮像素子30−2が構成する画像を示している。   FIG. 10 shows the position of the image pickup device 30 in the x direction and the light signals received by the image pickup devices 30-1 and 30-2 at the positions A and B of the image pickup chip 52 of the image plane phase difference sensor 50 shown in FIG. It is a graph which shows the relationship with quantity. A line A indicates the relationship between the signal amount received by the image sensor 30-1 having the slit 36 at the position A and the position of the image sensor 30-1 in the x direction. Line B shows the relationship between the signal amount received by the image sensor 30-2 having the slit 36 at the position B and the position of the image sensor 30-2 in the x direction. That is, the line A indicates an image formed by the image pickup element 30-1 divided at the position A, and the line B indicates an image formed by the image pickup element 30-2 obtained by dividing the pupil at the position B.

まず、像面位相差センサ50で撮像した全体画像を一定の範囲に区分する。次に、区分した範囲の画像から像面位相差センサの出力のみを切り出し瞳分割画像を抽出する。次に瞳分割画像における位置Aの瞳分割画素と位置Bの瞳分割画素のズレ量をシフト演算により算出する。次に、ズレ量を画像の各位置について算出し、距離差の情報として保存する。データの保存は、画像と距離情報算出後の結果を分けて保存する方法、画像の中に距離情報算出後の結果も混ぜて一つのファイルで保存する方法、一つの画像として、距離情報算出前の瞳分割画像と通常画像を保存する方法などがある。   First, the entire image captured by the image plane phase difference sensor 50 is divided into a certain range. Next, only the output of the image plane phase difference sensor is cut out from the image of the divided range, and a pupil division image is extracted. Next, the shift amount between the pupil division pixel at position A and the pupil division pixel at position B in the pupil division image is calculated by shift calculation. Next, the shift amount is calculated for each position of the image and stored as distance difference information. To save data, the method of saving the image and the result after distance information calculation separately, the method of storing the result after distance information calculation in the image and saving it in one file, and as one image, before the distance information calculation There is a method of saving the divided pupil image and the normal image.

図11は、図1に示す距離測定部12の他の実施形態を示す。本実施形態にかかる距離測定部12は、光の飛翔時間を測定するTOFイメージセンサ60を含む。TOFイメージセンサ60は、撮像部10から被写体65までの光の往復時間に基づいて、撮像部10から被写体65までの距離を測定する。TOFイメージセンサ60は、発光素子64と、受光素子62と、飛翔時間測定部63を有する。発光素子64は、被写体65に向けて光66を照射する。発光素子64は、例えば、赤外線LEDである。赤外線LEDは、散乱されにくい波長の長い赤外線を放出するので好ましい。受光素子62は、被写体65から反射された光68を受光する。受光素子62はフォトダイオードであってよい。受光素子62は、光電変換の速度が速いフォトダイオードを有するデバイスが好ましい。飛翔時間測定部63は、発光素子64及び受光素子62に接続されて、光66及び光68の飛翔時間を測定する。   FIG. 11 shows another embodiment of the distance measuring unit 12 shown in FIG. The distance measuring unit 12 according to the present embodiment includes a TOF image sensor 60 that measures the flight time of light. The TOF image sensor 60 measures the distance from the imaging unit 10 to the subject 65 based on the round-trip time of light from the imaging unit 10 to the subject 65. The TOF image sensor 60 includes a light emitting element 64, a light receiving element 62, and a flight time measuring unit 63. The light emitting element 64 emits light 66 toward the subject 65. The light emitting element 64 is, for example, an infrared LED. Infrared LEDs are preferred because they emit infrared rays with long wavelengths that are not easily scattered. The light receiving element 62 receives the light 68 reflected from the subject 65. The light receiving element 62 may be a photodiode. The light receiving element 62 is preferably a device having a photodiode having a high photoelectric conversion speed. The flight time measurement unit 63 is connected to the light emitting element 64 and the light receiving element 62 and measures the flight time of the light 66 and the light 68.

図12は、TOFイメージセンサ60の動作のタイミングチャートを示す。波形72は発光素子64が発光する光66のパルス波形を示す。波形74は受光素子62が受光する光68のパルス波形を示す。時刻t1は光66の発光パルスの立ち上がりの時刻を示し、時刻t2は光68の受光パルスの立ち上がりの時刻を示す。飛翔時間測定部63は、t2−t1を正確に測定することができる。t2−t1は光の遅延時間76を指す。被写体までの距離をDとすると、D=(t2−t1)×c/2の関係が成り立つ。ここで、cは光速を表す。   FIG. 12 shows a timing chart of the operation of the TOF image sensor 60. A waveform 72 indicates a pulse waveform of the light 66 emitted from the light emitting element 64. A waveform 74 indicates a pulse waveform of the light 68 received by the light receiving element 62. Time t1 represents the rise time of the light emission pulse of the light 66, and time t2 represents the rise time of the light reception pulse of the light 68. The flight time measuring unit 63 can accurately measure t2-t1. t2-t1 indicates the light delay time 76. If the distance to the subject is D, the relationship D = (t2−t1) × c / 2 is established. Here, c represents the speed of light.

図13は、図1に示す距離測定部12の他の実施形態を示す。本実施形態にかかる距離測定部12は、異なる光学位置から被写体85を撮像する光学系80を含む。光学系80において、異なる光学位置から撮像した撮像画像間の視差に基づいて、撮像部10から被写体85までの距離を測定する。光学系80は、一対のレンズ86及びレンズ88と、それぞれのレンズ86、88に対応する撮像素子82、84を有する。被写体85から光路81を進む光はレンズ88を通過し、撮像素子84の位置mのフォトダイオードに入射する。一方、光路83を進む光は、レンズ86を通過し、撮像素子82の位置nのフォトダイオードに入射する。撮像素子84のフォトダイオードの位置mと撮像素子82のフォトダイオードの位置nは、異なる光学位置を構成している。つまり、光学系80は、異なる光学位置n、mから同一の被写体85を撮像する。光学位置nと光学位置mとの視点間距離87は視差を表す。光学系80は、例えば、2眼カメラ、立体画像のキャプチャーデバイスである。   FIG. 13 shows another embodiment of the distance measuring unit 12 shown in FIG. The distance measuring unit 12 according to the present embodiment includes an optical system 80 that images the subject 85 from different optical positions. In the optical system 80, the distance from the imaging unit 10 to the subject 85 is measured based on the parallax between the captured images captured from different optical positions. The optical system 80 includes a pair of lenses 86 and 88 and image sensors 82 and 84 corresponding to the lenses 86 and 88, respectively. The light traveling on the optical path 81 from the subject 85 passes through the lens 88 and enters the photodiode at the position m of the image sensor 84. On the other hand, the light traveling on the optical path 83 passes through the lens 86 and enters the photodiode at the position n of the image sensor 82. The photodiode position m of the image sensor 84 and the photodiode position n of the image sensor 82 constitute different optical positions. That is, the optical system 80 images the same subject 85 from different optical positions n and m. A viewpoint distance 87 between the optical position n and the optical position m represents parallax. The optical system 80 is, for example, a binocular camera or a stereoscopic image capture device.

図14は、被写体85と撮像部10との距離が図13よりも短い場合の光学系80を示す。光学系80の構成及び動作は図13に示す光学系80と同じなので説明を省略する。図14に示す光学系80は、異なる光学位置p、qから同一の被写体85を撮像する。光学位置pと光学位置qとの視点間距離89は視差を表す。ここで、図13と図14を比較すると、被写体85がより遠くにある場合の視点間距離87よりも、被写体85がより近くにある場合の視点間距離89の方が長い。光学系80は、撮像部10から被写体85までの距離の変化から生じる視差の相違に基づいて、撮像部10から被写体85までの距離を測定する。   FIG. 14 shows the optical system 80 when the distance between the subject 85 and the imaging unit 10 is shorter than that in FIG. The configuration and operation of the optical system 80 are the same as those of the optical system 80 shown in FIG. The optical system 80 shown in FIG. 14 images the same subject 85 from different optical positions p and q. The inter-viewpoint distance 89 between the optical position p and the optical position q represents parallax. Here, comparing FIG. 13 and FIG. 14, the inter-viewpoint distance 89 when the subject 85 is closer is longer than the inter-viewpoint distance 87 when the subject 85 is further away. The optical system 80 measures the distance from the imaging unit 10 to the subject 85 based on the difference in parallax caused by the change in the distance from the imaging unit 10 to the subject 85.

図15は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェース2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。   FIG. 15 shows an example of a hardware configuration of a computer 1900 according to this embodiment. A computer 1900 according to this embodiment is connected to a CPU peripheral unit having a CPU 2000, a RAM 2020, a graphic controller 2075, and a display device 2080 that are connected to each other by a host controller 2082, and to the host controller 2082 by an input / output controller 2084. Input / output unit having communication interface 2030, hard disk drive 2040 and CD-ROM drive 2060, and legacy input / output unit having ROM 2010, flexible disk drive 2050 and input / output chip 2070 connected to input / output controller 2084 With.

ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 2082 connects the RAM 2020 to the CPU 2000 and the graphic controller 2075 that access the RAM 2020 at a high transfer rate. The CPU 2000 operates based on programs stored in the ROM 2010 and the RAM 2020 and controls each unit. The graphic controller 2075 acquires image data generated by the CPU 2000 or the like on a frame buffer provided in the RAM 2020 and displays it on the display device 2080. Instead of this, the graphic controller 2075 may include a frame buffer for storing image data generated by the CPU 2000 or the like.

入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェース2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェース2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。   The input / output controller 2084 connects the host controller 2082 to the communication interface 2030, the hard disk drive 2040, and the CD-ROM drive 2060, which are relatively high-speed input / output devices. The communication interface 2030 communicates with other devices via a network. The hard disk drive 2040 stores programs and data used by the CPU 2000 in the computer 1900. The CD-ROM drive 2060 reads a program or data from the CD-ROM 2095 and provides it to the hard disk drive 2040 via the RAM 2020.

また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。   The input / output controller 2084 is connected to the ROM 2010, the flexible disk drive 2050, and the relatively low-speed input / output device of the input / output chip 2070. The ROM 2010 stores a boot program that the computer 1900 executes at startup and / or a program that depends on the hardware of the computer 1900. The flexible disk drive 2050 reads a program or data from the flexible disk 2090 and provides it to the hard disk drive 2040 via the RAM 2020. The input / output chip 2070 connects the flexible disk drive 2050 to the input / output controller 2084 and inputs / outputs various input / output devices via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like. Connect to controller 2084.

RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。   A program provided to the hard disk drive 2040 via the RAM 2020 is stored in a recording medium such as the flexible disk 2090, the CD-ROM 2095, or an IC card and provided by the user. The program is read from the recording medium, installed in the hard disk drive 2040 in the computer 1900 via the RAM 2020, and executed by the CPU 2000.

コンピュータ1900にインストールされ、コンピュータ1900を画像処理装置11として機能させるプログラムは、画像生成モジュールと、抽出モジュールと、置換モジュールと、計算モジュールと、平滑処理モジュールを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、画像生成部16、抽出部20、置換部21,計算部22、及び平滑処理部24としてそれぞれ機能させる。   A program installed in the computer 1900 and causing the computer 1900 to function as the image processing apparatus 11 includes an image generation module, an extraction module, a replacement module, a calculation module, and a smoothing processing module. These programs or modules work on the CPU 2000 or the like to cause the computer 1900 to function as the image generation unit 16, the extraction unit 20, the replacement unit 21, the calculation unit 22, and the smoothing processing unit 24, respectively.

これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である画像生成部16、抽出部20、置換部21、計算部22、及び平滑処理部24として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の画像処理装置11が構築される。   The information processing described in these programs is read by the computer 1900, whereby the image generating unit 16, the extracting unit 20, and the replacing unit, which are specific means in which the software and the various hardware resources described above cooperate. 21, the calculation unit 22, and the smoothing processing unit 24. And the specific image processing apparatus 11 according to the intended use is constructed | assembled by implement | achieving the calculation or processing of the information according to the intended use of the computer 1900 in this embodiment by these specific means.

一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェース2030に対して通信処理を指示する。通信インターフェース2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェース2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェース2030からデータを読み出し、転送先の通信インターフェース2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。   As an example, when communication is performed between the computer 1900 and an external device or the like, the CPU 2000 executes a communication program loaded on the RAM 2020 and executes a communication interface based on the processing content described in the communication program. A communication process is instructed to 2030. Under the control of the CPU 2000, the communication interface 2030 reads transmission data stored in a transmission buffer area or the like provided on a storage device such as the RAM 2020, the hard disk drive 2040, the flexible disk 2090, or the CD-ROM 2095, and sends it to the network. The reception data transmitted or received from the network is written into a reception buffer area or the like provided on the storage device. As described above, the communication interface 2030 may transfer transmission / reception data to / from the storage device by a DMA (direct memory access) method. Instead, the CPU 2000 transfers the storage device or the communication interface 2030 as a transfer source. The transmission / reception data may be transferred by reading the data from the network and writing the data to the communication interface 2030 or the storage device of the transfer destination.

また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。   The CPU 2000 is all or necessary from among files or databases stored in an external storage device such as a hard disk drive 2040, a CD-ROM drive 2060 (CD-ROM 2095), and a flexible disk drive 2050 (flexible disk 2090). This portion is read into the RAM 2020 by DMA transfer or the like, and various processes are performed on the data on the RAM 2020. Then, CPU 2000 writes the processed data back to the external storage device by DMA transfer or the like. In such processing, since the RAM 2020 can be regarded as temporarily holding the contents of the external storage device, in the present embodiment, the RAM 2020 and the external storage device are collectively referred to as a memory, a storage unit, or a storage device. Various types of information such as various programs, data, tables, and databases in the present embodiment are stored on such a storage device and are subjected to information processing. Note that the CPU 2000 can also store a part of the RAM 2020 in the cache memory and perform reading and writing on the cache memory. Even in such a form, the cache memory bears a part of the function of the RAM 2020. Therefore, in the present embodiment, the cache memory is also included in the RAM 2020, the memory, and / or the storage device unless otherwise indicated. To do.

また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。   In addition, the CPU 2000 performs various operations, such as various operations, information processing, condition determination, information search / replacement, etc., described in the present embodiment, specified for the data read from the RAM 2020 by the instruction sequence of the program. Is written back to the RAM 2020. For example, when performing the condition determination, the CPU 2000 determines whether the various variables shown in the present embodiment satisfy the conditions such as large, small, above, below, equal, etc., compared to other variables or constants. When the condition is satisfied (or not satisfied), the program branches to a different instruction sequence or calls a subroutine.

また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。   Further, the CPU 2000 can search for information stored in a file or database in the storage device. For example, in the case where a plurality of entries in which the attribute value of the second attribute is associated with the attribute value of the first attribute are stored in the storage device, the CPU 2000 displays the plurality of entries stored in the storage device. The entry that matches the condition in which the attribute value of the first attribute is specified is retrieved, and the attribute value of the second attribute that is stored in the entry is read, thereby associating with the first attribute that satisfies the predetermined condition The attribute value of the specified second attribute can be obtained.

以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。   The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the flexible disk 2090 and the CD-ROM 2095, an optical recording medium such as DVD or CD, a magneto-optical recording medium such as MO, a tape medium, a semiconductor memory such as an IC card, and the like can be used. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1900 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 撮像部、11 画像処理装置、12 距離測定部、14 メモリ、16 画像生成部、18 表示部、20 抽出部、21 置換部、22 計算部、24 平滑処理部、25 ユーザ・インターフェース、27 ユーザ・インターフェース、26 メインメモリ、28 出力インターフェース、30 撮像素子、32 フォトダイオード、33 被写体、34 瞳分割部、36 スリット、37 光軸線、38 開口部、40 開口部、42 開口保持部、44 光路、46 光路、48 マイクロレンズ、50 像面位相差センサ、52 撮像チップ、60 TOFイメージセンサ、62 受光素子、63 飛翔時間測定部、64 発光素子、65 被写体、66 光、68 光、72 波形、74 波形、76 遅延時間、80 光学系、81 光路、82 撮像素子、83 光路、84 撮像素子、85 被写体、86 レンズ、87 視点間距離、88 レンズ、89 視点間距離、100 撮像装置、200 距離情報画像、210 被写体、220 模様チャート、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェース、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 CD−ROMドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 CD−ROM DESCRIPTION OF SYMBOLS 10 Imaging part, 11 Image processing apparatus, 12 Distance measurement part, 14 Memory, 16 Image generation part, 18 Display part, 20 Extraction part, 21 Replacement part, 22 Calculation part, 24 Smoothing process part, 25 User interface, 27 User -Interface, 26 Main memory, 28 Output interface, 30 Image sensor, 32 Photodiode, 33 Subject, 34 Pupil dividing part, 36 Slit, 37 Optical axis, 38 Aperture, 40 Aperture, 42 Aperture holding part, 44 Optical path, 46 optical path, 48 microlens, 50 image plane phase difference sensor, 52 imaging chip, 60 TOF image sensor, 62 light receiving element, 63 flight time measuring unit, 64 light emitting element, 65 subject, 66 light, 68 light, 72 waveform, 74 Waveform, 76 delay time, 80 optical system, 81 optical path, 82 Image element, 83 optical path, 84 image sensor, 85 subject, 86 lens, 87 distance between viewpoints, 88 lens, 89 distance between viewpoints, 100 imaging device, 200 distance information image, 210 subject, 220 pattern chart, 1900 computer, 2000 CPU , 2010 ROM, 2020 RAM, 2030 communication interface, 2040 hard disk drive, 2050 flexible disk drive, 2060 CD-ROM drive, 2070 input / output chip, 2075 graphic controller, 2080 display device, 2082 host controller, 2084 input / output controller , 2090 Flexible disk, 2095 CD-ROM

Claims (17)

被写体の撮像画像を撮像する撮像部と、
前記撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出部と、
前記撮像画像に含まれる各被写体について、前記撮像部までの被写体距離を示す情報を取得し、前記選択被写体の前記被写体距離を、前記ユーザが指定した被写体距離に置き換えた画像データを生成する置換部と、
前記置換部が生成した前記画像データに対して、それぞれの前記被写体に対応する前記被写体距離に基づいて、前記撮像画像を平滑化する平滑処理部と
を備える撮像装置。
An imaging unit that captures a captured image of the subject;
An extraction unit that extracts an image region corresponding to the selected subject selected by the user from the captured image;
For each subject included in the captured image, a replacement unit that acquires information indicating the subject distance to the imaging unit and generates image data in which the subject distance of the selected subject is replaced with the subject distance specified by the user When,
An imaging apparatus comprising: a smoothing unit that smoothes the captured image based on the subject distance corresponding to each subject with respect to the image data generated by the replacement unit.
前記ユーザが指定する希望焦点距離に対する、それぞれの前記被写体の前記被写体距離の相対距離を計算する計算部を更に備え、
前記平滑処理部は、前記計算部が計算した前記相対距離に基づいて、前記撮像画像を平滑化する
請求項1に記載の撮像装置。
A calculation unit that calculates a relative distance of the subject distance of each subject with respect to a desired focal length specified by the user;
The imaging apparatus according to claim 1, wherein the smoothing unit smoothes the captured image based on the relative distance calculated by the calculation unit.
前記平滑処理部は、前記選択被写体に対して前記ユーザが指定した前記被写体距離を、前記希望焦点距離とする
請求項2に記載の撮像装置。
The imaging apparatus according to claim 2, wherein the smoothing unit sets the subject distance designated by the user for the selected subject as the desired focal length.
前記置換部は、前記選択被写体の前記被写体距離を置き換える場合に、置き換え前後の前記被写体距離の差分に応じて、前記選択被写体の前記画像上における大きさを変化させる
請求項1から3のいずれか一項に記載の撮像装置。
The replacement unit, when replacing the subject distance of the selected subject, changes the size of the selected subject on the image according to a difference between the subject distances before and after replacement. The imaging device according to one item.
前記撮像部から2以上の前記被写体の各々までの被写体距離を測定する距離測定部を更に備え、前記計算部は、当該被写体距離に基づいて、前記相対距離を計算する請求項2または3に記載の撮像装置。   The distance measurement part which measures the to-be-photographed object distance from the said imaging part to each of two or more said to-be-photographed objects is further provided, The said calculation part calculates the said relative distance based on the said to-be-photographed object distance. Imaging device. 前記距離測定部は、同一の前記被写体からの光を異なる光路を介して受光する像面位相差センサを含み、前記像面位相差センサにおいて、各々の光が受光された位置に基づいて、前記撮像部から2以上の前記被写体の各々までの被写体距離を測定する請求項5に記載の撮像装置。   The distance measuring unit includes an image plane phase difference sensor that receives light from the same subject through different optical paths, and the image plane phase difference sensor is configured to receive the light based on a position at which each light is received. The imaging apparatus according to claim 5, wherein a subject distance from the imaging unit to each of the two or more subjects is measured. 前記距離測定部は、光の飛翔時間を測定するTOFイメージセンサを含み、前記撮像部から2以上の前記被写体の各々までの光の往復時間に基づいて、前記撮像部から2以上の前記被写体の各々までの被写体距離を測定する請求項5に記載の撮像装置。   The distance measuring unit includes a TOF image sensor that measures a flight time of light, and based on a round-trip time of light from the imaging unit to each of the two or more subjects, the two or more subjects from the imaging unit. The imaging apparatus according to claim 5, wherein the subject distance to each is measured. 前記距離測定部は、異なる光学位置から前記被写体を撮像する光学系を含み、前記光学系において、異なる光学位置から撮像した撮像画像間の視差に基づいて、前記撮像部から2以上の前記被写体の各々までの被写体距離を測定する請求項5に記載の撮像装置。   The distance measuring unit includes an optical system that images the subject from different optical positions. In the optical system, two or more of the subjects from the imaging unit are based on parallax between captured images captured from different optical positions. The imaging apparatus according to claim 5, wherein the subject distance to each is measured. 前記抽出部は、ユーザが前記撮像画像に基づいて前記選択被写体を選択した場合に、前記選択被写体に対応する前記撮像画像の領域をエッジ検出により区分する請求項1から8のいずれか一項に記載の撮像装置。   The extraction unit according to any one of claims 1 to 8, wherein when the user selects the selected subject based on the captured image, the region of the captured image corresponding to the selected subject is classified by edge detection. The imaging device described. 前記距離測定部によって測定した、前記撮像部から2以上の前記被写体の各々までの被写体距離に基づいて、2以上の前記被写体の各々と前記撮像部との間の距離を表す距離情報画像を生成する画像生成部を更に備える請求項5から8のいずれか一項に記載の撮像装置。   A distance information image representing a distance between each of the two or more subjects and the imaging unit is generated based on the subject distance from the imaging unit to each of the two or more subjects measured by the distance measuring unit. The imaging device according to any one of claims 5 to 8, further comprising an image generation unit that performs the operation. 前記距離情報画像は、前記撮像部から、各画素に対応する前記被写体の各々までの距離を、予め定められた範囲毎に区別して表示する請求項10に記載の撮像装置。   The imaging apparatus according to claim 10, wherein the distance information image displays the distance from the imaging unit to each of the subjects corresponding to each pixel separately for each predetermined range. 前記距離情報画像は、前記撮像部からの距離がそれぞれの前記範囲内にある領域を、境界線で区別し、
前記抽出部は、前記境界線の密度が予め定められた閾値よりも高い箇所を境界として、それぞれの前記被写体の前記画像領域を抽出する請求項11に記載の撮像装置。
In the distance information image, a region where the distance from the imaging unit is within the respective range is distinguished by a boundary line,
The imaging apparatus according to claim 11, wherein the extraction unit extracts the image area of each of the subjects with a boundary where a density of the boundary line is higher than a predetermined threshold.
前記撮像画像は、パンフォーカス画像である請求項1から12のいずれか一項に記載の撮像装置。   The imaging device according to claim 1, wherein the captured image is a pan focus image. 前記平滑処理部は、前記相対距離がより大きい前記被写体に対応する前記撮像画像の領域に対して、ぼかしの程度をより大きくする請求項2または3に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the smoothing unit increases a degree of blurring for a region of the captured image corresponding to the subject having the larger relative distance. 撮像装置が撮像した被写体の撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出部と、
前記撮像画像に含まれる各被写体について、前記撮像装置までの被写体距離を示す情報を取得し、前記選択被写体の前記被写体距離を、前記ユーザが指定した被写体距離に置き換えた画像データを生成する置換部と、
前記置換部が生成した前記画像データに対して、それぞれの前記被写体に対応する前記被写体距離に基づいて、前記撮像画像を平滑化する平滑処理部と
を備える画像処理装置。
An extraction unit that extracts an image region corresponding to the selected subject selected by the user from the captured image of the subject captured by the imaging device;
For each subject included in the captured image, a replacement unit that acquires information indicating a subject distance to the imaging device and generates image data in which the subject distance of the selected subject is replaced with a subject distance specified by the user When,
An image processing apparatus comprising: a smoothing unit that smoothes the captured image based on the subject distance corresponding to each of the subjects with respect to the image data generated by the replacement unit.
撮像装置が被写体を撮像した撮像画像を取得する段階と、
前記撮像画像から、ユーザにより選択された選択被写体に対応する画像領域を抽出する抽出段階と、
前記撮像画像に含まれる各被写体について、前記撮像装置までの被写体距離を示す情報を取得し、前記選択被写体の前記被写体距離を、前記ユーザが指定した被写体距離に置き換えた画像データを生成する置換段階と、
前記置換段階で生成した前記画像データに対して、それぞれの前記被写体に対応する前記被写体距離に基づいて、前記撮像画像を平滑化する平滑処理段階と
を備える画像処理方法。
Acquiring a captured image obtained by imaging the subject by the imaging device;
An extraction step of extracting an image region corresponding to the selected subject selected by the user from the captured image;
For each subject included in the captured image, a replacement step of acquiring information indicating a subject distance to the imaging device and generating image data in which the subject distance of the selected subject is replaced with a subject distance specified by the user When,
An image processing method comprising: a smoothing step of smoothing the captured image based on the subject distance corresponding to each subject with respect to the image data generated in the replacement step.
コンピュータを請求項15に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to claim 15.
JP2012103103A 2012-04-27 2012-04-27 Imaging apparatus, image processing apparatus, image processing method, and program Active JP5919998B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012103103A JP5919998B2 (en) 2012-04-27 2012-04-27 Imaging apparatus, image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012103103A JP5919998B2 (en) 2012-04-27 2012-04-27 Imaging apparatus, image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2013232751A true JP2013232751A (en) 2013-11-14
JP5919998B2 JP5919998B2 (en) 2016-05-18

Family

ID=49678846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012103103A Active JP5919998B2 (en) 2012-04-27 2012-04-27 Imaging apparatus, image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5919998B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017022565A (en) * 2015-07-10 2017-01-26 キヤノン株式会社 Image processing apparatus, control method of the same, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006067521A (en) * 2004-08-30 2006-03-09 Kyocera Corp Image processor, image processing method, image pickup device, and image pickup method
JP2009015828A (en) * 2007-06-06 2009-01-22 Sony Corp Image processing device, image processing method, and image processing program
JP2010232961A (en) * 2009-03-27 2010-10-14 Casio Computer Co Ltd Image processor, image processing method and program
JP2011147109A (en) * 2009-12-16 2011-07-28 Canon Inc Image capturing apparatus and image processing apparatus
JP2011249923A (en) * 2010-05-24 2011-12-08 Nikon Corp Imaging apparatus, image processing apparatus, and image processing program
JP2012042623A (en) * 2010-08-17 2012-03-01 Olympus Imaging Corp Display device
JP2012044564A (en) * 2010-08-20 2012-03-01 Sanyo Electric Co Ltd Imaging apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006067521A (en) * 2004-08-30 2006-03-09 Kyocera Corp Image processor, image processing method, image pickup device, and image pickup method
JP2009015828A (en) * 2007-06-06 2009-01-22 Sony Corp Image processing device, image processing method, and image processing program
JP2010232961A (en) * 2009-03-27 2010-10-14 Casio Computer Co Ltd Image processor, image processing method and program
JP2011147109A (en) * 2009-12-16 2011-07-28 Canon Inc Image capturing apparatus and image processing apparatus
JP2011249923A (en) * 2010-05-24 2011-12-08 Nikon Corp Imaging apparatus, image processing apparatus, and image processing program
JP2012042623A (en) * 2010-08-17 2012-03-01 Olympus Imaging Corp Display device
JP2012044564A (en) * 2010-08-20 2012-03-01 Sanyo Electric Co Ltd Imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017022565A (en) * 2015-07-10 2017-01-26 キヤノン株式会社 Image processing apparatus, control method of the same, and program

Also Published As

Publication number Publication date
JP5919998B2 (en) 2016-05-18

Similar Documents

Publication Publication Date Title
CN109565551B (en) Synthesizing images aligned to a reference frame
CN108604379A (en) System and method for determining the region in image
US10269103B2 (en) Image processing apparatus, image processing method, and image processing system
KR20140004592A (en) Image blur based on 3d depth information
JP5779089B2 (en) Edge detection apparatus, edge detection program, and edge detection method
US10397498B2 (en) Compressive sensing capturing device and method
US20150227789A1 (en) Information processing apparatus, information processing method, and program
JP5246078B2 (en) Object location program and camera
US9955111B2 (en) Electronic apparatus and display control method
TW201407420A (en) Improved video tracking
CN110213491B (en) Focusing method, device and storage medium
KR20190120106A (en) Method for determining representative image of video, and electronic apparatus for processing the method
JP6261199B2 (en) Information processing apparatus, information processing method, and computer program
JP2013232757A (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP5919998B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
CN106101542B (en) A kind of image processing method and terminal
CN104933677B (en) Method to determine multiple candidate frames in multiple frames
JP7172066B2 (en) Information processing device and program
JP6762779B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
JP2016206228A (en) Focused position detection device, focused position detection method, imaging device and imaging system
US20230131704A1 (en) Information processing apparatus, learning device, imaging apparatus, control method of information processing apparatus, and program
US11632601B1 (en) User interface for camera focus
JP5556494B2 (en) Image processing apparatus, image processing method, and program
JP5733451B2 (en) Image processing apparatus, image processing method, and program
JP5962810B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160328

R150 Certificate of patent or registration of utility model

Ref document number: 5919998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250