JP2006279546A - Electronic camera, image processing program, and image processing method - Google Patents
Electronic camera, image processing program, and image processing method Download PDFInfo
- Publication number
- JP2006279546A JP2006279546A JP2005095626A JP2005095626A JP2006279546A JP 2006279546 A JP2006279546 A JP 2006279546A JP 2005095626 A JP2005095626 A JP 2005095626A JP 2005095626 A JP2005095626 A JP 2005095626A JP 2006279546 A JP2006279546 A JP 2006279546A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- screen
- image processing
- electronic camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画面内における被写体距離の違いを表す距離マップを生成する電子カメラ、画像処理プログラム、および画像処理方法に関する。 The present invention relates to an electronic camera, an image processing program, and an image processing method that generate a distance map representing a difference in subject distance within a screen.
(カメラの測距に関する従来技術)
下記の特許文献1には、パッシブ測距方式が記載されている。このパッシブ測距方式では、2つの撮像装置を所定の基線長だけ離して配置する。これら2つの撮像装置において生成される一組の光像について視差を求め、この視差から距離を求める。
また、下記の特許文献2には、コントラスト山登り方式を応用した測距技術も記載されている。この方式では、撮影レンズをフォーカス駆動することにより、撮影レンズのピント位置を光軸方向にスキャン移動させる。このピントスキャンに並行して、撮像画像のコントラストが最大となる画像領域を探索する。
(Conventional technology related to camera ranging)
(連写画像の合成に関する従来技術)
従来、複数枚の画像を分割露光により生成し、これら複数画像を位置合わせして合成することによって、長秒時露光において発生する画像ブレを防止する技術が知られている。
また、露出条件を変えて複数枚の画像を撮影し、これら複数画像を位置合わせして合成することによって、階調飛びや階調潰れを防止する技術も知られている。
(Conventional technology related to continuous shot image composition)
2. Description of the Related Art Conventionally, there has been known a technique for preventing image blurring that occurs in long-time exposure by generating a plurality of images by divided exposure and aligning and synthesizing the plurality of images.
There is also known a technique for preventing gradation skipping and gradation collapse by photographing a plurality of images while changing exposure conditions, and aligning and synthesizing the plurality of images.
本発明者は、被写体までの距離に応じて画面内の領域ごとに画像処理を加減することによって、被写界の奥行き情報(遠近差)を反映した高度な画像処理を実現することを考えた。 The present inventor considered realizing advanced image processing reflecting depth information (perspective difference) of the object scene by adjusting image processing for each area in the screen according to the distance to the subject. .
そこで、特別な構造を有さずに、被写界全域にわたって奥行きを簡易に検出する技術を検討した。上述したパッシブ測距方式では、2つ以上の撮像装置を配置する必要があり、そのために構造が複雑になるという問題点があった。また、上述したコントラスト山登り方式では、特別な構造が不要となる。しかし、被写界全域にわたって奥行きを検出するためには、撮影レンズのピント位置を何度もスキャン移動させる必要があり、測距に時間がかかるという問題点があった。 Therefore, we examined a technology that easily detects the depth over the entire field without having a special structure. In the passive distance measuring method described above, it is necessary to dispose two or more imaging devices, which causes a problem that the structure becomes complicated. In addition, the above-described contrast climbing method does not require a special structure. However, in order to detect the depth over the entire field, it is necessary to scan the focus position of the taking lens many times, and there is a problem that it takes time to measure the distance.
ところで、上述したように、複数画像を合成することによって、画像ブレや階調潰れなどを抑制する技術が知られている。本発明者は、このような複数画像の処理を応用することで、奥行き情報を検出することを考えた。 By the way, as described above, there is known a technique for suppressing image blurring and gradation collapse by combining a plurality of images. The present inventor has considered to detect depth information by applying such processing of a plurality of images.
そこで、本発明は、被写界の奥行きに関する情報を単純な構成で得る技術を提供することを目的とする。 Accordingly, an object of the present invention is to provide a technique for obtaining information related to the depth of the object scene with a simple configuration.
《1》
本発明の電子カメラは、撮像部、画像処理部、撮像制御部、ズレ検出部、および距離マップ作成部を備える。
撮像部は、被写体を撮像して画像を生成する。
画像処理部は、撮像部で撮影された画像を処理する。
撮像制御部は、撮像部で複数回撮影を行って複数の画像を取得する。
ズレ検出部は、複数の画像を比較して局所的な画像ズレ幅を画面内の複数箇所について検出する。
距離マップ作成部は、複数箇所の画像ズレ幅に基づいて画面内をグループ分けし、画面内における被写体距離の違いを表す距離情報(以下『距離マップ』という)を作成する。
<< 1 >>
The electronic camera of the present invention includes an imaging unit, an image processing unit, an imaging control unit, a deviation detection unit, and a distance map creation unit.
The imaging unit captures a subject and generates an image.
The image processing unit processes an image captured by the imaging unit.
The imaging control unit acquires a plurality of images by performing imaging a plurality of times with the imaging unit.
The deviation detection unit compares a plurality of images and detects a local image deviation width at a plurality of locations in the screen.
The distance map creation unit divides the screen into groups based on the image misalignment widths at a plurality of locations, and creates distance information (hereinafter referred to as “distance map”) representing the difference in subject distance within the screen.
《2》
なお好ましくは、ズレ検出部は、画面内の少なくとも1つの箇所Pについて被写体距離Aを検出する距離取得部を備える。
一方、距離マップ作成部は、画像ズレ幅mの画面内箇所の被写体距離Bを、箇所Pの画像ズレ幅nを基準に、
B=A・n/m・・・(1)
で求めることにより、画面内における被写体距離の違いを表す距離マップを作成する。
<< 2 >>
Preferably, the deviation detection unit includes a distance acquisition unit that detects the subject distance A for at least one location P in the screen.
On the other hand, the distance map creation unit uses the subject distance B at the location in the screen with the image displacement width m as the reference and the image displacement width n at the location P as a reference.
B = A · n / m (1)
To obtain a distance map representing the difference in subject distance within the screen.
《3》
また好ましくは、画像処理部は、距離マップをマスクとして、画像に施す画像処理を変更する。
<< 3 >>
Preferably, the image processing unit changes the image processing applied to the image using the distance map as a mask.
《4》
なお好ましくは、画像処理部は、距離マップをマスクとして、遠距離の画面領域ほど明るく輝度補正する。
<< 4 >>
Preferably, the image processing unit corrects the brightness more brightly as the screen area is far away using the distance map as a mask.
《5》
また好ましくは、画像処理部は、距離マップをマスクとして、遠距離の画面領域ほど暗く輝度補正する。
<< 5 >>
Preferably, the image processing unit corrects the brightness darker as the screen area is farther away, using the distance map as a mask.
《6》
なお好ましくは、画像処理部は、撮像制御部によって生成された複数の画像について、位置合わせをして合成画像を生成する機能を有する。
<< 6 >>
Preferably, the image processing unit has a function of generating a composite image by aligning a plurality of images generated by the imaging control unit.
《7》
本発明の画像処理プログラムは、撮像部で複数回撮影を行って生成された複数の画像が入力されるコンピュータを、上記《1》〜《6》のいずれかに記載の画像処理部、ズレ検出部、および距離マップ作成部として機能させるための画像処理プログラムである。
<< 7 >>
The image processing program according to the present invention provides a computer to which a plurality of images generated by performing imaging a plurality of times by an imaging unit are input, the image processing unit according to any one of the above << 1 >> to << 6 >>, and deviation detection And an image processing program for functioning as a distance map creation unit.
《8》
本発明の画像処理方法は、撮像部で複数回撮影を行って生成された複数の画像を取得するステップと、複数の画像を比較して局所的な画像ズレ幅を画面内の複数箇所について検出するステップと、複数箇所の画像ズレ幅に基づいて画面内をグループ分けし、画面内における被写体距離の違いを表す距離情報(以下『距離マップ』という)を作成するステップとを備える。
<< 8 >>
According to the image processing method of the present invention, a step of acquiring a plurality of images generated by photographing a plurality of times by an imaging unit and a plurality of images are compared to detect a local image shift width at a plurality of locations in the screen. And a step of grouping the screen based on the image shift widths at a plurality of locations and creating distance information (hereinafter referred to as “distance map”) representing the difference in subject distance within the screen.
[1,7,8]
本発明では、まず、複数回の撮影によって生成した複数の画像を取得する。手持ち撮影では、これら複数の画像に、カメラブレなどによる画像ズレが生じる。本発明では、画像比較により、この画像ズレの幅を画面内の複数箇所において検出する。
カメラブレが撮影光軸に直交する平行移動を含む場合、被写体距離が近いほど画像ズレ幅は大きくなる。そこで、本発明では、複数箇所の画像ズレ幅をグループ分けすることで、画面内における被写体距離の違いを表す距離情報(以下『距離マップ』という)を作成する。
このような処理により、本発明では、特に複雑な構成を必要とせずに、複数回の撮影で得た複数画像から被写界の奥行きに関する情報を得ることができる。
[1, 7, 8]
In the present invention, first, a plurality of images generated by a plurality of shootings are acquired. In hand-held shooting, image misalignment due to camera shake or the like occurs in these multiple images. In the present invention, the width of the image shift is detected at a plurality of locations in the screen by image comparison.
When the camera shake includes a parallel movement orthogonal to the photographing optical axis, the image shift width increases as the subject distance is shorter. Therefore, in the present invention, the distance information (hereinafter referred to as “distance map”) indicating the difference in subject distance in the screen is created by grouping the image shift widths at a plurality of locations.
By such processing, in the present invention, information relating to the depth of the object scene can be obtained from a plurality of images obtained by a plurality of shootings without requiring a particularly complicated configuration.
[2]
さらに、本発明では、複数箇所の少なくとも1つの箇所Pについて被写体距離Aを別に検出することが好ましい。この被写体距離Aを基準にして、その他の箇所の距離をおおよそ推定することも可能となる。
すなわち、この箇所Pの画像ズレ幅をnとし、かつ被写体距離Aであれば、これを基準にして、画像ズレ幅mの画面内箇所の被写体距離Bは、
B=A・n/m・・・(1)
で求めることが可能になる。
[2]
Furthermore, in the present invention, it is preferable to separately detect the subject distance A for at least one place P of the plurality of places. With this subject distance A as a reference, it is possible to roughly estimate the distances of other parts.
That is, if the image deviation width of this location P is n and the subject distance A, the subject distance B at the location in the screen with the image deviation width m is as follows.
B = A · n / m (1)
It becomes possible to ask for.
[3]
また、本発明では、距離マップを二値または多値のマスクとして使用することで、画像処理を変更することが好ましい。この処理により、被写界の奥行き情報(遠近差)を反映した画像処理を実現することができる。
[3]
In the present invention, it is preferable to change the image processing by using the distance map as a binary or multi-value mask. By this processing, it is possible to realize image processing reflecting depth information (perspective difference) of the object scene.
[4]
この距離マップを用いた画像処理において、遠距離の画像領域ほど明るく輝度補正してもよい。この場合、閃光撮影時などの遠方ほど暗くなる被写界を、自然な輝度分布に補正することが可能になる。
[4]
In the image processing using this distance map, the luminance correction may be performed brighter as the image area is farther away. In this case, it is possible to correct the object scene that becomes darker at a distance, such as during flash photography, to a natural luminance distribution.
[5]
また、この距離マップを用いた画像処理において、遠距離の画像領域ほど暗く輝度補正してもよい。この場合、背景を暗くすることにより、至近側の主要被写体を明るく立体的に浮き出させるような輝度補正が実現する。
[5]
Further, in the image processing using this distance map, the luminance correction may be made darker as the image area is farther away. In this case, by making the background dark, brightness correction is realized such that the main subject on the near side is brightly three-dimensionally raised.
[6]
さらに、画像処理部において、複数の画像を位置合わせして合成画像を生成してもよい。
この場合、複数の画像1つ1つについて距離マップを用いた画像処理を実施した上で合成してもよい。また、合成画像を生成した上で、合成画像に距離マップを用いた画像処理を実施してもよい。
[6]
Further, the image processing unit may generate a composite image by aligning a plurality of images.
In this case, image processing using a distance map may be performed for each of a plurality of images, and the images may be combined. Moreover, after generating a composite image, image processing using a distance map may be performed on the composite image.
[実施形態の構成説明]
図1は、本実施形態の電子カメラ11を示すブロック図である。
図1において、電子カメラ11には、撮影レンズ12が装着される。レンズ制御部12aは、この撮影レンズ12のフォーカス駆動や絞り制御などを実施する。この撮影レンズ12の像空間には、撮像素子13の受光面が配置される。この撮像素子13は、撮像制御部14によって駆動される。撮像素子13から出力される画像データは、信号処理部15、およびA/D変換部16を介して処理された後、デジタルの画像データとしてメモリ17に一時蓄積される。
[Description of Embodiment Configuration]
FIG. 1 is a block diagram showing an
In FIG. 1, a photographing lens 12 is attached to the
このメモリ17は、バス18に接続される。このバス18には、レンズ制御部12a、撮像制御部14、マイクロプロセッサ19、画像処理部20、ズレ検出部21、記録部22、モニタ表示部23、および内蔵プロジェクタ30に接続される。
上記のマイクロプロセッサ19には、レリーズ釦などの操作部19aが接続される。また、上記の記録部22には、記録媒体22aが装着される。また、上記の内蔵プロジェクタ30は、投射レンズ31、表示素子32、および照明光源33を備え、画像データを外部スクリーンなどに投影する。この表示素子32は表示素子駆動回路34によって制御される。また、照明光源33は点灯回路35によって点灯駆動される。
This
The
[実施形態の動作説明]
図2は、本実施形態の動作を説明する流れ図である。以下、図2に示すステップ番号に沿って動作説明を行う。
[Description of Operation of Embodiment]
FIG. 2 is a flowchart for explaining the operation of the present embodiment. Hereinafter, the operation will be described along the step numbers shown in FIG.
ステップS1: 電子カメラ11の主電源が投入されると、撮像制御部14は、撮像素子13を間引き読み出しモード(ドラフトモード)で連続駆動し、モニタ用の動画像を撮影する。このモニタ用の動画像は、モニタ表示部23に表示される。また、レンズ制御部12aは、このモニタ用の動画像に基づいて、コントラスト山登り式の焦点制御を行い、画面内の箇所Pにピントを合わせる。この箇所Pは、中央箇所や周辺の複数箇所などからユーザー操作などで選択することができる。
一方、マイクロプロセッサ19は、この動画像から被写体輝度を検出し、露出条件(露光時間,絞り値,撮像感度)を決定する。なお、別に測光用素子を設けて、測光動作を行い、露光条件を決定してもよい。
Step S1: When the main power supply of the
On the other hand, the
ステップS2: マイクロプロセッサ19は、レンズ制御部12aから、撮影レンズ12の焦点距離とレンズ位置を情報取得する。
Step S2: The
ステップS3: レンズ制御部12aは、撮影レンズ12のレンズ位置と、被写体距離との対応関係を予め保持する。マイクロプロセッサ19は、撮影レンズ12のレンズ位置をこの対応関係に参照することにより、合焦している箇所Pまでの被写体距離Aを求める。
Step S3: The
ステップS4: マイクロプロセッサ19は、撮影レンズ12の焦点距離と、被写体距離Aから、手ブレの影響を無視できる分割露光時間を求める。この分割露光時間については、実写テストなどに基づいて、焦点距離および被写体距離の条件ごとに予め決定しておくことが好ましい。
Step S4: The
ステップS5: マイクロプロセッサ19は、被写体輝度から露出決定された露光時間を、分割露光時間に分けることにより、必要な分割露光回数を求める。これにより、分割露光のタイムスケジュールが決定する。
Step S5: The
ステップS6: マイクロプロセッサ19は、撮像制御部14を制御して、分割露光のタイムスケジュールに従って撮像動作を繰り返し、複数の画像を生成する。これら複数の画像は、メモリ17に一時蓄積される。なお、ここでの分割露光の動作は、機械シャッタ(不図示)により実現してもよいし、撮像素子13の電子シャッタ制御により実現してもよい。
Step S6: The
ステップS7: ズレ検出部21は、メモリ17内から少なくとも2枚の画像を読み出す。なお、この2枚の画像は、手ブレ振動の両端に該当する画像を選択することが好ましい。例えば、レリーズ釦を押す際の手ブレを拾う場合は、レリーズ釦の押し始めの画像と、レリーズ釦を押し終わって電子カメラ11の下向き振動が収まった時点の画像を、時間間隔などに基づいて選択することができる。また、電子カメラ11に振動センサ(角速度センサなど)を搭載し、その振動センサの出力から振動の両端に該当する画像を選択してもよい。
ズレ検出部21は、これら画像の一枚を、予め定められた画素サイズのブロックに細分する。ズレ検出部21は、もう一方の画像内から、これらブロックと画像パターンが良く一致する位置を探索する(いわゆるブロックマッチング)。この処理により、ブロックごとの画像ズレをベクトルとして検出することができる。
Step S7: The deviation detecting unit 21 reads at least two images from the
The deviation detection unit 21 subdivides one of these images into blocks having a predetermined pixel size. The misalignment detection unit 21 searches the other image for a position where these blocks and the image pattern match well (so-called block matching). By this processing, the image shift for each block can be detected as a vector.
ステップS8: ズレ検出部21は、各ブロックの画像ズレについて共通の画像ズレ方向を求める。例えば、各ブロックの画像ズレをベクトル加算することにより、平均的な画像ズレ方向を求めればよい。また例えば、各ブロックの画像ズレの方向を度数解析して、最頻度の方向を画像ズレ方向としてもよい。また例えば、最大幅の画像ズレを求め、この画像ズレの方向を、共通の画像ズレ方向としてもよい。また例えば、レリーズ釦の押圧方向やミラーショックの振動方向を共通の画像ズレ方向としてもよい。 Step S8: The deviation detection unit 21 obtains a common image deviation direction for the image deviation of each block. For example, an average image shift direction may be obtained by vector addition of the image shift of each block. Further, for example, the direction of image shift of each block may be frequency-analyzed, and the most frequent direction may be set as the image shift direction. Further, for example, an image shift with the maximum width may be obtained, and the direction of the image shift may be set as a common image shift direction. In addition, for example, the pressing direction of the release button and the vibration direction of the mirror shock may be set as a common image shift direction.
ステップS9: ズレ検出部21は、各ブロックの画像ズレについて、共通の画像ズレ方向における画像ズレ幅を算出する。 Step S9: The deviation detection unit 21 calculates the image deviation width in the common image deviation direction for the image deviation of each block.
ステップS10: マイクロプロセッサ19は、ズレ検出部21から、各ブロックの画像ズレ幅を情報取得する。マイクロプロセッサ19は、この画像ズレ幅の中から、合焦状態の箇所Pにおける画像ズレ幅nを基準として選別する。
Step S10: The
ステップS11: マイクロプロセッサ19は、各ブロックの画像ズレ幅mを下式に代入して、各ブロックについて被写体距離Bをそれぞれ求める。
B=A・n/m ・・・(1)
図3は、上式の意味を説明する模式図である。
この図3において、撮影レンズ12の前側主点から光軸方向に被写体距離Aだけ離れた位置に、基準とする被写体(基準被写体)が位置する。同様に被写体距離Bだけ離れた位置に、測距対象の被写体(測距対象)が位置する。
Step S11: The
B = A · n / m (1)
FIG. 3 is a schematic diagram for explaining the meaning of the above equation.
In FIG. 3, a reference subject (reference subject) is located at a position away from the front principal point of the taking lens 12 by a subject distance A in the optical axis direction. Similarly, a subject to be measured (a target for distance measurement) is located at a position separated by the subject distance B.
ここでは、手ブレなどによって電子カメラ11の位置が間隔Rだけ変位したと仮定する。この場合、電子カメラ11の座標に立って見ると、物空間内において、基準被写体および測距対象が共に間隔Rだけ相対移動したことになる。
ところで、電子カメラ11の撮影画角を2θとし、かつ入射瞳による光束の径を無視すれば、撮像画面に収まる物空間内の撮影幅は、被写体距離Aの位置において2Atanθとなる。また、被写体距離Bにおける撮影幅は、2Btanθとなる。これら被写体距離によって変化する物空間内の撮影幅は、撮影画面の上に等幅に投影される。
このことから、撮影画面上における、基準被写体の画像ズレ幅nと、測距対象の画像ズレ幅mとの比は、
n:m=(R/2Atanθ):(R/2Btanθ)
となる。この式を変形することによって、上記の(1)式が得られる。
Here, it is assumed that the position of the
By the way, if the shooting angle of view of the
From this, the ratio between the image shift width n of the reference subject and the image shift width m of the distance measurement object on the shooting screen is
n: m = (R / 2 Atan θ): (R / 2 Btan θ)
It becomes. By transforming this equation, the above equation (1) is obtained.
ステップS12: マイクロプロセッサ19は、各ブロックを画像ズレ幅(または被写体距離)で分類することにより、距離マップのデータをメモリ17内に生成する。図4は、この距離マップを模式的に分かりやすく示した図である。
なお、この距離マップは、被写体距離の違いを表すデータであればよい。例えば、ブロック単位に数値(例えば被写体距離や遠近度合いを示す数値など)を配列したデータでもよい。また、ブロック単位の数値を補間して得られる画素単位の数値配列でもよい。また、遠近で分類された部分画像の領域区分を示すデータでもよい。
Step S12: The
The distance map may be data representing a difference in subject distance. For example, it may be data in which numerical values (for example, numerical values indicating subject distance and perspective) are arranged in block units. Also, a numerical array of pixel units obtained by interpolating numerical values of block units may be used. Moreover, the data which show the area division of the partial image classified by the perspective may be sufficient.
ステップS13: 画像処理部20は、分割露光で得た複数の画像を位置合わせして合成し、合成画像を得る。ここでの位置合わせには、ステップS7で求めた画像ズレの情報を利用することができる。
Step S13: The
ステップS14: ここで、マイクロプロセッサ19は、画像処理モードの設定に応じて処理を分岐する。
例えば、『明るい背景モード』では、ステップS15に処理を分岐する。
また例えば、『暗い背景モード』では、ステップS16に処理を分岐する。
なお、『画像解析』や『分割測光の評価結果』や『閃光発光の有無』により、ステップS15,S16の分岐を自動的に選択してもよい。例えば、画像解析や分割測光により、逆光撮影と判断される場合には、暗い背景モードを自動選択することが好ましい。また、閃光発光有りの場合には、明るい背景モードを自動選択することが好ましい。
Step S14: Here, the
For example, in the “bright background mode”, the process branches to step S15.
For example, in the “dark background mode”, the process branches to step S16.
Note that the branching of steps S15 and S16 may be automatically selected based on “image analysis”, “division metering evaluation result”, and “presence / absence of flash emission”. For example, it is preferable to automatically select the dark background mode when it is determined that the backlight photography is performed by image analysis or divided photometry. In addition, when there is flash light emission, it is preferable to automatically select a bright background mode.
ステップS15: ここでは、明るい背景モードが選択される。この場合、画像処理部20は、距離マップを二値または多値マスクとして、被写体距離が遠い画像領域ほど明るくなるように合成画像に輝度補正を実施する。
なお、ここでのマスク処理は、多様な処理態様が可能である。例えば、画像に施す画像処理パラメータを、距離マップの距離情報や遠近差によって変更(変調)してもよい。また、距離マップの遠近分類によって画像を複数の分割領域に区分し、分割領域ごとに画像処理を変更してもよい。
このようにして輝度補正を完了した画像は、記録部22を介して22aに保存記録される。また、この輝度補正を完了した画像を、内蔵プロジェクタ30を介して外部スクリーンなどに投影することもできる。また、距離マップを用いて照明光源33の照明分布を変調することにより、より多階調の投影像を得てもよい。以上の動作により、本実施形態の動作を完了する。
Step S15: Here, a bright background mode is selected. In this case, the
The mask process here can be performed in various ways. For example, the image processing parameters to be applied to the image may be changed (modulated) by the distance information of the distance map or the perspective difference. In addition, the image may be divided into a plurality of divided regions according to the perspective classification of the distance map, and the image processing may be changed for each divided region.
The image for which the brightness correction has been completed in this manner is stored and recorded in 22a via the
ステップS16: 一方、ここでは、暗い背景モードが選択される。この場合、画像処理部20は、距離マップを二値または多値マスクとして、被写体距離が遠い画像領域ほど暗くなるように合成画像に輝度補正を実施する。この輝度補正を完了した画像は、記録部22を介して22aに保存記録される。また、この輝度補正を完了した画像を、内蔵プロジェクタ30を介して外部スクリーンなどに投影することもできる。また、距離マップを用いて照明光源33の照明分布を変調することにより、より多階調の投影像を得てもよい。以上の動作により、本実施形態の動作を完了する。
Step S16: On the other hand, here, the dark background mode is selected. In this case, the
[本実施形態の効果など]
以上説明したように、本実施形態では、通常の電子カメラの撮像ユニットを使用して距離マップを作成することができる。そのため、従来技術のように複数の撮像装置を備える必要がなく、被写界の奥行きに関する情報を簡易な構造で求めることができる。
また、本実施形態では、1つの箇所Pについて被写体距離Aを別に検出することで、その他の箇所の被写体距離Bを得ることができる。
[Effects of this embodiment, etc.]
As described above, in this embodiment, a distance map can be created using an imaging unit of a normal electronic camera. Therefore, it is not necessary to provide a plurality of imaging devices as in the prior art, and information regarding the depth of the object scene can be obtained with a simple structure.
Further, in the present embodiment, by separately detecting the subject distance A for one place P, the subject distance B at other places can be obtained.
さらに、本実施形態では、距離マップを反映させて画像処理を行うことにより、本来平面の画像に被写界の奥行き感を付加することが可能になる。また逆に、被写界の奥行きによって生じる画像の不均一さ(閃光撮影時の近景と背景の明暗差)を補正することも可能になる。 Furthermore, in the present embodiment, by performing image processing while reflecting the distance map, it is possible to add a sense of depth of the object scene to the originally flat image. Conversely, it is also possible to correct image nonuniformity (difference between the background and background during flash photography) caused by the depth of the object scene.
[実施形態の補足事項]
なお、上述した実施形態では、位置合わせ合成による画像ブレ改善技術と併用して、距離マップを作成している。そのため、測距のためだけに複数回の露光を行う必要がなく、撮影シーケンスに無駄がない。
[Supplementary items of the embodiment]
In the above-described embodiment, the distance map is created in combination with the image blurring improvement technique based on alignment synthesis. Therefore, it is not necessary to perform multiple exposures only for distance measurement, and there is no waste in the shooting sequence.
また、画像合成により階調潰れを抑制する技術と本発明を併用して、距離マップを作成してもよい。 Further, a distance map may be created by using the present invention in combination with a technique that suppresses gradation collapse by image synthesis.
なお、測距のために複数回の露光を別途実施することにより、本発明を独立に実施することも可能である。 It should be noted that the present invention can be implemented independently by separately performing multiple exposures for distance measurement.
なお、上述した実施形態において、複数回の露光を行う際に、絞りの開口を小さく変更して被写界深度を深くすることが好ましい。この場合、より広い距離範囲において画像ズレを正確に検出できるため、被写界全域にわたる正確な距離マップを得ることが可能になる。 In the above-described embodiment, it is preferable that the depth of field is increased by changing the aperture of the aperture to be small when performing multiple exposures. In this case, since the image shift can be accurately detected in a wider distance range, an accurate distance map over the entire object field can be obtained.
また、上述した実施形態では、距離マップを画像処理に活用している。しかしながら、本発明はこれに限定されるものではない。距離マップを生成することを目的として本発明を実施してもよい。この場合、測距装置などに本発明を応用することが可能になる。 In the embodiment described above, the distance map is used for image processing. However, the present invention is not limited to this. The present invention may be implemented for the purpose of generating a distance map. In this case, the present invention can be applied to a distance measuring device or the like.
なお、上述した実施形態において、距離マップを、画像データと一体または別ファイルとして記録してもよい。この場合、ユーザーは、距離マップをマスクとして適宜使用できるので、処理対象の画像から面倒な作業でマスクを生成するといった手間を省くことができる。 In the above-described embodiment, the distance map may be recorded as a file integrated with the image data or as a separate file. In this case, since the user can appropriately use the distance map as a mask, it is possible to save the trouble of generating the mask by a troublesome work from the image to be processed.
また、上述した実施形態では、距離マップを輝度補正に使用している。しかしながら、本発明はこれに限定されるものではない。一般に、奥行き情報を活用できる画像処理であればよい。例えば、距離マップを彩度調整に反映させることにより、空気層による遠景の低彩度化を補正し、色抜けの良い画像を得ることが可能になる。また逆に、遠景を低彩度化(または近景を高彩度化)することにより、いわゆる空気感のある画像を得ることが可能になる。 In the embodiment described above, the distance map is used for luminance correction. However, the present invention is not limited to this. In general, any image processing that can utilize depth information may be used. For example, by reflecting the distance map in the saturation adjustment, it is possible to correct the desaturation of the distant view due to the air layer and obtain an image with good color loss. Conversely, by reducing the saturation of the distant view (or increasing the saturation of the close view), it is possible to obtain a so-called airy image.
なお、上述した実施形態では、レンズ位置から被写体距離Aを求める場合について説明した。しかしながら、本発明はこれに限定されるものではない。基準である被写体距離Aを求める手段として、その他の公知の測距手段を適宜使用することができる。 In the above-described embodiment, the case where the subject distance A is obtained from the lens position has been described. However, the present invention is not limited to this. Other known distance measuring means can be used as appropriate as means for obtaining the subject distance A as a reference.
また、本発明は、少なくとも1つの撮像素子が有れば実現できるため、一眼レフタイプやコンパクトタイプのいずれの電子カメラでも実施することができる。 In addition, since the present invention can be realized if there is at least one image sensor, it can be implemented by any single-lens reflex type or compact type electronic camera.
なお、複数画像と被写体距離Aを情報取得すれば、コンピュータ上(画像処理プログラム)においても、実施形態(図2)と同様の処理を実施することが可能となる。
さらに、上述した画像処理方法を、インターネット上の画像サーバー(例えはアルバムサーバーなど)を用いて、サービス提供することも可能である。
If information on multiple images and subject distance A is acquired, the same processing as in the embodiment (FIG. 2) can be performed on the computer (image processing program).
Further, the above-described image processing method can be provided using an image server (eg, album server) on the Internet.
以上説明したように、本発明は、画像処理などに利用可能な技術である。 As described above, the present invention is a technique that can be used for image processing and the like.
11…電子カメラ,12…撮影レンズ,12a…レンズ制御部,13…撮像素子,14…撮像制御部,15…信号処理部,16…A/D変換部,17…メモリ,18…バス,19…マイクロプロセッサ,19a…操作部,20…画像処理部,21…ズレ検出部,22…記録部,22a…記録媒体,23…モニタ表示部,30…内蔵プロジェクタ,31…投射レンズ,32…表示素子,33…照明光源,34…表示素子駆動回路,35…点灯回路
DESCRIPTION OF
Claims (8)
前記撮像部で撮影された画像を処理する画像処理部と、
前記撮像部で複数回撮影を行って複数の画像を取得する撮像制御部と、
前記複数の画像を比較して局所的な画像ズレ幅を画面内の複数箇所について検出するズレ検出部と、
複数箇所の前記画像ズレ幅に基づいて画面内をグループ分けし、画面内における被写体距離の違いを表す距離情報(以下『距離マップ』という)を作成する距離マップ作成部と
を備えたことを特徴とする電子カメラ。 An imaging unit that images a subject and generates an image;
An image processing unit for processing an image captured by the imaging unit;
An imaging control unit that acquires a plurality of images by performing imaging a plurality of times with the imaging unit;
A displacement detection unit that compares the plurality of images and detects a local image displacement width for a plurality of locations in the screen;
A distance map creation unit that divides the screen into groups based on the image shift widths at a plurality of locations and creates distance information (hereinafter referred to as a “distance map”) that indicates a difference in subject distance within the screen. And an electronic camera.
ズレ検出部は、画面内の少なくとも1つの箇所Pについて被写体距離Aを取得または検出する距離取得部を備え、
前記距離マップ作成部は、
画像ズレ幅mの画面内箇所の被写体距離Bを、前記箇所Pの画像ズレ幅nを基準に、
B=A・n/m ・・・(1)
で求めることにより、画面内における被写体距離の違いを表す距離マップを作成する
ことを特徴とする電子カメラ。 The electronic camera according to claim 1,
The deviation detection unit includes a distance acquisition unit that acquires or detects the subject distance A for at least one location P in the screen,
The distance map creation unit
The subject distance B at the location in the screen with the image misalignment width m is based on the image misalignment width n at the location P.
B = A · n / m (1)
An electronic camera characterized by creating a distance map that represents the difference in subject distance within the screen.
前記画像処理部は、
前記距離マップをマスクとして、前記画像に施す画像処理を変更する
ことを特徴とする電子カメラ。 The electronic camera according to claim 1 or 2,
The image processing unit
An electronic camera, wherein the image processing applied to the image is changed using the distance map as a mask.
前記画像処理部は、
前記距離マップをマスクとして、遠距離の画面領域ほど明るく輝度補正する
ことを特徴とする電子カメラ。 The electronic camera according to claim 3.
The image processing unit
An electronic camera, wherein the distance map is used as a mask and brightness correction is performed brighter for a screen area at a longer distance.
前記画像処理部は、
前記距離マップをマスクとして、遠距離の画面領域ほど暗く輝度補正する
ことを特徴とする電子カメラ。 The electronic camera according to claim 3.
The image processing unit
An electronic camera, wherein the distance map is used as a mask and brightness correction is made darker as the screen area is far away.
前記画像処理部は、
前記撮像制御部によって生成された複数の画像について、位置合わせをして合成画像を生成する機能を有する
ことを特徴とする電子カメラ。 The electronic camera according to any one of claims 3 to 5,
The image processing unit
An electronic camera having a function of aligning a plurality of images generated by the imaging control unit and generating a composite image.
請求項1ないし請求項6のいずれか1項に記載の前記画像処理部、前記ズレ検出部、および前記距離マップ作成部として機能させるための画像処理プログラム。 A computer to which a plurality of images generated by photographing a plurality of times with an imaging unit are input,
The image processing program for functioning as the said image processing part of any one of Claim 1 thru | or 6, the said shift | offset | difference detection part, and the said distance map preparation part.
前記複数の画像を比較して局所的な画像ズレ幅を画面内の複数箇所について検出するステップと、
複数箇所の前記画像ズレ幅に基づいて画面内をグループ分けし、画面内における被写体距離の違いを表す距離情報(以下『距離マップ』という)を作成するステップと
を備えたことを特徴とする画像処理方法。
Acquiring a plurality of images generated by shooting a plurality of times in the imaging unit;
Comparing the plurality of images and detecting a local image shift width for a plurality of locations in the screen;
A step of grouping the screen based on the image misalignment widths at a plurality of locations and creating distance information (hereinafter referred to as “distance map”) indicating a difference in subject distance within the screen. Processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005095626A JP2006279546A (en) | 2005-03-29 | 2005-03-29 | Electronic camera, image processing program, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005095626A JP2006279546A (en) | 2005-03-29 | 2005-03-29 | Electronic camera, image processing program, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006279546A true JP2006279546A (en) | 2006-10-12 |
Family
ID=37213820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005095626A Withdrawn JP2006279546A (en) | 2005-03-29 | 2005-03-29 | Electronic camera, image processing program, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006279546A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010219741A (en) * | 2009-03-16 | 2010-09-30 | Nikon Corp | Imaging apparatus and image processor |
JP2011002814A (en) * | 2009-05-19 | 2011-01-06 | Nikon Corp | Camera |
JP2011239195A (en) * | 2010-05-11 | 2011-11-24 | Sanyo Electric Co Ltd | Electronic apparatus |
CN102576456A (en) * | 2009-07-31 | 2012-07-11 | 伊斯曼柯达公司 | Digital image brightness adjustment using range information |
JP2013201500A (en) * | 2012-03-23 | 2013-10-03 | Samsung Techwin Co Ltd | Image processing device and image processing method |
CN106067949A (en) * | 2015-04-21 | 2016-11-02 | 三星钻石工业股份有限公司 | Camera head |
JP2016195423A (en) * | 2016-06-28 | 2016-11-17 | 株式会社ニコン | Imaging apparatus |
JP2017050830A (en) * | 2015-09-04 | 2017-03-09 | パナソニックIpマネジメント株式会社 | Luminaire, illumination system and program |
JP2018033156A (en) * | 2017-10-05 | 2018-03-01 | 株式会社ニコン | Image processing apparatus and imaging apparatus |
JP2019193314A (en) * | 2019-08-09 | 2019-10-31 | 株式会社ニコン | Imaging apparatus |
WO2020084894A1 (en) * | 2018-10-24 | 2020-04-30 | ソニー株式会社 | Multi-camera system, control value calculation method and control device |
-
2005
- 2005-03-29 JP JP2005095626A patent/JP2006279546A/en not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010219741A (en) * | 2009-03-16 | 2010-09-30 | Nikon Corp | Imaging apparatus and image processor |
JP2011002814A (en) * | 2009-05-19 | 2011-01-06 | Nikon Corp | Camera |
CN102576456A (en) * | 2009-07-31 | 2012-07-11 | 伊斯曼柯达公司 | Digital image brightness adjustment using range information |
JP2013501264A (en) * | 2009-07-31 | 2013-01-10 | イーストマン コダック カンパニー | Brightness adjustment of digital images using range information |
JP2011239195A (en) * | 2010-05-11 | 2011-11-24 | Sanyo Electric Co Ltd | Electronic apparatus |
JP2013201500A (en) * | 2012-03-23 | 2013-10-03 | Samsung Techwin Co Ltd | Image processing device and image processing method |
CN106067949A (en) * | 2015-04-21 | 2016-11-02 | 三星钻石工业股份有限公司 | Camera head |
JP2016208234A (en) * | 2015-04-21 | 2016-12-08 | 三星ダイヤモンド工業株式会社 | Imaging device |
JP2017050830A (en) * | 2015-09-04 | 2017-03-09 | パナソニックIpマネジメント株式会社 | Luminaire, illumination system and program |
JP2016195423A (en) * | 2016-06-28 | 2016-11-17 | 株式会社ニコン | Imaging apparatus |
JP2018033156A (en) * | 2017-10-05 | 2018-03-01 | 株式会社ニコン | Image processing apparatus and imaging apparatus |
WO2020084894A1 (en) * | 2018-10-24 | 2020-04-30 | ソニー株式会社 | Multi-camera system, control value calculation method and control device |
JP2019193314A (en) * | 2019-08-09 | 2019-10-31 | 株式会社ニコン | Imaging apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3925513B2 (en) | Auto focus adjustment of projector | |
US7397500B2 (en) | Camera shake warning and feedback system that teaches the photographer | |
US8773529B2 (en) | Projector with automatic focusing and illustration procedure | |
US20030002746A1 (en) | Image creating device and image creating method | |
US20150185434A1 (en) | Image pickup apparatus, control method thereof, and program | |
US7379091B2 (en) | Method and apparatus for computing an image stability measure | |
JP2004212385A (en) | Photographic device, photographing method and control method for the photographic device | |
JPH09181913A (en) | Camera system | |
US8059183B2 (en) | Image sensing apparatus and method for controlling the same | |
JP2003241072A (en) | Camera | |
US9894339B2 (en) | Image processing apparatus, image processing method and program | |
JP2005003813A (en) | Imaging apparatus, imaging system and imaging method | |
JP2003169246A (en) | Camera | |
JP2006279546A (en) | Electronic camera, image processing program, and image processing method | |
WO2013171840A1 (en) | Imaging apparatus, and imaging apparatus control method | |
US11808561B2 (en) | Electronic apparatus for controlling a projector to project an image onto a screen at an actual size length, control method thereof and computer readable storage medium | |
JP2013141105A (en) | Image processing device, electronic camera, and image processing program | |
JP6381206B2 (en) | Image processing apparatus, control method thereof, and program | |
JP2021127998A (en) | Distance information acquisition device and distance information acquisition method | |
JP2021182698A (en) | Imaging apparatus and method for controlling the same | |
JP2012151597A (en) | Camera and camera system | |
JP2011114442A (en) | Electronic camera | |
JP2006324760A (en) | Imaging apparatus | |
JP2015045759A (en) | Imaging device and control method of the same | |
JP5981898B2 (en) | Imaging apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080603 |