JP2011128623A - 信頼基準を有するオートフォーカス - Google Patents
信頼基準を有するオートフォーカス Download PDFInfo
- Publication number
- JP2011128623A JP2011128623A JP2010284033A JP2010284033A JP2011128623A JP 2011128623 A JP2011128623 A JP 2011128623A JP 2010284033 A JP2010284033 A JP 2010284033A JP 2010284033 A JP2010284033 A JP 2010284033A JP 2011128623 A JP2011128623 A JP 2011128623A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- focus
- variance
- autofocus
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/02—Mountings, adjusting means, or light-tight connections, for optical elements for lenses
- G02B7/04—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
- G02B7/10—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
- G02B7/102—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens controlled by a microcomputer
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B3/00—Focusing arrangements of general interest for cameras, projectors or printers
- G03B3/10—Power-operated focusing
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2205/00—Adjustment of optical system relative to image or object surface other than for focusing
- G03B2205/0053—Driving means for the movement of one or more optical element
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Abstract
【課題】画像取得技術、特に、自動画像合焦機構を提供する。
【解決手段】オートフォーカスが、各焦点調節反復時に以前のピンぼけ差深度推定値の加重和に応答して実行される。分散も、過去及び現在の両方の推定にわたって判断され、所定の画像に対して現在の焦点位置に関する信頼基準を提供する。フォーカス調節は、分散が、適正焦点が達成されたという信頼性を示すほど十分に低くなるまで繰り返される。本方法は、次のレンズ位置を判断するために最も最近の深度推定を利用するもののような最良の現在の深度ベースの技術によって達成されるものよりも正確かつ迅速な合焦を提供する。それとは対照的に、本発明の装置及び方法は、オートフォーカス処理における全ての以前の深度推定結果を結合し、統計モデル及び信頼基準に基づいて次のレンズ位置を判断する。
【選択図】図1
【解決手段】オートフォーカスが、各焦点調節反復時に以前のピンぼけ差深度推定値の加重和に応答して実行される。分散も、過去及び現在の両方の推定にわたって判断され、所定の画像に対して現在の焦点位置に関する信頼基準を提供する。フォーカス調節は、分散が、適正焦点が達成されたという信頼性を示すほど十分に低くなるまで繰り返される。本方法は、次のレンズ位置を判断するために最も最近の深度推定を利用するもののような最良の現在の深度ベースの技術によって達成されるものよりも正確かつ迅速な合焦を提供する。それとは対照的に、本発明の装置及び方法は、オートフォーカス処理における全ての以前の深度推定結果を結合し、統計モデル及び信頼基準に基づいて次のレンズ位置を判断する。
【選択図】図1
Description
関連出願への相互参照
適用なし
適用なし
連邦政府委託研究又は開発に関する陳述
適用なし
適用なし
コンパクトディスクで提出された内容の引用による組込み
適用なし
適用なし
著作権保護を受ける内容の通知
この特許文献中の内容の一部は、米国及び他の国の著作権法に従って著作権保護を受ける。著作権の権利の所有者は、米国特許商標局の一般公開ファイル又は記録中に現れる時の特許文献又は特許開示内容の何人による複製にも異議がないが、それ以外は、いかなる著作権も全て保有する。著作権所有者は、以下に限定されるものではないが、37C.F.R.§1.14に従ったその権利を含むこの特許文献を秘密に付しておくその権利のいずれも放棄するものではない。
この特許文献中の内容の一部は、米国及び他の国の著作権法に従って著作権保護を受ける。著作権の権利の所有者は、米国特許商標局の一般公開ファイル又は記録中に現れる時の特許文献又は特許開示内容の何人による複製にも異議がないが、それ以外は、いかなる著作権も全て保有する。著作権所有者は、以下に限定されるものではないが、37C.F.R.§1.14に従ったその権利を含むこの特許文献を秘密に付しておくその権利のいずれも放棄するものではない。
本発明は、一般的に画像取得に関し、より具体的には、自動画像合焦機構に関する。
カメラ及び他の光デバイスは、典型的には、被写体上の正しい焦点を取得する自動化された機構を提供する。通常、オートフォーカス(AF)は、途中までのようなシャッター−トリガをある程度押すことに応答して作動する。一部の場合には、オートフォーカス機能は、画像を捕捉する前又は画像シーケンス又は映像を捕捉する間に焦点を連続的に維持する。
オートフォーカス中、カメラレンズは、3次元の場面上に自動的に合焦し、焦点は、深度に対して制御されることが認められるであろう。多くのオートフォーカス機構が、当業技術で公知である。1つの従来のオートフォーカス方式では、オートフォーカス曲線のピークを捜す。一実施形態では、カメラは、画像勾配から得られたオートフォーカス曲線を利用する。分析の領域が益々合焦すると、画像勾配は益々大きくなる。オートフォーカスアルゴリズムの目的は、必要とするカメラ焦点位置の数を最小にしながら、オートフォーカス曲線のピークに到達することである。しかし、既存の機構は、適正な焦点上に決して収束することができず、かつそれらは、作動が遅いことが多く、又は適正焦点位置を「捜し」続ける場合がある。
望ましい画像を捕捉する1つの重要な測定基準は、それが適正に合焦されることである。適正カメラ焦点を推定又は達成する多くのシステムが開発されている。カメラレンズシステムは、いくつかの関連の要素及び特性を有するので、次に、これらの要素及びそれらの関連の特性を簡単に説明する。
一般的に、写真レンズの2つの主要な光学パラメータは、最大絞り及び焦点距離である。焦点距離は、所定の被写体までの距離(被写体−距離)に対して視角及びの物体(被写体)のサイズに対する画像のサイズを判断する。最大絞り(f数又はfストップ)は、所定の設定に対して使用可能な画像の明るさ及び最速シャッター速度を制限し(焦点距離/有効口径)、数字が小さいほど、典型的には簡単なデジタルカメラ内の画像センサの面と考えることができる焦点面に与えられる光が多いことを示している。
技術的に単一要素を有するレンズである1つの形態の典型的な単一レンズは、単一焦点距離を有し、「プライムレンズ」とも呼ばれる。単一焦点レンズを使用してカメラを合焦させる際には、レンズと焦点面の間の距離が変更され、これは、写真の被写体画像が焦点面上へ誘導される焦点の変更をもたらす。すなわち、単焦点レンズは、固定の光学的関係及び焦点距離を有するが、それは、カメラにおいて集束範囲スパンにわたって被写体上に合焦させるために使用される。その結果、焦点面に関連してそのレンズの位置を調節すると焦点距離が変わるそのレンズを使用するカメラで取得することができる焦点距離の範囲とレンズの固定焦点距離を混同すべきではない。
単焦点レンズを使用する際には、望ましいシャッター速度に対して光量を選択するために絞りを調節し、次に、焦点距離とも呼ばれる被写体−距離に従って焦点を調節し、次に、画像を捕捉する。多くの場合、それ以外では単焦点レンズには、マクロ設定には、接写を行うための異なる焦点距離選択が設けられている。望遠レンズは、遠距離物体からの画像でフレームを満たすために高い倍率で非常に狭い視角を提供する。
多焦点レンズは、通常、「ズーム」レンズと呼び、その理由は、画像倍率を場合によって「ズーム式」又は「非ズーム式」とすることができるからである。ズームレンズにより、ユーザは、被写体の倍率の量を選択するか、又は言い換えれば、被写体がフレームを満たす程度を設定することができる。これらのレンズ又はカメラ−レンズシステムのズーム機能は、概念的には焦点制御及び絞り制御の両方から別のものであることを理解することが重要である。
利用されるのが単焦点レンズか多焦点レンズかに関わらず、所定の被写体−距離が得られるように適正にレンズを合焦させることが必要である。所定の焦点設定に対して満足できる焦点範囲は、物体空間又は被写体空間において満足できる鮮明度の深度の測定値である「被写界深度」と呼ばれる。例えば、15フィートの被写体距離では、高解像度カメラの満足できる焦点範囲は、インチの程度とすることができ、一方、最適焦点には、より多くの精度を必要とする可能性がある。被写界深度は、合焦が中間距離から、言うまでもなくその範囲では無制限の被写界深度を有する「無限大」(例えば、遠くの山々、雲のような画像を捕捉する)に向けて移動する時に増加することが認められるであろう。
所定の絞り設定の単焦点レンズに対して、カメラから被写体まで所定の距離(被写体−距離)に対して単一の最適焦点設定が存在することになる。カメラの焦点距離より近いか又は遠い被写体の各部は、被写界深度に影響を与える多くのファクタに依存して、何らかのピンぼけの尺度に従って捕捉された画像内に現れることになる。しかし、多焦点レンズにおいては、そのレンズにより取得することができる各レンズ倍率(レンズ焦点距離)に対して最適焦点が存在する。実用性を増大させるために、レンズ製造業者は、ズーム設定に応答して再合焦する必要性を大幅に低減したが、再合焦が必要であるか否かは、使用時の特定のカメラ−レンズシステムに依存する。更に、絞り設定には、異なるレベルのズーム倍率に応答して変更が必要である可能性がある。
本来、カメラの焦点は、カメラを操作する人の認識及び手動により焦点調節に応じてしか判断及び補正することができなかった。しかし、結果に対する焦点の極めて重要な性質のために、合焦の補助手段がすぐに採用された。ごく最近では、撮像デバイスは、被写体に対して自動的に合焦させる機能、すなわち、今日では、一般的に「オートフォーカス」という機能を備えている。多くの既存のオートフォーカス機構の各々は欠点及び妥協を有するために、合焦方法は、引き続き激しい技術開発の項目となっている。
2つの一般的な形式のオートフォーカス(AF)システム、すなわち、能動オートフォーカス及び受動オートフォーカスが存在する。能動オートフォーカスにおいては、1つ又はそれよりも多くの画像センサを利用して焦点までの距離を判断するか又は他の方法で画像捕捉レンズシステムの外部にある焦点を検出する。能動AFシステムは、迅速な合焦を行うことができるが、それらは、一般的に、窓を通じて又は他の特定の用途において合焦しないことになり、その理由は、音波及び赤外線光がガラス及び他の表面により反射されるからである。受動オートフォーカスシステムにおいては、表示された画像の特性を使用して焦点を検出して設定する。
高性能SLRカメラの大半では、現在、レンズを通じた光学AFセンサを使用しており、これらのセンサは、例えば、露出計としても利用することができる。これらの最新のAFシステムの合焦機能は、多くの場合に、普通のファインダを通じて手動で達成するよりも高い精度になる可能性がある。
1つの形態の受動AFは、ビームスプリッタを通じて入射光を画像の対に分割してAFセンサ上でそれらを比較することによるような位相検出を利用する。2つの光学プリズムは、レンズの両側から来る光線を捕捉してAFセンサに向け、レンズの直径と同一のベースを有する簡単な距離計を作成する。焦点は、物体が焦点の前か又は適正焦点位置の後部にあると見なされるかを判断するために計算した類似の光の強度パターン及び位相差の有無を検査することに応答して判断される。
別の形式の受動AFシステムにおいては、コントラスト測定が、レンズを通じてセンサ視野内で行われる。システムは、一般的に正しい画像焦点を示す隣接ピクセル間の強度差を最大にするように焦点を調節する。すなわち、合焦は、最大レベルのコントラストが得られるまで行われる。この形式の合焦は、特に、弱い光の下で作動する時には能動AFより速度が遅いが、低価格の撮像デバイスにおいて利用される一般的な方法である。
受動システムは、低コントラスト条件、特に、大きな単色面で(固体面、空など)又は暗い条件で焦点判断を行うことが劣っていることで有名である。受動システムは、被写体に対するある一定の照明(自然であるか否かに関わらず)に依存し、一方、能動システムは、必要な時には暗黒においてさえも正しく合焦させることができる。
従って、より確実にカメラの合焦を制御するシステム及び方法に対する必要性が存在する。これらの必要性及び他のものは、以前に開発されたオートフォーカスシステム及び方法の欠点を克服する本発明の範囲内で満足される。
本発明は、既存の機構よりも容易かつ正確に適正焦点を取得することができる画像適合オートフォーカス方法を教示する。本発明者の関連のオートフォーカスシステムの1つは、次のレンズ位置を判断するために最も最近の深度推定結果を利用する関連の2画像適合方法である。本方法は、適合曲線が滑らかな時に極めて良好に機能する。しかし、頻繁に発生するが、適合曲線がノイズを有する時、焦点精度及び速度性能は劣化する。本発明は、これらの欠点を克服する新しいオートフォーカス方法を教示するものである。2つの画像の関係に基づいて合焦させるのではなく、本発明は、オートフォーカス中に現在と過去(例えば、この画像に関する全ての深度推定)の深度推定結果を結合する新しい手段を利用して統計モデル及び信頼基準に基づいて次のレンズ位置を判断する。本発明は、適合曲線がノイズを有する時でさえも焦点精度及び速度を大幅に改善するものである。本発明は、(1)最も最近のもののみの代わりに、現在及び過去(例えば、この画像の全ての以前の予測)の予測レンズ位置を使用して予測の精度を改善し、(2)オートフォーカス中に予測レンズ位置の信頼基準を生成することにより、現実世界条件においてオートフォーカス方法の使用性を広げるものである。
本発明は、以下の説明を含むがこれらに限らずいくつかの方法で具現化することが容易である。
本発明の一実施形態は、(a)撮像デバイス及び関連の焦点制御要素を制御するように構成されたコンピュータプロセッサと、(b)コンピュータプロセッサに結合されたメモリと、(c)(c)(i)対象画像を捕捉する段階、(c)(ii)捕捉された画像対間の深度を推定する段階、(c)(iii)深度の重み付き平均とこの画像に関する現在及び以前の収集画像対にわたる分散とを判断する段階、(c)(iv)深度の重み付き平均に応答して焦点を調節する段階、及び(c)(v)分散が適正焦点の十分な信頼性が得られたことを示す値に到達するまで上述の段階を繰り返す段階を含むオートフォーカス段階を実行するためのコンピュータプロセッサによって実行可能なメモリ上のプログラミングとを含むオートフォーカスを制御する装置である。本発明は、すなわち、最も最近の深度推定のみを使用する代わりに、全ての以前の深度推定結果を結合することに応答してプログラミング段階の各反復において焦点を調節する。更に、本発明の少なくとも1つの実施形態は、好ましくは、過大数のレンズ焦点移動を検出することに応答するように構成され、かつ合焦処理を終了し、推定結果に大きな分散を割り当て、反復数をリセットしてオートフォーカスを続行し、現在の深度推定を廃棄し、新しい深度推定を計算する別の対の画像を撮像するか、又は適正焦点を取得することに向けて別の代案を実行するかのいずれかを行うように構成される。
本発明により、画像対の2つの画像間のピンぼけ差の量を判断して実際の深度を推定することに基づいて、対の各画像が異なる焦点距離で撮像された捕捉した画像対間で深度が推定される。本発明の少なくとも1つの実施形態では、深度は、被写体深度の最尤推定量(MLE)を用いて推定される。少なくとも1つの実施形態では、深度は、次式によって与えられる重み付き平均を用いて推定される。
Nは、オートフォーカス中のレンズ移動の数を表し、N個のバイアスなしの深度推定結果d1、...、dNは、di〜N(μ,σi 2)で取得したものであり、μは、実際の被写体深度であり、diは、距離であり、σi 2は、分散であり、μの「最尤推定量(MLE)」は、重み付き平均によって与えられる。分散は、予測レンズ位置が最適焦点を提供するという信頼基準として各焦点反復を用いて判断される。少なくとも1つの実施形態では、重み付き平均の分散は、以下によって与えられる。
Nは、オートフォーカス中のバイアスなしの深度推定結果の数を表している。
コンピュータプロセッサ、撮像デバイス、及びフォーカス制御を含むような本発明の実施形態は、静止画像カメラ内に、又は作動的態様においてそれほど好ましくはないが、ビデオカメラ内に又は静止及びビデオ画像カメラの組合せに組み込むことができる。
本発明の一実施形態は、(a)撮像デバイスと、(b)撮像デバイスに結合された焦点制御要素と、(c)撮像デバイス及び焦点制御要素に結合されたコンピュータプロセッサと、(d)コンピュータプロセッサに結合されたメモリと、(e)(e)(i)対象画像を捕捉する段階、(e)(ii)捕捉された画像対間の深度を推定する段階、(e)(iii)深度の重み付き平均と過去及び現在の収集画像対にわたる分散とを判断する段階、(e)(iv)深度の重み付き平均に応答して焦点を調節する段階、及び(e)(v)分散が、適正焦点の十分な信頼性が得られたことを示す値に到達するまで上述の段階を繰り返す段階を含むオートフォーカス段階を実行するためのコンピュータプロセッサ上で実行可能なプログラミングとを含む画像を電子的に捕捉する装置である。捕捉された画像対間の深度の推定は、好ましくは、被写体距離がカメラの焦点範囲の少なくとも一部を通じて変化する時に検出されるコントラスト変化に応答して判断されたピンぼけ差に基づく焦点適合モデル(あらゆる望ましい形式の)に応答して実行される。
本発明の一実施形態は、(a)カメラデバイスにより第1の対象画像を捕捉する段階と、(b)カメラデバイスにより付加的な対象画像を捕捉する段階と、(c)捕捉された対象画像間のピンぼけ差を焦点適合モデルに入力することに応答して捕捉画像対の間の深度を推定し、モデルを解いて対象まで距離の推定を生成する段階と、(d)深度の重み付き平均と過去及び現在の収集画像対にわたる分散とを判断する段階と、(e)深度の重み付き平均に応答してオートフォーカス処理においてカメラ焦点位置を調節する段階と、(f)分散が、適正焦点を達成する際の十分な信頼性を示す値(例えば、分散閾値未満)に到達するまで段階(b)から(e)を繰り返す段階とを含むカメラ焦点を自動的に調節する方法である。少なくとも1つの実施形態では、段階(b)〜(e)の反復数が望ましい閾値を超えたと判断された時に、オートフォーカス処理は、(e)(i)現在の焦点位置でオートフォーカスを終了する段階、又は(e)(ii)推定結果に大きな分散を割り当ててオートフォーカス処理を続行する段階、又は(e)(iii)現在の深度推定を廃棄して新しい深度推定を計算するための1つ又はそれよりも多くの付加的な写真を撮る段階を実行することによって変更される。
本発明は、本教示内容を逸脱ことなく別々に又はあらゆる望ましい組合せで実施することができるいくつかの有益な態様を提供する。
本発明の態様は、画像取得中のオート画像フォーカス(AF)である。
本発明の別の態様は、オートフォーカス(AF)機構の精度を増大させることである。
本発明の別の態様は、オートフォーカス(AF)中に必要なレンズ運動の量を低減することである。
本発明の別の態様は、適正焦点が高いレベルの信頼性で達成されるようにAF機構に関する判断を高めることである。
本発明の別の態様は、最も最近の推定を使用する代わりに、ピンぼけ差に基づく以前の距離推定の加重和に基づいてオートフォーカスを行うことである。
本発明の別の態様は、合焦の反復の程度及び適正焦点を保証するために他のアクションを取る必要があるか否かを制御するのに利用することができる信頼基準をオートフォーカス処理の各段階で生成することである。
本発明の別の態様は、撮像デバイスと捕捉画像を処理するようになったコンピュータプロセッサとで構成されたあらゆる撮像デバイスに実施することができるオートフォーカス方法である。
本発明の更に別の態様は、あらゆる形式のスチールカメラに実施することができるオートフォーカス方法である。
本発明の更に別の態様は、詳細説明が制限を設けることなく本発明の好ましい実施形態を完全に開示することを目的としたものである本明細書の以下の各部で説明する。
本発明は、単に例示目的である以下の図面への参照によってより完全に理解されるであろう。
図面を更に具体的に参照すると、例示を目的として、本発明は、図1〜図15に全体的に示す装置に実施される。装置は、構成に関してかつ各部の詳細に関して異なる場合があり、かつ本方法は、本明細書で開示する基本的な概念から逸脱することなく、特定の段階及びシーケンスに関して変わる場合があることが認められるであろう。
既存の2画像適合を利用するオートフォーカスでは、オートフォーカスに向けて最も最近の深度推定結果を使用するが、ノイズがある適合曲線を適正に処理することはできない。目的は、合焦精度を改善して、ノイズのある状況下でレンズ移動の数を低減する方法を開発することである。この目的は、オートフォーカス中に現在と過去の(例えば、この画像に関する全ての深度推定)深度推定結果を結合することによってもたらすことができる。
1.ピンぼけ差
被写体が合焦されている時、捕捉された画像は最も鮮明である(最も高いコントラストを有する)。レンズが合焦されている位置から離れる時にピンぼけが発生する(コントラストが少なくなる)。一般的に、2つの画像を2つの異なる焦点距離で撮像した時、被写体距離に近い方で撮像した画像の方が、他方よりも鮮明である。画像を撮像する焦点距離及びこれらの2つの画像間のピンぼけ差の量を利用して、実際の被写体距離又は深度を推定することができる。
図1は、所定の撮像装置(例えば、カメラの特定の銘柄又はモデル)を特徴付ける時に、較正ターゲット(又は被写体)の複数の画像を異なる焦点位置(被写体−距離)で捕捉する実施形態10を示している。最小焦点距離14から無限大16まで焦点を調節することができる撮像デバイス(カメラ)12が示されている。最小焦点距離14(例えば、この場合は35cm)、並びに無限大16での焦点が示されている。本発明により、焦点は、焦点経路24に沿って既知の光学特性を有するステップエッジ画像、スレート、目盛り、又は類似のターゲットのような較正ターゲット22上で第1の焦点位置18に、次に、第2の焦点位置20に収束する。一例として、カメラの集束距離は、最小焦点距離(例えば、35cm)と無限大の間の範囲である。
図2Aは、被写体32が合焦されている条件30を示しており、捕捉した画像データは、ステップエッジの「エッジプロフィール」とも呼ばれる鮮明なコントラスト曲線34により表されるように最も鮮明である。較正ターゲット又は被写体は、単にコントラストに基づいて焦点の鮮明度を判断する機構になることが好ましいことが認められるであろう。例えば、ステップエッジターゲットにおいては、明瞭なステップエッジの描写は、少なくとも2つの色、色相、輝度の間で行われ、焦点の鮮明度は、コントラストプロフィールの鮮明度から容易に判断することができる。ターゲットは、ビデオ補捉及び出力の異なる態様を試験する際の異なる彩度キー及び色バーパターンの使用と同様に、いくつかの異なる方法のいずれかで形成することができることが当業者により認められるであろう。
図2Bは、レンズが「合焦」位置から離れる時に物体38の画像がぼける条件36を示しており、得られる傾斜したコントラスト曲線40が示されている。一般的に、2つの画像を2つの異なる焦点距離で撮像した時、被写体距離に近い方で撮像した画像の方が、他方よりも鮮明である。画像を撮像する焦点距離及びこれらの2つの画像間のピンぼけ差の量を利用して、実際の被写体距離又は深度を推定することができる。
2つの画像fA及びfBをfAがfBより鮮明な条件で位置A及びBで撮像する場合を考える。ピンぼけの変化は、位置AからBまで点広がり関数Pによりモデル化することができる。
fA *P=fB
ここで、*は、2次元畳み込みの演算を示している。更に、点広がり関数Pは、ピンぼけカーネルKによる一連の畳み込みを使用することによって近似することができる。
P=K*K*...*K (1)
fA *P=fB
ここで、*は、2次元畳み込みの演算を示している。更に、点広がり関数Pは、ピンぼけカーネルKによる一連の畳み込みを使用することによって近似することができる。
P=K*K*...*K (1)
本明細書で行う試験においては、カーネルKは、以下として選択される。
次に、fAとfB間のピンぼけ差の量は、式(1)の畳み込みの回数より測定することができる。実際の実施においては、ピンぼけ差は、反復処理により取得する。
ここで、‖.‖は、fAとfBの間のピンぼけ適合誤差を評価するノルム演算子を示している。
2.適合曲線
適合曲線は、反復数とレンズ焦点位置の関係である。所定の深度のための適合曲線を取得するために、一連の画像をレンズの焦点範囲全体に対して撮像し、次に、ピンぼけ差を2つの画像毎にその間に計算する。シーケンスの第1の画像は、無限大の焦点距離で撮像し、次に、レンズが最小焦点距離に到達するまで、レンズが1つの被写界深度で焦点に接近する度に1つの画像を撮像する。画像のこのシーケンスをf0、f1、...、fN-1によって示し、ここで、Nは、シーケンスの長さである。
図4及び図5は、一部の統計モデルに適合するノイズを有するデータ(図4)及びあらゆる統計モデルに適合しない異常値(図5)を示す異なる適合曲線を示している。
図4は、反復数と焦点範囲にわたる焦点位置の関係として適合曲線を示す例示的な試験結果のグラフを示している。一例としてかつ非制限的に、このシーケンスは、被写体がステップエッジ画像で焦点距離175mm(35mm相当)及び絞りf4.4でソニー製DSC−T200カメラにより撮像したものである。一例として、捕捉した画像の解像度は、この例においては、320x240ピクセルに縮小した。この例に対して、fi及びfi+4のピンぼけ差は、1=0、...、N−5に対して計算した。ピンぼけ差値の符号は、いずれの画像がより鮮明であるかを示す有利な手段になることを認めるべきである。符号が+である場合、fiは、fi+4より鮮明である。そうでなければ、すなわち、符号が−である負の場合、fi+4の方が鮮明である。
図4の「画像数」軸は、反復数が計算される画像対を示している。この例においては、画像数iは、反復数がfi-2とfi+2の間に計算されることを意味する。反復の数の絶対値は、レンズ焦点位置が被写体距離から離れる時に増加することがわかる。ゼロ交差点(図4内の画像数33付近で交差すると図示)は、被写体が合焦されている位置である。
図5は、異常値の計算に対する応答をもたらすような反復数と焦点位置の「不良な」関係を示す例示的な試験結果のグラフを示している。これらの結果は、適切なシステム応答を適正にモデル化していないので「不良」と呼ばれる。このデータのような「不良」データに遭遇した時の一般的なオートフォーカス機構は、適正焦点をもたらすことができないことは驚くべきことではない。
3.深度推定及びオートフォーカス
深度推定は、適合曲線の特性に応答して実行される。特性は、線形勾配又は多項式によりモデル化することができることが認められるであろう。オートフォーカス中、異なる焦点位置で画像を撮像する。各々の2つの画像間のピンぼけ差を計算して、適合曲線モデルを利用して深度を推定する。
オートフォーカス用途に対しては、従来は、推定距離でレンズを焦点まで移動させ、次に、新しい深度を同様に推定する。この手順は、次に、反復数が、ゼロ(合焦)又は代替的に何らかの指定の閾値未満に収束するまで繰り返される。これらの推定距離の最高の結果は、最も最近の深度推定であると考えられている。しかし、この「最も最近の推定」手法には、いくつかの欠点がある:(1)収束が保証されない、(2)次の深度推定でより多くの精度が得られるという保証がない、(3)特に適合曲線がノイズを有する時に遅い処理である、及び(4)この方法は、ピンぼけ差結果が誤りである(例えば、異常値)状況を適正に処理しない。
本発明による方法は、非常に容易に正確な焦点に到達するためにこれらの欠点を克服するものである。
4.複数の深度推定結果の結合
深度推定誤差は、以下のように設計される。
e=d−f (4)
ここで、dは、推定被写体深度であり、fは、実際の被写体深度である。誤差eは、ガウス分布e〜N(μ,σ2)を使用してモデル化され、ここで、平均値μは、推定バイアス量を表し、一方、分散σ2は、信頼性レベルの基準である。σ2の値が小さいほど、大きな信頼性が推定結果によって得られる。
e=d−f (4)
ここで、dは、推定被写体深度であり、fは、実際の被写体深度である。誤差eは、ガウス分布e〜N(μ,σ2)を使用してモデル化され、ここで、平均値μは、推定バイアス量を表し、一方、分散σ2は、信頼性レベルの基準である。σ2の値が小さいほど、大きな信頼性が推定結果によって得られる。
レンズ位置が実際の焦点位置から離れる時に、反復数の絶対値は増大し、深度推定結果の信頼性レベルは一般的に低くなる。
図6は、反復数が増加する時に分散がどのように増加するかを示すものであり、曲線は、5.2の分散で単一の反復(実線)を示し、26.6の分散で5回の反復(破線)を示している。反復数は、レンズ位置が焦点位置から離れる時に増加することが観測される。更に、反復数が増加する時に、曲線は、多くのノイズを伴い、推定は、信頼性が劣るようになる。
図7は、ガウス分布内の信頼区間を示している。図示の分布においては、平均値μは、バイアス量を表し、一方、分散σ2は、推定結果のうち信頼性、すなわち、信頼性レベルを計るものである。ガウス分布に対しては、値の約68%は平均から1標準偏差内にあり、約95%は、2標準偏差内にあり、約99.7%は、3標準偏差内にあることが認められるであろう。
例えば、反復数が0である時、焦点位置は、現在のレンズ位置であると推定される。推定分散は、統計データに基づいて2.60である(DSC−T200望遠レンズワイド−オープン)。標準偏差は、1.61である。推定が1.61DOF内にあるという68%信頼性が存在し、3.22DOF内に95%信頼性、4.83DOF内に99.7%信頼性が存在する。
図8は、推定誤差対反復数の平均値を示している。グラフは、平均値が、反復数が増加して11よりも多いと急激に増加することを示している。理想的には、推定は、全ての反復数に対して平均値0でバイアスなしということになる。依然として推定は、ノイズ、異常値、モデル化誤差、及び他の誤差源の存在に応答してバイアスされる。推定をバイアスなしにするには、推定結果から平均値を差し引くことが必要である。平均値は、反復数が11よりも小さい時にほぼ0である。
図9は、推定誤差の分散を示すと共に、反復数が増加する時に増加する分散を示している。分散は、この例示的な結果で見ることができるように、13〜14回の反復を超えると急激に上昇することが分かるであろう。
本発明は、1つよりも多いレンズ移動がオートフォーカスに必要な時に推定結果を結合し、従って、2つの画像だけに基づく最も最近の推定ではなく、合焦中に生成された過去及び現在の両方の推定を使用するように構成される。これに対する目的は、以下のように理解することができる。
画像のN個の対がオートフォーカス中に捕捉され、かつN個のバイアスなしの深度推定結果d1、...、dNがdi〜N(μ,σi 2)で得られたと仮定してみる。平均値μは、実際の被写体深度である。diは、i番目の画像対からの深度推定として独立したものであると仮定すると、所定のσi 2、すなわち、μの「最尤推定量(MLE)」は、重み付き平均によって与えられる。
この分散:
は、diに対するいずれの個々の分散σi 2よりも小さく、これは、重み付き平均:
によりいずれの個々のdiよりも大きい信頼性が得られることを意味する。従って、
は、最も最近の推定に依存するのではなく、オートフォーカスに使用すべきである。このオートフォーカス処理の収束条件は、
の十分な信頼性に応答して、又は
が所定の閾値を下回る時に生じる。各回の新しい推定により重み付き平均の分散が低減される。高精度の合焦の結果は、十分なレンズ移動が行われ、かつ画像が撮像された場合に取得することができる。
最も最近の推定方法を使用する時、反復レンズ移動は、前の位置に戻る時に無限ループを防止するために停止する必要があり、焦点位置への収束は決して達成されないことを認めるべきである。これとは対照的に、本発明の重み付き平均法においては、レンズ運動は、各回の推定により信頼性レベル増加及び焦点改善になるので停止する必要はない。
最も最近の推定処理に対して、収束条件は、反復数が0又はほぼ0である時に起こり、依然としてノイズを有する適合曲線に応答して適正に機能しない。しかし、本発明の重み付き平均法を使用して、オートフォーカスは、結果の十分な信頼性の達成に応答して、又は推定分散が特定の閾値未満である時に収束する。
本発明の1つの試験においては、試験結果は、ソニー製DSC−T200カメラを使用して撮像した257個の自然な場面シーケンスに応答して発生させた。シーケンスは、異なる照明条件、屋内及び屋外、及び細密テクスチャ及び粗いテクスチャなどに及ぶものであった。これらのシーケンスのうちの37個は、統計モデルを構築するには異常値が多過ぎたので別々に処理した。残りのシーケンスのうちの219個は、より良好であるが依然としてノイズを有するシーケンスであることが判明した。これらのうちの109個のシーケンスをトレーニングのために(平均及び分散の計算)無作為に選択し、残りの110個のシーケンスは、試験のために使用した。これらの試験においては、閾値推定分散は、4被写界深度(DOF)内で95%信頼性が得られる4.0に設定された。
図10は、本発明による重み付き平均推定(実線)を最も最近の推定(破線)と比較する試験結果を示している。これらの結果から、合焦誤差は、本発明の方法を使用すると低減され、合焦誤差は、遥かに少なくなったことを見ることができる。より注意して見ると、重み付き平均方法に対して、AF結果の97.5%が4DOF内で得られたことが見られる。しかし、最も最近の推定方法(現地試験において使用される今回の実施例)は、4DOF内でAF結果の87.4%のみを提供する。この方法の推定誤差を補正すると、4DOF内でのAF結果の90.6%が得られる。本発明の重み付き平均推定方法を用いて、性能の実質的な改善が明らかである。
図11は、重み付き平均推定処理(実線)と最も最近の推定方法(破線)の比較を示している。精度はさておき、合焦に関する別の重要な測定基準には、焦点位置をもたらす際に必要とされるレンズ運動の量が含まれることが認められるであろう。
重み付き平均推定に応答して、レンズ移動の平均数は、2.92であり、画像の平均数2.92個の対として捕捉されたものであった。しかし、最も最近の推定方法を使用して、レンズ移動の平均数は、5.66であり、画像の平均数は、6.66個の対として捕捉されたものであった。従って、最も最近の推定技術を使用して必要とされるものに対して、本発明で必要とするレンズ移動及び画像捕捉は遥かに少なくなる(例えば、ほぼ1/2ほども少なくなる)。
5.信頼性のない深度推定
深度推定結果が無作為な「見当」を使用することと同じである場合、その推定は、信頼性なし(ゼロ信頼性)をもたらす。技術的には、信頼性のレベルは、分散が無限大(一様な分布)である時にゼロである。
図12は、一例としてかつ制限なく選択した望遠レンズ付きソニー製DSC−T200カメラの合焦範囲での71個の画像数(DOF)を示している。推定結果が焦点位置に対して18DOF以内である(36DOF間隔又は合焦範囲の半分)という確率が僅か50%である場合、これは、信頼性のない推定である。
図13は、反復数に対する18DOF内の適合する結果の百分率としての深度推定の頻度を示している。推定の分散は、反復数が増加する時に増加することを見ることができる。反復数の閾値は、従って、結果が無作為見当と同じになる点又はその前の点で確立されることが好ましい。この例に対して、反復数が約14を超えた時、推定結果に信頼性がないことを見ることができる。
最も最近の推定のような方法とは異なり、本発明の重み付き平均方法は、焦点信頼性に関する情報が得られ、すなわち、それは、オートフォーカスで不規則な結果が得られる場合があるか、又は適正焦点で収束する可能性がない時を認識し、かつその時に適切なアクションを講じることができる。以下は、信頼性なしの推定に応答して実行することができる3つの選択肢を概説する。
1.推定結果に大きな分散(例えば、1000)を割り当てて通常のオートフォーカス処理を続ける。例えば、図9は、14を超えるか又は等しい全ての反復数に1000を割り当てることによって修正することができる。
2.この結果を廃棄し、別の対の画像を撮像して新しい深度推定を計算する。
3.オートフォーカス処理を終了する。
本発明で実行する試験において、第1の選択肢を一例として選択する。焦点信頼性値を生成する機能は、本発明の教示内容を逸脱することなくいくつかの異なる方法で利用することができることを認めるべきである。
6.オートフォーカス方法の要約
本発明は、レンズ移動の各反復に対して過去及び現在の推定結果の重み付き平均の使用を教示し、かつ最も最近の推定だけに基づく推定に比べて改善を提供する。更に、本発明は、統計分散を使用し、オートフォーカス(AF)方法を制御、修正、及び/又は終了するための信頼基準を生成する。本発明は、AF精度を改善し、かつ適正焦点に到達するのに必要とされるレンズ移動数及び画像捕捉数を低減する。
図14は、本発明のオートフォーカス方法の例示的な実施形態を示している。段階50で、N=1で処理を初期化する。画像を段階52に従って撮像し、深度推定dNを段階54に従って計算する。全ての{d1、...、dN}に対して、MLE
及びその分散:
を段階56で計算する。ブロック58に従って、レンズをMLE
によって与えられる深度まで移動する。分散:
と所定の閾値の間の比較を実行する(60)。分散が段階62で判断するように閾値よりも小さい(又は代替的に、閾値に等しいか又はそれ未満の)場合、オートフォーカス処理を段階68で終了する。そうでない場合、すなわち、
の方が大きい場合、段階64で1(N=N+1)によるなどでNを増大させる。Nのサイズの検査を段階66に従って行い、Nがオートフォーカスのレンズ移動の最大許可数よりも大きい場合、オートフォーカスを終了することができ(68)、一方、そうでなければ、段階52に戻って処理を続行することができる。分散がNの最大値に到達したとしても(段階66で検出)依然として過大である場合、本発明の教示内容から逸脱することなくオートフォーカス終了以外の選択肢を選択することができることを認めるべきである。
7.オートフォーカスハードウエア実施形態
本発明は、いくつかの異なる形式の画像捕捉のいずれかを実行するように構成される様々なデバイス及びシステム上に実施することができることを認めるべきである。一例としてかつ非制限的に、以下は、カメラデバイス内の実施形態を説明する。
図15は、本発明によるオートフォーカスに向けて構成された画像捕捉デバイス(カメラ)90の例示的な実施形態90を示している。焦点/ズーム制御装置94は、コンピュータプロセッサ(例えば、1つ又はそれよりも多くのCPU、マイクロコントローラ、及び/又はDSP)96により制御される撮像光学要素92に結合されるように示されている。コンピュータプロセッサ96は、メモリ98及び/又は補助メモリ100から実行された命令に応答してオートフォーカス方法を実行する。静止画像カメラデバイスに対して、任意的な画像ディスプレイ102及びタッチスクリーン104を一例として示すが、本発明による方法は、撮像デバイス、フォーカス制御装置、コンピュータプロセッサ、及びメモリから成る様々な画像捕捉デバイス上に実施することができることが認められるであろう。ズーム、タッチスクリーン、画像ディスプレイ、非タッチ式画面インタフェース116、及び補助メモリの存在は、必ずしも本発明を実施する画像捕捉デバイス内にあるわけではなく、一般的なカメラシステムに存在する姿に示されている。
一般的に図14に示すオートフォーカスの段階は、メモリ98及び/又は補助メモリ100と組み合わせてコンピュータプロセッサ96によって実行されることを認めるべきである。
本発明は、カメラの焦点制御の方法及び装置を提供する。本発明の教示内容は、スチールカメラなどを含むオートフォーカス態様を必要とする様々なカメラ装置及び用途に応用することができる。
本発明の実施形態を本発明の実施形態による方法及びシステムの流れ図の例示を参照して説明する。これらの方法及びシステムは、コンピュータプログラム製品として実施することができる。この点に関しては、流れ図の各ブロック又は段階、及び流れ図内のブロック(及び/又は段階)の組合せは、コンピュータ可読プログラムコード論理に実施される1つ又はそれよりも多くのコンピュータプログラム命令を含むハードウエア、ファームウエア、及び/又はソフトウエアのような様々な手段によって実施することができる。認められることになるように、あらゆるこのようなコンピュータプログラム命令は、コンピュータ又は他プログラマブル機械上に実施されるコンピュータプログラム命令によって流れ図のブロック内に明記した機能を実行するための手段が作り出されるように、機械を製造するために汎用コンピュータ又は専用コンピュータ又は他のプログラマブル処理装置を含むがこれらに限定されないコンピュータ上にロードすることができる。
従って、流れ図のブロックは、指定の機能を実行するための手段の組合せ、指定の機能を実行する段階の組合せ、及び指定の機能を実行するためのコンピュータ可読プログラムコード論理手段に具現化されるようなコンピュータプログラム命令をサポートする。しかし、流れ図に例示の各ブロック及び流れ図の例示内のブロックの組合せは、指定の機能又は段階を実行する専用ハードウエアに基づくコンピュータシステム、又は専用ハードウエア及びコンピュータ可読プログラムコード論理手段の組合せによって実行することができることも理解されるであろう。
コンピュータ可読プログラムコード論理手段に実施されるようなこれらのコンピュータプログラム命令は、コンピュータ可読メモリに格納された命令により流れ図に明記する機能を実行する命令手段を含む製造品目が製造されるようにコンピュータ又は他のプログラマブル処理装置に特定の方法で機能するように指示することができるコンピュータ可読メモリに格納することができる。コンピュータプログラム命令は、コンピュータ又は他プログラマブル機械上に実施されるコンピュータプログラム命令によって流れ図のブロック内に明記した機能を実行する段階が得られるように、一連の作動段階をコンピュータ又は他のプログラマブル処理装置上で実行させてコンピュータによって実行される処理を生成するためにコンピュータ又は他のプログラマブル処理装置上にロードすることができる。
本明細書で説明する内容から、本発明は、以下を含む様々な方法で具現化することができることが認められるであろう。
1.(a)撮像デバイス及び関連の焦点制御要素を制御するように構成されたコンピュータプロセッサと、(b)コンピュータプロセッサに結合されたメモリと、(c)(i)対象画像を捕捉する段階、(ii)深度推定値に到達するように捕捉された画像対間の深度を推定する段階、(iii)深度推定値の重み付き平均及び過去及び現在の深度推定値の両方にわたる分散を判断する段階、(iv)深度推定の重み付き平均に応答して実行される合焦移動による焦点を調節する段階、及び(v)分散が、適正焦点位置がもたらされたという十分な信頼性を示す値に到達するまで、段階(i)〜(iv)を繰り返す段階を含むオートフォーカス処理を実施するためにメモリに格納されてコンピュータプロセッサによって実行可能なプログラミングとを含むオートフォーカスを制御するための装置。
2.過大数の合焦移動が実行されたと判断する段階と、現在の焦点位置でオートフォーカス処理を終了する段階とを含む段階を実行するためのコンピュータプロセッサ上で実行可能なプログラミングを更に含む実施形態1による装置。
3.過大数の合焦移動が実行されたと判断する段階と、推定結果に大きな分散を割り当ててオートフォーカス段階を実行し続ける段階とを含む段階を実行するためのコンピュータプロセッサ上で実行可能なプログラミングを更に含む実施形態1による装置。
4.過大数の合焦移動が実行されたと判断する段階と、深度推定を廃棄して、別の深度推定を作ってオートフォーカス処理を続けるべき対象画像の別の対を捕捉する段階とを含む段階を実行するためのコンピュータプロセッサ上で実行可能なプログラミングを更に含む実施形態1による装置。
5.焦点が、最近の深度推定のみを利用する代わりに、現在及び以前の深度推定を結合することによってオートフォーカス処理の各反復に応答して調節される実施形態1による装置。
6.深度推定が、捕捉された画像対の間に実行され、その各画像が、異なる焦点位置で撮像され、画像対内の捕捉画像間のピンぼけ差の量を判断することに基づいて実際の深度を推定する実施形態1による装置。
7.深度推定が、被写体深度の最尤推定量(MLE)を用いて行われる実施形態1による装置。
8.深度推定が、
によって与えられる重み付き平均;
に応答して判断され、ここで、Nは、オートフォーカス処理中のレンズ移動の数を表し、diは、i番目の画像対からの深度推定であり、σi 2は、diの分散である実施形態1による装置。
9.分散が、オートフォーカス処理中に行われた全ての深度推定の考慮に応答してコンピュータプロセッサ上で実行可能なプログラミングによって生成される信頼基準を含む実施形態1による装置。
10.分散が、オートフォーカス処理中に予測される深度推定に応答してコンピュータプロセッサ上で実行可能なプログラミングによって生成される信頼基準を含み、分散が、
によって与えられる重み付き平均:
として判断され、Nは、オートフォーカス処理中に実行されたバイアスなしの深度推定の数を表し、σi 2は、i番目の深度推定の分散である実施形態1による装置。
11.装置が静止画像カメラの構成要素である実施形態1による装置。
12.(a)撮像デバイスと、(b)撮像デバイスに結合され、かつ撮像デバイスに焦点範囲を与える焦点制御要素と、(c)撮像デバイス及び焦点制御要素に結合されたコンピュータプロセッサと、(d)コンピュータプロセッサに結合されたメモリと、(e)メモリに格納され、かつ(i)対象画像を捕捉する段階、(ii)深度推定に到達するように捕捉された画像対間の深度を推定する段階、(iii)深度推定の重み付き平均を判断し、かつ過去及び現在の収集画像対にわたる分散を判断する段階、(iv)深度推定の重み付き平均に応答して焦点を調節する段階、及び(v)分散が、適正焦点位置がもたらされたという十分な信頼性を示す値に到達するまで、段階(i)〜(iv)を繰り返す段階を含むオートフォーカス処理を実施するためにコンピュータプロセッサ上で実行可能なプログラミングとを含む画像を電子的に捕捉するための装置。
13.装置が静止画像カメラの構成要素である実施形態12による装置。
14.コンピュータプロセッサ上で実行可能なプログラミングが、画像が捕捉されている物体の被写体距離が撮像デバイスの焦点範囲の少なくとも一部を通じて変化する時に検出されたコントラスト変化に応答して判断されるピンぼけ差に基づいて焦点適合モデルに応答して捕捉画像対の間で深度を推定するように構成される実施形態12による装置。
15.コンピュータプロセッサ上で実行可能なプログラミングが、オートフォーカス処理が過大回数実行されたと判断することに応答してオートフォーカス処理を中断するように構成される実施形態12による装置。
16.コンピュータプロセッサ上で実行可能なプログラミングが、オートフォーカス処理が、分散が所定の閾値に到達することなく過大回数実行されたと判断する時に、分散に大きな値を割り当てるように構成される実施形態2による装置。
17.コンピュータプロセッサ上で実行可能なプログラミングが、オートフォーカス処理が、分散が所定の閾値に到達することなく過大回数実行されたと判断する時に、現在の深度推定を廃棄して深度推定を行うべき対象画像の付加的な対を捕捉するように構成される実施形態12による装置。
18.(a)カメラデバイスにより第1の対象画像を捕捉する段階と、(b)カメラデバイスにより付加的な対象画像を捕捉する段階と、(c)深度推定を生成するために解かれる焦点適合モデルに捕捉対象画像間のピンぼけ差の値を入力することに応答して捕捉画像対間の深度を推定する段階と、(d)深度の重み付き平均と過去及び現在の深度推定にわたる分散とを判断する段階と、(e)深度推定の重み付き平均に応答してオートフォーカス処理内のカメラ合焦移動を用いてカメラ焦点位置を調節する段階と、(f)分散が、カメラデバイスのための適正焦点位置を達成する際の十分な信頼性を示す値に到達するまで、段階(b)〜(e)を繰り返す段階とを含むカメラ焦点を自動的に調節する方法。
19.方法が静止画像カメラにおいて実施される実施形態18による方法。
20.過大数の合焦移動が実行されたと判断する段階と、現在の焦点位置でオートフォーカス処理を終了すること、分散に大きな値を割り当ててオートフォーカス処理を続行すること、及び現在の深度推定を廃棄して新しい深度推定を行うべき1つ又はそれよりも多くの付加的な対象画像を捕捉することから成るアクションの群から選択されたアクションを実行することによってオートフォーカス処理を変更する段階とを更に含む実施形態18による方法。
以上の説明には多くの詳細が含まれているが、これらは、発明の範囲を制限するのではなく、単に本発明の現在の好ましい実施形態の一部の例示を示すものと解釈すべきである。従って、本発明の範囲は、当業者に対して明らかであると考えられる他の実施形態を完全に包含し、かつ本発明の範囲は、特許請求の範囲以外のいかなるものによっても制限すべきものではなく、特許請求の範囲では、単数での要素への言及は、明示的に記載されていない限り「1つかつ1つのみ」を意味するのではなく、むしろ「1つ又はそれよりも多く」を意味することを意図することが認められるであろう。当業者に公知の上述の好ましい実施形態の要素に対する全ての構造的及び機能上の均等物は、引用により本明細書に明示的に組み込まれ、かつ本発明の特許請求の範囲により包含されるように仮定されているものである。更に、本発明により解決されるように求められる各々かつ全ての問題に対処する必要はなく、その理由は、本発明の特許請求の範囲によって包含されているからである。更に、本発明の開示内容におけるいかなる要素、構成要素、又は方法段階も、その要素、構成要素、又は方法段階が特許請求の範囲において明示的に記載されているか否かに関係なく、一般大衆に捧げられることを意図したものではない。本明細書のいかなる請求項の要素も、その要素が「のための手段」という語句を使用して明示的に記載されていない限り、35U.S.C.112の第6段落の規定に基づいて解釈されないものとする。
10 較正ターゲットの複数の画像を異なる焦点位置で捕捉する実施形態
12 撮像デバイス(カメラ)
14 最小焦点距離
16 無限大
12 撮像デバイス(カメラ)
14 最小焦点距離
16 無限大
Claims (20)
- オートフォーカスを制御するための装置であって、
(a)撮像デバイス及び関連の焦点制御要素を制御するように構成されたコンピュータプロセッサと、
(b)前記コンピュータプロセッサに結合されたメモリと、
(c)前記メモリに格納され、かつ
(i)対象画像を捕捉する段階、
(ii)深度推定に到達するために捕捉画像対間の深度を推定する段階、
(iii)深度推定の重み付き平均と過去及び現在の両方の深度推定にわたる分散とを判断する段階、
(iv)前記深度推定の前記重み付き平均に応答して実行される合焦移動を用いて焦点を調節する段階、及び
(v)前記分散が、適正焦点位置が達成されたという十分な信頼性を示す値に到達するまで、段階(i)から(iv)を繰り返す段階、
を含むオートフォーカス処理を実施するために前記コンピュータプロセッサによって実行可能であるプログラミングと、
を含むことを特徴とする装置。 - 過大数の合焦移動が実行されたと判断する段階、及び
現在の焦点位置で前記オートフォーカス処理を終了する段階、
を含む段階を実施するために前記コンピュータプロセッサ上で実行可能なプログラミングを更に含むことを特徴とする請求項1に記載の装置。 - 過大数の合焦移動が実行されたと判断する段階、及び
前記推定結果に大きな分散を割り当ててオートフォーカスの段階を実行し続ける段階、
を含む段階を実施するために前記コンピュータプロセッサ上で実行可能なプログラミングを更に含むことを特徴とする請求項1に記載の装置。 - 過大数の合焦移動が実行されたと判断する段階、及び
深度推定を廃棄し、別の深度推定を行って前記オートフォーカス処理を続けるための対象画像の別の対を捕捉する段階、
を含む段階を実施するために前記コンピュータプロセッサ上で実行可能なプログラミングを更に含むことを特徴とする請求項1に記載の装置。 - 焦点が、最近の深度推定のみを利用する代わりに、現在及び以前の深度推定を結合することによって前記オートフォーカス処理の各反復に応答して調節されることを特徴とする請求項1に記載の装置。
- 前記深度推定は、各画像が異なる焦点位置で撮像された捕捉画像対間で行われ、実際の深度を推定する段階が、該画像対内の捕捉画像間のピンぼけ差の量の判断に基づくことを特徴とする請求項1に記載の装置。
- 前記深度推定は、被写体深度の最尤推定量(MLE)を用いて行われることを特徴とする請求項1に記載の装置。
- 前記分散は、前記オートフォーカス処理中に行われた全ての深度推定の考慮に応答して前記コンピュータプロセッサ上で実行可能な前記プログラミングによって生成される信頼基準を含むことを特徴とする請求項1に記載の装置。
- 静止画像カメラの構成要素であることを特徴とする請求項1に記載の装置。
- 画像を電子的に捕捉するための装置であって、
(a)撮像デバイスと、
(b)前記撮像デバイスに結合され、かつ該撮像デバイスに焦点範囲を与える焦点制御要素と、
(c)前記撮像デバイス及び前記焦点制御要素に結合されたコンピュータプロセッサと、
(d)前記コンピュータプロセッサに結合されたメモリと、
(e)前記メモリに格納され、かつ
(i)対象画像を捕捉する段階、
(ii)深度推定に到達するために捕捉画像対間の深度を推定する段階、
(iii)深度推定の重み付き平均を判断し、かつ現在及び過去の収集画像対にわたる分散を判断する段階、
(iv)前記深度推定の前記重み付き平均に応答して焦点を調節する段階、及び
(v)前記分散が、適正焦点が達成されたという十分な信頼性を示す値に到達するまで、オートフォーカス処理における段階(i)から(iv)を繰り返す段階、
を含むオートフォーカス処理を実施するために前記コンピュータプロセッサ上で実行可能であるプログラミングと、
を含むことを特徴とする装置。 - 静止画像カメラの構成要素であることを特徴とする請求項12に記載の装置。
- 前記コンピュータプロセッサ上で実行可能な前記プログラミングは、画像が捕捉されている物体の被写体距離が前記撮像デバイスの焦点範囲の少なくとも一部を通じて変化する時に検出されるコントラスト変化に応答して判断されたピンぼけ差に基づく焦点適合モデルに応答して捕捉画像対間の深度を推定するように構成されることを特徴とする請求項12に記載の装置。
- 前記コンピュータプロセッサ上で実行可能な前記プログラミングは、前記オートフォーカス処理が過大回数実行されたと判断することに応答して該オートフォーカス処理を中断するように構成されることを特徴とする請求項12に記載の装置。
- 前記コンピュータプロセッサ上で実行可能な前記プログラミングは、前記オートフォーカス処理が、前記分散が所定の閾値に到達することなく過大回数実行されたと判断された時に該分散に大きな値を割り当てるように構成されることを特徴とする請求項12に記載の装置。
- 前記コンピュータプロセッサ上で実行可能な前記プログラミングは、前記オートフォーカス処理が、前記分散が所定の閾値に到達することなく過大回数実行されたと判断された時に、現在の深度推定を廃棄し、かつ深度推定を行うための対象画像の付加的な対を捕捉するように構成されることを特徴とする請求項12に記載の装置。
- カメラ焦点を自動的に調節する方法であって、
(a)カメラデバイスによって第1の対象画像を捕捉する段階と、
(b)前記カメラデバイスによって付加的な対象画像を捕捉する段階と、
(c)深度推定を生成するために解かれる焦点適合モデル内に捕捉対象画像間のピンぼけ差値を入力することに応答して捕捉画像対間の深度を推定する段階と、
(d)深度推定の重み付き平均と過去及び現在の深度推定にわたる分散とを判断する段階と、
(e)前記深度推定の前記重み付き平均に応答してオートフォーカス処理内のカメラ合焦移動を用いてカメラ焦点位置を調節する段階と、
(f)前記分散が、前記カメラデバイスに対する適正焦点を達成する際の十分な信頼性を示す値に到達するまで、段階(b)から(e)を繰り返す段階と、
を含むことを特徴とする方法。 - 静止画像カメラにおいて実施されることを特徴とする請求項18に記載の方法。
- 過大数の合焦移動が実行されたと判断する段階と、
前記現在の焦点位置で前記オートフォーカス処理を終了すること、
分散に大きな値を割り当てて前記オートフォーカス処理を続行すること、及び
現在の深度推定を廃棄し、新しい深度推定を行うための1つ又はそれよりも多くの付加的な対象画像を捕捉すること、
から成るアクションの群から選択されたアクションを実行することによって前記オートフォーカス処理を変更する段階と、
を更に含むことを特徴とする請求項18に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/643,802 | 2009-12-21 | ||
US12/643,802 US8027582B2 (en) | 2009-12-21 | 2009-12-21 | Autofocus with confidence measure |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011128623A true JP2011128623A (ja) | 2011-06-30 |
Family
ID=43558108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010284033A Pending JP2011128623A (ja) | 2009-12-21 | 2010-12-21 | 信頼基準を有するオートフォーカス |
Country Status (6)
Country | Link |
---|---|
US (1) | US8027582B2 (ja) |
EP (1) | EP2357788B1 (ja) |
JP (1) | JP2011128623A (ja) |
KR (1) | KR101345093B1 (ja) |
CN (1) | CN102103248A (ja) |
TW (1) | TW201126453A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013117969A (ja) * | 2011-12-01 | 2013-06-13 | Sony Corp | 多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法 |
JP2015121774A (ja) * | 2013-11-19 | 2015-07-02 | パナソニックIpマネジメント株式会社 | 撮像装置 |
JP2015200908A (ja) * | 2013-11-19 | 2015-11-12 | パナソニックIpマネジメント株式会社 | 撮像装置 |
US9407811B2 (en) | 2011-12-22 | 2016-08-02 | Sony Corporation | Focus control unit in imaging apparatus, method of controlling the focus control unit and medium for controlling the focus control unit |
US9729774B2 (en) | 2011-12-21 | 2017-08-08 | Sony Corporation | Imaging device, autofocus method and program of the same |
JP2019015702A (ja) * | 2017-07-11 | 2019-01-31 | アークレイ株式会社 | 分析装置及び焦点合わせ方法 |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007095330A2 (en) | 2006-02-15 | 2007-08-23 | Hologic Inc | Breast biopsy and needle localization using tomosynthesis systems |
US8553093B2 (en) * | 2008-09-30 | 2013-10-08 | Sony Corporation | Method and apparatus for super-resolution imaging using digital imaging devices |
WO2011043838A1 (en) | 2009-10-08 | 2011-04-14 | Hologic, Inc . | Needle breast biopsy system and method of use |
US8335390B2 (en) * | 2010-03-22 | 2012-12-18 | Sony Corporation | Blur function modeling for depth of field rendering |
JP2013030895A (ja) * | 2011-07-27 | 2013-02-07 | Sony Corp | 信号処理装置、撮像装置、信号処理方法およびプログラム |
WO2012071429A1 (en) | 2010-11-26 | 2012-05-31 | Hologic, Inc. | User interface for medical image review workstation |
US9177381B2 (en) | 2010-12-22 | 2015-11-03 | Nani Holdings IP, LLC | Depth estimate determination, systems and methods |
CN103477346A (zh) | 2011-03-08 | 2013-12-25 | 霍洛吉克公司 | 用于筛查、诊断和活检的双能和/或造影增强乳房成像的系统和方法 |
US9307134B2 (en) * | 2011-03-25 | 2016-04-05 | Sony Corporation | Automatic setting of zoom, aperture and shutter speed based on scene depth map |
AU2011224051B2 (en) * | 2011-09-14 | 2014-05-01 | Canon Kabushiki Kaisha | Determining a depth map from images of a scene |
EP2782505B1 (en) | 2011-11-27 | 2020-04-22 | Hologic, Inc. | System and method for generating a 2d image using mammography and/or tomosynthesis image data |
US9020280B2 (en) * | 2011-12-01 | 2015-04-28 | Sony Corporation | System and method for evaluating focus direction under various lighting conditions |
US8848094B2 (en) | 2011-12-01 | 2014-09-30 | Sony Corporation | Optimal blur matching selection for depth estimation |
US8736747B2 (en) * | 2012-01-13 | 2014-05-27 | Sony Corporation | Camera autofocus adaptive blur matching model fitting |
WO2013123091A1 (en) | 2012-02-13 | 2013-08-22 | Hologic, Inc. | System and method for navigating a tomosynthesis stack using synthesized image data |
CN103424953B (zh) * | 2012-05-25 | 2017-08-11 | 中兴通讯股份有限公司 | 自动聚焦方法及装置 |
KR101888956B1 (ko) | 2012-05-31 | 2018-08-17 | 엘지이노텍 주식회사 | 카메라 모듈 및 그의 오토 포커싱 방법 |
TWI470300B (zh) * | 2012-10-09 | 2015-01-21 | Univ Nat Cheng Kung | 影像對焦方法與自動對焦顯微裝置 |
EP2967479B1 (en) | 2013-03-15 | 2018-01-31 | Hologic Inc. | Tomosynthesis-guided biopsy in prone |
US9948852B2 (en) | 2013-03-15 | 2018-04-17 | Intuitive Surgical Operations, Inc. | Intelligent manual adjustment of an image control element |
US9860510B2 (en) | 2013-03-15 | 2018-01-02 | Intuitive Surgical Operations, Inc. | Depth based modification of captured images |
US10624598B2 (en) * | 2013-03-15 | 2020-04-21 | Hologic, Inc. | System and method for navigating a tomosynthesis stack including automatic focusing |
US9877687B2 (en) * | 2013-05-08 | 2018-01-30 | Koninklijke Philips N.V. | Collimation for distanced focal spots |
EP4278977A3 (en) | 2013-10-24 | 2024-02-21 | Hologic, Inc. | System and method for navigating x-ray guided breast biopsy |
US9317730B1 (en) * | 2014-01-22 | 2016-04-19 | Cognex Corporation | Tuning process for a handheld scanner |
TWI494680B (zh) * | 2014-01-28 | 2015-08-01 | Altek Semiconductor Corp | 影像擷取裝置及其影像形變校正方法 |
TWI511081B (zh) * | 2014-01-28 | 2015-12-01 | Altek Semiconductor Corp | 影像擷取裝置及其影像形變校正方法 |
WO2015130916A1 (en) | 2014-02-28 | 2015-09-03 | Hologic, Inc. | System and method for generating and displaying tomosynthesis image slabs |
US9418432B2 (en) | 2014-03-28 | 2016-08-16 | Sony Corporation | Imaging system with depth estimation mechanism and method of operation thereof |
US9560259B2 (en) * | 2014-06-27 | 2017-01-31 | Sony Corporation | Image processing system with blur measurement and method of operation thereof |
WO2016030897A1 (en) * | 2014-08-27 | 2016-03-03 | S.D. Sight Diagnostics Ltd | System and method for calculating focus variation for a digital microscope |
CN105659580B (zh) | 2014-09-30 | 2018-09-07 | 华为技术有限公司 | 一种自动对焦方法、装置及电子设备 |
US9530214B2 (en) | 2014-12-04 | 2016-12-27 | Sony Corporation | Image processing system with depth map determination based on iteration count of blur difference and method of operation thereof |
US10277888B2 (en) * | 2015-01-16 | 2019-04-30 | Qualcomm Incorporated | Depth triggered event feature |
CN104683694B (zh) * | 2015-02-10 | 2019-05-14 | 深圳市金立通信设备有限公司 | 一种终端 |
US9639946B2 (en) * | 2015-03-11 | 2017-05-02 | Sony Corporation | Image processing system with hybrid depth estimation and method of operation thereof |
US9723197B2 (en) * | 2015-03-31 | 2017-08-01 | Sony Corporation | Depth estimation from image defocus using multiple resolution Gaussian difference |
EP3109695B1 (en) | 2015-06-24 | 2019-01-30 | Samsung Electronics Co., Ltd. | Method and electronic device for automatically focusing on moving object |
US9646225B2 (en) * | 2015-08-21 | 2017-05-09 | Sony Corporation | Defocus estimation from single image based on Laplacian of Gaussian approximation |
EP3139588B1 (en) * | 2015-09-07 | 2017-06-21 | Axis AB | Method and device for setting a focus of a camera |
CN106815865A (zh) * | 2015-11-30 | 2017-06-09 | 展讯通信(上海)有限公司 | 图像深度估计方法、深度图生成方法及装置 |
FR3046256B1 (fr) * | 2015-12-23 | 2018-01-05 | Thales | Zoom plenoptique a portee optimisee |
US20170230649A1 (en) * | 2016-02-05 | 2017-08-10 | Qualcomm Incorporated | Calibration of hybrid auto focus (af) imaging systems |
TWI621831B (zh) | 2016-12-26 | 2018-04-21 | 聚晶半導體股份有限公司 | 影像擷取裝置與其相位對焦的校正方法 |
US11889979B2 (en) | 2016-12-30 | 2024-02-06 | Barco Nv | System and method for camera calibration |
WO2018183549A1 (en) | 2017-03-30 | 2018-10-04 | Hologic, Inc. | System and method for synthesizing low-dimensional image data from high-dimensional image data using an object grid enhancement |
EP3600047A1 (en) | 2017-03-30 | 2020-02-05 | Hologic, Inc. | System and method for hierarchical multi-level feature image synthesis and representation |
EP3600052A1 (en) | 2017-03-30 | 2020-02-05 | Hologic, Inc. | System and method for targeted object enhancement to generate synthetic breast tissue images |
US11403483B2 (en) | 2017-06-20 | 2022-08-02 | Hologic, Inc. | Dynamic self-learning medical image method and system |
US20190033555A1 (en) * | 2017-07-28 | 2019-01-31 | Qualcomm Incorporated | Phase detection autofocus with diagonal line detection |
KR101882696B1 (ko) * | 2017-11-08 | 2018-07-27 | 한국 천문 연구원 | 초점가변 검경으로 구성된 자동검사시스템의 객담 도말시료 검사 방법 |
KR102668212B1 (ko) | 2018-09-28 | 2024-05-23 | 삼성전자 주식회사 | 자동 초점 방법 및 이를 수행하는 전자 장치 |
CN109873948B (zh) * | 2019-01-30 | 2020-06-26 | 中国地质大学(武汉) | 一种光学显微镜智能自动聚焦方法、设备及存储设备 |
EP3952279A4 (en) * | 2019-03-25 | 2022-05-04 | NEC Corporation | IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD |
EP4026309A1 (en) * | 2019-10-11 | 2022-07-13 | Google LLC | Low-light autofocus technique |
KR20220014678A (ko) | 2020-07-29 | 2022-02-07 | 삼성전자주식회사 | 영상의 깊이를 추정하는 방법 및 장치 |
US12063432B2 (en) * | 2020-12-17 | 2024-08-13 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
CN114119555B (zh) * | 2021-11-29 | 2024-05-17 | 哈尔滨工业大学 | 一种基于物距对焦法的大口径元件边缘检测方法 |
CN114827481B (zh) * | 2022-06-29 | 2022-10-25 | 深圳思谋信息科技有限公司 | 对焦方法、装置、变焦设备和存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01167610A (ja) * | 1987-11-27 | 1989-07-03 | Univ New York State | 3次元空間シーンの表面区画及びカメラ装置間の距離を決定するための方法及び装置 |
JPH03136580A (ja) * | 1989-06-29 | 1991-06-11 | Univ New York State | 対象の距離を決定し、自動焦点合せをし、合焦像を得るための方法及び電子カメラ装置 |
JPH049809A (ja) * | 1990-04-27 | 1992-01-14 | Ricoh Co Ltd | 自動合焦装置 |
JPH05501767A (ja) * | 1990-07-03 | 1993-04-02 | イーストマン コダック カンパニー | コントラスト方式の自動焦点機構 |
JPH07318783A (ja) * | 1994-05-19 | 1995-12-08 | Nikon Corp | 自動焦点調節装置および自動焦点調節方法 |
JPH1010416A (ja) * | 1996-06-26 | 1998-01-16 | Nikon Corp | 焦点調節装置 |
JPH10282402A (ja) * | 1988-05-13 | 1998-10-23 | Nikon Corp | 自動焦点調節装置を備えたカメラ |
JP2005136766A (ja) * | 2003-10-31 | 2005-05-26 | Sony Corp | 画像処理装置および画像処理方法 |
JP2005274363A (ja) * | 2004-03-25 | 2005-10-06 | Hitachi Ltd | 無線位置検出システム |
JP2007139893A (ja) * | 2005-11-15 | 2007-06-07 | Olympus Corp | 合焦検出装置 |
JP2007199633A (ja) * | 2006-01-30 | 2007-08-09 | Olympus Corp | 合焦検出装置 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5705803A (en) * | 1996-07-23 | 1998-01-06 | Eastman Kodak Company | Covariance focus sensor |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
JP4354096B2 (ja) | 2000-06-19 | 2009-10-28 | オリンパス株式会社 | 撮像装置 |
US6580062B2 (en) * | 2001-05-29 | 2003-06-17 | Hewlett-Packard Development Company, L.P. | Contrast focus figure-of-merit method that is insensitive to scene illumination level |
US7187413B2 (en) | 2002-07-25 | 2007-03-06 | Lockheed Martin Corporation | Method and system for using an image based autofocus algorithm |
US7336430B2 (en) | 2004-09-03 | 2008-02-26 | Micron Technology, Inc. | Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture |
JP4407564B2 (ja) * | 2005-04-15 | 2010-02-03 | ソニー株式会社 | オートフォーカス装置とオートフォーカス方法およびプログラム |
US7538813B2 (en) | 2005-05-11 | 2009-05-26 | Sony Ericsson Mobile Communications Ab | Digital cameras with triangulation autofocus systems and related methods |
US20070014468A1 (en) | 2005-07-12 | 2007-01-18 | Gines David L | System and method for confidence measures for mult-resolution auto-focused tomosynthesis |
US20070019883A1 (en) | 2005-07-19 | 2007-01-25 | Wong Earl Q | Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching |
US7929801B2 (en) | 2005-08-15 | 2011-04-19 | Sony Corporation | Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory |
US20070189750A1 (en) | 2006-02-16 | 2007-08-16 | Sony Corporation | Method of and apparatus for simultaneously capturing and generating multiple blurred images |
US7616254B2 (en) | 2006-03-16 | 2009-11-10 | Sony Corporation | Simple method for calculating camera defocus from an image scene |
US7711201B2 (en) | 2006-06-22 | 2010-05-04 | Sony Corporation | Method of and apparatus for generating a depth map utilized in autofocusing |
US8213734B2 (en) | 2006-07-07 | 2012-07-03 | Sony Ericsson Mobile Communications Ab | Active autofocus window |
CN100543576C (zh) * | 2006-08-24 | 2009-09-23 | 宁波大学 | 基于Contourlet变换的数码成像自动对焦方法 |
US7860382B2 (en) | 2006-10-02 | 2010-12-28 | Sony Ericsson Mobile Communications Ab | Selecting autofocus area in an image |
US7664384B2 (en) | 2006-11-07 | 2010-02-16 | Sony Ericsson Mobile Communications Ab | User defined autofocus area |
US20090015681A1 (en) | 2007-07-12 | 2009-01-15 | Sony Ericsson Mobile Communications Ab | Multipoint autofocus for adjusting depth of field |
CN101470248B (zh) * | 2007-12-28 | 2011-10-26 | 广达电脑股份有限公司 | 对焦装置及方法 |
US8280194B2 (en) | 2008-04-29 | 2012-10-02 | Sony Corporation | Reduced hardware implementation for a two-picture depth map algorithm |
-
2009
- 2009-12-21 US US12/643,802 patent/US8027582B2/en not_active Expired - Fee Related
-
2010
- 2010-08-03 TW TW099125744A patent/TW201126453A/zh unknown
- 2010-11-09 EP EP10190445A patent/EP2357788B1/en active Active
- 2010-11-15 KR KR1020100113401A patent/KR101345093B1/ko active IP Right Grant
- 2010-12-21 CN CN2010106089148A patent/CN102103248A/zh active Pending
- 2010-12-21 JP JP2010284033A patent/JP2011128623A/ja active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01167610A (ja) * | 1987-11-27 | 1989-07-03 | Univ New York State | 3次元空間シーンの表面区画及びカメラ装置間の距離を決定するための方法及び装置 |
JPH10282402A (ja) * | 1988-05-13 | 1998-10-23 | Nikon Corp | 自動焦点調節装置を備えたカメラ |
JPH03136580A (ja) * | 1989-06-29 | 1991-06-11 | Univ New York State | 対象の距離を決定し、自動焦点合せをし、合焦像を得るための方法及び電子カメラ装置 |
JPH049809A (ja) * | 1990-04-27 | 1992-01-14 | Ricoh Co Ltd | 自動合焦装置 |
JPH05501767A (ja) * | 1990-07-03 | 1993-04-02 | イーストマン コダック カンパニー | コントラスト方式の自動焦点機構 |
JPH07318783A (ja) * | 1994-05-19 | 1995-12-08 | Nikon Corp | 自動焦点調節装置および自動焦点調節方法 |
JPH1010416A (ja) * | 1996-06-26 | 1998-01-16 | Nikon Corp | 焦点調節装置 |
JP2005136766A (ja) * | 2003-10-31 | 2005-05-26 | Sony Corp | 画像処理装置および画像処理方法 |
JP2005274363A (ja) * | 2004-03-25 | 2005-10-06 | Hitachi Ltd | 無線位置検出システム |
JP2007139893A (ja) * | 2005-11-15 | 2007-06-07 | Olympus Corp | 合焦検出装置 |
JP2007199633A (ja) * | 2006-01-30 | 2007-08-09 | Olympus Corp | 合焦検出装置 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013117969A (ja) * | 2011-12-01 | 2013-06-13 | Sony Corp | 多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法 |
US9729774B2 (en) | 2011-12-21 | 2017-08-08 | Sony Corporation | Imaging device, autofocus method and program of the same |
US9407811B2 (en) | 2011-12-22 | 2016-08-02 | Sony Corporation | Focus control unit in imaging apparatus, method of controlling the focus control unit and medium for controlling the focus control unit |
JP2015121774A (ja) * | 2013-11-19 | 2015-07-02 | パナソニックIpマネジメント株式会社 | 撮像装置 |
JP2015200908A (ja) * | 2013-11-19 | 2015-11-12 | パナソニックIpマネジメント株式会社 | 撮像装置 |
JP2015200907A (ja) * | 2013-11-19 | 2015-11-12 | パナソニックIpマネジメント株式会社 | 撮像装置 |
JP2015207019A (ja) * | 2013-11-19 | 2015-11-19 | パナソニックIpマネジメント株式会社 | 撮像装置 |
US9571719B2 (en) | 2013-11-19 | 2017-02-14 | Panasonic Intellectual Property Management Co., Ltd. | Image-capturing apparatus |
US9832362B2 (en) | 2013-11-19 | 2017-11-28 | Panasonic Intellectual Property Management Co., Ltd. | Image-capturing apparatus |
JP2019015702A (ja) * | 2017-07-11 | 2019-01-31 | アークレイ株式会社 | 分析装置及び焦点合わせ方法 |
JP6997549B2 (ja) | 2017-07-11 | 2022-01-17 | アークレイ株式会社 | 分析装置及び焦点合わせ方法 |
Also Published As
Publication number | Publication date |
---|---|
TW201126453A (en) | 2011-08-01 |
CN102103248A (zh) | 2011-06-22 |
KR20110073245A (ko) | 2011-06-29 |
EP2357788A1 (en) | 2011-08-17 |
EP2357788B1 (en) | 2013-04-03 |
KR101345093B1 (ko) | 2013-12-26 |
US20110150447A1 (en) | 2011-06-23 |
US8027582B2 (en) | 2011-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101345093B1 (ko) | 자동 초점 제어 장치, 이미지 캡처 장치 및 초점 자동 조절 방법 | |
US8736747B2 (en) | Camera autofocus adaptive blur matching model fitting | |
US8848094B2 (en) | Optimal blur matching selection for depth estimation | |
US8045046B1 (en) | Four-dimensional polynomial model for depth estimation based on two-picture matching | |
KR101345012B1 (ko) | 이미지를 전자적으로 캡처하는 장치, 카메라로부터 물체까지의 초점 거리를 추정하는 장치, 카메라―물체 초점 심도의 자동 추정 방법 및 컴퓨터―판독가능 매체 | |
US8411195B2 (en) | Focus direction detection confidence system and method | |
TWI515470B (zh) | 使用多鏡頭的自動對焦系統及其方法 | |
US8624986B2 (en) | Motion robust depth estimation using convolution and wavelet transforms | |
US20150201182A1 (en) | Auto focus method and auto focus apparatus | |
JP2018097253A (ja) | 焦点調節装置および焦点調節方法 | |
TWI515471B (zh) | 使用多鏡頭的自動對焦系統及其方法 | |
US20120236170A1 (en) | Blur difference estimation using multi-kernel convolution | |
US20130142386A1 (en) | System And Method For Evaluating Focus Direction Under Various Lighting Conditions | |
WO2018110282A1 (ja) | 焦点調節装置、焦点調節方法、およびプログラムを記憶した記憶媒体 | |
EP3054668B1 (en) | Method and device for processing a video stream | |
JP6463207B2 (ja) | 撮像装置及びその制御方法、プログラム、記憶媒体 | |
JP2018116225A5 (ja) | 焦点検出装置、その制御方法およびプログラム、並びに撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121011 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130221 |