[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020008785A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2020008785A
JP2020008785A JP2018131693A JP2018131693A JP2020008785A JP 2020008785 A JP2020008785 A JP 2020008785A JP 2018131693 A JP2018131693 A JP 2018131693A JP 2018131693 A JP2018131693 A JP 2018131693A JP 2020008785 A JP2020008785 A JP 2020008785A
Authority
JP
Japan
Prior art keywords
subject
distance
image
image data
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018131693A
Other languages
English (en)
Other versions
JP7002050B2 (ja
Inventor
基範 小倉
Motonori Ogura
基範 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018131693A priority Critical patent/JP7002050B2/ja
Priority to US16/507,236 priority patent/US10917556B2/en
Publication of JP2020008785A publication Critical patent/JP2020008785A/ja
Application granted granted Critical
Publication of JP7002050B2 publication Critical patent/JP7002050B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】オートフォーカス機能の追従性を向上した撮像装置を提供する。【解決手段】撮像装置は、フォーカスレンズを含む光学系を介して形成された被写体の像を撮像し、画像データを生成する撮像部と、撮像部で生成された画像データを用いて、被写体までの距離である被写体距離及び被写体の移動距離を算出する測距部と、算出した被写体距離または被写体の移動距離を用いてオートフォーカス動作を行う制御部と、を備える。測距部は、被写体が第1の位置にあるときに撮像部によって生成された第1の画像データと、第1の画像データを生成した時と前記フォーカスレンズが同じ位置にあって、かつ被写体が第2の位置にあるときに撮像部によって生成された第2の画像データと、被写体が第1の位置にあるときの合焦位置に対応した光学系の点拡がり関数(PSF)を用いて、第1の位置と第2の位置の間の距離を求め、その求めた距離に基づき第2の画像データが示す画像について被写体距離及び被写体の移動距離を算出する。【選択図】図4

Description

本開示は、オートフォーカス(AF)機能を備えた撮像装置に関する。
特許文献1は、DFD(Depth From Defocus)方式のシステムを採用した撮像装置を開示している。この撮像装置は、複数種類のボケが得られるようにフォーカス制御を実施し、撮像素子によりボケの大きさが異なる複数の画像を取得する。次に、撮像装置は、ボケの大きさが異なる複数の画像に基づいて、被写体距離を算出する。そして、撮像装置は、算出した被写体距離に基づいて、レンズ制御を実施する。
特開2011−15163号公報
本開示は、オートフォーカス機能の追従性を向上した撮像装置を提供する。
本開示の第一の態様の撮像装置は、フォーカスレンズを含む光学系を介して形成された被写体の像を撮像し、画像データを生成する画像センサと、画像センサで生成された画像データを用いて、被写体までの距離である被写体距離及び被写体の移動距離を算出する測距部と、算出した被写体距離または被写体の移動距離を用いてオートフォーカス動作を行う制御部と、を備える。測距部は、被写体が第1の位置にあるときに画像センサによって生成された第1の画像データと、被写体が第2の位置にあるときに画像センサによって生成された第2の画像データと、被写体が第1の位置にあるときの合焦位置に対応した光学系の点拡がり関数を用いて、第1の位置と第2の位置の間の距離を求め、その求めた距離に基づき第2の画像データが示す画像について被写体距離及び被写体の移動距離を算出する。
本開示の第二の態様の撮像装置は、フォーカスレンズを含む光学系を介して形成された被写体の像を撮像し、画像データを生成する画像センサと、画像センサで静止された画像データを用いて、被写体までの距離である被写体距離及び被写体の移動距離を算出する測距部と、算出した被写体距離または被写体の移動距離を用いてオートフォーカス動作を行う制御部と、を備える。測距部は、被写体が第1の位置にあるときに画像センサによって生成された第1の画像データと、被写体が第2の位置にあるときに画像センサによって生成された第2の画像データと、被写体が第1の位置にあるときの合焦位置に対応した光学系の光伝達関数を用いて、第1の位置と第2の位置の間の距離を求め、その求めた距離に基づき第2の画像データが示す画像について被写体距離及び被写体の移動距離を算出する。
本開示の撮像装置によれば、フォーカスを移動させずに、被写体の移動に起因して生じる画像のボケ状態に基づき被写体までの距離を測定できる。このため、被写体までの距離を高速に測定でき、動きのある被写体に対して追従性を高めたオートフォーカス機能を実現できる。
実施の形態1におけるデジタルカメラの概略構成を示すブロック図 被写体の移動を利用したDFD演算による測距の原理を説明した図 実施の形態1における画像処理部の概略構成を示すブロック図 実施の形態1におけるデジタルカメラの被写体の移動距離の算出方法を説明するための図 実施の形態1におけるデジタルカメラのDFD演算を説明するための図 実施の形態1における点拡がり関数を説明するための図 実施の形態1におけるDFD演算によるDepthマップの作成動作を示すフローチャート 実施の形態1におけるデジタルカメラの動画記録時のオートフォーカス動作を示すフローチャート 実施の形態1におけるデジタルカメラの静止画記録時のオートフォーカス動作を示すフローチャート 実施の形態2における、点拡がり関数(PSF)に代えて光伝達関数(OTF)を用いたDFD演算を説明するための図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために、提供されるものであって、これらによって特許請求の範囲に記載の主題を限定することは意図されていない。
以下、図面を用いて本開示に係る撮像装置の実施の形態を説明する。
(実施の形態1)
以下、本開示の実施の形態における撮像装置の構成および動作について説明する。
〔1.構成〕
図1は実施の形態における撮像装置であるデジタルカメラ100の電気的構成を示すブロック図である。デジタルカメラ100は、1つ以上のレンズからなる光学系110を備える。光学系110は被写体からの光により被写体像を画像センサであるCMOSイメージセンサ140上に形成する。形成された被写体像をCMOSイメージセンサ140で撮像する。CMOSイメージセンサ140は撮像した被写体像に基づいて画像データを生成する。CMOSイメージセンサ140で生成された画像データは、ADC150でデジタル信号に変換された後、画像処理部160で各種処理が施され、メモリカード200に格納される。以下、デジタルカメラ100の構成を詳細に説明する。
実施の形態における光学系110は、ズームレンズ111、手振れ補正レンズ112、フォーカスレンズ113、絞り114により構成される。ズームレンズ111を光軸110Aに沿って移動させることにより、被写体像の拡大、縮小をすることができる。また、フォーカスレンズ113を光軸に沿って移動させることによりフォーカスを調整することができる。また、手振れ補正レンズ112は、光学系110の光軸に垂直な面内で移動可能である。デジタルカメラ100のブレを打ち消す方向に手振れ補正レンズ112を移動させることで、デジタルカメラ100のブレが撮像画像に与える影響を低減できる。また、絞り114は光軸上に位置する開口を有し、使用者の手動設定に応じてまたは自動で開口の大きさを調整し、絞り114を透過する光の量を調整する。
レンズ駆動部120は、ズームレンズ111を駆動するズームアクチュエータや、手振れ補正レンズ112を駆動する手振れ補正アクチュエータや、フォーカスレンズ113を駆動するフォーカスアクチュエータや、絞り114を駆動する絞りアクチュエータを含む。レンズ駆動部120は、コントローラ180からの制御にしたがい、ズームアクチュエータ、フォーカスアクチュエータ、および手振れ補正アクチュエータそれぞれを制御する。
CMOSイメージセンサ140は、光学系110を介して形成された被写体像を撮像してアナログ信号であるアナログ画像データを生成する。CMOSイメージセンサ140は、露光、転送、電子シャッタなどの各種動作を行う。
A/Dコンバータ150は、CMOSイメージセンサ140で生成されたアナログ画像データをデジタル信号であるデジタル画像データに変換する。
画像処理部160は、CMOSイメージセンサ140で生成され、デジタル信号に変換された画像データに対して各種の信号処理を施し、表示モニタ220に表示するための画像データを生成したり、メモリカード200に格納するための画像データを生成したりする。例えば、画像処理部160は、CMOSイメージセンサ140で生成された画像データに対して、ガンマ補正、ホワイトバランス補正、傷補正などの信号処理を行う。また、画像処理部160は、CMOSイメージセンサ140で生成された画像データを、H.264規格やMPEG2規格に準拠した圧縮形式等により圧縮する。画像処理部160は半導体素子などで実現できる。画像処理部160の機能は、ハードウェアとソフトウェア(アプリケーションプログラム)の協働により実現しても、所定の機能を実現するように専用に設計されたハードウェア回路のみで実現してもよい。すなわち、画像処理部160は、CPU、MPUのみならず、DSP、FPGA、ASIC、マイコン等で構成することができる。
コントローラ180は、デジタルカメラ100全体を制御する。コントローラ180は半導体素子などで実現できる。コントローラ180の機能は、ハードウェアとソフトウェア(アプリケーションプログラム)の協働により実現しても、所定の機能を実現するように専用に設計されたハードウェア回路のみで実現してもよい。すなわち、コントローラ180は、CPU、MPUのみならず、DSP、FPGA、ASIC、マイコン等で構成することができる。
バッファ170は、画像処理部160及びコントローラ180のワークメモリとして機能する。バッファ170は例えば、DRAM、強誘電体メモリなどで実現できる。
カードスロット190はメモリカード200を着脱可能に保持する。カードスロット190は機械的及び電気的にメモリカード200と接続可能である。メモリカード200はフラッシュメモリや強誘電体メモリなどを内部に含み、画像処理部160で生成された画像ファイル等のデータを格納できる。
内部メモリ240は、フラッシュメモリや強誘電体メモリなどで構成される。内部メモリ240は、デジタルカメラ100全体を制御するための制御プログラム等を記憶する。また、内部メモリ240は、DFD演算に必要な点拡がり関数(PSF:Point Spread Function)を格納する。点拡がり関数(PSF)の詳細は後述する。
操作部材210は使用者からの操作を受け付けるユーザーインターフェースの総称である。操作部材210は、例えば、使用者が合焦指示を行うレリーズボタン、録画ボタン、使用者からの操作を受け付ける十字キー、決定釦、または/およびタッチパネル等を含む。
表示モニタ220は、CMOSイメージセンサ140で生成された画像データが示す画像、および、メモリカード200から読み出された画像データが示す画像を表示する画面を有する。表示モニタ220は、デジタルカメラ100の各種設定を行うための各種メニュー画面等も画面に表示できる。表示モニタ220の画面上にはタッチパネルが配置されている。タッチパネルは使用者によりタッチされて各種タッチ操作を受け付けることができる操作部材の1つである。タッチパネルに対するタッチ操作が示す指示はコントローラ180に通知され各種処理が行われる。
角速度センサ250は、手振れ等に起因してデジタルカメラ100に発生した角速度を検出する。角速度センサ250は例えば、ジャイロセンサである。角速度センサ250が検出した角速度はコントローラ180に通知される。コントローラ180は、角速度センサ250から通知された角速度により、デジタルカメラ100に発生した角速度に基づく画像のブレを解消するよう手振れ補正レンズ112を駆動させることができる。
〔2.動作〕
デジタルカメラ100は、DFD演算の結果を用いてオートフォーカス動作を行う。特に、デジタルカメラ100は、フォーカスレンズ113は移動させずに、被写体の移動による画像のボケ状態に基づき移動後の被写体の被写体距離を算出し、オートフォーカス動作を行う。
厳密には、被写体距離は光学系110の主点から被写体までの距離であるが、説明を容易にするため、光学系110における焦点距離、およびF値を固定とし、光学系110の主点の変化は、フォーカスレンズ113の位置Lの変化に寄るものとして、以下、図2を参照し、被写体の移動に伴う画像のボケ状態の変化に基づき被写体距離を算出する原理について説明する。
図2は、被写体の移動を利用したDFD演算による測距の原理を説明した図である。図2において、フォーカスレンズ113が位置Lにある状態で、被写体Obが位置P1にある場合と、被写体Obが位置P1からΔdだけ離れた位置P2にある場合とで、CMOSイメージセンサ140で生成される画像のボケ状態とに差が生じる。本実施の形態では、DFD演算を行って、このボケ状態の差に基づき位置P1と位置P2間の距離Δdを求める。被写体Obが位置P1のときの被写体距離D1及び被写体Obが位置P2のときの被写体距離D2のいずれかが既知である場合、既知の被写体距離と距離Δdから、未知の被写体距離を求めることができる。
図3は実施の形態1におけるデジタルカメラ100のDFD演算の結果を用いたフォーカスレンズ制御の概要を説明するための図である。
画像処理部160はDFD演算回路161を含んでいる。DFD演算回路161は、DFD演算を実施してDepthマップ50を作成する。Depthマップ50は、画素毎に、画素が示す被写体の移動距離を示す情報を含む画像である。DFD演算回路161は、被写体の移動により作り出されたボケ量の異なる2枚の画像である観測画像A及び参照画像Bと、点拡がり関数とから、各画素について、参照画像Bの被写体の位置から観測画像Aの被写体の位置の間の距離(被写体の移動距離)を求める。これによりDepthマップ50が作成される。
次に、DFD演算回路161は、作成したDepthマップ50をコントローラ180に通知する。コントローラ180は、通知されたDepthマップ50に基づいて、観測画像Aについて被写体距離を算出し、算出した被写体距離に基づき、フォーカスレンズ113を合焦位置に移動させるようにレンズ駆動部120を制御する。
〔2−1.DFD演算結果を用いた被写体移動距離の算出〕
以下、図3に示したDFD演算回路161によるDFD演算と、コントローラ180による被写体の移動距離の算出処理について詳細に説明する。
最初に、DFD演算回路161によるDFD演算について説明する。
図4は、実施の形態におけるデジタルカメラ100のDFD演算におけるフォーカスレンズ113の移動を説明するためのイメージ図である。本DFD演算において、被写体の移動により生成された、ボケ量の異なる2枚の画像を使用する。具体的には、図4に示すように、コントローラ180は、時刻t1において、フォーカスレンズ113が位置L1にあるときにCMOSイメージセンサ140で位置P1にある被写体を撮像し、撮像画像を生成する。この撮像画像を参照画像Bとする。その後、時刻t2において被写体が位置P2へ移動したとする。時刻t2で、CMOSイメージセンサ140は、同じレンズ位置L1で移動後の被写体を撮像して撮像画像を生成する。この撮像画像を観測画像Aとする。参照画像Bと観測画像Aとは、撮像されたときのフォーカスレンズ113の位置は同じであるが、被写体の位置が異なるので、同一被写体を撮像した画像ではあるが互いにボケ量が異なる。
図5は、本実施の形態におけるデジタルカメラ100のDFD演算による被写体の移動距離の算出方法を説明するための図である。
DFD演算回路161は、観測画像Aを構成する各観測画素PAと、参照画像Bを構成する各参照画素PBとに対してDFD演算を行い、各観測画素PAについて被写体の移動距離を算出し、Depthマップ50を作成する。DFD演算回路161は、観測画素PAに複数の点拡がり関数を畳み込んで得られた結果である複数の観測画素CAを、観測画素CAと画像上の座標と同じ座標にある参照画素PBと照合する。
ここで、点拡がり関数について説明する。点拡がり関数とは、光学系の点光源に対する応答を示す関数であり、ボケ量の変化を示す。点拡がり関数を、点光源の集合に対応する画像に畳み込む(Convolution)ことで、人為的にボケ画像を生成することができる。点拡がり関数は光学系ごとに異なる関数であり、例えば、交換レンズごとに異なる。さらに、同じ交換レンズにおいても、焦点距離、F値、フォーカス位置などによっても異なる。内部メモリ240は、複数の点拡がり関数を予め記憶している。
図6は、本実施の形態で使用する点拡がり関数(PSF)を説明するための図である。本実施の形態の点拡がり関数PSFは、図6に示すように、被写体距離Dにある被写体Obにフォーカスレンズ位置Lで合焦している状態において、被写体Obから移動距離Δdだけ離れた位置にある被写体Obのボケ量を与えるように定義される。ここで、点拡がり関数PSFは、複数のレンズ位置Lと被写体距離Dの組み合わせに対して設定される。さらに、レンズ位置Lと被写体距離Dの各組み合わせに対して、16個の移動距離Δd1〜Δd16に対する16個の点拡がり関数PSF1〜PSF16が設定される。移動距離Δd1〜Δd16は、・・・、−30,−20、−10、+10、+20,+30,・・・のように正負の値を含むように設定される。このように正負の値を設定することにより、被写体Obの光軸上の移動方向がわかる。以上のように点拡がり関数PSFは、レンズ位置L、被写体距離D及び移動距離Δdに基づき複数設定される。
コントローラ180は、内部メモリ240から、レンズ位置Lと被写体距離Dの組み合わせに基づき、点拡がり関数PSF1〜PSF16を読み出し、読み出した点拡がり関数PSF1〜PSF16をDFD演算回路161に通知する。
図7は、画像処理部160におけるDFD演算回路161よるDepthマップ50の作成処理を示すフローチャートである。以下、図4〜図7を参照し、DFD演算回路161によるDepthマップ50の作成動作を説明する。
DFD演算回路161は、各観測画素PAに対して16個の点拡がり関数PSF1〜PSF16を各観測画素PAに畳み込むことで、各観測画素PAでの被写体の移動距離に対応した16個の観測画素CA1〜CA16を生成する(S1)。このため、DFD演算回路161は、参照画像Bの被写体距離D1とフォーカスレンズ位置L1に基づき内部メモリ240から、移動距離Δdが異なる16個の点拡がり関数PSF1〜PSF16を読み出し、読み出した点拡がり関数PSF1〜PSF16を用いて観測画素PAに対して畳み込みを行う。
16個の観測画素CA1〜CA16のそれぞれは、畳み込み演算に使用された点拡がり関数がそれぞれ異なるので、それぞれ異なるボケ画像を形成する。畳み込み演算後の観測画素CA1〜CA16のそれぞれは、被写体が、観測画素PAが撮影された位置から光軸方向に各移動距離Δd1〜Δd16だけ移動したときに観測される各画素PAのボケた状態を示す。
続いて、DFD演算回路161は、各観測画素PAについて、観測画素CA1〜CA16のそれぞれを参照画素PBと比較し、それらの類似度を計算する(S2)。DFD演算回路161は、観測画素CA1〜CA16のうち参照画素PBとの類似度が最大となる観測画素CAminを特定する(S3)。そして、DFD演算回路161は、特定した観測画素CAminに畳み込まれている点拡がり関数PSFに対応する移動距離Δdminを観測画素PAの移動距離として決定する(S4)。このようにして決定された移動距離は、参照画像Bが撮像されたときの参照画素PBにある被写体の位置P1から、観測画像Aが撮像されたときの観測画素PAにある被写体の位置P2までの被写体の移動距離となる。
例えば、観測画素CA3と参照画素PBとの類似度が、観測画素CA1〜CA16のそれぞれと参照画素PBとの類似度の中で最大となる場合、DFD演算回路161は、観測画素CA3を生成する際に観測画素PAに畳み込んだ点拡がり関数PSF3に対応する移動距離Δd3を観測画素PAの被写体移動距離として決定する。そして、DFD演算回路161は、その被写体移動距離を示す距離情報を出力する。
以上の動作を観測画像Aの各画素について実施した結果を用いて、DFD演算回路161は観測画像Aの各画素PAについての被写体移動距離の分布であるDepthマップ50を生成する(S5)。本実施の形態では、被写体の移動距離に対応した16個の点拡がり関数を用いたので、Depthマップ50における被写体の移動距離は16階調で表される。このようにして生成されたDepthマップ50の各画素は、前回の合焦時の被写体の位置からの被写体の移動距離を示す。
〔2−2.オートフォーカス動作〕
図8は、デジタルカメラ100の動画記録時のオートフォーカス動作を示すフローチャートである。図8を参照し、デジタルカメラ100の動画記録時のオートフォーカス動作を説明する。図8のフローチャートの処理は、ユーザから録画開始指示を検出したときに開始する。ユーザから録画開始指示は、例えば、録画ボタンの押下操作により与えられる。
録画開始指示の後、コントローラ180は、CMOSイメージセンサ140で撮像された画像の画像データを取得する(S11)。そして、コントローラ180は、画像データに基づきフォーカスレンズの合焦位置を求め(S12)、フォーカスレンズ113をその合焦位置に移動させる合焦動作を行う(S13)。ここでの合焦位置を求める方法としては、DFD方式を用いてもよいし、コントラストAF方式を用いてもよい。また、後のDFD演算のために、合焦時の被写体距離及び合焦時に撮像された画像のデータは内部メモリ240に記憶される。
その後、コントローラ180は、ユーザから録画終了指示を受け付けたか否かを判定する(S14)。録画終了指示は、例えば。録画ボタンの再度の押下操作によりなされる。録画終了指示を受け付けた場合は(S14でYES)、本処理を終了する。
録画終了指示を受け付けていない場合(S14でNO)、コントローラ180は、CMOSイメージセンサ140から画像データを取得するとともに、その画像データが示す画像を参照画像Bに設定する(S15)。参照画像Bに設定された画像データは内部メモリ240に記録される。
さらに、コントローラ180は、CMOSイメージセンサ140から次の画像データを取得するとともに、その画像データが示す画像を観測画像Aに設定する(S16)。観測画像Aに設定された画像データは内部メモリ240に記録される。
そして、コントローラ180は、画像処理部160に対してDepthマップ50の生成を指示する(S17)。画像処理部160は、コントローラ180の指示にしたがいDepthマップ50を生成する。具体的には、画像処理部160は、内部メモリ240から、参照画像Bの画像データと、観測画像Aの画像データとを読み出し、図6に示すフローチャートにしたがいDepthマップ50を生成する。
コントローラ180は、Depthマップ50を用いて、移動後の被写体についての移動距離(Δd)と被写体距離を算出する(S18)。具体的には、コントローラ180はまず、Depthマップ50を参照して、所定の被写体(または、領域)について移動距離(Δd)を求める。ここで、所定の被写体は、使用者が手動で指定したものでもよいし、自動で検出されたもの(例えば、顔)でもよい。コントローラ180は、内部メモリ240から、前回の被写体距離(Dold)を読み出す。コントローラ180は、読み出した前回の被写体距離(Dold)と、今回Depthマップ50から求めた移動距離(Δd)とから移動後の被写体距離(Dnew)を次式で算出する。
Dnew=Dold+Δd
コントローラ180は、このようにして求めた今回の被写体距離(Dnew)と前回の被写体距離(Dold)を比較し、その距離差を判定する(S19)。距離差が所定値より大きい場合(S19でYES)、コントローラ180はステップS12に戻り、再度合焦動作を行う。この場合、被写体が大きく移動している可能性が高いため、再度の合焦動作を行うことで、被写体距離の検出精度をより高めている。
被写体距離の差が所定値以下の場合(S19でNO)、コントローラ180は、被写体の光軸方向の移動があったか否かを判断する(S20)。例えば、移動距離(Δd)が判定値以上の場合に被写体の光軸方向の移動があったと判断する。
被写体の光軸方向の移動がない場合(S20でNO)、コントローラ180はステップS16に戻り、観測画像を取得し直して上記の処理を繰り返す。この場合、被写体の移動がないので、フォーカスレンズを移動させる必要がないからである。
被写体の光軸方向の移動があった場合(S20でYES)、コントローラ180は、レンズ駆動部120を制御することによりフォーカスレンズ113を移動距離(Δd)に対応する距離だけ移動させ、合焦位置へ移動させる(S21)。これにより、フォーカスレンズ113を、移動した被写体に対して自動で合焦させることができる。合焦時の被写体距離は内部メモリ240に記憶され、次のDFD演算の際に被写体距離(Dold)として使用される。
録画終了指示を受け付けるまで、コントローラ180は上記の処理(S12〜S22)を繰り返す。
図9は、デジタルカメラの静止画記録時のオートフォーカス動作を示すフローチャートである。デジタルカメラの静止画記録時のオートフォーカス動作について図9を参照して説明する。図9のフローチャートに示す処理は、レリーズボタンの半押し操作が検出されたときに開始する。
コントローラ180は、まず、CMOSイメージセンサ140で撮像された画像の画像データを取得する(S30)。そして、コントローラ180は、画像データに基づきフォーカスレンズの駆動位置(合焦位置)を決定し(S31)、決定した駆動位置にフォーカスレンズを駆動する(S32)。コントローラ180は例えば、DFD方式またはコントラストAF方式を用いて、フォーカスレンズの駆動位置を決定する。後のDFD演算のために、そのときの被写体距離及び撮像された画像データが内部メモリ240に記憶される。
その後、コントローラ180は、レリーズボタンが全押しされたか否かを判定する(S33)。レリーズボタンの全押し操作は、画像の撮像及び記録を指示するための操作であるため、レリーズボタンが全押しされた場合(S33でYES)、コントローラ180は、CMOSイメージセンサ140で撮像された画像の画像データを取得し、所定の画像処理を施した後、メモリカード200に記録する(S42)。画像データの記録完了後、本処理は終了する。
レリーズボタンが全押しされていない場合(S33でNO)、コントローラ180は、半押し状態になって所定時間経過したか否かを判断する(S34)。半押し状態になって所定時間が経過するまでは(S34でNO)、コントローラ180はステップS30に戻り、上記の処理(S30〜S33)を繰り返す。この間、レリーズボタンの半押しが終了した場合(S44でYES)、本処理を終了する。
半押し状態になって所定時間が経過したときは(S44でYES)、コントローラ180は、CMOSイメージセンサ140で撮像された画像の画像データを取得し、取得した画像を参照画像Bに設定する(S35)。参照画像Bに設定された画像データは内部メモリ240に記録される。
さらに、コントローラ180は、CMOSイメージセンサ140で撮像された別の画像の画像データを取得し、取得した画像を観測画像Aに設定する(S36)。観測画像Aに設定された画像データは内部メモリ240に記録される。
そして、コントローラ180は、画像処理部160に対してDepthマップ50の生成を指示する(S37)。Depthマップ50の生成処理は前述のとおりである。
コントローラ180は、Depthマップ50を用いて、移動後の被写体についての移動距離(Δd)と被写体距離を算出する(S38)。
コントローラ180は、算出した今回の被写体距離(Dnew)と前回の被写体距離(Dold)を比較し、その距離差を判定する(S39)。距離差が所定値より大きい場合(S39でYES)、コントローラ180はステップS31に戻り、再度合焦動作を行う。この場合、被写体が大きく移動している可能性が高いため、再度の合焦動作を行うことで、被写体距離の検出精度をより高めている。
距離差が所定値以下の場合(S39でNO)、コントローラ180は、被写体の光軸方向の移動があったか否かを判断する(S40)。
被写体の光軸方向の移動がない場合(S40でNO)、コントローラ180は、ステップ36に戻る。このとき、コントローラ180は、レリーズボタンが全押しされたか(S46)、またはレリーズボタンの半押しが終了したか(S45)を検出する。
レリーズボタンが全押しされた場合(S46でYES)、コントローラ180は、CMOSイメージセンサ140で撮像された別の画像の画像データを取得し、所定の画像処理を施した後、メモリカード200に記録し(S43)、本処理を終了する。レリーズボタンの半押しが終了した場合(S45でYES)、コントローラ180は本処理を終了する。
一方、被写体の光軸方向の移動があった場合(S40でYES)、コントローラ180は、レンズ駆動部120を制御することによりフォーカスレンズ113を移動距離(Δd)に対応する距離だけ移動させて、合焦位置へ移動させる(S41)。これにより、フォーカスレンズ113を、移動した被写体に対して自動で合焦させることができる。合焦時の被写体距離は内部メモリ240に記憶され、次のDFD演算の際に被写体距離(Dold)として使用される。
その後、コントローラ180は、レリーズボタンが全押しされたかを検出する(S42)。レリーズボタンの全押しが検出された場合(S42でYES)、コントローラ180は、画像データをメモリカード200に記録し(S43)、本処理を終了する。
レリーズボタンの全押しが検出されなかった場合(S42でNO)、コントローラ180はステップS35に戻り、上記の処理を繰り返す。なお、この間、レリーズボタンの半押しの終了、または、レリーズボタンの全押しを検出したときは、コントローラ180は、上述の処理を実行し、本処理を終了する。
以上のように、静止画記録の場合においても、DFD方式による合焦動作が実施されるため、高速な合焦動作を実現することができる。このことは、例えば、陸上競技において短距離選手のスタート時の画像を撮影したいような場合に有利である。この場合、撮影者は、スタート直前においてレリーズボタンの半押しにより、所望の選手に予め合焦させた状態でスタートを待ち、選手がスタートすると即座にレリーズボタンを全押しすることにより撮影を行う。本実施の形態のデジタルカメラ100によれば、このような状況においても、高速に合焦動作が実施されるため、ピンぼけがない鮮明な画像を撮像することができる。
〔3.効果、等〕
以上のように、本実施形態のデジタルカメラ100(撮像装置の一例)は、フォーカスレンズ113を含む光学系110を介して形成された被写体の像を撮像し、画像データを生成するCMOSイメージセンサ140(画像センサの一例)と、CMOSイメージセンサ140で生成された画像データを用いて、被写体までの距離である被写体距離(d)及び被写体の移動距離(Δd)を算出する画像処理部160(またはDFD演算回路161)(測距部の一例)と、算出した被写体距離または被写体の移動距離(Δd)を用いてオートフォーカス動作を行うコントローラ180(制御部の一例)と、を備える。画像処理部160は、被写体が第1の位置(P1)にあるときにCMOSイメージセンサ140によって生成された参照画像B(第1の画像データが示す画像の一例)と、同じフォーカスレンズ位置でかつ被写体が第2の位置(P2)にあるときにCMOSイメージセンサ140によって生成された観測画像A(第2の画像データが示す画像の一例)と、被写体が第1の位置(P1)にあるときの合焦位置(L1)に対応した光学系110に対する点拡がり関数(PSF1〜PSF16)を用いて、第1の位置(P1)と第2の位置(P)間の距離(Δd)を算出し、その距離(Δd)を用いて観測画像Aについて被写体距離(D)及び被写体の移動距離(Δd)を算出する。
以上の構成により、デジタルカメラ100は、被写体が移動したときに被写体の移動に起因して発生するボケ差分を利用することで、フォーカスレンズ113を移動させることなく、移動後の被写体までの距離を計測することができる。これにより高速に被写体距離を測距できるため、オートフォーカス動作における動く被写体に対する追従性を高めることができる。これは特に動画撮影時または高速連写時に有効である。
(実施の形態2)
実施の形態1では、DFD演算において、点拡がり関数(PSF)を用いた。DFD演算において、この点拡がり関数(PSF)に代えて、点拡がり関数をフーリエ変換して得られる光伝達関数(OTF:Optical Transfer Function)を用いてもよい。本実施の形態では、光伝達関数(OTF)を用いたDFD演算を行うデジタルカメラ100を説明する。本実施の形態のデジタルカメラ100は、光伝達関数(OTF)を用いたDFD演算を行う以外は、実施の形態1のものと同様の構成を有し、同様の動作を行う。
図10は、本実施の形態におけるデジタルカメラ100のDFD演算による被写体の移動距離の算出方法を説明するための図である。光伝達関数OTF1〜OTF16はそれぞれ、点拡がり関数PSF1〜PSF16を高速フーリエ変換(FFT:First Fourier transform)して得られた関数である。
DFD演算回路161は、観測画像AをFFT処理し、観測画像Afを得る。観測画像Afは複数の観測画素PAfで構成される。また、DFD演算回路161は、参照画像BをFFT処理し、参照画像Bfを得る。参照画像Bfは複数の参照画素PBfで構成される。
DFD演算回路161は、観測画像Afを構成する各観測画素PAfと、参照画像Bfを構成する各参照画素PBfとに対してDFD演算を行い、各観測画素PAについて被写体の移動距離を算出し、Depthマップ50を作成する。
具体的には、DFD演算回路161は、観測画素PAfに光伝達関数OTF1〜OTF16を作用させて観測画素CAf1〜CAf16を得る。DFD演算回路161は、得られた複数の観測画素CAf1〜CAf16を、各観測画素CAf1〜CAf16と画像上の座標と同じ座標にある参照画素PBfと照合する。そして、振幅成分の類似度が最も高い観測画素CAfminを特定する。DFD演算回路161は、特定した観測画素CAfを生成した光伝達関数OTFに対応する移動距離を観測画素PAfの移動距離、すなわち、観測画素PAの移動距離として決定する。
以上のようにして、光伝達関数(OTF)を用いても、点拡がり関数(PSF)の場合と同様にDepthマップを作成することができ、これを用いて被写体の移動距離を検出することができる。光伝達関数を用いた場合、被写体の動きに関する振幅成分のみが反映され、位相成分が除去されるため、位置ずれ(xy方向の動き)に対する検出精度がより向上できる。
すなわち、本実施の形態のデジタルカメラは、フォーカスレンズを含む光学系110を介して形成された被写体の像を撮像し、画像データを生成するCMOSイメージセンサ140と、CMOSイメージセンサ140で生成された画像データを用いて、被写体までの距離である被写体距離及び被写体の移動距離Δdを算出するDFD演算回路(測距部の一例)161と、算出した被写体距離または被写体の移動距離を用いてオートフォーカス動作を行うコントローラ180と、を備える。DFD演算回路161は、被写体が第1の位置(P1)にあるときに画像センサ140によって生成された第1の画像データ(参照画像B)と、同じフォーカスレンズ位置でかつ被写体が第2の位置(P2)にあるときにCMOSイメージセンサ140によって生成された第2の画像データ(観測画像A)と、被写体が第1の位置(P1)にあるときの合焦位置(L1)に対応した光学系110の光学伝達関数(OTF)を用いて、第1の位置(P1)と第2の位置(P)の間の距離(Δd)を求め、求めた距離に基づき第2の画像データが示す画像について被写体距離及び被写体の移動距離(Δd)を算出する。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
(1)上記の実施の形態では、レンズ位置Lと被写体距離Dの各組み合わせに対して、16個の移動距離Δdに対して点拡がり関数PSFを設定したが、移動距離の数はこれに限定されない。より多くの、または、より少ない個数(n)の移動距離に対して点拡がり関数PSF1〜PSFnを設けてもよい。
(2)上記の実施形態に開示した思想は、レンズ交換式カメラ及びレンズ一体型カメラの双方の種類のデジタルカメラに対して適用できる。
(3)上記の実施形態では、撮像装置の一例としてデジタルカメラを用いて説明したが、撮像装置はこれに限定されない。本開示の思想は、デジタルカメラ、スマートフォン、ウェアラブルカメラ等のオートフォーカス機能を有する種々の撮像装置に対して適用することができる。
(4)上記の実施形態では、画像センサをCMOSイメージセンサで構成したが、画像センサはこれに限定されない。画像センサはCCDまたはNMOSイメージセンサで構成してもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、動画を撮影できる撮像装置に対して適用可能である。具体的には、デジタルカメラ、デジタルカメラ、スマートフォン、ウェアラブルカメラ等の動画が撮影できる種々の撮像装置に対して適用することができる。
100 デジタルカメラ
110 光学系
111 ズームレンズ
112 手振れ補正レンズ
113 フォーカスレンズ
120 レンズ駆動部
140 CMOSイメージセンサ
150 A/Dコンバータ
160 画像処理部
161 DFD演算回路
170 バッファ
180 コントローラ
190 カードスロット
200 メモリカード
210 操作部材
220 表示モニタ
240 内部メモリ
250 角速度センサ

Claims (5)

  1. フォーカスレンズを含む光学系を介して形成された被写体の像を撮像し、画像データを生成する画像センサと、
    前記画像センサで生成された画像データを用いて、被写体までの距離である被写体距離及び被写体の移動距離を算出する測距部と、
    算出した被写体距離または被写体の移動距離を用いてオートフォーカス動作を行う制御部と、
    を備え、
    前記測距部は、
    前記被写体が第1の位置にあるときに前記画像センサによって生成された第1の画像データと、
    前記被写体が第2の位置にあるときに前記画像センサによって生成された第2の画像データと、
    前記被写体が第1の位置にあるときの合焦位置に対応した前記光学系の点拡がり関数を用いて、前記第1の位置と前記第2の位置の間の距離を求め、前記求めた距離に基づき前記第2の画像データが示す画像について被写体距離及び被写体の移動距離を算出する、
    撮像装置。
  2. フォーカスレンズを含む光学系を介して形成された被写体の像を撮像し、画像データを生成する画像センサと、
    前記画像センサで生成された画像データを用いて、被写体までの距離である被写体距離及び被写体の移動距離を算出する測距部と、
    算出した被写体距離または被写体の移動距離を用いてオートフォーカス動作を行う制御部と、
    を備え、
    前記測距部は、
    前記被写体が第1の位置にあるときに前記画像センサによって生成された第1の画像データと、
    前記被写体が第2の位置にあるときに前記画像センサによって生成された第2の画像データと、
    前記被写体が第1の位置にあるときの合焦位置に対応した前記光学系の光学伝達関数を用いて、前記第1の位置と前記第2の位置の間の距離を求め、前記求めた距離に基づき前記第2の画像データが示す画像について被写体距離及び被写体の移動距離を算出する、
    撮像装置。
  3. 前記測距部は、前記第2の画像データが示す画像の各画素に対する前記第1の位置と前記第2の位置の間の距離を示す情報を含むマップを作成する、請求項1または2に記載の撮像装置。
  4. 前記フォーカスレンズを駆動するレンズ駆動部をさらに備え、
    前記制御部は、前記算出した被写体距離に基づき前記レンズ駆動部を制御する
    請求項1または2に記載の撮像装置。
  5. 前記制御部は、前記被写体が光軸方向に移動したことを検出したときに、求めた被写体の移動距離に基づき前記レンズ駆動部を制御する、
    請求項4に記載の撮像装置。
JP2018131693A 2018-07-11 2018-07-11 撮像装置 Active JP7002050B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018131693A JP7002050B2 (ja) 2018-07-11 2018-07-11 撮像装置
US16/507,236 US10917556B2 (en) 2018-07-11 2019-07-10 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018131693A JP7002050B2 (ja) 2018-07-11 2018-07-11 撮像装置

Publications (2)

Publication Number Publication Date
JP2020008785A true JP2020008785A (ja) 2020-01-16
JP7002050B2 JP7002050B2 (ja) 2022-02-10

Family

ID=69139291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018131693A Active JP7002050B2 (ja) 2018-07-11 2018-07-11 撮像装置

Country Status (2)

Country Link
US (1) US10917556B2 (ja)
JP (1) JP7002050B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111629143A (zh) * 2020-04-24 2020-09-04 江苏大学 一种基于对特定光源的识别和声源定位结合的目标搜寻系统及方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11593581B2 (en) 2019-02-28 2023-02-28 Stats Llc System and method for calibrating moving camera capturing broadcast video

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011164428A (ja) * 2010-02-10 2011-08-25 Canon Inc 撮像装置、撮像装置の制御方法
JP2013512626A (ja) * 2009-12-16 2013-04-11 ソニー エレクトロニクス インク シーン内の正確な及び相対的な被写体距離を推定するためのアルゴリズム
JP2013205516A (ja) * 2012-03-27 2013-10-07 Nippon Hoso Kyokai <Nhk> 多重フォーカスカメラ
JP2015121773A (ja) * 2013-11-19 2015-07-02 パナソニックIpマネジメント株式会社 撮像装置
JP2017156372A (ja) * 2016-02-29 2017-09-07 キヤノン株式会社 撮像装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5281972B2 (ja) 2009-07-01 2013-09-04 オリンパス株式会社 撮像装置
US8773570B2 (en) * 2010-06-17 2014-07-08 Panasonic Corporation Image processing apparatus and image processing method
JP6140935B2 (ja) * 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
JP6157249B2 (ja) * 2012-07-31 2017-07-05 キヤノン株式会社 撮像装置、距離情報取得方法およびプログラム
JP6335423B2 (ja) 2012-08-31 2018-05-30 キヤノン株式会社 情報処理装置および情報処理方法
JP5866493B2 (ja) * 2013-11-19 2016-02-17 パナソニックIpマネジメント株式会社 撮像装置
JP5866570B2 (ja) 2013-11-19 2016-02-17 パナソニックIpマネジメント株式会社 撮像装置
JP6357646B2 (ja) 2014-03-28 2018-07-18 パナソニックIpマネジメント株式会社 撮像装置
JP5895270B2 (ja) * 2014-03-28 2016-03-30 パナソニックIpマネジメント株式会社 撮像装置
JP6326631B2 (ja) 2014-03-28 2018-05-23 パナソニックIpマネジメント株式会社 撮像装置
JP6555990B2 (ja) 2014-10-31 2019-08-07 キヤノン株式会社 距離計測装置、撮像装置、および距離計測方法
US9928598B2 (en) 2014-10-31 2018-03-27 Canon Kabushiki Kaisha Depth measurement apparatus, imaging apparatus and depth measurement method that calculate depth information of a target pixel using a color plane of which a correlation value is at most a threshold
JP2016133595A (ja) 2015-01-19 2016-07-25 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
KR102382865B1 (ko) * 2017-06-28 2022-04-05 삼성전자주식회사 카메라 모듈, 카메라 모듈을 포함하는 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013512626A (ja) * 2009-12-16 2013-04-11 ソニー エレクトロニクス インク シーン内の正確な及び相対的な被写体距離を推定するためのアルゴリズム
JP2011164428A (ja) * 2010-02-10 2011-08-25 Canon Inc 撮像装置、撮像装置の制御方法
JP2013205516A (ja) * 2012-03-27 2013-10-07 Nippon Hoso Kyokai <Nhk> 多重フォーカスカメラ
JP2015121773A (ja) * 2013-11-19 2015-07-02 パナソニックIpマネジメント株式会社 撮像装置
JP2017156372A (ja) * 2016-02-29 2017-09-07 キヤノン株式会社 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111629143A (zh) * 2020-04-24 2020-09-04 江苏大学 一种基于对特定光源的识别和声源定位结合的目标搜寻系统及方法
CN111629143B (zh) * 2020-04-24 2021-10-12 江苏大学 一种基于光源识别和声源定位结合的目标搜寻系统及方法

Also Published As

Publication number Publication date
US20200021745A1 (en) 2020-01-16
US10917556B2 (en) 2021-02-09
JP7002050B2 (ja) 2022-02-10

Similar Documents

Publication Publication Date Title
JP5895270B2 (ja) 撮像装置
JP6700872B2 (ja) 像振れ補正装置及びその制御方法、撮像装置、プログラム、記憶媒体
JP2016072965A (ja) 撮像装置
JP6432038B2 (ja) 撮像装置
JP6405531B2 (ja) 撮像装置
JP6300670B2 (ja) 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置
JP5936358B2 (ja) 画像表示装置、画像表示方法、撮像装置およびその制御方法、プログラムおよびそれを記憶する記憶媒体
US9900493B2 (en) Focus detecting apparatus, and method of prediction for the same
JP6040422B2 (ja) 撮像装置
JP2019083364A (ja) 画像処理装置、撮像装置および制御方法
JP6326631B2 (ja) 撮像装置
JP7002050B2 (ja) 撮像装置
US20160275657A1 (en) Imaging apparatus, image processing apparatus and method of processing image
WO2013069279A1 (ja) 撮像装置
JP6089232B2 (ja) 撮像装置
JP2010118962A (ja) 撮像装置及びその制御方法及びプログラム
JP6223502B2 (ja) 画像処理装置、画像処理方法、プログラム、それを記憶した記憶媒体
US10951829B2 (en) Image capturing apparatus and method for controlling display
WO2021065065A1 (ja) 撮像装置
JP2017058563A (ja) 自動焦点調節装置、撮像装置、および自動焦点調節方法
WO2020012961A1 (ja) 撮像装置
JP2016178632A (ja) 撮像装置、画像処理装置および画像処理方法
WO2020012960A1 (ja) 撮像装置
JP2014179782A (ja) 撮像装置及び画像表示方法
JP2015156552A (ja) 撮像装置、撮像装置の制御方法、プログラム、および、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R151 Written notification of patent or utility model registration

Ref document number: 7002050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151