[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021124669A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2021124669A
JP2021124669A JP2020019781A JP2020019781A JP2021124669A JP 2021124669 A JP2021124669 A JP 2021124669A JP 2020019781 A JP2020019781 A JP 2020019781A JP 2020019781 A JP2020019781 A JP 2020019781A JP 2021124669 A JP2021124669 A JP 2021124669A
Authority
JP
Japan
Prior art keywords
subject
target
tracking
image
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020019781A
Other languages
English (en)
Other versions
JP7500211B2 (ja
Inventor
康弘 松尾
Yasuhiro Matsuo
康弘 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020019781A priority Critical patent/JP7500211B2/ja
Priority to US17/168,749 priority patent/US11450131B2/en
Publication of JP2021124669A publication Critical patent/JP2021124669A/ja
Priority to US17/888,156 priority patent/US20230042807A1/en
Application granted granted Critical
Publication of JP7500211B2 publication Critical patent/JP7500211B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】追尾対象の再設定をより好適に行うことができる技術を提供する。
【解決手段】本発明の電子機器は、ユーザの視線に関する視線情報を取得する取得手段と、撮像された画像を表示面に表示するように制御する表示制御手段と、被写体を追尾するように当該被写体を前記画像から検出する追尾手段と、前記追尾手段の追尾対象を設定する設定手段とを有し、前記追尾対象の被写体が検出されなくなった場合に、前記設定手段は、前記視線情報と、当該被写体の追尾履歴とに基づいて、前記追尾対象の再設定を行うことを特徴とする。
【選択図】図6

Description

本発明は、撮像範囲内での被写体の追尾を実行可能な電子機器に関する。
撮像装置では、被写体追尾(撮像範囲内での被写体の追尾)を行うことにより、ターゲット(追尾対象)に焦点を合わせ続けることが可能となる。被写体追尾では、ターゲットが検出されなくなった場合に、ターゲットの再設定が必要となることがある。ターゲットが検出されなくなる場合とは、例えば、ターゲットが他の被写体に隠れた場合や、ターゲットが画面(撮像された画像が表示される画像表示領域)の外に出た場合である。特許文献1には、所定領域内でターゲットが検出されなくなったタイミングから閾値時間内に所定領域内でターゲットが検出された場合に、ターゲットの再設定を行わずに被写体追尾を継続する方法が開示されている。この方法によれば、ターゲットが一時的に検出されなくなっても、安定して被写体追尾を行うことができる。
特開2018−7272号公報
しかしながら、ターゲットが一時的に検出されなくなる場合として様々な場合が考えられるため、ターゲットが再検出されるのを待つ閾値時間を1つに決めることは困難である。このため、特許文献1に開示の方法では、ターゲット(追尾対象)の再設定を好適に行えないことがある。例えば、閾値時間が短い場合には、待てばターゲットが再検出されるにもかかわらず、ターゲットの再設定によりターゲットが他の被写体に切り替わってしまうことがある。一方で、閾値時間が長い場合には、ターゲットが検出されない状態が続いてシャッターチャンスを逃してしまうことがある。
本発明は、追尾対象の再設定をより好適に行うことができる技術を提供することを目的とする。
本発明の電子機器は、ユーザの視線に関する視線情報を取得する取得手段と、撮像された画像を表示面に表示するように制御する表示制御手段と、被写体を追尾するように当該被写体を前記画像から検出する追尾手段と、前記追尾手段の追尾対象を設定する設定手段とを有し、前記追尾対象の被写体が検出されなくなった場合に、前記設定手段は、前記視線情報と、当該被写体の追尾履歴とに基づいて、前記追尾対象の再設定を行うことを特徴とする。
本発明によれば、追尾対象の再設定をより好適に行うことができる。
本実施形態に係る撮像装置の構成例を示すブロック図 本実施形態に係る撮像装置の射出瞳と光電変換部の対応関係の例を示す図 本実施形態に係る視線検出部の構成例を示す図 第1実施形態により解決される課題の一例を示す図 第1実施形態に係る被写体追尾の一例を示すフローチャート 第1実施形態に係るターゲット再設定判定の一例を示すフローチャート 第1実施形態に係るターゲット再設定判定の動作例を示す図 第1実施形態に係るターゲット再設定判定の動作例を示す図 第2実施形態に係るターゲット再設定判定に関する図 第2実施形態に係るターゲット再設定判定の一例を示すフローチャート 第3実施形態に係るターゲット再設定判定に関する図 第3実施形態に係る追尾ロスト領域の拡張例を示す図 第3実施形態に係るターゲット再設定判定の一例を示すフローチャート 第4実施形態に係るターゲット再設定判定に関する図 第4実施形態に係る追尾ロスト領域の拡張例を示す図 第4実施形態に係るターゲット再設定判定の一例を示すフローチャート
以下、添付図面を参照して本発明をその例示的な実施形態に基づいて詳細に説明する。なお、以下の実施形態は本発明を限定するものではない。また、以下では複数の特徴が記載されているが、その全てが本発明に必須のものとは限らない。また、以下に記載される複数の特徴は任意に組み合わせてもよい。さらに、添付図面において同一若しくは同様の構成には同一の参照番号を付し、重複する説明は省略する。
なお、以下の実施形態では、本発明を撮像装置(具体的にはレンズ交換式のデジタルカメラ)で実施する場合に関して説明する。しかし、本発明は被写体追尾機能(撮像範囲内での被写体の追尾を実行する機能)を搭載可能な任意の電子機器に対して適用可能である。このような電子機器には、ビデオカメラ、コンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、メディアプレーヤ、PDAなど)、携帯電話機、スマートフォン、ゲーム機、ロボット、ドローン、ドライブレコーダなどが含まれる。これらは例示であり、本発明は他の電子機器にも適用可能である。また、以下のデジタルカメラは被写体追尾機能や視線検出機能、撮像機能、表示機能などを有するが、それらの機能を互いに通信可能な複数の機器(例えば本体とリモートコントローラ)に分けて搭載する構成にも本発明は適用可能である。
[構成]
図1は、本発明の実施形態にかかる電子機器の一例としてのデジタルカメラシステムの構成例を示すブロック図である。デジタルカメラシステムは、レンズ交換式デジタルカメラの本体100と、本体100に着脱可能なレンズユニット150とを有している。なお、レンズ交換式であることは本発明に必須でない。
レンズユニット150は、本体100に装着されると本体100に設けられた通信端子10と接触する通信端子6を有する。通信端子10および通信端子6を通じて本体100からレンズユニット150に電源が供給される。また、レンズユニット150のレンズシステム制御回路4と本体100のシステム制御部50とは通信端子10および通信端子6を通じて双方向に通信可能である。
レンズユニット150において、レンズ群103は可動レンズを含む複数のレンズから構成される撮像光学系である。可動レンズには少なくともフォーカスレンズが含まれる。また、レンズユニット150によっては、変倍レンズや、ぶれ補正レンズなどの1つ以上がさらに含まれ得る。AF駆動回路3は、フォーカスレンズを駆動するモータやアクチュエータなどを含む。フォーカスレンズは、レンズシステム制御回路4がAF駆動回路3を制御することによって駆動される。絞り駆動回路2は、絞り102を駆動するモータアクチュエータなどを含む。絞り102の開口量は、レンズシステム制御回路4が絞り駆動回
路2を制御することによって調整される。
メカニカルシャッタ101はシステム制御部50によって駆動され、撮像素子22の露光時間を調整する。なお、メカニカルシャッタ101は動画撮影時には全開状態に保持される。
撮像素子22は例えばCCDイメージセンサやCMOSイメージセンサである。撮像素子22には複数の画素が2次元配置されており、各画素には1つのマイクロレンズ、1つのカラーフィルタ、および1つ以上の光電変換部が設けられている。本実施形態においては、各画素に複数の光電変換部が設けられており、各画素は光電変換部ごとに信号を読み出し可能に構成されている。画素をこのような構成にすることにより、撮像素子22から読み出した信号から撮像画像、視差画像対、および位相差AF用の像信号を生成することができる。
図2(a)は、撮像素子22が有する画素が2つの光電変換部を有する場合の、レンズユニット150の射出瞳と各光電変換部との対応関係を模式的に示した図である。
画素に設けられた2つの光電変換部201a,201bは1つのカラーフィルタ252および1つのマイクロレンズ251を共有する。そして、光電変換部201aには射出瞳(領域253)の部分領域253aを通過した光が、光電変換部201bには射出瞳の部分領域253bを通過した光が、それぞれ入射する。
したがって、或る画素領域に含まれる画素について、光電変換部201aから読み出される信号で形成される画像と、光電変換部201bから読み出される信号で形成される画像とは視差画像対を構成する。また、視差画像対は位相差AF用の像信号(A像信号およびB像信号)として用いることができる。さらに、光電変換部201aから読み出される信号と光電変換部201bから読み出される信号とを画素ごとに加算することで、通常の画像信号(撮像画像)を得ることができる。
なお、本実施形態では撮像素子22の各画素が、位相差AF用の信号を生成するための画素(焦点検出用画素)としても、通常の画像信号を生成するための画素(撮像用画像)としても機能する。しかしながら、撮像素子22の一部の画素を焦点検出用画素とし、他の画素を撮像用画素とした構成であってもよい。図2(b)は、焦点検出用画素と、入射光が通過する射出瞳の領域253との対応関係の一例を示している。図2(b)に示す焦点検出用画素において、光電変換部201は、開口部254により、図2(a)の光電変換部201bと同様に機能する。図2(b)に示す焦点検出用画素と、図2(a)の光電変換部201aと同様に機能する別の種類の焦点検出用画素とを、撮像素子22の全体に分散配置することにより、実質的に任意の場所及び大きさの焦点検出領域を設定することが可能になる。
図2(a),2(b)に示す構成は、記録用の画像を得るための撮像素子を位相差AF用のセンサとして用いる構成であるが、任意の大きさ及び位置の焦点検出領域を設定可能な他のAFなど、AFの方式に依らず本発明は実施可能である。例えばコントラストAFを用いる構成であっても本発明は実施可能である。コントラストAFのみを用いる場合には、各画素が有する光電変換部は1つである。
図1に戻り、A/D変換器23は、撮像素子22から出力されるアナログ画像信号をデジタル画像信号(画像データ)に変換するために用いられる。なお、A/D変換器23は撮像素子22が備えてもよい。
A/D変換器23が出力する画像データ(RAW画像データ)は、必要に応じて画像処理部24で処理されたのち、メモリ制御部15を通じてメモリ32に格納される。メモリ32は画像データや音声データを一時的に記憶するバッファメモリとして用いられたり、表示部28用のビデオメモリとして用いられたりする。
画像処理部24は、画像データに対して予め定められた画像処理を適用し、信号や画像データを生成したり、各種の情報を取得および/または生成したりする。画像処理部24は例えば特定の機能を実現するように設計されたASICのような専用のハードウェア回路であってもよいし、DSPのようなプロセッサがソフトウェアを実行することで特定の機能を実現する構成であってもよい。
ここで、画像処理部24が適用する画像処理には、前処理、色補間処理、補正処理、検出処理、データ加工処理、評価値算出処理などが含まれる。前処理には、信号増幅、基準レベル調整、欠陥画素補正などが含まれる。色補間処理は、画像データに含まれていない色成分の値を補間する処理であり、デモザイク処理とも呼ばれる。補正処理には、ホワイトバランス調整、画像の輝度を補正する処理、レンズユニット150の光学収差を補正する処理、色を補正する処理などが含まれる。検出処理には、特徴領域(たとえば顔領域や人体領域)の検出および追尾処理、人物の認識処理などが含まれる。データ加工処理には、スケーリング処理、符号化および復号処理、ヘッダ情報生成処理などが含まれる。評価値算出処理には、位相差AF用の1対の像信号やコントラストAF用の評価値や、自動露出制御に用いる評価値などの算出処理が含まれる。なお、これらは画像処理部24が実施可能な画像処理の例示であり、画像処理部24が実施する画像処理を限定するものではない。また、評価値算出処理はシステム制御部50が行ってもよい。
D/A変換器19は、メモリ32に格納されている表示用の画像データから、表示部28での表示に適したアナログ信号を生成して、生成したアナログ信号を表示部28に供給する。表示部28は例えば液晶表示装置を有し、D/A変換器19からのアナログ信号に基づく表示を表示面上で行う。
動画の撮像(撮像制御)と、撮像された動画の表示(表示制御)とを継続的に行うことで、表示部28を電子ビューファインダ(EVF)として機能させることができる。表示部28をEVFとして機能させるために表示する動画をライブビュー画像と呼ぶ。表示部28は接眼部を通じて観察するように本体100の内部に設けられてもよいし、接眼部を用いずに観察可能なように本体100の筐体表面に設けられてもよい。表示部28は、本体100の内部と筐体表面との両方に設けられてもよい。
システム制御部50は例えばCPU(MPU、マイクロプロセッサとも呼ばれる)である。システム制御部50は、不揮発性メモリ56に記憶されたプログラムをシステムメモリ52に読み込んで実行することにより、本体100およびレンズユニット150の動作を制御し、カメラシステムの機能を実現する。システム制御部50は、通信端子10および6を通じた通信によってレンズシステム制御回路4に様々なコマンドを送信することにより、レンズユニット150の動作を制御する。
不揮発性メモリ56は、システム制御部50が実行するプログラム、カメラシステムの各種の設定値、GUI(Graphical User Interface)の画像データなどを記憶する。システムメモリ52は、システム制御部50がプログラムを実行する際に用いるメインメモリである。不揮発性メモリ56に格納されたデータ(情報)は書き替え可能であってよい。
システム制御部50はその動作の一部として、画像処理部24または自身が生成した評
価値に基づく自動露出制御(AE)処理を行い、撮影条件を決定する。例えば、静止画撮影の撮影条件はシャッター速度、絞り値、感度である。システム制御部50は、設定されているAEのモードに応じて、シャッター速度、絞り値、感度の1つ以上を決定する。システム制御部50はレンズユニット150の絞り機構の絞り値(開口量)を制御する。また、システム制御部50は、メカニカルシャッタ101の動作も制御する。
また、システム制御部50は、画像処理部24または自身が生成した評価値もしくはデフォーカス量に基づいてレンズユニット150のフォーカスレンズを駆動し、レンズ群103を焦点検出領域内の被写体に合焦させる自動焦点検出(AF)処理を行う。
システムタイマー53は内蔵時計であり、システム制御部50が利用する。
操作部70はユーザが操作可能な複数の入力デバイス(ボタン、スイッチ、ダイヤルなど)を有する。操作部70が有する入力デバイスの一部は、割り当てられた機能に応じた名称を有する。シャッターボタン61、モード切り替えスイッチ60、電源スイッチ72は便宜上、操作部70と別に図示ししているが、操作部70に含まれる。表示部28がタッチパネルを備えるタッチディスプレイである場合には、タッチパネルもまた操作部70に含まれる。操作部70に含まれる入力デバイスの操作はシステム制御部50が監視している。システム制御部50は、入力デバイスの操作を検出すると、検出した操作に応じた処理を実行する。
シャッターボタン61は半押し状態でONとなり信号SW1を出力する第1シャッタースイッチ62と、全押し状態でONとなり信号SW2を出力する第2シャッタースイッチ64とを有する。システム制御部50は、信号SW1(第1シャッタースイッチ62のON)を検出すると、静止画撮影の準備動作を実行する。準備動作には、AE処理やAF処理などが含まれる。また、システム制御部50は、信号SW2(第2シャッタースイッチ64のON)を検出すると、AE処理で決定した撮影条件に従った静止画の撮影動作(撮像および記録の動作)を実行する。
また、本実施形態の操作部70は、ユーザの視線(視線方向)を検出して検出結果(ユーザの視線に関する視線情報)を出力する視線検出部701を有する。システム制御部50は、視線検出部701からの視線情報に応じて各種制御を実行することができる。視線検出部701はユーザが直接操作する部材ではないが、視線検出部701が検出する視線を入力として取り扱うため、操作部70に含めている。
図3(a)は、ファインダ内に設ける視線検出部701の構成例を模式的に示す側面図である。視線検出部701は、本体100の内部に設けられた表示部28をファインダのアイピースを通じて見ているユーザの眼球501aの光軸の回転角を視線の方向として検出する。検出された視線の方向に基づいて、ユーザが表示部28で注視している位置(表示画像中の注視点)を特定することができる。
表示部28には例えばライブビュー画像が表示され、ユーザはアイピースの窓を覗き込むことにより、表示部28の表示内容を接眼レンズ701dおよびダイクロックミラー701cを通じて観察することができる。光源701eは、アイピースの窓方向(本体100の外部方向)に赤外光を発することができる。ユーザがファインダを覗いている場合には、光源701eが発した赤外光は眼球501aで反射されてファインダ内に戻ってくる。ファインダに入射した赤外光はダイクロックミラー701cで受光レンズ701b方向に反射される。
受光レンズ701bは、赤外光による眼球像を撮像素子701aの撮像面に形成する。
撮像素子701aは赤外光撮像用のフィルタを有する2次元撮像素子である。視線検出用の撮像素子701aの画素数は撮影用の撮像素子22の画素数よりも少なくてよい。撮像素子701aによって撮像された眼球画像はシステム制御部50に送信される。システム制御部50は、眼球画像から赤外光の角膜反射の位置と瞳孔の位置とを検出し、両者の位置関係から視線方向を検出する。また、システム制御部50は、検出した視線方向に基づいて、ユーザが注視している表示部28の位置(表示画像中の注視点)を検出する。なお、眼球画像から角膜反射の位置と瞳孔の位置を画像処理部24で検出し、システム制御部50は画像処理部24からこれらの位置を取得してもよい。
なお、本発明は視線検出の方法や視線検出部の構成には依存しない。したがって、視線検出部701の構成は図3(a)に示したものに限定されない。例えば、図3(b)に示すように、本体100の背面に設けられた表示部28の近傍に配置されたカメラ701fにより撮像された画像に基づいて視線を検出してもよい。破線で示すカメラ701fの画角は、表示部28を見ながら撮影を行うユーザの顔が撮像されるように定められている。カメラ701fで撮像した画像から検出した目領域(眼球501aと眼球501の少なくとも一方の領域)の画像に基づいて視線の方向を検出することができる。赤外光の画像を用いる場合には、カメラ701fの近傍に光源701eを配置し、光源701eで画角内の被写体に赤外光を投写して撮像を行えばよい。その場合は、得られた画像から視線の方向を検出する方法は図3(a)の方法と同様でよい。また、可視光の画像を用いる場合には光を投射しなくてもよい。可視光の画像を用いる場合には、目領域の目頭と虹彩の位置関係などから視線の方向を検出することができる。
再び図1に戻り、電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。
電源部30は、電池やACアダプター等からなる。I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200には、撮影された画像や音声などのデータファイルが記録される。記録媒体200に記録されたデータファイルはI/F18を通じて読み出され、画像処理部24およびシステム制御部50を通じて再生することができる。
通信部54は、無線通信および有線通信の少なくとも一方による外部機器との通信を実現する。撮像素子22で撮像した画像(撮像画像;ライブビュー画像を含む)や、記録媒体200に記録された画像は、通信部54を通じて外部機器に送信可能である。また、通信部54を通じて外部機器から画像データやその他の各種情報を受信することができる。
姿勢検出部55は重力方向に対する本体100の姿勢を検出する。姿勢検出部55は加速度センサ、または角速度センサであってよい。システム制御部50は、撮影時に姿勢検出部55で検出された姿勢に応じた向き情報を、当該撮影で得られた画像データを格納するデータファイルに記録することができる。向き情報は、例えば記録済みの画像を撮影時と同じ向きで表示するために用いることができる。
本実施形態の本体100は、画像処理部24が検出した特徴領域が適切な画像となるように各種の制御を実施することが可能である。例えば、本体100は、特徴領域で合焦させる自動焦点検出(AF)や、特徴領域が適正露出となるような自動露出制御(AE)を実施することが可能である。また、本体100は、特徴領域のホワイトバランスが適切になるような自動ホワイトバランスや、特徴領域の明るさが適切になるような自動フラッシ
ュ光量調整なども実施することが可能である。なお、特徴領域を適切にする制御は、これらに限定されない。画像処理部24は、例えばライブビュー画像に対して公知の方法を適用して、予め定められた特徴に当てはまると判定される領域を特徴領域として検出し、各特徴領域の位置、大きさ、信頼度といった情報をシステム制御部50に出力する。なお、本発明は特徴領域の種類や検出方法には依存しない。また特徴領域の検出には公知の方法を利用可能であるため、特徴領域の検出方法についての説明は省略する。
また、特徴領域は、被写体情報を検出するためにも用いることができる。特徴領域が顔領域の場合、被写体情報として、例えば、赤目現象が生じているか否か、目をつむっているか否か、表情(例えば笑顔)などが検出される。なお、被写体情報はこれらに限定されない。
本実施形態では、大きさおよび位置が不定である複数の画像領域の一例としての複数の特徴領域から、各種の制御に用いたり、被写体情報を取得したりするための1つの特徴領域(主被写体領域)を、ユーザの視線を用いて選択することができる。以下、視線検出部701で検出されるようにユーザが視線を向けることを、視線入力と呼ぶ。
[視線入力の特徴]
スイッチやボタンの操作による入力に対する視線入力の特徴は、以下の2点である。1点目は、ユーザ指示の入力タイミングが特定できないことである。例えば、ボタン操作であれば、ボタン操作が検出されたタイミングをユーザ指示の入力タイミングと見なすことができる。しかし、視線方向は継続的に検出され、また変化するため、どの時点の視線方向がユーザ指示を意図した視線方向かを判定することができない。
2点目は、視線入力が生体由来であることによる視線方向の不安定さである。ユーザが或る一点を注視しているつもりでも、眼球が微小に動いたり、ユーザが無意識に視線を外してしまったりすることがある。したがって、画像中の注視点を特定するためには、或る時間にわたって検出された視線方向を統計的に処理する必要がある。
[追尾処理の課題]
追尾処理は、設定した被写体(ターゲット)を追尾するように、当該被写体を、撮像素子22により撮像された画像(撮像画像)から検出する処理である。本実施形態では、画像処理部24により、設定したターゲット(追尾対象)の追尾を行い、ターゲットの領域の信号を用いて焦点検出を行うことで、ターゲットにピントを合わせ続けることができる。しかしながら、ターゲットが他の被写体に隠れた場合や、ターゲットが画像表示領域の外に出た場合には、追尾が中断してしまうため、ターゲットの再出現を待ち続けるか、ターゲットの再設定を行う必要がある。なお、画像表示領域は、撮像画像が表示される領域であり、表示部28の表示面の全領域、表示部28に表示された画面(ウィンドウなど)の全領域、表示面または画面の一部の領域などのいずれかである。
特許文献1(特開2018−7272号公報)には、所定領域内でターゲットが検出されなくなったタイミングから閾値時間内に所定領域内でターゲットが検出された場合に、ターゲットの再設定を行わずに被写体追尾を継続する方法が開示されている。しかしながら、閾値時間を1つに決めることは困難であり、ターゲットの再設定を好適に行えないことがある。
また、別の方法として、ターゲットが検出されなくなった場合に、視線入力によりターゲットを再設定する方法が考えられる。しかしながら、ユーザ指示の入力タイミングが特定できないことや、視線方向の不安定さといった課題が存在するため、視線入力のみを用いて、ユーザが意図するようにターゲットの再設定を行うことは困難である。
(第1実施形態)
以下、本発明の第1実施形態について説明する。追尾処理の上記課題を解決するために、第1実施形態では、ターゲットが検出されなくなった場合に、視線入力(視線情報)と、当該ターゲットの追尾結果(追尾履歴)とに基づいて、ターゲットの再設定を行うタイミングを制御する。
第1実施形態では、画像処理部24は、ターゲットの再設定を行うことができる。例えば、ターゲットが検出されなくなった後、人物や動物など、ターゲットとして望ましい被写体が撮像画像から検出された場合に、画像処理部24は、検出された被写体を自動でターゲットとして再設定する。
但し、第1実施形態では、ターゲットが検出されなくなってから所定時間経過後ではなく、視線入力と追尾結果に基づくタイミングでターゲットの再設定を行う。例えば、ターゲットを見失った位置(ターゲットが検出されなくなった位置)に視線がとどまっている場合に、ユーザがターゲットの再出現を望んでいるものと判断し、ターゲットの再設定は発動させず、ターゲットの再出現(再検出)を待つ。一方で、ターゲットを見失った位置から視線が逸らされた場合は、ユーザが見失ったターゲットの追尾をあきらめ、別の被写体の追尾を望んでいると判断し、ターゲットの再出現を待たずに、ターゲットの再設定を発動させる。
このように、過去の追尾結果と、ユーザの視線入力とを用いて、ターゲットの再設定の実行/非実行を制御することにより、視線入力のみを用いる方法よりも正確にユーザの意図をくみ取った制御を行うことができる。
図4(a)〜4(c)は、ターゲットが検出されなくなった場合に、ユーザの意図にかかわらず、所定時間経過後にターゲットの再設定を行う動作の具体例を示す。図4(a)〜4(c)は、表示部28に表示された画面を示し、時間の経過に従い、図4(a)の画面から図4(b)の画面へ、図4(b)の画面から図4(c)の画面へと、画面が遷移する。
図4(a)の画面に表示された撮像画像には、人物301と人物302が存在している。人物301がターゲットとして設定されており、人物301の周りには、追尾枠321が表示されている。
図4(b)では、人物301の前を横切る車303に人物301が隠れ、人物301が検出されなくなっている。ここで、所定時間以上、車303に人物301が隠れているとする。このため、図4(b)では、ターゲットの再設定が発動し、人物302がターゲットとして再設定され、人物302の周りに追尾枠322が表示されている。
図4(c)では、人物301が再出現しているが、すでに人物302がターゲットとして設定されているため、追尾枠323は、人物302に対して表示されている。
このように、所定時間経過後にターゲットの再設定を自動で発動してしまうと、ユーザが人物301の追尾継続を望んでいても、ターゲットが人物302へと切り替わってしまう。
そこで、第1実施形態では、図5のフローチャートのように制御を行う。図5は、第1実施形態に係る被写体追尾のフローチャートである。図5に示す被写体追尾は、信号SW1(第1シャッタースイッチ62のON)を検出するのと同時に開始され、信号1が検出
されている間、継続して実施される。また、この方法に限らず、例えば、ターゲットが設定されると同時に被写体追尾を開始して、表示部28にライブビュー画像が表示されている間、継続して被写体追尾を実施してもよい。
ステップS1では、システム制御部50は、画像処理部24などを用いて、ターゲットを設定する。例えば、被写体追尾を開始する開始領域を表示部28に表示し、信号SW1が検出されたタイミングで、開始領域内に存在する被写体をターゲットに設定する。また、この方法に限らず、表示部28に設けられたタッチパネルや、視線検出部701を用いて、ユーザがターゲットを選択してもよい。また、画像処理部24が人物や動物を検出して、検出した被写体を自動でターゲットに設定してもよい。このとき、システム制御部50は、ターゲットの位置を追尾位置として設定し、追尾位置に基づいて表示部28にターゲットを囲む追尾枠を表示する。
ステップS2では、システム制御部50は、画像処理部24などを用いて、現在のフレーム(撮像画像)から、設定されたターゲットを検出する。例えば、色や特徴点、動きベクトルなどを用いて、現在のフレームの1つ前のフレームで検出されたターゲットの、現在のフレームでの位置を検出する。被写体追尾中はステップS2〜S6の処理が繰り返される。1回目のステップS2では、ステップS1でターゲットを設定したフレームの次のフレームが現在のフレームとなる。
ステップS3では、システム制御部50は、ステップS2でターゲットが検出されたか否かを判定する。システム制御部50は、ターゲットが検出されたと判定した場合にステップS4へ処理を進め、ターゲットが検出されなかったと判定した場合にステップS5へ処理を進める。
ステップS4では、システム制御部50は、ステップS2でターゲットが検出された位置に追尾位置を更新し、表示部28における追尾枠の表示を更新する。このとき、追尾(ターゲットの検出)を行うための色や特徴点、動きベクトルなどのテンプレートを更新してもよい。
ステップS5では、システム制御部50は、後述するターゲット再設定判定処理を行う。
ステップS6では、システム制御部50は、被写体追尾を終了するか否かを判定する。システム制御部50は、被写体追尾を終了すると判定した場合に被写体追尾(本フロー)を終了し、被写体追尾を終了しない(被写体追尾を継続する)と判定した場合にステップS2へ処理を戻す。ここでは、信号SW1が検出されなくなったことに応じて、被写体追尾を終了すると判定されるとする。なお、表示部28にライブビュー画像が表示されている間、継続して被写体追尾を実施する場合は、操作部70に設けた追尾終了ボタンで被写体追尾の終了が指示されてもよい。
図6は、ターゲット再設定判定処理(ステップS5)のフローチャートである。ターゲット再判定処理では、視線入力(視線情報)と追尾結果(追尾履歴)に基づいて、ターゲットの再設定を行うタイミングを制御する。以後、表示部28の表示面(画像表示領域)のうち、ターゲットが検出されなくなった領域を、追尾ロスト領域と呼ぶ。追尾ロスト領域は、ターゲットの再設定を行うか否かを判定するための判定領域とも言える。追尾ロスト領域は、ターゲットが非検出となる直前に検出されたターゲットの領域を用いて定義してもよい。例えば、ターゲットが非検出となる直前に検出されたターゲットの領域をそのまま追尾ロスト領域と定義してもよいし、テンプレートマッチングを行ったが、ターゲットが検出されなかった領域を追尾ロスト領域と定義してもよい。また、過去の追尾結果か
らターゲットの領域を予測しておき、ターゲットが非検出となったフレームでの予測領域を用いて追尾ロスト領域を定義してもよい。ターゲットの領域の予測を続け、予測領域の変化に応じて追尾ロスト領域が変化するようにしてもよい。
ステップS51では、システム制御部50は、視線検出部701により検出された視線(視線方向)が追尾ロスト領域を向いているか否かを判定する。換言すれば、システム制御部50は、表示部28の表示面上での視線位置が追尾ロスト領域内か否かを判定する。システム制御部50は、視線が追尾ロスト領域を向いていると判定した場合にステップS53へ処理を進め、視線が追尾ロスト領域を向いていない(視線が追尾ロスト領域から逸らされた)と判定した場合にステップS52へ処理を進める。
ステップS53では、システム制御部50は、ターゲットの再設定を行わずに、ターゲットの再出現(再検出)を待つ。具体的には、システム制御部50は、ターゲットの再設定を行わずに、ターゲット再設定判定処理(ステップS5)を終了する。ここでは、視線が追尾ロスト領域を向いていれば、ターゲットの再設定を行わずに、ターゲットの再出現を待ち続けるものとするが、そうでなくてもよい。例えば、ターゲットの再出現を待っている時間が閾値(待機上限時間)に達した場合に、視線に依らず、ターゲットの再出現を待つことを止め、ターゲットの再設定を行ってもよい。
ステップS52では、システム制御部50は、ターゲットの再設定を行う。ターゲットの再設定では、例えば、ターゲットとして望ましい人物や動物などが検出され、検出された被写体がターゲットに再設定される。複数の被写体(ターゲット候補)が検出された場合は、検出された複数の被写体のうち、現在のターゲットに最も類似した被写体をターゲットに再設定してもよい。例えば、動物の被写体追尾中に行われるターゲットの再設定では、動物と人物がターゲット候補として検出された場合に、動物が優先して選択されターゲットに再設定されてもよい。ターゲット候補が検出できなかった場合は、被写体追尾を終了し、図5のステップS1から被写体追尾を再開してもよい。
図6のターゲット再設定判定処理によれば、ユーザが追尾ロスト領域を注視し続けている間は、ターゲットの再設定は行われず、ターゲットの再出現まで待機される。このため、ターゲットの意図せぬ再設定(意図せぬ切り替わり)を抑制して、ターゲットの再設定をより好適に行うことができる。
図7(a)〜7(c)と図8(a)〜8(c)は、図6のターゲット再設定判定処理における動作の具体例を示す。図7(a)〜7(c)は、ユーザが追尾ロスト領域を注視し続けた場合の一例を示し、図8(a)〜8(c)は、ユーザが追尾ロスト領域から視線を逸らした場合の一例を示す。図7(a)〜7(c)と図8(a)〜8(c)のいずれも、図4(a)〜4(c)と同様に、人物301,302が存在し、人物301の前を車303が横切るシーンを示す。
図7(a)では、人物301がターゲットとして設定されており、人物301の周りに追尾枠324が表示されている。図7(a)では、視線位置344は人物301と一致している。図7(b)では、人物301の前を横切る車303に人物301が隠れ、人物301が検出されなくなっている。このとき、破線で示された追尾ロスト領域365が表示される。図7(b)では、視線位置345は、追尾ロスト領域365内に存在している。
このような場合には、システム制御部50は、ステップS51で視線が追尾ロスト領域を向いていると判定し、ステップS53でターゲットの再出現を待つ。このとき、追尾枠325は更新されず、追尾枠324と同じ位置に表示されたままとなる。なお、ターゲットの再出現を待っている間は、追尾枠の表示を行わず、追尾ロスト領域のみを表示しても
よい。
図7(c)では、車303が表示部28の表示面(画像表示領域)の外に移動しており、ターゲットである人物301が再出現している。このとき、ターゲットに設定されている人物301が再検出されて、人物301の追尾が再開されるため、追尾枠326が人物301の周りに再表示されている。図7(c)では、視線位置346が、追尾枠326内に存在しているが、仮に視線位置346が追尾枠326外に逸らされてもターゲットは人物301のままである。ターゲットが設定されていれば、視線位置によらず、設定されたターゲットの被写体追尾が実施される。
図8(a)でも、図7(a)と同様に、人物301がターゲットとして設定されており、人物301の周りに追尾枠327が表示されている。図8(a)では、視線位置347は人物301と一致している。図8(b)では、人物301の前を横切る車303に人物301が隠れ、人物301が検出されなくなっている。このとき、破線で示された追尾ロスト領域368が表示される。図8(b)では、視線位置348は、追尾ロスト領域368外に出てしまっている。
このような場合には、システム制御部50は、ステップS51で視線が追尾ロスト領域を向いていない(視線が追尾ロスト領域から逸らされた)と判定し、ステップS52でターゲットの再設定を行う。図8(b)では、人物302が写っており、例えば人物優先により人物302がターゲットに再設定されるため、人物302の周りに追尾枠328が表示される。
図8(c)では、当初ターゲットとして設定されていた人物301が再出現しているが、すでに人物302がターゲットに再設定されているため、人物301はターゲットとして設定されない。仮に視線位置349が、人物301と一致していても、人物301がターゲットとして再設定されることはない。図8(c)では、人物302がターゲットに設定されているため、追尾枠329は、ターゲットの人物302の周りに表示されている。
(第2実施形態)
以下、本発明の第2実施形態について説明する。第2実施形態では、ターゲットの再出現を待っている間に、パンニング操作などで撮像方向が変更された場合に、撮像方向の変更に応じて追尾ロスト領域の位置を変更する。
図9は、ターゲットの再出現を待っている間に撮像方向が変更された場合の影響の一例を示す。図9では、図7(b)と同様に、不図示の人物301が車303に隠れている。このとき、ユーザは、人物301を継続して追尾することを望んでおり、視線位置350は、追尾ロスト領域370内に存在している。ここでは、破線で示した視野領域(撮像領域)381の状態で追尾ロスト領域370が設定され、その後、パンニング操作により視野領域が視野領域381から視野領域382に変わったものとする。
このような場合は、ユーザが同じ被写体位置を見ていたとしても、表示部28の表示面上において視線位置(水平位置や垂直位置)は変化する。図9では、視野領域381において、追尾ロスト領域370や視線位置350は表示面(画像表示領域)の右上に存在しているが、視野領域382においては、追尾ロスト領域370や視線位置350は表示面の中央に存在している。このような動作を実現するため、ターゲットの再出現を待っている間に撮像方向が変更された場合には、その変更量に応じて追尾ロスト領域の位置を補正することが望ましい。
図10は、第2実施形態に係るターゲット再設定判定処理(図5のステップS5)のフ
ローチャートである。
ステップS54では、システム制御部50は、追尾ロスト(ターゲットの非検出)までのパンニング操作の操作量と、追尾ロスト後のパンニング操作の操作量とから、追尾ロスト前からパンニング操作が継続しているか否かを判定する。システム制御部50は、追尾ロスト前からパンニング操作が継続していると判定した場合にステップS51へ処理を進め、そうでない場合にステップS55へ処理を進める。第2の場合は、追尾ロスト前からは継続せずに、追尾ロスト後にパンニング操作が行われた場合である。パンニング操作の操作量(撮像方向の変更量)は、例えば姿勢検出部55から取得した姿勢検出信号を基に算出される。パンニング操作の操作量は、画像処理部24を用いて、フレーム間の画像から推定されてもよい。
ステップS55では、システム制御部50は、追尾ロスト後のパンニング操作の操作量に応じて追尾ロスト領域の位置を補正(変更)する。例えば、パンニング操作(撮像方向の変更)と逆方向に、パンニング操作と同じ大きさで追尾ロスト領域の位置が変更される。
パンニング操作が行われる場合は、以下の第1の場合と第2の場合とに大別される。
第1の場合は、意図せず手振れが生じてしまう場合や、ユーザがターゲットの再出現に備えて、意図的に撮像方向の微調整を行う場合などである。第1の場合では、視野領域の変化は比較的小さいことが多い。
第2の場合は、ターゲットは隠れているが、ユーザがターゲットの動きを予想してパンニング操作を継続している場合である。例えば、走っている人物を望遠レンズで撮影している最中に、走っている当該人物の手前に歩行者などの障害物が入ってしまうシーンが考えられる。また、飛んでいる飛行機の撮影中に、当該飛行機の手前に木などの障害物が入ってしまうシーンが考えられる。このようなシーンでは、ターゲット(走っている人物や飛行機)の動きが容易に予測できるため、ターゲットが障害物に隠れ、ターゲットが見えなくても、ユーザはパンニング操作を継続することができる。
第1の場合には、図9を用いて説明したように、パンニング操作の操作量(撮像方向の変更量)に応じて追尾ロスト領域の位置を補正することが望ましい。第2の場合には、ユーザがフレーミング(構図)を考慮してパンニング操作を行っているため、追尾ロスト領域と、ターゲットが再出現する位置とは一致している可能性が高く、パンニング操作の操作量に応じた補正は行わないことが望ましい。
そこで、図10のターゲット再設定判定処理では、追尾ロスト前からパンニング操作が継続しているか否かを判定し、追尾ロスト前からはパンニング操作が継続していないと判定した場合に追尾ロスト領域の位置を補正するようにしている。なお、追尾ロスト前からパンニング操作が継続しているか否かにかかわらず、パンニング操作の操作量に応じて追尾ロスト領域の位置を補正してもよい。
図10のステップS51〜S53の処理は、図6のステップS51〜S53の処理と同じである。
図10のターゲット再設定判定処理によれば、パンニング操作の操作量に応じて追尾ロスト領域が適宜補正された後、視線位置が追尾ロスト領域内か否かに応じて、ターゲットの再設定の実行/非実行が制御される。これにより、ターゲットの再出現を待っている間にパンニング操作が行われても、ユーザが追尾ロスト領域を注視しているか否かを精度良
く判定して、ターゲットの再設定をより好適に行うことができる。
(第3実施形態)
以下、本発明の第3実施形態について説明する。第3実施形態では、ターゲットが障害物に隠れた位置と、ターゲットの再出現の位置とが異なる場合に対応できるように、追尾ロスト領域を手前の障害物を含む領域に拡張する。
図11(a)〜11(c)に、ターゲットが障害物に隠れた位置と、ターゲットの再出現の位置とが異なる場合の例を示す。図11(a)〜11(c)は、表示部28に表示された画面を示し、時間の経過に従い、図11(a)の画面から図11(b)の画面へ、図11(b)の画面から図11(c)の画面へと、画面が遷移する。図11(a)〜11(c)には、人物306が障害物307(固定)に隠れるシーンが示されている。このようなシーンとして、例えば、走っている人物が、一時的に柱の奥に隠れてしまうようなシーンが考えられる。
図11(a)では、人物306がターゲットとして設定されており、人物306の周りに追尾枠330が表示されている。図11(a)では、視線位置351は人物306と一致している。図11(b)では、人物306が障害物307に隠れている。このとき、人物306が検出されなくなった領域である追尾ロスト領域372が設定され、表示される。図11(b)では、視線位置352は、追尾ロスト領域372と一致している。
図11(c)では、視線位置353は、追尾ロスト領域373と一致していない。しかし、図11(a)〜11(c)に示すようなシーンの後においては、ターゲットの再出現を待つユーザは、ターゲットが障害物のどの方向(右側や左側)から再出現するのか分からないため、当該障害物の周囲で視線位置を移動させる。このため、図11(c)では、視線位置353が障害物307の周囲に存在している。このように、追尾ロスト領域と視線位置が一致していない場合でも、ユーザがターゲットの再出現を待っていることがある。
上記状況に対応するため、ターゲットの第1被写体を見失った追尾ロスト領域の少なくとも一部を含む領域で、第1被写体よりも手前に存在する障害物などの第2被写体(非ターゲット)が検出された場合に、第2被写体を含む領域に追尾ロスト領域を拡張する。拡張後の追尾ロスト領域は、第2被写体の領域や、第2被写体とその周辺を含む領域である。
図12は、第2被写体を含むように追尾ロスト領域を拡張する例を示す。図12には、拡張前の追尾ロスト領域373が示されている。追尾ロスト領域373の近くには、ターゲットが隠れた障害物307が存在している。障害物307などの第2被写体は、例えば、デフォーカスマップを作成し、ターゲット(第1被写体)を見失う前に取得したターゲットのデフォーカス量よりも手前を示す領域から検出することができる。具体的には、拡張前の追尾ロスト領域の少なくとも一部を含み且つ当該追尾ロスト領域よりも大きい領域で検出された被写体を、第2被写体として検出することができる。
なお、画像処理部24により、被写体検出を行い、第2被写体を検出してもよい。このとき、デフォーカス量を取得し、検出された被写体が第2被写体(第1被写体を隠している障害物)であるかの信頼性判定を追加で行ってもよい。
第2被写体が検出されると、第2被写体の検出結果に基づいて拡張後の追尾ロスト領域が決定され、追尾ロスト領域が拡張される。図12では、拡張後の追尾ロスト領域として領域391が決定され、追尾ロスト領域が領域373から領域391に拡張される。拡張
後の追尾ロスト領域391は、障害物307よりも大きく設定されている。これは、ユーザがターゲットの再出現を待っている間、障害物307のエッジを見る可能性が高いためである。なお、領域拡張する幅は、障害物(第2被写体)の大きさや、視線検出部701の検出精度、障害物検出に用いたデフォーカスマップの分解能などから決定されてもよい。
図13は、第3実施形態に係るターゲット再設定判定処理(図5のステップS5)のフローチャートである。ステップS56では、システム制御部50は、第2被写体(ターゲットの第1被写体を隠している障害物)の検出を行い、第2被写体が検出されたか否かを判定する。システム制御部50は、第2被写体が検出されたと判定した場合にステップS57へ処理を進め、第2被写体が検出されなかったと判定した場合にステップS51へ処理を進める。ステップS57では、システム制御部50は、図12で説明したような方法を用いて、追尾ロスト領域を第2被写体を含む領域に拡張する。図13のステップS51〜S53の処理は、図6のステップS51〜S53の処理と同じである。
図13のターゲット再設定判定処理によれば、第2被写体(ターゲットの第1被写体を隠している障害物)を含む領域への追尾ロスト領域の拡張を適宜行った後、視線位置が追尾ロスト領域内か否かに応じて、ターゲットの再設定の実行/非実行が制御される。これにより、ターゲットが障害物に隠れた位置と、ターゲットの再出現の位置とが異なる場合においても、ユーザがターゲットの再出現を待っているか否かを精度良く判定して、ターゲットの再設定をより好適に行うことができる。
(第4実施形態)
以下、本発明の第4実施形態について説明する。第4実施形態では、ターゲットが表示部28の表示面(画像表示領域)の端から外へ出た場合に、ユーザがターゲットの再出現を待っているか否かをより精度良く判定可能にする。
表示面外へターゲットの移動は、例えば、パンニング操作をしながらの撮影中に起こり得る。このような場合には、表示面の複数の端(上下左右端)のうち、ターゲットが再出現する側の端をユーザは予め知っている。そのため、ターゲットを見失った領域に追尾ロスト領域を限定せず、表示面の複数の端部のうち、ターゲットが出て行った(移動した)側の端部を含む領域を追尾ロスト領域として用いる。そうすることで、より精度良く、ユーザがターゲットの再出現を望んでいるか否かを判定できる。なお、表示面の端部は、ターゲットを見失った領域よりも広い領域であればよく、ターゲットが出て行った側の端の全体を含む領域であってもよいし、当該端の一部を含む(当該端の一部を含まない)領域であってもよい。
図14(a),14(b)は、表示面の右端から外にターゲットが出て行った場合の一例を示す。図14(a),14(b)は、表示部28に表示された画面を示し、時間の経過に従い、図14(a)の画面から図14(b)の画面へ画面が遷移する。
図14(a)では、人物308が被写体追尾のターゲットに設定されており、人物308の周りに追尾枠334が表示されている。図14(a)では、ユーザの視線位置354は人物308と一致している。
図14(b)では、ターゲットである人物308が表示面の右端から外へ出ている。これにより追尾ロスト領域374が表示されている。このとき、ユーザは(パンニング操作をしながら)表示面の右端からのターゲット再出現を待つことがあるが、視線位置355のように、視線位置が追尾ロスト領域374から外れてしまうと、ターゲットが再設定されてしまう。追尾ロスト領域が存在する端部(表示面の端部)に視線位置がとどまってい
る場合には、ユーザがターゲットの再出現を待っている可能性が高い。
そこで第4実施形態では、追尾ロスト領域が表示面の端部に存在する場合に、追尾ロスト領域を当該端部を含む(カバーする)ように拡張する。図15は、表示面の端部を含むように追尾ロスト領域を拡張する例を示す。拡張前の追尾ロスト領域374が表示面の右端部392に存在するため、ターゲットは表示面の右端から再出現することが予想される。そのため、追尾ロスト領域を領域374から右端部392に拡張する。ターゲットを見失った領域を追尾ロスト領域に設定した後で、追尾ロスト領域を拡張してもよいが、表示面の端部を含む領域を、初めから追尾ロスト領域として設定してもよい。
これにより、ターゲットが表示面(画像表示領域)の端から外へ出た場合に、ユーザがターゲットの再出現を待っているか否かをより精度良く判定することができる。
図16は、第4実施形態に係るターゲット再設定判定処理(図5のステップS5)のフローチャートである。ステップS58では、システム制御部50は、ターゲットを見失った領域である追尾ロスト領域が表示面の端に存在しているか否かを判定する。システム制御部50は、追尾ロスト領域が表示面の端に存在していると判定した場合にステップS59へ処理を進め、追尾ロスト領域が表示面の端に存在していないと判定した場合にステップS51へ処理を進める。ステップS59では、システム制御部50は、図15で説明したような方法を用いて、追尾ロスト領域を表示面の端部を含む領域に拡張する。図16のステップS51〜S53の処理は、図6のステップS51〜S53の処理と同じである。
図16のターゲット再設定判定処理によれば、表示面(画像表示領域)の端部を含む領域への追尾ロスト領域の拡張を適宜行った後、視線位置が追尾ロスト領域内か否かに応じて、ターゲットの再設定の実行/非実行が制御される。これにより、ターゲットが表示面の端から外へ出た場合において、ユーザがターゲットの再出現を待っているか否かをより精度良く判定することができる。
(第5実施形態)
以下、本発明の第5実施形態について説明する。第5実施形態では、ターゲットが撮像画像内に存在しているにもかかわらず、ターゲットが非検出となってしまった場合において、ターゲットの再設定をより好適に行う。
被写体追尾(ターゲットの検出)は、色や特徴点、動きベクトルなどを用いて行われるが、いずれの手法も100%で追尾を継続できるわけではない。そのため、ターゲットが撮像画像内に存在しているにもかかわらず、ターゲットが検出されない非検出と判定される場合がある。このような場合には、ターゲットの色や形状が変化したことが考えられ、ターゲットの再出現を待つよりも、テンプレートを再作成して追尾ロスト領域近傍の領域から被写体を検出するなどの方法により、ターゲットの再設定を行うほうが望ましい。
そこで第5実施形態では、図5のステップS3でターゲットが非検出と判定された場合に、システム制御部50は、追尾ロストの前後で追尾ロスト領域のデフォーカス量に大きな変化があったか否かを判定する。そして、デフォーカス量が手前に大きく変化している場合のみ、システム制御部50は、ステップS5のターゲット再設定判定処理を行う。追尾ロストの前後でのデフォーカス量の変化が所定の閾値よりも小さい場合など、デフォーカス量が手前に大きく変化していない場合には、システム制御部50は、図6のステップS52の処理(ターゲットの再設定)を行う。その場合には、上述したように、テンプレートを再作成して追尾ロスト領域近傍の領域から優先して被写体を検出し、検出した被写体をターゲットに再設定してもよい。
これにより、ターゲットが撮像画像内に存在しているにもかかわらず、ターゲットの色や形状が変化したことにより、ターゲットが非検出となってしまった場合においても、ターゲットを変えずに被写体追尾を継続することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、上述の実施形態はあくまで一例であり、本発明の要旨の範囲内で実施形態の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施形態の構成を適宜組み合わせて得られる構成も、本発明に含まれる。
100:本体 24:画像処理部 28:表示部 50:システム制御部
701:視線検出部

Claims (12)

  1. ユーザの視線に関する視線情報を取得する取得手段と、
    撮像された画像を表示面に表示するように制御する表示制御手段と、
    被写体を追尾するように当該被写体を前記画像から検出する追尾手段と、
    前記追尾手段の追尾対象を設定する設定手段と
    を有し、
    前記追尾対象の被写体が検出されなくなった場合に、前記設定手段は、前記視線情報と、当該被写体の追尾履歴とに基づいて、前記追尾対象の再設定を行う
    ことを特徴とする電子機器。
  2. 前記追尾対象の被写体が検出されなくなった場合に、前記設定手段は、
    前記画像が表示される画像表示領域のうち、当該被写体の追尾履歴に基づく判定領域に視線が向けられていれば、前記追尾対象の再設定を行わずに、当該被写体が再検出されるのを待ち、
    前記判定領域から視線が逸らされると、当該被写体が再検出されるのを待たずに、前記追尾対象の再設定を行う
    ことを特徴とする請求項1に記載の電子機器。
  3. 前記判定領域は、前記追尾対象の被写体が検出されなくなった領域を含む
    ことを特徴とする請求項2に記載の電子機器。
  4. 前記設定手段は、前記画像の撮像方向の変更に応じて前記判定領域の位置を変更する
    ことを特徴とする請求項2または3に記載の電子機器。
  5. 前記追尾対象の被写体が検出されなくなる前から継続して前記撮像方向が変更されている場合には、前記設定手段は、前記撮像方向の変更に応じて前記判定領域の位置を変更することはしない
    ことを特徴とする請求項4に記載の電子機器。
  6. 前記判定領域の少なくとも一部を含む領域で前記追尾対象でない被写体が検出された場合に、前記設定手段は、当該被写体を含む領域に前記判定領域を拡張する
    ことを特徴とする請求項2〜5のいずれか1項に記載の電子機器。
  7. 前記追尾対象の被写体が、前記画像が表示される画像表示領域の外へ移動して検出されなくなった場合に、前記設定手段は、前記画像表示領域の複数の端部のうち、当該被写体が移動した側の端部を含む領域を、前記判定領域として用いる
    ことを特徴とする請求項2〜6のいずれか1項に記載の電子機器。
  8. 前記追尾対象の被写体が検出されなくなったタイミングの前後での前記判定領域のデフォーカス量の変化が閾値よりも小さい場合には、前記設定手段は、前記判定領域に視線が向けられていても、当該被写体が再検出されるのを待たずに、前記追尾対象の再設定を行う
    ことを特徴とする請求項2〜7のいずれか1項に記載の電子機器。
  9. 前記追尾対象の被写体が再検出されるのを待っている時間が閾値に達した場合に、前記設定手段は、当該被写体が再検出されるのを待つことを止め、前記追尾対象の再設定を行う
    ことを特徴とする請求項2〜8のいずれか1項に記載の電子機器。
  10. ユーザの視線に関する視線情報を取得する取得ステップと、
    撮像された画像を表示面に表示するように制御する表示制御ステップと、
    被写体を追尾するように当該被写体を前記画像から検出する追尾ステップと、
    前記追尾ステップの追尾対象を設定する設定ステップと
    を有し、
    前記追尾対象の被写体が検出されなくなった場合に、前記設定ステップでは、前記視線情報と、当該被写体の追尾履歴とに基づいて、前記追尾対象の再設定を行う
    ことを特徴とする電子機器の制御方法。
  11. コンピュータを、請求項1〜9のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
  12. コンピュータを、請求項1〜9のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2020019781A 2020-02-07 2020-02-07 電子機器 Active JP7500211B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020019781A JP7500211B2 (ja) 2020-02-07 2020-02-07 電子機器
US17/168,749 US11450131B2 (en) 2020-02-07 2021-02-05 Electronic device
US17/888,156 US20230042807A1 (en) 2020-02-07 2022-08-15 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020019781A JP7500211B2 (ja) 2020-02-07 2020-02-07 電子機器

Publications (2)

Publication Number Publication Date
JP2021124669A true JP2021124669A (ja) 2021-08-30
JP7500211B2 JP7500211B2 (ja) 2024-06-17

Family

ID=77178001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020019781A Active JP7500211B2 (ja) 2020-02-07 2020-02-07 電子機器

Country Status (2)

Country Link
US (2) US11450131B2 (ja)
JP (1) JP7500211B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102617213B1 (ko) * 2022-06-29 2023-12-27 주식회사 쓰리아이 소프트웨어 기반의 객체 트래킹 제공 방법 및 그를 위한 컴퓨팅 장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11244660B2 (en) 2020-03-13 2022-02-08 Apple Inc. Recovery from eye-tracking loss in foveated displays
TWI810840B (zh) * 2022-03-09 2023-08-01 圓展科技股份有限公司 透明化目標物件的方法及影像處理系統
CN116132790B (zh) * 2022-05-25 2023-12-05 荣耀终端有限公司 录像方法和相关装置
CN116567417A (zh) * 2023-05-29 2023-08-08 影石创新科技股份有限公司 视频采集方法、装置、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125906A (ja) * 1994-10-20 1996-05-17 Canon Inc 撮像装置
JP2011053587A (ja) * 2009-09-04 2011-03-17 Sharp Corp 画像処理装置
WO2014103732A1 (ja) * 2012-12-26 2014-07-03 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP2018129659A (ja) * 2017-02-08 2018-08-16 キヤノン株式会社 画像処理装置、撮像装置および制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7860385B2 (en) * 2008-03-19 2010-12-28 Fujinon Corporation Autofocus system
US9791919B2 (en) * 2014-10-19 2017-10-17 Philip Lyren Electronic device displays an image of an obstructed target
JP2019527377A (ja) * 2016-06-30 2019-09-26 ノース インコーポレイテッドNorth Inc. 視線追跡に基づき自動合焦する画像捕捉システム、デバイス及び方法
WO2018067058A1 (en) * 2016-10-06 2018-04-12 Modcam Ab Method for sharing information in system of imaging sensors
JP2018007272A (ja) 2017-09-21 2018-01-11 株式会社ニコン 画像処理装置、撮像装置およびプログラム
US10878578B2 (en) * 2017-10-30 2020-12-29 Qualcomm Incorporated Exclusion zone in video analytics
US11318961B2 (en) * 2018-07-20 2022-05-03 Lg Electronics Inc. Robot for vehicle and control method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125906A (ja) * 1994-10-20 1996-05-17 Canon Inc 撮像装置
JP2011053587A (ja) * 2009-09-04 2011-03-17 Sharp Corp 画像処理装置
WO2014103732A1 (ja) * 2012-12-26 2014-07-03 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP2018129659A (ja) * 2017-02-08 2018-08-16 キヤノン株式会社 画像処理装置、撮像装置および制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102617213B1 (ko) * 2022-06-29 2023-12-27 주식회사 쓰리아이 소프트웨어 기반의 객체 트래킹 제공 방법 및 그를 위한 컴퓨팅 장치
WO2024005279A1 (ko) * 2022-06-29 2024-01-04 주식회사 쓰리아이 소프트웨어 기반의 객체 트래킹 제공 방법 및 그를 위한 컴퓨팅 장치

Also Published As

Publication number Publication date
US20210248361A1 (en) 2021-08-12
US11450131B2 (en) 2022-09-20
US20230042807A1 (en) 2023-02-09
JP7500211B2 (ja) 2024-06-17

Similar Documents

Publication Publication Date Title
JP7500211B2 (ja) 電子機器
US9992421B2 (en) Image pickup apparatus having FA zoom function, method for controlling the apparatus, and recording medium
US9344634B2 (en) Imaging apparatus having subject detection function, method for controlling the imaging apparatus, and storage medium
JP5268433B2 (ja) 撮像装置、及び撮像装置の制御方法
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
JP7467114B2 (ja) 撮像装置およびその制御方法
JP7615367B2 (ja) 電子機器およびその制御方法
US20160191811A1 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
JP2018129659A (ja) 画像処理装置、撮像装置および制御方法
US20140267834A1 (en) Method for photographing a target subject
US11523048B2 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
US20210258472A1 (en) Electronic device
US11662809B2 (en) Image pickup apparatus configured to use line of sight for imaging control and control method thereof
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
US20240028113A1 (en) Control apparatus, image pickup apparatus, control method, and storage medium
WO2020129620A1 (ja) 撮像制御装置、撮像装置、撮像制御方法
US20210258477A1 (en) Electronic device
US11050923B2 (en) Imaging apparatus and control method
US20250008213A1 (en) Imaging device, control method for controlling imaging device, and storage medium
JP2025083919A (ja) 制御装置、その制御方法及びプログラム、並びに撮像装置
JP2018056650A (ja) 光学装置、撮像装置および制御方法
JP2015114523A (ja) 像振れ補正機能付き撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240605

R150 Certificate of patent or registration of utility model

Ref document number: 7500211

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150