JP7384200B2 - 構図制御装置、構図制御方法、プログラム - Google Patents
構図制御装置、構図制御方法、プログラム Download PDFInfo
- Publication number
- JP7384200B2 JP7384200B2 JP2021522664A JP2021522664A JP7384200B2 JP 7384200 B2 JP7384200 B2 JP 7384200B2 JP 2021522664 A JP2021522664 A JP 2021522664A JP 2021522664 A JP2021522664 A JP 2021522664A JP 7384200 B2 JP7384200 B2 JP 7384200B2
- Authority
- JP
- Japan
- Prior art keywords
- composition
- subject
- detected
- imaging device
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000203 mixture Substances 0.000 title claims description 346
- 238000000034 method Methods 0.000 title claims description 180
- 238000003384 imaging method Methods 0.000 claims description 310
- 230000008569 process Effects 0.000 claims description 144
- 238000012545 processing Methods 0.000 claims description 113
- 230000004044 response Effects 0.000 claims description 72
- 230000004043 responsiveness Effects 0.000 claims description 35
- 238000004091 panning Methods 0.000 claims description 31
- 230000008859 change Effects 0.000 claims description 30
- 230000010365 information processing Effects 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 31
- 238000005516 engineering process Methods 0.000 description 31
- 238000004891 communication Methods 0.000 description 28
- 230000001276 controlling effect Effects 0.000 description 18
- 238000001514 detection method Methods 0.000 description 15
- 210000003127 knee Anatomy 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 8
- 241000282472 Canis lupus familiaris Species 0.000 description 7
- 210000005069 ears Anatomy 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 7
- 210000000707 wrist Anatomy 0.000 description 7
- 210000001217 buttock Anatomy 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 210000003423 ankle Anatomy 0.000 description 5
- 210000001513 elbow Anatomy 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 210000000214 mouth Anatomy 0.000 description 5
- 210000003739 neck Anatomy 0.000 description 5
- 210000001331 nose Anatomy 0.000 description 5
- 210000002832 shoulder Anatomy 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000271566 Aves Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/56—Accessories
- G03B17/561—Support related camera accessories
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Studio Devices (AREA)
Description
また、特許文献1では、上記のようなパン、チルト操作で調整した構図を、追尾時における目標構図として登録可能とされている。登録された構図の情報(具体的には、追尾被写体Sについての追尾対象枠の中心座標Mp及び大きさFtの情報)は、ショットボタン16に対応づけられており、ショットボタン16が操作されると、登録した構図を維持するように被写体の追尾動作が開始される。
構図指定操作情報は、撮像画像を表示する画面上における指定位置の情報を含む。このため、撮像画像を表示する画面上での位置を指定するという直感的な操作に基づき、目標とする構図への調整が行われる。具体的に、上記構成では、画面上の指定位置に対応する被写体情報に基づいて撮像装置の構図が調整される。被写体情報とは、撮像画像内の被写体に関する情報であり、少なくとも、検出被写体の有無を表す情報とされる。このため、構図の調整は、画面上の検出被写体の位置を指定する操作等、直感的な操作に基づき行われる。
これにより、追尾対象とする被写体の指定操作は、画面内の検出被写体を指定する操作とされる。
これにより、例えば検出被写体の背景部分等、ユーザが追尾を望んでいないと推定される被写体が指定された場合には、指定位置の被写体の追尾が行われない。
この方向指定操作により、位置の指定操作で指定された被写体の画面内での位置の変更方向など、構図調整に係る方向の指定が可能とされる。
これにより、追尾対象とする被写体の指定操作は、画面上で被写体をタッチするという簡易な操作とすることが可能とされる。
これにより、構図調整に係る方向の指定操作が、画面上において構図を変更したい方向に指をスライドさせるという直感的な操作で実現可能となる。
これにより、雲台装置により撮像装置の撮像方向を変えることによる構図調整を行うことが可能とされる。
これにより、パン又はチルト方向の指定操作は、パン又はチルト方向に沿って直線的に指をスライドさせるという直感的な操作で実現される。
これにより、ロール方向の指定操作は、ロール方向に沿った円弧状に指をスライドさせるという直感的な操作で実現される。
位置指定操作が検出被写体の指定操作であった場合、ユーザは、その後の方向指定操作によって検出被写体の画面内における位置を変更することを望んでいると推定できるため、該方向指定操作により指定された方向とは逆方向に撮像装置の向きを変化させる。一方、位置指定操作が検出被写体以外の位置の指定操作であった場合、ユーザは、その後の方向指定操作によって撮像方向の変化方向を直接的に指定していると推定できるため、該方向指定操作により指定された方向に撮像装置の向きを変化させる。
これにより、指定された被写体が動きの速い種類の被写体である場合には追従性を高めたパラメータによる追尾制御を行い、動きの遅い種類の被写体である場合には追従性を低くしたパラメータによる追尾制御を行う等、指定された被写体に応じたパラメータによる追尾制御を行うことが可能とされる。
これにより、指定された被写体の種類に応じてパン方向、チルト方向の追尾特性を個別に設定可能となる。例えば、被写体が鳥の場合、パン、チルト方向の双方で追尾応答性を高め、被写体が犬の場合はパン方向の追尾応答性は高めるがチルト方向の追尾応答性は低くするといったことが可能とされる。
これにより、指定された被写体の種類に応じて、追尾応答性を高める必要のない方向について過剰に応答性を高めた追尾が行われてしまうことの防止が図られる。
指定された被写体の位置と追尾の目標位置との誤差の大きさにより、設定したパラメータが実際の被写体の動きに適しているか否かを判定可能となる。
人体の簡易モデル情報とは、人体における眼、耳、鼻、口、首、肩、肘、手首、尻、膝、足首等、人体を構成する複数部位の配置状態を表す情報である。上記構成によれば、構図変更のための撮像範囲の制御は、雲台の駆動方向や駆動量を直接指示する操作や焦点距離の調整操作に基づかず、上記の簡易モデル情報から推定される例えば被写体の各部位の位置や姿勢に基づいて行うことが可能とされる。
これにより、指定された被写体の正面側に空間が確保された自然な構図に調整することが可能とされる。
これにより、例えば被写体の全身が映る構図、半身のみが映る構図への調整等、簡易モデル情報に基づく構図調整は、画面上のタッチ操作により対象とする被写体を指定した上で、画面上における操作を行うという簡易な操作により実現可能とされる。
これにより、画像認識処理に用いる撮像画像については、ユーザによる作画意図に応じたカメラ設定での撮像画像ではなく、画像認識処理に適したカメラ設定での撮像画像を用いることが可能とされる。
このような構図制御方法によっても、上記した本技術に係る構図制御装置と同様の作用が得られる。
このようなプログラムにより、上記した本技術に係る構図制御装置が実現される。
<1.第一実施形態>
[1-1.装置構成例]
[1-2.構図調整について]
[1-3.処理手順]
<2.第二実施形態>
<3.第三実施形態>
[3-1.第一例]
[3-2.第二例]
<4.変形例>
<5.実施形態のまとめ>
<6.本技術>
[1-1.装置構成例]
図1は、本技術に係る第一実施形態としての構図制御装置(撮像装置1)を備えた撮像システムの外観構成例についての説明図である。
本実施形態の撮像システムは、撮像装置1と雲台装置50とを備えて構成される。撮像システムにおいては、撮像装置1が雲台装置50に搭載された状態で、雲台装置50の回転動作により撮像装置1の撮像方向が変化される。特に、雲台装置50は後述するアクチュエータを備えており、該アクチュエータが駆動制御されることで、追尾対象とする被写体に対して自動追尾が行われる。
雲台装置50には、図中矢印D1で表すパン方向(ヨー方向とも換言できる)の回転のための回転軸部51と、矢印D2で表すチルト方向(ピッチ方向とも換言できる)の回転のための回転軸部52とが設けられると共に、基台部53と装着部54とアーム部55とが設けられている。
装着部54は、回転軸部52を介してアーム部55に取り付けられており、これによって装着部54はアーム部55に対してチルト方向に回転可能とされている。
ここで、雲台装置50により撮像装置1の撮像方向を変えることは、撮像装置1の撮像範囲を変えることの一種である。
雲台装置50は、アクチュエータ56と駆動制御部57と通信部58とを備えている。
アクチュエータ56としては、本例では回動軸部51を回転駆動するパン方向アクチュエータ(例えば、モータ)と、回動軸部52を回転駆動するチルト方向アクチュエータ(例えば、モータ)とが設けられている。
撮像装置1は、デジタルカメラ装置として構成され、被写体の撮像を行い、動画や静止画としての画像データを記録媒体に記録したり、外部装置に送信したりすることができる。
図示のように撮像装置1は、レンズ系2、撮像部3、カメラ信号処理部4、画像認識処理部5、記録制御部6、ドライバ部7、制御部8、操作部9、表示部10、通信部11、バス12を備えている。バス12には、カメラ信号処理部4、画像認識処理部5、記録制御部6、制御部8、表示部10、及び通信部11が接続されており、これら各部はバス12を介して互いにデータ通信可能とされている。
この撮像部3では、撮像素子で受光した光を光電変換して得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像画像信号を、後段のカメラ信号処理部4に出力する。
本例において、画像認識処理部5は、被写体の検出処理において、被写体の「位置」と「範囲」の特定を行う。ここで、被写体の「位置」としては、被写体の注目位置を特定する。ここで、注目位置は、対象とする被写体について定められた注目されるべき位置を意味し、例えば人としての被写体であれば、全身における中心(上下左右方向の中心)又は重心、顔の中心等を挙げることができる。或いは、被写体が電車や自動車であれば、それらの進行方向における先端部や運転席位置等を挙げることができる。
本例では、注目位置は被写体の種類に応じて予め定められており、画像認識処理部5は被写体の種類に応じて被写体の注目位置を特定する。
なお、注目位置は、ユーザ操作に応じて被写体の種類ごとに予め定めておくことも考えられる。
記録制御部6の実際の形態は多様に考えられる。例えば記録制御部6は、撮像装置1に内蔵されるフラッシュメモリとその書込/読出回路として構成されてもよいし、撮像装置1に着脱できる記録媒体、例えばメモリカード(可搬型のフラッシュメモリ等)に対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
これらのドライバは、制御部8からの指示に応じて駆動電流を対応するモータに供給し、フォーカスレンズやズームレンズの移動、絞り機構の絞り羽根の開閉等を実行させる。
制御部8は、上記ROM等に記憶されたプログラムを実行することで、撮像装置1の全体制御を行う。例えば、制御部8は、撮像部3のシャッタスピードの制御、カメラ信号処理部4における各種信号処理の指示、操作部9を用いたユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作、ズーム、フォーカス、絞り調整等のレンズ系2の動作、ユーザインタフェース動作等について、必要各部の動作を制御する。
また、制御部8は、上記ROM等に記憶されたプログラムを実行することで、通信部11を介した雲台装置50への指示を行って、雲台装置50のパン・チルト動作の制御を行う。すなわち、パン、チルト方向における撮像方向の調整動作を制御する。
ここでの「追尾」とは、対象とする被写体の位置を、撮像画像内における所定の目標位置に一致させ続けるようにすることを意味する。
なお、制御部8が行う被写体追尾のための制御の具体例については後述する。
操作部9は、ユーザによる操作を検知し、検知した操作に応じた信号を制御部8に出力する。
表示部10は、制御部8の指示に基づいて画面上に各種情報の表示を行う。例えば、表示部10は、記録制御部6において記録媒体から読み出された画像データの再生画像を表示させる。
また、表示部10にはカメラ信号処理部4で表示用に解像度変換された撮像画像の画像データが供給され、表示部10は制御部8の指示に応じて、当該撮像画像の画像データについての表示を行う。これにより、構図確認中の撮像画像である、いわゆるスルー画(被写体のモニタリング画像)が画面上に表示される。
また表示部10は制御部8の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、GUI(Graphical User Interface)としての表示を画面上に行う。
ここで、以下、表示部10の表示画面のことを「画面10a」と表記する。
以下、図4から図12を参照し、実施形態としての構図調整手法について説明する。
先ず、本実施形態では、雲台装置50により構図が調整される撮像装置1の撮像画像を表示する画面10a上における操作により、目標とする構図の指定が行われる。具体的に、本実施形態の撮像装置1は、撮像画像を表示する画面10a上における位置の指定操作を目標とする構図の指定操作として受け付け、該目標とする構図に調整されるように雲台装置50を制御する。より具体的に、本例では、上記のような画面10a上における位置の指定操作を、構図の指定操作として受け付ける。つまりこの場合、該構図の指定操作から取得される構図の指定操作情報(構図指定操作情報)には、画面10a上における指定位置の情報が含まれる。そして、本例の構図調整手法においては、このような構図指定操作情報による指定位置に対応した被写体情報に基づいて、撮像装置の構図を調整する。被写体情報とは、撮像画像内の被写体に関する情報であり、少なくとも、検出被写体の有無を表す情報を含む。このような被写体情報に基づいた構図調整を行うことで、少なくとも検出被写体の有無に応じた構図調整を行うことができる。
ここで、本例において、目標とする構図とは、被写体の追尾を行う際に目標とする構図を意味する。すなわち、ここでの構図とは、追尾対象とする被写体を撮像画像内のどの位置に配置するかという要素を少なくとも含む。
図4に示すように、表示部10の画面10a上に、被写体S1及び被写体S2としての二つの検出被写体が捉えられた撮像画像が表示されているとする。なお、このとき、検出被写体の追尾は未だ行われていないとする。
本例では、このように画面10a上に検出被写体が表示されている状態において、検出被写体をタッチする操作(図4の例では被写体S2をタッチする操作)が行われたことに応じ、タッチされた検出被写体の追尾が開始される。具体的には、タッチされた検出被写体の位置が、タッチされたときの該検出被写体の位置のまま維持されるように、雲台装置50のパン・チルト動作を制御する処理が開始される。
ここで、タッチ操作により検出被写体が指定された状態は、換言すれば、タッチ操作による指定位置に対応する被写体情報が検出被写体を示す状態であると言うことができる。
本例では、被写体を追尾するための雲台装置50の制御にPID(Proportional Integral Differential)制御を採用している。具体的には、図6Aに示すように追尾の対象とする被写体の位置Psと、追尾の目標位置Ptとの誤差d(位置誤差d)を算出し、この誤差dに基づいて雲台装置50の制御値Cを
C=P(d)+I(d)+D(d)
により計算する。なお、P(d)、I(d)、D(d)はそれぞれ誤差dについての比例項、積分項、微分項を意味する。
ここで、被写体位置Psの情報は、図4のように撮像画像内に複数の被写体が検出されている場合には、画像認識処理部5より入力される複数の被写体の位置の情報のうち、タッチ操作により指定された被写体の位置の情報を用いる。また、目標位置Ptは、被写体のタッチ操作が行われたときにおける、該タッチ操作で指定された被写体の位置の情報として設定する。
駆動量換算処理部F3は、制御値計算処理部F2が計算した制御値C、すなわち、撮像画像のピクセル数単位による値を、パン方向、又はチルト方向としての回転方向における角度の値に変換する。該変換は、撮像装置1の撮像パラメータ(焦点距離や撮像素子のサイズ情報等)に基づき行うことができる。
雲台装置50では、上記のように制御部8から通信部11を介して出力された値が通信部58を介して駆動制御部57に入力される。駆動制御部57は該入力された値に応じた駆動量によりアクチュエータ56を駆動する。これにより、追尾対象とする被写体の位置(Ps)を撮像画像内の目標位置(Pt)に一致させるように撮像装置1の向きが調整され、被写体の追尾が実現される。
追尾対象とする被写体の指定と、追尾対象とする被写体の画面内での配置位置の指定とが、検出被写体をタッチするという単一の操作で実現できるため、構図調整に係るユーザの操作負担軽減を図ることができ、操作性の向上が図られる。
画面10a内の検出被写体がタッチされた後、該タッチを行った指が、タッチ状態を維持したまま、図4の太矢印で示すように画面10aで移動されたとする。
本例では、このように被写体をタッチした指でタッチ状態のまま画面10aをなぞる操作は、タッチした被写体(つまり追尾対象被写体)の画面10a内での配置位置(つまり撮像画像内での配置位置)の移動指示操作として受け付ける。
制御部8は、上記のようななぞり操作に応じて、タッチされた被写体が、なぞり操作によりなぞられた方向になぞられた量に応じた分だけ移動されるように雲台装置50を制御する。
このとき、タッチされた被写体の追尾状態は維持したままとする。具体的に、制御部8は、なぞり操作によってタッチ位置が徐々に変化していく過程において、タッチ位置が変化するごとに、逐次、目標位置Ptをその時点でのタッチ位置に更新する。これにより、タッチした被写体の画面10a内での位置を、なぞり操作に連動して滑らかに変化させていくことができる。
図7に示すように、画面10a上において、検出被写体である被写体S1、S2以外の背景部分としての被写体がタッチされた後に、タッチした指によるなぞり操作が行われたとする。
本実施形態では、このように検出被写体以外の被写体をタッチした後のなぞり操作は、撮像方向の変化方向を直接的に指示する操作として受け付ける。すなわち、例えば図7のように右方向へのなぞり操作が行われた場合には、図8に示すように撮像方向を右方向になぞられた量に応じた分だけ変化させる。すなわち、制御部8は、検出被写体以外の被写体をタッチした後のなぞり操作に応じて、撮像方向がなぞられた方向になぞられた量に応じた分だけ変化されるように雲台装置50を制御する。
ここで、制御部8は、検出被写体以外の被写体がタッチされた場合には、被写体の追尾制御は行わない。
ここで、タッチ操作により検出被写体以外が指定された状態は、換言すれば、タッチ操作による指定位置に対応する被写体情報が検出被写体を示さない状態である。
図9及び図10は、画角の変更操作について説明するための図である。
本例では、画面10aに対し一本目の指がタッチされた後、該一本目の指のタッチ状態が継続されたまま他の指(二本目の指)が画面10a上にタッチされた場合において、該二本目の指で画面10a上をなぞる操作に応じて、画角の変更を行う。
具体的に、本例において制御部8は、二本目の指のタッチ位置が、一本目の指のタッチ位置から離れる方向に変化する場合には、画角が小さくなる(つまりズームインする)方向にズームレンズが駆動されるようにドライバ部7を制御する。これにより、図9から図10への遷移として示すような画角の変化が実現される。
一方、制御部8は、二本目の指のタッチ位置が、一本目の指のタッチ位置に近づく方向に変化する場合には、画角が大きくなる(つまりズームアウトする)方向にズームレンズが駆動されるようにドライバ部7を制御する。この場合の画角の変化は、図10から図9への遷移として表すような変化となる。
上記により説明した二本目の指によるなぞり操作は、画面10aの面内における方向の指定を含む操作であると換言できる。
また、画角の変更(制御)は、撮像装置1による撮像範囲の変更(制御)の一態様である。
なお、ここで言う「タップ」とは、画面10a上に指をタッチし、該指を画面10aから離すまでの一連の動作を意味する。また、ここでのダブルタップ操作とは、1回目のタップの後、所定時間内に2回目のタップを行う操作を意味する。
本例では、上記のようなダブルタップ操作が行われた場合には、1回目のタップで指定された追尾対象被写体(図11の例では被写体S2)を、画角の中心位置Pc(撮像画像の中心位置)に配置する構図への調整を行う(図12参照)。
具体的に、制御部8は、上記のようなダブルタップ操作が行われたことに応じて、追尾の目標位置Ptを中心位置Pcに更新して、被写体の追尾制御を継続する。
図13のフローチャートを参照し、上記により説明した実施形態としての構図調整手法を実現するための具体的な処理手順の例を説明する。
なお、図13に示す処理は、制御部8がROM等のメモリに記憶されたプログラムに従って実行するものである。
ここで、追尾実行フラグは、図6を参照して説明した被写体の追尾制御処理を実行するか否かを表すフラグであり、追尾実行フラグがONとされた場合、制御部8は、図13に示す処理と並行して、被写体の追尾制御処理を開始する。追尾実行フラグがOFFのとき、制御部8は該追尾制御処理を実行しない。
なお、追尾実行フラグの初期値はOFFであるが、ステップS104で追尾実行フラグをOFFとするのは、検出被写体がタッチされて被写体の追尾制御が開始された以降において検出被写体以外をタッチする操作が行われたとき(ステップS103:N)に、被写体の追尾制御が停止されるようにするためである。
なお、ステップS105の通常駆動モード処理は、検出被写体以外の被写体をタッチした指によるなぞり操作に応じて撮像方向を変化させたり、二本目の指のなぞり操作に応じて画角調整を行ったりするための処理となるが、詳細については改めて説明する。
ここで、ステップS106で追尾実行フラグがONとされたことに応じ、制御部8は、図15で説明するステップS301及びS302の処理による設定情報(追尾対象被写体及び目標位置Ptの設定情報)に基づく被写体の追尾制御処理を開始する。この追尾制御処理において制御部8は、画像認識処理部5からの被写体情報Is(特に、追尾対象被写体の被写体位置Psの情報)の取得を毎フレーム実行し、誤差dの計算等に用いる。
なお、ステップS105の通常駆動モード処理は、検出被写体をタッチした指によるなぞり操作に応じて画面10a内の被写体位置を移動させるための制御を行ったり、二本目の指のなぞり操作に応じて画角調整を行ったりするための処理となるが、詳細については改めて説明する。
ステップS108で制御部8は、処理終了条件の成立有無を判定する。ここでの処理終了条件とは、図13に示す処理の終了条件を意味するものであり、例えば、撮像装置1の動作モードを、画面10a上にスルー画としての撮像画像を表示する撮像モードから、記録制御部6が記録媒体から再生した画像を画面10a上に表示する再生モードへと切り替える操作が行われたこと等の条件とすることが考えられる。
処理終了条件が成立していないと判定した場合、制御部8はステップS101に戻り、画面10aに対するタッチ操作を再度待機する。
これにより、検出被写体、或いは検出被写体以外の被写体がタッチされ、該タッチされた指が画面10aから離された以降において、画面10aが再びタッチされた場合には、該タッチが検出被写体以外に対するタッチであるか、又は検出被写体に対するタッチであるかに応じて、ステップS105の通常駆動モード処理、又はステップS107の被写体追尾モード処理が実行されることになる。
図14に示す処理は、ステップS210で一本目の指(つまりステップS101でタッチ操作が検知された指)が画面10aから離れたことが検知されるまでは、ステップS211の待機処理により、撮像画像のフレームごとに繰り返し実行される処理となる。
一本目の指が移動した場合、制御部8はステップS204に進んで、移動に応じた制御値を出力する処理を実行する。すなわち、一本目の指の移動方向及び移動量に応じた雲台装置50の制御値(パン方向のアクチュエータ、チルト方向のアクチュエータ双方の制御値)を通信部11経由で雲台装置50に出力するための処理を実行する。
これにより、検出被写体以外の被写体がタッチされ、該タッチを行った指が画面10a上で任意方向になぞられた場合には、撮像装置1の撮像方向がなぞり方向になぞり量に応じた分だけ変化されるように雲台装置50のパン及びチルト動作が制御される。
一本目の指が画面10aから離れていなければ、制御部8はステップS211の1フレーム待機処理に進む。すなわち、一本目の指がタッチ状態を維持している間は、図14に示す処理がフレームごとに繰り返される。
一方、一本目の指が画面10aから離れた場合、制御部8はステップS105の通常駆動モード処理を終える。
制御部8は、ステップS207のズーミング制御を実行したことに応じ、ステップS211の1フレーム待機処理を実行し、ステップS201に戻る。これにより、二本目の指の移動が継続されている間は、ステップS207のズーミング制御が繰り返されることで、画角の変更が継続されることになる。
これにより、二本目の指が画面10aから離れた以降でも、一本目の指のタッチ状態が継続している間は、一本目の指のなぞり操作に応じて撮像方向を変化させる制御が行われる。
なお、以降の説明において、既に説明済みとなった処理と同様となる処理については同一のステップ番号を付して説明を省略する。
ステップS107の被写体追尾モード処理において、制御部8は、先ずステップS301で、追尾対象被写体の設定を行う。すなわち、ステップS101で検知したタッチ操作により指定された検出被写体を追尾対象被写体として設定する。
続くステップS302で制御部8は、目標位置Ptの設定を行う。すなわち、ステップS101で検知したタッチ操作により指定された検出被写体の位置(被写体位置Ps)を追尾の目標位置Ptとして設定する。
但し、この場合、ステップS203で一本目の指が移動したと判定した場合、制御部8は、ステップS304に進み、移動に応じた目標位置Ptの更新処理を実行する。すなわち、目標位置Ptを、一本目の指の現在のタッチ位置に更新する。
制御部8は、ステップS304の更新処理を実行したことに応じ、ステップS211の1フレーム待機処理に進む。これにより、一本目の指が移動している間には、ステップS304の更新処理がフレームごとに繰り返し実行される。このため、画面10aにおける追尾対象被写体の移動が滑らかなものとなる。
先ず、ステップS306で制御部8は、画面10aに対する再タッチの有無を判定し、再タッチがなければステップS307で再タッチ待機時間が所定時間以上であるか否かを判定する。再タッチ待機時間とは、ステップS210で一本目の指が離れたと判定されたからの経過時間を意味する。
再タッチ待機時間が所定時間以上でなければ、制御部8はステップS306に戻る。つまり、これらステップS306及びS307の処理により、制御部8は一本目の指が離れてから所定時間内のタッチ操作(つまり2タップ目のタッチ操作)を待機する。
図13を参照して分かるように、制御部8は、ステップS107の被写体追尾モード処理を実行した後、ステップS108で処理終了条件成立と判定されなければ、ステップS101の処理に移行する。これにより、本例では、ダブルタップ操作により追尾対象被写体が画面10aの中心に移動された以降においても、画面10aに対するタッチ操作の受け付けが行われ、タッチ操作が検出被写体以外の被写体をタッチする操作であれば図14の処理が実行され、検出被写体をタッチする操作であれば図15の処理が実行されることになる。
続いて、第二実施形態について説明する。
第二実施形態は、被写体の追尾制御処理において、被写体の種類に応じたパラメータを用いるものである。
なお、第二実施形態において、撮像装置1や雲台装置50の構成については第一実施形態の場合と同様となるため重複説明は避ける。
図16において、ステップS101からS110の処理については図13の場合と同様である。
この場合、制御部8は、ステップS103で検出被写体のタッチであると判定した場合に、ステップS401に進んで被写体種類に応じたパラメータ設定処理を実行した上で、ステップS106に処理を進める。
先ず、ステップS410で制御部8は、タッチされた被写体の種類を確認する。ここで、本例における画像認識処理部5では、検出被写体の種類として、第一種類、第二種類、第三種類の三種を認識し分ける。ステップS410で制御部8は、タッチされた被写体の種類がこれら第一種類、第二種類、第三種類の何れであるかを確認する。
ここで、本例において、第一種類は「鳥」(図18A参照)であり、第二種類は「人」(図18B参照)であり、第三種類は「犬」(図18C参照)であるとする。
なお、第一種類について、「鳥」はあくまで一例であり、第一種類としては、「鳥」のように望遠側での撮像が行われる傾向にあり且つ縦横に比較的速く動く被写体の種類であればよい。
同様に、第二種類についても「人」は一例であり、縦横の動きが比較的遅い被写体の種類であればよく、また、第三種類についても「犬」は一例であり、縦の動きは比較的遅いが横の動きが比較的速い被写体の種類であればよい。
また、制御部8は、ステップS412の第二パラメータ(「人」の場合のパラメータ)の設定処理としては、パン方向の追尾制御処理、チルト方向の追尾制御処理のそれぞれについて、追尾の応答性を低くするパラメータの設定を行う。具体的には、例えば制御周期を上述した最短の周期よりも長い周期(例えば、2倍の周期)とし、PID制御におけるゲインを上述した最高値よりも低い値とする設定を行う。
さらに、制御部8は、ステップS413の第三パラメータ(「犬」の場合のパラメータ)の設定処理としては、パン方向の追尾制御処理に関しては追尾の応答性を高くし、チルト方向の追尾制御処理に関しては追尾の応答性を低くするパラメータの設定を行う。
また、本例では、被写体の種類に応じ、パン方向、チルト方向の追尾制御それぞれについて個別にパラメータ設定を行っているが、これにより、追尾応答性を高める必要のない方向について過剰に応答性を高めた追尾が行われてしまうことの防止を図ることでき、追尾制御の安定性向上を図ることができる。
例えば、被写体の種類が家やビル等の比較的大型の不動体であり、撮像者がその周りを移動しながら撮像を行うときには、パン方向の追尾応答性を低くし、チルト方向の追尾応答性を高くするパラメータ設定を行うことが考えられる。或いは、トランポリン等により縦方向のみに激しく動くことの想定される種類の被写体に対応して、同様にパン方向の追尾応答性を低くし、チルト方向の追尾応答性を高くすることも考えられる。
ここで、図19の処理は、パン方向の追尾制御処理、チルト方向の追尾制御処理それぞれについて実行される。
これにより、高応答性パラメータの設定後、位置誤差dが極端に小さい場合には、追尾制御のパラメータを低応答性パラメータに調整することが可能とされる。
これにより、低応答性パラメータの設定後、位置誤差dが極端に大きい場合には、追尾制御のパラメータを高応答性パラメータに調整することが可能とされる。
なお、図19では、位置誤差dと閾値THとの比較結果に基づいてパラメータ調整を行う例としたが、これに代えて、制御値Cとそれに対応する閾値との比較結果に基づいてパラメータ調整を行うこともできる。このようなパラメータ調整とした場合も、被写体の位置と追尾の目標位置との誤差に基づいてパラメータ調整を行うことに変わりはない。
[3-1.第一例]
第三実施形態は、人体の簡易モデル情報に基づき構図調整を行うものである。
なお、第三実施形態においても撮像装置1や雲台装置50の構成については第一実施形態の場合と同様となるため重複説明は避ける。
図20に示すように、人体の簡易モデル情報とは、人体における眼、耳、鼻、口、首、肩、肘、手首、尻、膝、足首等、人体を構成する複数部位の配置状態を表す情報である。第三実施形態において、画像認識処理部5は、検出被写体が人としての被写体である場合には、該被写体についてこのような人体の簡易モデル情報を生成する。
具体的に、画像認識処理部5は、人としての検出被写体における眼や首、肩等といった特定部位の検出点(図中の黒丸部)と検出点を結ぶ線の情報を簡易モデル情報として生成する。このとき、各検出点は、それぞれ特定の他の検出点と線で結ばれる。各検出点は、それぞれ線で結ばれている検出点が規定されていることで、点と線により人体を表現する簡易モデルが形成される。
この場合の画像認識処理部5は、制御部8からの求めに応じ、簡易モデル情報を被写体情報Isの一部として制御部8に出力する。本例においても、制御部8は、被写体追尾中においては画像認識処理部5からの被写体情報Isの取得を毎フレーム実行する。
第一例は、人体の簡易モデル情報に基づき、撮像画像内に映し出される被写体の部位の組み合わせが異なる複数の構図間で構図切り替えを行うものである。
具体的には、図21に例示する構図K1、構図K2、構図K3の間での構図切り替えを行う。図21において、構図K1は、撮像画像内に映し出される被写体の部位の組み合わせが「眼、耳、鼻、口、首、肩、肘、手首、尻、膝、足首」の組み合わせである、「フルショット」(全身構図)としての構図である。また、構図K2は、撮像画像内に映し出される被写体の部位の組み合わせが、構図K1から「足首」のみが除かれた「眼、耳、鼻、口、首、肩、肘、手首、尻、膝」の組み合わせである「ニーショット」(膝上構図)としての構図、構図K3は、撮像画像内に映し出される被写体の部位の組み合わせが構図K2からさらに「膝、尻、手首」が除かれた「眼、耳、鼻、口、首、肩、肘」の組み合わせである「バストショット」(半身構図)としての構図である。
図22は、これら構図K1、K2、K3のそれぞれに対応した撮像画像の例を示しており、図22Aが構図K1(フルショット)、図22Bが構図K2(ニーショット)、図22Cが構図K3(バストショット)にそれぞれ対応する。
なお、この場合の制御部8としても、第一実施形態の場合と同様に図13に示す処理を実行する。但し、この場合の制御部8は、ステップS107の被写体追尾モード処理として、先の図15に示した処理ではなく、図23に示す処理を実行する。
先ず、制御部8はステップS510で、タップ数識別値cを0にリセットする。タップ数識別値cは、ダブルタップ操作後のタップ数を識別するための値であり、ステップS511でタップ済被写体への再タップが検知されるごとに、ステップS516やS521の処理によってc=0→1→2→0→・・・のようにトグル的に値が更新される。
確認のため述べておくと、ステップS501の構図切替処理が開始される時点では、該検出被写体に対しては画面中心に位置させるためのタッチが既に行われている(図23のステップS210、S305からS308を参照)。ステップS511ではこの状態からの該検出被写体へのタップ操作有無を判定するため、「再タップ」との表現を用いている。
ステップS512においてタップ済被写体以外の領域のタッチがあったと判定した場合、制御部8はステップS102に戻る。これにより、ダブルタップ操作の後に行われたタップ済被写体以外の領域のタッチが、タップ済被写体以外の検出被写体であれば、ステップS107の処理が実行される(つまりタップ済被写体以外の検出被写体の追尾に切り替えられ、なぞり操作に応じた被写体配置位置の調整等が可能な状態となる)。或いは、ダブルタップ操作の後に行われたタップ済被写体以外の領域のタッチが、検出被写体以外に対するタッチであれば、ステップS105の処理が実行される(つまり被写体追尾が解除され、なぞり操作に応じた撮像方向の調整等が可能な状態となる)。
ここで、本例において制御部8は、追尾制御処理で用いる被写体の位置Psとして、例えば被写体の「首」の位置等、被写体に最もズームインする構図である構図K3のときに画面10a内に収まる部位の位置を用いる。これにより、構図K2や構図K3への切替時に被写体の位置Psをロストして追尾に失敗することの防止を図ることができる。
ステップS515での目標位置Ptは、上記のように「首」の位置等とされた被写体の位置Psを基準としたときに、構図K1において少なくとも被写体の頭部(被写体の上端部)がフレームアウトしない位置に設定する。
そして、制御部8は、ステップS518の処理を実行したことに応じ、ステップS516でタップ数識別値cを1インクリメントした上で、ステップS522のズーミング制御を実行し、ステップS511に戻る。
そして、制御部8は、ステップS520の処理を実行したことに応じ、ステップS521でタップ数識別値cを0リセットした上で、ステップS522のズーミング制御を実行し、ステップS511に戻る。
続いて、第三実施形態の第二例について説明する。
第二例は、簡易モデル情報から推定される被写体の向きの情報に基づき、被写体の正面方向側に画角中心Pcが位置するように雲台装置50を制御するものである。
図25及び図26は、第二例としての構図調整手法の説明図である。
図25では、画面10a内に左方向を向く被写体S3と正面を向く被写体S4が映し出されている例を示している。第二例では、検出被写体のタッチ操作後、再度のタッチ操作に応じて、該検出被写体の正面方向側に画角中心Pcが位置するように構図の調整が行われる。図25及び図26の例では、被写体S3のタッチ操作後の再度のタッチ操作に応じて、被写体S3の正面方向側に画角中心Pcが位置するように構図の調整が行われた例が示されている。
この場合も制御部8は、第一実施形態の場合と同様に図13に示す処理を実行する。但し、この場合の制御部8は、ステップS107の被写体追尾モード処理として、先の図15に示した処理ではなく図27に示す処理を実行する。
図15に示した処理との差異点は、ステップS308の処理に代えて、ステップS601のスペーシング制御処理を実行する点である。
制御部8は、ステップS601のスペーシング制御処理を実行したことに応じ、ステップS309に処理を進める。
画面10aをタッチするという簡易な操作に応じて、指定された被写体の正面側に空間が確保された自然な構図に調整が行われるため、ユーザの操作負担軽減を図りながら、違和感の少ない構図に調整することができる。
ここで、実施形態としては上記で例示した具体例に限定されるものでなく、多様な変形例が考えられるものである。
例えば、上記では、構図調整に係る操作が画面10aに対するタッチ操作として行われる例を挙げたが、これに代えて、画面10a内に表示したカーソル等のポインタを用いた操作とすることもできる。例えば、被写体等の位置の指定操作は、所望の位置にポインタを位置させた状態で所定のボタンを押圧する等の操作とすることも考えられる。このとき、例えば十字キー等の変位指示操作子により、画面10a内におけるポインタの変位の指示が可能となるようにしておく。また、撮像方向の調整や被写体の画面内位置の調整等に係る移動方向指定操作は、例えば所定のボタンを押圧した状態で上記の変位指示操作子によりポインタを変位させる操作等とすることも考えられる。
この場合、撮像装置1Aが、画面10a上に表示される画像を撮像する撮像装置に該当し、撮像装置30が画像認識を行うための撮像を行う撮像装置に該当する。撮像装置30は、画面10a上に撮像画像が表示される撮像装置とは別途の撮像装置であると換言することができる。
図示のように撮像装置30と撮像装置1Aは共通の雲台装置50に搭載され、雲台装置50のパン、チルト動作に応じてこれら撮像装置30と撮像装置1Aがパン方向、チルト方向に連動して動く。
撮像装置30は、レンズ系2、撮像部3、カメラ信号処理部4、及び画像認識処理部5を備えて構成される。なお、これらの各部については既に説明済みであるため重複説明は避ける。
撮像装置1Aは、撮像装置1と比較して画像認識処理部5が省略された点が異なる。
この場合、撮像装置1Aにおける制御部8は、撮像装置30の画像認識処理部5から取得した被写体情報Isに基づき、被写体の追尾制御処理を始めとした、第一、第二、又は第三実施形態と同様の構図調整のための処理(図13から図15、図16、図17、図19、図23、図24、図27等の処理)を実行する。
また、撮像装置30の画角は、撮像装置1Aの画角に左右されないため、撮像装置30の画角を撮像装置1Aの画角よりも広くすることで、追尾対象被写体がフレームアウトし難くして被写体認識のロバスト性が高まるようにすることができる。
さらに、撮像装置30のフレームレートを撮像装置1よりも高めることで、被写体の追尾性能を高めることもできる。
例えば図31では、一本目の指で被写体S2をタッチする操作(追尾対象被写体を指定する操作)が行われた後、二本目の指で画面10a上を円弧状になぞる操作が行われたことを示している。このような操作に応じ制御部8は、図32に示すように、撮像装置1のロール方向における向きが、なぞられた方向になぞられた量に応じた分だけ変化するように雲台装置50を制御する。
ここで、この場合、ロール方向の向きの変化指示操作との区別可能とするために、パン方向、チルト方向の向きの変化指示操作としては、二本目の指を直線状になぞる操作とする。
上記のように実施形態としての構図制御装置(撮像装置1、1A)は、撮像装置の構図を指定する操作情報であり、撮像装置の撮像画像を表示する画面(同10a)上における指定位置の情報を含む構図指定操作情報を取得し、構図指定操作情報の指定位置に対応する被写体情報に基づいて撮像装置の構図を調整するように撮像装置の撮像範囲を制御する制御部(同8)を備えている。
構図指定操作情報は、撮像画像を表示する画面上における指定位置の情報を含む。このため、撮像画像を表示する画面上での位置を指定するという直感的な操作に基づき、目標とする構図への調整が行われる。具体的に、上記構成では、画面上の指定位置に対応する被写体情報に基づいて撮像装置の構図が調整される。被写体情報とは、撮像画像内の被写体に関する情報であり、少なくとも、検出被写体の有無を表す情報とされる。このため、構図の調整は、画面上の検出被写体の位置を指定する操作等、直感的な操作に基づき行われる。
従って、構図調整に係る操作について操作性向上を図ることができる。
これにより、追尾対象とする被写体の指定操作は、画面内の検出被写体を指定する操作とされる。
従って、構図調整に係る操作について操作性向上を図ることができる。
これにより、例えば検出被写体の背景部分等、ユーザが追尾を望んでいないと推定される被写体が指定された場合には、指定位置の被写体の追尾が行われない。
従って、ユーザの意図に沿った適切な追尾制御を実現することができる。
この方向指定操作により、位置の指定操作で指定された被写体の画面内での位置の変更方向など、構図調整に係る方向の指定が可能とされる。
構図調整に係る方向の指定操作が画面上における直感的な操作で実現され、構図調整に係る操作について操作性向上を図ることができる。
これにより、追尾対象とする被写体の指定操作は、画面上で被写体をタッチするという簡易な操作とすることが可能とされる。
従って、構図調整に係る操作について操作性向上を図ることができる。
これにより、構図調整に係る方向の指定操作が、画面上において構図を変更したい方向に指をスライドさせるという直感的な操作で実現可能となる。
従って、構図調整に係る操作について操作性向上を図ることができる。
また、位置の指定操作がタッチ操作であり、該位置の指定操作によって追尾対象被写体が指定される場合には、タッチした指で画面上を任意方向になぞるという操作で、追尾対象被写体の指定と、指定した被写体の画面内での位置の移動指定とを行うことが可能とされる。
従って、操作の容易性が増し、操作性のさらなる向上を図ることができる。
これにより、雲台装置により撮像装置の撮像方向を変えることによる構図調整を行うことが可能とされる。
従って、構図調整の自由度を高めることができる。
これにより、パン又はチルト方向の指定操作は、パン又はチルト方向に沿って直線的に指をスライドさせるという直感的な操作で実現される。
従って、構図調整に係る操作について操作性向上を図ることができる。
これにより、ロール方向の指定操作は、ロール方向に沿った円弧状に指をスライドさせるという直感的な操作で実現される。
従って、構図調整に係る操作について操作性向上を図ることができる。
位置指定操作が検出被写体の指定操作であった場合、ユーザは、その後の方向指定操作によって検出被写体の画面内における位置を変更することを望んでいると推定できるため、該方向指定操作により指定された方向とは逆方向に撮像装置の向きを変化させる。一方、位置指定操作が検出被写体以外の位置の指定操作であった場合、ユーザは、その後の方向指定操作によって撮像方向の変化方向を直接的に指定していると推定できるため、該方向指定操作により指定された方向に撮像装置の向きを変化させる。
これにより、ユーザの意図を反映した適切な構図調整を実現することができる。
これにより、指定された被写体が動きの速い種類の被写体である場合には追従性を高めたパラメータによる追尾制御を行い、動きの遅い種類の被写体である場合には追従性を低くしたパラメータによる追尾制御を行う等、指定された被写体に応じたパラメータによる追尾制御を行うことが可能とされる。
従って、追尾制御の精度向上を図ることができる。
これにより、指定された被写体の種類に応じてパン方向、チルト方向の追尾特性を個別に設定可能となる。例えば、被写体が鳥の場合、パン、チルト方向の双方で追尾応答性を高め、被写体が犬の場合はパン方向の追尾応答性は高めるがチルト方向の追尾応答性は低くするといったことが可能とされる。
被写体の種類に応じ、追尾応答性を高める必要のない方向について過剰に応答性を高めた追尾が行われてしまうことの防止を図ることでき、追尾制御の安定性向上を図ることができる。
これにより、指定された被写体の種類に応じて、追尾応答性を高める必要のない方向について過剰に応答性を高めた追尾が行われてしまうことの防止が図られる。
従って、追尾制御の安定性向上を図ることができる。
指定された被写体の位置と追尾の目標位置との誤差の大きさにより、設定したパラメータが実際の被写体の動きに適しているか否かを判定可能となる。
従って、該誤差に基づいてパラメータの調整を行うことで、実際の被写体の動きに適したパラメータに調整すること可能となり、追尾制御の安定性向上を図ることができる。
人体の簡易モデル情報とは、人体における眼、耳、鼻、口、首、肩、肘、手首、尻、膝、足首等、人体を構成する複数部位の配置状態を表す情報である。上記構成によれば、構図変更のための撮像範囲の制御は、雲台の駆動方向や駆動量を直接指示する操作や焦点距離の調整操作に基づかず、上記の簡易モデル情報から推定される例えば被写体の各部位の位置や姿勢に基づいて行うことが可能とされる。
従って、構図調整に係るユーザの操作負担軽減を図ることができる。
また、簡易モデル情報を用いることで、画面内(撮像画像内)に収めるべき被写体の全身部分や半身部分等の特定部分の推定精度が高まるため、構図調整の正確性向上を図ることができる。例えば、顔検出により検出した顔部分から被写体の全身、半身等の特定部分を推定することもできるが、その場合よりも特定部分の推定精度が高まり、構図調整の正確性向上を図ることができる。
これにより、指定された被写体の正面側に空間が確保された自然な構図に調整することが可能とされる。
従って、ユーザの操作負担軽減を図りながら、違和感の少ない構図に調整することができる。
これにより、例えば被写体の全身が映る構図、半身のみが映る構図への調整等、簡易モデル情報に基づく構図調整は、画面上のタッチ操作により対象とする被写体を指定した上で、画面上における操作を行うという簡易な操作により実現可能とされる。
従って、構図調整に係る操作の容易化が図られ、ユーザの操作負担軽減を図ることができる。
これにより、画像認識処理に用いる撮像画像については、ユーザによる作画意図に応じたカメラ設定での撮像画像ではなく、画像認識処理に適したカメラ設定での撮像画像を用いることが可能とされる。
従って、構図調整のための撮像範囲制御を画像認識処理の結果に基づき行う場合において、画像認識処理の精度向上が図られ、構図調整の精度向上を図ることができる。
このような実施形態としての構図制御方法によっても、上記した実施形態としての構図制御装置と同様の作用及び効果を得ることができる。
すなわち、図13から図15、図16、図17、図19、図23、図24、図27等で説明した処理を情報処理装置に実行させるプログラムである。
このようなプログラムにより実施形態としての構図制御装置の実現が容易となる。
そしてこのようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体や、CPUを有するマイクロコンピュータ内のROM等に予め記憶しておくことができる。或いは、半導体メモリ、メモリカード、光ディスク、光磁気ディスク、磁気ディスク等のリムーバブル記録媒体に、一時的あるいは永続的に格納(記憶)しておくことができる。またこのようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
なお本技術は以下のような構成も採ることができる。
(1)
撮像装置の構図を指定する操作情報であり、前記撮像装置の撮像画像を表示する画面上における指定位置の情報を含む構図指定操作情報を取得し、前記構図指定操作情報の前記指定位置に対応する被写体情報に基づいて前記撮像装置の構図を調整するように前記撮像装置の撮像範囲を制御する制御部を備える
構図制御装置。
(2)
前記制御部は、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合は、前記検出被写体を追尾するように前記撮像範囲を制御する
前記(1)に記載の構図制御装置。
(3)
前記制御部は、
前記被写体情報が、前記検出被写体を示さない場合は、前記指定位置の被写体を追尾するための制御を行わない
前記(2)に記載の構図制御装置。
(4)
前記構図指定操作情報は、前記画面の面内における方向を指定する方向指定操作に基づく方向指定操作情報を含み、
前記制御部は、
前記方向指定操作情報に基づき前記撮像範囲を制御する
前記(1)から(3)の何れかに記載の構図制御装置。
(5)
前記構図指定操作情報は、前記画面のタッチ操作により検出され、
前記指定位置は、前記画面のタッチ開始位置である
前記(2)から(4)の何れかに記載の構図制御装置。
(6)
前記方向指定操作情報は前記画面をなぞる操作により検出される
前記(4)に記載の構図制御装置。
(7)
前記制御部は、
前記撮像装置が取り付けられた雲台装置を制御して前記撮像範囲の制御を行う
前記(1)から(6)の何れかに記載の構図制御装置。
(8)
前記雲台装置は、前記撮像装置のパン又はチルト方向における向きを調整可能に構成され、
前記パン又はチルト方向を指定する前記構図指定操作情報が前記画面を直線状になぞる操作により検出される
前記(7)に記載の構図制御装置。
(9)
前記雲台装置は、前記撮像装置のロール方向における向きを調整可能に構成され、
前記ロール方向を指定する前記構図指定操作情報が前記画面を円弧状になぞる操作とされた
前記(7)又は(8)に記載の構図制御装置。
(10)
前記制御部は、
前記撮像装置が取り付けられた雲台装置を制御して前記撮像範囲の制御を行うと共に、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合には、前記方向指定操作により指定された方向とは逆方向に前記撮像装置の向きを変化させ、前記被写体情報が前記検出被写体を示さない場合には、前記方向指定操作により指定された方向に前記撮像装置の向きを変化させるように前記雲台装置を制御する
前記(4)から(9)の何れかに記載の構図制御装置。
(11)
前記制御部は、
前記撮像装置が取り付けられた雲台装置を制御して前記撮像範囲の制御を行うと共に、
前記被写体情報が前記検出被写体を示す場合は、前記追尾に係るパラメータとして、前記検出被写体の種類に応じたパラメータを用いて前記雲台装置を制御する
前記(2)から(10)の何れかに記載の構図制御装置。
(12)
前記雲台装置は、前記撮像装置のパン方向及びチルト方向の向きを調整可能に構成され、
前記制御部は、
前記雲台装置のパン方向の制御、チルト方向の制御それぞれについて、前記検出被写体の種類に応じた前記パラメータを用いる
前記(11)に記載の構図制御装置。
(13)
前記制御部は、
前記検出被写体の種類に応じて、パン方向及びチルト方向の追尾応答性が高い前記パラメータを用いる第一追尾モードと、パン方向及びチルト方向の追尾応答性が低い前記パラメータを用いる第二追尾モードと、パン方向、チルト方向の何れか一方の追尾応答性が低く、パン方向、チルト方向の何れか他方の追尾応答性が高い前記パラメータを用いる第三追尾モードの何れかのモードによる追尾制御を行う
前記(12)に記載の構図制御装置。
(14)
前記制御部は、
前記検出被写体の種類に応じた前記パラメータを用いた前記雲台装置の制御を開始した後、該検出被写体の位置と追尾の目標位置との誤差に基づいて前記パラメータの調整を行う
前記(11)から(13)の何れかに記載の構図制御装置。
(15)
前記制御部は、
前記被写体情報が、前記画面内における人物として検出された検出被写体を示す場合において、前記検出被写体について検出された人体の簡易モデル情報に基づき前記撮像範囲の制御を行う
前記(1)から(14)の何れかに記載の構図制御装置。
(16)
前記制御部は、
前記簡易モデル情報から推定される前記検出被写体の向きの情報に基づき、該検出被写体の正面方向側に画角中心が位置するように前記撮像範囲を制御する
前記(15)に記載の構図制御装置。
(17)
前記構図指定操作情報は、前記画面のタッチ操作により検出され、
前記指定位置は、前記画面のタッチ開始位置であり、
前記制御部は、
前記指定位置の検出後の前記画面上における操作に基づいて、前記簡易モデル情報に基づく前記撮像範囲の制御を行う
前記(15)又は(16)に記載の構図制御装置。
(18)
前記制御部は、
前記画面上に撮像画像が表示される前記撮像装置とは別途の撮像装置による撮像画像について行われた画像認識処理の結果に基づき、前記撮像範囲の制御を行う
前記(1)から(17)の何れかに記載の構図制御装置。
Claims (19)
- 撮像装置の構図を指定する操作情報であり、前記撮像装置の撮像画像を表示する画面上における指定位置の情報を含む構図指定操作情報を取得し、前記構図指定操作情報の前記指定位置に対応する被写体情報に基づいて前記撮像装置の構図を調整するように前記撮像装置の撮像範囲を制御する制御部を備え、
前記構図指定操作情報は、前記画面の面内における方向を指定する方向指定操作に基づく方向指定操作情報を含み、
前記制御部は、
前記撮像装置が取り付けられた雲台装置を制御して前記撮像範囲の制御を行うと共に、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合は、前記検出被写体を追尾するように前記撮像範囲を制御し、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合には、前記方向指定操作により指定された方向とは逆方向に前記撮像装置の向きを変化させ、前記被写体情報が前記検出被写体を示さない場合には、前記方向指定操作により指定された方向に前記撮像装置の向きを変化させるように前記雲台装置を制御する
構図制御装置。 - 前記構図指定操作情報は、前記画面のタッチ操作により検出され、
前記指定位置は、前記画面のタッチ開始位置である
請求項1に記載の構図制御装置。 - 前記方向指定操作情報は前記画面をなぞる操作により検出される
請求項1に記載の構図制御装置。 - 前記雲台装置は、前記撮像装置のパン又はチルト方向における向きを調整可能に構成され、
前記パン又はチルト方向を指定する前記構図指定操作情報が前記画面を直線状になぞる操作により検出される
請求項1に記載の構図制御装置。 - 前記雲台装置は、前記撮像装置のロール方向における向きを調整可能に構成され、
前記ロール方向を指定する前記構図指定操作情報が前記画面を円弧状になぞる操作とされた
請求項1に記載の構図制御装置。 - 前記制御部は、
前記被写体情報が、前記画面内における人物として検出された検出被写体を示す場合において、前記検出被写体について検出された人体の簡易モデル情報に基づき前記撮像範囲の制御を行う
請求項1に記載の構図制御装置。 - 前記制御部は、
前記簡易モデル情報から推定される前記検出被写体の向きの情報に基づき、該検出被写体の正面方向側に画角中心が位置するように前記撮像範囲を制御する
請求項6に記載の構図制御装置。 - 前記構図指定操作情報は、前記画面のタッチ操作により検出され、
前記指定位置は、前記画面のタッチ開始位置であり、
前記制御部は、
前記指定位置の検出後の前記画面上における操作に基づいて、前記簡易モデル情報に基づく前記撮像範囲の制御を行う
請求項6に記載の構図制御装置。 - 撮像装置の構図を指定する操作情報であり、前記撮像装置の撮像画像を表示する画面上における指定位置の情報を含む構図指定操作情報を取得し、前記構図指定操作情報の前記指定位置に対応する被写体情報に基づいて前記撮像装置の構図を調整するように前記撮像装置の撮像範囲を制御する制御処理を行うと共に、
前記構図指定操作情報は、前記画面の面内における方向を指定する方向指定操作に基づく方向指定操作情報を含み、
前記制御処理では、
前記撮像装置が取り付けられた雲台装置を制御して前記撮像範囲の制御を行うと共に、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合は、前記検出被写体を追尾するように前記撮像範囲を制御し、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合には、前記方向指定操作により指定された方向とは逆方向に前記撮像装置の向きを変化させ、前記被写体情報が前記検出被写体を示さない場合には、前記方向指定操作により指定された方向に前記撮像装置の向きを変化させるように前記雲台装置を制御する
構図制御方法。 - 撮像装置の構図を指定する操作情報であり、前記撮像装置の撮像画像を表示する画面上における指定位置の情報を含む構図指定操作情報を取得し、前記構図指定操作情報の前記指定位置に対応する被写体情報に基づいて前記撮像装置の構図を調整するように前記撮像装置の撮像範囲を制御する制御処理を行う機能を、情報処理装置に実現させる共に、
前記構図指定操作情報は、前記画面の面内における方向を指定する方向指定操作に基づく方向指定操作情報を含み、
前記制御処理では、
前記撮像装置が取り付けられた雲台装置を制御して前記撮像範囲の制御を行うと共に、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合は、前記検出被写体を追尾するように前記撮像範囲を制御し、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合には、前記方向指定操作により指定された方向とは逆方向に前記撮像装置の向きを変化させ、前記被写体情報が前記検出被写体を示さない場合には、前記方向指定操作により指定された方向に前記撮像装置の向きを変化させるように前記雲台装置を制御する
プログラム。 - 撮像装置の構図を指定する操作情報であり、前記撮像装置の撮像画像を表示する画面上における指定位置の情報を含む構図指定操作情報を取得し、前記構図指定操作情報の前記指定位置に対応する被写体情報に基づいて前記撮像装置の構図を調整するように前記撮像装置の撮像範囲を制御する制御部を備え、
前記制御部は、
前記撮像装置が取り付けられた雲台装置を制御して前記撮像範囲の制御を行うと共に、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合は、前記検出被写体を追尾するように前記撮像範囲を制御し、
前記雲台装置は、前記撮像装置のパン方向及びチルト方向の向きを調整可能に構成され、
前記制御部は、
前記検出被写体の種類に応じて、前記検出被写体の追尾に用いるパラメータとしてパン方向及びチルト方向の追尾応答性が高い前記パラメータを用いる第一追尾モードと、パン方向及びチルト方向の追尾応答性が低い前記パラメータを用いる第二追尾モードと、パン方向、チルト方向の何れか一方の追尾応答性が低く、パン方向、チルト方向の何れか他方の追尾応答性が高い前記パラメータを用いる第三追尾モードの何れかのモードによる追尾制御を行う
構図制御装置。 - 前記構図指定操作情報は、前記画面のタッチ操作により検出され、
前記指定位置は、前記画面のタッチ開始位置である
請求項11に記載の構図制御装置。 - 前記制御部は、
前記検出被写体の種類に応じた前記パラメータを用いた前記雲台装置の制御を開始した後、該検出被写体の位置と追尾の目標位置との誤差に基づいて前記パラメータの調整を行う
請求項11に記載の構図制御装置。 - 撮像装置の構図を指定する操作情報であり、前記撮像装置の撮像画像を表示する画面上における指定位置の情報を含む構図指定操作情報を取得し、前記構図指定操作情報の前記指定位置に対応する被写体情報に基づいて前記撮像装置の構図を調整するように前記撮像装置の撮像範囲を制御する制御処理を行うと共に、
前記制御処理では、
前記撮像装置が取り付けられた雲台装置を制御して前記撮像範囲の制御を行うと共に、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合は、前記検出被写体を追尾するように前記撮像範囲を制御し、
前記雲台装置は、前記撮像装置のパン方向及びチルト方向の向きを調整可能に構成され、
前記制御処理では、
前記検出被写体の種類に応じて、前記検出被写体の追尾に用いるパラメータとしてパン方向及びチルト方向の追尾応答性が高い前記パラメータを用いる第一追尾モードと、パン方向及びチルト方向の追尾応答性が低い前記パラメータを用いる第二追尾モードと、パン方向、チルト方向の何れか一方の追尾応答性が低く、パン方向、チルト方向の何れか他方の追尾応答性が高い前記パラメータを用いる第三追尾モードの何れかのモードによる追尾制御を行う
構図制御方法。 - 撮像装置の構図を指定する操作情報であり、前記撮像装置の撮像画像を表示する画面上における指定位置の情報を含む構図指定操作情報を取得し、前記構図指定操作情報の前記指定位置に対応する被写体情報に基づいて前記撮像装置の構図を調整するように前記撮像装置の撮像範囲を制御する制御処理を行う機能を、情報処理装置に実現させると共に、
前記制御処理では、
前記撮像装置が取り付けられた雲台装置を制御して前記撮像範囲の制御を行うと共に、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合は、前記検出被写体を追尾するように前記撮像範囲を制御し、
前記雲台装置は、前記撮像装置のパン方向及びチルト方向の向きを調整可能に構成され、
前記制御処理では、
前記検出被写体の種類に応じて、前記検出被写体の追尾に用いるパラメータとしてパン方向及びチルト方向の追尾応答性が高い前記パラメータを用いる第一追尾モードと、パン方向及びチルト方向の追尾応答性が低い前記パラメータを用いる第二追尾モードと、パン方向、チルト方向の何れか一方の追尾応答性が低く、パン方向、チルト方向の何れか他方の追尾応答性が高い前記パラメータを用いる第三追尾モードの何れかのモードによる追尾制御を行う
プログラム。 - 撮像装置の構図を指定する操作情報であり、前記撮像装置の撮像画像を表示する画面上における指定位置の情報を含む構図指定操作情報を取得し、前記構図指定操作情報の前記指定位置に対応する被写体情報に基づいて前記撮像装置の構図を調整するように前記撮像装置の撮像範囲を制御する制御部を備え、
前記構図指定操作情報は、前記画面のタッチ操作によるタッチ開始位置として指定された前記指定位置の情報と、前記画面をなぞる操作である方向指定操作に基づく方向指定操作情報とを含み、
前記制御部は、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合は、前記検出被写体を追尾するように前記撮像範囲を制御すると共に、前記方向指定操作情報に基づき、前記追尾の際の構図を調整する制御を行う
構図制御装置。 - 前記制御部は、
前記撮像装置が取り付けられた雲台装置を制御して前記撮像範囲の制御を行う
請求項16に記載の構図制御装置。 - 撮像装置の構図を指定する操作情報であり、前記撮像装置の撮像画像を表示する画面上における指定位置の情報を含む構図指定操作情報を取得し、前記構図指定操作情報の前記指定位置に対応する被写体情報に基づいて前記撮像装置の構図を調整するように前記撮像装置の撮像範囲を制御する制御処理を行うと共に、
前記構図指定操作情報は、前記画面のタッチ操作によるタッチ開始位置として指定された前記指定位置の情報と、前記画面をなぞる操作である方向指定操作に基づく方向指定操作情報とを含み、
前記制御処理では、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合は、前記検出被写体を追尾するように前記撮像範囲を制御すると共に、前記方向指定操作情報に基づき、前記追尾の際の構図を調整する制御を行う
構図制御方法。 - 撮像装置の構図を指定する操作情報であり、前記撮像装置の撮像画像を表示する画面上における指定位置の情報を含む構図指定操作情報を取得し、前記構図指定操作情報の前記指定位置に対応する被写体情報に基づいて前記撮像装置の構図を調整するように前記撮像装置の撮像範囲を制御する制御処理を行う機能を、情報処理装置に実現させると共に、
前記構図指定操作情報は、前記画面のタッチ操作によるタッチ開始位置として指定された前記指定位置の情報と、前記画面をなぞる操作である方向指定操作に基づく方向指定操作情報とを含み、
前記制御処理では、
前記被写体情報が、前記撮像画像から検出された検出被写体を示す場合は、前記検出被写体を追尾するように前記撮像範囲を制御すると共に、前記方向指定操作情報に基づき、前記追尾の際の構図を調整する制御を行う
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019098556 | 2019-05-27 | ||
JP2019098556 | 2019-05-27 | ||
PCT/JP2020/015058 WO2020241038A1 (ja) | 2019-05-27 | 2020-04-01 | 構図制御装置、構図制御方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020241038A1 JPWO2020241038A1 (ja) | 2020-12-03 |
JP7384200B2 true JP7384200B2 (ja) | 2023-11-21 |
Family
ID=73553382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021522664A Active JP7384200B2 (ja) | 2019-05-27 | 2020-04-01 | 構図制御装置、構図制御方法、プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11991450B2 (ja) |
EP (1) | EP3978998A4 (ja) |
JP (1) | JP7384200B2 (ja) |
CN (1) | CN113841087A (ja) |
WO (1) | WO2020241038A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7625401B2 (ja) | 2019-12-20 | 2025-02-03 | キヤノン株式会社 | 追尾装置及びその制御方法、及び撮像装置 |
USD981469S1 (en) * | 2022-08-09 | 2023-03-21 | Zhiyong Qiu | Selfie stick tripod |
WO2024116733A1 (ja) * | 2022-12-02 | 2024-06-06 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、記録媒体 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009218807A (ja) | 2008-03-10 | 2009-09-24 | Sanyo Electric Co Ltd | 撮像装置及び画像再生装置 |
JP2009244369A (ja) | 2008-03-28 | 2009-10-22 | Sony Corp | 撮像装置及び撮像方法 |
JP2013223220A (ja) | 2012-04-19 | 2013-10-28 | Canon Inc | 自動追尾装置 |
JP2016027704A (ja) | 2014-07-04 | 2016-02-18 | パナソニックIpマネジメント株式会社 | 撮像装置 |
WO2016151925A1 (ja) | 2015-03-26 | 2016-09-29 | 富士フイルム株式会社 | 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム |
JP2017199982A (ja) | 2016-04-25 | 2017-11-02 | パナソニックIpマネジメント株式会社 | 画像処理装置及びこれを備えた撮像システムならびにキャリブレーション方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101656873A (zh) * | 2008-08-18 | 2010-02-24 | 北京创先泰克科技有限公司 | 现场拍摄中摄像机及云台的控制系统和方法 |
TW201122713A (en) * | 2009-02-27 | 2011-07-01 | Sony Corp | Imaging device and imaging method |
JP2011139231A (ja) * | 2009-12-28 | 2011-07-14 | Sony Corp | 画像処理装置、画像処理方法、プログラム |
EP2393000B1 (en) * | 2010-06-04 | 2019-08-07 | Lg Electronics Inc. | Mobile terminal capable of providing multiplayer game and method of controlling operation of the mobile terminal |
JP5577900B2 (ja) * | 2010-07-05 | 2014-08-27 | ソニー株式会社 | 撮像制御装置、撮像制御方法、プログラム |
KR101180119B1 (ko) * | 2012-02-23 | 2012-09-05 | (주)올라웍스 | 카메라 모듈을 통해 사용자의 머리를 트래킹하여 화면을 제어하는 방법, 제어장치 및 컴퓨터 판독 가능한 기록 매체 |
JP2013247508A (ja) | 2012-05-25 | 2013-12-09 | Canon Inc | 自動追尾カメラの制御装置及び該制御装置を有する自動追尾カメラ |
US10168882B2 (en) * | 2013-06-09 | 2019-01-01 | Apple Inc. | Device, method, and graphical user interface for switching between camera interfaces |
KR20150057100A (ko) * | 2013-11-18 | 2015-05-28 | 삼성전자주식회사 | 3d 객체 편집을 위한 전자 장치 및 방법 |
KR102152725B1 (ko) * | 2014-05-29 | 2020-09-07 | 한화테크윈 주식회사 | 카메라 제어장치 |
JP6205070B2 (ja) * | 2014-09-08 | 2017-09-27 | 富士フイルム株式会社 | カメラの初期位置設定方法、カメラ及びカメラシステム |
US20170347025A1 (en) * | 2014-12-22 | 2017-11-30 | Trinus Systems Inc. | User-wearable type photographing device |
JP2016225799A (ja) * | 2015-05-29 | 2016-12-28 | オリンパス株式会社 | 撮像装置、及び撮像装置の制御方法 |
US10567627B2 (en) * | 2015-12-30 | 2020-02-18 | Sony Corporation | Point of view camera and imaging device |
KR102641881B1 (ko) * | 2016-10-28 | 2024-02-29 | 삼성전자주식회사 | 전방위 영상을 획득하는 방법 및 장치 |
CN109862226B (zh) * | 2017-11-30 | 2021-04-27 | Oppo广东移动通信有限公司 | 一种摄像头组件、移动终端及其摄像头组件的控制方法 |
JP7049179B2 (ja) * | 2018-05-14 | 2022-04-06 | キヤノン株式会社 | 撮像制御装置およびその制御方法、プログラム並びに記憶媒体 |
-
2020
- 2020-04-01 EP EP20812582.3A patent/EP3978998A4/en active Pending
- 2020-04-01 US US17/608,840 patent/US11991450B2/en active Active
- 2020-04-01 CN CN202080037206.5A patent/CN113841087A/zh active Pending
- 2020-04-01 WO PCT/JP2020/015058 patent/WO2020241038A1/ja unknown
- 2020-04-01 JP JP2021522664A patent/JP7384200B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009218807A (ja) | 2008-03-10 | 2009-09-24 | Sanyo Electric Co Ltd | 撮像装置及び画像再生装置 |
JP2009244369A (ja) | 2008-03-28 | 2009-10-22 | Sony Corp | 撮像装置及び撮像方法 |
JP2013223220A (ja) | 2012-04-19 | 2013-10-28 | Canon Inc | 自動追尾装置 |
JP2016027704A (ja) | 2014-07-04 | 2016-02-18 | パナソニックIpマネジメント株式会社 | 撮像装置 |
WO2016151925A1 (ja) | 2015-03-26 | 2016-09-29 | 富士フイルム株式会社 | 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム |
JP2017199982A (ja) | 2016-04-25 | 2017-11-02 | パナソニックIpマネジメント株式会社 | 画像処理装置及びこれを備えた撮像システムならびにキャリブレーション方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3978998A1 (en) | 2022-04-06 |
JPWO2020241038A1 (ja) | 2020-12-03 |
EP3978998A4 (en) | 2022-07-20 |
CN113841087A (zh) | 2021-12-24 |
US20220311941A1 (en) | 2022-09-29 |
WO2020241038A1 (ja) | 2020-12-03 |
US11991450B2 (en) | 2024-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5402409B2 (ja) | 撮影条件設定装置、撮影条件設定方法及び撮影条件設定プログラム | |
JP6039328B2 (ja) | 撮影制御装置および撮像装置の制御方法 | |
JP7384200B2 (ja) | 構図制御装置、構図制御方法、プログラム | |
WO2018042824A1 (ja) | 撮像制御装置、表示制御装置及びそれらの制御方法 | |
JP2019121858A (ja) | 電子機器及びその制御方法 | |
JP6602361B2 (ja) | 電子機器及びその制御方法 | |
CN104284064A (zh) | 用于预览双镜头图像的方法和设备 | |
WO2017126222A1 (ja) | 表示制御装置、表示制御方法及びコンピュータプログラム | |
JP2022027841A (ja) | 電子機器、プログラムおよび記憶媒体 | |
JP2019120748A (ja) | 電子機器及びその制御方法 | |
JP2007251429A (ja) | 動画撮影装置及びズーム調整方法 | |
JP7049195B2 (ja) | 電子機器及びその制御方法、プログラム、並びに記憶媒体 | |
US20210287447A1 (en) | Electronic apparatus and control method therefor | |
JP7129294B2 (ja) | 電子機器および領域選択方法 | |
WO2022061541A1 (zh) | 控制方法、手持云台、系统及计算机可读存储介质 | |
JP5751775B2 (ja) | 撮像装置、その制御方法及びプログラム並びに記録媒体 | |
JP2014017665A (ja) | 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体 | |
US11380075B2 (en) | Electronic apparatus for playing back a virtual reality video image and control method therefor | |
JP7443100B2 (ja) | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 | |
JP6630337B2 (ja) | 電子機器およびその制御方法 | |
JP6218911B2 (ja) | 撮影制御装置および撮像制御装置の制御方法 | |
US20240345407A1 (en) | Electronic device and method for controlling electronic device | |
US20240176411A1 (en) | Electronic device and method for controlling electronic device | |
JP7592395B2 (ja) | 焦点調節装置、撮像装置および焦点調節方法 | |
JP7613510B2 (ja) | プログラム、情報処理装置、および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230203 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231023 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7384200 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |