JP7414551B2 - 制御装置および制御方法 - Google Patents
制御装置および制御方法 Download PDFInfo
- Publication number
- JP7414551B2 JP7414551B2 JP2020010098A JP2020010098A JP7414551B2 JP 7414551 B2 JP7414551 B2 JP 7414551B2 JP 2020010098 A JP2020010098 A JP 2020010098A JP 2020010098 A JP2020010098 A JP 2020010098A JP 7414551 B2 JP7414551 B2 JP 7414551B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- difference
- change
- amount
- brightness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 39
- 238000005375 photometry Methods 0.000 claims description 74
- 238000003384 imaging method Methods 0.000 claims description 53
- 238000001514 detection method Methods 0.000 claims description 46
- 230000008859 change Effects 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 210000000887 face Anatomy 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 5
- 230000004907 flux Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 210000000746 body region Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Description
なお、後述する図に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。したがって、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。ASICは、Application Specific Integrated Circuit(特定用途向け集積回路)の略である。CPUはCentral Processing Unitの略である。MPUはMicro-Processing Unitの略である。
図1~図8を参照して実施形態1を説明する。
(基本構成)
図1は、本発明の実施形態1に係る撮像制御システム100の構成を例示的に説明する図である。
撮像制御システム100は、監視カメラ101と、ネットワーク102と、クライアント装置103と、入力装置104と、表示装置105とを有する。監視カメラ101は、動画像を取得するための撮像装置であり、被写体の撮像および画像処理が可能な装置である。監視カメラ101とクライアント装置103とは、ネットワーク102を介して相互に通信可能な状態で接続されている。クライアント装置103は、入力装置104と表示装置105に通信可能な状態で接続されている。クライアント装置103は、種々の情報を処理する装置であるので、情報処理装置と称してもよい。また、クライアント装置103は、監視カメラ101の撮像を制御する装置であるので、制御装置と称してもよい。
表示装置105は、クライアント装置103から受信した画像を表示するモニタ等を備える装置である。なお、表示装置105はタッチパネルなどのUIとして機能することもできる。この場合、表示装置105は、クライアント装置103へ指示、情報、データ等を入力する入力装置としても機能できることになる。UIはUser Interfaceの略である。
図2は、監視カメラ101の内部構成を例示的に説明するブロック図である。監視カメラ101は、撮像光学系201、撮像素子202、カメラCPU203、ROM204、、RAM205、撮像系制御部206、通信制御部207、A/D変換部208、画像処理部209、エンコーダ部210およびネットワークI/F211を有する。監視カメラ101の各部(203~211)は、システムバス212により相互接続されている。ROMはRead Only Memoryの略である。RAMはRandom Access Memoryの略である。A/DはAnalog/Digitalの略である。I/Fはインターフェースの略である。
撮像素子202は、撮像光学系201で集光される光束を電流値(信号値)へと変換するCMOSやCCDなどの電荷蓄積型の固体撮像素子であって、カラーフィルタなどと組み合わせることで色情報を取得する撮像部である。CMOSはComplementary Metal Oxide Semiconductorの略である。CCDはCharge-Coupled Deviceの略である。撮像素子202はA/D変換部208に接続されている。
撮像系制御部206は、カメラCPU203からの指示に基づいて、監視カメラ101の各部の制御を行う。例えば、撮像系制御部206は、撮像光学系201に対して、フォーカス制御、シャッター制御、絞り調整などの制御を行う。
通信制御部207は、クライアント装置103との通信によって、クライアント装置103から監視カメラ101の各部への制御命令(制御信号)をカメラCPU203に伝達するための制御を行う。
画像処理部209は、撮像素子202から受信したデジタル信号の画像データに対して、画像処理を行う。画像処理部209はエンコーダ部210に接続されている。
エンコーダ部210は、画像処理部209で処理された画像データをMotion JpegやH264、H265などのファイルフォーマットに変換する処理を行う。エンコーダ部210はネットワークI/F211に接続されている。
ネットワークI/F211は、クライアント装置103等の外部の装置とのネットワーク102を介した通信に利用されるインターフェースであって、通信制御部207により制御される。
図3は、クライアント装置103の内部構成を例示的に説明するブロック図である。
クライアント装置103は、クライアントCPU301、主記憶装置302、補助記憶装置303、入力I/F304、出力I/F305およびネットワークI/F306を有する。クライアント装置103の各要素は、システムバス307を介して、相互に通信可能に接続されている。
主記憶装置302は、クライアントCPU301のデータの一時的な記憶場所として機能するRAM等の記憶装置である。例えば、主記憶装置302は、クライアント装置103が顔検出や人体検出を行う際に使用するパターンマッチング用のパターン(顔の特徴部分や人体の特徴部分に対応するパターン)を予め格納している。
補助記憶装置303は、各種プログラム、各種設定データ等を記憶するHDD、ROM、SSD等の記憶装置である。HDDはHard Disk Driveの略である。SSDはSolid State Deviceの略である。
出力I/F305は、クライアント装置103から表示装置105等への情報(信号)を出力する際に利用されるインターフェースである。
ネットワークI/F306は、監視カメラ101等の外部の装置とのネットワーク102を介した通信に利用されるインターフェースである。
クライアントCPU301が、補助記憶装置303に記憶されたプログラムに基づき処理を実行することによって、図4に示すクライアント装置103の機能及び処理が実現される。この詳細については後述する。
図4は、クライアント装置103が実行する機能を例示的に説明する図である。換言すると、図4に図示する各部(機能ブロック)は、クライアントCPU301により実行され得る機能であって、当該各部はクライアントCPU301と同義である。
図4に示すように、クライアント装置103のクライアントCPU301は、入力情報取得部401、通信制御部402、入力画像取得部403、カメラ情報取得部404および検出方法設定部405を含む。またクライアントCPU301は、被写体検出部406、測光領域設定部407および表示制御部408を含む。なお、クライアント装置103は、クライアントCPU301とは別のハードウェア(またはソフトウェア)により、図4に図示する各部401~408の機能を実行してもよい。
通信制御部402は、監視カメラ101から送信された画像(監視カメラ101により撮影された画像)を、ネットワーク102を介して受信するための制御を実行する。また、通信制御部402は、クライアント装置103から監視カメラ101への制御命令を、ネットワーク102を介して送信するための制御を実行する。
入力画像取得部403は、通信制御部402を介して監視カメラ101から受信した画像を、被写体の検出処理の対象である画像(被写体検出処理を適用する画像)として取得する。検出処理の詳細については後述する。
カメラ情報取得部404は、通信制御部402を介して、監視カメラ101により被写体を撮像する際のカメラ情報(撮像情報)を取得する。カメラ情報(撮像情報)は、被写体を撮像して画像を取得する際の種々の情報である。カメラ情報は、例えば、絞り値などの露出パラメータである。
測光領域設定部407は、監視カメラ101がカスタム測光モードの場合、自動露出制御(AE)に用いる領域を、監視カメラ101に対して設定する。AEはAutomatic Exposureの略である。図5は、本実施形態に係る測光モードと測光領域の関係について例示的に説明する図である。
カスタム測光モードとは、画像(画面)内の任意の位置に、ユーザが測光領域を指定(設定)できる測光モードである。カスタム測光モードの場合、例えば、図5(a)に示すように、ユーザは測光領域601を画像の左上の位置に設定することができる。カスタム測光モードにおいては、ユーザが意図する撮像(監視)の対象が、ユーザによって設定された測光領域(特定領域)に含まれる可能性が高いと考えられる。なお、図5(a)は、人物602が屋外603から屋内604に入る際の画像である。屋内604には消火器605が置かれている。図5(a)の2つの白矢印は、透明ガラスからなる自動ドア606が開動作をしたことを示している。室内604の上部604aは、例えば、黒色の壁である。監視カメラ101は室内604に設置されて、屋外603に向けてられている。人物602は、本実施形態において被写体と称する場合がある。画像中、人物602が写っている領域を被写体領域と称することができる。
中央重点測光モードとは、図5(b)に示すように、画像の中央付近に測光領域601が設定される測光モードである。中央重点測光モードの場合、ユーザが意図する撮像(監視)の対象が画像の略中央部に存在する可能性が高いと考えられる。
表示制御部409は、クライアントCPU301からの指示に従い、監視カメラ101から取得した画像を表示装置105へ出力する。
以下、図6に示すフローチャートを参照して、本実施形態に係る測光領域選択処理(測光領域設定処理)について説明する。なお、図1の撮像制御システム100において、監視カメラ101、クライアント装置103、入力装置104および表示装置105の電源がオンされ、監視カメラ101とクライアント装置103の接続(通信)が確立しているとする。また、この状態で、監視カメラ101による所定の更新周期で被写体の撮像、監視カメラ101からクライアント装置103への画像データの送信、表示装置105での画像表示が繰り返されているものとする。監視カメラ101は、初期設定として、中央重点測光モードに設定されているものとする。そして、ネットワーク102を介して監視カメラ101からクライアント装置103に被写体の撮像画像が入力されたことに応じて、図6のフローチャートの処理がクライアントCPU301により開始されるものとする。以下の説明において、Sはステップの略である。
次に、S502において、クライアント装置103は、画像データから被写体の検出を行う。本実施形態では、顔または人体の検出を行う。クライアント装置103の主記憶装置302には、顏の特徴部分や人体の特徴部分に対応するそれぞれのパターンが予め格納されており、被写体検出部406は、当該パターンに基づくパターンマッチングにより顔領域と人体領域を検出する。顔領域を検出する場合は、一般的には、顏を高精度に検出することができ、被写体の顔領域と顔領域以外の領域とを明確に識別することができる。しかしながら、顏の向き、顏の大きさ、顏の明るさなどが顔検出に適した条件でない場合、顔領域を正確に検出することはできない。これに対して、人体検出を行う場合は、顏の向き、顏の大きさ、顏の明るさなどによらず人物が存在する領域を検出することができる。
S504において、測光領域設定部407は、被写体検出部406から得られる検出結果に基づいて、顔または人体の平均輝度値を算出する。具体的には、露出決定部407は、被写体検出部406から得られる検出結果に基づいて、顔または人体の検出数(検出された数)、検出位置、検出サイズに関する情報を下記の式(1)に適用する。算出された値は、AE前の平均輝度値として保持する。
次に、S507において、測光領域設定部407は、S502で検出された顔または人体領域を測光領域として、監視カメラ101に設定する。S507で設定される領域が、図7の顔人体領域704となる。
S509では、測光領域設定部407は、監視カメラ101のAEが完了するまで待機する。監視カメラ101のAEが完了したか否かは、例えば、クライアント装置103が監視カメラ101からAE完了通知を受け取ったか否かにより判定する。あるいは、監視カメラ101のAEが完了したか否かは、監視カメラ101からクライアント装置103へ入力される入力画像の輝度変化が安定したかどうかによって判定してもよい。
S511において、測光領域設定部407は、S506と同様に、分割した各領域の平均輝度値を算出する。算出した値は、AE後の平均輝度値として保持する。
なお、閾値(パラメータ)Thが大きく設定すると、測光領域として設定される領域候補は増えるが、その反面、精度の低下が懸念される。閾値Thは、監視カメラ101の設置環境等に応じてユーザが適宜設定してもよいし、初期値として低い値を設定しておき、領域候補が所定数抽出されるまで徐々に値を増大させるようにしてもよい。
次に、S514において、測光領域設定部407は、S513で抽出された領域候補に対し、式(4)のように、S510において算出されるAE後の顔人体平均輝度値Iobjectと、S511において算出される各領域のAE後の平均輝度値Iareaとの差分値(輝度差)ΔIrを算出する。
次に、S515において、測光領域設定部407は、式(5)のように、S514で算出した差分値ΔIrが最小となる領域rを抽出し、カスタム測光モードにおける測光領域として監視カメラ101に設定し、本処理を終了する。本実施形態では、2つの領域候補である領域702と領域703のうち、領域702の差分値ΔIrが領域703の差分値ΔIrより小さいので、領域702がカスタム測光モードにおける測光領域として監視カメラ101に設定される。
以上説明したように、本実施形態の撮像制御システム100では、顔・人体の輝度に近い領域がカスタム測光の測光領域として自動的に設定(決定)される。このように測光領域を決定することで、AEによって顔・人体の検出に適した輝度に常に露出制御することができる。例えば、ガラス扉を採用した店舗入口やスタジアムゲートなど、天候や時刻で逆光と順光が変わることで来店者や来場者被写体(人物)の顔の明るさが変動したり、顔が長時間映らない時間帯が存在するような環境でも、適切な測光領域の設定が可能となる。よって、撮像画像において人物の顔が黒くつぶれるようなことはない。
従来、強い逆光状態で人物の顔が黒つぶれしてしまうような場合、黒色の物体(例えば、領域701)が測光領域として設定されてしまい、適切な露出調整が行えない場合がある。本実施形態によれば、領域701が選択されることはない。
また、本実施形態では、顔または人体を検出するたびに(S503の判定結果がYesになるたびに)S504~S515の処理を行っているが、必ずしもこのようにする必要はない。例えば、動きの少ない人物を検出した場合にのみ図6の処理を実行してもよい。この場合、例えば、S501とS502の間に、被写体の移動速度を検出するステップを追加し、当該移動速度が所定値以下の場合にのみS502に進むようにする。動きの少ない安定した被写体に対して図6の処理を行うと、より精度よく処理を実行することができる。また、図6の処理は、監視カメラ101の設置時などに、図5のように逆光状態で人を立たせて一度だけ行ってもよい。
以下に、図1、図3~図5および図9~図12を参照して、本発明の実施形態2を説明する。本実施形態では、被写体602の距離情報(監視カメラ101から被写体までの距離)を用いることで、カスタム測光の測光領域として、顔や人体が検出される領域に近い領域を自動的に選択する方法を説明する。なお、実施形態1と同様の構成および処理については、同一の符号を付し、詳細な説明を省略する。
撮像素子902は、撮像光学系201で集光される光束を電流値(信号値)へと変換するCMOSやCCDなどの電荷蓄積型の固体撮像素子であって、カラーフィルタなどと組み合わせることで色情報を取得する撮像部である。本実施形態の撮像素子902は、後述する構成(図10および図11)を持つ像面位相差センサとしても機能する。
図11では、マイクロレンズ1002を有する画素1001に対して、射出瞳1106から出射した光束Lの中心を、光軸1109で示している。射出瞳1106から出射した光束Lは光軸1109を中心として撮像素子902に入射する。
S1201では、測光領域設定部407は、式(6)のように、監視カメラ101から得た距離情報から、顔または人体領域の平均距離Dobjectを算出する。
S1203において、測光領域設定部407は、式(7)のように、S1202で分割した各領域(分割領域)の平均距離Dareaを算出する。
ここで、D(x、y)は画像内における水平方向(x軸方向)と垂直方向(y軸方向)の2次元座標位置(x、y)の距離情報(m)を表す。また、(p、q)は各領域の中心座標を表し、mは水平方向の各領域のサイズを表し、nは垂直方向の各領域のサイズを表す。
すなわち、S1206において、測光領域設定部407は、S1205で算出した平均輝度値の差分値ΔIrに対し、S1204で算出した平均距離の差分値ΔDrで重みづけを行う。本実施形態では、平均距離の差分値ΔDrの重みは、パラメータαを用いて調整する。例えば、環境光などの影響が顔人体領域と近い領域を優先して選択させる場合は、パラメータαを大きく設定する。つまり、ΔIr+ΔDr×αを算出する。
S1207において、測光領域設定部407は、S1206で重みづけした後の値(ΔIr+ΔDr×α)が最も小さい領域rを抽出し(式(10))、測光領域として監視カメラ101に設定し、本処理を終了する。
また、本実施形態の処理と実施形態1の処理とを組み合わせることで、より精度を向上させることも可能である。この場合、実施形態1におけるS515において、本実施形態におけるS1206~S1207と同様に、平均距離差ΔDrで重みづけを行えばよい。
以下に、図1~図4および図13~図15を参照して、本発明の実施形態3を説明する。実施形態1では、図6の処理により、監視カメラ101が露光制御を行う際に用いる測光領域を、クライアント装置103が自動的に設定(決定)した。本実施形態では、監視カメラ101が露光制御を行う際に用いる測光領域を、ユーザが決定できる態様を説明する。なお、実施形態1と同様の構成および処理については、同一の符号を付し、詳細な説明を省略する。
ユーザが入力装置104を操作して監視カメラ101の測光モードを手動で設定するための指示をクライアント装置103に入力すると、S1301において、測光領域設定部407は、図14に示すようなGUI105aを表示装置105に表示する。GUIはGraphical User Interfaceの略である。GUI105aにより、表示装置105は、ユーザに測光領域設定処理の開始を促す。開始ボタン1401が押下されると、S501に進む。そして、S501~S514の処理が行われる。S514の後、S1302に進む。
ユーザは入力装置104を用いて、領域1501~1503のいずれか1つを選択する。当該選択は、例えば、入力装置104のマウスをクリックすること、キーボードのカーソルキーを操作すること、タッチパネルへ触れること等によって行われる。例えば、ユーザは領域1501を選択する。
以上、本実施形態によれば、ユーザと対話式で測光領域設定を行うことができる。本実施形態では、所定数の領域候補を入力画像に重畳させて表示し、その中から1つの領域をユーザに選択させている。このようにすることで、ユーザは領域候補の中から変動の少ない領域を直感的に選択することができる。このような領域が測光領域として設定されることで、より安定したAEが行われるようになり、顔や人体の検出性能低下を抑制することができる。
また、表示装置105に表示する領域候補の数は3としたが、1以上であればよい。
実施形態3は実施形態1との比較で説明されたが、実施形態3のような手動設定は、実施形態2にも適用できる。この場合、例えば、S1206で得られるΔIr+ΔDr×αの値が所定値以下の分割領域を領域候補として表示装置105に表示する。そして、S1207を実行することなく、表示装置105に領域候補を表示し、ユーザに選択を促す。領域候補が複数ある場合は、領域候補の表示形態を変える。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (13)
- 撮像装置が撮像した画像内で被写体領域を検出する検出手段と、
前記画像を複数の分割領域に分割する分割手段と、
前記被写体領域の輝度値と、前記分割領域の輝度値との差分である輝度差を算出する第1の算出手段と、
前記撮像装置が前記被写体領域を測光領域として露出制御を行う前後における前記被写体領域の輝度値の差分である第1の変化量と、前記撮像装置が前記被写体領域を測光領域として露出制御を行う前後における前記分割領域の輝度値の差分である第2の変化量とをそれぞれ算出する第2の算出手段と、
前記第1の変化量と、前記第2の変化量と、前記輝度差とに基づいて、前記撮像装置が露光制御を行う際に用いる測光領域を決定する決定手段と、
を有することを特徴とした制御装置。 - 前記決定手段は、前記複数の分割領域のうち、前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域の輝度値と、前記被写体領域の輝度値との差分とに基づいて、前記測光領域を決定する請求項1に記載の制御装置。
- 前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域が2つ以上ある場合、前記決定手段は、前記2つ以上の分割領域のうち、前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域の輝度値と、前記被写体領域の輝度値との差分が最も小さい分割領域を、前記測光領域として決定する請求項1または2に記載の制御装置。
- 前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域を表示する表示手段をさらに有する請求項1または2に記載の制御装置。
- 前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域が2つ以上ある場合、前記表示手段は、前記第1の変化量と前記第2の変化量の差が所定値以下の分割領域の輝度値と、前記被写体領域の輝度値との差分とに基づいて、前記2つ以上の分割領域の表示形態を変える請求項4に記載の制御装置。
- 撮像装置が撮像した画像内で被写体領域を検出する検出手段と、
前記画像を複数の分割領域に分割する分割手段と、
前記被写体領域の輝度値と、前記分割領域の輝度値との差分を輝度差として算出する第1の算出手段と、
前記撮像装置から前記被写体領域までの距離と、前記撮像装置から前記分割領域までの距離との差分を距離差として算出する第2の算出手段と、
前記輝度差と前記距離差に基づいて、前記撮像装置が露光制御を行う際に用いる測光領域を決定する決定手段と、
を有することを特徴とした制御装置。 - 前記第1の算出手段は、前記撮像装置が前記被写体領域を測光領域として露出制御を行った後における前記被写体領域の輝度値と前記分割領域の輝度値との差分を前記輝度差として算出する請求項6に記載の制御装置。
- 前記検出手段は、前記被写体領域として、少なくとも人物の顔または人体を検出する請求項1~7のいずれか一項に記載の制御装置。
- 前記露光制御は、前記画像中の任意の位置に測光領域を設定できる露光制御である請求項1~8のいずれか一項に記載の制御装置。
- 画像を撮像する撮像手段と、
前記撮像手段が撮像した画像に基づいて、前記撮像手段の測光領域を決定する請求項1~9のいずれか一項に記載の制御装置と、
を備える装置。 - 撮像装置が撮像した画像内で被写体領域を検出するステップと、
前記画像を複数の分割領域に分割するステップと、
前記被写体領域の輝度値と、前記分割領域の輝度値との差分である輝度差を算出するステップと、
前記撮像装置が前記被写体領域を測光領域として露出制御を行う前後における前記被写体領域の輝度値の差分である第1の変化量と、前記撮像装置が前記被写体領域を測光領域として露出制御を行う前後における前記分割領域の輝度値の差分である第2の変化量とをそれぞれ算出するステップと、
前記第1の変化量と、前記第2の変化量と、前記輝度差とに基づいて、前記撮像装置が露光制御を行う際に用いる測光領域を決定するステップと、
を有することを特徴とした制御方法。 - 撮像装置が撮像した画像内で被写体領域を検出する検出ステップと、
前記画像を複数の分割領域に分割するステップと、
前記被写体領域の輝度値と、前記分割領域の輝度値との差分を輝度差として算出するステップと、
前記撮像装置から前記被写体領域までの距離と、前記撮像装置から前記分割領域までの距離との差分を距離差として算出するステップと、
前記輝度差と前記距離差に基づいて、前記撮像装置が露出制御を行う際に用いる測光領域を決定するステップと、
を有することを特徴とした制御方法。 - コンピュータを、請求項1から9のいずれか1項に記載の制御装置の各手段として機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020010098A JP7414551B2 (ja) | 2020-01-24 | 2020-01-24 | 制御装置および制御方法 |
EP21151885.7A EP3855724B1 (en) | 2020-01-24 | 2021-01-15 | Control apparatus, control method, storage medium, and imaging control system |
US17/154,518 US11587324B2 (en) | 2020-01-24 | 2021-01-21 | Control apparatus, control method, storage medium, and imaging control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020010098A JP7414551B2 (ja) | 2020-01-24 | 2020-01-24 | 制御装置および制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021117333A JP2021117333A (ja) | 2021-08-10 |
JP7414551B2 true JP7414551B2 (ja) | 2024-01-16 |
Family
ID=74186521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020010098A Active JP7414551B2 (ja) | 2020-01-24 | 2020-01-24 | 制御装置および制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11587324B2 (ja) |
EP (1) | EP3855724B1 (ja) |
JP (1) | JP7414551B2 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013094212A1 (ja) | 2011-12-22 | 2013-06-27 | パナソニック株式会社 | 露光制御装置、撮像装置、画像表示装置及び露光制御方法 |
JP2015050733A (ja) | 2013-09-04 | 2015-03-16 | キヤノン株式会社 | 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置 |
JP2017003709A (ja) | 2015-06-08 | 2017-01-05 | キヤノン株式会社 | 撮像装置、発光制御方法、プログラム |
WO2018150768A1 (ja) | 2017-02-20 | 2018-08-23 | ソニー株式会社 | 測光装置、測光方法、プログラムおよび撮像装置 |
JP2019028378A (ja) | 2017-08-03 | 2019-02-21 | 株式会社シグマ | 撮像装置及び撮像装置の制御方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5280359A (en) * | 1991-04-05 | 1994-01-18 | Matsushita Electric Industrial Co., Ltd. | Image pick-up device with auto lens control for freely selecting photometric area |
US6765608B1 (en) * | 1999-03-09 | 2004-07-20 | Minolta Co., Ltd. | Image processing apparatus and system executing predetermined image processing on image data shot by camera, and image recording medium recorded with image processing program |
JP3926572B2 (ja) * | 2001-03-02 | 2007-06-06 | 株式会社日立製作所 | 画像監視方法、画像監視装置及び記憶媒体 |
US7447418B2 (en) * | 2003-01-17 | 2008-11-04 | Matsushita Electric Industrial Co., Ltd. | Image reproducing device and image recording/reproducing device |
JP2006287589A (ja) * | 2005-03-31 | 2006-10-19 | Canon Inc | 画像処理方法、画像処理装置 |
WO2007074671A1 (ja) * | 2005-12-28 | 2007-07-05 | Matsushita Electric Industrial Co., Ltd. | 物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラム |
US7646549B2 (en) * | 2006-12-18 | 2010-01-12 | Xceed Imaging Ltd | Imaging system and method for providing extended depth of focus, range extraction and super resolved imaging |
WO2008114499A1 (ja) * | 2007-03-20 | 2008-09-25 | Panasonic Corporation | 撮影装置および撮影方法 |
JP4626632B2 (ja) * | 2007-06-25 | 2011-02-09 | 株式会社日立製作所 | 映像監視システム |
JP4756660B2 (ja) * | 2008-03-14 | 2011-08-24 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置および画像処理方法 |
JP5361528B2 (ja) * | 2009-05-15 | 2013-12-04 | キヤノン株式会社 | 撮像装置およびプログラム |
JP5824972B2 (ja) * | 2010-11-10 | 2015-12-02 | カシオ計算機株式会社 | 撮像装置、フレームレート制御装置、撮像制御方法及びプログラム |
JP2016045874A (ja) * | 2014-08-26 | 2016-04-04 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2020
- 2020-01-24 JP JP2020010098A patent/JP7414551B2/ja active Active
-
2021
- 2021-01-15 EP EP21151885.7A patent/EP3855724B1/en active Active
- 2021-01-21 US US17/154,518 patent/US11587324B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013094212A1 (ja) | 2011-12-22 | 2013-06-27 | パナソニック株式会社 | 露光制御装置、撮像装置、画像表示装置及び露光制御方法 |
JP2015050733A (ja) | 2013-09-04 | 2015-03-16 | キヤノン株式会社 | 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置 |
JP2017003709A (ja) | 2015-06-08 | 2017-01-05 | キヤノン株式会社 | 撮像装置、発光制御方法、プログラム |
WO2018150768A1 (ja) | 2017-02-20 | 2018-08-23 | ソニー株式会社 | 測光装置、測光方法、プログラムおよび撮像装置 |
JP2019028378A (ja) | 2017-08-03 | 2019-02-21 | 株式会社シグマ | 撮像装置及び撮像装置の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3855724A1 (en) | 2021-07-28 |
EP3855724B1 (en) | 2024-03-27 |
US11587324B2 (en) | 2023-02-21 |
JP2021117333A (ja) | 2021-08-10 |
US20210232827A1 (en) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102010228B1 (ko) | 화상처리장치, 화상처리방법, 및 프로그램 | |
CN111107276B (zh) | 信息处理设备及其控制方法、存储介质以及摄像系统 | |
JP6512810B2 (ja) | 撮像装置および制御方法とプログラム | |
US20160119550A1 (en) | Image processing device, image capturing device including image processing device, image processing method, and program | |
JP2010010729A (ja) | 撮像装置及びプログラム | |
KR20110025621A (ko) | 화상 처리 장치, 화상 처리 방법 및 컴퓨터 기억 매체 | |
JP2016100696A (ja) | 画像処理装置、画像処理方法、及び画像処理システム | |
CN103905727A (zh) | 被摄体区域跟踪设备及其控制方法 | |
JP2006211416A (ja) | 画像処理装置及び方法 | |
CN107968913B (zh) | 显示控制设备、显示控制设备的控制方法和存储介质 | |
US20100046798A1 (en) | Image processing apparatus, image processing method, and storage medium | |
CN103096094A (zh) | 视觉识别装置和方法 | |
CN104754212A (zh) | 电子装置以及通过使用该电子装置捕获移动对象的方法 | |
WO2015194091A1 (ja) | 撮像装置および撮像方法 | |
JP6270578B2 (ja) | 撮像装置、撮像装置の制御方法及びプログラム | |
JP7414551B2 (ja) | 制御装置および制御方法 | |
JP5000699B2 (ja) | 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム | |
JP5359930B2 (ja) | 撮像装置、表示方法、および、プログラム | |
JP7353864B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム、撮像システム | |
JP2021136671A (ja) | 情報処理装置、撮像装置、方法、プログラム及び記憶媒体 | |
JP6625093B2 (ja) | 表示制御装置および撮像装置 | |
JP2019033470A (ja) | 画像処理システム、撮像装置、画像処理装置、制御方法およびプログラム | |
US20240031683A1 (en) | Image capturing apparatus, control method, and storage medium | |
EP3442218A1 (en) | Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner | |
JP7373676B2 (ja) | 撮像装置、撮像制御方法及び撮像制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7414551 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |