JP3217052B2 - カメラの焦点検出装置 - Google Patents
カメラの焦点検出装置Info
- Publication number
- JP3217052B2 JP3217052B2 JP30732389A JP30732389A JP3217052B2 JP 3217052 B2 JP3217052 B2 JP 3217052B2 JP 30732389 A JP30732389 A JP 30732389A JP 30732389 A JP30732389 A JP 30732389A JP 3217052 B2 JP3217052 B2 JP 3217052B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- distance data
- neural network
- main subject
- connection strength
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Description
【発明の詳細な説明】 〔産業上の利用分野〕 この発明はカメラの焦点検出装置に関する。
従来の自動焦点カメラは、画面の中央部に測距のため
のフォーカスフレームが位置し、そこに主被写体が位置
するように構図を決定していた。そして、主被写体が中
央にない場合や、自由な構図で撮影を行ないたい場合に
は、フォーカスロックで対処していた。
のフォーカスフレームが位置し、そこに主被写体が位置
するように構図を決定していた。そして、主被写体が中
央にない場合や、自由な構図で撮影を行ないたい場合に
は、フォーカスロックで対処していた。
また、1点のみでなく画面中の多くの点で測距を行
い、その中の所定の距離、例えば最短距離の点に焦点を
合わせる従来例もある。
い、その中の所定の距離、例えば最短距離の点に焦点を
合わせる従来例もある。
さらに、多数の写真のパターン解析を行なって、メン
バシップ関数を定義し、3点の距離データ間の関係から
ファジィ理論による近似推論を行い主被写体の位置を決
定するカメラの自動焦点制御方式も発表されている。
バシップ関数を定義し、3点の距離データ間の関係から
ファジィ理論による近似推論を行い主被写体の位置を決
定するカメラの自動焦点制御方式も発表されている。
しかしながら、フォーカスフレームが1つしかない従
来例では人物等が左右に並んでいる場合は、いわゆる中
抜け現象が避けられない。また、フォーカスロック操作
は面倒であり、迅速な撮影には不向きである。多くの点
の距離データから所定の距離の被写体に焦点を合わせる
場合は、必ずしも撮影者の意図した写真が撮影できると
は限らない。さらに、ファジィ理論を応用したものは、
メンバシップ関数の定義が難しく、その定義の仕方次第
で出来不出来が左右されるという欠点と、近似推論であ
るので、処理すべき距離データが多くなると処理時間が
急増するという欠点がある。
来例では人物等が左右に並んでいる場合は、いわゆる中
抜け現象が避けられない。また、フォーカスロック操作
は面倒であり、迅速な撮影には不向きである。多くの点
の距離データから所定の距離の被写体に焦点を合わせる
場合は、必ずしも撮影者の意図した写真が撮影できると
は限らない。さらに、ファジィ理論を応用したものは、
メンバシップ関数の定義が難しく、その定義の仕方次第
で出来不出来が左右されるという欠点と、近似推論であ
るので、処理すべき距離データが多くなると処理時間が
急増するという欠点がある。
この発明は上述した事情に対処すべきなされたもの
で、その目的は、どのような状況の下でも短時間で主被
写体を決定でき、主被写体の焦点を高速で検出すること
ができる簡単な構成のカメラの焦点検出装置を提供する
ことである。
で、その目的は、どのような状況の下でも短時間で主被
写体を決定でき、主被写体の焦点を高速で検出すること
ができる簡単な構成のカメラの焦点検出装置を提供する
ことである。
この発明によるカメラの焦点検出装置は、撮影時に撮
影レンズを介して入射された被写体像の複数の領域毎の
距離に対応した各距離データの集合である距離データベ
クトルを得るための距離測定手段と、入力された距離デ
ータベクトルの各距離データに対して各々のシナプス結
合強度を介してそれぞれ結合される複数のニューロン・
ユニットを単一層のネットワークで構成するとともに、
モデルパターンに対応する距離データベクトルを入力し
た時に選択的に反応する最適合ニューロン・ユニットが
得られるよう、各シナプス結合強度が学習されており、
上記複数のニューロン・ユニットを有する単一層のネッ
トワークにより当該撮影時の距離データベクトルに対し
て得られた最適合ニューロン・ユニットに対応づけられ
ている主被写体の位置に係る値を得るニューラルネット
ワークと、前記ニューラルネットワークにより生成され
た主被写体の位置に係る値に応じてカメラの焦点調節を
行なう手段とを具備することを特徴とするものである。
影レンズを介して入射された被写体像の複数の領域毎の
距離に対応した各距離データの集合である距離データベ
クトルを得るための距離測定手段と、入力された距離デ
ータベクトルの各距離データに対して各々のシナプス結
合強度を介してそれぞれ結合される複数のニューロン・
ユニットを単一層のネットワークで構成するとともに、
モデルパターンに対応する距離データベクトルを入力し
た時に選択的に反応する最適合ニューロン・ユニットが
得られるよう、各シナプス結合強度が学習されており、
上記複数のニューロン・ユニットを有する単一層のネッ
トワークにより当該撮影時の距離データベクトルに対し
て得られた最適合ニューロン・ユニットに対応づけられ
ている主被写体の位置に係る値を得るニューラルネット
ワークと、前記ニューラルネットワークにより生成され
た主被写体の位置に係る値に応じてカメラの焦点調節を
行なう手段とを具備することを特徴とするものである。
また、モデルパターンの距離データベクトルに選択的
反応をするようにシナプス結合強度を修正することによ
り前記シナプス結合強度を獲得した後に、前記モデルパ
ターンの距離データベクトルを前記ニューラル・ネット
ワークに再度入力したときの前記ニューラル・ネットワ
ークの出力と前記モデルパターンの主被写体位置とを対
応づける学習手段をさらに具備することも特徴とする。
反応をするようにシナプス結合強度を修正することによ
り前記シナプス結合強度を獲得した後に、前記モデルパ
ターンの距離データベクトルを前記ニューラル・ネット
ワークに再度入力したときの前記ニューラル・ネットワ
ークの出力と前記モデルパターンの主被写体位置とを対
応づける学習手段をさらに具備することも特徴とする。
第1図にこの発明によるニューラル・ネットワークを
使った主被写体の決定手段の概略を示す。左側に示す入
力画面はファインダに写る撮影画面であり、2次元マト
リクス状に配列された領域Pi(i=1〜n(nは正整
数、第1図では9))に分割され、各領域Pi毎に距離デ
ータLiが得られる。実際には、領域の中心点の距離が測
定される。右側に示すニューラル・ネットワークは入力
画面の各領域毎の距離データベクトルLiを入力し、主被
写体が位置する領域Pxを決定するものである。この発明
で用いられるニューラル・ネットワークは所定のシナプ
ス結合強度を介して距離データベクトルが入力される複
数個(ここでは25個)のニューロン・ユニットからなる
単一層のネットワークであり、升目として示される各ニ
ューロン・ユニットに全距離データベクトルが入力され
る。
使った主被写体の決定手段の概略を示す。左側に示す入
力画面はファインダに写る撮影画面であり、2次元マト
リクス状に配列された領域Pi(i=1〜n(nは正整
数、第1図では9))に分割され、各領域Pi毎に距離デ
ータLiが得られる。実際には、領域の中心点の距離が測
定される。右側に示すニューラル・ネットワークは入力
画面の各領域毎の距離データベクトルLiを入力し、主被
写体が位置する領域Pxを決定するものである。この発明
で用いられるニューラル・ネットワークは所定のシナプ
ス結合強度を介して距離データベクトルが入力される複
数個(ここでは25個)のニューロン・ユニットからなる
単一層のネットワークであり、升目として示される各ニ
ューロン・ユニットに全距離データベクトルが入力され
る。
ニューラル・ネットワークの学習は次の2つのステッ
プからなる。先ず、多数のモデルパターンにおける距離
データベクトルをニューラル・ネットワークに入力し、
教師なし学習により所定のシナプス結合強度を獲得して
おく。教師なし学習とは、教師データがなくても与えら
れた特定の入力ベクトルに選択的に反応するように各ニ
ューロン・ユニットのシナプス結合強度を修正すること
であり、これにより、距離データベクトルがネットワー
ク上で自動的に分類される。そして、次に、モデルパタ
ーンの距離データベクトルをニューラル・ネットワーク
に再度入力したときのニューラル・ネットワークの出力
ニューロン・ユニットと、そのモデルパターンにおける
主被写体の位置する領域とを対応づけておく。すなわ
ち、第1図の各ニューロン・ユニットに記されている領
域が主被写体の位置する領域である。
プからなる。先ず、多数のモデルパターンにおける距離
データベクトルをニューラル・ネットワークに入力し、
教師なし学習により所定のシナプス結合強度を獲得して
おく。教師なし学習とは、教師データがなくても与えら
れた特定の入力ベクトルに選択的に反応するように各ニ
ューロン・ユニットのシナプス結合強度を修正すること
であり、これにより、距離データベクトルがネットワー
ク上で自動的に分類される。そして、次に、モデルパタ
ーンの距離データベクトルをニューラル・ネットワーク
に再度入力したときのニューラル・ネットワークの出力
ニューロン・ユニットと、そのモデルパターンにおける
主被写体の位置する領域とを対応づけておく。すなわ
ち、第1図の各ニューロン・ユニットに記されている領
域が主被写体の位置する領域である。
撮影の際には、第1図に示すように撮影したい画面中
の各領域Pi毎の距離データベクトルLiをこのように学習
されたニューラル・ネットワークに入力すると、いずれ
か1つのニューロン・ユニットが最も強く発火し、その
ニューロン・ユニットに対応する測距領域Px(第1図で
はP7)が主被写体と判断でき、そこに焦点を合わせる
と、常に主被写体が合焦状態となる写真が撮影できる。
の各領域Pi毎の距離データベクトルLiをこのように学習
されたニューラル・ネットワークに入力すると、いずれ
か1つのニューロン・ユニットが最も強く発火し、その
ニューロン・ユニットに対応する測距領域Px(第1図で
はP7)が主被写体と判断でき、そこに焦点を合わせる
と、常に主被写体が合焦状態となる写真が撮影できる。
第2図〜第4図を参照してこの発明で用いられるニュ
ーラル・ネットワークを説明する。このニューラル・ネ
ットワークのモデルはヘルシンキ工科大(フィンラン
ド)とコホーネン(Kohonen)が提唱したものであり、
自己組織化ネットワークと呼ばれる。その学習手法は自
己組織化特徴マッピングとして知られている。
ーラル・ネットワークを説明する。このニューラル・ネ
ットワークのモデルはヘルシンキ工科大(フィンラン
ド)とコホーネン(Kohonen)が提唱したものであり、
自己組織化ネットワークと呼ばれる。その学習手法は自
己組織化特徴マッピングとして知られている。
第2図に各ニューロン・ユニットのモデルを示す。ニ
ューロン・ユニットは入力ベクトルの各入力値とシナプ
ス結合を介して接続され、その入力値と各シナプス結合
強度を比較して両者のマッチング度に応じた出力を発生
する。
ューロン・ユニットは入力ベクトルの各入力値とシナプ
ス結合を介して接続され、その入力値と各シナプス結合
強度を比較して両者のマッチング度に応じた出力を発生
する。
第i番目のニューロン・ユニットの出力yiは次式で示
される。
される。
ここで、f()はニューロン・ユニットの出力関数
(通常、シグモイド形の単調増加関数)、 wijは第i番目のニューロン・ユニットの第j番目の
入力xkjに対するシナプス結合強度、 xkjは第k番目の入力ベクトルの第j番目の入力値、 nは入力ベクトルの次元数である。
(通常、シグモイド形の単調増加関数)、 wijは第i番目のニューロン・ユニットの第j番目の
入力xkjに対するシナプス結合強度、 xkjは第k番目の入力ベクトルの第j番目の入力値、 nは入力ベクトルの次元数である。
ニューラル・ネットワークは各ニューロン・ユニット
を2次元的に配置して構成されるが、ここでは、説明の
簡単化のため1次元的にモデル化したものを第3図に示
す。
を2次元的に配置して構成されるが、ここでは、説明の
簡単化のため1次元的にモデル化したものを第3図に示
す。
第3図に示すように、このニューラル・ネットワーク
はニューロン・ユニットの出力から入力への信号のフィ
ードバック結合の効果を導入した自己組織化特徴マッピ
ングが行なわれる。ここで、wikは第k番目のニューロ
ン・ユニットから第i番目のニューロン・ユニットに向
かうフィードバック結合強度である。
はニューロン・ユニットの出力から入力への信号のフィ
ードバック結合の効果を導入した自己組織化特徴マッピ
ングが行なわれる。ここで、wikは第k番目のニューロ
ン・ユニットから第i番目のニューロン・ユニットに向
かうフィードバック結合強度である。
第4図はこのようなフィードバック結合のシナプス結
合強度への影響の度合を示す。すなわち、フィードバッ
ク結合の効果によりシナプス結合強度はメキシカンハッ
トタイプの形状の特性変化を示し、ある特定のニューロ
ン・ユニットの出力値が上昇すると、それに距離的に近
い位置関係にあるニューロン・ユニットもそれにひきづ
られて出力値が上昇するが、さらにその外側にあるニュ
ーロン・ユニットは逆に出力値が下がる。
合強度への影響の度合を示す。すなわち、フィードバッ
ク結合の効果によりシナプス結合強度はメキシカンハッ
トタイプの形状の特性変化を示し、ある特定のニューロ
ン・ユニットの出力値が上昇すると、それに距離的に近
い位置関係にあるニューロン・ユニットもそれにひきづ
られて出力値が上昇するが、さらにその外側にあるニュ
ーロン・ユニットは逆に出力値が下がる。
このフィードバック結合の効果を考慮したシナプス結
合強度の学習が最適のマッチングをしたニューロン・ユ
ニットの近傍でのみ行なわれるように簡略化すると、こ
のニューラル・ネットワークの学習処理(自己組織化特
徴マッピング)は以下の手順で行なうことができる。
合強度の学習が最適のマッチングをしたニューロン・ユ
ニットの近傍でのみ行なわれるように簡略化すると、こ
のニューラル・ネットワークの学習処理(自己組織化特
徴マッピング)は以下の手順で行なうことができる。
#1:Wi(0)を乱数で初期化し、学習回数t=0とす
る。ここで、Wi(t)=(wi1(t),wi2(t),…w
in(t))である。
る。ここで、Wi(t)=(wi1(t),wi2(t),…w
in(t))である。
以下、各入力ベクトルXkに対してステップ#2,#3の
処理を繰り返す。
処理を繰り返す。
#2:t=t+1とし、次式を満足する最適合ニューロ
ン・ユニットcを求める。
ン・ユニットcを求める。
‖Xk−wc(t)‖=min{‖Xk−Wi(t)‖} …(2) ここで、Xk=(xki,xk2,…xkn)、wc(t)は最
適合ニューロン・ユニットのcのシナプス結合強度であ
る。
適合ニューロン・ユニットのcのシナプス結合強度であ
る。
#3:i∈Nc(t)の場合はWi(t+1)=Wi(t)+
α(t)×(Xk−Wi(t))とし、i∈Nc(t)以外の
場合はWi(t+1)=Wi(t)とする。
α(t)×(Xk−Wi(t))とし、i∈Nc(t)以外の
場合はWi(t+1)=Wi(t)とする。
ここで、α(t)は学習係数、Nc(t)は最適合ニュ
ーロン・ユニットcの近傍にあるニューロン・ユニット
の集合であり、通常、α(t),Nc(t)ともに、単調
減少関数である。
ーロン・ユニットcの近傍にあるニューロン・ユニット
の集合であり、通常、α(t),Nc(t)ともに、単調
減少関数である。
このような自己組織化特徴マッピングを行なうことに
より、近傍にあるニューロン・ユニットのシナプス結合
強度は類似したものとなる。また、モデルパターン間の
類似度、相関性等の統計的性質を反映したシナプス結合
強度が獲得されるので、各モデルパターンのベクトル量
子化がなされ、モデルパターンの分類が可能となる。ま
た、任意の撮影画面の主被写体の位置の決定処理は最適
合ニューロン・ユニットcの決定処理と考えることがで
きるが、これはステップ#2から推察されるように、演
算量が少なく高速な決定処理が可能である。
より、近傍にあるニューロン・ユニットのシナプス結合
強度は類似したものとなる。また、モデルパターン間の
類似度、相関性等の統計的性質を反映したシナプス結合
強度が獲得されるので、各モデルパターンのベクトル量
子化がなされ、モデルパターンの分類が可能となる。ま
た、任意の撮影画面の主被写体の位置の決定処理は最適
合ニューロン・ユニットcの決定処理と考えることがで
きるが、これはステップ#2から推察されるように、演
算量が少なく高速な決定処理が可能である。
以下、第5図〜第7図を参照してこの発明によりカメ
ラの焦点検出装置の実施例を説明する。第5図は実施例
としての自動焦点カメラのブロック図である。1撮影画
面の複数の領域にある物体毎までの距離を検出する複数
の測距センサ2i(i=1〜n)が設けられ、これらによ
り得られた各領域毎の距離データLiが主被写体決定回路
4に供給されるとともに、正規化演算回路3に供給され
る。正規化演算回路3は距離データLiをニューラル・ネ
ットワーク5に入力できるように0から1までの実数値
に正規化し、上述した入力データベクトルxkjを得る。
正規化演算回路3の出力は既に学習により獲得されたシ
ナプス結合強度を持ち、複数のニューロン・ユニットか
らなる単一層のニューラル・ネットワーク5に入力され
る。ここで、距離データとしては、被写体までの距離そ
のもの、または距離情報を含んだデータ、例えば三角測
量法での変位量や位相差法の横ずれ量などを用いること
ができる。
ラの焦点検出装置の実施例を説明する。第5図は実施例
としての自動焦点カメラのブロック図である。1撮影画
面の複数の領域にある物体毎までの距離を検出する複数
の測距センサ2i(i=1〜n)が設けられ、これらによ
り得られた各領域毎の距離データLiが主被写体決定回路
4に供給されるとともに、正規化演算回路3に供給され
る。正規化演算回路3は距離データLiをニューラル・ネ
ットワーク5に入力できるように0から1までの実数値
に正規化し、上述した入力データベクトルxkjを得る。
正規化演算回路3の出力は既に学習により獲得されたシ
ナプス結合強度を持ち、複数のニューロン・ユニットか
らなる単一層のニューラル・ネットワーク5に入力され
る。ここで、距離データとしては、被写体までの距離そ
のもの、または距離情報を含んだデータ、例えば三角測
量法での変位量や位相差法の横ずれ量などを用いること
ができる。
ニューラル・ネットワーク5は、距離データxkjが入
力され、各ニューロン・ユニットのシナプス結合強度w
ij(t)とのベクトル間距離 を計算し、そのベクトル間距離の最小値Dc=min{Ni}
の検索を行ない、その最小値を与えるニューロン・ユニ
ットに対応する主被写体の位置情報Pxを出力する。な
お、一般に、ニューラル・ネットワーク5は測距領域総
数の5〜20倍程度のニューロン・ユニットからなる。こ
の主被写体の位置情報は主被写体決定回路4に入力さ
れ、その主被写体に対応する測距センサ2からの距離デ
ータLxを焦点検出のための演算を行なう焦点検出用演算
回路6に供給する。焦点検出用演算回路6の出力はドラ
イバ7に供給され、ドライバ7はこの情報に基づいてレ
ンズ駆動系8を動作させ、レンズ1を光軸方向に移動し
焦点調節を行なう。
力され、各ニューロン・ユニットのシナプス結合強度w
ij(t)とのベクトル間距離 を計算し、そのベクトル間距離の最小値Dc=min{Ni}
の検索を行ない、その最小値を与えるニューロン・ユニ
ットに対応する主被写体の位置情報Pxを出力する。な
お、一般に、ニューラル・ネットワーク5は測距領域総
数の5〜20倍程度のニューロン・ユニットからなる。こ
の主被写体の位置情報は主被写体決定回路4に入力さ
れ、その主被写体に対応する測距センサ2からの距離デ
ータLxを焦点検出のための演算を行なう焦点検出用演算
回路6に供給する。焦点検出用演算回路6の出力はドラ
イバ7に供給され、ドライバ7はこの情報に基づいてレ
ンズ駆動系8を動作させ、レンズ1を光軸方向に移動し
焦点調節を行なう。
第6図にニューラル・ネットワーク5の具体的な回路
構成を示す。ニューラル・ネットワーク5は種々のデー
タ格納用のメモリ9,10,11,12と、各種の演算回路13,14
からなる。メモリとしては、正規化演算回路3から出力
された正規化距離データxkjを格納するメモリ9、学習
により獲得されたシナプス結合強度wij(t)を格納す
るメモリ10、正規化距離データxkjとシナプス結合強度
wij(t)とのベクトル間距離Niを格納するメモリ11、
学習済みのニューラル・ネットワーク上のニューロン・
ユニットと撮影画面の主被写体位置との対応関係を示す
主被写体位置情報を格納するメモリ12が設けられる。演
算回路としては、正規化距離データxkjとシナプス結合
強度wij(t)とからベクトル間距離Niを演算する回路
13と、そのベクトル間距離Niの最小値を検出する回路14
が設けられる。
構成を示す。ニューラル・ネットワーク5は種々のデー
タ格納用のメモリ9,10,11,12と、各種の演算回路13,14
からなる。メモリとしては、正規化演算回路3から出力
された正規化距離データxkjを格納するメモリ9、学習
により獲得されたシナプス結合強度wij(t)を格納す
るメモリ10、正規化距離データxkjとシナプス結合強度
wij(t)とのベクトル間距離Niを格納するメモリ11、
学習済みのニューラル・ネットワーク上のニューロン・
ユニットと撮影画面の主被写体位置との対応関係を示す
主被写体位置情報を格納するメモリ12が設けられる。演
算回路としては、正規化距離データxkjとシナプス結合
強度wij(t)とからベクトル間距離Niを演算する回路
13と、そのベクトル間距離Niの最小値を検出する回路14
が設けられる。
正規化演算回路3から出力された正規化距離データx
kjはニューラル・ネットワーク5内のメモリ9に格納さ
れる。学習により獲得されたシナプス結合強度wij
(t)は予めメモリ10に格納されている。メモリ9、10
のデータはベクトル間距離演算回路13に供給され、そこ
でベクトル間距離 の演算が行なれ、演算結果がメモリ11に格納される。こ
のベクトル間距離の演算はニューロン・ユニット毎に独
立しているので、並列演算が可能である。そのため、ベ
クトル間距離演算回路13はそれぞれニューロン・ユニッ
ト毎の処理を行なう複数のプロセッサで構成され、高速
処理が可能である。また、ニューラル・ネットワーク専
用演算素子、つまりニューロチップではこの演算処理を
各ニューロン・ユニットが受け持つ。
kjはニューラル・ネットワーク5内のメモリ9に格納さ
れる。学習により獲得されたシナプス結合強度wij
(t)は予めメモリ10に格納されている。メモリ9、10
のデータはベクトル間距離演算回路13に供給され、そこ
でベクトル間距離 の演算が行なれ、演算結果がメモリ11に格納される。こ
のベクトル間距離の演算はニューロン・ユニット毎に独
立しているので、並列演算が可能である。そのため、ベ
クトル間距離演算回路13はそれぞれニューロン・ユニッ
ト毎の処理を行なう複数のプロセッサで構成され、高速
処理が可能である。また、ニューラル・ネットワーク専
用演算素子、つまりニューロチップではこの演算処理を
各ニューロン・ユニットが受け持つ。
最小値検出回路14は得られたベクトル間距離Niからそ
の最小値をもつ最適合ニューロン・ユニットcを検出す
る。主被写体位置決定回路4はメモリ12に格納されてい
る対応関係からこの最適合ニューロン・ユニットに対応
する主被写体位置情報Pxを読出し、全測距センサからの
データLiのうち、主被写体の距離データLxのみを焦点検
出用演算回路6に供給する。
の最小値をもつ最適合ニューロン・ユニットcを検出す
る。主被写体位置決定回路4はメモリ12に格納されてい
る対応関係からこの最適合ニューロン・ユニットに対応
する主被写体位置情報Pxを読出し、全測距センサからの
データLiのうち、主被写体の距離データLxのみを焦点検
出用演算回路6に供給する。
以上により、入力画面内の多数の被写体の中の主被写
体のみへの自動焦点制御が可能になる。
体のみへの自動焦点制御が可能になる。
なお、学習した結果のみを応用する場合のニューラル
・ネットワークは上述した構成だけで可能であるが、初
期学習、及びカメラ操作者にニューラル・ネットワーク
を適応させる場合の追加学習等を行なうには、次に説明
する学習回路構成が必要である。
・ネットワークは上述した構成だけで可能であるが、初
期学習、及びカメラ操作者にニューラル・ネットワーク
を適応させる場合の追加学習等を行なうには、次に説明
する学習回路構成が必要である。
第7図にニューラル・ネットワークの学習のための回
路構成を説明する。この構成は第6図に示した回路にシ
ナプス結合強度演算回路16と主被写体位置情報設定回路
18とを付加するだけで実現される。
路構成を説明する。この構成は第6図に示した回路にシ
ナプス結合強度演算回路16と主被写体位置情報設定回路
18とを付加するだけで実現される。
その動作において、先ず、ニューラル・ネットワーク
の各ニューロン・ユニットのシナプス結合強度wijを小
さい乱数で初期化しておく。多数の学習用のモデルパタ
ーンについての各領域毎の距離データベクトルをメモリ
15に、主被写体の位置する領域に関するデータPxをメモ
リ17に格納しておく。メモリ15の距離データを使用して
第6図の場合と同様にベクトル間距離の最小値の検出に
より最適合ニューロン・ユニットを決定した後、シナプ
ス結合強度演算回路16はその最適合ニューロン・ユニッ
ト中心とした近傍ニューロン・ユニット群のシナプス結
合強度Wiを次式により修正学習する。ただし、i∈Nc
(t)である。
の各ニューロン・ユニットのシナプス結合強度wijを小
さい乱数で初期化しておく。多数の学習用のモデルパタ
ーンについての各領域毎の距離データベクトルをメモリ
15に、主被写体の位置する領域に関するデータPxをメモ
リ17に格納しておく。メモリ15の距離データを使用して
第6図の場合と同様にベクトル間距離の最小値の検出に
より最適合ニューロン・ユニットを決定した後、シナプ
ス結合強度演算回路16はその最適合ニューロン・ユニッ
ト中心とした近傍ニューロン・ユニット群のシナプス結
合強度Wiを次式により修正学習する。ただし、i∈Nc
(t)である。
Wi(t+1) =Wi(t)+α(t)×(Xk−Wi(t)) …(3) ここで、α(t)は学習係数で0〜1の実数値をと
り、Nc(t)は最適合ニューロン・ユニットcの近傍に
あるニューロン・ユニットの集合で、その初期値はニュ
ーラル・ネットワークの大きさに比べてそれほど小さく
ないものとし、α(t),Nc(t)ともに単調減少関数
である。tは学習回数で、最大学習回数tmaxまで繰り
返し学習する。
り、Nc(t)は最適合ニューロン・ユニットcの近傍に
あるニューロン・ユニットの集合で、その初期値はニュ
ーラル・ネットワークの大きさに比べてそれほど小さく
ないものとし、α(t),Nc(t)ともに単調減少関数
である。tは学習回数で、最大学習回数tmaxまで繰り
返し学習する。
全てのモデルパターンについての学習を終了した後、
主被写体位置情報設定回路18はメモリ17に格納されてい
る各モデル撮影画面の主被写体位置がニューラル・ネッ
トワークのどのニューロン・ユニットと対応付けられる
かを次の関係により調べ、その結果をメモリ12内に主被
写体位置情報として設定する。
主被写体位置情報設定回路18はメモリ17に格納されてい
る各モデル撮影画面の主被写体位置がニューラル・ネッ
トワークのどのニューロン・ユニットと対応付けられる
かを次の関係により調べ、その結果をメモリ12内に主被
写体位置情報として設定する。
(第k番目の入力パターンにおける閾値)の場合、ニュ
ーロン・ユニットiに第k番目のモデルパターンの主被
写体位置を対応させる。
ーロン・ユニットiに第k番目のモデルパターンの主被
写体位置を対応させる。
学習済みニューラル・ネットワークにおいて、カメラ
操作者に適応させるためさらに追加学習を行なう場合で
は、ある任意の入力パターンが与えられたとき、ベクト
ル間距離の最小値検出により最適合ニューロン・ユニッ
トを決定した後、そのニューロン・ユニットの近傍にあ
り、かつ対応する主被写体位置が共通であるニューロン
・ユニット群Nc′のシナプス結合強度Wiを次式によりシ
ナプス結合強度演算回路16で修正学習する。
操作者に適応させるためさらに追加学習を行なう場合で
は、ある任意の入力パターンが与えられたとき、ベクト
ル間距離の最小値検出により最適合ニューロン・ユニッ
トを決定した後、そのニューロン・ユニットの近傍にあ
り、かつ対応する主被写体位置が共通であるニューロン
・ユニット群Nc′のシナプス結合強度Wiを次式によりシ
ナプス結合強度演算回路16で修正学習する。
Wi=Wi+αo×(Xk−Wi) …(4) ただし、i∈Nc′で、αoは学習係数である。
この発明は上述した実施例に限定されずに、種々変形
可能である。説明した学習方法は教師なし学習である
が、入力パターンを与えた時にニューラル・ネットワー
クの出力と教師データ(入力パターンの主被写体)とを
比較し、このニューラル・ネットワークが正しく発火し
ていればシナプス結合強度を入力パターンに近づけ、ま
た誤って発火していればシナプス結合強度を入力パター
ンから遠ざけるような教師付き学習も可能である。ま
た、入力値として教師データをも含めて学習することも
できる。なお、追加学習前の初期学習状態にいつでも復
帰可能にしておくためには、初期学習状態におけるシナ
プス結合強度をメモリに格納しておく必要がある。
可能である。説明した学習方法は教師なし学習である
が、入力パターンを与えた時にニューラル・ネットワー
クの出力と教師データ(入力パターンの主被写体)とを
比較し、このニューラル・ネットワークが正しく発火し
ていればシナプス結合強度を入力パターンに近づけ、ま
た誤って発火していればシナプス結合強度を入力パター
ンから遠ざけるような教師付き学習も可能である。ま
た、入力値として教師データをも含めて学習することも
できる。なお、追加学習前の初期学習状態にいつでも復
帰可能にしておくためには、初期学習状態におけるシナ
プス結合強度をメモリに格納しておく必要がある。
さらに、実施例としては自動焦点カメラを説明した
が、この発明は決定された主被写体に関する焦点情報を
補助的にファインダ内等に表示するだけのマニュアル焦
点調節カメラに適応してもよい。
が、この発明は決定された主被写体に関する焦点情報を
補助的にファインダ内等に表示するだけのマニュアル焦
点調節カメラに適応してもよい。
以上説明したようにこの発明によれば、主被写体の特
定のような従来は定式化、プログラム化の困難であった
処理において、ニューラル・ネットワークに多数のモデ
ルパターンにおける距離データベクトルを学習させてお
くだけで、多様な画面中の主被写体の焦点を高速に検出
することができるカメラの焦点検出装置を提供すること
ができる。そして、ニューラル・ネットワークの並列処
理を利用すれば、さらに高速化が可能である。また、カ
メラ操作者の好みの構図や、構図の癖をニューラル・ネ
ットワークに学習させ、ニューラル・ネットワークをカ
メラ操作者に適応させることにより、主被写体の決定を
より高精度に行なわせることができる。
定のような従来は定式化、プログラム化の困難であった
処理において、ニューラル・ネットワークに多数のモデ
ルパターンにおける距離データベクトルを学習させてお
くだけで、多様な画面中の主被写体の焦点を高速に検出
することができるカメラの焦点検出装置を提供すること
ができる。そして、ニューラル・ネットワークの並列処
理を利用すれば、さらに高速化が可能である。また、カ
メラ操作者の好みの構図や、構図の癖をニューラル・ネ
ットワークに学習させ、ニューラル・ネットワークをカ
メラ操作者に適応させることにより、主被写体の決定を
より高精度に行なわせることができる。
第1図はこの発明によるカメラの焦点検出の概略を示す
図、第2図はニューロン・ユニットのモデルを示す図、
第3図はニューラル・ネットワークのモデルを示す図、
第4図はフィードバック結合によるシナプス結合強度の
変化を示す図、第5図はこの発明の実施例である自動焦
点カメラのブロック図、第6図はニューラル・ネットワ
ークの回路構成を示す図、第7図はニューラル・ネット
ワークを学習させるための回路構成を示す図である。 1……レンズ、2……測距センサ、3……正規化演算回
路、4……主被写体決定回路、5……ニューラル・ネッ
トワーク、6……焦点検出用演算回路、7……ドライ
バ、8……レンズ駆動系。
図、第2図はニューロン・ユニットのモデルを示す図、
第3図はニューラル・ネットワークのモデルを示す図、
第4図はフィードバック結合によるシナプス結合強度の
変化を示す図、第5図はこの発明の実施例である自動焦
点カメラのブロック図、第6図はニューラル・ネットワ
ークの回路構成を示す図、第7図はニューラル・ネット
ワークを学習させるための回路構成を示す図である。 1……レンズ、2……測距センサ、3……正規化演算回
路、4……主被写体決定回路、5……ニューラル・ネッ
トワーク、6……焦点検出用演算回路、7……ドライ
バ、8……レンズ駆動系。
Claims (2)
- 【請求項1】撮影時に撮影レンズを介して入射された被
写体像の複数の領域毎の距離に対応した各距離データの
集合である距離データベクトルを得るための距離測定手
段と、 入力された距離データベクトルの各距離データに対して
各々のシナプス結合強度を介してそれぞれ結合される複
数のニューロン・ユニットを単一層のネットワークで構
成するとともに、モデルパターンに対応する距離データ
ベクトルを入力した時に選択的に反応する最適合ニュー
ロン・ユニットが得られるよう、各シナプス結合強度が
学習されており、上記複数のニューロン・ユニットを有
する単一層のネットワークにより当該撮影時の距離デー
タベクトルに対して得られた最適合ニューロン・ユニッ
トに対応づけられている主被写体の位置に係る値を得る
ニューラルネットワークと、 前記ニューラルネットワークにより生成された主被写体
の位置に係る値に応じてカメラの焦点調節を行なう手段
と、 を具備することを特徴とするカメラの焦点検出装置。 - 【請求項2】モデルパターンの距離データベクトルに選
択的反応をするようにシナプス結合強度を修正すること
により前記シナプス結合強度を獲得した後に、前記モデ
ルパターンの距離データベクトルを前記ニューラル・ネ
ットワークに再度入力したときの前記ニューラル・ネッ
トワークの出力と前記モデルパターンの主被写体位置と
を対応づける学習手段をさらに具備することを特徴とす
る請求項1に記載のカメラの焦点検出装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30732389A JP3217052B2 (ja) | 1989-11-27 | 1989-11-27 | カメラの焦点検出装置 |
US07/916,792 US5227830A (en) | 1989-11-27 | 1992-07-17 | Automatic camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30732389A JP3217052B2 (ja) | 1989-11-27 | 1989-11-27 | カメラの焦点検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH03167536A JPH03167536A (ja) | 1991-07-19 |
JP3217052B2 true JP3217052B2 (ja) | 2001-10-09 |
Family
ID=17967760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30732389A Expired - Fee Related JP3217052B2 (ja) | 1989-11-27 | 1989-11-27 | カメラの焦点検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3217052B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4096209B1 (en) * | 2020-01-24 | 2024-09-18 | Sony Group Corporation | Information processing device, information processing method, and information processing program |
JP2024118274A (ja) * | 2023-02-20 | 2024-08-30 | キヤノン株式会社 | 推論装置、撮像装置、学習装置、推論方法、学習方法、及びプログラム |
-
1989
- 1989-11-27 JP JP30732389A patent/JP3217052B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH03167536A (ja) | 1991-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2761391B2 (ja) | 焦点検出装置 | |
US8015130B2 (en) | Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method | |
US9571724B2 (en) | Apparatus, medium, and method for photographing based on face detection | |
JP4546157B2 (ja) | 情報処理方法、情報処理装置、撮像装置 | |
JP6812387B2 (ja) | 画像処理装置及び画像処理方法、プログラム、記憶媒体 | |
US20020038294A1 (en) | Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements | |
JPWO2020079741A1 (ja) | 虹彩認証装置、虹彩認証方法、虹彩認証プログラムおよび記録媒体 | |
US5227830A (en) | Automatic camera | |
JPH1125263A (ja) | 対象物特徴点検出装置、焦点調節装置、露出制御装置及びカメラ | |
JP2001116985A (ja) | 被写体認識機能を有するカメラおよび被写体認識方法 | |
JP2001194576A (ja) | 測距装置および該測距装置を備えたカメラ | |
JP3217052B2 (ja) | カメラの焦点検出装置 | |
CN114170690A (zh) | 活体识别和构建活体识别模型的方法、装置 | |
JP7542973B2 (ja) | 撮像装置およびその制御方法 | |
JP4011426B2 (ja) | 顔検出装置、顔検出方法および顔検出プログラム | |
JP3630965B2 (ja) | 焦点検出装置、カメラ及び焦点検出方法 | |
JP2909111B2 (ja) | カメラの露出演算装置 | |
JP2793816B2 (ja) | 学習機能付きカメラ | |
US5266984A (en) | Exposure calculating apparatus for camera | |
JP2023032243A (ja) | 識別モデル生成装置、識別装置、識別モデル生成方法、識別方法、プログラム | |
JP2793817B2 (ja) | 露出制御装置 | |
JP2793815B2 (ja) | 露出制御装置 | |
JP7337865B2 (ja) | 画像処理装置およびその制御方法、撮像装置、プログラム | |
CN112926424B (zh) | 脸部遮挡的识别方法、装置、可读介质以及设备 | |
JP2023027685A (ja) | 個人認証装置、制御方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |