[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2002008033A - Pattern detection device and method, image processing device and method, and neural network device - Google Patents

Pattern detection device and method, image processing device and method, and neural network device

Info

Publication number
JP2002008033A
JP2002008033A JP2000181488A JP2000181488A JP2002008033A JP 2002008033 A JP2002008033 A JP 2002008033A JP 2000181488 A JP2000181488 A JP 2000181488A JP 2000181488 A JP2000181488 A JP 2000181488A JP 2002008033 A JP2002008033 A JP 2002008033A
Authority
JP
Japan
Prior art keywords
feature
processing
pattern
detection
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000181488A
Other languages
Japanese (ja)
Other versions
JP4532678B2 (en
Inventor
Masakazu Matsugi
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000181488A priority Critical patent/JP4532678B2/en
Priority to US09/878,296 priority patent/US7054850B2/en
Priority to DE60128029T priority patent/DE60128029T2/en
Priority to EP01305231A priority patent/EP1164537B1/en
Publication of JP2002008033A publication Critical patent/JP2002008033A/en
Application granted granted Critical
Publication of JP4532678B2 publication Critical patent/JP4532678B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently perform the recognition and detection of an intended pattern in a prescribed category independently of the intended size in input data. SOLUTION: This pattern detection device has a plurality of processing channels 1-n each performing a processing corresponding to a different resolution or scale lever to an inputted pattern, and a coupling processing circuit 1203 for coupling the outputs of the processing channels 1-n. Each of the processing channels 1-n is provided with a plurality of sub-sampling neuron circuits 1201 for detecting and outputting a plurality of characteristics to a characteristic integration layer in conformation to each point obtained by sub-sampling the input data by local averaging and a group coding neuron circuit 1202 for integrating the outputs by normalized liner coupling.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、神経回路網などの
並列演算デバイスにより、パターン認識、特定被写体の
検出等を行うパターン検出装置及び方法、画像処理装置
及び方法、ニューラルネットワーク回路に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern detecting apparatus and method for performing pattern recognition, detection of a specific subject, and the like, a parallel processing device such as a neural network, an image processing apparatus and method, and a neural network circuit. .

【0002】[0002]

【従来の技術】従来より、画像認識や音声認識の分野に
おいては、特定の認識対象に特化した認識処理アルゴリ
ズムをコンピュータソフトとして逐次演算して実行する
タイプ、或いは専用並列画像処理プロセッサ(SIM
D、MIMDマシン等)により実行するタイプに大別さ
れる。
2. Description of the Related Art Conventionally, in the field of image recognition and voice recognition, a type in which a recognition processing algorithm specialized for a specific recognition target is sequentially calculated and executed as computer software, or a dedicated parallel image processor (SIM) is used.
D, MIMD machine, etc.).

【0003】画像認識アルゴリズムにおいては中でも、
性能が認識対象の画面中の位置、サイズ等によらない方
式が求められ、これまで数多くの方式が提案されてき
た。例えば、いわゆるconformal mapping変換を前処理
として行うことにより、スケールと回転に不変な認識を
行うことができる。
[0003] Among image recognition algorithms,
There is a demand for a method whose performance does not depend on the position, size, and the like of the recognition target on the screen, and many methods have been proposed so far. For example, by performing so-called conformal mapping conversion as preprocessing, it is possible to perform recognition invariant to scale and rotation.

【0004】具体的には、画像中の認識対象の中心点か
らの距離の対数と回転角についてのLog−Polar座標
変換を行うことにより、同一対象のサイズ変化や回転
は、変換後の座標系においては平行移動に変換される。
その後、相関係数等の特徴量を算出すると、認識対象は
同じ特徴量として検出される。位置に対する検出特性の
不変性は、変換の中心点を時間的に逐次シフトし、各位
置で検出を行うことにより得られる。
[0004] Specifically, by performing Log-Polar coordinate transformation on the logarithm of the distance from the center point of the recognition target in the image and the rotation angle, the size change and rotation of the same target can be converted into the coordinate system after the conversion. Is converted to a translation.
Thereafter, when a feature amount such as a correlation coefficient is calculated, the recognition target is detected as the same feature amount. The invariance of the detection characteristic with respect to the position is obtained by sequentially shifting the center point of the conversion with time and performing detection at each position.

【0005】また、与えられた画像について局所的な領
域ごとに多重スケール表現を行い、更に上述したconfor
mal mapping変換を行うことにより、同様のサイズ不変
な検出を行う可能性が指摘されている(Wechsler,H. 199
2, 'Multi-scale and Distributed Visual Representat
ions and Mappings for Invariant-Low-Level Percepti
on', in Neural Networks for Perception, Vol. 1, W
echssler H. Ed. pp.462-476., Academic Press, Bosto
n) 。
Further, a given image is subjected to multi-scale representation for each local region, and
It has been pointed out that a similar size-invariant detection may be performed by performing mal mapping conversion (Wechsler, H. 199).
2, 'Multi-scale and Distributed Visual Representat
ions and Mappings for Invariant-Low-Level Percepti
on ', in Neural Networks for Perception, Vol. 1, W
echssler H. Ed.pp.462-476., Academic Press, Bosto
n).

【0006】更に、別方式の例として、認識対象モデル
との類似度に関する特徴量を算出して行うタイプにおい
て、サイズによらない認識を可能とする方式としては、
認識対象のモデルデータをテンプレートモデルとして、
異なるスケールで表現しておき、入力画像(或いはその
特徴ベクトル)とのテンプレートマッチングを疎から密
(coarse to fine)に行うことによる方法(Rosenfeld an
d Vanderburg, 1977,Coarse-fine template matching,
IEEE Trans. Systems, Man, and Cybernetics, vol.2,
pp. 104-107)、サイズの異なる対象のモデル画像を主
成分分析して得られる固有画像関数空間へ入力パターン
を写像して、モデルとの特徴空間内での距離を算出する
方法(特開平8-153198号公報; 村瀬、ナイヤー, 1995,
多重解像度と固有空間表現による3次元物体のイメージ
スポッティング、情報処理学会論文誌、vol.36, pp.223
4-2243; Murase and Nayar, 1997, Detection of 3D ob
jects in cluttered scenes using hierarchical eigen
space, Pattern Recognition Letters, pp. 375-384)、
認識対象の距離画像データに基づいて照合領域の位置、
大きさを算出・正規化を行った後に照合を行う方法(特
開平5-108804号公報)、及び、認識対象に関する多重解
像データを低解像度レベルから高解像度レベルに順に切
り替えて照合などの認識を行う方法(特開平8-315141号
公報)がある。
Further, as an example of another method, in a type in which a feature amount relating to a similarity with a recognition target model is calculated and recognized, a method which enables recognition regardless of size is as follows.
Using the model data to be recognized as a template model,
Expressed on different scales, template matching with the input image (or its feature vector) is sparse to dense.
(coarse to fine) (Rosenfeld an
d Vanderburg, 1977, Coarse-fine template matching,
IEEE Trans. Systems, Man, and Cybernetics, vol. 2,
pp. 104-107), a method of mapping an input pattern to a unique image function space obtained by principal component analysis of model images of objects of different sizes and calculating a distance from the model in a feature space (Japanese Patent Laid-Open No. No. 8-153198; Murase, Nayer, 1995,
Image spotting of 3D objects by multi-resolution and eigenspace representation, Transactions of Information Processing Society of Japan, vol.36, pp.223
4-2243; Murase and Nayar, 1997, Detection of 3D ob
jects in cluttered scenes using hierarchical eigen
space, Pattern Recognition Letters, pp. 375-384),
The position of the matching area based on the distance image data to be recognized,
A method of performing collation after calculating and normalizing the size (Japanese Patent Laid-Open No. 5-108804), and a method of recognizing collation by sequentially switching multiple resolution data relating to a recognition target from a low resolution level to a high resolution level (JP-A-8-315141).

【0007】時系列入力画像を用いる方法としては、画
像から認識対象に関する複数の互いに競合する仮説を生
成し、それらを時間的に蓄積した後、Carpenterらによ
るART2等のカテゴリ分類器に入力する方法(Seiber
t, et al. 1992, Learning and recognizing 3D object
s from multiple views in a neural system, in Neura
l Networks for Perception, vol. 1 Human and Machin
e Perception(H. Wechsler Ed.) Academic Press, pp.4
27-444)がある。
As a method of using a time-series input image, a method of generating a plurality of competing hypotheses regarding a recognition target from an image, accumulating them temporally, and inputting them to a category classifier such as ART2 by Carpenter et al. (Seiber
t, et al. 1992, Learning and recognizing 3D object
s from multiple views in a neural system, in Neura
l Networks for Perception, vol. 1 Human and Machin
e Perception (H. Wechsler Ed.) Academic Press, pp.4
27-444).

【0008】生体の情報処理機構にヒントを得た神経回
路網モデルによるパターン認識方法としては、ダイナミ
ックルーティング回路網により対象中心のスケール、位
置不変な表現を得て行う方法(Anderson, et al. 1995,
Routing Networks in VisualCortex, in Handbook of B
rain Theory and Neural Networks (M. Arbib, Ed.), M
IT Press, pp.823-826、Olhausen et al. 1995, A Mult
iscale Dynamic Routing Circuit for Forming Size- a
nd Position-Invariant Object Representations, J. C
omputational Neuroscience, vol.2 pp.45-62.)があ
る。この手法では、予め画像データについて複数の異な
る解像度による階層的表現(多重解像度表現)を行い、
動的に結合荷重を設定する機能を有する制御ニューロン
を介した情報のルーティングを行うことにより、異なる
解像度での情報を対象物中心の表現にマッピングする。
[0008] As a pattern recognition method using a neural network model inspired by the information processing mechanism of a living body, a method of obtaining a scale and position invariant representation of the center of an object using a dynamic routing network (Anderson, et al. 1995) ,
Routing Networks in VisualCortex, in Handbook of B
rain Theory and Neural Networks (M. Arbib, Ed.), M
IT Press, pp.823-826, Olhausen et al. 1995, A Mult
iscale Dynamic Routing Circuit for Forming Size- a
nd Position-Invariant Object Representations, J. C
omputational Neuroscience, vol.2 pp.45-62.) In this method, hierarchical representation (multi-resolution representation) of image data with a plurality of different resolutions is performed in advance,
Information at different resolutions is mapped to an object-centered representation by routing information through control neurons that have the ability to dynamically set connection weights.

【0009】一方、生体の神経回路網による情報処理機
構をより忠実に取り入れようとする試みとして、アクシ
ョンポテンシャルに相当するパルス列による情報の伝達
表現を行う神経回路網モデル回路が提案されている(Mur
ray et al., 1991 Pulse-Stream VLSI Neural Networks
Mixing Analog and Digital Techniques, IEEE Trans.
on Neural Networks, vol.2, pp.193-204.;特開平7-2
62157号公報、特開平7-334478号公報、特開平8-153148
号公報、特許2879670号公報など)。
On the other hand, as an attempt to more faithfully incorporate an information processing mechanism based on a biological neural network, a neural network model circuit has been proposed in which information is transmitted and represented by a pulse train corresponding to an action potential (Mur).
ray et al., 1991 Pulse-Stream VLSI Neural Networks
Mixing Analog and Digital Techniques, IEEE Trans.
on Neural Networks, vol.2, pp.193-204.
No. 62157, JP-A-7-334478, JP-A-8-153148
And Japanese Patent No. 2879767).

【0010】[0010]

【発明が解決しようとする課題】前述したように、スケ
ールの異なる認識対象について認識性能が不変となるよ
うなパターン認識を実現するために、従来から行われて
いた所定の写像変換(conformal mapping変換など)を
行う方法では、変換の中心点を適切に設定しないと、ス
ケール不変な特徴を得ることが困難であるという問題が
あった。
As described above, in order to realize pattern recognition in which the recognition performance remains unchanged for recognition targets of different scales, a predetermined mapping conversion (conformal mapping conversion) conventionally performed. ) Has a problem that it is difficult to obtain a scale-invariant feature unless the center point of the transformation is set appropriately.

【0011】テンプレートマッチングを行う方法では、
予め表現された異なるスケールでのテンプレートモデル
とのマッチングを取る際、入力画像中の対象がそのいず
れかのスケールとほぼ一致しない限り、高い認識性能が
得られないこと、即ち、非常に多くの異なるテンプレー
トモデルが必要となり、実用性の点で問題があった。
In the method of performing template matching,
When matching with the template model at different scales represented in advance, high recognition performance cannot be obtained unless the object in the input image substantially matches one of the scales, that is, a very large number of different scales. A template model was required, and there was a problem in practicality.

【0012】特開平8-153198号公報等に示される有限個
の異なるサイズについて対象のモデル画像を主成分分析
して得られるパラメトリックな固有空間を用いる方法で
は、大きさの変化はパラメトリック固有空間上での多様
体により表現され、連続的に異なるサイズの対象の認識
が可能であるが、共分散行列の次元数が大きく(例え
ば、村瀬、ナイヤー(1995)では16,384次元)固有ベクト
ルの計算コストが非常に大きいという問題があった。大
きさ変化に対応するために十分な精度を得るためには、
基準となるサイズの1.1、1.2, 1.3, 1.4, 1.5(=α)
倍の5段階程度のサイズの異なる参照画像を用意して固
有ベクトルを計算し、更に入力画像についてα-1倍、α
-2倍、α-3倍などの大きさに変換して行うことが必要で
あり、処理に要するメモリ空間の大きさ及び演算時間が
莫大なものであった。
In the method disclosed in Japanese Patent Application Laid-Open No. 8-153198, which uses a parametric eigenspace obtained by performing principal component analysis on a target model image for a finite number of different sizes, a change in the size is determined on the parametric eigenspace. And can recognize objects of different sizes continuously, but the covariance matrix has a large number of dimensions (eg, 16,384 dimensions in Murase and Nayer (1995)), and the computational cost of eigenvectors is very high. There was a problem that was large. In order to get enough accuracy to respond to size changes,
Standard size 1.1, 1.2, 1.3, 1.4, 1.5 (= α)
Eigenvectors are calculated by preparing reference images having different sizes of about five stages, and the input image is further α- 1 times, α
It was necessary to convert the data into a size such as -2 times, α- 3 times, etc., and the size of the memory space required for processing and the operation time were enormous.

【0013】特開平8-315141号公報に係る方法では、予
め用意した対象に関する多重解像表現データについて低
解像度から高解像度に順に照合を行うので、スケール不
変な認識を行うためには予め用意すべき解像度の多重化
レベルを十分に大きくとる必要があるため処理効率が低
く、また少ないメモリ使用で大まかな情報を得るには適
しているが、高精度な認識・検出には適さない。
According to the method disclosed in Japanese Patent Application Laid-Open No. 8-315141, matching is performed in order from low resolution to high resolution on multi-resolution expression data relating to a prepared object in advance, so that in order to perform scale-invariant recognition, the data must be prepared in advance. Since it is necessary to set the multiplexing level of the resolution to be sufficiently large, the processing efficiency is low. Further, it is suitable for obtaining rough information with a small amount of memory use, but is not suitable for highly accurate recognition and detection.

【0014】ダイナミックルーティング回路網による方
法(Anderson et al., 1995; Olshausen et al., 1995)
では、制御ニューロン間の局所的な競合過程により所定
のスケールレベル間での神経細胞素子間の結合を動的に
設定する機構が必要であり、回路構成が複雑になるとい
う問題があった。
A method by a dynamic routing network (Anderson et al., 1995; Olshausen et al., 1995)
In this case, there is a need for a mechanism for dynamically setting a connection between neuron elements between predetermined scale levels by a local competition process between control neurons, and there has been a problem that a circuit configuration becomes complicated.

【0015】また、競合する仮説を生成し、カテゴリ分
類器に入力する方法(Seibert et al. 1992)は時系列画
像を前提としていたため、そもそも一枚の静止画からス
ケールによらない認識を行うことは困難である。
Further, since the method of generating competing hypotheses and inputting them to the category classifier (Seibert et al. 1992) is based on a time-series image, the scale-independent recognition is performed from a single still image in the first place. It is difficult.

【0016】なお、アナログ回路素子による構成では、
デジタル方式に比べ、回路構成の簡素化(少ない素子
数)、高速化、低消費電力化がもたらされることが一般
に知られるが、その一方で個々の素子特性のばらつきに
よる入出力特性の信頼性、ノイズに対する耐性が少なか
らず問題となっていた。
In the configuration using the analog circuit elements,
It is generally known that the circuit configuration can be simplified (reduced in the number of elements), speed and power consumption can be reduced compared to the digital method, but on the other hand, the reliability of input / output characteristics due to variations in individual device characteristics, Noise resistance has not been a problem.

【0017】[0017]

【課題を解決するための手段】上記課題を解決するため
に、本発明によれば、パターン検出装置に、パターンを
入力する入力手段と、前記入力手段より入力されたパタ
ーンに対して、それぞれが異なる解像度またはスケール
レベルに対応する処理を行なう複数の処理手段と、前記
複数の処理手段の出力を結合する多重化処理手段とを有
し、前記複数の処理手段の各々が、前記入力データを所
定の方法によりサンプリングして得られる各点に対応し
て、それぞれ複数の特徴を検出して出力する複数の特徴
検出素子を備え、前記多重化処理手段が複数の当該特徴
検出素子の出力を結合することを特徴とする。
According to the present invention, in order to solve the above-mentioned problems, an input means for inputting a pattern and a pattern input from the input means are provided to a pattern detection device. A plurality of processing means for performing processing corresponding to different resolutions or scale levels; and a multiplexing processing means for combining outputs of the plurality of processing means, wherein each of the plurality of processing means A plurality of feature detection elements for detecting and outputting a plurality of features, respectively, corresponding to each point obtained by sampling according to the above method, and the multiplexing processing means combines the outputs of the plurality of feature detection elements. It is characterized by the following.

【0018】また、他の態様によれば、パターン検出装
置に、パターンを入力する入力手段と、前記入力手段よ
り入力されたパターンに対して、複数の解像度又はスケ
ールレベルごとに複数の特徴を検出する特徴検出層を有
し、前記特徴検出層が、所定の結合手段により互いに結
合する複数の信号処理素子を備え、前記複数の信号処理
素子の所定の一部が、所定時間範囲内に入力された複数
のパルス信号の到着時間パターンに応じた出力レベルで
パルス信号を出力することを特徴とする。
According to another aspect, an input means for inputting a pattern to the pattern detection apparatus, and a plurality of features are detected for each of a plurality of resolutions or scale levels with respect to the pattern input from the input means. A plurality of signal processing elements coupled to each other by predetermined coupling means, and a predetermined part of the plurality of signal processing elements is input within a predetermined time range. And outputting a pulse signal at an output level corresponding to the arrival time pattern of the plurality of pulse signals.

【0019】また、他の態様によれば、パターン検出装
置に、パターンを入力する入力手段と、前記入力手段よ
り入力されたパターンに対してパターン処理を行なう複
数の処理手段とを有し、前記複数の処理手段が、解像度
又はスケールレベルの異なる複数の特徴を検出し、各特
徴に対する検出パルス信号を出力し、当該検出パルス信
号を時間軸方向の位相を異ならせる様に変換する特徴検
出素子を備える。
Further, according to another aspect, the pattern detecting device has an input means for inputting a pattern, and a plurality of processing means for performing pattern processing on the pattern input from the input means. A plurality of processing means detects a plurality of features having different resolutions or scale levels, outputs a detection pulse signal for each feature, and converts the detection pulse signal to have a different phase in the time axis direction. Prepare.

【0020】また、他の態様によれば、パターン検出装
置に、パターンを入力する入力手段と、前記入力手段よ
り入力されたパターンに対して、それぞれが異なる解像
度またはスケールレベルに対応する処理を行なう複数の
処理手段とを有し、前記処理手段は、前記入力データを
所定の方法によりサンプリングして得られる各点に対応
して、それぞれ複数の特徴を検出する複数個の特徴検出
素子と、互いに異なる解像度又はスケールレベルの前記
処理手段の複数の該特徴検出素子出力を結合することに
より、解像度又はスケールレベルに関する制御を行う制
御手段とを備える。
According to another aspect, an input means for inputting a pattern and processing corresponding to different resolutions or scale levels are performed on the pattern input from the input means. A plurality of processing means, the processing means corresponding to each point obtained by sampling the input data by a predetermined method, a plurality of feature detection elements for detecting a plurality of features, respectively, Control means for controlling the resolution or scale level by combining a plurality of the feature detection element outputs of the processing means with different resolutions or scale levels.

【0021】また、他の態様によれば、ニューラルネッ
トワーク装置に、それぞれが階層構造のニューロン群を
用いて異なるスケールレベル又は解像度で処理を行なう
複数のチャネルを有し、前記ニューロン群が、複数のチ
ャネルにまたがって出力を結合する集団的符号化ニュー
ロン群を備える。
Further, according to another aspect, the neural network device has a plurality of channels each performing processing at a different scale level or resolution using a group of neurons having a hierarchical structure, and the group of neurons includes a plurality of channels. It comprises a group of collectively coded neurons that combine outputs across channels.

【0022】また、他の態様によれば、パターン検出方
法に、パターンを入力する入力工程と、前記入力工程に
おいて入力されたパターンに対して、それぞれが異なる
解像度またはスケールレベルに対応する処理を行なう複
数の処理工程と、前記複数の処理工程の処理結果を結合
する多重化処理工程とを有し、前記複数の処理工程の各
々において、前記入力データを所定の方法によりサンプ
リングして得られる各点に対応して、複数の特徴検出素
子がそれぞれ複数の特徴を検出して出力し、前記多重化
処理工程では複数の当該特徴検出素子の出力を結合する
ことを特徴とする。
According to another aspect, in the pattern detection method, an input step of inputting a pattern and processing corresponding to different resolutions or scale levels are performed on the pattern input in the input step. A plurality of processing steps, and a multiplexing processing step of combining processing results of the plurality of processing steps. In each of the plurality of processing steps, each point obtained by sampling the input data by a predetermined method. In response to the above, a plurality of feature detection elements respectively detect and output a plurality of features, and in the multiplexing processing step, the outputs of the plurality of feature detection elements are combined.

【0023】また、他の態様によれば、パターン検出方
法に、パターンを入力する入力工程と、前記入力工程に
おいて入力されたパターンに対して、所定の結合機構に
より互いに結合する複数の信号処理素子を備えた特徴検
出層により複数の解像度又はスケールレベルごとに複数
の特徴を検出する検出工程とを備え、前記複数の信号処
理素子の所定の一部が、所定時間範囲内に入力された複
数のパルス信号の到着時間パターンに応じた出力レベル
でパルス信号を出力することを特徴とする。
According to another aspect, in the pattern detection method, an input step of inputting a pattern, and a plurality of signal processing elements that are coupled to each other by a predetermined coupling mechanism with respect to the pattern input in the input step. A detection step of detecting a plurality of features for each of a plurality of resolutions or scale levels by a feature detection layer comprising: a plurality of predetermined portions of the plurality of signal processing elements input within a predetermined time range. The pulse signal is output at an output level according to the arrival time pattern of the pulse signal.

【0024】また、他の態様によれば、パターン検出方
法に、パターンを入力する入力工程と、前記入力工程に
おいて入力されたパターンに対してパターン処理を行な
う複数の処理工程とを有し、前記複数の処理工程におい
て、特徴検出素子が、解像度又はスケールレベルの異な
る複数の特徴を検出し、時間的に局在化した各特徴に対
する検出パルス信号を出力し、当該検出パルス信号を時
間軸方向の位相を異ならせる様に変換することを特徴と
する。
According to another aspect, the pattern detection method includes an input step of inputting a pattern, and a plurality of processing steps of performing pattern processing on the pattern input in the input step. In a plurality of processing steps, the feature detection element detects a plurality of features having different resolutions or scale levels, outputs a detection pulse signal for each of the temporally localized features, and outputs the detection pulse signal in the time axis direction. It is characterized in that conversion is performed so that the phases are different.

【0025】また、他の態様によれば、パターン検出方
法に、パターンを入力する入力工程と、前記入力工程に
おいて入力されたパターンに対して、それぞれが異なる
解像度またはスケールレベルに対応する処理を行なう複
数の処理工程とを有し、前記処理工程が、前記入力デー
タを所定の方法によりサンプリングして得られる各点に
対応して、複数個の特徴検出素子がそれぞれ複数の特徴
を検出する検出工程と、互いに異なる解像度又はスケー
ルレベルに対応する前記処理工程を行なう複数の特徴検
出素子出力を結合することにより、解像度又はスケール
レベルに関する制御を行う制御工程とを備える。
According to another aspect, in the pattern detection method, an input step of inputting a pattern and processing corresponding to different resolutions or scale levels are performed on the pattern input in the input step. A plurality of processing steps, wherein the processing step includes a plurality of feature detection elements respectively detecting a plurality of features corresponding to each point obtained by sampling the input data by a predetermined method. And a control step of controlling the resolution or scale level by combining a plurality of feature detection element outputs for performing the processing steps corresponding to different resolutions or scale levels.

【0026】[0026]

【発明の実施の形態】<第1の実施形態>以下、図面を
用いて本発明の1実施形態を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS <First Embodiment> An embodiment of the present invention will be described below in detail with reference to the drawings.

【0027】図1は本実施形態のパターン検出・認識装
置の全体構成を示す図である。ここで、パターン情報は
What経路とWhere経路により処理される。Wh
at経路は対象または幾何学的特徴などの認識(検出)に
関与する情報を、Where経路は対象または特徴の位
置(配置)に関する情報を主として扱う。
FIG. 1 is a diagram showing the entire configuration of the pattern detection / recognition apparatus of the present embodiment. Here, the pattern information is processed by a What route and a Where route. Wh
The at path mainly deals with information related to recognition (detection) of an object or a geometric feature, and the Where path mainly deals with information on the position (arrangement) of the object or feature.

【0028】What経路はいわゆるConvolutionalネ
ットワーク構造(LeCun, Y. and Bengio, Y., 1995, "Co
nvolutional Networks for Images Speech, and Time S
eries" in Handbook of Brain Theory and Neural Netw
orks (M. Arbib, Ed.), MIT Press, pp.255-258)を有し
ている。但し、同経路内の層間結合は相互結合をなし得
る点(後述)が、従来と異なる。What経路の最終出力
は認識結果、即ち認識された対象のカテゴリに相当す
る。また、Where経路の最終出力は、認識結果に対
応する場所を表す。
The What path is a so-called Convolutional network structure (LeCun, Y. and Bengio, Y., 1995, "Co
nvolutional Networks for Images Speech, and Time S
eries "in Handbook of Brain Theory and Neural Netw
orks (M. Arbib, Ed.), MIT Press, pp. 255-258). However, it differs from the conventional one in that the interlayer connection in the same path can form mutual connection (described later). The final output of the What path corresponds to a recognition result, that is, a recognized target category. The final output of the Where path indicates a location corresponding to the recognition result.

【0029】データ入力層101は、画像の検出認識など
を行う場合は、CMOSセンサー或いはCCD素子等の
光電変換素子であり、音声の検出認識などを行う場合に
は音声入力センサーである。また、所定データ解析部の
解析結果(例えば、主成分分析、ベクトル量子化など)
から得られる高次元のデータを入力するものであっても
よい。データ入力層101は、上記2経路に共通のデータ
入力を行う。
The data input layer 101 is a photoelectric conversion element such as a CMOS sensor or a CCD element for detecting and recognizing an image, and is a voice input sensor for detecting and recognizing voice. Also, the analysis result of the predetermined data analysis unit (for example, principal component analysis, vector quantization, etc.)
May be inputted. The data input layer 101 performs data input common to the two paths.

【0030】以下、画像を入力する場合について説明す
る。What経路には、特徴検出層102((1,0)、
(1,1)、…、(1,N))と特徴統合層103((2,0)、
(2,1)、…、(2,N))とがある。
Hereinafter, the case of inputting an image will be described. The What path includes the feature detection layer 102 ((1, 0),
(1, 1), ..., (1, N)) and the feature integration layer 103 ((2, 0),
(2, 1), ..., (2, N)).

【0031】最初の特徴検出層(1,0)は、Gabor wavel
et変換その他による多重解像度処理により、画像パター
ンの局所的な低次の特徴(幾何学的特徴のほか色成分特
徴を含んでもよい)を全画面の各位置(或いは、全画面
にわたる所定のサンプリング点の各点)において同一箇
所で複数のスケールレベル又は解像度で複数の特徴カテ
ゴリの数だけ検出し、特徴量の種類(例えば、幾何学的
特徴として所定方向の線分を抽出する場合にはその幾何
学的構造である線分の傾き)に応じた受容野構造を有
し、その程度に応じたパルス列を発生するニューロン素
子から構成される。
The first feature detection layer (1, 0) is Gabor wavel
By multi-resolution processing by et conversion or the like, local low-order features (which may include color component features in addition to geometric features) of the image pattern are transferred to each position on the entire screen (or a predetermined sampling point over the entire screen). At the same location at a plurality of scale levels or resolutions, the number of feature categories, and the types of feature amounts (for example, when a line segment in a predetermined direction is extracted as a geometric feature, the Of the receptive field according to the geometrical structure (slope of the line segment), and is composed of neuron elements that generate pulse trains according to the degree.

【0032】図1の特徴検出層(1,0), (1,1), …及び、
特徴統合層(2,0), (2,1), …は、全体として複数の解像
度(又はスケールレベル)での処理チャネルの集合を形
成する。各処理チャネルは、同一スケールレベル(又は
解像度)での処理が進行していくものであり、階層的並
列処理により低次特徴から高次特徴までの検出及び認識
を行う。
The feature detection layers (1,0), (1,1),...
The feature integration layers (2,0), (2,1),... Form a set of processing channels at a plurality of resolutions (or scale levels) as a whole. In each processing channel, processing at the same scale level (or resolution) proceeds, and detection and recognition from low-order features to high-order features are performed by hierarchical parallel processing.

【0033】各層には異なる処理チャネルに属する複数
の回路素子が所定の配列で存在する。ここで処理チャネ
ルの配列構成を特徴統合層(2,0)について図12、図1
3を例として説明する。
In each layer, a plurality of circuit elements belonging to different processing channels exist in a predetermined arrangement. Here, the arrangement configuration of the processing channels is shown in FIG.
3 will be described as an example.

【0034】図12、図13の例では、いずれもスケー
ルレベル(解像度)が等しければ同一処理チャネルを後続
の層とともに形成するが、特徴カテゴリ(ここでは、方
向成分のこと)が同一であれば、処理チャネルが異なっ
ても近接した位置にまとめて特徴統合細胞を配列したの
が図12であり、スケールレベル(即ち、処理チャネ
ル)が等しければ特徴カテゴリが異なっても近接位置に
まとめて特徴統合細胞を配列したのが図13に示す構成
である。各構成の機能上の違いについては、後で説明す
る。特徴統合層(2,0)では、各回路素子は後述するよう
な低次特徴としてのGabor wavelet変換特徴を特徴検出
層(1,0)の細胞出力から入力する。
In the examples of FIGS. 12 and 13, the same processing channel is formed together with the subsequent layers if the scale levels (resolutions) are the same, but if the feature category (here, the directional component) is the same, FIG. 12 shows that the integrated cells are arranged at close positions even if the processing channels are different. If the scale levels (ie, the processing channels) are the same, the integrated cells are integrated at close positions even if the feature categories are different. The arrangement of cells is shown in FIG. The functional differences between the components will be described later. In the feature integration layer (2,0), each circuit element inputs a Gabor wavelet transform feature as a lower-order feature, which will be described later, from the cell output of the feature detection layer (1,0).

【0035】一般的に特徴検出層(1,k)(kは自然
数)において、その前層である(2,k―1)層において
同一チャネルを形成する複数の特徴統合細胞からの出力
を受ける特徴検出細胞は、当該チャネルに属するように
構成される。
In general, in the feature detection layer (1, k) (k is a natural number), an output from a plurality of feature integrated cells forming the same channel in the preceding (2, k−1) layer is received. The feature detection cells are configured to belong to the channel.

【0036】What経路上の特徴統合層(2,0)は、
所定の受容野構造を有し、パルス列を発生するニューロ
ン素子からなり、特徴検出層(1,0)からの同一受容野
内の複数のニューロン素子出力の統合(局所平均化等に
よるサブサンプリング、及び異なるスケールレベルでの
処理結果の結合処理などの演算)を行う。また、特徴統
合層内のニューロンの各受容野は同じ特徴カテゴリかつ
同じスケールレベルに関する限りニューロン間で共通の
構造を有している。
The feature integration layer (2,0) on the What path is
It has a predetermined receptive field structure, is composed of neuron elements that generate pulse trains, and integrates a plurality of neuron element outputs in the same receptive field from the feature detection layer (1, 0) (subsampling by local averaging, etc. (Combination processing of processing results at the scale level). In addition, each receptive field of neurons in the feature integration layer has a common structure among neurons as far as the same feature category and the same scale level are concerned.

【0037】各特徴検出層(1,1)、(1,2)、…、
(1,N))及び各特徴統合層((2,1)、(2,2)、…、
(2,N))は、それぞれ学習により獲得した所定の受容野
構造を持ち、上述した各層と同様に、前者((1,1)、
…)は、各特徴検出モジュールにおいて複数の異なる特
徴の検出を行い、後者((2,1)、…)は、前段の特徴
検出層からの複数特徴に関する検出結果の統合を行う。
但し、前者の特徴検出層は同一チャネルに属する前段の
特徴統合層の細胞素子出力を受けるように結合(配線)
されている。特徴統合層は2種類の処理を行う。
Each feature detection layer (1, 1), (1, 2),.
(1, N)) and each feature integration layer ((2,1), (2,2), ...,
(2, N)) have a predetermined receptive field structure acquired by learning, and the former ((1,1),
..) Detects a plurality of different features in each feature detection module, and the latter ((2, 1),...) Integrates detection results for a plurality of features from the preceding feature detection layer.
However, the former feature detection layer is connected (wired) to receive the cell element output of the preceding feature integration layer belonging to the same channel.
Have been. The feature integration layer performs two types of processing.

【0038】その第一であるサブサンプリングは、同一
特徴カテゴリかつ同一スケールレベルの特徴検出細胞集
団からの局所的な領域(当該特徴統合層ニューロンの局
所受容野)からの出力についての平均化などを行うもの
であり、第二の処理である異なるスケールレベルでの処
理結果の結合処理とは、同一特徴カテゴリかつ異なる複
数のスケールレベルにわたる複数の特徴検出細胞集団の
出力の線形結合(又は非線形結合)を行う。
The first sub-sampling includes averaging the output from a local region (local receptive field of the feature integrated layer neuron) from the feature detection cell population of the same feature category and the same scale level. The second process, which is a process of combining processing results at different scale levels, is a linear combination (or non-linear combination) of outputs of a plurality of feature detection cell populations in the same feature category and over a plurality of different scale levels. I do.

【0039】また、Where経路には、特徴位置検出層
((3,0)、…、(3,k))があり、What経路上の所定の
(全てである必要はない)特徴統合層の入力を受け、低
次、中次、高次特徴の位置の出力に関与する。以下で
は、Where経路の各層については、更に詳しい説明を省
略する。
The Where path has a feature position detection layer ((3,0),..., (3, k)), and a predetermined (not necessarily all) feature integration layer on the What path. It takes input and participates in the output of low, middle and high order feature locations. Hereinafter, a more detailed description of each layer of the Where path will be omitted.

【0040】各層間のニューロン素子201間を結合する
構造は、図2の(A)に示すように、神経細胞の軸索ま
たは樹状突起に相当する信号伝達部203(配線または遅
延線)、及びシナプス回路S202である。図2の(A)
では、ある特徴検出(統合)細胞(N)に対する受容野
を形成する特徴統合(検出)細胞のニューロン群(ni)か
らの出力(当該細胞Nから見ると入力)に関与する結合
の構成を示している。太線で示している信号伝達部203
は共通バスラインを構成し、この信号伝達ライン上に複
数のニューロンからのパルス信号が時系列に並んで伝達
される。出力先の細胞(N)からの入力を受ける場合も
同様の構成がとられる。この場合には、全く同じ構成に
おいて時間軸上で入力信号と出力信号とを分割して処理
してもよいし、或いは入力用(樹状突起側)と出力用
(軸索側)の2系統で、図2の(A)と同様の構成を与
えて処理してもよい。
As shown in FIG. 2A, a structure for connecting the neuron elements 201 between the layers includes a signal transmission unit 203 (wiring or delay line) corresponding to an axon or a dendrite of a nerve cell. And the synapse circuit S202. (A) of FIG.
Now, the configuration of the connection related to the output from the neuron group (n i ) (input when viewed from the cell N) of the feature integrated (detected) cell that forms a receptive field for a certain detected (integrated) cell (N) is described below. Is shown. Signal transmission unit 203 indicated by bold line
Constitutes a common bus line, and pulse signals from a plurality of neurons are transmitted in time series on this signal transmission line. The same configuration is adopted when receiving an input from a cell (N) of an output destination. In this case, the input signal and the output signal may be divided and processed on the time axis with exactly the same configuration, or two systems for input (dendritic side) and output (axon side) may be used. The processing may be performed by providing the same configuration as that of FIG.

【0041】シナプス回路S202としては、層間結合
(特徴検出層102上のニューロンと特徴統合層103上のニ
ューロン間の結合であって、各層ごとにその後続の層及
び前段の層への結合が存在しうる)に関与するものと、
同一層内ニューロン間結合に関与するものとがある。後
者は必要に応じて、主に、後述するペースメーカーニュ
ーロンと特徴検出または特徴統合ニューロンとの結合に
用いられる。
The synapse circuit S202 has an interlayer connection (a connection between a neuron on the feature detection layer 102 and a neuron on the feature integration layer 103, and each layer has a connection to a subsequent layer and a preceding layer. May be involved)
Some are involved in connections between neurons in the same layer. The latter is mainly used, if necessary, mainly for coupling a pacemaker neuron described later with a feature detection or feature integration neuron.

【0042】シナプス回路S202において、いわゆる興
奮性結合はパルス信号の増幅を行い、抑制性結合は逆に
減衰を与えるものである。パルス信号により情報の伝達
を行う場合、増幅及び減衰はパルス信号の振幅変調、パ
ルス幅変調、位相変調、周波数変調のいずれによっても
実現することができる。
In the synapse circuit S202, the so-called excitatory coupling amplifies the pulse signal, and the inhibitory coupling conversely attenuates. When transmitting information using a pulse signal, amplification and attenuation can be realized by any of amplitude modulation, pulse width modulation, phase modulation, and frequency modulation of the pulse signal.

【0043】本実施形態においては、シナプス回路S20
2は、主にパルスの位相変調素子として用い、信号の増
幅は、パルス到着時間の特徴に固有な量としての実質的
な進み、減衰は実質的な遅れとして変換される。即ち、
シナプス結合は後述するように出力先のニューロンでの
特徴に固有な時間軸上の到着位置(位相)を与え、定性的
には興奮性結合はある基準位相に対しての到着パルスの
位相の進みを、抑制性結合では同様に遅れを与えるもの
である。
In this embodiment, the synapse circuit S20
2 is mainly used as a phase modulation element of the pulse, the amplification of the signal is converted as a substantial advance as a characteristic quantity of the pulse arrival time characteristic, and the attenuation is converted as a substantial delay. That is,
The synaptic connection gives the arrival position (phase) on the time axis peculiar to the feature of the output neuron as described later, and qualitatively the excitatory connection leads the phase of the arrival pulse with respect to a certain reference phase. In the case of inhibitory coupling, a delay is similarly given.

【0044】図2の(A)において、各ニューロン素子
njは、パルス信号(スパイクトレイン)を出力し、後述
する様な、いわゆるintegrate-and-fire型のニューロン
素子を用いている。なお、図2の(C)に示すように、
シナプス回路とニューロン素子とを、それぞれまとめて
回路ブロックを構成してもよい。
In FIG. 2A, each neuron element
n j outputs a pulse signal (spike train) and uses a so-called integral-and-fire type neuron element as described later. As shown in FIG. 2 (C),
The synapse circuit and the neuron element may be combined to form a circuit block.

【0045】Where経路内の各特徴位置検出層107
は、What経路の特徴統合層103の出力を受けて、デ
ータ入力層101上の位置関係を保持し、粗くサンプリン
グされた格子点上の各点で、What経路上の特徴抽出
結果のうち認識に有用な成分(認識カテゴリのパターン
から予め登録してあるもの)に対応するニューロンのみ
が、フィルタリングなどにより応答する。例えば、Wh
ere経路内の最上位層では、認識対象のカテゴリに対
応するニューロンが格子上に配列され、どの位置に該当
する対象が存在するかを表現する。また、Where経
路内の中間層のニューロンは、上位層からのトップダウ
ンの入力を受けて、対応する認識対象の存在位置を中心
として配置しうる特徴が検出された場合にのみ応答する
ように感度調整等が行われるようにすることができる。
Each feature position detection layer 107 in the Where path
Receives the output of the What path feature integration layer 103, retains the positional relationship on the data input layer 101, and uses each point on the coarsely sampled grid points for recognition of the feature extraction results on the What path. Only neurons corresponding to useful components (pre-registered from recognition category patterns) respond by filtering or the like. For example, Wh
In the uppermost layer in the ere path, neurons corresponding to the category of the recognition target are arranged on a lattice, and represent at which position the corresponding target exists. Also, the neurons in the middle layer in the Where path receive sensitivity from the top down from the upper layer and respond only when a feature that can be arranged around the location of the corresponding recognition target is detected. Adjustment or the like can be performed.

【0046】位置関係が保持される階層的特徴検出をW
here経路で行う際には、受容野構造が局所的(例え
ば、楕円形状)であってサイズが上位層ほど徐々に大き
くなる(または、中間層から上位層にかけてはセンサー
面上の1画素より大きいサイズであって一定である)よ
うに構成すれば、特徴要素(図形要素、図形パターン)
間の位置関係は、センサー面上での位置関係をある程度
保存しつつ、各層において各特徴要素(図形要素)が検
出されるようにすることができる。
The hierarchical feature detection in which the positional relationship is maintained is performed by W
When performing the here route, the receptive field structure is local (for example, elliptical) and the size gradually increases in the upper layer (or, from the middle layer to the upper layer, is larger than one pixel on the sensor surface). (The size is constant), the characteristic elements (graphic elements, graphic patterns)
The positional relationship between them can be such that each feature element (graphic element) is detected in each layer while preserving the positional relationship on the sensor surface to some extent.

【0047】なお、Where経路の他の出力形態とし
ては、特徴検出層(1,0)の出力結果に基づいて得られ
る特徴の顕著度マップから、データ入力層上での所定サ
イズの注視領域を設定し、当該領域の位置とサイズ及び
その中での認識対象カテゴリの有無を出力するものであ
ってもよい。更に他の形態としては、階層的に上位層ほ
ど受容野サイズが大きくなり、最上位層では検出された
対称のカテゴリに対応するニューロンのうち、最大値を
出力するものだけが発火するように構成された神経回路
網でもよい。このような系では、データ入力層での配置
関係(空間的位相)に関する情報を最上位層(及び中間
の各層)においてもある程度保存するようになってい
る。
As another output form of the Where path, a gaze area of a predetermined size on the data input layer is obtained from the saliency map of the feature obtained based on the output result of the feature detection layer (1, 0). It may be set and output the position and size of the area and the presence or absence of the recognition target category in the area. In still another embodiment, the size of the receptive field becomes larger in the upper layer hierarchically, and only the neuron corresponding to the detected symmetric category that outputs the maximum value is fired in the uppermost layer. A neural network may be used. In such a system, information on the arrangement relationship (spatial phase) in the data input layer is stored to some extent in the uppermost layer (and each intermediate layer).

【0048】次に各層を構成するニューロンについて説
明する。各ニューロン素子は、いわゆるintegrate-and-
fireニューロンを基本として拡張モデル化したもので、
入力信号(アクションポテンシャルに相当するパルス
列)を時空間的に線形加算した結果が閾値を越したら発
火し、パルス状信号を出力する点では、いわゆるintegr
ate-and-fireニューロンと同じである。
Next, the neurons constituting each layer will be described. Each neuron element is a so-called integrate-and-
This is an extended model based on fire neurons.
The point where the result of linearly adding the input signal (pulse train corresponding to the action potential) spatiotemporally exceeds the threshold value is fired, and a pulse-like signal is output.
Same as ate-and-fire neurons.

【0049】図2の(B)はニューロン素子としてのパ
ルス発生回路(CMOS回路)の動作原理を表す基本構
成の一例を示し、公知の回路(IEEE Trans. on Neural N
etworks Vol. 10, pp.540)を拡張したものである。ここ
では、入力として興奮性と抑制性の入力を受けるものと
して構成されている。
FIG. 2B shows an example of a basic configuration representing the operation principle of a pulse generating circuit (CMOS circuit) as a neuron element, and a known circuit (IEEE Trans.
etworks Vol. 10, pp. 540). Here, it is configured to receive excitatory and inhibitory inputs as inputs.

【0050】以下、このパルス発生回路の動作原理につ
いて説明する。興奮性入力側のキャパシタC1及び抵抗R
1回路の時定数は、キャパシタC2及び抵抗R2回路の
時定数より小さく、定常状態では、トランジスタT1、
T2、T3は遮断されている。なお、抵抗は実際には、
能動負荷たるトランジスタで構成される。
Hereinafter, the operation principle of the pulse generation circuit will be described. Excitatory input side capacitor C1 and resistor R
The time constant of one circuit is smaller than the time constant of the capacitor C2 and the resistor R2.
T2 and T3 are shut off. Note that the resistance is actually
It is composed of a transistor as an active load.

【0051】キャパシタC1の電位が増加し、キャパシタ
C2のそれよりトランジスタT1の閾値だけ上回ると、ト
ランジスタT1はアクティブになり、更にトランジスタ
T2,T3をアクティブにする。トランジスタT2,T
3は、電流ミラー回路を構成し、図2の(B)の回路の
出力は、不図示の出力回路によりキャパシタC1側から出
力される。キャパシタC2の電荷蓄積量が最大となる
と、トランジスタT1は遮断され、その結果としてトラ
ンジスタT2及びT3も遮断され、上記正のフィードバ
ックは0となる様に構成されている。
The potential of the capacitor C1 increases,
Above that of C2 by the threshold of transistor T1, transistor T1 becomes active, further activating transistors T2 and T3. Transistors T2, T
Reference numeral 3 denotes a current mirror circuit, and the output of the circuit shown in FIG. 2B is output from the capacitor C1 by an output circuit (not shown). When the amount of charge stored in the capacitor C2 becomes maximum, the transistor T1 is turned off, and as a result, the transistors T2 and T3 are also turned off, so that the positive feedback becomes zero.

【0052】いわゆる不応期には、キャパシタC2は放
電し、キャパシタC1の電位がキャパシタC2の電位よ
りも大で、その差がトランジスタT1の閾値分を超えな
い限り、ニューロンは応答しない。キャパシタC1、C
2の交互充放電の繰り返しにより周期的なパルスが出力
され、その周波数は一般的には興奮性入力のレベルに対
応して定まる。但し、不応期が存在することにより、最
大値で制限されるようにすることもできるし、一定周波
数を出力するようにもできる。
During the so-called refractory period, the capacitor C2 discharges, and the neuron does not respond unless the potential of the capacitor C1 is higher than the potential of the capacitor C2 and the difference does not exceed the threshold value of the transistor T1. Capacitor C1, C
A periodic pulse is output by repeating the alternate charging and discharging of No. 2 and its frequency is generally determined according to the level of the excitatory input. However, depending on the presence of the refractory period, it is possible to limit the maximum value or to output a constant frequency.

【0053】キャパシタの電位、従って電荷蓄積量は、
基準電圧制御回路(時間窓重み関数発生回路)204によ
り時間的に制御される。この制御特性を反映するのが、
入力パルスに対する後述の時間窓内での重み付き加算で
ある(図7参照)。この基準電圧制御回路204は、後述
するペースメーカニューロンからの入力タイミング(又
は、後続層のニューロンとの相互結合入力)或いはその
他の機構(後述するニューロン間の弱相互作用に基づく
同期発火信号等に基づき、基準電圧信号(図7の(B)
の重み関数に相当)を発生する。
The potential of the capacitor, and hence the amount of charge storage, is
It is temporally controlled by a reference voltage control circuit (time window weight function generation circuit) 204. Reflecting this control characteristic,
This is weighted addition within a time window to be described later for the input pulse (see FIG. 7). This reference voltage control circuit 204 is based on an input timing from a pacemaker neuron to be described later (or an input of mutual coupling with a neuron in a subsequent layer) or another mechanism (a synchronous firing signal based on a weak interaction between neurons to be described later). , Reference voltage signal ((B) of FIG. 7)
Corresponding to the weight function of

【0054】抑制性の入力は本実施形態においては必ず
しも要しない場合があるが、後述するペースメーカニュ
ーロンから特徴検出層ニューロンへの入力を抑制性とす
ることにより、出力の発散(飽和)を防ぐことができ
る。
Although there is a case where the input of the suppressiveness is not always necessary in the present embodiment, it is possible to prevent the divergence (saturation) of the output by making the input from the pacemaker neuron to the feature detection layer neuron to be suppressive. Can be.

【0055】一般的に、入力信号の上記総和と出力レベ
ル(パルス位相、パルス周波数、パルス幅など)の関係
は、そのニューロンの感度特性によって変化し、また、
その感度特性は、上位層からのトップダウンの入力によ
り変化させることができる。以下では、説明の便宜上、
入力信号総和値に応じたパルス出力の周波数は急峻に立
ち上がるように回路パラメータが設定されているものと
し(従って周波数ドメインでは殆ど2値)、パルス位相
変調により、出力レベル(位相変調を加えたタイミング
など)が変動するものとする。
In general, the relationship between the sum of the input signals and the output level (pulse phase, pulse frequency, pulse width, etc.) changes depending on the sensitivity characteristics of the neuron.
The sensitivity characteristic can be changed by a top-down input from an upper layer. Below, for convenience of explanation,
It is assumed that the circuit parameters are set so that the frequency of the pulse output according to the sum of the input signals rises steeply (thus, almost in binary in the frequency domain), and the output level (the timing of adding the phase modulation) is determined by the pulse phase modulation. Etc.) fluctuate.

【0056】また、パルス位相の変調部としては、後述
する図5に示すような回路を付加して用いてもよい。こ
れにより、時間窓内の重み関数が上記基準電圧により制
御される結果、このニューロンからのパルス出力の位相
が変化し、この位相をニューロンの出力レベルとして用
いることができる。
As a pulse phase modulating section, a circuit as shown in FIG. 5 to be described later may be additionally used. As a result, the weight function within the time window is controlled by the reference voltage. As a result, the phase of the pulse output from this neuron changes, and this phase can be used as the output level of the neuron.

【0057】シナプス結合でパルス位相変調を受けたパ
ルスについての時間的積分特性(受信感度特性)を与え
る図7の(B)に示すような重み関数の極大値に相当す
る時刻τw1は、一般的にシナプス結合で与えられる特徴
に固有なパルスの到着予定時刻τs1より時間的に早く設
定される。その結果、到着予定時刻より一定範囲で早く
(図7(B)の例では、到着の早すぎるパルスは減衰され
る)到着するパルスは、それを受け取るニューロンで
は、高い出力レベルを持ったパルス信号として時間的に
積分される。重み関数の形状はガウシアン等の対称形に
限らず、非対称形状であってもよい。なお、上述した趣
旨より、図7の(B)の各重み関数の中心は、パルス到
着予定時刻ではないことを注記しておく。
The time τ w1 corresponding to the maximum value of the weight function as shown in FIG. 7B that gives the temporal integration characteristic (reception sensitivity characteristic) of the pulse subjected to the pulse phase modulation by the synaptic connection is generally The time is set earlier than the estimated arrival time τ s1 of the pulse unique to the feature given by the synaptic connection. As a result, a pulse arriving earlier within a certain range from the estimated arrival time (in the example of FIG. 7B, a pulse that arrives too early is attenuated) is a pulse signal having a high output level in the neuron receiving it. Is integrated over time. The shape of the weight function is not limited to a symmetric shape such as Gaussian, but may be an asymmetric shape. It should be noted that the center of each weighting function in FIG. 7B is not the expected pulse arrival time for the above-described purpose.

【0058】また、ニューロン出力(シナプス前)の位
相は、後述するように時間窓の始期を基準とし、その基
準時からの遅れ(位相)は基準パルス(ペースメーカ出
力その他による)を受けた時の電荷蓄積量により決まる
ような出力特性を有する。このような出力特性を与える
回路構成の詳細については、本発明の主眼とする所では
ないので省略する。シナプス後のパルス位相は当該シナ
プスにより与えられる固有の位相変調量にシナプス前の
位相を加算したものとなる。
The phase of the neuron output (before synapse) is based on the beginning of the time window as described later, and the delay (phase) from the reference time is the time when a reference pulse (by a pacemaker output or the like) is received. It has output characteristics determined by the amount of charge storage. The details of the circuit configuration for providing such output characteristics will not be described because they are not the focus of the present invention. The post-synaptic pulse phase is obtained by adding the pre-synaptic phase to the unique phase modulation amount given by the synapse.

【0059】なお、窓関数などを用いることにより得ら
れる入力の総和値が閾値を越えたときに、所定タイミン
グ遅れて発振出力を出すような公知の回路構成を用いて
もよい。
Note that a known circuit configuration may be used in which an oscillation output is output with a predetermined timing delay when the sum of inputs obtained by using a window function or the like exceeds a threshold value.

【0060】ニューロン素子の構成としては、特徴検出
層102または特徴統合層103に属するニューロンであっ
て、後述するペースメーカニューロンの出力タイミング
に基づき発火パターンが制御される場合には、ペースメ
ーカーニューロンからのパルス出力を受けた後、当該ニ
ューロンが、前段の層の受容野から受ける入力レベル
(上記の入力の単純または重み付き総和値)に応じた位
相遅れをもって、パルス出力するような回路構成であれ
ばよい。この場合、ペースメーカーニューロンからのパ
ルス信号が入力される前では、入力レベルに応じて各ニ
ューロンは互いにランダムな位相でパルス出力する過渡
的な遷移状態が存在する。
The configuration of the neuron element is a neuron belonging to the feature detection layer 102 or the feature integration layer 103. If the firing pattern is controlled based on the output timing of a pacemaker neuron to be described later, a pulse from the pacemaker neuron is used. After receiving the output, the circuit configuration may be such that the neuron outputs a pulse with a phase delay according to the input level (simple or weighted sum of the above input) received from the receptive field of the preceding layer. . In this case, before the pulse signal is input from the pacemaker neuron, there is a transitional transition state in which the neurons output pulses at random phases with respect to each other according to the input level.

【0061】また、後述するようにペースメーカニュー
ロンを用いない場合には、ニューロン間(特徴検出層10
2と特徴統合層103の間)の相互結合とネットワークダイ
ナミックスによりもたらされる同期発火信号を基準と
し、上述したような入力レベルに応じた特徴検出ニュー
ロンの出力パルスの発火タイミングの制御がなされるよ
うな回路構成であってもよい。
When a pacemaker neuron is not used as described later, between the neurons (the feature detection layer 10
Based on the synchronizing firing signal caused by the mutual coupling between (2 and the feature integration layer 103) and the network dynamics, the firing timing of the output pulse of the feature detecting neuron according to the input level as described above is controlled. The circuit configuration may be simple.

【0062】特徴検出層102のニューロンは、前述した
ように特徴カテゴリに応じた受容野構造を有し、前段の
層(入力層101または特徴統合層103)のニューロンから
の入力パルス信号(電流値または電位)の時間窓関数に
よる荷重総和値(後述)が閾値以上となったとき、その
総和値に応じて、例えばシグモイド関数等の一定レベル
に漸近的に飽和するような非減少かつ非線形な関数、即
ちいわゆるsquashing関数値をとるような出力レベル
(ここでは位相変化で与えるが、周波数、振幅、パルス
幅基準での変化となる構成でもよい)でパルス出力を行
う。
The neurons of the feature detection layer 102 have a receptive field structure corresponding to the feature category as described above, and input pulse signals (current values) from the neurons of the preceding layer (the input layer 101 or the feature integration layer 103). Or a potential), a non-decreasing and non-linear function that asymptotically saturates to a certain level, such as a sigmoid function, according to the sum when the weighted sum (described later) of the time window function exceeds a threshold value. That is, pulse output is performed at an output level that takes a so-called squashing function value (in this case, the output is given by a phase change, but may be a change based on frequency, amplitude, and pulse width).

【0063】特徴検出層(1,0)には、局所的な、ある
大きさの領域で所定の空間周波数を持ち、方向成分が垂
直であるようなパターンの構造(低次特徴)を検出する
ニューロンN1があるとすると、データ入力層101上のニ
ューロンN1の受容野内に該当する構造が存在すれば、そ
の顕著度(コントラスト)に応じた位相でパルス出力す
る。このような機能はGabor filterにより実現すること
ができる。以下、特徴検出層(1,0)の各ニューロンが
行う特徴検出フィルタ機能について説明する。
The feature detection layer (1,0) detects a pattern structure (lower-order feature) having a predetermined spatial frequency in a local area of a certain size and having a vertical directional component. Assuming that there is a neuron N1, if a corresponding structure exists in the receptive field of the neuron N1 on the data input layer 101, a pulse is output with a phase corresponding to the saliency (contrast). Such a function can be realized by a Gabor filter. Hereinafter, a feature detection filter function performed by each neuron of the feature detection layer (1, 0) will be described.

【0064】特徴検出層(1,0)では、多重スケール、
多重方向成分のフィルタセットで表されるGaborウエー
ブレット変換を行うものとし、層内の各ニューロン(ま
たは複数ニューロンからなる各グループ)は、所定の G
aborフィルタ機能を有する。
In the feature detection layer (1, 0), multi-scale
It is assumed that Gabor wavelet transform represented by a filter set of multi-directional components is performed, and each neuron (or each group including a plurality of neurons) in a layer has a predetermined G value.
It has an abor filter function.

【0065】特徴検出層102では、スケールレベル(解
像度)が一定で方向選択性の異なる複数のGabor関数の
畳み込み演算カーネルに対応する受容野構造を有するニ
ューロンからなる複数のニューロン集団を一まとめにし
て一つのチャネルを形成する。その際、図13に示すよ
うに、同一チャネルを形成するニューロン群は方向選択
性が異なり、サイズ選択性が同一のニューロン群どうし
を互いに近接した位置に配置してもよいし、図12のよ
うに同一の特徴カテゴリに属し、異なる処理チャネルに
属するニューロン群どうしが互いに近接配置されるよう
にしてもよい。
The feature detection layer 102 collectively groups a plurality of neuron groups each having a receptive field structure corresponding to a convolution operation kernel of a plurality of Gabor functions having a constant scale level (resolution) and different direction selectivity. Form one channel. At this time, as shown in FIG. 13, neuron groups forming the same channel have different direction selectivity, and neuron groups having the same size selectivity may be arranged at positions close to each other, as shown in FIG. The neuron groups belonging to the same feature category and belonging to different processing channels may be arranged close to each other.

【0066】これは、集団的符号化における後述する結
合処理の都合上、上記各図に示すような配置構成にした
方が、回路構成上実現しやすいことによる。図12、1
3の回路構成の詳細についても後で説明する。
This is because the arrangement configuration shown in each of the above-described drawings is easier to realize in terms of the circuit configuration, for the convenience of the joint processing described later in the collective encoding. FIG. 12, 1
The details of the circuit configuration of No. 3 will also be described later.

【0067】Gaborウエーブレットは、以下の式(1)
で与えられるように、一定の方向成分と空間周波数とを
有する正弦波をガウシアン関数で変調した形状を有し、
スケーリングレベルのインデックスmと方向成分のイン
デックスnで特定される。ウエーブレットとしてこのフ
ィルタのセットは互いに相似の関数形状を有し、また主
方向と大きさが互いに異なる。このウエーブレットは空
間周波数ドメインと実空間ドメインで関数形が局在して
いること、位置と空間周波数に関する同時不確定性が最
小となり、実空間でも周波数空間でも最も局在した関数
であることが知られている(J,G.Daugman (1985), Unce
rtainty relation for resolution in space, spatial
frequency, and orientation optimized by two-dimens
ional visual cortical filters, Journal of Optical
Society of America A, vol.2, pp. 1160-1169)。
The Gabor wavelet is given by the following equation (1)
Has a shape obtained by modulating a sine wave having a constant directional component and a spatial frequency with a Gaussian function, as given by
It is specified by the index m of the scaling level and the index n of the direction component. As a wavelet, this set of filters has similar functional shapes and different main directions and sizes. This wavelet is that the function form is localized in the spatial frequency domain and the real space domain, the simultaneous uncertainty regarding the position and the spatial frequency is minimized, and it is the function that is most localized in the real space and the frequency space Known (J, G. Daugman (1985), Unce
rtainty relation for resolution in space, spatial
frequency, and orientation optimized by two-dimens
ional visual cortical filters, Journal of Optical
Society of America A, vol.2, pp. 1160-1169).

【0068】[0068]

【外1】 [Outside 1]

【0069】ここで、(x,y)が画像中の位置、aはスケー
リングファクター、θnはフィルタの方向成分を表し、W
は基本空間周波数、σx, σyはフィルタ関数のx方向、
y方向の広がりの大きさを与えるパラメータである。本
実施形態ではθnは6方向で0度、30度、60度、9
0度、120度、150度の値をとり、aは2とし、mは
1から3までの値をとる整数として与える。
Here, (x, y) is a position in the image, a is a scaling factor, θ n is a directional component of the filter, and W
Is the fundamental spatial frequency, σ x and σ y are the x directions of the filter function,
It is a parameter that gives the size of the spread in the y direction. In the present embodiment, θ n is 0 degree, 30 degrees, 60 degrees, 9 in six directions.
Taking values of 0 degrees, 120 degrees, and 150 degrees, a is set to 2 and m is given as an integer taking a value of 1 to 3.

【0070】フィルタの特性を定めるパラメータσx,
σy、および、aはフーリエドメインで互いに適切に均質
に重なり合うことにより、特定の空間周波数及び方向へ
の偏り(感度)がないように設定されるのが望ましい。そ
のために例えば、フーリエ変換後の振幅最大値に対する
半値レベルがフーリエドメインで互いに接するように設
計すると、
The parameters σ x ,
σ y and a are desirably set such that there is no bias (sensitivity) to a specific spatial frequency and direction by appropriately and homogeneously overlapping each other in the Fourier domain. Therefore, for example, if the half-value levels for the amplitude maximum value after the Fourier transform are designed to be in contact with each other in the Fourier domain,

【0071】[0071]

【外2】 となる。ここに、UH, ULはウエーブレット変換でカバー
する空間周波数帯域の最大値、最小値であり、Mはその
範囲でのスケーリングレベル数を与える。
[Outside 2] Becomes Here, U H and U L are the maximum and minimum values of the spatial frequency band covered by the wavelet transform, and M gives the number of scaling levels in that range.

【0072】また、式(1)で与えられる特徴検出細胞
の受容野の構造は、σx, σyで決まる所定の幅のスケー
ル選択性及び方向選択性を有する。即ち、式(1)のフ
ーリエ変換はガウシアン関数形状となるので、特定の空
間周波数及び方向にピークチューニング(感度)特性を
与える。Gaborフィルタカーネルのサイズ(広がり)はス
ケールインデックスmに応じて変わるので、異なるスケ
ールインデックスを有する Gaborフィルタは、異なるサ
イズ選択性を有する。後述する集団的符号化において
は、主にサイズ選択性に関して感度特性が互いに重なり
合う複数の特徴検出細胞からの出力を統合する。
Further, the structure of the receptive field of the feature detecting cell given by the equation (1) has scale selectivity and direction selectivity of a predetermined width determined by σ x and σ y . That is, since the Fourier transform of the equation (1) has a Gaussian function shape, a peak tuning (sensitivity) characteristic is given to a specific spatial frequency and direction. Gabor filters with different scale indices have different size selectivities, because the size (spread) of the Gabor filter kernel changes according to the scale index m. In collective coding described later, outputs from a plurality of feature detection cells whose sensitivity characteristics mainly overlap with each other with respect to size selectivity are integrated.

【0073】各フィルタgmn(x,y)と入力濃淡画像との2
次元畳み込み演算を行うことによりGaborウエーブレッ
ト変換が行われる。即ち、
Each of the filters g mn (x, y) and the input grayscale image
The Gabor wavelet transform is performed by performing a dimensional convolution operation. That is,

【0074】[0074]

【外3】 [Outside 3]

【0075】ここにIは入力画像、WmnはGaborウエーブ
レット変換係数である。Wmn (m=1,2,3; n=1,..., 6)の
セットを特徴ベクトルとして各点で求める。'*'は複素
共役をとることを示す。
Here, I is an input image, and Wmn is a Gabor wavelet transform coefficient. A set of W mn (m = 1, 2, 3; n = 1,..., 6) is obtained at each point as a feature vector. ' * ' Indicates complex conjugate.

【0076】特徴検出層(1,0)の各ニューロンは、gmn
に対応する受容野構造を有する。同じスケールインデッ
クスmを有するgmnは同じサイズの受容野を有し、演算
上は対応するカーネルgmnサイズもスケールインデック
スに応じた大きさを有するようにしてある。ここでは、
最も粗いスケールから順に入力画像上の30×30、1
5×15、7×7のサイズとした。
Each neuron in the feature detection layer (1, 0) is represented by g mn
Has a receptive field structure corresponding to G mn having the same scale index m has the same size receptive field, and the corresponding kernel g mn size has a size corresponding to the scale index in operation. here,
30 × 30, 1 on the input image in order from the coarsest scale
The size was 5 × 15, 7 × 7.

【0077】各ニューロンは、分布重み係数と画像デー
タとの積和入力を行って得られるウエーブレット変換係
数値の非線型squashing関数となる出力レベル(ここで
は位相基準とする;但し、周波数、振幅、パルス幅基準
となる構成でもよい)でパルス出力を行う。この結果、
この層(1,0)全体の出力として、式(4)のGaborwa
velet変換が行われたことになる。
Each neuron outputs a non-linear squashing function of a wavelet transform coefficient value obtained by performing a product-sum input of a distribution weighting coefficient and image data (here, a phase reference; where frequency, amplitude , A pulse width reference may be used). As a result,
As an output of the entire layer (1, 0), Gaborwa of Expression (4) is used.
This means that velet conversion has been performed.

【0078】各スケールレベル毎のサンプリング点数
(特徴検出等を行う位置の数)が同一となるようにして
いるので、Gabor wavelet変換により抽出された各点(場
所)での特徴表現は、スケールレベルにより異なる代表
面積(その点が特徴を代表する入力データ上の範囲)を
有する図22に示すような階層構造で模式的に表され
る。画像中の各位置(同一位置)について複数のスケー
ルレベルにわたる特徴の多重表現が得られ、後述する任
意スケールレベルに対応させるための集団的符号化処理
につなげることができる。図22中の点(○印)は各スケ
ールレベルでの、入力データ上の同一点を表す。
Since the number of sampling points (the number of positions for performing feature detection and the like) for each scale level is the same, the feature expression at each point (location) extracted by the Gabor wavelet transform is Are schematically represented in a hierarchical structure as shown in FIG. 22 having different representative areas (the points on the input data representing the features). A multiple representation of the feature over a plurality of scale levels is obtained for each position (same position) in the image, which can be connected to a collective encoding process for corresponding to an arbitrary scale level described later. The points (circles) in FIG. 22 represent the same points on the input data at each scale level.

【0079】一方、後続の特徴検出層((1,1)、(1,
2)、…、(1,N))の各ニューロンは、上記検出層とは
異なり、認識対象のパターンに固有の特徴を検出する受
容野構造をいわゆるHebb学習則等により形成する。後の
層ほど特徴検出を行う局所的な領域のサイズが認識対象
全体のサイズに段階的に近くなり、幾何学的には中次ま
たは高次の特徴を検出する。例えば、顔の検出認識を行
う場合には中次(または高次)の特徴とは顔を構成する
目、鼻、口等の図形要素のレベルでの特徴を表す。
On the other hand, the subsequent feature detection layers ((1, 1), (1,
Each of the neurons 2),..., (1, N)) is different from the above-described detection layer and forms a receptive field structure for detecting a characteristic unique to the pattern to be recognized by a so-called Hebb learning rule or the like. The size of the local region where the feature detection is performed gradually becomes closer to the size of the entire recognition target in a later layer, and a medium-order or higher-order feature is geometrically detected. For example, in the case of performing face detection and recognition, the middle-order (or higher-order) features represent features at the level of graphic elements such as eyes, nose, and mouth that constitute the face.

【0080】異なる処理チャネル間では、同じ階層レベ
ル(検出される特徴の複雑さが同レベル)であれば、検出
される特徴の違いは、同一カテゴリであるが、互いに異
なるスケールで検出されたものであることにある。例え
ば、中次の特徴としての「目」は異なる処理チャネルで
は、サイズの異なる「目」として検出を行う。即ち、画
像中の与えられたサイズの「目」に対してスケールレベ
ル選択性の異なる複数の処理チャネルにおいて検出が試
みられる。なお、特徴検出層ニューロンは、出力の安定
化のために抑制性(分流型抑制:shunting inhibition)
の結合を前段の層出力に基づいて受けるような機構を有
してもよい。
In different processing channels, if the same hierarchical level (the complexity of detected features is the same level), the detected features differ in the same category, but are detected on different scales. It is to be. For example, “eye” as a second-order feature is detected as “eye” having a different size in a different processing channel. That is, detection is attempted in a plurality of processing channels with different scale level selectivity for a given size "eye" in the image. In addition, the feature detection layer neurons are supposed to suppress output (shunting inhibition) to stabilize output.
May be provided based on the output of the preceding layer.

【0081】次に、特徴統合層103((2,0)、(2,
1)、…)のニューロンについて説明する。図1に示す
如く特徴検出層102(例えば(1,0))から特徴統合層10
3(例えば(2,0))への結合は、当該特徴統合ニューロン
の受容野内にある前段の特徴検出層の同一特徴要素(タ
イプ)のニューロンから興奮性結合の入力を受けるよう
に構成され、特徴統合層103のニューロンは前述したご
とく、各特徴カテゴリごとの局所平均化(特徴検出ニュ
ーロンの受容野を形成するニューロンからの入力の平均
値算出、代表値算出、最大値算出等)などによるサブサ
ンプリングを行うもの(サブサンプリングニューロン)
と、異なるスケール(処理チャネル)にまたがって、同一
カテゴリの特徴に関する出力の結合を行うもの(集団的
符号化ニューロン)とがある。
Next, the feature integration layer 103 ((2,0), (2,
The neurons 1),... Will be described. As shown in FIG. 1, the feature detection layer 102 (for example, (1, 0)) to the feature integration layer 10
The connection to 3 (for example, (2,0)) is configured to receive an excitatory connection input from a neuron of the same feature element (type) in the preceding feature detection layer in the receptive field of the feature integration neuron, As described above, the neurons in the feature integration layer 103 are sub-averaged by local averaging for each feature category (calculation of the average value, calculation of the representative value, calculation of the maximum value of the input from the neurons forming the receptive field of the feature detection neuron, etc.). Sampling (sub-sampling neurons)
And those that combine outputs for features of the same category across different scales (processing channels) (collective coded neurons).

【0082】前者によれば、複数の同一種類の特徴のパ
ルスを入力し、それらを局所的な領域(受容野)で統合
して平均化する(或いは、受容野内での最大値等の代表
値を算出する)ことにより、その特徴の位置のゆらぎ、
変形に対しても確実に検出することができる。このた
め、特徴統合層ニューロンの受容野構造は、特徴カテゴ
リによらず一様(例えば、いずれも所定サイズの矩形領
域であって、かつ感度または重み係数がその中で一様分
布するなど)となるように構成してよい。
According to the former, a plurality of pulses of the same kind of feature are input, and they are integrated and averaged in a local area (receptive field) (or a representative value such as the maximum value in the receptive field). ), The position fluctuation of the feature,
Deformation can be reliably detected. For this reason, the receptive field structure of the feature integration layer neuron is uniform regardless of the feature category (for example, each is a rectangular region of a predetermined size, and the sensitivity or the weight coefficient is uniformly distributed therein). You may comprise so that it may become.

【0083】後者の集団的符号化(population coding)
のメカニズムについて詳しく説明する。集団的符号化ニ
ューロンでは、同一の階層レベル(図形特徴の複雑さが
同程度)にあるが、同一特徴で異なる処理チャネルに属
し、同一の特徴統合層内にある複数のサブサンプリング
ニューロンからの出力の正規化線形結合をとることによ
り統合する。例えば、Gabor wavelet変換を行う特徴検
出層(1,0)の出力を受ける特徴統合層(2,0)においては、
異なる処理チャネルに属し、方向選択性の等しいGabor
フィルタのセット{gmn}(n一定、m=1,2,…)に対応する出
力を線形結合などにより統合する。
The latter, population coding
The mechanism will be described in detail. In collective coded neurons, outputs from multiple sub-sampling neurons at the same hierarchical level (with the same complexity of graphic features) but belonging to different processing channels with the same features and in the same feature integration layer By taking the normalized linear combination of For example, in the feature integration layer (2,0) receiving the output of the feature detection layer (1,0) that performs Gabor wavelet conversion,
Gabors belonging to different processing channels with equal direction selectivity
The outputs corresponding to the filter set {g mn } (constant n, m = 1, 2,...) Are integrated by a linear combination or the like.

【0084】具体的には、pij(t)を方向成分選択性がi
でスケール選択性がjとなるようなサブサンプリングニ
ューロンの出力、qij(t)を同様の選択性を有する集団的
符号(population code)とすると、サブサンプリングニ
ューロンの正規化出力の線形結合を表す式(5)、及び
その正規化方法を表す式(6)の様に表される。なお、
式(5)、(6)は、説明の便宜上、サブサンプリング
ニューロンと集団的符号化ニューロンの出力状態遷移を
離散時間遷移として表している。
More specifically, if p ij (t) has a direction component selectivity of i
The output of a sub-sampling neuron whose scale selectivity becomes j, and q ij (t) is a population code (population code) having the same selectivity, represents the linear combination of the normalized output of the sub-sampling neuron. Expression (5) and Expression (6) representing a normalization method thereof are given. In addition,
Equations (5) and (6) represent the output state transitions of the sub-sampling neurons and the collective coding neurons as discrete time transitions for convenience of explanation.

【0085】[0085]

【外4】 [Outside 4]

【0086】ここに、wij,abは複数の異なる選択性(感
度特性)を有するニューロン(またはニューロン集団)
からの(特徴カテゴリ、即ち、方向成分選択性のインデ
ックスがa、スケールレベル選択性のインデックスがbの
サブサンプリングニューロン出力から、方向成分選択性
のインデックスがi、スケールレベル選択性のインデッ
クスがjの集団的符号化ニューロンへの)寄与を表す結
合係数である。wij,abは、方向成分インデックスi、ス
ケールレベルインデックスjを中心とするフィルタ機能
(選択性)を示し、典型的には|i-a|と|j-b|の関数形状(w
ij,ab=f(|i-a|,|j-b|))となる。
Here, w ij, ab is a neuron (or a group of neurons) having a plurality of different selectivities (sensitivity characteristics).
From the subsampling neuron output of (feature category, i.e., the index of direction component selectivity is a and the index of scale level selectivity is b, the index of direction component selectivity is i and the index of scale level selectivity is j Coupling coefficients representing contributions (to the collective coding neurons). w ij, ab is a filter function centered on directional component index i and scale level index j
(Selectivity), typically | i | and | jb | function shapes (w
ij, ab = f (| ia |, | jb |)).

【0087】後述するように、このwij,abを介した線形
結合による集団的符号化は他の選択性を有するニューロ
ンの検出レベルを考慮した上でqijが特徴カテゴリ(方
向成分)およびスケールレベルに関する存在確率を与え
るようにすることを目的とする。Cは正規化定数、λ、
βは定数である(典型的にはβは1ないし2であり、β
が2の場合は、βが1の場合と比べて低レベルのノイズ
成分の寄与を圧縮、低減する効果がある)。Cはある特
徴カテゴリに対する集団的符号の総和が殆どゼロでもp
ijが発散しないようにするための定数である。なお、シ
ステム起動時の初期状態ではqij(0) = pij(0)とする。
As will be described later, in the collective coding by linear combination via w ij, ab , q ij represents the feature category (direction component) and scale in consideration of the detection level of other selective neurons. The purpose is to give the probability of existence for the level. C is a normalization constant, λ,
β is a constant (typically β is 1-2, β
Is 2, there is an effect of compressing and reducing the contribution of the low-level noise component as compared with the case where β is 1.) C is p even if the sum of the collective codes for a feature category is almost zero.
It is a constant for preventing ij from diverging. Note that q ij (0) = p ij (0) in the initial state when the system is started.

【0088】図12に対応して、式(5)、(6)ではスケ
ールレベル選択性インデックスのみについての加算を行
っている。その結果、集団的符号化ニューロンは、同一
特徴カテゴリで異なるスケールレベル(処理チャネル)
に属する各特徴についての存在確率(に比例する量)を
出力することになる。
In correspondence with FIG. 12, in equations (5) and (6), addition is performed only for the scale level selectivity index. As a result, collective coded neurons have different scale levels (processing channels) for the same feature category
Will be output (proportion proportional to the existence probability) for each feature belonging to.

【0089】一方、図13の場合のように、一般的には
方向成分選択性インデックスについての加算も更に行う
ことにより、予め設定された数の方向成分の中間レベル
についても、集団的符号化を行う系を組み立てることが
できる。この場合、パラメーター(後述する式(7)、
(8)のβ、及びwij,lk)を適切に設定することによ
り、図13に示す構成では、各集団的符号化ニューロン
は、各スケールレベルと各特徴カテゴリについての特徴
の存在確率(に比例する量)を出力することができる。
On the other hand, as in the case of FIG. 13, generally, addition is further performed on the directional component selectivity index, so that collective encoding is performed even on intermediate levels of a predetermined number of directional components. You can build a system to do. In this case, the parameter (formula (7) described later)
By appropriately setting β and w ij, lk in (8), in the configuration shown in FIG. 13, each collective coded neuron has a feature existence probability (for each scale level and each feature category). Proportional amount) can be output.

【0090】式(5)に示すごとく、集団的符号qij(t)
は、異なるスケールレベルの感度特性を有するニューロ
ンの出力に関する正規化された線形結合により得られ
る。定常状態に達したqij(t)は、適切に正規化(例え
ば、qijに関する総和値で正規化)して値が0から1の間
になるようにすると、qijは、方向成分がiでスケールレ
ベルがjに相当する確率を与えることになる。
As shown in equation (5), the collective code q ij (t)
Is obtained by a normalized linear combination of the outputs of neurons with different scale-level sensitivity characteristics. When q ij (t) that has reached the steady state is appropriately normalized (for example, normalized by the sum of q ij ) so that the value is between 0 and 1, q ij has a directional component. i gives the probability that the scale level corresponds to j.

【0091】従って、入力データ中の対象のサイズに対
応するスケールレベルを明示的に値として求めるには、
qijをフィッティングする曲線を求めて最大値を推定
し、これに対応するスケールレベルを求めればよい。こ
のようにして求まるスケールレベルは、一般的には予め
設定したスケールレベルの中間的な値を示す。
Therefore, in order to explicitly obtain the scale level corresponding to the size of the target in the input data as a value,
A curve for fitting q ij may be determined to estimate the maximum value, and the corresponding scale level may be determined. The scale level obtained in this way generally indicates an intermediate value of the preset scale level.

【0092】図23はスケールレベルの集団的符号化の
例を示す図であり、横軸はスケールレベル、縦軸は細胞
出力を表す。出力とは、パルス位相に相当し、特定のス
ケールにピーク感度を有するニューロンは、そのスケー
ルからずれたサイズを有する特徴に対しては、特定スケ
ールに対応するサイズの特徴と比べて出力レベルの低
下、即ち、位相遅れが生じることになる。
FIG. 23 is a diagram showing an example of collective encoding of the scale level. The horizontal axis represents the scale level, and the vertical axis represents the cell output. The output is equivalent to the pulse phase, and a neuron having a peak sensitivity at a specific scale has a lower output level for a feature having a size deviated from that scale as compared to a feature having a size corresponding to the specific scale. That is, a phase delay occurs.

【0093】同図は、各特徴検出細胞のスケール選択性
に関する感度曲線(いわゆるチューニング曲線)と各細
胞出力、及びそれらを統合して得られる集団的符号統合
出力(各細胞出力のスケールレベルに関するモーメン
ト、即ち線形和)を示す。集団的符号統合出力の横軸上
の位置は、認識対象に関するスケール(サイズ)の推定値
を反映している。
The figure shows a sensitivity curve (so-called tuning curve) relating to the scale selectivity of each feature-detected cell, each cell output, and a collective code integrated output obtained by integrating them (moment related to the scale level of each cell output). , Ie, a linear sum). The position on the horizontal axis of the collective code integration output reflects the estimated value of the scale (size) of the recognition target.

【0094】本実施形態では、実際にはスケールレベル
を明示的には求めず、特徴統合層から特徴検出層への出
力はqijとする(正規化したqijでもよい)。即ち、図1
2、13のいずれでも、特徴統合層103から特徴検出層1
02への出力は、サブサンプリングニューロンからの出力
ではなく、集団的符号化ニューロンの出力とすることに
より、最終的には、上記した正規化後のqijのように、
複数スケールレベル(解像度)にまたがった特定対象の
検出確率として集団的に表される。
In this embodiment, the scale level is not actually obtained explicitly, and the output from the feature integration layer to the feature detection layer is q ij (or may be normalized q ij ). That is, FIG.
In both cases 2 and 13, the feature integration layer 103 to the feature detection layer 1
The output to 02 is not the output from the sub-sampling neuron, but the output of the collective coding neuron, so that finally, like q ij after normalization above,
It is collectively expressed as the detection probability of a specific object over a plurality of scale levels (resolutions).

【0095】図12に示す特徴統合層103の回路構成で
は、サブサンプリングニューロン回路1201で、先ず、前
段の特徴検出層ニューロン出力のうち、各特徴カテゴリ
とサイズ選択性が同一のニューロン出力を、当該サブサ
ンプリングニューロンの局所受容野で受け、局所的な平
均化を行う。各サブサンプリングニューロン出力は、結
合処理回路1203に送られる。このとき、後述するよう
に、各ニューロンからのパルス信号は、不図示のシナプ
ス回路により、所定位相量(例えば、式(6)のβが2の
とき、特徴検出ニューロンの出力レベル相当の2乗に比
例する量)だけ遅延を受け、局所的な共通バスを介して
伝播される。ただし、ニューロン間の配線には、共通バ
スを用いずに物理的に独立に配線してもよい。
In the circuit configuration of the feature integration layer 103 shown in FIG. 12, the sub-sampling neuron circuit 1201 first outputs the neuron output having the same size selectivity as each feature category among the neurons output from the preceding feature detection layer. Receives at the local receptive field of the subsampling neuron and performs local averaging. Each sub-sampling neuron output is sent to the joint processing circuit 1203. At this time, as described later, a pulse signal from each neuron is converted by a synapse circuit (not shown) into a predetermined phase amount (for example, when β in Expression (6) is 2, a square corresponding to the output level of the feature detection neuron). ) And propagated through the local common bus. However, the wiring between the neurons may be physically and independently wired without using a common bus.

【0096】結合処理回路では、式(5)、(6)に相
当する処理を行い、特徴カテゴリが同じだが、サイズ選
択性の異なる(複数処理チャネルにまたがる)情報の集
団的符号化を行う。
The joint processing circuit performs processing corresponding to equations (5) and (6), and collectively encodes information having the same feature category but different size selectivity (across multiple processing channels).

【0097】また、図12では、特徴カテゴリ(方向成
分選択性)が同一のサブサンプリングニューロン出力に
ついて集団的符号化を行ったのに対し、図13に示す回
路構成では、特徴カテゴリおよびサイズ選択性の全体に
わたって行う結合処理回路で、次の式(7)、(8)に
示すような処理を行う。
Further, in FIG. 12, collective encoding is performed on the output of sub-sampling neurons having the same feature category (directional component selectivity). On the other hand, in the circuit configuration shown in FIG. The processing shown in the following Expressions (7) and (8) is performed by the joint processing circuit that performs over the whole of

【0098】[0098]

【外5】 [Outside 5]

【0099】次に、認識対象のスケールレベルの算出方
法について説明する。以上の処理の結果、各処理チャネ
ルの平均的な活動レベル(サブサンプリングニューロン
出力レベル)Paに基づいた認識対象のスケールレベルを
算出することができる。具体的に推定されるスケールレ
ベルSは、例えば以下のように表される。
Next, a method of calculating the scale level of the recognition target will be described. As a result of the above processing, it is possible to calculate the average activity level scale level of the recognition target, based on (subsampling neuron output level) P a of each processing channel. The specifically estimated scale level S is expressed, for example, as follows.

【0100】[0100]

【外6】 [Outside 6]

【0101】ここに、Paは処理チャネルaの平均活動レ
ベル、Saは、処理チャネルaのスケールレベル(又は、ス
ケールインデックス)、piaは処理チャネルaに属するサ
ブサンプリングニューロンの活動レベルを示す。また、
Paを用いることにより、後続層での処理において、各処
理チャネルに属するニューロンの活動レベル制御に用い
ることができる。
[0102] Here, the average activity level of P a processing channel a, S a is the scale level of the processing channels a (or scale index), p ia indicates the activity level of the sub-sampling neuron that belongs to the processing channel a . Also,
The use of P a, in the processing of a subsequent layer can be used in activity level control of neurons belonging to each processing channel.

【0102】例えば、Paを後続層のニューロンの発火閾
値の制御を行う信号を発生することができる。この場
合、Paの最大チャネルについては、後続層の発火閾値を
下げ(実効的に特徴検出感度が上がる)、他のチャネル
については後続層の発火閾値を上げる(実効的に特徴検
出感度が下がる)ことにより、Paの最大チャネル(スケ
ールレベル)のみを活性化させ、ノイズの影響を受け難
いロバストな処理と低消費電力化を実現することができ
る。また、Paの値に応じた後続層の閾値制御を行う(相
対的に、Paが高いチャネルほど、当該閾値を低くする)
ことにより、低次特徴の抽出段階での平均的なチャネル
活動レベルに基づいた特徴検出感度の適応的制御が可能
となる。
[0102] For example, it is possible to generate a signal for controlling the firing threshold of the neuron of the subsequent layer the P a. In this case, for the maximum channel of Pa, the firing threshold of the succeeding layer is reduced (effectively the feature detection sensitivity is increased), and for the other channels, the firing threshold of the subsequent layer is increased (effectively the feature detection sensitivity is reduced). it makes it possible to activate only the maximum channel P a (scale level), to achieve a less susceptible robust processing and low power consumption to noise. Further, performs threshold control of the subsequent layer in accordance with the value of P a (relatively higher P a higher channel, to lower the threshold)
This enables adaptive control of feature detection sensitivity based on the average channel activity level in the low-order feature extraction stage.

【0103】一方、(2,0)層内の各チャネルごとのPa
に応じた信号増幅/減衰(パルス位相の前進/遅延)を各
集団的符号化ニューロンからの出力に対して行うような
チャネル活性度制御回路を設定することができる。図1
5は、この様なチャネル活性度制御回路の構成を示す図
である。このチャネル活性度制御回路1502は、図12、
13の集団的符号化ニューロンと次層である特徴検出層
との間に設定され、集団的符号化ニューロンの出力を平
均活動度算出回路1501で処理した結果が入力される。
On the other hand, P a for each channel in the (2,0) layer
Can be set such that signal amplification / attenuation (advance / delay of the pulse phase) according to the above is performed on the output from each collective encoding neuron. Figure 1
FIG. 5 shows a configuration of such a channel activity control circuit. This channel activity control circuit 1502 is similar to FIG.
The result obtained by processing the output of the collective encoding neuron by the average activity calculation circuit 1501 is set between the 13 collective encoding neurons and the feature detection layer which is the next layer.

【0104】最終層では、複数チャネルにわたって、高
次特徴としての認識対象の存在確率が、ニューロンの活
動レベル(即ち、発火周波数や発火スパイクの位相など)
として表現される。Where処理経路(或いは最終層で検出
・認識対象の位置情報も検出される場合)では、最終層
で入力データ中の位置(場所)に応じた対象の存在確率
(閾値処理すれば、対象の有無)が、各ニューロンの活
動レベルとして検出される。
In the final layer, the existence probability of a recognition target as a higher-order feature over a plurality of channels depends on the activity level of a neuron (ie, firing frequency, firing spike phase, etc.).
Is expressed as In the Where processing path (or when the position information of the detection / recognition target is also detected in the final layer), the existence probability of the target corresponding to the position (place) in the input data in the final layer ) Is detected as the activity level of each neuron.

【0105】集団的符号化は、正規化を行わない線形結
合によって求めてもよいが、ノイズの影響を受けやすく
なる可能性があり、正規化することが望ましい。式
(6)及び(8)に示す正規化は、神経回路網レベルで
は、いわゆる分流型抑制(shunting inhibition)によ
り、また、式(5)及び(7)に示すような線形結合
は、層内の結合(lateral connection)により実現する
ことができる。
The collective coding may be obtained by a linear combination without normalization. However, the collective coding may be easily affected by noise, and it is preferable to perform the normalization. The normalization shown in equations (6) and (8) is at the neural network level due to so-called shunting inhibition, and the linear combination as shown in equations (5) and (7) (Lateral connection).

【0106】βが2のときの正規化回路の例を図14に
示す。この正規化回路は、異なる処理チャネルに属する
特徴検出細胞nijの出力の2乗和を取るための2乗和算
出回路1403と、主に式(6)の正規化を行う分流型抑制
回路1404、及び式(5)の線形和を求めて出力する線形
和回路1405とから構成される。
FIG. 14 shows an example of the normalizing circuit when β is 2. This normalization circuit includes a sum-of-squares calculation circuit 1403 for calculating the sum of squares of the outputs of the feature detection cells n ij belonging to different processing channels, and a shunt type suppression circuit 1404 for mainly normalizing Expression (6). , And a linear sum circuit 1405 for obtaining and outputting a linear sum of Expression (5).

【0107】2乗和算出回路1403においては、各特徴検
出細胞の2乗値を保持(pooling)する介在ニューロン(in
ter-neuron)素子1406が存在し、当該介在ニューロン140
6への結合を与える各シナプス結合素子1402が、特徴検
出細胞1401出力の2乗値に相当するパルス位相遅れ(或
いはパルス幅変調、パルス周波数変調)を与える。
In the square sum calculation circuit 1403, the interneuron (in) holds (pools) the square value of each feature detection cell.
ter-neuron) element 1406 is present and the interneuron 140
Each synapse coupling element 1402 that provides a coupling to 6 provides a pulse phase delay (or pulse width modulation, pulse frequency modulation) corresponding to the square of the output of the feature detection cell 1401.

【0108】分流型抑制回路1404は、例えば、介在ニュ
ーロン1406の出力に所定の係数(λ/C)を乗算した値の逆
数に比例するような可変抵抗素子とコンデンサ及び特徴
検出細胞1401の出力の2乗を与えるパルス位相変調回路
(或いはパルス幅変調回路、パルス周波数変調回路)とか
ら構成される。
The shunt type suppression circuit 1404 outputs a variable resistance element, a capacitor, and an output of the feature detection cell 1401 which are proportional to the reciprocal of a value obtained by multiplying the output of the interneuron 1406 by a predetermined coefficient (λ / C). Pulse phase modulation circuit giving a square
(Or a pulse width modulation circuit or a pulse frequency modulation circuit).

【0109】次に、チャネル処理の変形例について説明
する。以上の様な処理チャネル毎に集団的符号化がなさ
れ、各処理チャネル出力が後続層に伝達されるようにす
る構成(即ち、図12又は13の構成がカスケード的に
後続層まで保持される構成)のほかに、処理効率を上げ
るとともに消費電力を抑えるために、特徴統合層(2,
0)内の最大応答レベルを与える処理チャネルと同一の
チャネルに属する(次の層の)特徴検出細胞のみに当該
集団的符号化ニューロンの出力が伝播するようにしても
よい。
Next, a modification of the channel processing will be described. A configuration in which collective coding is performed for each processing channel as described above, and each processing channel output is transmitted to a subsequent layer (that is, a configuration in which the configuration of FIG. 12 or 13 is cascaded to the subsequent layer) ), To improve processing efficiency and reduce power consumption, the feature integration layer (2,
The output of the collective coded neuron may be propagated only to the feature detection cells (in the next layer) belonging to the same channel as the processing channel that gives the maximum response level in 0).

【0110】この場合には、図12、13に示す構成に
加えて、集団的符号化ニューロン回路の出力を受け、最
大応答レベルを与える処理チャネル選択回路として最大
入力検出回路、いわゆるWinner-Take-All回路(以下、W
TA回路と称す)を特徴統合層(2,0)出力と次の特徴検出
層(1,1)との間に存在するように設定する。この処理チ
ャネル選択回路は特徴統合層の各位置ごとに設定しても
よいし、当該層に一つ、場所によらず入力データ全体に
ついて処理チャネルごとの最大応答レベルを算出する回
路として設定してもよい。
In this case, in addition to the configuration shown in FIGS. 12 and 13, a maximum input detection circuit, a so-called winner-take-off circuit, is used as a processing channel selection circuit that receives the output of the collective encoding neuron circuit and gives the maximum response level. All circuit (W
TA circuit) is set to exist between the output of the feature integration layer (2,0) and the next feature detection layer (1,1). The processing channel selection circuit may be set for each position of the feature integration layer, or may be set as a circuit for calculating the maximum response level for each processing channel for the entire input data regardless of the location, one for the layer. Is also good.

【0111】WTA回路としては例えば、特開平08-321
747号公報、USP5059814, USP5146106その他に記載され
た公知の構成を用いることができる。特徴統合層におい
てWTA回路により特徴統合層の最大応答を示す処理チ
ャネルのみの出力を次の層である特徴検出層に伝播させ
る構成を図16の(A)に模式的に示す。これは、図1
5のチャネル活性度制御回路1502をゲーティング回路16
02で置き換えたものである。
As the WTA circuit, for example, Japanese Patent Application Laid-Open No. 08-321
Known structures described in Japanese Patent No. 747, USP5059814, USP5146106 and others can be used. FIG. 16A schematically shows a configuration in which the output of only the processing channel exhibiting the maximum response of the feature integration layer is propagated to the next layer, the feature detection layer, by the WTA circuit in the feature integration layer. This is shown in FIG.
5 channel activity control circuit 1502 to gating circuit 16
Replaced with 02.

【0112】ゲーティング回路1602は、図16の(B)
に示すように各処理チャネルごとの平均出力レベルを入
力するWTA回路1603と、最大の平均出力レベルを示す
処理チャネルからの各ニューロンの出力を次の層の同一
チャネルに伝播させるためのチャネル選択回路1604とを
有する。
The gating circuit 1602 is shown in FIG.
And a channel selection circuit for transmitting the output of each neuron from the processing channel exhibiting the maximum average output level to the same channel in the next layer, as shown in FIG. 1604.

【0113】また、後続の特徴統合層(2,k)(kは1以
上)では、このような処理チャネル選択回路は必ずしも
要しないが、例えば、高次特徴検出後の特徴統合層の出
力を処理チャネル選択回路経由でフィードバックして低
次又は中次特徴の統合層での処理チャネル選択を行うよ
うにしてもよい。以上でチャネル処理の変形例について
の説明を終わる。なお、図12、13に示すようなサブ
サンプリング、結合処理、集団的符号化の流れを特徴統
合層内で行う構成に限定されず、例えば結合処理、集団
的符号化の為の層を別に設けるなどしてもよいことは言
うまでもない。
In the subsequent feature integration layer (2, k) (k is 1 or more), such a processing channel selection circuit is not necessarily required. For example, the output of the feature integration layer after higher-order feature detection is performed. The processing channel selection in the integrated layer of the low-order or medium-order features may be performed by feedback via the processing channel selection circuit. This concludes the description of the modification of the channel processing. Note that the flow of the sub-sampling, combination processing, and collective encoding as shown in FIGS. 12 and 13 is not limited to the configuration in which the flow is performed in the feature integration layer. For example, a separate layer for the combination processing and collective encoding is provided. Needless to say, this may be done.

【0114】異なるスケールレベルの同種の特徴カテゴ
リ検出ニューロンからの出力に関する集団的符号化を行
うことにより、次のような効果がもたらされる。即ち、
対象のサイズが予め設定したスケールレベルと異なり、
それらの中間的なレベルにあるときでも、精度よく検出
(または認識)を行うことが可能となる。また、スケー
ル多重な階層的並列処理を行うことにより、サイズの異
なる対象が近接して、或いは重なり合って存在している
ときでも、適切に複数のスケールレベル(又は解像度)を
選択することにより、安定した対象の認識、検出が可能
となる。更に、任意サイズの対象に対応させるための莫
大な数のテンプレートに相当するモデルを要せず、少数
のスケールレベルでの処理で済む。
Performing collective encoding on the output from the same type of feature category detection neuron at different scale levels has the following effects. That is,
The target size is different from the preset scale level,
It is possible to perform detection (or recognition) with high accuracy even at an intermediate level between them. In addition, by performing scale-multiplexed hierarchical parallel processing, even when objects of different sizes exist close to each other or overlap each other, it is possible to stably select a plurality of scale levels (or resolutions) appropriately. It becomes possible to recognize and detect the target. Further, a model corresponding to an enormous number of templates for handling an object of an arbitrary size is not required, and processing at a small number of scale levels is sufficient.

【0115】また、本実施形態のように、最終層まで処
理チャネルを空間的に分けて配列する構成では、後述す
る実施形態2、3で示すような時間軸上に展開する構成
に比べて、処理チャネル間の結合処理等の集団的符号化
を複雑なタイミング制御なしで行うことができる。更
に、処理チャネルの違いを物理的に異なるニューロンの
発火特性として出力するので、各スケールレベルの処理
を時系列的に扱う場合に比べて、認識・検出処理を複数
スケールで短時間に同時並列的に行うことができるとい
う効果もある。
Further, in the configuration in which the processing channels are spatially divided up to the final layer as in the present embodiment, compared with the configuration in which the processing channels are developed on the time axis as described in Embodiments 2 and 3 described later. Collective encoding, such as joint processing between processing channels, can be performed without complicated timing control. Furthermore, since the differences in processing channels are output as firing characteristics of physically different neurons, recognition / detection processing can be performed in parallel in a short time on multiple scales, compared to the case where processing at each scale level is handled in chronological order. There is also an effect that can be performed.

【0116】なお、サイズのほぼ等しい対象が近接して
存在し、或いは部分的に重なり合って存在しているとき
でも、局所的な受容野構造とサブサンプリング構造等に
よる部分的な複数種類の特徴を統合して検出するメカニ
ズムにより、対象の認識、検出性能が保持されること
は、言うまでもない。
Even when objects having substantially the same size exist close to each other or partially overlap each other, a plurality of partial features due to a local receptive field structure, a sub-sampling structure, and the like can be used. Needless to say, the recognition and detection performance of the object is maintained by the integrated detection mechanism.

【0117】次に、2次元図形パターンのパルス符号化
と検出方法について説明する。図3は、特徴統合層103
から特徴検出層102への(例えば、図1の層(2,0)から
層(1,1)への)パルス信号の伝播の様子を模式的に示
した図である.特徴統合層103側の各ニューロンni(n1
〜n4)は、それぞれ異なる特徴量(或いは特徴要素)に
対応しており、特徴検出層102側のニューロンn'jは、同
一受容野内の各特徴を組み合わせて得られる、より高次
の特徴(図形要素)の検出に関与する。
Next, a method of pulse encoding and detecting a two-dimensional figure pattern will be described. FIG. 3 shows the feature integration layer 103.
FIG. 3 is a diagram schematically showing a state of propagation of a pulse signal from a to a feature detection layer 102 (for example, from a layer (2,0) to a layer (1,1) in FIG. 1). Each neuron n i (n 1
To n 4 ) respectively correspond to different feature amounts (or feature elements), and the neuron n ′ j on the feature detection layer 102 side is a higher-order feature obtained by combining the features in the same receptive field. (Graphic element).

【0118】各ニューロン間結合には、パルスの伝播時
間とニューロンniからニューロンn' jへのシナプス結合
(Sij)での時間遅れ等による固有(特徴に固有)の遅
延が生じ、その結果として、共通バスライン301を介し
てニューロンn'jに到着するパルス列Piは、特徴統合層1
03の各ニューロンからパルス出力がなされる限り、学習
によって決まるシナプス結合での遅延量により、所定の
順序(及び間隔)になっている(図3の(A)では、
P4,P3,P2,P1の順に到着することが示されている)。
The connection between each neuron includes
Between and neuron niFrom neuron n ' jSynaptic connection to
(Sij) Delay due to time delays etc.
Delay, and as a result, via the common bus line 301
The neuron n 'jPulse train P arriving atiIs the feature integration layer 1
Learning as long as pulse output is made from each neuron in 03
The amount of delay in synaptic connections determined by
(In FIG. 3A,
PFour, PThree, PTwo, P1In order of arrival).

【0119】図3の(B)は、後述するペースメーカニ
ューロンからのタイミング信号を用いて時間窓の同期制
御を行う場合において、層番号(2,k)上の特徴統合細
胞n1、n2、n3(それぞれ異なる種類の特徴を表す)か
ら、層番号(1,k+1)上のある特徴検出細胞(n'j)(より
上位の特徴検出を行う)へのパルス伝播のタイミング等
を示している。
FIG. 3B shows a case where the time window synchronization control is performed using a timing signal from a pacemaker neuron to be described later, and the feature integrated cells n 1 , n 2 , The timing of pulse propagation from n 3 (representing different types of features) to a certain feature detection cell (n ' j ) on layer number (1, k + 1) (which performs higher-order feature detection) Is shown.

【0120】図6は、特徴検出層ニューロンにペースメ
ーカニューロンからの入力がある場合のネットワーク構
成を示す図である。図6において、ペースメーカニュー
ロン603(np)は、同一の受容野を形成し、かつ異なる種
類の特徴を検出する特徴検出ニューロン602(nj,nk等)
に付随し、それらと同一の受容野を形成して、特徴統合
層(または入力層)上のニューロン601からの興奮性結
合を受ける。そして、その入力の総和値(或いは受容野
全体の活動度レベル平均値など、受容野全体に固有の活
動特性を表す状態に依存するように制御するため)によ
って決まる所定のタイミング(または周波数)でパルス
出力を特徴検出ニューロン602及び特徴統合ニューロン
に対して行う。
FIG. 6 is a diagram showing a network configuration when the feature detection layer neuron has an input from a pacemaker neuron. In FIG. 6, pacemaker neurons 603 (n p ) form feature receptive neurons 602 (n j , nk etc.) that form the same receptive field and detect different types of features.
, And form the same receptive field as those, and receive excitatory connections from the neurons 601 on the feature integration layer (or input layer). Then, at a predetermined timing (or frequency) determined by the sum of the inputs (or to control the state of the receptive field as a whole, such as an average activity level of the entire receptive field). Pulse output is performed to the feature detection neuron 602 and the feature integration neuron.

【0121】また、各特徴検出ニューロン602では、そ
の入力をトリガー信号として互いに時間窓が位相ロック
する様に構成されているが、前述したようにペースメー
カニューロン入力がある前は、位相ロックされず、各ニ
ューロンはランダムな位相でパルス出力する。また、特
徴検出ニューロン602では、ペースメーカニューロン603
からの入力がある前は後述する時間窓積分は行われず、
ペースメーカニューロン603からのパルス入力をトリガ
ーとして、同積分が行われる。
Each of the feature detecting neurons 602 is configured such that the time windows are phase-locked to each other using the input as a trigger signal. However, as described above, the phase is not locked before there is a pacemaker neuron input. Each neuron outputs a pulse with a random phase. In the feature detection neuron 602, a pacemaker neuron 603 is used.
Before the input from, the time window integration described later is not performed.
The same integration is performed using a pulse input from the pacemaker neuron 603 as a trigger.

【0122】ここに、時間窓は特徴検出細胞(n'i)ごと
に定められ、当該細胞に関して同一受容野を形成する特
徴統合層内の各ニューロンおよび、ペースメーカニュー
ロン603に対して共通であり、時間窓積分の時間範囲を
与える。
Here, the time window is determined for each feature detection cell (n′i), and is common to each neuron in the feature integration layer forming the same receptive field for the cell and the pacemaker neuron 603, Gives the time range for time window integration.

【0123】層番号(1,k)にあるペースメーカニューロ
ン603は(kは自然数)、パルス出力を、層番号(2,k-1)
の各特徴統合細胞、及びそのペースメーカニューロン60
3が属する特徴検出細胞(層番号(1,k))に出力すること
により、特徴検出細胞が時間的に入力を加算する際の時
間窓発生のタイミング信号を与えている。この時間窓の
開始時刻が各特徴統合細胞から出力されるパルスの到着
時間を図る基準時となる。即ち、ペースメーカニューロ
ン603は特徴統合細胞からのパルス出力時刻、及び特徴
検出細胞での時間窓積分の基準パルスを与える。
The pacemaker neuron 603 at the layer number (1, k) (k is a natural number) outputs the pulse output to the layer number (2, k-1)
Each integrated cell and its pacemaker neuron 60
By outputting to the feature detection cell (layer number (1, k)) to which 3 belongs, a timing signal for generating a time window when the feature detection cell temporally adds inputs is given. The start time of this time window is a reference time for determining the arrival time of the pulse output from each integrated cell. That is, the pacemaker neuron 603 gives a pulse output time from the feature integration cell and a reference pulse for time window integration in the feature detection cell.

【0124】前述した結合回路は、式(5)又は(7)式
により得られる集団的符号化レベルに対応するパルスを
各集団的符号化ニューロンに出力し、層番号(2,k)の特
徴統合層の出力細胞(n1,n2,n3)としての集団的符号化ニ
ューロンは、層番号(1,k+1)の層のペースメーカニュー
ロンからのパルス入力を受け、かつ前段の特徴検出層ま
たはセンサー入力層(層番号(1,k))からの入力によ
り、結合回路出力が十分なレベルにある場合(例えば、
ある時間範囲または時間窓での平均入力パルス数が閾値
より大、或いはパルス位相が進んでいること)には、ペ
ースメーカからのパルスの立ち下がり時を基準時とした
パルス出力を行う。
The aforementioned coupling circuit outputs a pulse corresponding to the collective coding level obtained by the formula (5) or (7) to each collective coding neuron, and outputs the characteristic of the layer number (2, k). The collective coded neurons as output cells (n 1 , n 2 , n 3 ) of the integrated layer receive pulse input from the pacemaker neuron of the layer of the layer number (1, k + 1) and detect the characteristics of the preceding stage If the input from the layer or the sensor input layer (layer number (1, k)) causes the combined circuit output to be at a sufficient level (for example,
If the average number of input pulses in a certain time range or time window is larger than the threshold value or the pulse phase is advanced), the pulse output from the pacemaker at the time of the falling edge of the pulse is performed.

【0125】また、前述したサブサンプリングニューロ
ンは、いずれのペースメーカニューロンからの制御を受
けず、前段の(1,k)層の特徴検出細胞からの平均的な
(各サブサンプリングニューロンごとに独立した位相を
もった時間窓内)出力レベルに基づき、サブサンプリン
グ処理を行う。また、サブサンプリングニューロンから
結合処理回路へのパルス出力タイミング制御もペースメ
ーカニューロンを介さずに行われ、結合処理回路から集
団的符号化ニューロンへのパルス出力も同様である。
The above-described sub-sampling neurons are not controlled by any pacemaker neurons, and have an average (independent phase for each sub-sampling neuron) from the feature detection cells in the preceding (1, k) layer. The sub-sampling process is performed based on the output level within a time window having The pulse output timing control from the sub-sampling neuron to the connection processing circuit is also performed without passing through the pacemaker neuron, and the same applies to the pulse output from the connection processing circuit to the collective encoding neuron.

【0126】このように本実施形態では、特徴統合細胞
(サブサンプリングニューロン、集団的符号化ニューロ
ンなど)は、その前の層番号(1,k)の特徴検出層上のペ
ースメーカニューロンからのタイミング制御は受けるよ
うには、構成していない。なぜならば、特徴統合細胞に
おいては、入力パルスの到着時間パターンではなく、む
しろ一定の時間範囲での入力レベル(入力パルスの時間
的積分値など)によって決まる位相(周波数、パルス
幅、振幅のいずれに依存してもよいが、本実施形態では
位相とした)でのパルス出力をするため、時間窓の発生
タイミングは余り重要ではないからである。なお、この
ことは、特徴統合細胞が前段の層の特徴検出層のペース
メーカニューロンからのタイミング制御を受ける構成を
排除する趣旨ではなく、そのような構成も可能であるこ
とはいうまでもない。
As described above, in the present embodiment, the feature-integrated cells (sub-sampling neurons, collective coding neurons, etc.) are controlled by the timing control from the pacemaker neuron on the feature detection layer of the preceding layer number (1, k). Is not configured to receive. This is because in a feature-integrated cell, the phase (frequency, pulse width, amplitude, etc.) determined by the input level within a certain time range (such as the temporal integration value of the input pulse) is not the arrival time pattern of the input pulse. This is because the pulse is output in the present embodiment, but the timing at which the time window is generated is not so important. Note that this is not intended to exclude a configuration in which the feature-integrated cells receive the timing control from the pacemaker neuron in the feature detection layer in the preceding layer, and it goes without saying that such a configuration is also possible.

【0127】各パルスは、シナプス回路を通過すると所
定量の位相遅延が与えられ、更に共通バスなどの信号伝
達線を通って特徴検出細胞に到着する。この時のパルス
の時間軸上の並びを、特徴検出細胞の時間軸上において
点線で表したパルス(P1,P2,P3)により示す。
Each pulse is given a predetermined amount of phase delay when passing through the synapse circuit, and further, reaches a feature detecting cell through a signal transmission line such as a common bus. The arrangement of the pulses on the time axis at this time is indicated by the pulses (P 1 , P 2 , P 3 ) indicated by the dotted lines on the time axis of the feature detection cells.

【0128】特徴検出細胞において各パルス(P1
2,P3)の時間窓積分(通常、一回の積分とする;但
し、多数回に渡る時間窓積分による電荷蓄積、または多
数回に渡る時間窓積分の平均化処理を行ってもよい)の
結果、閾値より大となった場合には、時間窓の終了時刻
を基準としてパルス出力(Pd)がなされる。なお、図
3の(B)に示した学習時の時間窓とは、後で説明する
学習則を実行する際に参照されるものである。
Each pulse (P 1 ,
P 2 , P 3 ) time window integration (usually, one integration; however, charge accumulation by multiple time window integrations or averaging of multiple time window integrations may be performed. If the result is larger than the threshold value, a pulse output (P d ) is made based on the end time of the time window. The learning time window shown in FIG. 3B is referred to when a learning rule described later is executed.

【0129】図4は、シナプス回路Siの構成を示す図で
ある。図4の(A)は、シナプス回路202(Si)におい
て、ニューロンniの結合先である各ニューロンn'jへの
シナプス結合強度(位相遅延)を与える各小回路401
が、マトリクス的に配置されていることを示している。
このようにすると、シナプス回路から結合先ニューロン
への配線を各受容野に対応する同一ライン(局所的な共
通バス301)上で行う事ができ(ニューロン間の配線を
仮想的に行うことができ)、従来から問題となっていた
配線問題の軽減(除去)が図られる。
[0129] Figure 4 is a diagram showing the structure of the synapse circuit S i. Figure (A) in 4, the synapse circuit 202 (S i), neuron n each subcircuit give a binding target synaptic to each neuron n 'j (phase delay) of the i 401
Indicates that they are arranged in a matrix.
In this way, wiring from the synapse circuit to the connection destination neuron can be performed on the same line (local common bus 301) corresponding to each receptive field (wiring between neurons can be performed virtually). ), It is possible to reduce (eliminate) the wiring problem which has conventionally been a problem.

【0130】また、結合先のニューロンでは、同一受容
野からの複数パルス入力を受けた際に、それぞれがどの
ニューロンから発せられたものかを時間窓基準でのパル
スの到着時間(特徴検出細胞が検出する特徴に対応し、
それを構成する低次特徴に固有の位相遅延)により、時
間軸上で識別することができる。
When a plurality of pulse inputs from the same receptive field are received, the neuron of the connection destination determines which neuron emitted each pulse from the arrival time of the pulse on the basis of the time window (the characteristic detection cell Corresponding to the feature to be detected,
It can be identified on the time axis by the phase delay inherent to the low-order features that constitute it.

【0131】図4の(B)に示すように、各シナプス結
合小回路401は、学習回路402と位相遅延回路403とから
なる。学習回路402は、位相遅延回路403の特性を変化さ
せることにより、上記遅延量を調整し、また、その特性
値(或いはその制御値)を浮遊ゲート素子、或いは浮遊
ゲート素子と結合したキャパシタ上に記憶するものであ
る。
As shown in FIG. 4B, each synapse coupling small circuit 401 includes a learning circuit 402 and a phase delay circuit 403. The learning circuit 402 adjusts the delay amount by changing the characteristics of the phase delay circuit 403, and also stores the characteristic value (or its control value) on the floating gate element or on a capacitor coupled to the floating gate element. It is something to memorize.

【0132】図5は、シナプス結合小回路の詳細構成を
示す図である。位相遅延回路403はパルス位相変調回路
であり、例えば、図5の(A)に示すように、単安定マ
ルチバイブレータ506、507、抵抗501、504、キャパシタ
503、505、トランジスター502を用いて構成できる。図
5の(B)は、単安定マルチバイブレータ506へ入力さ
れた方形波P1(図5の(B)の[1])、単安定マルチバイ
ブレータ506から出力される方形波P2(同[2])、単安定マ
ルチバイブレータ507から出力される方形波P3(同[3])の
各タイミングを表している。
FIG. 5 is a diagram showing a detailed configuration of a synapse connection small circuit. The phase delay circuit 403 is a pulse phase modulation circuit. For example, as shown in FIG. 5A, monostable multivibrators 506 and 507, resistors 501 and 504, capacitors
503, 505 and a transistor 502 can be used. FIG. 5B shows a square wave P1 ([1] in FIG. 5B) input to the monostable multivibrator 506, and a square wave P2 (the same [2]) output from the monostable multivibrator 506. ), The respective timings of the square wave P3 (the same [3]) output from the monostable multivibrator 507.

【0133】位相遅延回路403の動作機構の詳細につい
ては説明を省略するが、P1のパルス幅は、充電電流に
よるキャパシタ503の電圧が予め定められた閾値に達す
るまでの時間で決まり、P2の幅は抵抗504とキャパシ
タ505による時定数で決まる。P2のパルス幅が(図5
の(B)の点線方形波のように)広がって、その立ち下
がり時点が後にずれるとP3の立ち上がり時点も同じ量
ずれるが、P3のパルス幅は変わらないので、結果的に
入力パルスの位相だけが変調されて出力されたことにな
る。
The details of the operation mechanism of the phase delay circuit 403 are omitted, but the pulse width of P1 is determined by the time until the voltage of the capacitor 503 due to the charging current reaches a predetermined threshold, and the width of P2 Is determined by the time constant of the resistor 504 and the capacitor 505. When the pulse width of P2 is
If the falling point shifts later, the rising point of P3 also shifts by the same amount, but the pulse width of P3 does not change. As a result, only the phase of the input pulse is changed. Is modulated and output.

【0134】制御電圧Ecを基準電圧のリフレッシュ回路
509と結合荷重を与えるキャパシタ508への電荷蓄積量制
御を行う学習回路402で変化させることにより、パルス
位相(遅延量)を制御することができる。この結合荷重
の長期保持のためには、学習動作後に図5の(A)の回
路の外側に付加される浮遊ゲート素子(図示せず)のチ
ャージとして、或いはデジタルメモリへの書き込み等を
行って結合荷重を格納してもよい。その他回路規模を小
さくなるように工夫した構成(例えば、特開平5-37317
号公報、特開平10-327054号公報参照)など周知の回路
構成を用いることができる。
Refresh circuit using control voltage Ec as reference voltage
The pulse phase (delay amount) can be controlled by changing the learning circuit 402 that controls the amount of charge stored in the capacitor 508 that applies the connection weight to the capacitor 509. In order to maintain the connection weight for a long period of time, after the learning operation, as a charge of a floating gate element (not shown) added to the outside of the circuit of FIG. The coupling load may be stored. Other configurations designed to reduce the circuit scale (for example, see Japanese Patent Application Laid-Open No. 5-37317)
A publicly known circuit configuration such as that described in Japanese Patent Application Laid-Open No. H10-327054 can be used.

【0135】ネットワークが結合荷重の共有結合形式
(特に、1個の重み係数で複数のシナプス結合を同一に
表す場合)になるような構成をとる場合には、各シナプ
スでの遅延量(下記の式(9)のPij)が、図3の場合
と異なって、同一受容野内で一様とすることもできる。
特に、特徴検出層から特徴統合層への結合は、特徴統合
層がその前段の層である特徴検出層出力の局所平均化そ
の他によるサブサンプリングに関与するため、検出対象
によらず(即ち、課題によらず)、このように構成する
ことができる。
In the case where the network adopts a configuration of a covalent connection form of connection weights (particularly, a case where a plurality of synapse connections are represented by the same weight coefficient), the amount of delay at each synapse (described below). Unlike the case of FIG. 3, P ij in equation (9) may be uniform within the same receptive field.
In particular, the connection from the feature detection layer to the feature integration layer involves sub-sampling by local averaging of the output of the feature detection layer, which is the preceding layer, and the like, and therefore does not depend on the detection target (that is, the problem Regardless), it can be configured in this manner.

【0136】この場合、図4の(A)の各小回路は、図
4の(B)に示すように、局所共通バスライン401で結
合される単一の回路Sk,iで済み、特に経済的な回路構成
となる。一方、特徴統合層103(またはセンサー入力層1
01)から特徴検出層102への結合がこのようになってい
る場合、特徴検出ニューロンが検出するのは、複数の異
なる特徴要素を表すパルスの同時到着(或いは、略同時
到着)という、イベントである。
In this case, as shown in FIG. 4B, each small circuit of FIG. 4A is a single circuit S k, i connected by the local common bus line 401. It becomes an economical circuit configuration. On the other hand, the feature integration layer 103 (or the sensor input layer 1
When the connection from (01) to the feature detection layer 102 is made like this, the feature detection neuron detects an event called simultaneous arrival (or almost simultaneous arrival) of pulses representing a plurality of different feature elements. is there.

【0137】なお、結合が対称性を有する場合には、同
一荷重(位相遅延)量を与える結合を同一のシナプス結
合用小回路で代表させることにより、相当数のシナプス
結合が少数の回路で代表されるように構成することがで
きる。特に幾何学的特徴量の検出においては、受容野内
での結合荷重の分布が対称性を有する場合が多いので、
シナプス結合回路を減少させ回路規模を大幅に縮小にす
ることが可能である。
When the connections have symmetry, the connections that give the same amount of load (phase delay) are represented by the same small synapse connection circuit, so that a considerable number of synapse connections are represented by a small number of circuits. It can be configured to be. Especially in the detection of geometric features, since the distribution of the connection load in the receptive field often has symmetry,
The number of synapse connection circuits can be reduced, and the circuit scale can be significantly reduced.

【0138】パルスの同時到着、或いは所定の位相変調
量を実現するシナプスでの学習回路の例としては、図5
の(C)に示すような回路要素を有するものを用いれば
よい。即ち、学習回路402をパルス伝播時間計測回路510
(ここで、伝播時間とは、ある層のニューロンの前シナ
プスでのパルス出力時間と次の層上にある出力先ニュー
ロンでの当該パルスの到着時間との時間差をさし、図3
の(B)では、シナプス遅延と伝播に要した時間との和
になる)、時間窓発生回路511、及び伝播時間が一定値
となるようにシナプス部でのパルス位相変調量を調整す
るパルス位相変調量調整回路512から構成できる。
FIG. 5 shows an example of a learning circuit at the synapse that achieves simultaneous arrival of pulses or a predetermined amount of phase modulation.
What has a circuit element as shown in FIG. That is, the learning circuit 402 is connected to the pulse propagation time measurement circuit 510.
(Here, the propagation time is the time difference between the pulse output time at the pre-synapse of a neuron in a certain layer and the arrival time of the pulse at the output destination neuron on the next layer.
(B) shows the sum of the synapse delay and the time required for propagation), the time window generation circuit 511, and the pulse phase for adjusting the pulse phase modulation amount in the synapse so that the propagation time becomes a constant value. A modulation amount adjustment circuit 512 can be used.

【0139】伝播時間計測回路としては、後述するよう
な同一局所受容野を形成するペースメーカーニューロン
からのクロックパルスを入力し、所定の時間幅(時間
窓:図3の(B)参照)において、そのクロックパルス
のカウンター回路からの出力に基づき伝播時間を求める
ような構成などが用いられる。なお、時間窓は出力先ニ
ューロンの発火時点を基準として設定することにより、
以下に示すような拡張されたHebbの学習則が適用され
る。
As a propagation time measuring circuit, a clock pulse from a pacemaker neuron that forms the same local receptive field as described later is input, and within a predetermined time width (time window: see FIG. 3B). A configuration in which the propagation time is obtained based on the output of the clock pulse from the counter circuit is used. By setting the time window based on the firing time of the output destination neuron,
The extended Hebb's learning rule as shown below is applied.

【0140】また、学習回路402は、同じカテゴリの物
体が提示される頻度が大きくなるほど上記時間窓の幅が
狭くなるようにしてもよい。このようにすることによ
り、見慣れた(すなわち呈示回数、学習回数の多い)カ
テゴリのパターンであるほど、複数パルスの同時到着の
検出(coincidence detection)モードに近づく様な動作
をすることになる。このようにすることにより、特徴検
出に要する時間を短縮できる(瞬時検出の動作が可能と
なる)が、特徴要素の空間配置の細かな比較分析や、類
似するパターン間の識別等を行うことには適さなくな
る。
Further, the learning circuit 402 may make the width of the time window narrower as the frequency with which objects of the same category are presented increases. In this way, the more familiar the pattern (ie, the number of times of presentation and the number of times of learning) are, the closer to the detection mode of simultaneous arrival of a plurality of pulses (coincidence detection). By doing so, the time required for feature detection can be reduced (the operation of instantaneous detection becomes possible) .However, it is possible to perform detailed comparative analysis of the spatial arrangement of feature elements, identification between similar patterns, etc. Becomes unsuitable.

【0141】遅延量の学習過程は、例えば、複素数ドメ
インに拡張することにより、特徴検出層のニューロンni
と特徴統合層のニューロンnjとの間の複素結合荷重Cij
は、 Cij=Sijexp(iPij) (11) のように与えられる。ここに、Sijは結合強度、Pijは位
相、その前のiは純虚数を表し、所定周波数でニューロ
ンjからニューロンiに出力されるパルス信号の時間遅れ
に相当する位相である。Sijはニューロンiの受容野構造
を反映し、認識検出する対象に応じて一般に異なる構造
を有する。これは学習(教師付き学習または自己組織
化)により別途形成されるか、或いは予め決められた構
造として形成される。
The learning process of the delay amount is extended, for example, to the complex number domain, so that the neuron n i in the feature detection layer is obtained.
Connection weight C ij between the feature integration layer neuron n j
Is given as C ij = S ij exp (iP ij ) (11) Here, S ij is the coupling strength, P ij is the phase, and i before it is a pure imaginary number, and is a phase corresponding to the time delay of the pulse signal output from the neuron j to the neuron i at a predetermined frequency. Sij reflects the receptive field structure of neuron i and generally has a different structure depending on the object to be recognized and detected. This is formed separately by learning (supervised learning or self-organization) or is formed as a predetermined structure.

【0142】一方、遅延量に関する自己組織化のための
学習則は、
On the other hand, a learning rule for self-organization regarding the delay amount is as follows.

【0143】[0143]

【外7】 で与えられる。但し、[Outside 7] Given by However,

【0144】[0144]

【外8】 はCの時間微分、τijは上記時間遅れ(予め設定された
量)、β(〜1)は定数を示す。
[Outside 8] Is the time derivative of C, τ ij is the above time delay (preset amount), and β (β1) is a constant.

【0145】上式を解くと、Cijはβexp(-2πiτij)に
収束し、従って、Pijは−τijに収束する。学習則適用
の例を図3の(B)に示した学習時の時間窓を参照して
説明すると、シナプス結合の前側ニューロン(n1,n2,n
3)と後側ニューロン(特徴検出細胞)とが、その学習時
間窓の時間範囲において、ともに発火しているときにだ
け、式(12)に従って結合荷重が更新される。なお、
図3の(B)において、特徴検出細胞は時間窓の経過後
に発火しているが、同図の時間窓経過前に発火してもよ
い。
[0145] Solving the above equation, C ij converges to βexp (-2πiτ ij), hence, P ij converges to-tau ij. An example of the application of the learning rule will be described with reference to the time window at the time of learning shown in FIG. 3 (B). The anterior neuron (n1, n2, n
The connection weight is updated according to equation (12) only when both 3) and the posterior neuron (feature detection cell) are firing within the time range of the learning time window. In addition,
In FIG. 3B, the feature detection cells are fired after the elapse of the time window, but may be fired before the elapse of the time window in FIG.

【0146】更に、学習時に一つのサイズで認識・検出
対象を呈示するだけでも、複数スケール(処理チャネル)
にまたがるような学習制御を行うことができる。具体的
には、学習時には図15のチャネル活性度制御回路を特
徴統合層(2,0)内の出力のうち、最も平均的活動レベル
の高いチャネル出力を他のチャネルに分配するように制
御したうえで上述した様な学習を行えばよい。
Further, even if the recognition / detection target is presented in one size at the time of learning, a plurality of scales (processing channels) are required.
Learning control can be performed. Specifically, at the time of learning, the channel activity control circuit of FIG. 15 is controlled so that the channel output having the highest average activity level among the outputs in the feature integration layer (2,0) is distributed to other channels. The learning as described above may be performed.

【0147】例えば、同一の特徴カテゴリについては、
異なる処理チャネル間では同一のパルス間隔(到着時間
パターン)となるように、予め学習規則が定められてい
るとすると、最も平均的活動レベルの高いチャネルの特
徴統合層ニューロンの出力が、次の全ての(或いは、そ
のチャネルのスケールレベルに近い)チャネルの特徴検
出層(次の層)ニューロンへ、特徴検出ニューロンの受
容野構造に応じて分配されて、(同じパルス列パターン
として)入力されるようにすればよい。この場合には、
後続の層のすべてのチャネルが同じレベルで活性化され
ることになる。従って、他の方法により同様の効果が得
られる様にしてもよいことは言うまでもない。
For example, for the same feature category,
Assuming that a learning rule is determined in advance so that the same pulse interval (arrival time pattern) is obtained between different processing channels, the output of the feature integrated layer neuron of the channel having the highest average activity level becomes Is distributed to the feature detection layer (next layer) neuron of the channel (or close to the scale level of the channel) according to the receptive field structure of the feature detection neuron and input (as the same pulse train pattern) do it. In this case,
All channels in subsequent layers will be activated at the same level. Therefore, it goes without saying that the same effect may be obtained by another method.

【0148】これにより、様々に認識・検出対象のサイ
ズを変えて呈示して学習を行わなくても、一回の学習過
程で、複数の異なるサイズ(スケールレベル)の対象に
ついての学習を行ったのと同等な効果を得ることができ
る。
Thus, learning for a plurality of objects of different sizes (scale levels) can be performed in a single learning process without having to perform learning by changing the size of the recognition / detection target in various ways. It is possible to obtain the same effect as the above.

【0149】学習則としては、他の方式を用いてもよ
い。また、競争学習の原理を導入することにより、互いに
所定間隔以上離れてパルスが到着する(時間遅れの差が
所定値以上となる)ようにしてもよい。
As the learning rule, another method may be used. Also, by introducing the principle of competitive learning, the pulses may arrive at a predetermined interval or more apart from each other (the difference in time delay becomes a predetermined value or more).

【0150】以下、特徴検出層で主に行われる処理(学
習時、認識時)について説明する。
Hereinafter, processing mainly performed in the feature detection layer (at the time of learning and recognition) will be described.

【0151】各特徴検出層102においては、前述したよ
うに、各スケールレベルごとに設定される処理チャネル
内において、同一受容野からの複数の異なる特徴に関す
るパルス信号を入力し、時空間的重み付き総和(荷重
和)演算と閾値処理を行う。各特徴量に対応するパルス
は、予め学習により定められた遅延量(位相) により、
所定の時間間隔で到着する。
In each of the feature detection layers 102, as described above, a pulse signal relating to a plurality of different features from the same receptive field is input into a processing channel set for each scale level, A total (load sum) calculation and threshold processing are performed. The pulse corresponding to each feature amount is determined by the delay amount (phase) determined in advance by learning.
Arrives at predetermined time intervals.

【0152】このパルス到着時間パターンの学習制御
は、本願の主眼ではないので詳しくは説明しないが、例
えば、ある図形パターンを構成する特徴要素がその図形
の検出に最も寄与する顕著な特徴であるほど先に到着
し、そのような顕著度がほぼ等しい特徴要素間では、各
特徴要素をパルス信号レベルで区別するため、互いに一
定量だけ時間的に離れて到着するような競争学習を導入
する。或いは、予め決められた特徴要素(認識対象を構
成する特徴要素であって、特に重要と考えられるもの:
例えば、平均曲率の大きい特徴、直線性の高い特徴な
ど)間で異なる時間間隔で到着する様に設計してもよ
い。
The learning control of the pulse arrival time pattern is not the main focus of the present application and will not be described in detail. For example, the more the characteristic elements constituting a certain figure pattern are the most remarkable features contributing to the detection of the figure. In order to distinguish each feature element at a pulse signal level between feature elements arriving earlier and having substantially equal saliency, competitive learning is introduced so that the feature elements arrive at a certain time interval from each other. Alternatively, a predetermined feature element (a feature element constituting a recognition target, which is considered to be particularly important:
For example, it may be designed to arrive at different time intervals between features having a large average curvature, features having high linearity, and the like.

【0153】顕著度は、当該図形が検出されるときの特
徴要素の検出細胞の反応強度(ここでは、パルス遅延
量)等が該当する。この場合、前段の層である特徴統合
層上の同一受容野内の各低次特徴要素に相当するニュー
ロンは、それぞれ所定の位相で同期発火(パルス出力)
することになる。
The saliency corresponds to the reaction intensity (here, the pulse delay amount) of the detected cell of the characteristic element when the figure is detected. In this case, the neurons corresponding to each lower-order feature element in the same receptive field on the feature integration layer, which is the preceding layer, fire synchronously (pulse output) at a predetermined phase.
Will do.

【0154】一般的に、特徴統合層のニューロンであっ
て、位置が異なるが同一の高次の特徴を検出する特徴検
出ニューロンへの結合が存在する(この場合、受容野は
異なるが、高次の同じ特徴を構成する結合を有する)。
この時、これら特徴検出ニューロンとの間で同期発火す
ることはいうまでもない。但し、その出力レベル(ここ
では位相基準とするが、周波数、振幅、パルス幅基準と
なる構成でもよい)は、特徴検出ニューロンの受容野ご
とに与えられる複数ペースメーカニューロンからの寄与
の総和(或いは平均など)によって決まる。また、特徴
検出層102上の各ニューロンにおいては、入力パルスの
時空間的重み付き総和(荷重和)の演算は、ニューロン
に到着したパルス列について、所定幅の時間窓において
のみ行われる。時間窓内の重み付き加算を実現する機構
は、図2に示したニューロン素子回路に限らず、他の方
法で実現してもよいことは言うまでもない。
In general, there is a connection to a feature detection neuron that detects the same higher-order feature at a different position but in the feature integration layer (in this case, the receptive field is different but the higher-order Having the same characteristics of the combination).
At this time, it is needless to say that synchronous firing occurs with these feature detection neurons. However, the output level (here, the phase is used as a reference, but the frequency, the amplitude, and the pulse width may be used as the reference) may be determined by summing (or averaging) contributions from a plurality of pacemaker neurons provided for each receptive field of the feature detection neuron. Etc.). In each neuron on the feature detection layer 102, the calculation of the spatiotemporally weighted sum of the input pulses (sum of weights) is performed only in a time window of a predetermined width for the pulse train that has arrived at the neuron. The mechanism for implementing the weighted addition within the time window is not limited to the neuron element circuit shown in FIG. 2, and it goes without saying that the mechanism may be implemented by another method.

【0155】この時間窓は、実際のニューロンの不応期
(refractory period)以外の時間帯にある程度対応して
いる。即ち、不応期(時間窓以外の時間範囲)にはどのよ
うな入力を受けてもニューロンからの出力はないが、そ
の時間範囲以外の時間窓では入力レベルに応じた発火を
行うという点が実際のニューロンと類似している。
This time window corresponds to the refractory period of the actual neuron.
(refractory period) It corresponds to the time zone to some extent. In other words, there is no output from the neuron regardless of any input during the refractory period (time range other than the time window), but the firing according to the input level occurs in the time window other than that time range. Is similar to the neuron.

【0156】図3の(B)に示す不応期は、特徴検出細
胞の発火直後から次の時間窓開始時刻までの時間帯であ
る。不応期の長さと時間窓の幅は任意に設定可能である
ことはいうまでもなく、同図に示したように、時間窓に
比べて不応期を短くとらなくてもよい。ペースメーカニ
ューロンを使わなくても、時間窓の開始時刻は、特徴検
出層と特徴統合層のニューロン間で、ニューロン間の弱
相互結合と所定の結合条件などにより同期発火するメカ
ニズム(E.M.Izhikevich, 1999 'Weakly Pulse-Coupled
Oscillation, FM Interactions, Synchronization, an
d OscillatoryAssociative Memory' IEEE Trans. on Ne
ural Networks, vol.10. pp.508-526.)を導入すること
により、これらニューロン間で同一となる。この同期発
火は、一般的にニューロン間での相互結合と引き込み現
象によりもたらされることが知られている。
The refractory period shown in FIG. 3B is a time period from immediately after the firing of the feature detection cells to the start of the next time window. Needless to say, the length of the refractory period and the width of the time window can be arbitrarily set, and the refractory period need not be shorter than the time window as shown in FIG. Even without using a pacemaker neuron, the start time of the time window is determined by the mechanism of synchronous firing between the neurons in the feature detection layer and the feature integration layer due to weak mutual coupling between neurons and predetermined coupling conditions (EMIzhikevich, 1999 'Weakly Pulse-Coupled
Oscillation, FM Interactions, Synchronization, an
d OscillatoryAssociative Memory 'IEEE Trans.on Ne
ural Networks, vol.10. pp.508-526.), these neurons are identical. It is known that the synchronous firing is generally caused by a mutual coupling and a pull-in phenomenon between neurons.

【0157】従って、本実施形態においても、ニューロ
ン間の弱相互結合と所定のシナプス結合条件を満たすよ
うに構成することにより、ペースメーカニューロンなし
で、このような効果をもたらすことができる。
Therefore, also in the present embodiment, such an effect can be obtained without a pacemaker neuron by configuring so as to satisfy the weak mutual connection between neurons and a predetermined synaptic connection condition.

【0158】本実施形態では、図6に模式的に示すよう
に、既に説明したメカニズムとして、例えば各特徴検出
層ニューロンごとに、その同一受容野からの入力を受け
るようなペースメーカニューロン(固定周波数でパルス
出力)によるタイミング情報(クロックパルス)の入力
により、上述した開始時期の共通化をもたらすようにし
てもよい。
In the present embodiment, as schematically shown in FIG. 6, as the mechanism already described, for example, a pacemaker neuron (for a fixed frequency) receiving an input from the same receptive field for each feature detection layer neuron By inputting timing information (clock pulse) based on (pulse output), the above-described common start timing may be provided.

【0159】このように構成した場合には、時間窓の同
期制御は(仮に必要であったとしても)ネットワーク全
体にわたって行う必要が無く、また、上記したようなク
ロックパルスの揺らぎ、変動があっても、局所的な同一
受容野からの出力に対して一様にその影響を受ける(窓
関数の時間軸上での位置の揺らぎは同一受容野を形成す
るニューロン間で同一となる)ので、特徴検出の信頼性
は劣化することはない。このような局所的な回路制御に
より信頼度の高い同期動作を可能にするため、回路素子
パラメータに関するばらつきの許容度も高くなる。
In the case of such a configuration, it is not necessary to perform the synchronization control of the time window (if it is necessary) over the entire network, and there is a fluctuation and fluctuation of the clock pulse as described above. Is also uniformly affected by the output from the local receptive field (the fluctuation of the position of the window function on the time axis is the same between neurons forming the same receptive field). The reliability of detection does not degrade. Since a highly reliable synchronous operation is enabled by such local circuit control, the tolerance of variation regarding circuit element parameters is also increased.

【0160】以下、簡単のために、三角形を特徴として
検出する特徴検出ニューロンについて説明する。その前
段の特徴統合層103は、図7の(C)に示すような各種
向きを持ったL字パターン(f11, f12, …, )、L字パタ
ーンとの連続性(連結性)を有する線分の組み合わせパ
ターン(f21, f22,…)、三角形を構成する2辺の一部の
組み合わせ(f31,…)、などのような図形的特徴(特徴要
素)に反応するものとする。
Hereinafter, for the sake of simplicity, a feature detecting neuron that detects a triangle as a feature will be described. The feature integration layer 103 at the preceding stage has L-shaped patterns (f 11 , f 12 ,...) Having various orientations as shown in FIG. 7C, and continuity (connectivity) with the L-shaped pattern. Those that respond to graphical features (feature elements) such as a combination pattern (f 21 , f 22 ,...) Of the line segments, and a combination (f 31 ,. I do.

【0161】また、同図のf41,f42,f43は、向きの異な
る三角形を構成する特徴であって、f 11,f12,f13に対応
する特徴を示している。学習により層間結合をなすニュ
ーロン間に固有の遅延量が設定された結果、三角形の特
徴検出ニューロンにおいては、時間窓を分割して得られ
る各サブ時間窓(タイムスロット)(w1,w2,…)におい
て、三角形を構成する主要かつ異なる特徴に対応するパ
ルスが到着するように予め設定がなされる。
Also, in FIG.41, f42, f43Has a different orientation
Feature that constitutes a triangle 11, f12, f13Compatible with
The following shows the features to be performed. New layer connection by learning
The characteristic delay amount is set between the
In the sign detection neuron, the time window is divided
Sub time window (time slot) (w1, wTwo,…)smell
Corresponding to the main and different features that make up the triangle.
The setting is made in advance so that Luz arrives.

【0162】例えば、時間窓をn分割した後のw1, w2,
…、wnには、図7の(A)に示す如く、全体として三角形
を構成するような特徴のセットの組み合わせに対応する
パルスが初めに到着する。ここに、L字パターン(f11,
f12, f13)は、それぞれw1,w2,w3内に到着し、特徴要素
(f21,f22,f23)に対応するパルスは、それぞれw1, w2,w3
内に到着するように学習により遅延量が設定されてい
る。
For example, w 1 , w 2 ,
..., the w n, as shown in FIG. 7 (A), pulses corresponding to the combination of a set of features as constituting a triangle as a whole arrive first. Here, the L-shaped pattern (f 11 ,
f 12 , f 13 ) arrive within w 1 , w 2 , w 3 respectively, and the feature element
pulse corresponding to (f 21, f 22, f 23) , respectively w 1, w 2, w 3
The amount of delay is set by learning so as to arrive within.

【0163】特徴要素(f31,f32,f33)に対応するパルス
も同様の順序で到着する。図7の(A)の場合、一つのサ
ブ時間窓(タイムスロット)にそれぞれ一つの特徴要素
に対応するパルスが到着する。サブ時間窓に分割する意
味は、各サブ時間窓で時間軸上に展開表現された異なる
特徴要素に対応するパルスの検出(特徴要素の検出)を
個別にかつ確実に行うことにより、それらの特徴を統合
する際の統合の仕方、例えば、すべての特徴要素の検出
を条件とするか、或いは一定割合の特徴検出を条件とす
るか等の処理モードの変更可能性や適応性を高めること
にある。
The pulses corresponding to the characteristic elements (f 31 , f 32 , f 33 ) arrive in the same order. In the case of FIG. 7A, a pulse corresponding to one characteristic element arrives in one sub time window (time slot). The meaning of dividing into sub-time windows is that, by performing pulse detection (detection of characteristic elements) corresponding to different characteristic elements developed and expressed on the time axis in each sub-time window individually and reliably, those characteristics are obtained. The purpose of the present invention is to increase the changeability and adaptability of the processing mode, such as whether the conditions of all feature elements are to be detected or a certain percentage of features are to be detected. .

【0164】例えば、認識(検出)対象が顔であり、そ
れを構成するパーツである目の探索(検出)が重要であ
るような状況(目のパターン検出の優先度を視覚探索に
おいて高く設定したい場合)においては、高次の特徴検
出層からのフィードバック結合を導入することにより、
選択的に目を構成する特徴要素パターンに対応する反応
選択性(特定の特徴の検出感度)を高めたりすることが
できる。このようにすることにより、高次の特徴要素
(パターン) を構成する低次の特徴要素により高い重
要度を与えて検出することができる。
For example, in a situation where the recognition (detection) target is a face and the search (detection) of the eyes, which is a part of the face, is important (the eye pattern detection priority should be set high in the visual search). Case), by introducing feedback coupling from higher order feature detection layers,
It is possible to selectively enhance the reaction selectivity (detection sensitivity of a specific feature) corresponding to the feature element pattern constituting the eye. By doing so, it is possible to give higher importance to lower-order feature elements constituting higher-order feature elements (patterns) and detect them.

【0165】また、重要な特徴ほど早いサブ時間窓にパ
ルスが到着するように、予め設定されているとすると、
当該サブ時間窓での重み関数値が他のサブ時間窓での値
より大きくすることにより、重要度の高い特徴ほど検出
されやすくすることができる。この重要度(特徴間の検
出優先度)は、学習により獲得されるか、予め定義して
おくこともできる。
Further, if it is set in advance that a pulse arrives in a sub-time window earlier as important features,
By making the weighting function value in the sub-time window larger than the value in the other sub-time windows, a feature having a higher importance can be more easily detected. The importance (detection priority between features) can be obtained by learning or can be defined in advance.

【0166】従って、一定割合の特徴要素の検出という
事象さえ起きればよいのであれば、サブ時間窓への分割
は殆ど意味が無くなり、一つの時間窓において行えばよ
い。
Therefore, as long as the event of detecting a certain percentage of characteristic elements only needs to occur, the division into sub-time windows is almost meaningless, and may be performed in one time window.

【0167】なお、複数(3つ)の異なる特徴要素に対
応するパルスがそれぞれ到着して加算されるようにして
もよい(図7の(D)参照)。即ち、一つのサブ時間窓
(タイムスロット)に複数の特徴要素(図7の(D))、
或いは任意の数の特徴要素に対応するパルスが入力され
ることを前提としてもよい。この場合、図7の(D)で
は、初めのサブ時間窓では、三角形の頂角部分f11の検
出を支持する他の特徴要素f21、f23に対応するパルス
が到着し、同様に2番目のサブ時間窓には頂角部分f12
の検出を支持するような他の特徴要素f22、f31のパル
スが到着している。
Note that pulses corresponding to a plurality of (three) different characteristic elements may arrive and be added (see FIG. 7D). That is, one sub time window
(Time slot) includes a plurality of characteristic elements ((D) in FIG. 7),
Alternatively, it may be assumed that pulses corresponding to an arbitrary number of characteristic elements are input. In this case, in FIG. 7 (D), in the first sub-time window, pulses corresponding to the other feature elements f 21 and f 23 that support the detection of the apex portion f 11 of the triangle arrive, and similarly, 2 In the second sub-time window, the vertex angle part f 12
The pulses of other feature elements f 22 and f 31 have arrived that support the detection of.

【0168】なお、サブ時間窓(タイムスロット)への
分割数、各サブ時間窓(タイムスロット)の幅および特
徴のクラスおよび特徴に対応するパルスの時間間隔の割
り当てなどは上述した説明に限らず、変更可能であるこ
とはいうまでもない。例えば、上述した特徴要素の他
に、'X','+'等の特徴要素に対応するサブ時間窓を設
定してもよい。三角形の図形検出には、このような特徴
要素は冗長(又は不要)ともいえるが、逆に、これらが存
在しないことを検出することにより、三角形という図形
パターンの検出確度を高めることができる。
The number of divisions into sub-time windows (time slots), the width of each sub-time window (time slot), the class of the feature, and the assignment of the pulse time interval corresponding to the feature are not limited to those described above. Needless to say, it can be changed. For example, a sub-time window corresponding to a feature element such as 'X' or '+' may be set in addition to the above-described feature element. Such feature elements can be said to be redundant (or unnecessary) in the detection of a figure of a triangle, but conversely, the detection accuracy of a figure pattern of a triangle can be increased by detecting that they do not exist.

【0169】また、これら特徴要素の組み合わせでは表
されないような変形を加えた場合(例えば、一定範囲内
の回転を与えた場合)に対しても、上記特徴要素を表す
特徴統合層のニューロンの出力パルスは、理想的なパタ
ーンからのずれの程度に応じた連続的な位相遅れ(遅延
量:但し、予め定めたサブ時間窓(タイムスロット)に
パルスが到着する範囲)をもって反応する(いわゆるgra
ceful degradation)ため、検出される図形特徴の変形
に対する許容範囲が一定レベル以上になるよう出力の安
定化が図られている。例えば、図7の(C)に示す特徴
11、f12、f13に対応する特徴により形成される三角
形(Q1)と、f41、f42、f43に対応する特徴により
形成される三角形(Q2)とでは、少なくとも向きが互
いに異なっている筈である。
Even when a deformation not represented by a combination of these characteristic elements is applied (for example, when rotation within a certain range is given), the output of the neuron of the characteristic integration layer representing the above-mentioned characteristic element is obtained. The pulse responds with a continuous phase delay (delay amount: a range in which the pulse arrives in a predetermined sub-time window (time slot)) according to the degree of deviation from the ideal pattern (so-called “gra”).
For this reason, the output is stabilized so that the allowable range for the deformation of the detected graphic feature becomes a certain level or more. For example, the triangle formed by the features corresponding to the triangle (Q1) which is formed by the features corresponding to the features f 11, f 12, f 13 shown in (C) of FIG. 7, f 41, f 42, f 43 In (Q2), at least the directions should be different from each other.

【0170】この場合、各特徴に対応する検出(統合)
細胞が存在するとき、両三角形の中間的な向きに相当す
る三角形(Q3)に対しては、f11、f12、f13に対応
する検出(統合)細胞とf41、f42、f43に対応する検出
(細胞)とは、いずれも最大応答出力より低く、直接的
には特徴の種類に応じて決まる受容野構造としてのフィ
ルタカーネルとの畳み込み演算値に応じた出力レベルと
なり、これら全ての細胞からの出力としてのベクトル量
は中間的な図形に固有なものとして統合すると、2つの
三角形の状態の中間的な図形(回転を与えた場合)の検
出が可能になる。
In this case, detection (integration) corresponding to each feature
When cells are present, for a triangle (Q3) corresponding to an intermediate orientation of the two triangles, f 11, f 12, f 13 corresponding to the detection (integration) cells and f 41, f 42, f 43 The detection (cells) corresponding to the above are all lower than the maximum response output, and are directly at the output level according to the convolution operation value with the filter kernel as the receptive field structure determined according to the type of feature. If the vector quantity as an output from the cell is integrated as being unique to the intermediate figure, it is possible to detect an intermediate figure (when rotated) in the state of two triangles.

【0171】例えば、定性的には、回転角度が小さく、
Q1に近いほどf11、f12、f13に対応する細胞からの
出力が相対的に大きく、逆にQ2に近いほどf41
42、f 43に対応する細胞からの出力が大きくなる。
For example, qualitatively, the rotation angle is small,
F closer to Q111, F12, F13From cells corresponding to
The output is relatively large, and conversely, the closer it is to Q2, the more f41,
f42, F 43The output from the cell corresponding to is increased.

【0172】次に入力パルスの時空間的重み付き総和
(荷重和)の演算について説明する。図7の(B)に示
す如く、各ニューロンでは、上記サブ時間窓(タイムス
ロット)毎に所定の重み関数(例えばGaussian)で入力
パルスの荷重和がとられ、各荷重和の総和が閾値と比較
される。τjはサブ時間窓jの重み関数の中心位置を表
し、時間窓の開始時刻基準(開始時間からの経過時間)
で表す。重み関数は一般に所定の中心位置(検出予定の
特徴が検出された場合のパルス到着時間を表す)からの
距離(時間軸上でのずれ)の関数になる。
Next, the calculation of the spatiotemporally weighted sum of input pulses (sum of weights) will be described. As shown in FIG. 7B, in each neuron, the weighted sum of the input pulses is calculated by a predetermined weighting function (for example, Gaussian) for each of the sub-time windows (time slots), and the sum of the weighted sums is a threshold value. Be compared. τ j represents the center position of the weighting function of the sub time window j, and is based on the start time of the time window (elapsed time from the start time)
Expressed by The weight function is generally a function of a distance (shift on a time axis) from a predetermined center position (representing a pulse arrival time when a feature to be detected is detected).

【0173】従って、ニューロンの各サブ時間窓(タイ
ムスロット)の重み関数のピーク位置τが、ニューロン
間の学習後の時間遅れとすると、入力パルスの時空間的
重み付き総和(荷重和)を行う神経回路網は、一種の時
間軸ドメインの動径基底関数ネットワーク(Radial Bas
is Function Network;以下RBFと略す)と見なすこ
とができる。Gaussian関数の重み関数を用いたニューロ
ンniの時間窓FTiは、各サブ時間窓毎の広がりをσ、係
数因子(シナプス結合荷重値に相当)をbijで表すと、
Therefore, assuming that the peak position τ of the weight function of each sub-time window (time slot) of a neuron is a time delay after learning between neurons, a spatiotemporally weighted sum of input pulses (weighted sum) is performed. Neural networks are a kind of time-domain radial basis function network (Radial Bass Network).
is Function Network; hereinafter abbreviated as RBF). The time window F Ti of the neuron n i using the weight function of the Gaussian function is expressed as σ and the coefficient factor (equivalent to the synaptic connection weight value) of each sub-time window as b ij .

【0174】[0174]

【外9】 [Outside 9]

【0175】なお、重み関数としては、負の値をとるも
のであってもよい。例えば、ある特徴検出層のニューロ
ンが三角形を最終的に検出することが予定されている場
合に、その図形パターンの構成要素でないことが明らか
な特徴(Ffaulse)(例えば、前述した'X','+'等)
が検出された場合には、他の特徴要素からの寄与が大き
くても三角形の検出出力が最終的になされないように、
入力の総和値算出処理において、当該特徴(Ffaulse
に対応するパルスからは、負の寄与を与えるような重み
関数及び特徴検出(統合)細胞からの結合を与えておくこ
とができる。
The weight function may take a negative value. For example, when a neuron of a certain feature detection layer is to finally detect a triangle, a feature (F faulse ) that is clearly not a component of the figure pattern (for example, “X”, '+' Etc.)
Is detected, the detection output of the triangle is not finally made even if the contribution from other feature elements is large,
In the input sum calculation processing, the characteristic (F faulse )
Can be given a weighting function that gives a negative contribution and a coupling from the feature detection (integrated) cells.

【0176】特徴検出層のニューロンniへの入力信号の
時空間和Xi(t)は、
[0176] space sum when the input signal to the neuron n i of the feature detection layer X i (t) is

【0177】[0177]

【外10】 と表せる。ここに、εjは、ニューロンnjからの出力パ
ルスの初期位相であり、ニューロンniとの同期発火によ
り、0に収束するか、又はペースメーカニューロンから
のタイミングパルス入力により、時間窓の位相を0に強
制同期する場合には、εjは常に0としてよい。図7の
(A)のパルス入力と同(B)に示す重み関数による荷
重和とを実行すると、図7の(E)に示すような荷重和
値の時間的遷移が得られる。特徴検出ニューロンは、こ
の荷重和値が閾値(Vt)に達するとパルス出力を行う。
[Outside 10] Can be expressed as Here, ε j is the initial phase of the output pulse from the neuron n j , and converges to 0 by synchronous firing with the neuron n i , or changes the phase of the time window by the timing pulse input from the pacemaker neuron. When forcibly synchronizing to 0, ε j may always be 0. When the pulse input of FIG. 7A and the weighted sum by the weight function shown in FIG. 7B are executed, a temporal transition of the weighted sum value as shown in FIG. 7E is obtained. The feature detection neuron outputs a pulse when the weighted sum reaches a threshold value (Vt).

【0178】ニューロンniからの出力パルス信号は、前
述したように、入力信号の時空間和(いわゆる総入力
和)のsquashing非線形関数となる出力レベルと学習に
より与えられた時間遅れ(位相)をもって、上位層のニ
ューロンに出力される(パルス出力は固定周波数(2値)
とし、学習によって決まる固定遅延量に相当する位相
に、入力信号の時空間和についてのsquashing非線形関
数となる位相変調量を加えて出力される)。
[0178] The output pulse signal from the neuron n i, as described above, with the spatio-temporal sum squashing nonlinear function to become an output level and time delay given by learning (the so-called total input sum) of the input signal (phase) , Output to the upper layer neuron (pulse output is fixed frequency (binary)
Then, a phase modulation amount serving as a squashing nonlinear function for the spatiotemporal sum of the input signal is added to a phase corresponding to a fixed delay amount determined by learning, and the resultant is output).

【0179】図8は、上述した各層の処理手順を示すフ
ローチャートである。低次特徴検出から高次特徴検出ま
での処理の流れをまとめて示すと、同図のようになる。
先ず、ステップS801で、低次特徴検出(例えば、各位置
でのGabor wavelet変換係数の算出など)を行なう。次
に、ステップS802で、それらの特徴の局所平均化等を行
う低次特徴の統合処理を行う。更に、ステップS803〜80
4で中次特徴の検出と統合、ステップS805〜806で高次特
徴の検出と統合を行う。そして、ステップS807では、最
終層の出力として、認識(検出)対象の有無またはその検
出位置出力が行われる。ステップS803〜804とS805〜806
に割り当てる層数は、課題(認識対象など)に応じて任
意に設定又は変更することができる。
FIG. 8 is a flowchart showing the processing procedure of each layer described above. The flow of processing from low-order feature detection to high-order feature detection is summarized as shown in FIG.
First, in step S801, low-order feature detection (for example, calculation of a Gabor wavelet transform coefficient at each position) is performed. Next, in step S802, low-order feature integration processing for performing local averaging of those features and the like is performed. Further, steps S803 to 80
In step S4, detection and integration of secondary features are performed. In steps S805 to S806, detection and integration of high-order features are performed. Then, in step S807, the presence or absence of a recognition (detection) target or the detection position output is performed as the output of the final layer. Steps S803-804 and S805-806
Can be arbitrarily set or changed according to the task (such as a recognition target).

【0180】図9は、各特徴検出ニューロン602の処理
の手順を示すフローチャートである。まず、ステップS9
01で、複数の特徴カテゴリに応じたパルスを、前層であ
る入力層101または特徴統合層103において同一受容野10
5を形成するニューロン601から入力を受け、ステップS9
02で、ペースメーカニューロン603から入力される(又
は前層ニューロンとの相互作用により得られる)局所同
期信号に基づき、時間窓及び重み関数を発生させ、ステ
ップS903で、それぞれについての所定の時間的重み関数
による荷重和をとり、ステップS904で、閾値に達したか
否かの判定を行い、閾値に達した場合には、ステップS9
05で、パルス出力を行う。なお、ステップS902と903は
時系列的に示したが、実際にはほぼ同時に行われる。
FIG. 9 is a flowchart showing the processing procedure of each feature detection neuron 602. First, step S9
In 01, a pulse corresponding to a plurality of feature categories is applied to the same receptive field 10 in the input layer 101 or the feature integration layer 103 as the preceding layer.
Step S9: receiving input from the neuron 601 forming 5
In step 02, a time window and a weighting function are generated based on a local synchronization signal input from the pacemaker neuron 603 (or obtained by interaction with a preceding layer neuron). The sum of the weights by the function is obtained, and it is determined in step S904 whether or not the threshold has been reached.
At 05, pulse output is performed. Although steps S902 and S903 are shown in time series, they are actually performed almost simultaneously.

【0181】また、各特徴統合ニューロンの処理の手順
は、図10のフローチャートに示す通りである。すなわ
ち、ステップS1001において、同一カテゴリをなす特徴
検出の処理モジュール104であって、当該ニューロンに
固有の局所受容野をなす特徴検出ニューロンからのパル
ス入力を受け、ステップS1002で、所定の時間幅(不応
期以外の時間範囲)において入力パルスの加算を行う。
ステップS1003で、入力パルスの総和値(例えば、電位
基準で測る)が閾値に達したか否かの判定を行ない、閾
値に達した場合、ステップS1004で、その総和値に応じ
た位相でパルス出力をする。
The processing procedure of each feature integration neuron is as shown in the flowchart of FIG. That is, in step S1001, a pulse is input from the feature detection processing module 104 in the same category, which is a feature detection neuron that forms a local receptive field specific to the neuron. Input pulses are added in a time range other than the initial period.
In step S1003, a determination is made as to whether the total value of the input pulses (measured on the basis of potential, for example) has reached a threshold value. If the threshold value has been reached, in step S1004, a pulse is output at a phase corresponding to the total value. do.

【0182】入力パルスは空間ドメインの各位置での特
徴(或いは、特徴要素の空間的配置関係)に対応するも
のであるから、時空間的RBFを構成することも可能で
ある。
Since the input pulse corresponds to the feature at each position in the spatial domain (or the spatial arrangement relationship of the feature element), it is possible to form a spatio-temporal RBF.

【0183】具体的には、各ニューロン出力値に対して
更に重み付けを行って加算を行うことにより、十分な数
の予め定められた特徴要素のセット(特徴検出細胞)お
よび十分な数のサブ時間窓(タイムスロット)での重み
付き総和(荷重和)の演算とから任意の図形パターンに
対応するパルスパターンの時空間関数を表現することが
できる。認識対称のカテゴリ及びその形状の変化がある
程度限られていれば、必要な特徴検出細胞やサブ時間窓
(タイムスロット)の数を少なくすることができる。
More specifically, each neuron output value is further weighted and added to obtain a sufficient number of predetermined feature element sets (feature detection cells) and a sufficient number of sub-time values. A spatio-temporal function of a pulse pattern corresponding to an arbitrary figure pattern can be expressed by calculating a weighted sum (load sum) in a window (time slot). If the category of recognition symmetry and its shape change are limited to some extent, necessary feature detection cells and sub-time windows
(Time slots) can be reduced.

【0184】本実施形態では、共通バスは同一受容野に
対して一つ割り当てられるような局所的なバスラインと
したが、これに限らず、ある層から次の層への層間結合
は同一バスラインで行うように、時間軸上でパルス位相
遅延量を分割設定してもよい。また、重なり割合が比較
的大きい隣接受容野間では、共通のバスラインを用いる
ように構成しても良い。
In this embodiment, the common bus is a local bus line which is assigned to the same receptive field. However, the present invention is not limited to this. As in the case of the line, the pulse phase delay amount may be divided and set on the time axis. In addition, a common bus line may be used between adjacent receptive fields having a relatively large overlapping ratio.

【0185】なお、上述した時空間的RBFによらず
に、各サブ時間窓(タイムスロット)内での重み付き積
和演算の結果が非線形なsquashing関数値となるように
処理(或いは、閾値処理)して、それらの積をとっても
よい。例えば、不図示の回路構成により、閾値処理結果
(2値)を各サブ時間窓ごとに得て、一時記憶部に格納す
るとともに、順次求まる閾値処理結果の論理積を時系列
的に求めるようにすればよい。
It is to be noted that the processing (or the threshold processing) is performed so that the result of the weighted product-sum operation in each sub-time window (time slot) becomes a non-linear squashing function value without using the above-mentioned spatiotemporal RBF. ) And take the product of them. For example, a threshold processing result is obtained by a circuit configuration (not shown).
(Binary) may be obtained for each sub-time window and stored in the temporary storage unit, and the logical product of the threshold processing results sequentially obtained may be obtained in a time-series manner.

【0186】閾値処理して積をとる場合には、パターン
の欠損や低コントラスト条件下での特徴検出の許容度が
小さくなることは言うまでもない。
When the product is obtained by performing the threshold processing, it goes without saying that the tolerance of feature detection under pattern loss or low contrast conditions is reduced.

【0187】また、上述した処理(時空間的RBFによ
る図形パターンの検出)は、連想記憶の想起過程に類似
する動作として実現することもできる。即ち、ある局所
領域(または全体領域)で検出されるべき低次(または
中次)の特徴要素の欠損が生じても、他の幾つかの特徴
要素が検出され、上記総和値(式(14))が閾値を上
回れば、時空間RBFネットワーク全体としては、中次
(または高次)の特徴要素の検出(該当するニューロン
の発火)が行われる様にすることができる。
The above-described processing (detection of a graphic pattern by spatiotemporal RBF) can also be realized as an operation similar to the associative memory recall process. That is, even if a defect of a low-order (or medium-order) feature element to be detected in a certain local area (or entire area) occurs, some other feature elements are detected, and the sum value (expression (14) If)) exceeds the threshold value, it is possible to detect a medium-order (or higher-order) feature element (fire the corresponding neuron) in the entire spatiotemporal RBF network.

【0188】ネットワークの構成としては、図1に示し
たものに限定される必要はなく、所定の幾何学的特徴要
素を検出する層を含む構成であればMLPその他のもの
であってもよいことはいうまでもない。
The configuration of the network need not be limited to that shown in FIG. 1, but may be MLP or any other configuration as long as it includes a layer for detecting a predetermined geometric characteristic element. Needless to say.

【0189】本実施形態では、低次特徴抽出のためにGa
bor wavelet変換を用いたが、他の多重スケール特徴(例
えば、スケールに比例するサイズで求めた局所自己相関
係数など)を用いてもよいことは言うまでもない。
In this embodiment, Ga is used for low-order feature extraction.
Although the bor wavelet transform is used, it goes without saying that other multi-scale features (for example, a local autocorrelation coefficient obtained with a size proportional to the scale) may be used.

【0190】次に、本実施形態の構成に係るパターン検
出(認識)装置を撮像装置に搭載させることにより、特
定被写体へのフォーカシングや特定被写体の色補正、露
出制御を行う場合について、図11を参照して説明す
る。図11は、実施形態に係るパターン検出(認識)装
置を撮像装置に用いた例の構成を示す図である。
Next, FIG. 11 shows a case in which focusing on a specific subject, color correction of the specific subject, and exposure control are performed by mounting the pattern detection (recognition) device according to the configuration of the present embodiment in the imaging device. It will be described with reference to FIG. FIG. 11 is a diagram illustrating a configuration of an example in which the pattern detection (recognition) device according to the embodiment is used for an imaging device.

【0191】図11の撮像装置1101は、撮影レンズおよ
びズーム撮影用駆動制御機構を含む結像光学系1102、CC
D又はCMOSイメージセンサー1103、撮像パラメータ
の計測部1104、映像信号処理回路1105、記憶部1106、撮
像動作の制御、撮像条件の制御などの制御用信号を発生
する制御信号発生部1107、EVFなどファインダーを兼ね
た表示ディスプレイ1108、ストロボ発光部1109、記録媒
体1110などを具備し、更に上述したパターン検出装置を
被写体検出(認識)装置1111として備える。
An imaging device 1101 shown in FIG. 11 includes an imaging optical system 1102 including a photographing lens and a drive control mechanism for zoom photographing,
D or CMOS image sensor 1103, imaging parameter measurement unit 1104, video signal processing circuit 1105, storage unit 1106, control signal generation unit 1107 that generates control signals such as control of imaging operation, control of imaging conditions, and viewfinders such as EVF And a recording medium 1110, and the above-described pattern detection device is provided as a subject detection (recognition) device 1111.

【0192】この撮像装置1101は、例えば撮影された映
像中から予め登録された人物の顔画像の検出(存在位
置、サイズの検出)を被写体検出(認識)装置1111により
行う。そして、その人物の位置、サイズ情報が被写体検
出(認識)装置1111から制御信号発生部1107に入力される
と、同制御信号発生部1107は、撮像パラメータ計測部11
04からの出力に基づき、その人物に対するピント制御、
露出条件制御、ホワイトバランス制御などを最適に行う
制御信号を発生する。
The image pickup apparatus 1101 performs detection of a face image of a person registered in advance (detection of the position and size of a person) from a captured video by a subject detection (recognition) apparatus 1111. When the position and size information of the person is input from the subject detection (recognition) device 1111 to the control signal generation unit 1107, the control signal generation unit 1107
Focus control for that person based on the output from 04,
A control signal for optimally controlling exposure condition control, white balance control, and the like is generated.

【0193】上述したパターン検出(認識)装置を、この
ように撮像装置に用いた結果、被写体距離の違いによ
り、画面内での被写体サイズがさまざまに異なる場合で
も、当該被写体を確実に検出(認識)することができ、そ
のような機能を低消費電力かつ高速(リアルタイム)に
実現して、人物等の検出とそれに基づく撮影の最適制御
(AF、AEなど)を行うことができるようになる。
As a result of using the above-described pattern detection (recognition) device for an image pickup device, even if the size of the subject on the screen varies due to the difference in subject distance, the subject can be reliably detected (recognized). ), Realizing such a function with low power consumption and high speed (real time), and performing optimal control (AF, AE, etc.) of the detection of a person and the like based on the detection.

【0194】なお、図1に示すようなネットワーク構成
のもとで、パルス幅(アナログ値)変調動作を行うシナプ
ス素子と、実施形態1に示したようなintegrate-and-fi
reニューロンで構成されるネットワークにより、図形パ
ターン等の認識を行ってもよい。この場合、シナプスに
よる変調は、シナプス前信号のパルス幅とシナプス後の
パルス幅をそれぞれ、Wb,WaとするとWa = SijWbで与え
られる。ここで、Sijは実施形態1の結合強度(式
(9))と同じ意味である。変調のダイナミックレンジ
を大きくとる為には、パルス信号の基本パルス幅を周期
(基本パルス間隔)と比べて十分に小さくとる必要があ
る。
Note that, under the network configuration shown in FIG. 1, a synapse element that performs a pulse width (analog value) modulation operation is integrated with an integrated-and-fi as shown in the first embodiment.
Recognition of a figure pattern or the like may be performed by a network constituted by re-neurons. In this case, modulation by synaptic each pulse width and the pulse width of the postsynaptic the presynaptic signal, W b, is given by W a = S ij W b when the W a. Here, S ij has the same meaning as the coupling strength (Equation (9)) in the first embodiment. In order to increase the dynamic range of the modulation, it is necessary to make the basic pulse width of the pulse signal sufficiently smaller than the period (basic pulse interval).

【0195】ニューロンの発火(パルス出力)は、所定
の特徴要素を表す複数のパルス電流の流入に伴う電荷の
蓄積により、電位が所定の閾値を越したときに生じる。
本実施形態においては、サブ時間窓ごとの到着パルスの
重み付き加算は特に要さないが、所定の幅の時間窓での
積分は実行される。この場合、検出されるべき特徴要素
(図形パターン)は、特徴検出層ニューロンに入力され
る信号の時間的総和(パルス電流値の総和)のみに依存
する。また、入力パルスの幅は重み関数の値に相当する
ものである。
The firing (pulse output) of the neuron occurs when the potential exceeds a predetermined threshold value due to accumulation of electric charges accompanying the inflow of a plurality of pulse currents representing predetermined characteristic elements.
In the present embodiment, weighted addition of arrival pulses for each sub time window is not particularly required, but integration is performed in a time window having a predetermined width. In this case, the feature element (figure pattern) to be detected depends only on the temporal sum of the signals input to the feature detection layer neurons (sum of the pulse current values). The width of the input pulse corresponds to the value of the weight function.

【0196】<第2の実施形態>本実施形態では、スケ
ールレベルの異なる特徴表現及び前述したような集団的
符号化を低次特徴に限って行い、各特徴に関するパルス
位相変調などにより、スケール不変な特徴表現を得て、
中次および高次の特徴検出は、このスケール不変な特徴
表現ドメインで行う。
<Second Embodiment> In this embodiment, feature representations with different scale levels and collective encoding as described above are performed only for lower-order features, and scale-invariant by pulse phase modulation for each feature. Characteristic expression,
Medium- and high-order feature detection is performed in this scale-invariant feature expression domain.

【0197】即ち、特徴統合層(2,0)までは、実施形態
1と共通の構造を持ち、その後続部に本実施形態に特有
の低次特徴に関するスケール不変な信号変換、及び特徴
検出層(1,1)以降でのスケール不変な特徴表現に関する
中次から高次への特徴検出と統合処理が行われる。この
ように構成することにより、実施形態1に示したような
複数の処理チャネルを中次、高次まで有する構成を用い
ずに、スケール不変な認識性能を保持しながら、回路構
成の簡素化、規模の小型化、更には低消費電力化がもた
らされる。
That is, the structure up to the feature integration layer (2,0) has the same structure as that of the first embodiment, and the succeeding portion has a scale-invariant signal conversion related to lower-order features unique to the present embodiment, and a feature detection layer. From (1,1) onwards, feature detection and integration processing from middle to higher order for scale-invariant feature expressions are performed. With this configuration, it is possible to simplify the circuit configuration while maintaining scale-invariant recognition performance without using a configuration having a plurality of processing channels up to the middle and high orders as shown in the first embodiment. This leads to a reduction in size and a reduction in power consumption.

【0198】図18は、本実施形態で用いるネットワー
ク構成を示す図である。具体的には、特徴検出層(1,k)
(kは自然数)では、(1,0)層で抽出されるGabor wavelet
変換等による特徴より高次の特徴が検出されるが、図1
8に示すごとく、(1,1)層以降では処理チャネルの違い
は回路構成上は物理的に区別を無くすることができる。
FIG. 18 is a diagram showing a network configuration used in the present embodiment. Specifically, the feature detection layer (1, k)
In (k is a natural number), Gabor wavelet extracted in (1,0) layer
Although higher-order features are detected than those obtained by conversion, etc., FIG.
As shown in FIG. 8, in the (1,1) layer and subsequent layers, differences in processing channels can be physically distinguished in terms of circuit configuration.

【0199】図18において、Sk,mは(1,0)層において
検出され、スケールレベルがmでk番めの特徴カテゴリ
を表し、Ck,mは(2,0)層において統合され、スケールレ
ベルがmでk番めの特徴カテゴリを表す。(1,1)層以降で
は検出及び統合される特徴カテゴリにはスケールレベル
のインデックスが付与されていない。
In FIG. 18, S k, m is detected in the (1,0) layer, the scale level is m, representing the k-th feature category, and C k, m is integrated in the (2,0) layer. , Represents the k-th feature category with a scale level of m. From the (1,1) layer, the feature level to be detected and integrated is not assigned a scale level index.

【0200】図20は、信号列の遷移を示す図である。
パルス位相変調により、スケール不変な情報表現を得る
ための前提条件としては、異なる処理チャネル間では時
間軸上異なる位置に、かつ異なる処理チャネルに属する
パルス信号が混在しないよう図18のパルス位相変換部
1701により、いったん位相変換を行い(図20の
(A))、更にスケール不変信号変換部1702によりスケ
ール不変なパルス信号列を得て、特徴統合層(2,0)から
のパルス列を特徴検出層(1,1)のニューロンに到着させ
る。
FIG. 20 is a diagram showing transition of a signal sequence.
As a precondition for obtaining a scale-invariant information expression by pulse phase modulation, a pulse phase conversion unit shown in FIG. 18 is used so that pulse signals belonging to different processing channels at different positions on the time axis and belonging to different processing channels are not mixed.
Phase conversion is performed once by 1701 (FIG. 20A), and a scale-invariant pulse signal train is obtained by a scale-invariant signal conversion unit 1702, and the pulse train from the feature integration layer (2,0) is converted into a feature detection layer. Arrival at (1,1) neuron.

【0201】具体的には、同一の低次特徴カテゴリであ
って異なるスケールレベルの処理チャネル間(以下、
「同特徴−異スケール」と称す)では、特徴検出細胞に
到達する際、所定のパルス間隔パターンで表されるよう
に、予め上述したごとき自己組織化等の学習規則(位相
遅延量の自己組織化)が設定されていればよい。例え
ば、同特徴−異スケールの場合には、低次特徴検出での
処理チャネルの違い(異スケール性)は、学習プロセス
の結果、上記特徴検出細胞への入力パルス間隔の比が同
一であるが時間軸方向のスケーリングが異なるパターン
として、或いはパルス間隔の絶対値がスケールレベルに
応じて異なる位相オフセット値となるパターンとして表
されるように構成する。
More specifically, between processing channels of the same low-order feature category but of different scale levels (hereinafter, referred to as processing channels).
In the “same feature-different scale”, when reaching the feature detection cell, a learning rule such as the self-organization described above (self-organization of the phase delay amount) as described above is represented by a predetermined pulse interval pattern. ) May be set. For example, in the case of the same feature-different scale, the difference in the processing channel (lower scale property) in the low-order feature detection is due to the fact that the ratio of the input pulse intervals to the feature detection cells is the same as a result of the learning process. It is configured to be represented as a pattern with different scaling in the time axis direction or as a pattern in which the absolute value of the pulse interval has a different phase offset value according to the scale level.

【0202】即ち、前者の場合、学習則(式(12))
で用いられるτは(説明の簡略化のため、式(12)中
のニューロンjからニューロンiへの時間遅れとしてのイ
ンデックス表現を省略する)、スケールレベルインデッ
クスm及び特徴カテゴリインデックスkに応じて、 τ(k,m) =αηkρm+ξkm (15) となり、後者の場合、τは以下のように表される。
That is, in the former case, the learning rule (Equation (12))
Is used (for simplicity, the index expression as a time delay from neuron j to neuron i in equation (12) is omitted), according to scale level index m and feature category index k, τ (k, m) = αη k ρ m + ξ km (15), and in the latter case, τ is expressed as follows.

【0203】τ(k,m) =ηk+αρm (16) ここに、ηkは特徴カテゴリに固有な量、ρmはスケール
レベルに固有な量、αは正の定数である。上式において
ρmは上述した時間軸方向の伸縮率を表し、ξk mは位相
オフセットを表し、いずれもスケールレベルに固有であ
る。また、式(15)は、異なる処理チャネルの信号が
時間軸上で混在することを回避するような位相オフセッ
ト量ξをつけている。
Τ (k, m) = ηk+ Αρm (16) where ηkIs the quantity specific to the feature category, ρmIs the scale
The level-specific quantity, α, is a positive constant. In the above formula
ρmRepresents the above-mentioned expansion and contraction rate in the time axis direction, and ξk mIs the phase
Represents offsets, both of which are specific to the scale level.
You. Equation (15) indicates that signals of different processing channels are
Phase offset to avoid mixing on the time axis
Ξ amount.

【0204】次に、スケール不変信号変換1702は、ゲー
ティング回路により選択された特定チャネル(スケール
レベル)に相当する時間範囲についての時間窓重み関数
を発生させ(図20の(B))、検出されるべき特徴に関す
るスケール不変なパルス列情報への変換処理を行う(図
20の(C))。通常は、特定スケールレベル(処理チャ
ネル)で検出された特徴カテゴリについてのパルス列の
み抽出し、そのパルス列を複製し、必要に応じて一定の
変換を与えればよい。
Next, the scale-invariant signal converter 1702 generates a time window weighting function for a time range corresponding to the specific channel (scale level) selected by the gating circuit (FIG. 20B), and performs detection. A conversion process to scale-invariant pulse train information relating to features to be performed is performed ((C) in FIG. 20). Normally, only a pulse train for a feature category detected at a specific scale level (processing channel) is extracted, the pulse train is duplicated, and a constant conversion may be given as necessary.

【0205】具体的には、図16に示すようなゲーティ
ング回路を用いて、最も平均活動レベルの高い処理チャ
ネルのパルス列を抽出して行えばよい。そのパルス位相
変換部1701による位相変換が前者の場合には、時間軸方
向の伸縮率が基準値と比べて一定となるようなパルス位
相変換、後者の場合、ある図形特徴を検出する特徴検出
ニューロンへの複数パルスの到着パターンの位相オフセ
ット量が、どの処理チャネルからのパルスであっても一
定値となるような変換を行う。
Specifically, a gating circuit as shown in FIG. 16 may be used to extract a pulse train of the processing channel having the highest average activity level. When the phase conversion by the pulse phase conversion unit 1701 is the former, the pulse phase conversion is such that the expansion / contraction ratio in the time axis direction is constant compared to the reference value, and in the latter case, a feature detection neuron that detects a certain graphic feature Is performed so that the phase offset amount of the arrival pattern of a plurality of pulses to the pulse becomes a constant value regardless of the pulse from any processing channel.

【0206】即ち、いずれの場合も結果として τ=C1ηk+C2 (17) で示されるように、パルス位相が特徴カテゴリにのみ依
存するように変換される。ここに、C1は正の定数、C2
は非負の定数である。パルス幅変調により情報表現を行
う場合にも、パルス幅の伸縮又はオフセット量に関して
同様の処理を行えばよい。
That is, in any case, as a result, as shown by τ = C 1 η k + C 2 (17), conversion is performed so that the pulse phase depends only on the feature category. Where C 1 is a positive constant, C 2
Is a non-negative constant. Even when information is expressed by pulse width modulation, the same processing may be performed on the expansion or contraction or offset amount of the pulse width.

【0207】なお、学習時には実施形態1に説明したよ
うに、一つのサイズで認識(検出)対象を呈示しても、内
部では複数のスケールレベルに変換されて学習制御がな
されるようにしてもよい。本実施形態の場合、1チャネ
ル分の固定スケール(サイズ)での学習パターンを呈示し
た際に発生するそのチャネルでのパルス列パターンが、
図15のチャネル活性度制御回路により、式(15)ま
たは(16)に従って異なるチャネル、即ち、時間軸上
の異なる位置に変換、複製されて後続層に信号伝達する
ようにすればよい(図20の(D))。
As described in the first embodiment, at the time of learning, even if the recognition (detection) target is presented in one size, it is internally converted into a plurality of scale levels to perform learning control. Good. In the case of the present embodiment, a pulse train pattern in a channel generated when a learning pattern on a fixed scale (size) for one channel is presented,
The channel activity control circuit of FIG. 15 may be converted to a different channel according to the formula (15) or (16), that is, converted to a different position on the time axis, copied, and transmitted to a subsequent layer (FIG. 20). (D)).

【0208】また、スケール不変な特徴表現への変換
は、Gabor wavelet変換、或いは、方向成分などの低次
特徴レベルに限定されなくてもよく、一定レベルの複雑
さをもった中次特徴までは、実施形態1と同様の構成で
処理してもよい。即ち、一定レベル以下の複雑さを持っ
た特徴の検出(統合)までは、物理的に独立した(空間
的に配列した)処理チャネルで行い、あるレベル以上の
複雑さを持った特徴に関しては本実施形態のようにスケ
ール不変な表現を得て処理してもよい。
The conversion into the scale-invariant feature expression is not limited to Gabor wavelet conversion or low-order feature levels such as directional components, but is limited to medium-order features having a certain level of complexity. Alternatively, the processing may be performed in the same configuration as in the first embodiment. That is, the detection (integration) of features having a certain level of complexity or less is performed in physically independent (spatially arranged) processing channels. A scale-invariant expression may be obtained and processed as in the embodiment.

【0209】この場合、一定レベル以下の複雑さを持っ
た中次特徴までは、処理チャネル間の結合処理等の集団
的符号化を複雑なタイミング制御なしで行い、更に、処
理チャネルの違いを物理的に異なるニューロンの発火特
性として出力するので、各スケールレベルの処理を時系
列的に扱う場合に比べて、中次特徴までの検出処理を複
数スケールで短時間に同時並列的に行うことができると
いう効果がある。
In this case, up to the middle-order features having a certain level of complexity or less, collective coding such as a joint process between processing channels is performed without complicated timing control. Output as firing characteristics of different neurons, it is possible to perform detection processing up to the middle-order feature in multiple scales in a short time and in parallel in comparison with the case of processing each scale level in time series. This has the effect.

【0210】そして、高次特徴に関しては、上述したよ
うな回路の小規模化、低消費電力化などがもたらされ
る。このように処理時間、タイミング制御の複雑さ、回
路規模、消費電力を総合勘案して、どの特徴レベル(複
雑さ)でスケール不変表現を得るかを決めることができ
る。
[0210] As for the higher-order features, the above-described circuit is reduced in scale and power consumption is reduced. In this way, it is possible to determine at which characteristic level (complexity) the scale-invariant expression is obtained, taking into account the processing time, the complexity of timing control, the circuit scale, and the power consumption.

【0211】<第3の実施形態>本実施形態では、互い
に異なるスケールレベル(処理チャネル)に属する特徴検
出ニューロンにおいては、同一カテゴリの図形的特徴
(例えば、L字パターン)に対応するパルスの到着時間の
間隔(またはパルス到着の時間パターン)が、スケール
レベルにより異なるように学習規則を定め、集団的符号
化処理は時分割されたパルス信号全体にわたる重み付き
加算による線形結合により行う。
<Third Embodiment> In the present embodiment, in the feature detecting neurons belonging to different scale levels (processing channels), graphic features of the same category are used.
(For example, an L-shaped pattern), the learning rule is determined such that the interval of the arrival time of the pulse corresponding to the pulse signal (or the time pattern of the pulse arrival) differs depending on the scale level. Is performed by linear combination by weighted addition over

【0212】図19は、本実施形態で用いるネットワー
ク構成を示す図である。同図に示すように、本実施形態
では、(図12、13に示す構成において、集団的符号
化ニューロン出力と次の層である特徴検出層との間に)
パルス位相変換部1701と時間軸上集団的符号化部1901を
設け、その結果として、異なる処理チャネルに属するパ
ルスを所定のチャネルの時間軸上に展開した信号が、特
徴検出層(1,1)に入力される。
FIG. 19 is a diagram showing a network configuration used in this embodiment. As shown in the figure, in the present embodiment, (in the configuration shown in FIGS. 12 and 13, between the collectively encoded neuron output and the next layer, the feature detection layer)
Providing a pulse phase conversion unit 1701 and a collective encoding unit 1901 on the time axis, as a result, a signal obtained by expanding a pulse belonging to a different processing channel on the time axis of a predetermined channel is a feature detection layer (1, 1). Is input to

【0213】図17は、処理チャネル(スケールレベル)
を時間軸方向に展開する場合に同一箇所でサイズの異な
るパターンを検出した場合の特徴統合層への信号の例を
示す図である。同図に示すごとく、処理チャネル(スケ
ールレベル)の違いは、特徴検出ニューロンに到着する
パルスの時間軸上の異なる位置に時分割して振り分ける
(異なる位相オフセット量を与える)。
FIG. 17 shows a processing channel (scale level).
FIG. 10 is a diagram illustrating an example of a signal to the feature integration layer when patterns of different sizes are detected at the same location when the pattern is developed in the time axis direction. As shown in the figure, the difference between the processing channels (scale levels) is that the pulses arriving at the feature detection neuron are time-divided and distributed to different positions on the time axis (providing different phase offset amounts).

【0214】即ち、図17のサブ時間窓w1,1,w2,1,w3,1
はスケールレベル1で検出されたL字パターンセット用
時間窓であり、w1,n,w2,n,w3,nはスケールレベルnに対
応する同一特徴カテゴリのセットをなすL字パターンの
検出を表す信号パルス用時間窓である。
That is, the sub time windows w 1,1 , w 2,1 , w 3,1 in FIG.
Is a time window for the L-shaped pattern set detected at the scale level 1, and w1 , n , w2 , n , w3 , n are the L-shaped patterns of the set of the same feature category corresponding to the scale level n. It is a signal pulse time window representing detection.

【0215】第2実施形態と同様に、特徴検出層(1,1)
以降の層においては、処理チャネルごとに異なる回路を
設けることなく、同一回路で多重スケール処理を行うこ
とができ、経済的な回路構成となる。即ち、図19に示
すごとく、(1,1)層以降では処理チャネルの違いは回路
構成上は物理的に区別を無くすることができる。本実施
形態では、(1,1)層以降でも、時間的に異なる位置に配
置されたスケールレベル(処理チャネル)の信号につい
て、式(5)、(6)に相当する結合処理と集団的符号
化処理を時間軸ドメインで行う。
As in the second embodiment, the feature detection layer (1, 1)
In subsequent layers, the same circuit can perform multi-scale processing without providing a different circuit for each processing channel, resulting in an economical circuit configuration. That is, as shown in FIG. 19, in the (1,1) layer and subsequent layers, differences in processing channels can be physically distinguished in terms of circuit configuration. In the present embodiment, even after the (1,1) layer, for the signals of the scale levels (processing channels) arranged at different positions in time, the combination processing and the collective code corresponding to the equations (5) and (6) are performed. Is performed in the time domain.

【0216】特徴検出層(1,1)から特徴統合層(2,1)層へ
の出力(及び、それ以降の層につき同様とする)は、各
処理チャネル出力ごと(スケールレベルごと)に時分割
で行われる。即ち、特徴検出細胞の入力信号に対して時
間的に積分する際、一つのスケールレベルを構成するサ
ブ時間窓の全体範囲に対応して1処理チャネル分のパル
ス出力が行われる。特徴統合層で行う集団的符号化は、
各チャネルにまたがった時間窓内での入力パルスの積分
により行う。
The output from the feature detection layer (1, 1) to the feature integration layer (2, 1) (and the same applies to the subsequent layers) is output at each processing channel output (for each scale level). This is done in splits. That is, when temporally integrating the input signal of the characteristic detection cell, a pulse output for one processing channel is performed corresponding to the entire range of the sub time window forming one scale level. The collective coding performed in the feature integration layer is
This is performed by integrating the input pulse within the time window over each channel.

【0217】集団的符号化ニューロンで行うスケールレ
ベル(処理チャネル)の異なる図形特徴信号に対する処理
は、次のように2段階で行われる。先ず、各処理チャネ
ルごとの時間窓で入力パルスの積分を行うことにより、
各スケールレベルごとに同一特徴カテゴリについての検
出を行い、次に式(5)、(6)に相当する集団的符号
化の演算処理を、各時間窓毎の積分値をpijとすること
により行う。このようにして時分割された各処理チャネ
ル出力を時間的に統合することにより、任意サイズの図
形パターンの検出(認識)を可能にする。
The processing for graphic feature signals of different scale levels (processing channels) performed by the collective coding neuron is performed in two stages as follows. First, by integrating the input pulse in a time window for each processing channel,
The same feature category is detected for each scale level, and the collective coding operation corresponding to equations (5) and (6) is performed by setting the integral value for each time window to p ij. Do. By temporally integrating the processing channel outputs time-divided in this way, it is possible to detect (recognize) a graphic pattern of an arbitrary size.

【0218】図21に例として、スケールレベルが1か
らnまで、特徴カテゴリが1から3までの場合につい
て、各チャネル(スケールレベル)上の特徴検出細胞出力
から特徴統合層の集団的符号化細胞出力までの信号列の
遷移を上から順に示す。
As an example, FIG. 21 shows a case where the scale level is 1 to n and the feature category is 1 to 3, from the output of the feature detection cells on each channel (scale level). The transition of the signal sequence up to the output is shown in order from the top.

【0219】図21の(A)は、特徴検出細胞から特徴
統合層への出力が各スケールおよび各特徴ごとに時間軸
上に展開された様子を示す。各特徴ごとに、複数の出力
があるのは、単に同一特徴(同一スケール)を検出する
特徴検出細胞が複数存在し、かつ各出力はポアッソンノ
イズ等による揺らぎ、或いは特徴カテゴリ−スケールレ
ベルに関する感度特性に関するばらつきが存在すること
を示すためである。また、スケールレベルnでは、特徴
2に対応するパルスが欠損しているのは、単に検出され
なかったことを示している。同スケールでは他の特徴
1、3も他のスケールレベルと比べて位相が遅延してい
る。これは検出レベルが低いことを反映している。
FIG. 21A shows a state in which the output from the feature detection cells to the feature integration layer is developed on the time axis for each scale and each feature. There are multiple outputs for each feature because there are multiple feature detection cells that simply detect the same feature (same scale), and each output has fluctuations due to Poisson noise or the like, or sensitivity characteristics related to feature category-scale level. This is to show that there is a variation with respect to At the scale level n, the lack of the pulse corresponding to the feature 2 simply indicates that the pulse was not detected. In the same scale, the phases of the other features 1 and 3 are delayed as compared with the other scale levels. This reflects the low detection level.

【0220】図21の(B)は、このような特徴検出細
胞出力を特徴統合層のサブサンプリング細胞で時間的に
積分する際の重み関数を示す。図21の(C)は、その
結果得られるサブサンプリング細胞出力を表す。図21
の(D)は、集団的符号化細胞において、サブサンプリ
ング細胞出力を統合する際の各スケールごとの時間窓重
み関数を表す。図21の(E)は、集団的符号化細胞から
の時間軸上の出力分布を示している。
FIG. 21 (B) shows a weighting function when such a feature detection cell output is temporally integrated by the sub-sampling cells of the feature integration layer. FIG. 21C illustrates the resulting sub-sampled cell output. FIG.
(D) represents the time window weight function for each scale when integrating the sub-sampled cell outputs in the collectively encoded cells. (E) of FIG. 21 shows an output distribution on the time axis from the collectively encoded cells.

【0221】集団的符号化による効果を示す例として、
スケールレベル1と2の特徴1について、集団的符号化
を行う前後のパルス位置を見ると、各パルスの時間軸上
位置が、スケールレベル1の方が位相遅れ(時間遅れ量
Δp11)、スケールレベル2の方が位相の前進(時間進
み量Δp12)となって変調されている。このことは、式
(5)、(6)により、サブサンプリング細胞の出力が
チャネル全体の活動レベル等に基づいて変調された結果
であり、認識(検出)対象のサイズ(スケールレベル)が、
予め設定されたスケールレベル1と2の中間にあること
を反映している。その後の処理としては、実施形態1の
図15、16に相当するチャネル活性度制御又はゲーテ
ィング機能を時間軸上で行えばよい。
As an example showing the effect of collective coding,
Looking at the pulse positions before and after performing collective encoding for the feature 1 of the scale levels 1 and 2, the position on the time axis of each pulse is such that the scale level 1 has a phase lag (time delay amount Δp 11 ), a scale Level 2 is modulated with a phase advance (time advance amount Δp 12 ). This is a result of modulating the output of the sub-sampled cell based on the activity level of the entire channel and the like according to the equations (5) and (6).
This reflects that the scale level is between the preset scale levels 1 and 2. As subsequent processing, a channel activity control or gating function corresponding to FIGS. 15 and 16 of the first embodiment may be performed on the time axis.

【0222】具体的には、チャネル活性度制御回路又は
ゲーティング回路は、時分割されたチャネルデータか
ら、目標チャネル活性度を算出し(又はチャネルの選択
をし)、各チャネル(スケールレベル)に対応する時間
窓ごとにチャネル活性度に応じた後続の層のニューロン
閾値の設定や信号レベルの増幅・減衰の制御を行う(又
は選択チャネルのみ信号を通過させる)。
More specifically, the channel activity control circuit or the gating circuit calculates the target channel activity (or selects a channel) from the time-divided channel data, and assigns the target channel activity to each channel (scale level). For each corresponding time window, the setting of the neuron threshold value of the subsequent layer and the control of the amplification / attenuation of the signal level according to the channel activity are performed (or the signal is passed through only the selected channel).

【0223】以上説明した実施形態によれば、複数の解
像度又はスケールレベルによる特徴検出を行い、検出さ
れた複数のスケールレベルに関する特徴について集団的
符号化を行うことにより、検出対象のサイズが任意に変
化しても検出性能の劣化を回避することができる。
According to the embodiment described above, feature detection is performed based on a plurality of resolutions or scale levels, and collective encoding is performed on the detected features related to the plurality of scale levels, so that the size of the detection target can be arbitrarily determined. Even if it changes, deterioration of the detection performance can be avoided.

【0224】低次または高次の特徴要素(または図形パ
ターン要素)の検出を解像度又はスケールレベルに応じ
て異なる位相を有するパルス列に変換して行うことによ
り、多重スケールでの認識処理を行う回路を物理的に異
なる処理チャネルを設けることなく、同一の処理回路で
行えるように構成したことにより、このような位相変換
を行わない場合に比べて、回路規模及び消費電力を遥か
に小さくすることができた。
By detecting low-order or high-order characteristic elements (or graphic pattern elements) by converting them into pulse trains having different phases according to the resolution or scale level, a circuit for performing recognition processing on multiple scales can be realized. By configuring so that the same processing circuit can be used without providing physically different processing channels, the circuit scale and power consumption can be significantly reduced as compared with the case where such phase conversion is not performed. Was.

【0225】また、特徴検出信号であるパルス信号につ
いて時間窓内での重み付き荷重和の閾値処理することに
より、複雑多様な背景下において、検出(認識)すべき
対称の変形(位置変動、回転等を含む)、特にサイズの
変化や照明、ノイズの影響等による特徴検出の欠損等が
生じても、確実に所望のパターンを検出することができ
る。この効果は、特定のネットワーク構造によらず実現
することができるものである。
Further, by performing a threshold processing of a weighted weighted sum within a time window on a pulse signal as a feature detection signal, symmetric deformation (position fluctuation, rotation) to be detected (recognized) in a complicated and diverse background. In particular, a desired pattern can be reliably detected even if a loss in feature detection due to a change in size, illumination, noise, or the like occurs. This effect can be realized regardless of the specific network structure.

【0226】最後に、本発明に示した構成では、所定ニ
ューロンの単一の入力線上に時間的に配列されるパルス
列の時間窓内での各位置が、所定のパターンの特徴とス
ケールレベルに相当するようにしたことにより、ニュー
ロン素子間の配線問題を軽減することができ、上記した
信頼性を高い程度に保ちながら、2次元パターン処理に
より所定物体の認識検出を行う回路の規模、消費電力が
従来より格段に抑えることができる。
Finally, in the configuration shown in the present invention, each position in the time window of a pulse train temporally arranged on a single input line of a predetermined neuron corresponds to a characteristic of a predetermined pattern and a scale level. By doing so, the wiring problem between neuron elements can be reduced, and the scale and power consumption of a circuit for performing recognition and detection of a predetermined object by two-dimensional pattern processing can be reduced while maintaining the above-described reliability to a high degree. It can be suppressed much more than before.

【0227】[0227]

【発明の効果】以上説明したように、本発明によれば、
複数の解像度又はスケールレベルによる特徴検出を行
い、検出された複数のスケールレベルに関する特徴につ
いて多重化(または集団的符号化)を行うことにより、
検出対象のサイズが任意に変化しても検出性能の劣化を
回避することができるという効果が得られる。
As described above, according to the present invention,
By performing feature detection with a plurality of resolutions or scale levels and performing multiplexing (or collective encoding) on the detected features related to the plurality of scale levels,
Even if the size of the detection target changes arbitrarily, it is possible to avoid the deterioration of the detection performance.

【0228】また、特徴要素の検出を、解像度又はスケ
ールレベルに応じて異なる位相を有するパルス列に変換
して行うことにより、多重スケールでの認識処理を同一
の処理回路で行えるようにしたことにより、回路規模及
び消費電力を遥かに小さくすることができるという効果
が得られる。
Also, by detecting characteristic elements by converting them into pulse trains having different phases according to the resolution or scale level, recognition processing on multiple scales can be performed by the same processing circuit. The effect that the circuit scale and power consumption can be made much smaller can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る一実施形態のネットワーク構成を
示すブロック図である。
FIG. 1 is a block diagram illustrating a network configuration according to an embodiment of the present invention.

【図2】シナプス部とニューロン素子部の構成を示す図
である。
FIG. 2 is a diagram showing a configuration of a synapse section and a neuron element section.

【図3】実施形態1において特徴統合層または入力層か
ら特徴検出層ニューロンへの複数パルス伝播の様子を示
す図である。
FIG. 3 is a diagram showing how multiple pulses propagate from a feature integration layer or an input layer to a feature detection layer neuron in the first embodiment.

【図4】シナプス回路の構成図を示す図である。FIG. 4 is a diagram showing a configuration diagram of a synapse circuit.

【図5】シナプス結合小回路の構成、及び実施形態1で
用いるパルス位相遅延回路の構成を示す図である。
FIG. 5 is a diagram showing a configuration of a synapse coupling small circuit and a configuration of a pulse phase delay circuit used in the first embodiment.

【図6】特徴検出層ニューロンにペースメーカニューロ
ンからの入力がある場合のネットワーク構成を示す図で
ある。
FIG. 6 is a diagram showing a network configuration in a case where an input from a pacemaker neuron is provided to a feature detection layer neuron.

【図7】特徴検出ニューロンに入力される異なる特徴要
素に対応する複数パルスを処理する際の時間窓の構成、
重み関数分布の例、特徴要素の例を示す図である。
FIG. 7 shows a configuration of a time window when processing a plurality of pulses corresponding to different feature elements input to the feature detection neuron,
It is a figure which shows the example of a weight function distribution, and the example of a characteristic element.

【図8】各層の処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure of each layer.

【図9】各特徴検出ニューロンの処理手順を示すフロー
チャートである。
FIG. 9 is a flowchart illustrating a processing procedure of each feature detection neuron.

【図10】各特徴統合ニューロンの処理手順を示すフロ
ーチャートである。
FIG. 10 is a flowchart illustrating a processing procedure of each feature integration neuron.

【図11】実施形態に係るパターン検出(認識)装置を
撮像装置に用いた例の構成を示す図である。
FIG. 11 is a diagram illustrating a configuration of an example in which the pattern detection (recognition) device according to the embodiment is used for an imaging device.

【図12】特徴統合層の回路構成を示す図である。FIG. 12 is a diagram showing a circuit configuration of a feature integration layer.

【図13】特徴統合層の回路構成を示す図である。FIG. 13 is a diagram showing a circuit configuration of a feature integration layer.

【図14】正規化回路の構成を示す図である。FIG. 14 is a diagram illustrating a configuration of a normalization circuit.

【図15】チャネル活性度制御回路の構成を示す図であ
る。
FIG. 15 is a diagram showing a configuration of a channel activity control circuit.

【図16】ゲーティング回路の構成を示す図である。FIG. 16 is a diagram illustrating a configuration of a gating circuit.

【図17】処理チャネル(スケールレベル)を時間軸方向
に展開する場合に同一箇所でサイズの異なるパターンを
検出した場合の特徴統合層への信号の例を示す図であ
る。
FIG. 17 is a diagram illustrating an example of a signal to the feature integration layer when a pattern having a different size is detected at the same location when a processing channel (scale level) is developed in the time axis direction.

【図18】実施形態2で用いるネットワーク構成を示す
図である。
FIG. 18 is a diagram illustrating a network configuration used in a second embodiment.

【図19】実施形態3で用いるネットワーク構成を示す
図である。
FIG. 19 is a diagram illustrating a network configuration used in a third embodiment.

【図20】実施形態2の信号列の遷移を示す図である。FIG. 20 is a diagram illustrating transition of a signal sequence according to the second embodiment.

【図21】実施形態3の信号列の遷移を示す図である。FIG. 21 is a diagram illustrating transition of a signal sequence according to the third embodiment.

【図22】スケールレベル(解像度)の異なる階層的表
現を模式的に示す図である。
FIG. 22 is a diagram schematically illustrating hierarchical expressions having different scale levels (resolutions).

【図23】スケールレベルの集団的符号化の例を示す図
である。
FIG. 23 is a diagram illustrating an example of collective encoding at a scale level.

Claims (33)

【特許請求の範囲】[Claims] 【請求項1】 パターンを入力する入力手段と、 前記入力手段より入力されたパターンに対して、それぞ
れが異なる解像度またはスケールレベルに対応する処理
を行なう複数の処理手段と、 前記複数の処理手段の出力を結合する多重化処理手段と
を有し、 前記複数の処理手段の各々が、前記入力データを所定の
方法によりサンプリングして得られる各点に対応して、
それぞれ複数の特徴を検出して出力する複数の特徴検出
素子を備え、前記多重化処理手段が複数の当該特徴検出
素子の出力を結合することを特徴とするパターン検出装
置。
An input unit for inputting a pattern; a plurality of processing units each performing a process corresponding to a different resolution or scale level on the pattern input from the input unit; Multiplexing processing means for combining outputs, wherein each of the plurality of processing means corresponds to each point obtained by sampling the input data by a predetermined method,
A pattern detecting apparatus, comprising: a plurality of feature detecting elements for detecting and outputting a plurality of features, wherein the multiplexing processing means combines outputs of the plurality of feature detecting elements.
【請求項2】 前記複数の処理手段が階層的ネットワー
ク構造を有し、 前記多重化処理手段は、複数の解像度又はスケールレベ
ルに対する前記処理手段の各々の中間階層での処理結果
に対応する前記特徴検出素子出力のうち所定の複数個の
出力に基づいて、解像度又はスケールレベルの選択、ま
たは複数の解像度またはスケールレベルの処理出力間の
結合処理を行う設定をすることを特徴とする請求項1に
記載のパターン検出装置。
2. The method according to claim 1, wherein the plurality of processing units have a hierarchical network structure, and the multiplexing processing unit corresponds to a processing result of each of the processing units at a middle layer for a plurality of resolutions or scale levels. 2. The method according to claim 1, wherein a setting is made to select a resolution or a scale level or to perform a coupling process between processing outputs of a plurality of resolutions or scale levels based on a plurality of predetermined outputs among the detection element outputs. The pattern detection device according to the above.
【請求項3】 前記多重化処理手段は、異なる解像度又
はスケールレベルに対応する前記複数の処理手段の所定
の中間階層での処理結果のうち、最大応答出力を示す解
像度又はスケールレベルを選択することを特徴とする請
求項2に記載のパターン検出装置。
3. The multiplexing processing means selects a resolution or a scale level indicating a maximum response output from processing results of the plurality of processing means in a predetermined intermediate layer corresponding to different resolutions or scale levels. The pattern detection device according to claim 2, wherein:
【請求項4】 前記多重化処理手段は、異なる解像度又
はスケールレベルに対応する前記複数の処理手段の中間
階層での処理結果のうち、所定の複数個の結果について
結合処理を行うことにより、解像度又はスケールレベル
を選択することを特徴とする請求項2に記載のパターン
検出装置。
4. The resolution processing unit according to claim 1, wherein the multiplexing processing unit performs a combining process on a plurality of predetermined results among processing results of the plurality of processing units corresponding to different resolutions or scale levels in an intermediate layer. 3. The pattern detecting device according to claim 2, wherein a scale level is selected.
【請求項5】 前記処理手段の各々が、複数の階層的処
理層を備え、前記多重化処理手段は、異なる階層レベル
の処理層での中間処理結果を参照することにより、解像
度又はスケールレベルを選択することを特徴とする請求
項1に記載のパターン検出装置。
5. Each of the processing means includes a plurality of hierarchical processing layers, and the multiplexing processing means determines a resolution or a scale level by referring to intermediate processing results in processing layers of different hierarchical levels. The pattern detection device according to claim 1, wherein the pattern detection device is selected.
【請求項6】 前記処理手段の各々が、複数の階層的処
理層を備え、前記結合処理は、前記処理手段の同一階層
レベルの異なる演算素子間の処理結果を結合して得られ
る値について異なる解像度又はスケールレベル間で参照
し、所定の解像度又はスケールレベルに関する出力を行
うことを特徴とする請求項4に記載のパターン検出装
置。
6. Each of the processing means includes a plurality of hierarchical processing layers, and the combining processing differs in a value obtained by combining processing results between different processing elements at the same hierarchical level of the processing means. 5. The pattern detecting apparatus according to claim 4, wherein a reference is made between resolutions or scale levels and an output relating to a predetermined resolution or scale level is performed.
【請求項7】 前記処理手段は、所定の複数の特徴カテ
ゴリのそれぞれについて、異なる解像度又はスケールレ
ベルでの当該各特徴を検出する特徴検出層を有すること
を特徴とする請求項1に記載のパターン検出装置。
7. The pattern according to claim 1, wherein said processing means has a feature detection layer for detecting each of the plurality of predetermined feature categories at different resolutions or scale levels. Detection device.
【請求項8】 前記多重化処理手段を、前記特徴検出層
の各特徴検出素子ごとに設けたことを特徴とする請求項
7に記載のパターン検出装置。
8. The pattern detecting apparatus according to claim 7, wherein said multiplexing processing means is provided for each characteristic detecting element of said characteristic detecting layer.
【請求項9】 前記特徴検出層は、異なる空間周波数に
関する空間フィルタリングを局所的に行うことを特徴と
する請求項7に記載のパターン検出装置。
9. The pattern detection apparatus according to claim 7, wherein the feature detection layer locally performs spatial filtering on different spatial frequencies.
【請求項10】 前記特徴検出層は、Gabor wavelet変
換を行うことを特徴とする請求項7に記載のパターン検
出装置。
10. The pattern detection device according to claim 7, wherein the feature detection layer performs Gabor wavelet conversion.
【請求項11】 前記特徴検出層の各特徴検出素子は、
入力データの局所的な同一領域において、異なる解像度
又はスケールレベルでの複数の特徴を検出することを特
徴とする請求項7に記載のパターン検出装置。
11. Each feature detection element of the feature detection layer,
The pattern detecting apparatus according to claim 7, wherein a plurality of features at different resolutions or scale levels are detected in the same local area of the input data.
【請求項12】 前記特徴検出層の各特徴検出素子は、
同一の幾何学的特徴カテゴリについて複数の異なる解像
度又はスケールレベルを中心とする選択特性を有し、か
つ互いにその選択特性の重なりを有することを特徴とす
る請求項7に記載のパターン検出装置。
12. Each feature detection element of the feature detection layer,
8. The pattern detecting apparatus according to claim 7, wherein the same geometric feature category has selection characteristics centered on a plurality of different resolutions or scale levels, and the selection characteristics overlap each other.
【請求項13】 前記特徴検出層は、検出すべき特徴カ
テゴリに関して、異なる解像度又はスケールレベルでの
局所的に異なる方向選択性を有する基底関数で近似され
る感度特性を有する複数の演算素子を有することを特徴
とする請求項7に記載のパターン検出装置。
13. The feature detection layer has a plurality of arithmetic elements having sensitivity characteristics approximated by basis functions having locally different direction selectivities at different resolutions or scale levels with respect to a feature category to be detected. The pattern detecting apparatus according to claim 7, wherein
【請求項14】 パターンを入力する入力手段と、 前記入力手段より入力されたパターンに対して、複数の
解像度又はスケールレベルごとに複数の特徴を検出する
特徴検出層を有し、 前記特徴検出層が、所定の結合手段により互いに結合す
る複数の信号処理素子を備え、 前記複数の信号処理素子の所定の一部が、所定時間範囲
内に入力された複数のパルス信号の到着時間パターンに
応じた出力レベルでパルス信号を出力することを特徴と
するパターン検出装置。
14. An input unit for inputting a pattern, and a feature detection layer for detecting a plurality of features for each of a plurality of resolutions or scale levels with respect to the pattern input from the input unit; Has a plurality of signal processing elements that are coupled to each other by predetermined coupling means, and a predetermined part of the plurality of signal processing elements corresponds to an arrival time pattern of a plurality of pulse signals input within a predetermined time range. A pattern detection device for outputting a pulse signal at an output level.
【請求項15】 前記特徴検出素子は、前記特徴の顕著
度又は特徴間の配置に応じた出力レベルで信号を出力す
ることを特徴とする請求項14に記載のパターン検出装
置。
15. The pattern detection apparatus according to claim 14, wherein the feature detection element outputs a signal at an output level according to the saliency of the features or the arrangement between the features.
【請求項16】 前記特徴検出層からの出力を所定の方
法で統合して出力する特徴統合層を有し、 前記特徴統合層は、所定の結合手段により互いに結合す
る複数の特徴統合素子を備えることを特徴とする請求項
14に記載のパターン検出装置。
16. A feature integration layer for integrating and outputting an output from the feature detection layer by a predetermined method, wherein the feature integration layer includes a plurality of feature integration elements connected to each other by a predetermined connection unit. The pattern detection device according to claim 14, wherein
【請求項17】 前記特徴統合素子は、局所的な受容野
領域につき特徴データのサブサンプリングを行う素子
と、複数の解像度又はスケールレベルにまたがる該サブ
サンプリング素子出力を統合する集団的符号化素子とを
有することを特徴とする請求項16に記載のパターン検
出装置。
17. The feature integration device includes a device for subsampling feature data for a local receptive field region, and a collective coding device for integrating the output of the subsampling device over a plurality of resolution or scale levels. 17. The pattern detecting device according to claim 16, comprising:
【請求項18】 前記出力レベルは、前記パルス信号の
位相、周波数、振幅またはパルス幅であることを特徴と
する請求項14に記載のパターン検出装置。
18. The pattern detection device according to claim 14, wherein the output level is a phase, frequency, amplitude, or pulse width of the pulse signal.
【請求項19】 パターンを入力する入力手段と、 前記入力手段より入力されたパターンに対してパターン
処理を行なう複数の処理手段とを有し、 前記複数の処理手段が、解像度又はスケールレベルの異
なる複数の特徴を検出し、各特徴に対する検出パルス信
号を出力し、当該検出パルス信号を時間軸方向の位相を
異ならせる様に変換する特徴検出素子を備えることを特
徴とするパターン検出装置。
19. An input unit for inputting a pattern, and a plurality of processing units for performing pattern processing on the pattern input from the input unit, wherein the plurality of processing units have different resolutions or scale levels. A pattern detection device comprising: a feature detection element that detects a plurality of features, outputs a detection pulse signal for each feature, and converts the detection pulse signal so that the phase in the time axis direction is different.
【請求項20】 前記処理手段は、低次特徴についての
み解像度又はスケールレベルの異なる複数の特徴を検出
し、各特徴の検出パルス信号出力を各解像度又はスケー
ルレベルに基づいて時間軸方向に異なる位相に変換する
特徴検出素子と、当該素子からの出力信号の位相を変換
することにより、解像度又はスケールレベルに不変な特
徴検出信号を得るスケール変換特徴抽出素子とを有する
ことを特徴とする請求項19に記載のパターン検出装
置。
20. The processing unit detects a plurality of features having different resolutions or scale levels only for lower-order features, and outputs a detected pulse signal output of each feature in a different phase in the time axis direction based on each resolution or scale level. 20. A feature detecting element for converting the phase of an output signal from the element into a scale-converted feature extracting element for obtaining a feature detecting signal invariable in resolution or scale level by converting a phase of an output signal from the element. 3. The pattern detection device according to 1.
【請求項21】 パターンを入力する入力手段と、 前記入力手段より入力されたパターンに対して、それぞ
れが異なる解像度またはスケールレベルに対応する処理
を行なう複数の処理手段とを有し、 前記処理手段は、前記入力データを所定の方法によりサ
ンプリングして得られる各点に対応して、それぞれ複数
の特徴を検出する複数個の特徴検出素子と、 互いに異なる解像度又はスケールレベルの前記処理手段
の複数の該特徴検出素子出力を結合することにより、解
像度又はスケールレベルに関する制御を行う制御手段と
を備えることを特徴とするパターン検出装置。
21. An input means for inputting a pattern, and a plurality of processing means for performing processing corresponding to different resolutions or scale levels on the pattern input from the input means, wherein the processing means Corresponds to each point obtained by sampling the input data by a predetermined method, a plurality of feature detection elements for detecting a plurality of features, respectively, and a plurality of the processing means of different resolution or scale level from each other Control means for controlling the resolution or scale level by combining the outputs of the feature detection elements.
【請求項22】 前記制御手段が、所定の解像度又はス
ケールレベルの設定を制御することを特徴とする請求項
21に記載のパターン検出装置。
22. The pattern detecting apparatus according to claim 21, wherein said control means controls setting of a predetermined resolution or a scale level.
【請求項23】 前記制御手段が、解像度又はスケール
レベルに応じて前記特徴検出素子の活性度を制御するこ
とを特徴とする請求項21に記載のパターン検出装置。
23. The pattern detection apparatus according to claim 21, wherein the control unit controls the activity of the feature detection element according to a resolution or a scale level.
【請求項24】 前記制御手段が、学習時に所定の解像
度又はスケールレベルでの信号を所定の方法で他の解像
度又はスケールレベルに変換又は複製して分配すること
を特徴とする請求項21に記載のパターン検出装置。
24. The method according to claim 21, wherein the control means converts or duplicates a signal at a predetermined resolution or scale level to another resolution or scale level by a predetermined method during learning and distributes the signal. Pattern detection device.
【請求項25】 請求項1ないし24に記載のパターン
検出装置によって処理対象画像のパターンより所定のパ
ターンを検出した結果に基づき、当該処理対象画像の処
理動作を制御することを特徴とする画像処理装置。
25. An image processing apparatus, comprising: controlling a processing operation of an image to be processed based on a result of detecting a predetermined pattern from a pattern of the image to be processed by the pattern detection apparatus according to claim 1; apparatus.
【請求項26】 それぞれが階層構造のニューロン群を
用いて異なるスケールレベル又は解像度で処理を行なう
複数のチャネルを有し、 前記ニューロン群が、複数のチャネルにまたがって出力
を結合する集団的符号化ニューロン群を備えることを特
徴とするニューラルネットワーク装置。
26. A collective coding scheme having a plurality of channels, each processing at a different scale level or resolution using a hierarchically structured set of neurons, wherein the set of neurons combines outputs across the plurality of channels. A neural network device comprising a group of neurons.
【請求項27】 前記集団的符号化ニューロン群の処理
結果に基づいて、最適なスケールレベル又は解像度の設
定を行なうことを特徴とする請求項26に記載のニュー
ラルネットワーク装置。
27. The neural network device according to claim 26, wherein an optimal scale level or resolution is set based on a processing result of the group of collectively encoded neurons.
【請求項28】 前記ニューロン群が、カテゴリごとの
サブサンプリングを行なうサブサンプリングニューロン
群を備えることを特徴とする請求項26に記載のニュー
ラルネットワーク装置。
28. The neural network device according to claim 26, wherein the neuron group includes a sub-sampling neuron group that performs sub-sampling for each category.
【請求項29】 パターンを入力する入力工程と、 前記入力工程において入力されたパターンに対して、そ
れぞれが異なる解像度またはスケールレベルに対応する
処理を行なう複数の処理工程と、 前記複数の処理工程の処理結果を結合する多重化処理工
程とを有し、 前記複数の処理工程の各々において、前記入力データを
所定の方法によりサンプリングして得られる各点に対応
して、複数の特徴検出素子がそれぞれ複数の特徴を検出
して出力し、前記多重化処理工程では複数の当該特徴検
出素子の出力を結合することを特徴とするパターン検出
方法。
29. An input step of inputting a pattern, a plurality of processing steps of performing processing corresponding to different resolutions or scale levels on the pattern input in the input step, and A multiplexing processing step of combining processing results, wherein in each of the plurality of processing steps, a plurality of feature detection elements are respectively provided corresponding to each point obtained by sampling the input data by a predetermined method. A pattern detection method comprising: detecting and outputting a plurality of features; and combining outputs of the plurality of feature detection elements in the multiplexing process.
【請求項30】 パターンを入力する入力工程と、 前記入力工程において入力されたパターンに対して、所
定の結合機構により互いに結合する複数の信号処理素子
を備えた特徴検出層により複数の解像度又はスケールレ
ベルごとに複数の特徴を検出する検出工程とを備え、 前記複数の信号処理素子の所定の一部が、所定時間範囲
内に入力された複数のパルス信号の到着時間パターンに
応じた出力レベルでパルス信号を出力することを特徴と
するパターン検出方法。
30. An input step of inputting a pattern, and a plurality of resolutions or scales by a feature detection layer having a plurality of signal processing elements coupled to each other by a predetermined coupling mechanism with respect to the pattern input in the input step. A detection step of detecting a plurality of features for each level, wherein a predetermined part of the plurality of signal processing elements is at an output level corresponding to an arrival time pattern of a plurality of pulse signals input within a predetermined time range. A pattern detection method characterized by outputting a pulse signal.
【請求項31】 パターンを入力する入力工程と、 前記入力工程において入力されたパターンに対してパタ
ーン処理を行なう複数の処理工程とを有し、 前記複数の処理工程において、特徴検出素子が、解像度
又はスケールレベルの異なる複数の特徴を検出し、時間
的に局在化した各特徴に対する検出パルス信号を出力
し、当該検出パルス信号を時間軸方向の位相を異ならせ
る様に変換することを特徴とするパターン検出方法。
31. An input step of inputting a pattern, and a plurality of processing steps of performing a pattern process on the pattern input in the input step, wherein the feature detecting element has a resolution in the plurality of processing steps. Or detecting a plurality of features having different scale levels, outputting detection pulse signals for each of the temporally localized features, and converting the detection pulse signals so as to have different phases in the time axis direction. Pattern detection method.
【請求項32】 パターンを入力する入力工程と、 前記入力工程において入力されたパターンに対して、そ
れぞれが異なる解像度またはスケールレベルに対応する
処理を行なう複数の処理工程とを有し、 前記処理工程が、 前記入力データを所定の方法によりサンプリングして得
られる各点に対応して、複数個の特徴検出素子がそれぞ
れ複数の特徴を検出する検出工程と、 互いに異なる解像度又はスケールレベルに対応する前記
処理工程を行なう複数の特徴検出素子出力を結合するこ
とにより、解像度又はスケールレベルに関する制御を行
う制御工程とを備えることを特徴とするパターン検出方
法。
32. An inputting step of inputting a pattern, and a plurality of processing steps for performing processing corresponding to different resolutions or scale levels on the pattern input in the inputting step. However, corresponding to each point obtained by sampling the input data by a predetermined method, a detecting step in which a plurality of feature detecting elements respectively detect a plurality of features; and A control step of controlling a resolution or a scale level by combining outputs of a plurality of feature detection elements for performing a processing step.
【請求項33】 請求項29ないし32に記載のパター
ン検出方法によって処理対象画像のパターンより所定の
パターンを検出した結果に基づき、当該処理対象画像の
処理動作を制御することを特徴とする画像処理方法。
33. Image processing characterized by controlling a processing operation of a processing target image based on a result of detecting a predetermined pattern from a pattern of the processing target image by the pattern detection method according to claim 29. Method.
JP2000181488A 2000-06-16 2000-06-16 Pattern detection apparatus and method, image processing apparatus and method, and neural network apparatus Expired - Fee Related JP4532678B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2000181488A JP4532678B2 (en) 2000-06-16 2000-06-16 Pattern detection apparatus and method, image processing apparatus and method, and neural network apparatus
US09/878,296 US7054850B2 (en) 2000-06-16 2001-06-12 Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
DE60128029T DE60128029T2 (en) 2000-06-16 2001-06-15 Apparatus and method for detecting or recognizing patterns by means of a plurality of feature detection elements
EP01305231A EP1164537B1 (en) 2000-06-16 2001-06-15 Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000181488A JP4532678B2 (en) 2000-06-16 2000-06-16 Pattern detection apparatus and method, image processing apparatus and method, and neural network apparatus

Publications (2)

Publication Number Publication Date
JP2002008033A true JP2002008033A (en) 2002-01-11
JP4532678B2 JP4532678B2 (en) 2010-08-25

Family

ID=18682408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000181488A Expired - Fee Related JP4532678B2 (en) 2000-06-16 2000-06-16 Pattern detection apparatus and method, image processing apparatus and method, and neural network apparatus

Country Status (1)

Country Link
JP (1) JP4532678B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009004888A (en) * 2007-06-19 2009-01-08 Noritsu Koki Co Ltd Image correction method and image correction device
JP2009004887A (en) * 2007-06-19 2009-01-08 Noritsu Koki Co Ltd Image correction method and image correction device
US7889886B2 (en) 2005-07-26 2011-02-15 Canon Kabushiki Kaisha Image capturing apparatus and image capturing method
KR101109351B1 (en) 2009-10-20 2012-01-31 인하대학교 산학협력단 Metal pad state detection method using Gabor filter
KR102082970B1 (en) * 2019-04-29 2020-02-28 주식회사 루닛 Normalization method for machine-learning and apparatus thereof
JP2020531954A (en) * 2017-08-17 2020-11-05 サムスン エレクトロニクス カンパニー リミテッド Neuromorphological processing device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62106590A (en) * 1985-11-02 1987-05-18 Nippon Hoso Kyokai <Nhk> Pattern recognizing system having associative memory function
JPH0281280A (en) * 1988-09-19 1990-03-22 Hitachi Ltd Higher order information processing system by neural circuit network
JPH04250557A (en) * 1991-01-25 1992-09-07 Ricoh Co Ltd Learning method of signal processor
JPH0793277A (en) * 1993-09-24 1995-04-07 Nec Corp Semiconductor integrated circuit device using neural network
JPH09153137A (en) * 1995-12-01 1997-06-10 Sharp Corp Method for recognizing picture
JP2000506642A (en) * 1996-02-09 2000-05-30 サーノフ コーポレイション Method and apparatus for training a neural network to detect and classify objects using uncertain training data
JP2000298660A (en) * 1998-08-12 2000-10-24 Yeda Res & Dev Co Ltd Method and device for constituting self-adaptive smart transmission device controlling information transmission between network elements
JP2001043205A (en) * 1999-05-27 2001-02-16 Denso Corp Neuron, hierarchical neural network constituted by using the neuron and multiplication circuit used for multiplying processing inside the neuron
JP2002009031A (en) * 2000-06-21 2002-01-11 Oki Electric Ind Co Ltd Manufacturing method of semiconductor device
JP2002008032A (en) * 2000-06-16 2002-01-11 Canon Inc Pattern detection device and method, image input device and method, and neural network circuit

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62106590A (en) * 1985-11-02 1987-05-18 Nippon Hoso Kyokai <Nhk> Pattern recognizing system having associative memory function
JPH0281280A (en) * 1988-09-19 1990-03-22 Hitachi Ltd Higher order information processing system by neural circuit network
JPH04250557A (en) * 1991-01-25 1992-09-07 Ricoh Co Ltd Learning method of signal processor
JPH0793277A (en) * 1993-09-24 1995-04-07 Nec Corp Semiconductor integrated circuit device using neural network
JPH09153137A (en) * 1995-12-01 1997-06-10 Sharp Corp Method for recognizing picture
JP2000506642A (en) * 1996-02-09 2000-05-30 サーノフ コーポレイション Method and apparatus for training a neural network to detect and classify objects using uncertain training data
JP2000298660A (en) * 1998-08-12 2000-10-24 Yeda Res & Dev Co Ltd Method and device for constituting self-adaptive smart transmission device controlling information transmission between network elements
JP2001043205A (en) * 1999-05-27 2001-02-16 Denso Corp Neuron, hierarchical neural network constituted by using the neuron and multiplication circuit used for multiplying processing inside the neuron
JP2002008032A (en) * 2000-06-16 2002-01-11 Canon Inc Pattern detection device and method, image input device and method, and neural network circuit
JP2002009031A (en) * 2000-06-21 2002-01-11 Oki Electric Ind Co Ltd Manufacturing method of semiconductor device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889886B2 (en) 2005-07-26 2011-02-15 Canon Kabushiki Kaisha Image capturing apparatus and image capturing method
US8180106B2 (en) 2005-07-26 2012-05-15 Canon Kabushiki Kaisha Image capturing apparatus and image capturing method
JP2009004888A (en) * 2007-06-19 2009-01-08 Noritsu Koki Co Ltd Image correction method and image correction device
JP2009004887A (en) * 2007-06-19 2009-01-08 Noritsu Koki Co Ltd Image correction method and image correction device
KR101109351B1 (en) 2009-10-20 2012-01-31 인하대학교 산학협력단 Metal pad state detection method using Gabor filter
JP2020531954A (en) * 2017-08-17 2020-11-05 サムスン エレクトロニクス カンパニー リミテッド Neuromorphological processing device
KR102082970B1 (en) * 2019-04-29 2020-02-28 주식회사 루닛 Normalization method for machine-learning and apparatus thereof
US11042789B2 (en) 2019-04-29 2021-06-22 Lunit Inc. Normalization method for machine-learning and apparatus thereof

Also Published As

Publication number Publication date
JP4532678B2 (en) 2010-08-25

Similar Documents

Publication Publication Date Title
JP4208485B2 (en) Pulse signal processing circuit, parallel processing circuit, pattern recognition device, and image input device
US7054850B2 (en) Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
JP4780921B2 (en) Parallel pulse signal processing apparatus and control method thereof
US7028271B2 (en) Hierarchical processing apparatus
US7274819B2 (en) Pattern recognition apparatus using parallel operation
JP2002008032A (en) Pattern detection device and method, image input device and method, and neural network circuit
JP2005352900A (en) Device and method for information processing, and device and method for pattern recognition
US20170337469A1 (en) Anomaly detection using spiking neural networks
Xiao et al. An event-driven categorization model for AER image sensors using multispike encoding and learning
US20170124409A1 (en) Cascaded neural network with scale dependent pooling for object detection
EP3659072A1 (en) Computer for spiking neural network with maximum aggregation
WO2005022343A2 (en) System and methods for incrementally augmenting a classifier
JP4510237B2 (en) Pattern detection apparatus and method, image processing apparatus and method
US7007002B2 (en) Signal processing circuit involving local synchronous behavior
JP2002008033A (en) Pattern detection device and method, image processing device and method, and neural network device
JP4898018B2 (en) Signal processing circuit and pattern recognition device
JP4314017B2 (en) Hierarchical processing device
Dasgaonkar et al. Analysis of multi-layered perceptron, radial basis function and convolutional neural networks in recognizing handwritten digits
Hung et al. A comparative study of radial basis function neural networks and wavelet neural networks in classification of remotely sensed data
Gruel et al. Simultaneous neuromorphic selection of multiple salient objects for event vision
JP2002358502A (en) Parallel pulse signal processor, pulse output element and pattern recognizing device
US20220156590A1 (en) Artificial intelligence system and artificial neural network learning method thereof
Neelegowda et al. Image Based Person Re-Id Using GAN, DWT, and MLTP with ANN Classifier.
Gao et al. Actived Edge Strength for Image Quality Assessment
Yue et al. Real-time object-based image registration using improved MRAN

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100611

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees