JP3368774B2 - neural network - Google Patents
neural networkInfo
- Publication number
- JP3368774B2 JP3368774B2 JP31126496A JP31126496A JP3368774B2 JP 3368774 B2 JP3368774 B2 JP 3368774B2 JP 31126496 A JP31126496 A JP 31126496A JP 31126496 A JP31126496 A JP 31126496A JP 3368774 B2 JP3368774 B2 JP 3368774B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- signal
- threshold
- output unit
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、大規模論理回路、
パターン認識、連想メモリ、データ変換及び画像処理な
どの分野に適用可能なニューラルネットワークにおい
て、不正解出力の出力誤差の状況をみて学習に関連した
パラメータを調整することにより高速かつ安定に所望の
出力信号を得ることができる多値ニューラルネットワー
クに関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a large scale logic circuit,
In a neural network applicable to fields such as pattern recognition, associative memory, data conversion, and image processing, by adjusting the parameters related to learning by observing the output error situation of incorrect answer output, the desired output signal can be obtained quickly and stably. It relates to a multi-valued neural network that can obtain
【0002】[0002]
【従来の技術】ニューラルネットワークの従来技術の1
つとして、多層(階層)ニューラルネットワークがある
が、このニューラルネットワークの教師信号を用いた学
習方法として、バック・プロパゲーション・アルゴリズ
ムが幅広く使用されている。本アルゴリズムを用いた学
習過程では、重み係数を初期設定した後、予め用意され
た教師信号T(教師信号エレメント、T1、
T2、...、TM)から、入力層に入力された学習用入
力信号に対する出力層からの出力ユニット信号を減算器
を介して差し引き誤差信号を求め、各層の出力ユニット
信号と誤差信号とを基に誤差信号の電力を最小にするよ
うに各層間の重み係数の更新を行い学習を行うものであ
る。この重み係数適応制御からなる学習をすべての学習
用入力信号に対して実行し、要求された精度の下で正し
い出力が得られる収束状態になるまで繰り返す。2. Description of the Related Art 1 of the prior art of neural networks
One of them is a multilayer neural network, and a back propagation algorithm is widely used as a learning method using a teacher signal of this neural network. In the learning process using this algorithm, after the weighting coefficient is initialized, a teacher signal T (teacher signal element, T 1 ,
From T 2 , ..., T M ), the output unit signal from the output layer with respect to the learning input signal input to the input layer is subtracted through a subtractor to obtain an error signal, and the output unit signal and error signal of each layer are obtained. Based on and, the weighting coefficient between layers is updated so as to minimize the power of the error signal, and learning is performed. The learning including the weighting coefficient adaptive control is executed for all the learning input signals, and is repeated until a converged state in which a correct output is obtained under the required accuracy.
【0003】この学習過程に於て誤差電力が最小となる
と、学習用入力信号に対する多値出力ユニット信号が多
値教師信号と一致し、収束した状態になる。しかしなが
ら、誤差電力が局部極小(ローカルミニマム)となる所
に一旦落ち込むと、それが非常に安定な場合はそれ以降
は学習させても誤差電力が最小とならないこと、また、
最小の状態になるためには学習回数が著しく増加するこ
とや、収束特性に重み係数の初期値依存性があるなどの
問題がある。When the error power is minimized in this learning process, the multi-valued output unit signal for the learning input signal coincides with the multi-valued teacher signal and enters a converged state. However, once the error power drops to the local minimum (local minimum), if it is very stable, the error power will not be the minimum even if it is learned after that.
In order to reach the minimum state, there are problems that the number of times of learning increases remarkably and that the convergence characteristic has an initial value dependence of the weighting coefficient.
【0004】第2の従来技術として、例えば、0および
1の2値教師信号Tに対して2値ニューラルネットワー
クの学習速度を改善するために"Parallel Distributed
Processing" D.E. Rumelhart, MIT Press.に述べられて
いる方式がある。ここでは、図1に示す従来方式の学習
を用いた多層ニューラルネットワークにおいて、それぞ
れのエレメントに対して0.1及び0.9の新たな教師
信号T’を設定し、動作モード制御器9からの制御信号
により夫々初期設定を行った後、学習を開始する。端子
3からの教師信号T’から、端子2からの学習用入力信
号に対する多層ニューラルネットワーク1の出力ユニッ
ト信号を減算器4を介して差し引き誤差信号を求め、こ
れを重み係数制御器5に入力し、学習係数と慣性係数か
らなる学習パラメータを用いたバックプロパゲーション
アルゴリズムにより重み係数更新を行い、多層ニューラ
ルネットワーク1に再度設定する処理を繰り返し学習す
る。2値識別スレショルドを用いて2値化する2値スレ
ショルド回路6を介して出力ユニット信号から2値出力
ユニット信号を得、また、2値識別スレショルドを用い
て2値化する2値スレショルド回路7を介して教師信号
T’から2値教師信号Tを得、一致検出器8にてこれら
が完全に一致する状態を検出することにより、多層ニュ
ーラルネットワーク1が2値空間で収束したとして動作
モード制御器9を介して学習が終了する。As a second conventional technique, for example, in order to improve the learning speed of a binary neural network with respect to a binary teacher signal T of 0 and 1, "Parallel Distributed"
Processing "DE Rumelhart, MIT Press. There is a method described here in the multilayer neural network using the learning of the conventional method shown in FIG. Learning is started after setting a new teacher signal T'and performing initial setting by the control signal from the operation mode controller 9. From the teacher signal T'from the terminal 3, learning input from the terminal 2 is started. The output unit signal of the multilayer neural network 1 for the signal is subtracted via the subtracter 4 to obtain an error signal, which is input to the weighting factor controller 5, and the backpropagation algorithm using the learning parameter including the learning coefficient and the inertia coefficient. The weighting factor is updated by the method, and the process of setting again in the multilayer neural network 1 is repeatedly learned. A binary output unit signal is obtained from the output unit signal via the binary threshold circuit 6 for converting the binary signal from the teacher signal T'through the binary threshold circuit 7 for converting the binary signal using the binary discrimination threshold. When the teacher signal T is obtained and the coincidence detector 8 detects a state where these signals completely coincide with each other, it is determined that the multilayer neural network 1 has converged in the binary space, and the learning is completed via the operation mode controller 9.
【0005】このように教師信号T’を0.1及び0.
9に設定することにより、0及び1の2値教師信号の場
合に比較して収束するための学習回数が削減されること
が述べられている。これは、シグモイド関数において、
入力が0あるいは1に近づくと、勾配が非常に小さくな
ることにより、重み係数の更新速度が小さくなることの
理由による。このため、教師信号を0.1及び0.9に
設定し、勾配を大きくすることにより、収束の為の学習
速度を改善している。しかしながら、同様に安定したロ
ーカルミニマムに落ち込む場合があり、一旦落ち込むと
学習が進展しない欠点や、収束するものの、教師信号が
0.1、0.9であり、出力ユニット信号がこれらの値
に最終的に近づき正解を出力する余裕が小さくなること
から汎化能力が劣化する欠点を有している。Thus, the teacher signal T'is set to 0.1 and 0.
It is stated that setting to 9 reduces the number of learning times for convergence as compared with the case of binary teacher signals of 0 and 1. This is the sigmoid function
This is because when the input approaches 0 or 1, the gradient becomes very small and the update rate of the weighting factor becomes small. Therefore, the learning speed for convergence is improved by setting the teacher signals to 0.1 and 0.9 and increasing the gradient. However, it may fall into a stable local minimum in the same way, and once it falls, learning does not progress, and although it converges, the teacher signals are 0.1 and 0.9, and the output unit signal is the final value of these values. However, there is a drawback that the generalization ability is deteriorated because the margin for outputting the correct answer becomes small.
【0006】第3の従来技術として、誤差摂動型学習方
式(特願平7−77168、名称;ニューラルネットワ
ーク学習方式)を例にとり、学習過程における問題点を
明らかにする。誤差摂動型学習方式の1構成例を図3に
示す。多層ニューラルネットワーク1は端子2からの学
習用入力信号と端子3からの2値教師信号Tとを用いて
学習を行う。重み係数更新誤差信号生成器10におい
て、学習状態判定器11からの出力ユニットの正誤判定
信号により正解の2値出力ユニット信号が検出された出
力ユニットに対しては、2値教師信号からその出力ユニ
ット信号を差し引いて得られた誤差信号を、例えば、式
(1)のごとく、その誤差信号の絶対値が予め与えられ
た第1のスレショルドD1より小さい場合には、誤差信
号に対して逆極性で教師信号Tから離れるに従い振幅が
小さくなるD1(但し≧0)以下の振幅を持つ重み係数
更新誤差信号を生成し出力させ、誤差信号の絶対値が前
記スレショルド以上である場合には、同一極性でD1程
小さい振幅を持った重み係数更新誤差信号を生成し出力
させる。As a third conventional technique, an error perturbation type learning method (Japanese Patent Application No. 7-77168, name: neural network learning method) is taken as an example to clarify problems in the learning process. FIG. 3 shows a configuration example of the error perturbation learning method. The multilayer neural network 1 performs learning using the learning input signal from the terminal 2 and the binary teacher signal T from the terminal 3. In the weighting factor update error signal generator 10, for the output unit in which the correct binary output unit signal is detected by the correctness determination signal of the output unit from the learning state determiner 11, the output unit from the binary teacher signal is detected. When the absolute value of the error signal obtained by subtracting the signal is smaller than the first threshold D1 given in advance, for example, as in the equation (1), the error signal has a polarity opposite to that of the error signal. A weighting coefficient update error signal having an amplitude of D1 (however, ≧ 0) or less, the amplitude of which decreases with distance from the teacher signal T, is generated and output, and when the absolute value of the error signal is equal to or more than the threshold, the same polarity is set. A weighting factor update error signal having an amplitude as small as D1 is generated and output.
【0007】一方、不正解の出力ユニット信号を与えて
いる出力ユニットにおいては、例えば、式(2)のごと
く振幅を予め与えられた第1の定数D2程小さくして重
み係数更新誤差信号として出力させる。重み係数制御器
5では、この重み係数更新誤差信号を用いてバックプロ
パゲーションアルゴリズムにより重み係数修正を行い、
誤差信号の電力が最小となるよう学習を繰り返す。学習
状態判定器11において、全ての学習用入力信号に対す
る2値出力ユニット信号が2値教師信号と一致し正しく
なると収束したと見做して、動作モード制御器12を介
して学習終了信号を送出し、多層ニューラルネットワー
ク1の学習を終了させる。また、場合によっては、更
に、正しい2値出力ユニット信号を送出している出力ユ
ニットに関して、出力ユニット信号と教師信号とから計
算し求められた正しい出力を得ている余裕の内で、全学
習用入力信号に対して最小の余裕即ち最小余裕が、予め
与えられた第4のスレショルドを越えた時点で、収束し
たと見做して学習を終了させることもある。動作モード
制御器12では、多層ニューラルネットワーク1と重み
係数制御器5と学習状態判定器11の各初期設定、更に
学習の開始及び終了を制御する。On the other hand, in the output unit giving an incorrect output unit signal, for example, as shown in the equation (2), the amplitude is made smaller by the first constant D2 given in advance and outputted as the weighting coefficient update error signal. Let The weighting factor controller 5 uses the weighting factor update error signal to correct the weighting factor by the back propagation algorithm,
The learning is repeated so that the power of the error signal is minimized. In the learning state determiner 11, it is considered that the binary output unit signals for all the learning input signals have converged when they match the binary teacher signal and become correct, and the learning end signal is sent out via the operation mode controller 12. Then, the learning of the multilayer neural network 1 is terminated. Further, in some cases, for all the learning, within the margin of obtaining the correct output calculated from the output unit signal and the teacher signal with respect to the output unit which is sending out the correct binary output unit signal. Sometimes, when the minimum margin for the input signal, that is, the minimum margin, exceeds the preset fourth threshold, the learning is considered to have converged and the learning may be terminated. The operation mode controller 12 controls each initial setting of the multilayer neural network 1, the weighting factor controller 5, and the learning state determiner 11, and further controls the start and end of learning.
【0008】ここで、2値教師信号を用いた場合の重み
係数更新誤差信号生成器10に於ける重み係数更新誤差
信号の1生成方法を示す式を以下に示す。Here, an equation showing one method of generating the weighting coefficient update error signal in the weighting coefficient update error signal generator 10 when the binary teacher signal is used is shown below.
【0009】出力ユニットの2値出力ユニット信号が正
解の場合、
Em=Tm−Ym−D1・sgn(Tm−Ym) (1)When the binary output unit signal of the output unit is correct, Em = Tm-Ym-D1.sgn (Tm-Ym) (1)
【0010】出力ユニットの2値出力ユニット信号が不
正解の場合、
Em=Tm−Ym−D2・sgn(Tm−Ym) (2)When the binary output unit signal of the output unit is incorrect, Em = Tm-Ym-D2.sgn (Tm-Ym) (2)
【0011】ここで、 sgn(x)= 1:x≧0、 =−1:x<0、 (3)Here, sgn (x) = 1: x ≧ 0, = -1: x <0, (3)
【0012】mは出力ユニット番号(1≦m≦M)、E
mは出力ユニットmの重み係数更新誤差信号、Tmは出
力ユニットmの多値教師信号(2値の場合、0または
1)、Ymは出力ユニットmの出力ユニット信号、D1
は第1のスレショルドで0.5以下の0または正の定
数、D2は第1の定数で0.5以下の0または正の定数
とする。M is an output unit number (1≤m≤M), E
m is a weight coefficient update error signal of the output unit m, Tm is a multivalued teacher signal (0 or 1 in the case of binary) of the output unit m, Ym is an output unit signal of the output unit m, D1
Is a first threshold and is 0 or a positive constant of 0.5 or less, and D2 is a first constant and is 0 or a positive constant of 0.5 or less.
【0013】重み係数更新誤差信号生成器10内の第1
のスレショルドD1及び第1の定数D2を適度に大きく
すれば、学習過程において非常に安定したローカルミニ
マムに落ち込むことは殆どなく、また、仮に落ち込んだ
としても容易にこの状態から逃れられ、全て正しい2値
出力ユニット信号を送出する収束状態になり、学習が速
い。しかしながら、特に、学習用入力信号数が非常に多
く、数千以上になると2値教師信号に従って学習用入力
信号を正しく区分けする為の境界領域面が非常に複雑に
なる場合は、学習係数や慣性係数の学習パラメータの設
定によっては、学習が進み不正解2値出力ユニット信号
の数がかなり少なくなった状況の後に、次第に不正解2
値出力ユニット信号数の減少速度が遅くなり、収束状態
に達する為の学習回数が増加する欠点がある。これは、
正解を与える為の余裕がD1程狭くなっていることの理
由によるものと考えられる。The first in the weighting factor update error signal generator 10
If the threshold D1 and the first constant D2 of are set to be moderately large, they will hardly fall into a very stable local minimum in the learning process, and even if they fall, they can easily escape from this state and all 2 The value output unit signal is sent to the convergence state and learning is fast. However, especially when the number of learning input signals is very large, and when the number of learning input signals exceeds several thousand, the boundary area surface for correctly classifying the learning input signals according to the binary teacher signal becomes very complicated, the learning coefficient and inertia Depending on the setting of the learning parameter of the coefficient, after the learning progresses and the number of incorrect answer binary output unit signals is considerably reduced, the incorrect answer 2 is gradually increased.
There is a drawback that the number of value output unit signals decreases slowly, and the number of learning times to reach a converged state increases. this is,
This is probably because the margin for giving the correct answer is as narrow as D1.
【0014】上記の説明のごとく、従来の学習方式で
は、上記の説明のごとくローカルミニマムの状態に落ち
込みやすく、また、なかなか抜け出せないことから、少
ない学習回数では完全な収束状態を簡単には到達できな
いなどの欠点がある。また、従来の誤差摂動型学習方式
では、それ以前の従来方式よりは著しく収束特性は改善
されるが、しかしながら、学習用入力信号が非常に多い
大規模なニューラルネットワークの学習の際に、学習用
入力信号を正しく区分けする為の境界領域面が非常に複
雑になり、ローカルミニマムの状態に落ち込むことは無
いが、正解を出力する余裕がD1ほど狭まり、全て正し
い2値出力ユニット信号を送出する完全な収束状態に到
達するに必要な学習回数が増える欠点がある。ここで
は、2値ニューラルネットワークを例にあげ説明した
が、これらは多値教師信号を用いた場合にも同様の欠点
を有している。As described above, in the conventional learning method, it is easy to fall into the state of the local minimum as described above, and since it is difficult to get out of the local minimum state, it is not possible to easily reach a completely converged state with a small number of learnings. There are drawbacks such as. In addition, the conventional error perturbation type learning method improves the convergence property remarkably compared with the previous conventional method, however, when learning a large-scale neural network with a large number of input signals for learning, The boundary area for correctly dividing the input signal becomes very complicated, and it does not fall into the state of the local minimum, but the margin for outputting the correct answer is narrowed by D1 and all the correct binary output unit signals are transmitted. There is a drawback that the number of learning times required to reach such a converged state increases. Although a binary neural network has been described here as an example, these have the same drawbacks even when a multivalued teacher signal is used.
【0015】[0015]
【発明が解決しようとする課題】上記の説明のごとく、
多値教師信号を用いたニューラルネットワークの従来の
学習処理において、ニューラルネットワークが学習用入
力信号に対応した所望の多値出力ユニット信号を送出す
るよう重み係数を更新する際に、学習用入力信号によっ
ては所望の多値出力ユニット信号を送出する収束した状
態に到達するまでの学習回数即ち学習繰り返し回数が非
常に多くなるなどの欠点を有している。DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention As described above,
In the conventional learning process of the neural network using the multivalued teacher signal, when the weighting coefficient is updated so that the neural network outputs the desired multivalued output unit signal corresponding to the learning input signal, Has a drawback in that the number of times of learning until reaching a converged state in which a desired multi-level output unit signal is transmitted, that is, the number of times of learning is very large.
【0016】本発明の目的は、上記の問題を解決し、従
来の学習方式などに比べて、非常に少ない学習回数で収
束し、高速度で安定に学習を完了させることが出来、学
習用入力信号に対して所望の多値出力ユニット信号を容
易に得ることができると共に、高い汎化能力を有した多
値ニューラルネットワークの新たな学習方式を提供する
ことにある。An object of the present invention is to solve the above-mentioned problems, to converge with an extremely small number of learning times as compared with a conventional learning method, etc., and to complete learning stably at a high speed. It is an object of the present invention to provide a new learning method for a multi-valued neural network that can easily obtain a desired multi-valued output unit signal for a signal and has a high generalization ability.
【0017】[0017]
【課題を解決するための手段】上記の問題点を解決する
ために、教師信号を用いて学習させるニューラルネット
ワークにおいて、該教師信号から正解の出力ユニットの
出力ユニット信号を差し引いて得た誤差信号の絶対値が
第1のスレショルドD1以下の場合、該誤差信号と逆極
性を持ち該教師信号から離れるに従い振幅が小さくなる
重み係数更新誤差信号を、該誤差信号の絶対値が該第1
のスレショルドD1より大きい場合、該誤差信号より小
さい振幅を持った同極性の重み係数更新誤差信号を少な
くとも生成し、該重み係数更新誤差信号を用いて重み係
数を更新し学習を行い、不正解の出力ユニットにおける
該誤差信号の絶対値の全学習用入力信号に対する最大値
が第2のスレショルドより小さいと、該第1のスレショ
ルドD1を減少させて学習させることを特徴としたニュ
ーラルネットワークを構成する。In order to solve the above problems, in a neural network for learning using a teacher signal, an error signal obtained by subtracting the output unit signal of the correct output unit from the teacher signal If the absolute value is less than or equal to the first threshold D1, a weighting coefficient update error signal having a polarity opposite to that of the error signal and having an amplitude that decreases with distance from the teacher signal is generated.
Is larger than the threshold value D1 of the error signal, at least a weight coefficient update error signal of the same polarity having an amplitude smaller than the error signal is generated, the weight coefficient is updated using the weight coefficient update error signal, and learning is performed to obtain an incorrect solution. When the maximum value of the absolute value of the error signal in the output unit with respect to all the learning input signals is smaller than the second threshold, the first threshold D1 is reduced to perform learning.
【0018】また、上記の特徴を持った該ニューラルネ
ットワークの学習方式において、該第1のスレショルド
D1を零に設定して、学習を開始させ、予め規定された
学習回数の時点で該最大値が第3のスレショルド以上の
場合には、該第1のスレショルドを零でない値に設定し
て学習させることを特徴としたニューラルネットワーク
を構成する。Further, in the learning method of the neural network having the above characteristics, the first threshold D1 is set to zero to start learning, and the maximum value is reached at a predetermined number of times of learning. In the case of being equal to or higher than the third threshold, the neural network is characterized in that the first threshold is set to a non-zero value for learning.
【0019】本発明のニューラルネットワークにおい
て、多値を適用した多値ニューラルネットワークを例に
その作用を明らかにする。多値ニューラルネットワーク
の学習方式においては、多値教師信号から差し引いて得
られる誤差信号が第1のスレショルドD1以下で多値教
師信号に非常に近く正解の多値出力ユニット信号を与え
ている出力ユニットにおいて、誤差信号とは逆極性を持
った該教師信号から離れるに従い振幅が小さくなる重み
係数更新誤差信号と、更に誤差信号が第1のスレショル
ドより大きく多値教師信号から比較的近い正解の多値出
力ユニット信号を与えている出力ユニットにおいて、誤
差信号と同一極性のD1程小さい振幅を持った重み係数
更新誤差信号とを少なくとも用いて、それぞれの重み係
数を更新し学習する。学習過程で、全学習用入力信号に
対して不正解の出力ユニットの誤差信号の絶対値が最大
である出力ユニット最大誤差を検出し、これが与えられ
た第2のスレショルド以下である場合には、安定したロ
ーカルミニマム捕獲状態に落ち込むことは殆どないこと
から、その後は誤差摂動パラメータ、即ち第1のスレシ
ョルドD1及び第1の定数D2をより小さく或いは零と
して学習させている。これにより、正しい多値出力ユニ
ット信号を送出している余裕度が改善され、学習速度が
速まり最終的に少ない学習回数で収束し、而も高い汎化
特性を実現できる。In the neural network of the present invention, the operation will be clarified by taking a multivalued neural network to which multivalues are applied as an example. In a learning method of a multi-valued neural network, an output unit in which an error signal obtained by subtracting from the multi-valued teacher signal is equal to or lower than a first threshold D1 and is very close to the multi-valued teacher signal and gives a correct multi-valued output unit signal. , A weighting coefficient update error signal whose amplitude decreases with distance from the teacher signal having a polarity opposite to that of the error signal, and an error signal whose error signal is larger than the first threshold and relatively close to the multivalued teacher signal. In the output unit giving the output unit signal, each weighting factor is updated and learned using at least the error signal and the weighting factor update error signal having the smaller amplitude as D1. In the learning process, the maximum error of the output unit in which the absolute value of the error signal of the incorrect output unit with respect to all the learning input signals is maximum is detected, and when this is less than or equal to the given second threshold, Since it rarely falls into the stable local minimum capture state, thereafter, the error perturbation parameters, that is, the first threshold D1 and the first constant D2 are learned to be smaller or zero. This improves the margin of sending the correct multilevel output unit signal, accelerates the learning speed, and finally converges with a small number of times of learning, so that a higher generalization characteristic can be realized.
【0020】上記説明のごとく本発明のニューラルネッ
トワークの学習方式は、大量の学習用入力信号の学習の
際にも、非常に安定したローカルミニマム捕獲状態に捕
われることなく、従来方式に比べて非常に高速に且つ確
実に収束させ、所望の多値出力ユニット信号を容易に得
ることができることから、大規模な多値ニューラルネッ
トワークを自由に設計できる。また、実時間で学習をや
り直す必要のある学習機能を持った論理システムや、非
常に多くの入力信号エレメント数を持った入力信号やユ
ニット数の多い多層ニューラルネットワークを用いた多
値論理システムを実現できる。更に、従来方式では安定
で高速且つ確実に収束させることができず所望の出力信
号を得ることが困難であったパターン認識や画像処理な
ど、更には、データ変換、エキスパートシステムなども
容易に設計し実現することが可能となる。As described above, the learning method of the neural network of the present invention does not get caught in a very stable local minimum capture state even when learning a large amount of input signals for learning, and is more effective than the conventional method. Since a desired multi-valued output unit signal can be easily obtained by quickly and surely converging to, it is possible to freely design a large-scale multi-valued neural network. In addition, we have realized a logic system with a learning function that requires re-learning in real time, and a multi-valued logic system using an input signal with an extremely large number of input signal elements and a multilayer neural network with a large number of units. it can. Furthermore, it is difficult to obtain a desired output signal because the conventional method cannot achieve stable, fast, and reliable convergence, and it is also easy to design data conversion, expert systems, etc. It can be realized.
【0021】[0021]
【発明の実施の形態】以下に本発明のニューラルネット
ワークの学習方式を用いた2値ニューラルネットワーク
の実施例をあげ、その構成及びその動作について、2値
教師信号を用いた場合について詳細に説明する。BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of a binary neural network using the learning method of the neural network of the present invention will be given below, and its configuration and operation will be described in detail when a binary teacher signal is used. .
【0022】本発明のニューラルネットワークの学習方
式を用いた2値ニューラルネットワークの学習過程の1
実施例を図1に示す。端子2から入力信号が入力層の入
力ユニットに入力され、出力層の出力ユニットから出力
ユニット信号を送出する多層ニューラルネットワーク
1、2値教師信号と出力ユニット信号と出力正誤判定器
13からの正誤判定信号とを入力とし、重み係数更新誤
差信号を出力する重み係数更新誤差信号生成器10、出
力ユニット信号を2値化し2値出力ユニット信号を得る
2値スレショルド回路6、入力された重み係数更新誤差
信号及び設定されている学習パラメータを用いて多層ニ
ューラルネットワーク1の重み係数を更新し設定する重
み係数制御器14、2値教師信号と2値出力ユニット信
号とを入力とし、2値教師信号と2値出力ユニット信号
とを比較し出力ユニット内の正解、不正解を検出し正誤
判定信号と、2値教師信号と2値出力ユニット信号との
一致を示す出力一致信号を送出する出力正誤判定器1
3、出力正誤判定器13からの正誤判定信号と2値教師
信号と出力ユニット信号とを入力し、不正解の出力ユニ
ットにおいて出力ユニット信号と2値教師信号との差の
絶対値の全学習用入力信号に対する最大値、即ち不正解
出力ユニット最大誤差を検出する不正解出力ユニット最
大誤差検出器16と、正解の出力ユニットにおいて出力
ユニット信号と2値スレショルド回路6の閾値との差の
絶対値として与えられる余裕の全学習用入力信号に対す
る最小値、即ち正解出力ユニット最小余裕を検出する正
解出力ユニット最小余裕検出器17と、出力正誤判定器
13からの出力一致信号と不正解出力ユニット最大誤差
及び正解出力ユニット最小余裕とが入力される学習状態
判定器18、多層ニューラルネットワーク1と重み係数
制御器5と出力正誤判定器13、不正解出力ユニット最
大誤差検出器16、正解出力ユニット最小余裕検出器1
7及び学習状態判定器18の各初期設定、更に学習の開
始制御を行うと共に学習状態判定器18からの学習終了
信号を元に各部の終了制御をする動作モード制御器15
とから構成される。One of the learning processes of the binary neural network using the learning method of the neural network of the present invention.
An example is shown in FIG. The input signal from the terminal 2 is input to the input unit of the input layer, and the output unit signal is output from the output unit of the output layer. Multilayer neural network 1, binary teacher signal, output unit signal, and output Signal, and a weight coefficient update error signal generator 10 that outputs a weight coefficient update error signal, a binary threshold circuit 6 that binarizes the output unit signal to obtain a binary output unit signal, and an input weight coefficient update error A weight coefficient controller 14 for updating and setting the weight coefficient of the multilayer neural network 1 using the signal and the set learning parameter, receives the binary teacher signal and the binary output unit signal, and inputs the binary teacher signal and the binary teacher signal. By comparing with the value output unit signal, the correct and incorrect answers in the output unit are detected and the correctness / wrong judgment signal, the binary teacher signal and the binary output unit are detected. Output accuracy judgment unit sends an output match signal indicating a match between the bets signal 1
3. For inputting the correct / wrong judgment signal, the binary teacher signal and the output unit signal from the output correct / wrong judgment unit 13, for all learning of the absolute value of the difference between the output unit signal and the binary teacher signal in the incorrect output unit. As the absolute value of the maximum value for the input signal, that is, the incorrect output unit maximum error detector 16 that detects the incorrect output unit maximum error, and the difference between the output unit signal and the threshold value of the binary threshold circuit 6 in the correct output unit. The minimum value of the given margin for all learning input signals, that is, the correct output unit minimum margin detector 17 that detects the correct output unit minimum margin, the output coincidence signal from the output correctness determination unit 13, the incorrect output unit maximum error, and Learning state determiner 18 to which the correct output unit minimum margin is input, multilayer neural network 1, weighting factor controller 5, and output positive Decision unit 13, incorrect output unit maximum error detector 16, the correct answer output unit minimum margin detector 1
7 and the learning state determiner 18 are initialized, the learning start control is performed, and the end control of each part is performed based on the learning end signal from the learning state determiner 18.
Composed of and.
【0023】次に学習過程における動作を説明する。多
層ニューラルネットワーク1は端子2からの学習用入力
信号と端子3からの2値教師信号とを用いて学習を行
う。重み係数更新誤差信号生成器10において、出力正
誤判定器13からの正誤判定信号により不正解の2値出
力ユニット信号が検出された出力ユニットに対しては、
2値教師信号からその出力ユニット信号を差し引いて得
られた誤差信号を式(2)のごとく振幅を第1の定数D
2程小さくして重み係数更新誤差信号として出力させ、
一方、正解の出力ユニット信号を与えている出力ユニッ
トにおいては、その誤差信号の絶対値が与えられた第1
のスレショルドD1以下であると、逆極性で該教師信号
から離れるに従い小さくなる重み係数更新誤差信号を生
成し出力させ、誤差信号の絶対値が第1のスレショルド
D1より大きいと、同一極性でD1程小さい振幅を持っ
た重み係数更新誤差信号を生成し出力させる。Next, the operation in the learning process will be described. The multilayer neural network 1 performs learning using a learning input signal from the terminal 2 and a binary teacher signal from the terminal 3. In the weighting coefficient update error signal generator 10, for the output unit in which the incorrect binary output unit signal is detected by the correctness determination signal from the output correctness determination unit 13,
The error signal obtained by subtracting the output unit signal from the binary teacher signal is used as the first constant D for the amplitude as shown in equation (2).
Reduce by about 2 and output as a weighting factor update error signal,
On the other hand, in the output unit giving the correct output unit signal, the first value given the absolute value of the error signal
If the absolute value of the error signal is greater than the first threshold D1, the weight coefficient update error signal having a reverse polarity and having a smaller value with increasing distance from the teacher signal is generated and output. A weight coefficient update error signal having a small amplitude is generated and output.
【0024】ここで、D1を収束領域と定めれば、連続
量の教師信号を扱うニューラルネットワークにも同様に
適用出来る。重み係数制御器5では、この重み係数更新
誤差信号を用いてバックプロパゲーションアルゴリズム
により重み係数修正を行い、誤差信号の電力が最小とな
るよう学習を繰り返す。また、第1の定数D2は、D1
≠0の下で非常に稀にローカルミニマムに捕獲された
時、素早く逃れる働きをするが、殆ど発生しないこと、
D1も逃れる働きをすることからD2=0としてもよ
い。Here, if D1 is defined as the convergence region, it can be similarly applied to a neural network that handles a continuous amount of teacher signals. The weighting factor controller 5 uses the weighting factor update error signal to correct the weighting factor by the back propagation algorithm, and repeats learning so that the power of the error signal is minimized. Also, the first constant D2 is D1
When it is captured by a local minimum very rarely under 0, it works to escape quickly, but it rarely occurs.
Since D1 also works to escape, D2 = 0 may be set.
【0025】学習状態判定器18に於て、不正解出力ユ
ニット最大誤差検出器16からの不正解出力ユニット最
大誤差が第2のスレショルド以下となると、学習が進み
安定したローカルミニマムに捕獲されにくい状態である
ことを意味していることから、重み係数更新誤差信号生
成器10に誤差摂動パラメータの変更要求出力を送出
し、重み係数更新誤差信号生成器10での誤差摂動パラ
メータを零(D1=0、D2=0)とし、誤差摂動を止
めた状態で学習を継続させる。その後、安定したローカ
ルミニマムに捕獲されることは通常ない。但し、大きい
D1が設定されている場合には、これを急に零とする
と、重み係数の状態が完全に初期化される場合があるこ
とから、その後ローカルミニマムに捕獲される可能性が
生じる。従って、この場合には、小さな値のD1を一旦
設定して学習させ、再び不正解出力ユニット最大誤差が
第2のスレショルド以下となった時点でD1=0に設定
し学習させることにより、ローカルミニマムに捕獲され
ることはなく収束させることができる。In the learning state determiner 18, when the maximum error output unit maximum error from the incorrect output unit maximum error detector 16 falls below the second threshold, the learning progresses and it is difficult to be captured by a stable local minimum. Therefore, the error coefficient perturbation parameter change request output is sent to the weight coefficient update error signal generator 10 and the error perturbation parameter in the weight coefficient update error signal generator 10 is set to zero (D1 = 0). , D2 = 0), and the learning is continued with the error perturbation stopped. After that, it is usually not captured in a stable local minimum. However, when a large D1 is set, if this is suddenly set to zero, the state of the weighting factor may be completely initialized, so that there is a possibility of being captured by the local minimum thereafter. Therefore, in this case, a small minimum value D1 is once set and learned, and when the incorrect output unit maximum error becomes equal to or less than the second threshold again, D1 = 0 is set and learning is performed. It can be converged without being captured by.
【0026】いずれの場合も、最終的に誤差摂動パラメ
ータD1、D2を零として学習させた後、出力正誤判定
器13に於て、誤りがなくなり2値教師信号と2値出力
ユニット信号とが一致した収束状態を検出すると一致信
号を学習状態判定器18へ送出する。学習状態判定器1
8においては、前記の一致した収束状態で且つ正解出力
ユニット最小余裕検出器17の出力信号である正解出力
ユニット最小余裕が予め与えられた第4のスレショルド
を越えるまで、重み係数制御器5にて重み係数の更新を
継続させ、一旦スレショルドを越えると、学習状態判定
器18から動作モード制御器15を介して学習終了信号
を送出し、多層ニューラルネットワーク1の学習を終了
させる。これにより、不必要な学習を避けるとともに、
D1=0であることから正しい2値出力ユニット信号を
送出する余裕度の劣化も無く非常に高い汎化能力を得る
ことができる。In either case, after the error perturbation parameters D1 and D2 are finally learned as zero, the output correctness / error determination unit 13 eliminates the error and the binary teacher signal and the binary output unit signal match. When the converged state is detected, the coincidence signal is sent to the learning state determiner 18. Learning state determiner 1
In 8, the weighting factor controller 5 continues until the correct output unit minimum margin, which is the output signal of the correct output unit minimum margin detector 17 in the above-mentioned convergent state, exceeds the predetermined fourth threshold. When the updating of the weighting factor is continued and once the threshold is exceeded, the learning state determiner 18 sends a learning end signal through the operation mode controller 15 to end the learning of the multilayer neural network 1. This avoids unnecessary learning and
Since D1 = 0, a very high generalization capability can be obtained without deterioration of the margin for transmitting the correct binary output unit signal.
【0027】上記の学習方式は、従来方式より明らかに
安定且つ確実に高速収束させることができる。しかしな
がら、重み係数の初期値によっては、誤差摂動を導入し
なくとも安定したローカルミニマムに捕獲されることな
く非常に少ない学習回数で高速収束する場合がある。従
って、上記のニューラルネットワーク学習方式におい
て、誤差摂動パラメータを零、即ち第1のスレショルド
D1及び第1の定数D2を零に設定して、学習を開始さ
せ、予め規定された学習回数の時点で不正解出力ユニッ
ト最大誤差が第3のスレショルド以上の場合には、ロー
カルミニマムに捕獲される可能性が非常に高いことか
ら、少なくとも第1のスレショルドD1を零でない値に
設定して、上記の如く誤差摂動を導入し学習を継続さ
せ、誤差摂動パラメータを調整し収束させる。一方、第
3のスレショルドより小さい場合には、ローカルミニマ
ムに捕獲されることは殆どないことから、誤差摂動を導
入しないで、D1及びD2を零としたまま学習を継続さ
せ、高速収束させてもよい。The above-mentioned learning method can obviously and stably converge at high speed as compared with the conventional method. However, depending on the initial value of the weighting factor, there is a case where the convergence does not occur in a stable local minimum without introducing an error perturbation and the convergence is fast with a very small number of learnings. Therefore, in the above-mentioned neural network learning method, the error perturbation parameter is set to zero, that is, the first threshold D1 and the first constant D2 are set to zero, and learning is started. If the maximum error of the correct output unit is equal to or higher than the third threshold, it is very likely to be captured by the local minimum. Therefore, at least the first threshold D1 is set to a non-zero value, and the error as described above is set. Introduce perturbations to continue learning and adjust error perturbation parameters to converge. On the other hand, if it is smaller than the third threshold, it is rarely captured by the local minimum. Therefore, even if learning is continued with D1 and D2 set to zero without introducing an error perturbation, fast convergence is achieved. Good.
【0028】学習状態判定器18において、このように
重み係数の初期値のローカルミニマム捕獲への影響を不
正解出力ユニット最大誤差を用いて検出し判断すること
により、よりいっそう高速に収束状態に到達させること
が出来る。これまでのシミュレーションによれば、第1
のスレショルドD1及び第1の定数D2を零に設定して
学習を開始させた後、重み係数の初期値の影響で、例え
ば、学習回数が5回の時点で不正解出力ユニット最大誤
差が1に非常に近い値を持ち、第3のスレショルド、例
えば0. 98を越えている場合には、そのまま学習を継
続しても、不正解出力ユニット最大誤差が1に非常に近
い値を保持した状態が継続し、不正解の出力数が少なく
なった時点で、急に安定したローカルミニマムに捕獲さ
れる可能性が非常に高いことがシミュレーションにより
確認されている。また、1から離れた値を持つ場合に
は、その後の学習が進むにつれて2値出力ユニット信号
は順調に素早く全て正解となり高速収束する。したがっ
て、学習状態判定器18において、学習を開始した後、
予め規定された学習回数の時点で不正解出力ユニット最
大誤差検出器16からの不正解出力ユニット最大誤差と
第3のスレショルドとを比較し、それ以降の学習に誤差
摂動を導入するかどうか、即ち、少なくともD1≠0と
するかどうかを判断させてその後の学習を行わせること
により、よりいっそう高速に収束状態に到達させること
が出来る。In the learning state determiner 18, the influence of the initial value of the weighting factor on the local minimum capture is detected and determined by using the maximum error of the incorrect output unit as described above, so that the convergence state is reached even faster. It can be done. According to previous simulations,
After starting the learning by setting the threshold D1 and the first constant D2 of 0 to zero, the incorrect output unit maximum error becomes 1 at the time when the learning count is 5, for example, due to the influence of the initial value of the weighting coefficient. If it has a very close value and exceeds the third threshold, for example, 0.98, even if the learning is continued, it is possible that the maximum value of the incorrect output unit is very close to 1. It has been confirmed by simulation that, when the number of incorrect answers continues to decrease, it is very likely that a stable local minimum will be caught suddenly. Further, when the value has a value apart from 1, all the binary output unit signals smoothly and quickly become correct and converge at high speed as the learning thereafter progresses. Therefore, in the learning state determiner 18, after starting learning,
Whether the incorrect output unit maximum error from the incorrect output unit maximum error detector 16 is compared with the third threshold at a predetermined number of times of learning, and whether an error perturbation is introduced in the subsequent learning, that is, , It is possible to reach the convergent state at a higher speed by determining whether or not at least D1 ≠ 0 and performing the subsequent learning.
【0029】上記では、学習用入力信号に対する一連の
学習方式について述べたが、この外に学習用入力信号追
加型反復学習方式と呼ばれる反復学習方式がある。即
ち、与えられた学習用入力信号に対して、一旦、学習用
入力信号に対して全て正しい出力が得られる収束状態に
なり、第4のスレショルドを越え学習を終了した時点
で、汎化能力の評価の為にテスト用入力信号を入力し、
これに対する2値出力ユニット信号の正解・不正解を判
断して、誤りがある場合には、誤りを発生しているテス
ト用入力信号だけを学習用入力信号として移し、それま
での学習用入力信号に追加して、その新たな学習用入力
信号に対して再度学習する反復学習を行い、テスト用入
力信号に対して誤りが無ければ反復学習を終了する。こ
の反復学習方式に於て、反復学習を行う毎に重み係数の
初期値設定が行われるが、上記の重み係数の初期値のロ
ーカルミニマム捕獲への影響を不正解出力ユニット最大
誤差を用いて検出し判断することによって、誤差摂動パ
ラメータを制御することは、反復学習の高速化に非常に
効果が大きい。Although a series of learning methods for the learning input signal have been described above, there is another iterative learning method called a learning input signal addition type iterative learning method. That is, for a given learning input signal, once a convergence state is reached in which correct outputs are obtained for all learning input signals, and when the learning is completed by exceeding the fourth threshold, the generalization capability Input the test input signal for evaluation,
The correct / incorrect answer of the binary output unit signal to this is judged, and if there is an error, only the test input signal in which the error has occurred is transferred as the learning input signal, and the learning input signals up to that point are transferred. In addition, iterative learning is performed again for the new learning input signal, and if there is no error in the test input signal, the iterative learning ends. In this iterative learning method, the initial value of the weighting coefficient is set every time iterative learning is performed, but the influence of the initial value of the above weighting coefficient on the local minimum capture is detected using the incorrect output unit maximum error. Therefore, controlling the error perturbation parameter by making a decision is very effective in speeding up the iterative learning.
【0030】また、本実施例では詳細を省略するが、不
正解出力ユニット最大誤差の他に不正解出力ユニット最
小誤差を求め、学習状態判定器18において、不正解出
力ユニット最小誤差あるいは収束してない状態での正解
出力ユニット最小余裕が、新たにそれぞれ準備されたス
レショルドいずれかを越えた状態になった場合には、安
定なローカルミニマム捕獲状態に捕われたと見做し、第
1のスレショルドD1及び第1の定数D2を一旦大きく
し、即ち誤差摂動パラメータD1、D2を増加させ、ロ
ーカルミニマム捕獲状態から逃れた後に、再び、D1及
びD2を小さくし誤差摂動パラメータを減少させて、収
束させてもよい。また、誤差摂動パラメータD1、D2
を変更させると共に、学習係数や慣性係数などの学習パ
ラメータを変更してもよい。Although not described in detail in this embodiment, an incorrect output unit minimum error is obtained in addition to the incorrect output unit maximum error, and the learning state determiner 18 determines the incorrect output unit minimum error or converges. If the minimum margin of the correct output unit in the absence state exceeds any of the newly prepared thresholds, it is considered that the stable local minimum capture state is captured, and the first threshold D1 and Even if the first constant D2 is once increased, that is, the error perturbation parameters D1 and D2 are increased, and the local minimum capture state is escaped, D1 and D2 are decreased again and the error perturbation parameter is decreased to converge. Good. Also, the error perturbation parameters D1 and D2
May be changed and learning parameters such as a learning coefficient and an inertia coefficient may be changed.
【0031】尚、本発明の学習方式は、多値ニューラル
ネットワークとして、2値の例をあげ説明したが、この
他に連続量の教師信号を扱うニューラルネットワークに
おいても、教師信号に収束し正解とみなす為の予め与え
られた領域を設け、出力ユニット信号がその領域内にあ
れば正解、なければ不正解、また、全て正解で教師信号
と一致したとみなすことにより、上記と同様な方式を適
用できるなど一般の教師信号を用いたニューラルネット
ワークの学習に対しても幅広く適用できる。The learning method of the present invention has been described by taking a binary example as a multi-valued neural network. However, in a neural network which handles a continuous amount of teacher signals in addition to this, it converges to a teacher signal and a correct answer is obtained. Applying the same method as above, by providing a pre-given area to consider, if the output unit signal is in that area, correct answer, if not, incorrect answer It can be widely applied to learning of neural networks using general teacher signals.
【0032】以上の実施例において、多層ニューラルネ
ットワークを前提に説明したが、教師信号を利用して学
習させるニューラルネットワークであれば、上記以外の
ニューラルネットワークを用いても良い。In the above embodiments, the explanation has been made on the premise of the multilayer neural network, but a neural network other than the above may be used as long as it is a neural network which performs learning by using a teacher signal.
【0033】[0033]
【発明の効果】以上述べたように、本発明のニューラル
ネットワークの学習方式において、誤差摂動パラメータ
を適時調整することにより、学習過程において多値教師
信号と多値出力ユニット信号との間の誤りが変化しない
非常に安定したローカルミニマムやローカルミニマムで
はないが変化が緩やかな状態に陥いることなく、また、
誤差摂動に伴う正解出力を得る為の余裕を低減させるこ
となく、素早く確実に収束させることができ、非常に高
い汎化能力を実現できる。従って、従来の誤差摂動方式
より学習回数を10倍程度短縮できる。また、ローカル
ミニマムに落ち込むことがないことから、必要最小限の
中間ユニット数あるいは中間層数を用いて安定に最適状
態に収束させることができ、ハードウェア規模や演算量
を少なくできる。As described above, in the learning method of the neural network of the present invention, the error between the multilevel teacher signal and the multilevel output unit signal is corrected in the learning process by adjusting the error perturbation parameter in time. It is not a very stable local minimum or local minimum that does not change, but it does not fall into a gradual state,
It is possible to quickly and surely converge without reducing the margin for obtaining the correct output due to the error perturbation, and it is possible to realize a very high generalization ability. Therefore, the number of times of learning can be reduced by about 10 times as compared with the conventional error perturbation method. Further, since it does not fall into the local minimum, it is possible to stably converge to the optimum state by using the minimum required number of intermediate units or intermediate layers, and it is possible to reduce the hardware scale and the amount of calculation.
【0034】本発明の学習方式を用いた多値ニューラル
ネットワークは、従来方式に比べて少ない中間層ユニッ
ト数あるいは中間層を用い、初期依存性もなく且つ低い
演算精度を持った重み係数で重み係数が高速かつ安定に
収束し、所望の多値出力信号を送出することができる。
このことから、従来技術では実現が困難な大規模な多値
論理回路などを本発明を用いた多値ニューラルネットワ
ークにより短時間で自由に設計し実現することや、これ
まで迅速な学習が必要で、且つ完全な収束が要求される
人工知能システムや検索システム、パターン認識、デー
タ変換、データ圧縮、多値画像処理さらには通信システ
ムなどへの幅広い応用ができるなどの非常に幅広い効果
を有している。The multi-valued neural network using the learning method of the present invention uses a smaller number of intermediate layer units or intermediate layers than the conventional method, has no initial dependence, and has a low calculation accuracy. Can converge at high speed and stably, and a desired multilevel output signal can be transmitted.
From this, it is necessary to freely design and realize a large-scale multivalued logic circuit or the like, which is difficult to be realized by the conventional technology, in a short time by the multivalued neural network using the present invention, and rapid learning so far. In addition, it has a very wide range of effects such as wide application to artificial intelligence systems and search systems, pattern recognition, data conversion, data compression, multi-valued image processing, and communication systems that require complete convergence. There is.
【図1】実施例における本発明のニューラルネットワー
クの学習方式を用いた多層ニューラルネットワークの学
習処理の1構成例である。FIG. 1 is a configuration example of a learning process of a multilayer neural network using a learning method of a neural network of the present invention in an embodiment.
【図2】従来の学習方式による多層ニューラルネットワ
ークにおける学習処理の1構成例である。FIG. 2 is a configuration example of a learning process in a multilayer neural network according to a conventional learning method.
【図3】従来の誤差摂動型学習方式による多層ニューラ
ルネットワークにおける学習処理の1構成例である。FIG. 3 is a configuration example of a learning process in a multilayer neural network according to a conventional error perturbation learning method.
1 多層ニューラルネットワーク 2 入力信号入力端子 21 入力信号ユニット入力端子 22 入力信号ユニット入力端子 2N 入力信号ユニット入力端子 3 教師信号入力端子 31 教師信号ユニット入力端子 32 教師信号ユニット入力端子 3M 教師信号ユニット入力端子 4 減算器 41 減算器 42 減算器 4M 減算器 5 重み係数制御器 6 2値スレショルド回路 61 2値スレショルド回路 62 2値スレショルド回路 6M 2値スレショルド回路 7 2値スレショルド回路 71 2値スレショルド回路 72 2値スレショルド回路 7M 2値スレショルド回路 8 一致検出器 9 動作モード制御器 10 重み係数更新誤差信号生成器 101 重み係数更新誤差信号生成器 102 重み係数更新誤差信号生成器 10M 重み係数更新誤差信号生成器 11 学習状態判定器 12 動作モード制御器 13 出力正誤判定器 14 重み係数制御器 15 動作モード制御器 16 不正解出力ユニット最大誤差検出器 17 正解出力ユニット最小余裕検出器 18 学習状態判定器1 Multilayer neural network 2 Input signal input terminal 2 1 Input signal unit input terminal 2 2 Input signal unit input terminal 2 N Input signal unit input terminal 3 Teacher signal input terminal 3 1 Teacher signal unit input terminal 3 2 Teacher signal unit input terminal 3 M teacher signal unit input terminal 4 subtracter 4 1 subtractor 4 second subtracter 4 M subtracter 5 weight coefficient controller 6 binary threshold circuit 61 binary threshold circuit 6 2 binary threshold circuit 6 M binary threshold circuit 7 Binary Threshold Circuit 7 1 Binary Threshold Circuit 7 2 Binary Threshold Circuit 7 M Binary Threshold Circuit 8 Match Detector 9 Operation Mode Controller 10 Weighting Factor Update Error Signal Generator 10 1 Weighting Factor Update Error Signal Generator 10 2 weight coefficient updating error signal generator 10 M weighting coefficient updating error signal generator 11 learning state Joki 12 operation mode controller 13 outputs accuracy determination unit 14 weighting coefficient controller 15 operation mode controller 16 Incorrect output unit maximum error detector 17 correct output units minimum margin detector 18 learning state determiner
フロントページの続き (56)参考文献 特開 平4−15860(JP,A) 特開 平4−251392(JP,A) 特開 平3−218559(JP,A) 特開 平8−249304(JP,A) 特開 平2−277180(JP,A) 特開 平4−30280(JP,A) 八塚陽太郎,「誤差摂動による2値3 層ニューラルネットワークの高速収束 化」,電子情報通信学会1995年総合大会 講演論文集,日本,社団法人電子情報通 信学会,1995年3月10日,第1分冊,p p.24 八塚陽太郎,「誤差摂動型2値3層ニ ューラルネットワークに於けるローカル ミニマムの検出と汎化特性」,電子情報 通信学会1995年情報・システムソサエテ ィ大会講演論文集,日本,社団法人電子 情報通信学会,1995年8月15日,pp. 14 榎本大、八塚陽太郎,「2値3層誤差 摂動切替型ニューラルネットワークの汎 化能力を用いた学習データ追加型逐次学 習の提案」,電子情報通信学会1996年情 報・システムソサエティ大会講演論文 集,日本,社団法人電子情報通信学会, 1996年8月30日,pp.30 榎本大、八塚陽太郎,「誤差摂動切替 方式による2値3層ニューラルネットワ ークの汎化特性の改善」,電子情報通信 学会1996年総合大会講演論文集,日本, 社団法人電子情報通信学会,1996年3月 11日,第1分冊,pp.21 Yatsuzuka,Y.,An E rror Pertubation f or Learning and De tection of Local M inima in Binary 3− Layered Neural Net works,Proc.or 1995 I EEE Int.Conf.on Ne ural Networks,1995年12 月,Vol.1,pp.63−68,(IS BN:0−7803−2768−3) (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 JSTファイル(JOIS) CSDB(日本国特許庁)Continuation of the front page (56) Reference JP-A-4-15860 (JP, A) JP-A-4-251392 (JP, A) JP-A-3-218559 (JP, A) JP-A-8-249304 (JP , A) JP-A-2-277180 (JP, A) JP-A-4-30280 (JP, A) Yotaro Yatsuka, “Fast convergence of binary three-layer neural network by error perturbation”, IEICE 1995 General Conference Proceedings, Japan, The Institute of Electronics, Information and Communication Engineers, March 10, 1995, Volume 1, p. 24 Yotaro Yatsuka, “Detection and generalization of local minimum in error perturbation type binary three-layer neural network”, Proc. Of Information and Systems Society Conference of the Institute of Electronics, Information and Communication Engineers 1995, Japan, Japan Society The Institute of Electronics, Information and Communication Engineers, August 15, 1995, pp. 14 Enomoto Univ., Yotarou Yatsuka, "Proposal of learning data addition type sequential learning using generalization ability of binary three-layer error perturbation switching neural network" , Proceedings of the 1996 Information and Systems Society Conference of the Institute of Electronics, Information and Communication Engineers, Japan, The Institute of Electronics, Information and Communication Engineers, August 30, 1996, pp. 30 Dai Enomoto, Yotaro Yatsuka, "Improvement of generalization characteristics of binary 3-layer neural network by error perturbation switching method", Proc. Of IEICE 1996 General Conference, Japan, The Institute of Electronics, Information and Communication Engineers, March 11, 1996, Volume 1, pp. 21 Yatsuzuki, Y .; , An Error Perforation for Learning and Deletion of Local Local Minima in Binary 3-Layered Neural Networks, Proc. or 1995 IEEE Int. Conf. on Neural Networks, December 1995, Vol. 1, pp. 63-68, (IS BN: 0-7803-2768-3) (58) Fields investigated (Int.Cl. 7 , DB name) G06N 1/00-7/08 G06G 7/60 JST file (JOIS) CSDB (Japan Patent Office)
Claims (5)
ネットワークの学習において、該教師信号から正解の出
力ユニットの出力ユニット信号を差し引いて得た誤差信
号の絶対値が第1のスレショルド以下の場合、該誤差信
号と逆極性を持ち該教師信号から離れるに従い振幅が小
さくなる重み係数更新誤差信号を、該誤差信号の絶対値
が該第1のスレショルドより大きい場合、該誤差信号よ
り小さい振幅を持った同極性の重み係数更新誤差信号を
少なくとも生成し、該重み係数更新誤差信号を用いて重
み係数を更新し学習を行い、不正解の出力ユニットにお
ける該誤差信号の絶対値の全学習用入力信号に対する最
大値が第2のスレショルドより小さいと、該第1のスレ
ショルドを減少させて学習させることを特徴としたニュ
ーラルネットワーク。1. In learning of a neural network for learning using a teacher signal, when the absolute value of an error signal obtained by subtracting the output unit signal of the correct output unit from the teacher signal is less than or equal to a first threshold, A weighting coefficient update error signal having a polarity opposite to that of the error signal and having an amplitude that decreases as the distance from the teacher signal increases, and if the absolute value of the error signal is greater than the first threshold, the weight signal update error signal has an amplitude smaller than the error signal. Generate at least a polarity weighting factor update error signal, update the weighting factor using the weighting factor update error signal, and perform learning to determine the maximum of the absolute value of the error signal in the incorrect output unit for all learning input signals. A neural network characterized in that when the value is smaller than the second threshold, the first threshold is reduced for learning. .
において、不正解の出力ユニットに対して該誤差信号よ
り第1の定数程小さい振幅を持った重み係数更新誤差信
号を生成し、該重み係数更新誤差信号を用いて重み係数
を更新し学習を行い、前記最大値が前記第2のスレショ
ルドより小さいと、該第1の定数を減少させて引き続き
学習させることを特徴としたニューラルネットワーク。2. The neural network according to claim 1, wherein a weight coefficient update error signal having an amplitude smaller than the error signal by a first constant is generated for an incorrect output unit, and the weight coefficient update error is generated. A neural network characterized in that a weighting coefficient is updated using a signal to perform learning, and when the maximum value is smaller than the second threshold, the first constant is decreased to continue learning.
において、前記第1のスレショルドを零に設定して、学
習を開始させ、予め規定された学習回数の時点で前記最
大値が第3のスレショルド以上の場合には、少なくとも
前記第1のスレショルドを零でない値に設定して学習さ
せることを特徴としたニューラルネットワーク。3. The neural network according to claim 1, wherein the first threshold is set to zero to start learning, and the maximum value is equal to or higher than the third threshold at a predetermined number of learning times. In this case, at least the first threshold is set to a non-zero value for learning.
において、前記第1のスレショルド及び第1の定数をそ
れぞれ零に設定して、学習を開始させ、予め規定された
学習回数の時点で前記最大値が第3のスレショルド以上
の場合には、少なくとも前記第1のスレショルドを零で
ない値に設定して学習させることを特徴としたニューラ
ルネットワーク。4. The neural network according to claim 2, wherein each of the first threshold and the first constant is set to zero to start learning, and the maximum value is set at a point of a predetermined number of times of learning. A neural network characterized in that at least the first threshold is set to a non-zero value for learning when the threshold is equal to or higher than the third threshold.
ルネットワークにおいて、全学習用入力信号に対する出
力ユニット信号が前記教師信号と全て与えられた範囲内
で一致した後、該出力ユニット信号と該教師信号とから
正しい出力ユニット信号を得る余裕を求め、全学習用入
力信号に対する最小余裕が予め用意された第4のスレシ
ョルドより大きいと、学習を終了させることを特徴とし
たニューラルネットワーク。5. The neural network according to claim 1, 2, 3 and 4, wherein after all output unit signals for all learning input signals match the teacher signal within a given range, A neural network characterized by obtaining a margin for obtaining a correct output unit signal from the teacher signal and terminating learning when the minimum margin for all learning input signals is larger than a fourth threshold prepared in advance.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31126496A JP3368774B2 (en) | 1996-11-08 | 1996-11-08 | neural network |
US08/906,169 US5870728A (en) | 1996-08-07 | 1997-08-05 | Learning procedure for multi-level neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31126496A JP3368774B2 (en) | 1996-11-08 | 1996-11-08 | neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10143487A JPH10143487A (en) | 1998-05-29 |
JP3368774B2 true JP3368774B2 (en) | 2003-01-20 |
Family
ID=18015055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31126496A Expired - Fee Related JP3368774B2 (en) | 1996-08-07 | 1996-11-08 | neural network |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3368774B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6501146B2 (en) * | 2014-03-18 | 2019-04-17 | パナソニックIpマネジメント株式会社 | Neural network circuit and learning method thereof |
-
1996
- 1996-11-08 JP JP31126496A patent/JP3368774B2/en not_active Expired - Fee Related
Non-Patent Citations (5)
Title |
---|
Yatsuzuka,Y.,An Error Pertubation for Learning and Detection of Local Minima in Binary 3−Layered Neural Networks,Proc.or 1995 IEEE Int.Conf.on Neural Networks,1995年12月,Vol.1,pp.63−68,(ISBN:0−7803−2768−3) |
八塚陽太郎,「誤差摂動による2値3層ニューラルネットワークの高速収束化」,電子情報通信学会1995年総合大会講演論文集,日本,社団法人電子情報通信学会,1995年3月10日,第1分冊,pp.24 |
八塚陽太郎,「誤差摂動型2値3層ニューラルネットワークに於けるローカルミニマムの検出と汎化特性」,電子情報通信学会1995年情報・システムソサエティ大会講演論文集,日本,社団法人電子情報通信学会,1995年8月15日,pp.14 |
榎本大、八塚陽太郎,「2値3層誤差摂動切替型ニューラルネットワークの汎化能力を用いた学習データ追加型逐次学習の提案」,電子情報通信学会1996年情報・システムソサエティ大会講演論文集,日本,社団法人電子情報通信学会,1996年8月30日,pp.30 |
榎本大、八塚陽太郎,「誤差摂動切替方式による2値3層ニューラルネットワークの汎化特性の改善」,電子情報通信学会1996年総合大会講演論文集,日本,社団法人電子情報通信学会,1996年3月11日,第1分冊,pp.21 |
Also Published As
Publication number | Publication date |
---|---|
JPH10143487A (en) | 1998-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yu et al. | A fuzzy neural network approximator with fast terminal sliding mode and its applications | |
US5621861A (en) | Method of reducing amount of data required to achieve neural network learning | |
US5764860A (en) | Learning method for multi-level neural network | |
Lim et al. | Lyapunov theory-based multilayered neural network | |
JP3368774B2 (en) | neural network | |
US5870728A (en) | Learning procedure for multi-level neural network | |
Oh et al. | A new error function at hidden layers for fast training of multilayer perceptrons | |
Azzouz et al. | Automatic modulation recognition—II | |
JP3367295B2 (en) | Multi-valued neural network learning method | |
Siu et al. | Decision feedback equalization using neural network structures | |
Looney | Neural networks as expert systems | |
JP3277648B2 (en) | Parallel neural network | |
JP3757722B2 (en) | Multi-layer neural network unit optimization method and apparatus | |
JP3367264B2 (en) | Neural network learning method | |
JPH1049509A (en) | Neural network learning system | |
JP4586420B2 (en) | Multilayer neural network learning apparatus and software | |
Oh et al. | Adaptive fuzzy morphological filtering of impulse noise in images | |
JP2004334671A (en) | Multilayer neural network learning method | |
Ludermir | Logical networks capable of computing weighted regular languages | |
Cid-Sueiro et al. | Digital equalization using modular neural networks: An overview | |
Majewski et al. | Extracting symbolic function expressions by means of neural networks | |
Liu et al. | Immune clonal selection wavelet network based intrusion detection | |
KR100302254B1 (en) | Error Backpropagation Method in Omnidirectional Neural Network Using Optimal Learning Rate | |
Lin et al. | Blind Equalization Using Pseudo-Gaussian-Based Compensatory Neuro-Fuzzy Filters | |
Abiyev et al. | Nonlinear neuro-fuzzy network for channel equalization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021015 |
|
LAPS | Cancellation because of no payment of annual fees |