JPH09134207A - それぞれ異なったプロセスオブザーバブルを表す少なくとも2つの時系列の共通の学習によってダイナミックプロセスをシミュレートするための学習方法および装置 - Google Patents
それぞれ異なったプロセスオブザーバブルを表す少なくとも2つの時系列の共通の学習によってダイナミックプロセスをシミュレートするための学習方法および装置Info
- Publication number
- JPH09134207A JPH09134207A JP26452296A JP26452296A JPH09134207A JP H09134207 A JPH09134207 A JP H09134207A JP 26452296 A JP26452296 A JP 26452296A JP 26452296 A JP26452296 A JP 26452296A JP H09134207 A JPH09134207 A JP H09134207A
- Authority
- JP
- Japan
- Prior art keywords
- function
- time series
- values
- value
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 230000008569 process Effects 0.000 title claims abstract description 29
- 238000004088 simulation Methods 0.000 title 1
- 238000009826 distribution Methods 0.000 claims abstract description 40
- 230000006870 function Effects 0.000 claims description 77
- 238000012546 transfer Methods 0.000 claims description 21
- 230000001537 neural effect Effects 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 4
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000005309 stochastic process Methods 0.000 claims description 2
- 239000013598 vector Substances 0.000 abstract description 18
- 230000001242 postsynaptic effect Effects 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000012731 temporal analysis Methods 0.000 description 3
- 238000000700 time series analysis Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 241000282487 Vulpes Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 238000009933 burial Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
(57)【要約】
【課題】 それぞれ異なったプロセスオブザーバブル
を表す少なくとも2つの時系列の共通の学習によってダ
イナミックプロセスをシミュレートするための新規な学
習方法。 【解決手段】 プロセスオブザーバブルを関数近似器に
よってシミュレートし、関数近似器において、すべての
時系列の、過去に存在する値だけを使用できるように
し、時系列の個々の値を、値毎に固有の確率分布によっ
て発生する、確率過程の実施と把握し、関数近似器のト
レーニングのために、該関数近似器によって発生された
値を出力値の形における時系列のその都度の現在値に対
して加算しかつ前記関数近似器によって実施関数とし
て、前記出力値の確率分布が供給されるすべての値の確
率分布によって最適に相関付けされていることを保証す
るような関数を発生する。
を表す少なくとも2つの時系列の共通の学習によってダ
イナミックプロセスをシミュレートするための新規な学
習方法。 【解決手段】 プロセスオブザーバブルを関数近似器に
よってシミュレートし、関数近似器において、すべての
時系列の、過去に存在する値だけを使用できるように
し、時系列の個々の値を、値毎に固有の確率分布によっ
て発生する、確率過程の実施と把握し、関数近似器のト
レーニングのために、該関数近似器によって発生された
値を出力値の形における時系列のその都度の現在値に対
して加算しかつ前記関数近似器によって実施関数とし
て、前記出力値の確率分布が供給されるすべての値の確
率分布によって最適に相関付けされていることを保証す
るような関数を発生する。
Description
【0001】
【発明の属する技術分野】本発明は、技術的または生物
学的なプロセスをシミュレートするための新規な学習方
法およびこの学習方法を実施するための有利な装置に関
する。
学的なプロセスをシミュレートするための新規な学習方
法およびこの学習方法を実施するための有利な装置に関
する。
【0002】
【従来の技術】複合的な技術的なシステムを模倣するた
めに、しばしば、プロセスまたはシステムをシミュレー
トすることができるようにするために、学習能力のある
コンポーネントが使用される。その際これらのシステム
にとって必要なのは、それらが自動的にプロセス特性を
学習することができることおよびシミュレートすべきプ
ロセスの特性に整合されるということである。殊にこの
種のシステムは、殆どと言っていい程決定論的ではない
かまたは極度に確率的に経過するプロセスに対して使用
される。この関連における制御問題に対して、ニューラ
ルネットまたはファジィ制御器が使用されることが多
い。
めに、しばしば、プロセスまたはシステムをシミュレー
トすることができるようにするために、学習能力のある
コンポーネントが使用される。その際これらのシステム
にとって必要なのは、それらが自動的にプロセス特性を
学習することができることおよびシミュレートすべきプ
ロセスの特性に整合されるということである。殊にこの
種のシステムは、殆どと言っていい程決定論的ではない
かまたは極度に確率的に経過するプロセスに対して使用
される。この関連における制御問題に対して、ニューラ
ルネットまたはファジィ制御器が使用されることが多
い。
【0003】例えばニューラルネットに対してこれまで
普及しているトレーニング方法では、ニューラルネット
に入力時系列が供給されかつネットの出力された値が入
力値と比較される。学習成果は、出力値が入力値にどの
程度近似しているかに基づいて測定される。この普及し
ている方法によって、整合、即ちネットのトレーニング
を実施することができるようにするために、ニューラル
ネットの個々のニューロンにおける重みが変化される。
その他の学習方法は現在のところ公知ではない。
普及しているトレーニング方法では、ニューラルネット
に入力時系列が供給されかつネットの出力された値が入
力値と比較される。学習成果は、出力値が入力値にどの
程度近似しているかに基づいて測定される。この普及し
ている方法によって、整合、即ちネットのトレーニング
を実施することができるようにするために、ニューラル
ネットの個々のニューロンにおける重みが変化される。
その他の学習方法は現在のところ公知ではない。
【0004】
【発明が解決しようとする課題】本発明の課題は、プロ
セスの複数の種々のオブザーバブル(Observab
le)が共通に、この学習方法ないし学習装置の出力量
の決定に関与するようにした学習装置および方法を提供
することである。殊に、本発明の方法によって、学習成
果を測定するために出力量それ自体を使用しないことを
保証するようにしたい。
セスの複数の種々のオブザーバブル(Observab
le)が共通に、この学習方法ないし学習装置の出力量
の決定に関与するようにした学習装置および方法を提供
することである。殊に、本発明の方法によって、学習成
果を測定するために出力量それ自体を使用しないことを
保証するようにしたい。
【0005】
【課題を解決するための手段】この課題は、学習方法に
対して請求項1の特徴部分に記載の構成および学習装置
に対しては請求項6の特徴部分に記載の構成によって解
決される。
対して請求項1の特徴部分に記載の構成および学習装置
に対しては請求項6の特徴部分に記載の構成によって解
決される。
【0006】本発明のその他の構成は、その他の請求項
に記載されている。
に記載されている。
【0007】
【発明の実施の形態】本発明の方法の特別な利点は次の
点にある。即ち、現在成分を形成するために、非常に種
々異なったオブザーバブルの時系列のすべての過去成分
が用いられることである。特別有利にも、現在値の、す
べての過去値による最適な相関付けによって、可能な最
大の学習成果を調整設定することができることが保証さ
れる。
点にある。即ち、現在成分を形成するために、非常に種
々異なったオブザーバブルの時系列のすべての過去成分
が用いられることである。特別有利にも、現在値の、す
べての過去値による最適な相関付けによって、可能な最
大の学習成果を調整設定することができることが保証さ
れる。
【0008】本発明の方法および装置における計算コス
トを低減することができるようにするために、現在成分
を関数近似器によって変化しかつ過去成分を実質的に変
えずに出力側に転送するようにしさえすればよい。
トを低減することができるようにするために、現在成分
を関数近似器によって変化しかつ過去成分を実質的に変
えずに出力側に転送するようにしさえすればよい。
【0009】有利には、本発明の方法において、後処理
を簡単にしかつ正規化するために、出力すべき値は、0
および1の間に制限されている微分可能な関数、例えば
シグモイド関数によって処理される。
を簡単にしかつ正規化するために、出力すべき値は、0
および1の間に制限されている微分可能な関数、例えば
シグモイド関数によって処理される。
【0010】特別有利には、本発明の方法によれば、オ
ブザーバブルを、それらが、その都度の関数近似器の学
習プロセスにどの程度有用な情報を提供しているかに応
じて選択することができる。この種のオブザーバブルの
この有用性に対する尺度は、それと別のオブザーバブル
との間に形成することができる相関の程度である。この
オブザーバブルが大幅に相関可能であればある程、それ
は本発明の方法および本発明の装置の学習プロセスに対
して有用である。
ブザーバブルを、それらが、その都度の関数近似器の学
習プロセスにどの程度有用な情報を提供しているかに応
じて選択することができる。この種のオブザーバブルの
この有用性に対する尺度は、それと別のオブザーバブル
との間に形成することができる相関の程度である。この
オブザーバブルが大幅に相関可能であればある程、それ
は本発明の方法および本発明の装置の学習プロセスに対
して有用である。
【0011】特別有利には本発明の方法は上記の費用関
数によって実施される。その理由は、それがインフォマ
ックス(Infomax)原理を含んでいると同時に、
相関を評価するからである。インフォマックス原理によ
って、この関連において、方法ないし装置の入力側から
の情報における最大値が出力側に転送されることが保証
されるからである。
数によって実施される。その理由は、それがインフォマ
ックス(Infomax)原理を含んでいると同時に、
相関を評価するからである。インフォマックス原理によ
って、この関連において、方法ないし装置の入力側から
の情報における最大値が出力側に転送されることが保証
されるからである。
【0012】本発明の方法を実施するために特別有利に
は、それぞれのオブザーバブルに対して関数近似手段を
使用することができる学習装置が適している。これらの
関数近似手段に、すべてのオブザーバブルの過去値を供
給することによって、既に装置の側において、現在値お
よび過去値を相関付けることができることが保証され
る。
は、それぞれのオブザーバブルに対して関数近似手段を
使用することができる学習装置が適している。これらの
関数近似手段に、すべてのオブザーバブルの過去値を供
給することによって、既に装置の側において、現在値お
よび過去値を相関付けることができることが保証され
る。
【0013】特別有利には、この種の関数近似器はニュ
ーラルネットの形において実現される。というのは、こ
れらは広範囲に研究されておりかつ任意の多様性におい
てエミュレーションプログラムとしても使用することが
できるからである。
ーラルネットの形において実現される。というのは、こ
れらは広範囲に研究されておりかつ任意の多様性におい
てエミュレーションプログラムとしても使用することが
できるからである。
【0014】
【実施例】次に本発明を図示の実施例につき図面を用い
て詳細に説明する。
て詳細に説明する。
【0015】図1には本発明の学習装置の1例が示され
ている。本発明の装置および本発明の方法の主要な目的
は、時系列の多変量のモデル化にある。例えばダイナミ
ックシステムのシステム量の時間的な展開が多変量のモ
デルを用いて教師なしで学習される。システムの入力値
は例えば、観測されるシステムの複数のオブザーバルの
測定値である。本発明によれば、そこから、オブザーバ
ブルの時系列値が独自の過去および別のオブザーバブル
の過去にどのような手法で依存しているかが抽出され
る。本発明の手法による過程の結果は、観測される時系
列の現在および過去の相関付けである。
ている。本発明の装置および本発明の方法の主要な目的
は、時系列の多変量のモデル化にある。例えばダイナミ
ックシステムのシステム量の時間的な展開が多変量のモ
デルを用いて教師なしで学習される。システムの入力値
は例えば、観測されるシステムの複数のオブザーバルの
測定値である。本発明によれば、そこから、オブザーバ
ブルの時系列値が独自の過去および別のオブザーバブル
の過去にどのような手法で依存しているかが抽出され
る。本発明の手法による過程の結果は、観測される時系
列の現在および過去の相関付けである。
【0016】その際測定されるオブザーバブル間の比較
的高い次数の相関、即ち線形並びに非線形の依存性を抽
出することができる。この相関解析は、例えば、システ
ムの、既に与えられているオブザーバブルとは別の測定
量が実際にも観測されるシステムに関する新しい情報を
提供するかどうかについてを解明する。更に、学習過程
の後に、現在と過去との間の抽出された依存性を、時系
列値、従って将来のシステム状態を予測するために使用
することができる。この予測は特別簡単に行われる。何
故ならば、関数近似器が、オブザーバブルの時系列がそ
れに従って時間的に連続的に展開される写像(Abbildun
g)を表しているからである。従って特別有利には、本
発明の方法およびこの方法を実施するための装置を、こ
の量が、独自の過去、並びに付加的な別のオブザーバブ
ルの過去にどのように依存しているかを学習することに
よって、極めて特定のシステム量の時間的な展開を学習
するために使用することができる。他方において、種々
異なった量の間の依存性を検出することができる。
的高い次数の相関、即ち線形並びに非線形の依存性を抽
出することができる。この相関解析は、例えば、システ
ムの、既に与えられているオブザーバブルとは別の測定
量が実際にも観測されるシステムに関する新しい情報を
提供するかどうかについてを解明する。更に、学習過程
の後に、現在と過去との間の抽出された依存性を、時系
列値、従って将来のシステム状態を予測するために使用
することができる。この予測は特別簡単に行われる。何
故ならば、関数近似器が、オブザーバブルの時系列がそ
れに従って時間的に連続的に展開される写像(Abbildun
g)を表しているからである。従って特別有利には、本
発明の方法およびこの方法を実施するための装置を、こ
の量が、独自の過去、並びに付加的な別のオブザーバブ
ルの過去にどのように依存しているかを学習することに
よって、極めて特定のシステム量の時間的な展開を学習
するために使用することができる。他方において、種々
異なった量の間の依存性を検出することができる。
【0017】特別有利には、本発明の方法およびそれを
実施するための装置によって、教師なし学習と多変量の
時系列解析との間の結合が形成される。これにより、本
発明の手法において、複数のシステム量の同時モデル化
が特別簡単に行われる。殊に本発明の方法は、時系列値
間の線形または正規分布された依存性への制限を有して
いない。更に、本発明の方法によって、特別簡単な費用
関数を使用することができるが、それはその使用に関し
て大きな普遍性を有している。
実施するための装置によって、教師なし学習と多変量の
時系列解析との間の結合が形成される。これにより、本
発明の手法において、複数のシステム量の同時モデル化
が特別簡単に行われる。殊に本発明の方法は、時系列値
間の線形または正規分布された依存性への制限を有して
いない。更に、本発明の方法によって、特別簡単な費用
関数を使用することができるが、それはその使用に関し
て大きな普遍性を有している。
【0018】本発明の方法の利点は殊に、それが、任意
の形式および次数の相関を抽出することができる点にあ
る。更に、本発明の方法は、特別低い埋没次元(Einbet
tungsdimension)、即ちその都度使用のオブザーバブル
の、単変量のモデル化の場合より僅かしか消失しない時
系列値を有している。特別有利には、本発明の方法によ
って、測定雑音の不都合な影響が低減される。更に、本
発明の方法によって、使用することができるすべてのオ
ブザーバブル、並びにモデル化の際のこれらのオブザー
バブルの任意の数の時間的に遅延された値を使用するこ
とによって、存在するすべての情報が最適に利用され
る。
の形式および次数の相関を抽出することができる点にあ
る。更に、本発明の方法は、特別低い埋没次元(Einbet
tungsdimension)、即ちその都度使用のオブザーバブル
の、単変量のモデル化の場合より僅かしか消失しない時
系列値を有している。特別有利には、本発明の方法によ
って、測定雑音の不都合な影響が低減される。更に、本
発明の方法によって、使用することができるすべてのオ
ブザーバブル、並びにモデル化の際のこれらのオブザー
バブルの任意の数の時間的に遅延された値を使用するこ
とによって、存在するすべての情報が最適に利用され
る。
【0019】公知技術において、教師なし学習による単
変量の時系列モデル化の基礎が〔DS95〕に示されて
いる。時間遅延された変数を用いる位相空間再構成のた
めの例は〔SYC91〕に示されている。時系列解析の
ための教師あり学習方法に対しては、〔LF87〕に例
が示されている。本発明により使用される費用関数を導
出するための基礎は、〔NP94〕および数学的な解説
部から明らかである。図1には、時系列解析のための多
変量のモデルが2つのオブザーバブルおよびその都度2
次元の埋没(過去において2つの時間ステップが観測さ
れる)の例に基づいて示されている。第1のオブザーバ
ブルの時系列はxで示されておりかつ第2のオブザーバ
ブルの時系列はyで示されている。時系列の相応の値が
本発明の装置において入力側に供給される。その際本発
明の方法および本発明の装置を、同時に入力されるオブ
ザーバブルの数並びにすべてのオブザーバブルに対して
同じである必要はない、それぞれのオブザーバブルにお
ける埋没次元の高さ(時間的に遡っている値の数)に関
して、任意に拡張することができる。例えば、使用のオ
ブザーバブルの測定系列のエレメントから合成されて成
るベクトルが入力される。この原理は、時間遅延される
座標(delay coordinates)の方法としてまたはTak
ens法として周知である。その際Takens法は、
位相空間の軌道(Trajektorien)ないしそのダイナミク
スを、埋没空間において時間遅延された座標を用いて再
構成するという方法である。それぞれの再構成ベクトル
に対してこのために必要とされる数は埋没次元によって
決められ、埋没次元の方も、位相空間の次元、ないし、
システムがその上で移動するアトラクター(Attrakto
r)の次元によって決められる。従って2つの時系列の
場合、全体のベクトルは例えば、x時系列およびy時系
列の2つの時間的に連続する値から生じる。その際それ
ぞれ個々のオブザーバブルは、dがその埋没次元を表す
ものとして、入力ベクトルに対してd+1個の成分に寄
与している。更にそれぞれのオブザーバブルは、以下
に、現在成分または現在値と表す、入力ベクトルに対し
て、別の値に比して最も新しい成分を作り出す。その他
の、更に遡った値は、以下、過去成分または過去値と表
す。従って、図1から認めることができるように、入力
ベクトルは、xt,xt-1,xt-2およびyt,yt-1並び
にyt-2から成っている。その際xtおよびytは現在値
であり、一方xt-1,xt-2およびyt-1.yt-2は過去値
を表している。本発明の使用に対して必要な、この種の
多数の入力ベクトル(学習/トレーニングデータ)は、
その都度全体の時系列をステップ毎に移動することによ
って得られる。例えば、時系列エレメントが1,2,
3,…と大きくなるように番号付けされているとき、こ
の時系列の、全体の入力ベクトルに対する第1の寄与は
エレメント1,2,3から成り、第2の寄与は例えば、
エレメント2,3,4からなり、第3の寄与は、3,
4,5から成り、以下同様である。例えば同様に、本発
明の方法を使用する際に、時系列内のジャンプ幅は、1
より大きく選択することができる。例えば、すべての入
力値は、それぞれのオブザーバブルのその都度時間的に
最も新しいものを除いて、即ち正確には過去値は、例え
ばジグモイド伝達関数
変量の時系列モデル化の基礎が〔DS95〕に示されて
いる。時間遅延された変数を用いる位相空間再構成のた
めの例は〔SYC91〕に示されている。時系列解析の
ための教師あり学習方法に対しては、〔LF87〕に例
が示されている。本発明により使用される費用関数を導
出するための基礎は、〔NP94〕および数学的な解説
部から明らかである。図1には、時系列解析のための多
変量のモデルが2つのオブザーバブルおよびその都度2
次元の埋没(過去において2つの時間ステップが観測さ
れる)の例に基づいて示されている。第1のオブザーバ
ブルの時系列はxで示されておりかつ第2のオブザーバ
ブルの時系列はyで示されている。時系列の相応の値が
本発明の装置において入力側に供給される。その際本発
明の方法および本発明の装置を、同時に入力されるオブ
ザーバブルの数並びにすべてのオブザーバブルに対して
同じである必要はない、それぞれのオブザーバブルにお
ける埋没次元の高さ(時間的に遡っている値の数)に関
して、任意に拡張することができる。例えば、使用のオ
ブザーバブルの測定系列のエレメントから合成されて成
るベクトルが入力される。この原理は、時間遅延される
座標(delay coordinates)の方法としてまたはTak
ens法として周知である。その際Takens法は、
位相空間の軌道(Trajektorien)ないしそのダイナミク
スを、埋没空間において時間遅延された座標を用いて再
構成するという方法である。それぞれの再構成ベクトル
に対してこのために必要とされる数は埋没次元によって
決められ、埋没次元の方も、位相空間の次元、ないし、
システムがその上で移動するアトラクター(Attrakto
r)の次元によって決められる。従って2つの時系列の
場合、全体のベクトルは例えば、x時系列およびy時系
列の2つの時間的に連続する値から生じる。その際それ
ぞれ個々のオブザーバブルは、dがその埋没次元を表す
ものとして、入力ベクトルに対してd+1個の成分に寄
与している。更にそれぞれのオブザーバブルは、以下
に、現在成分または現在値と表す、入力ベクトルに対し
て、別の値に比して最も新しい成分を作り出す。その他
の、更に遡った値は、以下、過去成分または過去値と表
す。従って、図1から認めることができるように、入力
ベクトルは、xt,xt-1,xt-2およびyt,yt-1並び
にyt-2から成っている。その際xtおよびytは現在値
であり、一方xt-1,xt-2およびyt-1.yt-2は過去値
を表している。本発明の使用に対して必要な、この種の
多数の入力ベクトル(学習/トレーニングデータ)は、
その都度全体の時系列をステップ毎に移動することによ
って得られる。例えば、時系列エレメントが1,2,
3,…と大きくなるように番号付けされているとき、こ
の時系列の、全体の入力ベクトルに対する第1の寄与は
エレメント1,2,3から成り、第2の寄与は例えば、
エレメント2,3,4からなり、第3の寄与は、3,
4,5から成り、以下同様である。例えば同様に、本発
明の方法を使用する際に、時系列内のジャンプ幅は、1
より大きく選択することができる。例えば、すべての入
力値は、それぞれのオブザーバブルのその都度時間的に
最も新しいものを除いて、即ち正確には過去値は、例え
ばジグモイド伝達関数
【0020】
【数4】
【0021】によって0と1との間の領域に制限され、
その他の場合は変化されずに出力される。しかしこのた
めに、0と1との間に制限された、任意の別の微分可能
な関数を使用することもできる。現在成分は、その都度
独自の時系列の過去値にも、その他の時系列の過去値に
も依存している、関数近似器F1,F2の関数値に加算さ
れる。その際本発明の方法および装置によって、いずれ
の時系列値も、そこから見て時間的に遡った値に対して
影響を持ってないことが保証される。従って殊に、モデ
ル化されたプロセスの因果関係はモデルにおいても含ま
れている状態を維持する。関数近似器は、時系列の時間
的な展開が基礎としているところの写像規定(Abbilgun
gsvorschriften)を近似する。それぞれの時系列に対し
て、例えば1つのこの種の近似器がある。ここにおいて
図1におけるx時系列に対して関数近似器はF1によっ
て示されておりかつy時系列に対して関数近似器はF2
によって示されている。例えばこれら関数近似器のそれ
ぞれに対して、独自のニューラルネットを使用すること
ができる。しかしこの関連において、別の学習可能な成
分も十分に考えられる。本発明の方法によれば、近似さ
れる関数を決定するこれらの学習可能な成分の自由パラ
メータは、費用関数の最小化のために反復的に常時、改
良方向に整合される。従って学習過程が存在する。この
学習過程を以下例に基づいて詳しく説明する。
その他の場合は変化されずに出力される。しかしこのた
めに、0と1との間に制限された、任意の別の微分可能
な関数を使用することもできる。現在成分は、その都度
独自の時系列の過去値にも、その他の時系列の過去値に
も依存している、関数近似器F1,F2の関数値に加算さ
れる。その際本発明の方法および装置によって、いずれ
の時系列値も、そこから見て時間的に遡った値に対して
影響を持ってないことが保証される。従って殊に、モデ
ル化されたプロセスの因果関係はモデルにおいても含ま
れている状態を維持する。関数近似器は、時系列の時間
的な展開が基礎としているところの写像規定(Abbilgun
gsvorschriften)を近似する。それぞれの時系列に対し
て、例えば1つのこの種の近似器がある。ここにおいて
図1におけるx時系列に対して関数近似器はF1によっ
て示されておりかつy時系列に対して関数近似器はF2
によって示されている。例えばこれら関数近似器のそれ
ぞれに対して、独自のニューラルネットを使用すること
ができる。しかしこの関連において、別の学習可能な成
分も十分に考えられる。本発明の方法によれば、近似さ
れる関数を決定するこれらの学習可能な成分の自由パラ
メータは、費用関数の最小化のために反復的に常時、改
良方向に整合される。従って学習過程が存在する。この
学習過程を以下例に基づいて詳しく説明する。
【0022】現在成分の、図1では+によって示されて
いる所属の関数近似器の出力との加算後、ここでも例え
ば、この場合は可変のパラメータαを含んでいる例えば
次のシグモイド伝達関数による非線形の変換が行われ
る:
いる所属の関数近似器の出力との加算後、ここでも例え
ば、この場合は可変のパラメータαを含んでいる例えば
次のシグモイド伝達関数による非線形の変換が行われ
る:
【0023】
【数5】
【0024】本発明の方法において、種々異なった入力
値は例えば、確率過程の実現として把握されかつこの種
のものとして出力側に、入力分布によって誘起される確
率分布を発生する。図1において出力はzによって示さ
れている。シグモイド伝達関数による最終的な変換の前
の出力を含んでいるベクトルは以下、ポストシナプス電
位(postsynaptisches Potential)と称される。数学的
な解説部における数式および図1においてそれは
値は例えば、確率過程の実現として把握されかつこの種
のものとして出力側に、入力分布によって誘起される確
率分布を発生する。図1において出力はzによって示さ
れている。シグモイド伝達関数による最終的な変換の前
の出力を含んでいるベクトルは以下、ポストシナプス電
位(postsynaptisches Potential)と称される。数学的
な解説部における数式および図1においてそれは
【0025】
【数6】
【0026】によって表される。その成分はhiであ
る。ポストシナプス電位の、過去値に依存している成分
は、入力分布を再現する。ポストシナプス電位の、時系
列の現在値成分に由来する成分の分布のみが、本発明の
方法によれば、それらのそれぞれの関数近似器によって
影響を受ける。検査中の時系列の時間的な展開が写像規
定に基づいて行われている場合、それは、1つの時系列
の個々の時系列値間の統計学的な依存性の形において、
また種々の時系列間の依存性の形においても現れる。統
計学的な依存性に対する尺度は、共通の(多次元の)分
布の冗長度である。この依存性は、出力分布においても
存在する。個別成分が統計学的に相互に無関係であると
き、最小の冗長度が実現される。現在成分に属するポス
トシナプス電位の、入力分布を再現する、ポストシナプ
ス電位の残りの成分に対する統計学的な相関付けによっ
て、所与の条件下で、出力冗長度における最小値を得る
ことができる。この冗長度最小値は、現在値成分のポス
トシナプス電位が一定の値を送出する、即ち残りのポス
トシナプス電位に無関係に統計学的であるとき、実現さ
れる。即ち、相応の分布は、δピークを表示しているは
ずである。この場合次式 x1+F1(xt-1,xt-2,yt-1,yt-2)=c1 (3) y1+F2(xt-1,xt-2,yt-1,yt-2)=c2 (4) これにより x1=−F1(xt-1,xt-2,yt-1,yt-2)+c1 (5) y1=−F2(xt-1,xt-2,yt-1,yt-2)+c2 (6) が成り立つ。
る。ポストシナプス電位の、過去値に依存している成分
は、入力分布を再現する。ポストシナプス電位の、時系
列の現在値成分に由来する成分の分布のみが、本発明の
方法によれば、それらのそれぞれの関数近似器によって
影響を受ける。検査中の時系列の時間的な展開が写像規
定に基づいて行われている場合、それは、1つの時系列
の個々の時系列値間の統計学的な依存性の形において、
また種々の時系列間の依存性の形においても現れる。統
計学的な依存性に対する尺度は、共通の(多次元の)分
布の冗長度である。この依存性は、出力分布においても
存在する。個別成分が統計学的に相互に無関係であると
き、最小の冗長度が実現される。現在成分に属するポス
トシナプス電位の、入力分布を再現する、ポストシナプ
ス電位の残りの成分に対する統計学的な相関付けによっ
て、所与の条件下で、出力冗長度における最小値を得る
ことができる。この冗長度最小値は、現在値成分のポス
トシナプス電位が一定の値を送出する、即ち残りのポス
トシナプス電位に無関係に統計学的であるとき、実現さ
れる。即ち、相応の分布は、δピークを表示しているは
ずである。この場合次式 x1+F1(xt-1,xt-2,yt-1,yt-2)=c1 (3) y1+F2(xt-1,xt-2,yt-1,yt-2)=c2 (4) これにより x1=−F1(xt-1,xt-2,yt-1,yt-2)+c1 (5) y1=−F2(xt-1,xt-2,yt-1,yt-2)+c2 (6) が成り立つ。
【0027】従って、本発明の教師なし学習方法に対す
る費用関数は、冗長度最小化を招来するはずである。と
いうのは、式3から、関数近似器は最小の冗長度を実現
するために関数的従属性を表しているはずであることが
明らかであるからである。結果的に、相関付け過程のた
めに、検査される時系列の時間的な展開を表す関数が得
られる。従って、図1における考察される例においては
F1およびF2である。これらの関数によって、将来の時
系列値の引き続く予測が可能になる。付加的に例えば、
モデルにおいて伝送される情報が最大化される(Lin
sker′sInfomax原理〔Lin88〕)。2
つの要求を同時に満足する最大化すべき関数として、本
発明の方法においては有利には次の項が使用される:
る費用関数は、冗長度最小化を招来するはずである。と
いうのは、式3から、関数近似器は最小の冗長度を実現
するために関数的従属性を表しているはずであることが
明らかであるからである。結果的に、相関付け過程のた
めに、検査される時系列の時間的な展開を表す関数が得
られる。従って、図1における考察される例においては
F1およびF2である。これらの関数によって、将来の時
系列値の引き続く予測が可能になる。付加的に例えば、
モデルにおいて伝送される情報が最大化される(Lin
sker′sInfomax原理〔Lin88〕)。2
つの要求を同時に満足する最大化すべき関数として、本
発明の方法においては有利には次の項が使用される:
【0028】
【数7】
【0029】この項は、多次元のポストシナプス電位分
布と、例えばシグモイド関数として f′(x)=αf(x)(1−f(x)) (8) によって表される、出力側における伝達関数の導関数の
積との間のKullback−Leibler距離を表
すものである。式7の最大化のため、ないし式9の最小
化のため、従って例えば、個々の関数近似器を形成する
ニューラルネットの重み適合と同時に現在成分に対応す
る出力に対する伝達関数のパラメータα1およびα2の最
適化のために、例えばAlopex〔UV94〕、ニュ
ーラルネットに対する標準最適化法を使用することがで
きる。具体化実現の際に、式7からの積分に対する近似
として、次の和:
布と、例えばシグモイド関数として f′(x)=αf(x)(1−f(x)) (8) によって表される、出力側における伝達関数の導関数の
積との間のKullback−Leibler距離を表
すものである。式7の最大化のため、ないし式9の最小
化のため、従って例えば、個々の関数近似器を形成する
ニューラルネットの重み適合と同時に現在成分に対応す
る出力に対する伝達関数のパラメータα1およびα2の最
適化のために、例えばAlopex〔UV94〕、ニュ
ーラルネットに対する標準最適化法を使用することがで
きる。具体化実現の際に、式7からの積分に対する近似
として、次の和:
【0030】
【数8】
【0031】が使用され、それはそれから本発明の方法
における費用関数として最小化される。ここにおいてp
は出力値の数、ここでこの例ではp=6であり、Mは入
力パターンの数でありかつhmないしhi mは、m番目の
パターンによって発生される多次元ないし1次元のポス
トシナプス電位を表している。多次元の密度Ψは例えば
ヒストグラムを用いてボックス計数によって推定され
る:
における費用関数として最小化される。ここにおいてp
は出力値の数、ここでこの例ではp=6であり、Mは入
力パターンの数でありかつhmないしhi mは、m番目の
パターンによって発生される多次元ないし1次元のポス
トシナプス電位を表している。多次元の密度Ψは例えば
ヒストグラムを用いてボックス計数によって推定され
る:
【0032】
【数9】
【0033】技術的なプロセスとして、例えば流体ダイ
ナミクスから成る例、Taylor−Couette系
が挙げられる。 Taylor−Couette系は、
その中間室に液体が充填されている、2つの同軸の円筒
体Z1およびZ2から成っている。内側の円筒体Z1
は、図2にGAで示されている共通の軸を中心に回転し
かつこれにより、矢印Rによって示されている回転、ひ
いては所定の回転数から、定常的な、反対方向に回転す
るTaylorの渦が惹き起こされる。図2にはこのT
aylorの渦はKSとして示されている。外側の円筒
体は関係を分かり易くするためにここでは透明に図示さ
れている。この例において、容易に形成される擾乱を有
する定常的なTaylorの渦の状態から出発してい
る。この例は、単変量のモデル化に対する、ここでは第
2の時系列の使用の例に基づいた多変量のモデル化の考
察を示すものである。これらの実験的な状態に対して、
2つの時系列は、渦AおよびBにおける軸線方向の速度
成分の測定によって得られる。これら2つのオブザーバ
ブルによって、以下同様に、AないしBによって表す2
つの異なった時系列が得られる。本発明の方法の結果
は、2つの異なったオブザーブルに対して図3において
上下に図示されている。結果を表すために、時系列は、
個別にかつ同時に相関付けされた。1つの時系列を用い
るモデル化(単変量的)は、それぞれの時系列に属する
関数近似器にて、独自の時系列の過去値のみを使用する
ことができたことを、意味するものである。相互相関は
単変量の場合には使用することができない。
ナミクスから成る例、Taylor−Couette系
が挙げられる。 Taylor−Couette系は、
その中間室に液体が充填されている、2つの同軸の円筒
体Z1およびZ2から成っている。内側の円筒体Z1
は、図2にGAで示されている共通の軸を中心に回転し
かつこれにより、矢印Rによって示されている回転、ひ
いては所定の回転数から、定常的な、反対方向に回転す
るTaylorの渦が惹き起こされる。図2にはこのT
aylorの渦はKSとして示されている。外側の円筒
体は関係を分かり易くするためにここでは透明に図示さ
れている。この例において、容易に形成される擾乱を有
する定常的なTaylorの渦の状態から出発してい
る。この例は、単変量のモデル化に対する、ここでは第
2の時系列の使用の例に基づいた多変量のモデル化の考
察を示すものである。これらの実験的な状態に対して、
2つの時系列は、渦AおよびBにおける軸線方向の速度
成分の測定によって得られる。これら2つのオブザーバ
ブルによって、以下同様に、AないしBによって表す2
つの異なった時系列が得られる。本発明の方法の結果
は、2つの異なったオブザーブルに対して図3において
上下に図示されている。結果を表すために、時系列は、
個別にかつ同時に相関付けされた。1つの時系列を用い
るモデル化(単変量的)は、それぞれの時系列に属する
関数近似器にて、独自の時系列の過去値のみを使用する
ことができたことを、意味するものである。相互相関は
単変量の場合には使用することができない。
【0034】図3には、それぞれの入力パターンに対す
る時系列A(左側)および時系列B(右側)の現在成分
のポストシナプス電位が図示されている。aには、即ち
1番上側の2つの線図において、相関付け過程の前、即
ち関数近似器におけるモデルパラメータの任意の選択の
際の値が図示されている。既述したように、理想の場
合、関数はδピークを表しているはずなので、線図を見
る方向は予め定められている。それはここではPで示さ
れている。aのところでは、時系列AもBも非常に大幅
にばらつていることを認めることができる。bのところ
では、単変量の相関付けに対する結果が図示されてい
る。この単変量の相関付けは、本発明の装置のおよび本
発明の学習方法の対象ではない。それは単に、本発明に
よって得られる技術的進歩を明らかにするためにのみ用
いられるものである。cのところには遂に、2つの時系
列を用いた相関付け、即ち2変量の相関付けに対する結
果が図示されている。ここで明らかに、観察方向Pから
見て、殆ど1つのδピークしか存在していないことを認
めることができる。bに比べても、曲線の比較的狭いば
らつき幅を求めることができる。そこで考察例として、
cのところに、時系列Aに対するbのところの曲線と類
似のばらつき幅を有する曲線が存在する場合、このこと
は、時系列Bを形成した、時系列Aのよりよい相関付け
のために付加的に選択されたオブザーバブルBがAの関
数近似器の学習のために付加的な情報を送出しないこと
を意味するということである。即ち有利には、相関付け
の改良を実現する別のオブザーバブルが選択されるべき
である。詳しい関係は次の数学的な解説部において更に
説明する。
る時系列A(左側)および時系列B(右側)の現在成分
のポストシナプス電位が図示されている。aには、即ち
1番上側の2つの線図において、相関付け過程の前、即
ち関数近似器におけるモデルパラメータの任意の選択の
際の値が図示されている。既述したように、理想の場
合、関数はδピークを表しているはずなので、線図を見
る方向は予め定められている。それはここではPで示さ
れている。aのところでは、時系列AもBも非常に大幅
にばらつていることを認めることができる。bのところ
では、単変量の相関付けに対する結果が図示されてい
る。この単変量の相関付けは、本発明の装置のおよび本
発明の学習方法の対象ではない。それは単に、本発明に
よって得られる技術的進歩を明らかにするためにのみ用
いられるものである。cのところには遂に、2つの時系
列を用いた相関付け、即ち2変量の相関付けに対する結
果が図示されている。ここで明らかに、観察方向Pから
見て、殆ど1つのδピークしか存在していないことを認
めることができる。bに比べても、曲線の比較的狭いば
らつき幅を求めることができる。そこで考察例として、
cのところに、時系列Aに対するbのところの曲線と類
似のばらつき幅を有する曲線が存在する場合、このこと
は、時系列Bを形成した、時系列Aのよりよい相関付け
のために付加的に選択されたオブザーバブルBがAの関
数近似器の学習のために付加的な情報を送出しないこと
を意味するということである。即ち有利には、相関付け
の改良を実現する別のオブザーバブルが選択されるべき
である。詳しい関係は次の数学的な解説部において更に
説明する。
【0035】数学的な解説部 以下において、全体モデルはネットとして把握されかつ
相応に入出力値はニューロンとして表される。特別に断
らない限り、使用の量はすべてベクトルとして捉えられ
るべきである。
相応に入出力値はニューロンとして表される。特別に断
らない限り、使用の量はすべてベクトルとして捉えられ
るべきである。
【0036】ネットのそれぞれ個々のニューロンは、そ
の多次元の入力νから、その活性状態(出力)を2つの
ステップにおいて計算する。まず、νが速度ベクトルω
とスカラー乗算されかつこの第1の処理ステップの後
に、ポストシナプス電位hが生じる:
の多次元の入力νから、その活性状態(出力)を2つの
ステップにおいて計算する。まず、νが速度ベクトルω
とスカラー乗算されかつこの第1の処理ステップの後
に、ポストシナプス電位hが生じる:
【0037】
【数10】
【0038】従ってポストシナプス電位hはニューロン
の入力信号の決定論的な関数である。非線形の伝達関数
fによって、それは出力電位V(ニューロンの活性状
態)に写像される: V=f(h) (2) ここにおいてfは任意の非線形の関数であるが、それは
0と1との間に制限されておりかつ反転可能なものであ
る。考察中例えば、導関数 f′(x)=αf(x)(1−f(x)) (4) を有する次のシグモイド関数
の入力信号の決定論的な関数である。非線形の伝達関数
fによって、それは出力電位V(ニューロンの活性状
態)に写像される: V=f(h) (2) ここにおいてfは任意の非線形の関数であるが、それは
0と1との間に制限されておりかつ反転可能なものであ
る。考察中例えば、導関数 f′(x)=αf(x)(1−f(x)) (4) を有する次のシグモイド関数
【0039】
【数11】
【0040】が生じ、ここにおいてαは傾きでありかつ
従って非線形の伝達に比して殆ど線形の写像の領域を決
定する。
従って非線形の伝達に比して殆ど線形の写像の領域を決
定する。
【0041】次に特別に、出力層のニューロンについて
考察する。出力層の次元はpとする。複数のニューロン
の一般例にまで拡張されて、hおよびVはベクトル量と
して理解すべきである。ネットξの多次元の入力信号は
出力側において分布Ψ(h)を有するポストシナプス電
位hを誘起する。それ故にhはランダムベクトル(Zufa
llvektor)ξの決定論的な関数であり、その際hは任意
の非線形の変換を含んでいることができる。即ち、1つ
または複数の非線形の層が入力層と出力層との間にあれ
ば、ネットは一般的な関数近似器を表している。入力ξ
とポストシナプス電位hとの間のこの形式の変換は必ず
しも全単射的(bijektiv)ではない。従って、ネットを
介する伝達の際に入力情報のいくつかが消失する可能性
がある。そこで出願人の目的は、出来るだけ損失のない
伝達を保証するために、ネットの入力と出力との間の変
換情報量(Transinformation)I(ξ,V)を最大化す
ることである。情報理論量はランダム変数に対してしか
定義されていないので、出力電位Vにおける分布υ
(z)を有する人工的な雑音zを付加的に付加しなけれ
ばならない。出力ニューロンVの活性状態は第2のラン
ダムベクトル V=f(h)+zi (5) として得られ、その際fはすべての成分i=1,…,p
に対して0<fi<1を有する反転可能な伝達関数であ
る。従って、個々の出力活性化に対して i=1,…,pの場合 Vi=fi(hi)+zi (6) が成り立つ。
考察する。出力層の次元はpとする。複数のニューロン
の一般例にまで拡張されて、hおよびVはベクトル量と
して理解すべきである。ネットξの多次元の入力信号は
出力側において分布Ψ(h)を有するポストシナプス電
位hを誘起する。それ故にhはランダムベクトル(Zufa
llvektor)ξの決定論的な関数であり、その際hは任意
の非線形の変換を含んでいることができる。即ち、1つ
または複数の非線形の層が入力層と出力層との間にあれ
ば、ネットは一般的な関数近似器を表している。入力ξ
とポストシナプス電位hとの間のこの形式の変換は必ず
しも全単射的(bijektiv)ではない。従って、ネットを
介する伝達の際に入力情報のいくつかが消失する可能性
がある。そこで出願人の目的は、出来るだけ損失のない
伝達を保証するために、ネットの入力と出力との間の変
換情報量(Transinformation)I(ξ,V)を最大化す
ることである。情報理論量はランダム変数に対してしか
定義されていないので、出力電位Vにおける分布υ
(z)を有する人工的な雑音zを付加的に付加しなけれ
ばならない。出力ニューロンVの活性状態は第2のラン
ダムベクトル V=f(h)+zi (5) として得られ、その際fはすべての成分i=1,…,p
に対して0<fi<1を有する反転可能な伝達関数であ
る。従って、個々の出力活性化に対して i=1,…,pの場合 Vi=fi(hi)+zi (6) が成り立つ。
【0042】その都度の重みによって前以て決められる
電位hiの他に、伝達関数fiもニューロン毎に異なって
いる可能性がある。この場合単に理論的な目的に基づい
て、加算的雑音zの確率分布υ(z)は任意であるが、
この場合zはhに無関係なものと見なされる(ziは相
互に無関係なランダム変数である必要はない)。その際
雑音強度は次のように定義され得る:
電位hiの他に、伝達関数fiもニューロン毎に異なって
いる可能性がある。この場合単に理論的な目的に基づい
て、加算的雑音zの確率分布υ(z)は任意であるが、
この場合zはhに無関係なものと見なされる(ziは相
互に無関係なランダム変数である必要はない)。その際
雑音強度は次のように定義され得る:
【0043】
【数12】
【0044】ただしΔは個々の出力ニューロンの雑音強
度を表しかつ<>はυ(zi)分布にわたる平均を意味
している。
度を表しかつ<>はυ(zi)分布にわたる平均を意味
している。
【0045】次に、入力と出力との間での変換情報量I
(ξ,V)に対して付加的に、電位hと出力との間の変
換情報量I(h,V)が考察される。入力雑音が存在し
ていないことを前提として、I(ξ,V)およびI
(h,V)は等しい。それ故に、ネットワークの情報伝
達を最大化するために、著しく扱い易い量I(h,V)
を考察することができる。それ故に、次に、適合可能な
ネットパラメータにのみ依存している(〔NP94〕参
照) 、I(h,V)に対する解析的な式を導出した
い。ランダムベクトルhとVとの間の変換情報量は
(ξ,V)に対して付加的に、電位hと出力との間の変
換情報量I(h,V)が考察される。入力雑音が存在し
ていないことを前提として、I(ξ,V)およびI
(h,V)は等しい。それ故に、ネットワークの情報伝
達を最大化するために、著しく扱い易い量I(h,V)
を考察することができる。それ故に、次に、適合可能な
ネットパラメータにのみ依存している(〔NP94〕参
照) 、I(h,V)に対する解析的な式を導出した
い。ランダムベクトルhとVとの間の変換情報量は
【0046】
【数13】
【0047】によって表される。
【0048】ここにおいてQ(V|h)はhが既知であ
るの場合のVの条件付き確率でありかつ(5)に従って Q(V|h)=υ(V−f(h)) (9) が生じる。
るの場合のVの条件付き確率でありかつ(5)に従って Q(V|h)=υ(V−f(h)) (9) が生じる。
【0049】結果生じる出力分布として、
【0050】
【数14】
【0051】が得られる。
【0052】雑音の活性状態に基づいて、変換情報量I
は、出力分布および雑音分布のエントロピー間の差とし
ても表される: I=H(q)−H(υ) (11) (11)における第1の項は、確率分布qの微分エント
ロピーである:
は、出力分布および雑音分布のエントロピー間の差とし
ても表される: I=H(q)−H(υ) (11) (11)における第1の項は、確率分布qの微分エント
ロピーである:
【0053】
【数15】
【0054】(11)における第2の項は、雑音の分布
にのみ依存している:
にのみ依存している:
【0055】
【数16】
【0056】υi(i=1,…,p)がガウス分布であ
る場合、H(υi)は1/2・ln(2πeΔ)に等し
い。ガウス分布は、所与の分散のすべての分布の中で最
大のエントロピーを有しているので、 H(υi)≦1/2・ln(2πeΔ) (14) が成り立つ。
る場合、H(υi)は1/2・ln(2πeΔ)に等し
い。ガウス分布は、所与の分散のすべての分布の中で最
大のエントロピーを有しているので、 H(υi)≦1/2・ln(2πeΔ) (14) が成り立つ。
【0057】即ちΔは零に向かっているので、個別エン
トロピーH(υi)はマイナス方向に無限大に消失す
る。その結果この場合、共通のエントロピーも、マイナ
ス方向に無限大になることになる。従って(11)にお
ける第2の項は、無限大に向かって消失する。しかし
(11)からの2つの量のうち、出願人にとって重要な
のはH(q)だけである。というのは、H(q)だけが
fないし重みの適合によって影響されるかである。従っ
て、変換情報量Iを最大化するために、出力エントロピ
ーH(q)を最大化することが当てはまる。与えられた
雑音強度に対して、エントロピーのこの最大化により必
然的に、ξからhへの変換情報の全単射性が生じ、この
ことはまさに出願人の目的とするところであった。この
ことは、非線形性が比較的低いエントロピーをそれ自体
の方へ引っ張るという事実から生じる。複数の入力値が
同じ出力値に写像されるとき、出力コードにおける不確
かさ、ひいてはエントロピーも低下する。確かにこの論
法は、出力伝達関数が制限されているという理由からの
み成り立つ。この制限によって、発生される出力の画像
領域を伸長することによって、出力エントロピーが無限
に高められることはないことが保証される。所定の段階
から、ネットにおいて結果的に、エントロピーを一層高
めるために、単に全単射性の平均だけが残る。
トロピーH(υi)はマイナス方向に無限大に消失す
る。その結果この場合、共通のエントロピーも、マイナ
ス方向に無限大になることになる。従って(11)にお
ける第2の項は、無限大に向かって消失する。しかし
(11)からの2つの量のうち、出願人にとって重要な
のはH(q)だけである。というのは、H(q)だけが
fないし重みの適合によって影響されるかである。従っ
て、変換情報量Iを最大化するために、出力エントロピ
ーH(q)を最大化することが当てはまる。与えられた
雑音強度に対して、エントロピーのこの最大化により必
然的に、ξからhへの変換情報の全単射性が生じ、この
ことはまさに出願人の目的とするところであった。この
ことは、非線形性が比較的低いエントロピーをそれ自体
の方へ引っ張るという事実から生じる。複数の入力値が
同じ出力値に写像されるとき、出力コードにおける不確
かさ、ひいてはエントロピーも低下する。確かにこの論
法は、出力伝達関数が制限されているという理由からの
み成り立つ。この制限によって、発生される出力の画像
領域を伸長することによって、出力エントロピーが無限
に高められることはないことが保証される。所定の段階
から、ネットにおいて結果的に、エントロピーを一層高
めるために、単に全単射性の平均だけが残る。
【0058】極限に消失する雑音の場合、量H(q)は
有限の限界値を有する。Δ→0に対してqは
有限の限界値を有する。Δ→0に対してqは
【0059】
【数17】
【0060】になる。
【0061】(12)に代入すると、H(q)は次のよ
うに書き表される:
うに書き表される:
【0062】
【数18】
【0063】残りのデルタ積分を実施することができる
ようにするために、次の代入
ようにするために、次の代入
【0064】
【数19】
【0065】および yi=fi(hi) (yは固定値fi(hi)をとる) (21) が形成されかつ最終的に
【0066】
【数20】
【0067】が得られる。
【0068】従って、エントロピーH(q)、ひいては
変換情報量Iの重要な部分に対して、次の式が得られ
る:
変換情報量Iの重要な部分に対して、次の式が得られ
る:
【0069】
【数21】
【0070】すべてのi=1,…,pに対して0<fi
<1が仮定されたので、それぞれのfi′は確率分布の
前提を満足する(−∞から+∞への積分は1になる)。
それからこれにより、D(Ψ‖Πkfk′)を、電位分布
Ψと、fi′の積によって定義されている確率との間の
Kullback−Leibler距離と把握すること
ができる。その値は常に零より大きいかまたは零に等し
く、ここにおいて2つの分布(零の集合を除いて)が同
一であるときまさに、零がとられる。
<1が仮定されたので、それぞれのfi′は確率分布の
前提を満足する(−∞から+∞への積分は1になる)。
それからこれにより、D(Ψ‖Πkfk′)を、電位分布
Ψと、fi′の積によって定義されている確率との間の
Kullback−Leibler距離と把握すること
ができる。その値は常に零より大きいかまたは零に等し
く、ここにおいて2つの分布(零の集合を除いて)が同
一であるときまさに、零がとられる。
【0071】次のことが把握される:変換情報量は定数
(雑音エントロピーによって定めされている)を除い
て、電位分布と、伝達関数の導関数によって表される積
分布との間のKullback−Leibler距離の
マイナスに等しい。変換情報量の最大化は、 Kull
back−Leibler距離の最小化と等価である。
その場合D≡0の最適例はまさに、
(雑音エントロピーによって定めされている)を除い
て、電位分布と、伝達関数の導関数によって表される積
分布との間のKullback−Leibler距離の
マイナスに等しい。変換情報量の最大化は、 Kull
back−Leibler距離の最小化と等価である。
その場合D≡0の最適例はまさに、
【0072】
【数22】
【0073】が成り立つとき、実現される。これにより
更に、次のことが明らかになる:Ψ(h)の階乗コード
(faktorieller Code)、即ち
更に、次のことが明らかになる:Ψ(h)の階乗コード
(faktorieller Code)、即ち
【0074】
【数23】
【0075】が、伝送される情報の最大化を可能にす
る。その場合最適な伝達関数は簡単に i=1,…,pの場合 fi′(hi)=Ψi(hi) (29) に書き換えられかつそれぞれのニューロンに対して別の
ニューロンと無関係に調整することができる。
る。その場合最適な伝達関数は簡単に i=1,…,pの場合 fi′(hi)=Ψi(hi) (29) に書き換えられかつそれぞれのニューロンに対して別の
ニューロンと無関係に調整することができる。
【0076】しかしポストシナプス出力電位の分布の因
数分解は、冗長度の最小化と同じ意味である。従ってこ
の段落の結果として、(29)に従った伝達関数が最適
に整合されることを前提として、次の結論が得られる;
数分解は、冗長度の最小化と同じ意味である。従ってこ
の段落の結果として、(29)に従った伝達関数が最適
に整合されることを前提として、次の結論が得られる;
【0077】
【数24】
【0078】2,3の注釈:fiについて最初、反転能
力のみを要求したので、伝達関数として負の導関数を有
する厳密に単調に下降する関数も問題になるはずであ
る。その場合式(15)ないし(29)において、
fi′(hi)に代わって|fi′(hi)|を用いた一
般式を使用することができかつ(29)に対する択一的
な解として、 fi′=−Ψiが得られることになる。し
かし以下において、(3)からのシグモイド関数に制限
したい。そうすればこの例を排除することができる。
力のみを要求したので、伝達関数として負の導関数を有
する厳密に単調に下降する関数も問題になるはずであ
る。その場合式(15)ないし(29)において、
fi′(hi)に代わって|fi′(hi)|を用いた一
般式を使用することができかつ(29)に対する択一的
な解として、 fi′=−Ψiが得られることになる。し
かし以下において、(3)からのシグモイド関数に制限
したい。そうすればこの例を排除することができる。
【0079】画像処理において、結果(29)は、“サ
ンプリング/ヒストグラム等化(Sampling/Histogram
Equalization)”という名前で公知である。それは、最
大の情報伝送は、一様な出力分布において、即ち最大の
エントロピーの分布において実現することができること
を表している。
ンプリング/ヒストグラム等化(Sampling/Histogram
Equalization)”という名前で公知である。それは、最
大の情報伝送は、一様な出力分布において、即ち最大の
エントロピーの分布において実現することができること
を表している。
【0080】物理的に見て、この結果は容易に合理的に
形成される:その場合、入力信号を出力側において再び
精密に解析することができるとき、大量の情報が伝送さ
れる。経験的に求められた分布Ψi(hi)の抜き取り検
査において、大抵の抜き取り検査値が、Ψi(hi)が大
きいところのhi値の近傍において観測される。これら
を申し分なく相互に分離することができるようにするた
めに、そこでは伝達関数の傾きも出来るだけ大きくなけ
ればならない。これにより種々異なった出力値は大幅に
かけ離れておりかつ雑音にも拘わらずなお区別すること
ができる。その際解に対する下側の限界は、雑音によっ
て生じる、出力側におけるスケーリングによって決まっ
てくる。従って、無限に小さいが、零に等しくはない雑
音強度が、情報伝送の分離精度に対する尺度を表す。
形成される:その場合、入力信号を出力側において再び
精密に解析することができるとき、大量の情報が伝送さ
れる。経験的に求められた分布Ψi(hi)の抜き取り検
査において、大抵の抜き取り検査値が、Ψi(hi)が大
きいところのhi値の近傍において観測される。これら
を申し分なく相互に分離することができるようにするた
めに、そこでは伝達関数の傾きも出来るだけ大きくなけ
ればならない。これにより種々異なった出力値は大幅に
かけ離れておりかつ雑音にも拘わらずなお区別すること
ができる。その際解に対する下側の限界は、雑音によっ
て生じる、出力側におけるスケーリングによって決まっ
てくる。従って、無限に小さいが、零に等しくはない雑
音強度が、情報伝送の分離精度に対する尺度を表す。
【0081】最後の段落において、階乗コードが、伝達
関数が相応に選択されている場合最大の情報伝達を保証
することを認めたので、更にここで反対の方向を示した
い:変換情報量の最大化により、この種のものが存在す
る場合、階乗コードが生じる。出力コードにおける冗長
度Rは、個々の出力値間の相関によって規定されて、
関数が相応に選択されている場合最大の情報伝達を保証
することを認めたので、更にここで反対の方向を示した
い:変換情報量の最大化により、この種のものが存在す
る場合、階乗コードが生じる。出力コードにおける冗長
度Rは、個々の出力値間の相関によって規定されて、
【0082】
【数25】
【0083】として定義されている。
【0084】1次元のエントロピーH(qi)および多
次元のエントロピーH(q)に対して、ここで最後の段
落において導出した、個々のエントロピーおよび共通の
エントロピーに対する式(26)が使用される:
次元のエントロピーH(q)に対して、ここで最後の段
落において導出した、個々のエントロピーおよび共通の
エントロピーに対する式(26)が使用される:
【0085】
【数26】
【0086】しかしΣjDjの個々の加数は単に、 Ku
llback−Leibler距離であり、その結果こ
のことも非否定性の条件を満足する。更に次の不等式群
が得られる
llback−Leibler距離であり、その結果こ
のことも非否定性の条件を満足する。更に次の不等式群
が得られる
【0087】
【数27】
【0088】従って、変換情報量Iの最大化およびこれ
に結びついている、 Kullback−Leible
r距離D(伝達関数によって決められる密度)の最小化
により、階乗コードが存在する場合、必然的に冗長度の
最小化が生じる。反転可能でかつ制限された伝達関数で
あって、入力雑音は存在せず、しかも出力雑音は消失す
る程度に僅かで、即ち無限小に小さいが、正であるとい
う特有の例において、(30)と共に、階乗コードが存
在するということを前提として(存在しない場合には、
電位分布は少なくとも出来るだけ大幅に因数分解される
べきである)、ニューラルネットにおける情報処理に関
するこの章全体の主要な結果が得られる:
に結びついている、 Kullback−Leible
r距離D(伝達関数によって決められる密度)の最小化
により、階乗コードが存在する場合、必然的に冗長度の
最小化が生じる。反転可能でかつ制限された伝達関数で
あって、入力雑音は存在せず、しかも出力雑音は消失す
る程度に僅かで、即ち無限小に小さいが、正であるとい
う特有の例において、(30)と共に、階乗コードが存
在するということを前提として(存在しない場合には、
電位分布は少なくとも出来るだけ大幅に因数分解される
べきである)、ニューラルネットにおける情報処理に関
するこの章全体の主要な結果が得られる:
【0089】
【数28】
【0090】確かに、変換T、ひいては電位分布Ψに対
するパラメータ並びに変換関数fiを表す情報最大化の
みが正確にとられていることに注目すべきである。
するパラメータ並びに変換関数fiを表す情報最大化の
みが正確にとられていることに注目すべきである。
【0091】この結果は教師なし学習方法に対して基本
的な意味を持っている:費用関数は、Infomax
項、即ちニューラルネットを最小化するものであるKu
llback−Leibler距離(26)に低減され
る。変換Tおよび伝達関数fiが一般にないしフレキシ
ブルに十分である場合にのみ、最小値D≡0を実現する
ことができることに注目することが重要である。
的な意味を持っている:費用関数は、Infomax
項、即ちニューラルネットを最小化するものであるKu
llback−Leibler距離(26)に低減され
る。変換Tおよび伝達関数fiが一般にないしフレキシ
ブルに十分である場合にのみ、最小値D≡0を実現する
ことができることに注目することが重要である。
【0092】文献
【0093】
【表1】
【図1】本発明の装置の例を示す略図である。
【図2】技術的プロセスに対する例を示す略図である。
【図3】図2におけるプロセスに使用した後の本発明の
方法の作用効果の例を説明する線図である。
方法の作用効果の例を説明する線図である。
x,y 時系列、 F1,F2 関数近似器
Claims (8)
- 【請求項1】 それぞれ異なったプロセスオブザーバブ
ルを表す少なくとも2つの時系列の共通の学習によって
ダイナミックプロセスをシミュレートするための学習方
法であって、 a)それぞれのプロセスオブザーバブルを関数近似器に
よってシミュレートし、 b)それぞれの関数近似器において、すべての時系列
の、過去に存在する値だけを使用できるようにし、 c)それぞれの時系列の個々の値を、それぞれの値毎に
固有の確率分布によって発生する、確率過程の実施と把
握し、 d)かつ関数近似器のトレーニングのために、該関数近
似器によって発生された値を出力値の形における時系列
のその都度の現在値に対して加算しかつ前記関数近似器
によって実施関数として、前記出力値の確率分布が供給
されるすべての値の確率分布によって最適に相関付けさ
れていることを保証するような関数を発生することを特
徴とする方法。 - 【請求項2】 時系列のすべての過去値を同一に出力す
る請求項1記載の方法。 - 【請求項3】 出力すべきすべての値に対して、これら
値に、0および1の間の値を割り当てる微分可能な伝達
関数を使用する請求項1または2記載の方法。 - 【請求項4】 その時点で使用されている時系列によっ
て相関付けが可能でない場合には、当該時系列をこれま
で使用されていないプロセスオブザーバブルに供給する
請求項1から3までのいずれか1項記載の方法。 - 【請求項5】 それぞれの関数近似器における実施関数
を調整設定するために、次の関数を最大化する: 【数1】 請求項1から4までのいずれか1項記載の方法。 - 【請求項6】 式(7)における積分を、費用関数とし
て最小化すべき次の項によって近似し: 【数2】 かつ次の近似式を利用する: 【数3】 請求項5記載の方法。 - 【請求項7】 それぞれ異なったプロセスオブザーバブ
ルを表す少なくとも2つの時系列の共通の学習によって
ダイナミックプロセスをシミュレートするための学習装
置であって、 a)その都度のプロセスオブザーバブルの時間特性をシ
ミュレートするための少なくとも第1および第2の関数
近似手段が設けられており、 b)前記それぞれの関数近似手段には単に、すべての時
系列の、過去に存在する値だけが供給され、かつ c)前記それぞれの関数近似手段において、請求項1か
ら5までのいずれか1項記載の実施関数が実施されるこ
とを特徴とする装置。 - 【請求項8】 関数近似手段として、ニューラルネット
が設けられている請求項7記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1995137010 DE19537010C2 (de) | 1995-10-04 | 1995-10-04 | Lernverfahren und -anordnung zur Nachbildung eines dynamischen Prozesses |
DE19537010.4 | 1995-10-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09134207A true JPH09134207A (ja) | 1997-05-20 |
Family
ID=7774031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26452296A Abandoned JPH09134207A (ja) | 1995-10-04 | 1996-10-04 | それぞれ異なったプロセスオブザーバブルを表す少なくとも2つの時系列の共通の学習によってダイナミックプロセスをシミュレートするための学習方法および装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPH09134207A (ja) |
DE (1) | DE19537010C2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102129A (zh) * | 2013-04-10 | 2014-10-15 | 罗伯特·博世有限公司 | 用于创建基于数据的函数模型的方法和装置 |
JP2020534595A (ja) * | 2017-09-22 | 2020-11-26 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 人工ニューラル・ネットワークにおける時間プーリングおよび相関 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19729187C1 (de) * | 1997-07-08 | 1999-04-29 | Siemens Ag | Testverfahren für einen Funktionsapproximator in einer Prozeßsteuerung |
DE19740565A1 (de) | 1997-09-15 | 1999-03-18 | Max Planck Gesellschaft | Verfahren zur Erfassung zeitabhängiger Moden dynamischer Systeme |
CA2457715A1 (en) | 2001-09-27 | 2003-04-03 | British Telecommunications Public Limited Company | Method and apparatus for data analysis |
EP1298505A1 (en) * | 2001-09-27 | 2003-04-02 | BRITISH TELECOMMUNICATIONS public limited company | A modelling method |
US7933855B2 (en) | 2005-03-16 | 2011-04-26 | British Telecommunications Public Limited Company | Monitoring computer-controlled processes through a monitoring system |
EP1708099A1 (en) | 2005-03-29 | 2006-10-04 | BRITISH TELECOMMUNICATIONS public limited company | Schema matching |
IT202000030359A1 (it) * | 2020-12-10 | 2022-06-10 | Bosch Gmbh Robert | Metodo e dispositivo di determinazione per determinare una variabile di stato di un attuatore magnetico in un punto specifico nel tempo |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5159660A (en) * | 1990-08-09 | 1992-10-27 | Western Thunder | Universal process control using artificial neural networks |
US5396415A (en) * | 1992-01-31 | 1995-03-07 | Honeywell Inc. | Neruo-pid controller |
-
1995
- 1995-10-04 DE DE1995137010 patent/DE19537010C2/de not_active Expired - Fee Related
-
1996
- 1996-10-04 JP JP26452296A patent/JPH09134207A/ja not_active Abandoned
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102129A (zh) * | 2013-04-10 | 2014-10-15 | 罗伯特·博世有限公司 | 用于创建基于数据的函数模型的方法和装置 |
JP2020534595A (ja) * | 2017-09-22 | 2020-11-26 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 人工ニューラル・ネットワークにおける時間プーリングおよび相関 |
US11556343B2 (en) | 2017-09-22 | 2023-01-17 | International Business Machines Corporation | Computational method for temporal pooling and correlation |
Also Published As
Publication number | Publication date |
---|---|
DE19537010A1 (de) | 1997-04-10 |
DE19537010C2 (de) | 1997-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Brajard et al. | Combining data assimilation and machine learning to emulate a dynamical model from sparse and noisy observations: A case study with the Lorenz 96 model | |
Abiyev | Fuzzy wavelet neural network based on fuzzy clustering and gradient techniques for time series prediction | |
Nikolaev et al. | Learning polynomial feedforward neural networks by genetic programming and backpropagation | |
Wang et al. | Echo state networks regulated by local intrinsic plasticity rules for regression | |
Aghaei | fKAN: Fractional Kolmogorov-Arnold Networks with trainable Jacobi basis functions | |
Brajard et al. | Combining data assimilation and machine learning to emulate a dynamical model from sparse and noisy observations: a case study with the Lorenz 96 model | |
JPH09134207A (ja) | それぞれ異なったプロセスオブザーバブルを表す少なくとも2つの時系列の共通の学習によってダイナミックプロセスをシミュレートするための学習方法および装置 | |
Carroll | Optimizing reservoir computers for signal classification | |
Karda et al. | Automation of noise sampling in deep reinforcement learning | |
Van Wezel et al. | Predicting market responses with a neural network: the case offast moving consumer goods | |
Kumaresan et al. | Optimal control for stochastic nonlinear singular system using neural networks | |
Mehta et al. | Feedforward Neural Networks for Process Identification and Prediction | |
Zhu et al. | Leveraging neural differential equations and adaptive delayed feedback to detect unstable periodic orbits based on irregularly sampled time series | |
Monfared et al. | How to train RNNs on chaotic data? | |
Agrawal et al. | Deep variational inference without pixel-wise reconstruction | |
dos Santos Gomes et al. | Interval type-2 evolving fuzzy Kalman filter for processing of unobservable spectral components from uncertain experimental data | |
Golovkina et al. | Reconstruction of ordinary differential equations from irregularly distributed time-series data | |
Nastac | An adaptive retraining technique to predict the critical process variables | |
Shalova et al. | Deep Representation Learning for Dynamical Systems Modeling | |
Reyes et al. | Influence of noise on discrete time backpropagation trained networks | |
Valpola et al. | An ensemble learning approach to nonlinear dynamic blind source separation using state-space models | |
Rodriguez-Jorge et al. | Weight adaptation stability of linear and higher-order neural units for prediction applications | |
CN113297540A (zh) | 在边缘物联代理服务下的app资源需求预测方法、装置及系统 | |
Traub et al. | Learning precise spike timings with eligibility traces | |
Niu et al. | Why Do Big Data and Machine Learning Entail the Fractional Dynamics? |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20040928 |