JP7403739B2 - Decision-making device and method for controlling the decision-making device - Google Patents
Decision-making device and method for controlling the decision-making device Download PDFInfo
- Publication number
- JP7403739B2 JP7403739B2 JP2020548524A JP2020548524A JP7403739B2 JP 7403739 B2 JP7403739 B2 JP 7403739B2 JP 2020548524 A JP2020548524 A JP 2020548524A JP 2020548524 A JP2020548524 A JP 2020548524A JP 7403739 B2 JP7403739 B2 JP 7403739B2
- Authority
- JP
- Japan
- Prior art keywords
- reward
- decision
- value
- resistance value
- rand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 108
- 230000008859 change Effects 0.000 claims description 64
- 230000008569 process Effects 0.000 claims description 61
- 238000012545 processing Methods 0.000 claims description 57
- 238000011156 evaluation Methods 0.000 claims description 20
- 238000010586 diagram Methods 0.000 description 35
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 14
- 238000009826 distribution Methods 0.000 description 12
- 230000007423 decrease Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 239000000463 material Substances 0.000 description 8
- 238000003860 storage Methods 0.000 description 6
- 238000005229 chemical vapour deposition Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 229910003070 TaOx Inorganic materials 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000005684 electric field Effects 0.000 description 3
- 230000003647 oxidation Effects 0.000 description 3
- 238000007254 oxidation reaction Methods 0.000 description 3
- 229920006395 saturated elastomer Polymers 0.000 description 3
- 229910004298 SiO 2 Inorganic materials 0.000 description 2
- 229910004166 TaN Inorganic materials 0.000 description 2
- 229910003071 TaON Inorganic materials 0.000 description 2
- 229910010282 TiON Inorganic materials 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 239000003792 electrolyte Substances 0.000 description 2
- 239000002001 electrolyte material Substances 0.000 description 2
- 238000000609 electron-beam lithography Methods 0.000 description 2
- 150000002500 ions Chemical class 0.000 description 2
- 150000004767 nitrides Chemical class 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000005546 reactive sputtering Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000007784 solid electrolyte Substances 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 229910017107 AlOx Inorganic materials 0.000 description 1
- 229910003087 TiOx Inorganic materials 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003834 intracellular effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 229910021645 metal ion Inorganic materials 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000206 photolithography Methods 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000006722 reduction reaction Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000000992 sputter etching Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 229910052718 tin Inorganic materials 0.000 description 1
- HLLICFJUWSZHRJ-UHFFFAOYSA-N tioxidazole Chemical compound CCCOC1=CC=C2N=C(NC(=O)OC)SC2=C1 HLLICFJUWSZHRJ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06G—ANALOGUE COMPUTERS
- G06G7/00—Devices in which the computing operation is performed by varying electric or magnetic quantities
- G06G7/48—Analogue computers for specific processes, systems or devices, e.g. simulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Semiconductor Memories (AREA)
Description
本発明は、意思決定装置、及び意思決定装置の制御方法に関する。 The present invention relates to a decision-making device and a method of controlling the decision-making device.
確率的に獲得される報酬量を最大化する解を探索する問題の代表例として、多本腕バンディット問題(Multi-Armed Bandit problem: MAB)について様々な提案がなされている。バンディット問題とは、確率的に報酬を提供する装置の例としてスロットマシーンを用いて表現される仮想的な問題であり、プレイヤーが複数種類の異なる行動選択肢から一つを選択する行動(どのスロットマシーンをプレイするか)を繰り返した後、選択した行動により定められた確率で報酬がプレイヤーに付与されるシステムにおいて、最終的にどのスロットマシーンを使用することにより報酬が最大になるかを、できるだけ短い時間で決定するという問題である。 Various proposals have been made regarding the Multi-Armed Bandit problem (MAB) as a representative example of a problem that searches for a solution that maximizes the amount of reward obtained stochastically. The bandit problem is a hypothetical problem expressed using a slot machine as an example of a device that provides rewards stochastically. In a system where the player is given a reward with a predetermined probability based on the selected action after repeating the process (whether to play or not), the player is given a reward in the shortest possible time by determining which slot machine to use to maximize the reward. It is a matter of time to decide.
このようなバンディット問題は、ウェブ広告の提示(どの広告を提示することが効果的であるかを見出す)等、種々の分野で応用されている。バンディット問題には、報酬が二値(「有り」または「無し」)をとるN台のスロットマシーン(選択肢)から報酬確率が最大となる選択肢がどれであるかを判断する問題(以下、二値バンディット問題という、例えば、非特許文献1、非特許文献2参照)や、報酬が連続値(実数)をとるN台のスロットマシーン(選択肢)から期待報酬量が最大となる選択肢がどれであるかを判断する問題(以下、連続値バンディット問題という、例えば、非特許文献4参照)、さらには、プレイヤー数が2以上で競合が生じる状況を表現したバンディット問題(以下、競合的二値バンディット問題という、例えば、特許文献5参照)などがある。
Such bandit problems are applied in various fields, such as presenting web advertisements (finding out which advertisements are effective to present). The bandit problem involves determining which option has the maximum reward probability from among N slot machines (options) with binary rewards (“yes” or “absent”) (hereinafter referred to as “binary”). The bandit problem (for example, see Non-Patent
このような様々なバンディット問題に対する解を探索する手法として、従来、ε-greedyアルゴリズムやSOFTMAXアルゴリズムなどが知られていた。また近年では、綱引き(Tug-of-War;TOW)モデルと呼ばれる解法も提案されている。 Conventionally, the ε-greedy algorithm, the SOFTMAX algorithm, and the like have been known as methods for searching for solutions to various bandit problems. In recent years, a solution method called the Tug-of-War (TOW) model has also been proposed.
このTOWモデルは、単細胞のアメーバ状生物の振舞いから着想を得た動力学的なアルゴリズムであり、有限の体積をもつ細胞内資源を複数の端末が綱引きするよう奪い合う物理的な特性から意思決定機能を得るものである。この綱引き的な現象の動力学における物理的な制約である体積保存則によって、TOWモデルの動作はε-greedyアルゴリズムやSOFTMAXアルゴリズムのような、他の良く知られているアルゴリズムよりも高い性能を示しており、実際に従来のアルゴリズムとシミュレーションによりその高い性能が確認されている(非特許文献1)。 This TOW model is a dynamic algorithm inspired by the behavior of single-celled amoeba-like organisms, and the decision-making function is derived from the physical characteristics of multiple terminals competing for intracellular resources with a finite volume like a tug-of-war. This is what you get. Due to the volume conservation law, which is a physical constraint on the dynamics of this tug-of-war phenomenon, the operation of the TOW model shows higher performance than other well-known algorithms such as the ε-greedy algorithm and the SOFTMAX algorithm. Its high performance has actually been confirmed by conventional algorithms and simulations (Non-Patent Document 1).
具体的に、非特許文献1のFig.5に示されているように、ε-greedyアルゴリズムやSOFTMAXアルゴリズムを用いた場合に比べ、少ない試行回数で同等の正解率が得られるのが理解できる。 Specifically, Fig. 5, it can be seen that the same accuracy rate can be obtained with fewer trials than when using the ε-greedy algorithm or the SOFTMAX algorithm.
また、非特許文献1のFig.7には、試行回数3000回付近でスロットマシーン(選択肢)ごとの報酬確率分布を変化させた例を示すもので、具体的にはスロットマシーンAおよびBにおいて、(Aの確率分布PA=0.40、Bの確率分布PB=0.60)から(PA=0.60、PB=0.40)に変更したときの例が示されている。Also, Fig. 7 shows an example in which the reward probability distribution for each slot machine (choice) is changed around 3000 trials. Specifically, for slot machines A and B, (Probability distribution of A = 0 An example is shown in which the probability distribution P B =0.60) of B is changed to (P A =0.60, P B =0.40).
このように報酬確率分布が変化した場合に、その後に再度正解を取得するまでの状況を調べると、非特許文献1のFig.7に示されているように、TOWモデルを用いた場合に、SOFTMAXアルゴリズムを用いた場合よりも正解を取得するまでのグラフの傾斜が急になっており、より早く報酬確率分布の変化に対応しており、環境変化により適応的であることが理解される。
When the reward probability distribution changes in this way, the situation until the correct answer is obtained again is investigated as shown in Fig. of
このようなTOWモデルの実装例としては、体積保存則等の物理的制約による綱引き的な現象の動力学を利用したTOWモデル(以下、力学的TOWモデルという、例えば、非特許文献1参照)や、伸縮しない仮想的なバーを想定し、バーを左右に固定値変動させるTOWモデル(以下、固定値バーTOWモデルという、例えば、非特許文献2参照)、および固定値バーTOWモデルを非固定値変動まで拡張したTOWモデル(以下、非固定値バーTOWモデルという、例えば、非特許文献5、特許文献3参照)などがある。 Examples of implementing such a TOW model include a TOW model that utilizes the dynamics of a tug-of-war phenomenon due to physical constraints such as the law of conservation of volume (hereinafter referred to as a dynamic TOW model; see, for example, Non-Patent Document 1); , a TOW model that assumes a virtual bar that does not expand or contract and changes the bar by a fixed value to the left and right (hereinafter referred to as a fixed value bar TOW model, see e.g. Non-Patent Document 2), and a fixed value bar TOW model that changes a fixed value bar TOW model to a non-fixed value. There is a TOW model (hereinafter referred to as a non-fixed value bar TOW model, see, for example, Non-Patent Document 5 and Patent Document 3) that extends to fluctuations.
また近年では、このようなTOWモデルを物理的に実装した意思決定デバイスの提案がなされている。例えば単一光子の粒子性と波動性とを用いてTOWモデルを実装する手法(例えば、非特許文献3、非特許文献4参照)や、パルス電圧を印加することなどにより抵抗値を変化させることができるデバイスを使用してTOWモデルを実装する手法などが提案されている。
Furthermore, in recent years, proposals have been made for decision-making devices that physically implement such a TOW model. For example, a method of implementing a TOW model using the particle nature and wave nature of a single photon (for example, see Non-Patent
後者の例は、様々な金属を組み合わせ、印加する電圧に応じて抵抗値が変化するアナログ抵抗変化素子を用いたもので、学習モデルに提供される学習データに応じて印加する電圧を制御し、学習モデルとなる、所定の特性を有するアナログ抵抗変化素子に当該制御された電圧を印加することで、TOWモデルの実装を図るものである。 The latter example combines various metals and uses an analog resistance change element whose resistance value changes depending on the applied voltage.The applied voltage is controlled according to the learning data provided to the learning model. The TOW model is implemented by applying the controlled voltage to an analog resistance change element having predetermined characteristics, which serves as a learning model.
これによると、大型コンピュータ等にソフトウエアをインストールするといったことなく、比較的小型のハードウェアによって、意思決定を行うための装置を構築することが可能となる。 According to this, it becomes possible to construct a decision-making device using relatively small hardware without installing software on a large computer or the like.
なお、このようなアナログ抵抗変化素子としては、電極で挟持された固体電解質中で金属イオンが電界の印加によって移動・析出・再イオン化することを利用する原子スイッチを用いた素子(以下、ギャップなし型原子スイッチという、例えば、特許文献1、非特許文献5参照)、固体電解質を電極で挟持し電圧を印加することでフィラメントを成長又は収縮させる素子(以下、ギャップあり型原子スイッチという、例えば、非特許文献6参照)および電場によるイオンの輸送が可能な電解質材料層を2以上の電極で挟持した電解質素子(例えば、特許文献2、非特許文献7参照)などがある。
Note that such an analog resistance change element is an element using an atomic switch (hereinafter referred to as a gapless element) that utilizes the movement, precipitation, and reionization of metal ions in a solid electrolyte sandwiched between electrodes by the application of an electric field. (hereinafter referred to as a gap-type atomic switch), an element that grows or contracts a filament by sandwiching a solid electrolyte between electrodes and applying a voltage (hereinafter referred to as a gap-type atomic switch, for example, Non-Patent Document 6) and electrolyte elements in which an electrolyte material layer capable of transporting ions by an electric field is sandwiched between two or more electrodes (see, for example,
このような特許文献1,2,非特許文献5,6,7にあるようなアナログ抵抗変化素子を用いる意思決定の装置を、バンディット問題に適用する場合、スロットマシーン(選択肢)の数が「2」であるバンディット問題を解くTOWモデルであれば、上記各文献に記載のアナログ抵抗変化素子を1個だけ用いて実装することができる。
When applying decision-making devices using analog resistance change elements such as those described in
しかしながら、特許文献1や非特許文献5に記載された、ギャップなし型原子スイッチをアナログ抵抗変化素子として用いる場合、比較的小型で低消費電力で動作するものの、処理の速度を高速化できないという課題があり、また、スロットマシーン(選択肢の)数を拡張した大規模問題を解くための方法も確立されていない。
However, when using the gapless atomic switch described in
また非特許文献6にあるようなギャップあり型原子スイッチをアナログ抵抗変化素子として用いて、バンディット問題を解決する具体的方法は未だ示されていない。さらに、特許文献2、非特許文献7に記載されているような、電場によるイオンの輸送が可能な電解質材料層を2以上の電極で挟持した電解質素子でも、ギャップなし型原子スイッチと同様、比較的小型で低消費電力で動作するものの、高速化できないという問題点があり、スロットマシーン(選択肢の)数を拡張した大規模問題を解くための方法が見出せていない。
Further, a specific method for solving the bandit problem by using a gap type atomic switch as disclosed in Non-Patent Document 6 as an analog resistance change element has not yet been shown. Furthermore, even with an electrolyte element in which an electrolyte material layer capable of transporting ions by an electric field is sandwiched between two or more electrodes, as described in
このように、従来例の技術では、スロットマシーン(選択肢)の数を4以上とすることが困難であるのが実情である。 As described above, in the conventional technology, it is difficult to increase the number of slot machines (choices) to four or more.
なお、非特許文献3、非特許文献4に記載されているような、単一光子の粒子性と波動性を用いてTOWモデルを実装する手法では、比較的高速に動作するものの、小型化や低消費電力化が難しく、スロットマシーン(選択肢)の数を拡張しようとすると、装置のサイズが著しく大きくなり、実用性に乏しい。
Note that the method of implementing the TOW model using the particle and wave properties of single photons, as described in Non-Patent
本発明は、上記実情に鑑みて為されたもので、小型化が容易で、比較的低消費電力で動作し、また、比較的高速に動作が可能で、選択肢が多数である場合にも適用可能な意思決定装置、及びその制御方法を提供することを目的の一つとする。 The present invention was made in view of the above circumstances, and can be easily miniaturized, operates with relatively low power consumption, and operates at relatively high speed, and is applicable even when there are many options. One of the purposes is to provide a decision-making device and its control method.
上記従来例の問題点を解決する本発明の一態様は、それぞれ確率的に報酬を受け得る2n個(nは自然数)の選択肢のうちから一つの選択肢を選択する意思決定装置であって、所定の物理量の値を、基準値に対して正または負の方向に確率的変動を伴って制御可能な回路素子を2n-1個用いて仮想的な二分木を構成し、最下層の2n-1個の回路素子が前記選択肢のいずれかを選択する処理に供される回路部と、前記選択肢のうち一つを選択して、報酬の有無を判断する試行手段と、前記試行手段の判断の結果により、当該試行手段が選択した選択肢に関わる回路素子のそれぞれの前記物理量の値を、予め定めた規則に従って制御する物理量制御手段と、前記仮想的な二分木に構成された各回路素子を、最上位の回路素子から順次選択し、選択した回路素子の物理量の値が前記基準値より正であるか否かにより、一対の下位の回路素子のいずれかを選択することを繰り返して、選択された最下位の回路素子の物理量の値が前記基準値より正であるか否かにより、前記選択肢のいずれかを選択する選択肢選択手段と、を有し、前記物理量制御手段は、前記試行手段の選択により、報酬を受けた場合に、当該試行手段が選択した選択肢が前記選択肢選択手段により選択される確率を上昇させるよう、選択肢に関わる回路素子のそれぞれの前記物理量の値を、予め定めた規則に従って制御することとしたものである。One aspect of the present invention that solves the problems of the conventional example is a decision-making device that selects one option from among 2 n options (n is a natural number), each of which can receive a stochastic reward, A virtual binary tree is constructed using 2 n -1 circuit elements that can control the value of a predetermined physical quantity with stochastic fluctuations in the positive or negative direction with respect to a reference value, and the lowest layer 2 a circuit unit in which n-1 circuit elements are subjected to a process of selecting one of the options; a trial means for selecting one of the options and determining whether or not there is a reward; physical quantity control means for controlling the value of each of the physical quantities of the circuit elements related to the option selected by the trial means according to a predetermined rule according to the result of the judgment; and each circuit element configured in the virtual binary tree. are sequentially selected from the highest circuit element, and depending on whether the value of the physical quantity of the selected circuit element is more positive than the reference value, one of the pair of lower circuit elements is selected, option selection means for selecting one of the options depending on whether the value of the physical quantity of the selected lowest circuit element is more positive than the reference value; The value of the physical quantity of each of the circuit elements related to the option is predetermined so as to increase the probability that the option selected by the trial means is selected by the option selection means when a reward is received by selecting the means. It was decided that the system would be controlled according to established rules.
本発明によると、意思決定装置を小型化し、また比較的低消費電力で動作させることが可能となる。また、比較的高速に動作が可能で、選択肢が多数である場合にも適用可能な意思決定装置が提供される。 According to the present invention, it is possible to downsize the decision-making device and operate it with relatively low power consumption. Furthermore, a decision-making device is provided that can operate at relatively high speed and is applicable even when there are many options.
以下、本発明の意思決定方法およびその装置について、図面を参照して実施形態を説明する。なお、異なる図面でも、同一の処理、構成を示すときは同一の符号を用いる。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a decision-making method and an apparatus thereof according to the present invention will be described with reference to the drawings. Note that even in different drawings, the same reference numerals are used to indicate the same processing and configuration.
(システム構成)
本発明の一実施形態で用いる意思決定装置の動作及び処理を以下に説明する。図1は、本発明の一実施形態の意思決定装置全体の構成図である。本装置は、意思決定の中心的な処理を行う意思決定制御部101、抵抗値の値を変更して報酬を変化させることにより最大報酬を得られるスロットマシーンなどの確率的報酬付与手段を決定するアナログ抵抗変化素子(RAND)回路102、入力および出力に基づいて必要な電圧を決定してアナログ抵抗変化素子に印加し、所望の抵抗値を得られるように制御して意思決定処理を行うRANDコントローラ103および実際に発生する様々な課題を意思決定可能な問題として意思決定制御部101に提供し、得られた解を実際の課題に適用する外部インタフェース部104を備える。(System configuration)
The operation and processing of the decision-making device used in one embodiment of the present invention will be described below. FIG. 1 is a block diagram of an entire decision-making device according to an embodiment of the present invention. This device includes a decision-making
意思決定制御部101は、RAND回路102との間で、データライン111のデータの入出力を行って、最終的に解を受けとる。RANDコントローラ103は、RAND回路102を制御ライン121で制御するとともにデータライン112でデータの入出力などを行って、RANDの更新を進める。本実施形態では、以上のような装置構成、機能分担で処理を実行するが、これに限らず本技術分野で知られた構成、機能分担で本実施形態の処理を実装することもできる。
The decision-making
また、外部インタフェース部104は、何らかの意思決定すべき問題を取得したり、最適化問題が提供されたりした場合に、本技術分野で知られたいずれかの手法により、その問題を本実施形態のRANDを用いた意思決定が可能な方式に変換するものであり、将来的には、携帯端末やロボットに搭載することができる可能性もある。
Further, when the
図2は、本発明の一実施形態の多本腕バンディット問題に関して説明するための図である。図2に示すように、一般に多本腕バンディット問題とは、2台を超えるスロットマシーンA201、スロットマシーンB202、スロットマシーンC203およびスロットマシーンD204を用い、各スロットマシーンの報酬確率(例えばそれぞれPA=0.7、PB=0.5、PC=0.3およびPD=0.1等)が不明の状態で、決められた量のコイン205を各スロットマシーンに任意の比率で使用して報酬を最大にするというものである。例えば、スロットマシーンAの報酬確率(勝率、当選確率などともいう)がPA=0.7で最大と知っていれば、スロットマシーンAだけにコインを賭ければ最大報酬になるが、各スロットマシーンの報酬確率が不明な場合は、全てのスロットマシーンにコインを賭けてその結果から報酬確率を推定しながら繰り返しプレイを進めるため、報酬確率の低いスロットマシーンにもある程度コインを投入しなければならず、最終的に最大の報酬確率を有するのが、例えばスロットマシーンAと判明したとしても、報酬確率最大のスロットマシーンのみ使用しているときに比べると全体の報酬は低くなる。FIG. 2 is a diagram for explaining the multi-armed bandit problem according to an embodiment of the present invention. As shown in FIG. 2, the multi-armed bandit problem generally uses more than two slot machines A201, B202, C203, and D204, and the reward probability of each slot machine (for example, P A = 0.7, P B = 0.5, P C = 0.3, P D = 0.1, etc.), a predetermined amount of
多本腕バンディット問題を探索するアルゴリズムは、従来から様々なものが研究されてきたが、その際に探索手法に対する評価でよく用いられたものは、アルゴリズムの報酬の和であった。しかし、近年では、(平均)正解率を意思決定手法の評価指標として用いるのが好ましくなっている(非特許文献1参照)。これは、近年ロボットやAIなど、本実施形態のような意思決定方法の適用が期待される分野では、使用される環境が実験室のような定常的な状態を期待できないものであり、そのような自然の環境の中では、一定以上の正確な判断が可能であれば出来るだけ早期に意思決定することが重要だからである。したがって、本実施形態の意思決定システムを用いた性能の評価においても正解率を用いることとする。 Various algorithms for searching the multi-armed bandit problem have been studied in the past, but the sum of the rewards of the algorithm was often used to evaluate the search methods. However, in recent years, it has become preferable to use the (average) correct answer rate as an evaluation index for decision-making methods (see Non-Patent Document 1). This is because in recent years, in fields such as robots and AI where decision-making methods such as this embodiment are expected to be applied, the environment in which they are used cannot be expected to be in a steady state like a laboratory. This is because in a natural environment, it is important to make decisions as early as possible if it is possible to make more accurate judgments than a certain level. Therefore, the accuracy rate is also used in evaluating the performance using the decision-making system of this embodiment.
図3は、本発明の一実施形態の意思決定制御部の機能ブロック図である。意思決定制御部101は、本実施形態の意思決定の全体を制御し、外部インタフェース部104と通信して、TOWモデルによる意思決定が可能な方式で問題を取得し、結果を返す外部インタフェース管理モジュール301および主にRANDコントローラ103を制御してResistive Analog Neuromorphic Device(RAND)と呼ばれるアナログ抵抗変化素子であるRAND回路102の抵抗値を更新する抵抗値管理モジュール302を備える。また、抵抗値を変更した後あるいは変更しながら、所定のデータをデータライン111でRAND回路102に入力して実行させ、その結果を受け取る実行管理モジュール303を備える。本実施形態では、このようなデータライン、制御により意思決定の処理を行うがこれに限らず本技術分野で知られたいずれかのデータインタフェース、制御手法により実装することができる。
FIG. 3 is a functional block diagram of a decision-making control unit according to an embodiment of the present invention. The decision-making
(本実施形態のTOWモデル)
図4は、本発明の一実施形態のTOWモデルを説明するための図である。近年、多本腕バンディット問題、特に2本腕バンディット問題を解決するために、TOWモデルが有効であることが示されているが(例えば、非特許文献1参照)、これとは異なるアプローチとして本実施形態では図4などに示すような仮想的なバー401を想定し、これを用いてTOWモデルを実現する。(TOW model of this embodiment)
FIG. 4 is a diagram for explaining a TOW model according to an embodiment of the present invention. In recent years, the TOW model has been shown to be effective for solving multi-armed bandit problems, especially two-armed bandit problems (see, for example, Non-Patent Document 1). In the embodiment, a
図4に示すように、スロットマシーンが報酬を得ると報酬を得たスロットマシーン側(例えばスロットマシーンA411)に所定の距離(例えば、1)だけバー401を移動させ、バー402に示すように逆の場合は相手側のスロットマシーン側(例えばスロットマシーンB412)に所定の距離(例えば、ω)だけ移動させる。ωの値は、スロットマシーンAとBの報酬確率をそれぞれPAとPBとすると、ω=(PA+PB)/(2-PA-PB)と設定することが望ましいが、他の適切な値をとっても良い。As shown in FIG. 4, when a slot machine receives a reward, the
このような仮想的なバーのモデルを用いて最終的に最大報酬を得られる、確率的報酬付与手段であるスロットマシーンを決定する。ここで、確率的報酬付与手段とは、1回の処理により一定の報酬確率で報酬出力の可否の結果を出力する装置などの手段で、例えばスロットマシーンが対応する。すなわち、スロットマシーンは1回のプレイごとに、所定の報酬確率でコインを得られる(報酬有)か、得られないか(報酬無)のいずれかの結果を出力する。また、このような仮想的なバーを用いたTOWモデルを採用することにより、2つのスロットマシーンの報酬確率の評価を同時に更新することができる。 Using such a virtual bar model, a slot machine, which is a stochastic reward giving means, that can ultimately yield the maximum reward is determined. Here, the probabilistic reward giving means is means such as a device that outputs a result of whether or not a reward can be outputted with a fixed reward probability in one process, and corresponds to, for example, a slot machine. That is, for each play, the slot machine outputs the result of either being able to obtain coins (with reward) or not (with no reward) at a predetermined reward probability. Further, by adopting a TOW model using such a virtual bar, it is possible to simultaneously update the evaluation of reward probabilities of two slot machines.
以上のような本実施形態のTOWモデルを所定のハードウェア素子に実装できれば、従来よりも簡便で小型かつ低消費電力の装置で大規模のバンディット問題を解く意思決定システムを実現することができる。素子としては、様々な電気特性を有する素子が研究されているが、印加される電圧により抵抗値が変化する素子を想定し、上述の仮想的なバーの位置を抵抗値として設定すると、素子の特性により上述の本実施形態のTOWモデルの振る舞いが、素子の動作によく対応付けされる素子を得ることができた。具体的には、印加するパルス電圧の強度やパルス幅などの印加条件により一定の線形的特性、すなわち印加される電圧の値に対する抵抗値の変化量が一定範囲内にあり、印加条件を変えることにより一定の非線形特性になり、およびヒステリシス特性がなく高速に動作するアナログ抵抗変化素子(RAND)を用い、仮想的なバーの位置をRANDの抵抗値として対応付けることにより、例えば仮想的なバーの各スロットマシーンとの位置関係でいずれをプレイするかを決定するように、現在の抵抗値によってプレイするスロットマシーンを決定し、スロットマシーンのプレイの結果、その結果により報酬が得られれば抵抗値を、同じスロットマシーンをプレイすると決定される方向に仮想的なバーを移動させる距離に対応する値とする。具体的にはこのような抵抗値の値となるように変更するための電圧を印加することにより、このような抵抗値の変更を達成する。報酬が得られなければ抵抗値を、同様に、もう一方のスロットマシーンをプレイすると決定される方向に仮想的なバーを移動させる距離に対応する値に変更するための電圧を印加することにより、本実施形態のTOWモデルを実装することができる。 If the TOW model of this embodiment as described above can be implemented in a predetermined hardware element, it is possible to realize a decision-making system that solves a large-scale bandit problem with a device that is simpler, smaller, and consumes less power than conventional devices. Elements with various electrical characteristics are being researched, but if we assume an element whose resistance value changes depending on the applied voltage and set the position of the virtual bar mentioned above as the resistance value, the element's resistance value will change. Due to the characteristics, it was possible to obtain an element in which the behavior of the TOW model of the present embodiment described above corresponds well to the operation of the element. Specifically, depending on the application conditions such as the intensity and pulse width of the pulse voltage to be applied, it has a certain linear characteristic, that is, the amount of change in resistance value with respect to the value of the applied voltage is within a certain range, and it is possible to change the application conditions. By using an analog resistance change element (RAND) that has constant nonlinear characteristics and operates at high speed without hysteresis characteristics, and by associating the position of the virtual bar with the resistance value of RAND, for example, each virtual bar Just like determining which slot machine to play based on the positional relationship with the slot machine, the current resistance value determines which slot machine to play, and if a reward is obtained as a result of playing the slot machine, the resistance value is changed. The value corresponds to the distance to move the virtual bar in the direction determined when playing the same slot machine. Specifically, such a change in resistance value is achieved by applying a voltage for changing the resistance value. By applying a voltage to change the resistance value, if no reward is obtained, to a value corresponding to the distance to move the virtual bar in the direction determined to similarly play the other slot machine. The TOW model of this embodiment can be implemented.
一般に、RANDは、積層構造を制御することによって実用的なパルス印加条件で線形に抵抗が変化するように調整できることに優位性がある。この線形の抵抗変化は、TOWモデルを忠実に実装することに好適である。一方、実社会の応用では、報酬確率が動的に変化する状況にも柔軟に適応できる能力が要求されることが多い。これは、報酬確率変化前に正しかった意思決定が、報酬確率変化後には取り下げられやすくなっている必要があることを意味する。そのためには、報酬確率変化前に正しい意思決定を表現する一方に振れた抵抗値が、報酬確率変化後には少ないパルス印加でなるべく早く抵抗値をRθに戻せることが望ましい。すなわち、抵抗値が大きく(あるいは、小さく)なり一方に振れるとパルス電圧に対する抵抗変化が小さくなるという非線形的(飽和的)な応答特性も要請される。本実施形態のRANDは、パルス電圧の強度やパルス幅などの印加条件を変えることで、こうした飽和的な応答特性を実現することができるようにすることも可能である。これにより、用途に応じてその強化学習のための能力を柔軟に最適化させることができる。Generally, RAND has an advantage in that it can be adjusted so that the resistance changes linearly under practical pulse application conditions by controlling the laminated structure. This linear resistance change is suitable for faithfully implementing the TOW model. On the other hand, real-world applications often require the ability to flexibly adapt to situations where reward probabilities change dynamically. This means that decisions that were correct before the change in reward probability must be more likely to be withdrawn after the change in reward probability. To this end, it is desirable that the resistance value, which has swung in the direction representing correct decision-making before the reward probability change, can be returned to R θ as quickly as possible by applying a small number of pulses after the reward probability change. That is, a nonlinear (saturated) response characteristic is also required, in which the resistance change with respect to the pulse voltage becomes smaller as the resistance value increases (or decreases) and swings in one direction. In the RAND of this embodiment, it is also possible to realize such a saturated response characteristic by changing the application conditions such as the intensity and pulse width of the pulse voltage. This allows the reinforcement learning capability to be flexibly optimized depending on the application.
このようなRANDはパルス電圧の印加条件により線形性および非線形性を有する特性を持っているとしても、一般に素子は、印加される電圧に対して、図4に示すように揺らぎ420を有している。この揺らぎ420により、一時的に報酬の有無の判断がなされ、その判断に基づいてさらに電圧が印加されて抵抗値が変化する。この際に、報酬の有無により抵抗値の変化量に差をつけておくことにより、所定の報酬確率に対応することもできる。すなわち、抵抗値を減少させる電圧をセット電圧、抵抗値を増大(回復)させる電圧をリセット電圧とすると、セット電圧とリセット電圧とを所定の比、例えば図4に示すようにωとし、ωの値を様々に変えることにより、プレイを繰り返していって適切な確率的報酬付与手段を決定することができる。
Although such RAND has characteristics of linearity and nonlinearity depending on the pulse voltage application conditions, the element generally has
(RAND構造)
上述の特性を有するRANDとしては、以下のような構造を有する素子を得ることができた。図5は、本発明の一実施形態のアナログ抵抗変化素子の透過型電子顕微鏡による断面画像を示す図である。図6は、本実施形態のアナログ抵抗変化素子を含む回路部を示す図である。(RAND structure)
As a RAND having the above characteristics, an element having the following structure could be obtained. FIG. 5 is a diagram showing a cross-sectional image taken by a transmission electron microscope of an analog resistance change element according to an embodiment of the present invention. FIG. 6 is a diagram showing a circuit section including the analog resistance change element of this embodiment.
本実施形態のRANDは、窒化物からなる電極によって、酸化物からなる抵抗変化層を挟持する積層構造を有し、電極としてはTiN、TiON、TaN、TaONなどを用いることができる。また、酸化物からなる抵抗変化層としては、TaOxだけでなく、HfOx、TiOx、AlOx等異なる酸化状態を安定に持つことができる材料であれば、本技術分野で知られたいずれの材料も使用することができる。 The RAND of this embodiment has a laminated structure in which a variable resistance layer made of oxide is sandwiched between electrodes made of nitride, and TiN, TiON, TaN, TaON, etc. can be used as the electrodes. Furthermore, as the variable resistance layer made of oxide, not only TaOx but also any material known in this technical field can be used as long as it can stably maintain different oxidation states, such as HfOx, TiOx, and AlOx. can do.
本実施形態では、図5に示すように、RANDは、TiN電極によって、抵抗値の異なるTaOxを挟持する積層構造および微細孔構造を有している。すなわち、上部のTiN電極(TE)501と下部のTiN電極(BE)502との間に、異なる抵抗値を有するTaOx(1)503およびTaOx(2)504が挟持された層構造を有する。ここで、TaOx(1)503とTaOx(2)504とは、異なる抵抗値を有し、TaOx(1)503がTaOx(2)504よりも抵抗値が低くなっている。In this embodiment, as shown in FIG. 5, the RAND has a laminated structure and a micropore structure in which TaO x having different resistance values are sandwiched between TiN electrodes. That is, it has a layer structure in which TaO x (1) 503 and TaO x (2) 504 having different resistance values are sandwiched between an upper TiN electrode (TE) 501 and a lower TiN electrode (BE) 502. . Here, TaO x (1) 503 and TaO x (2) 504 have different resistance values, and TaO x (1) 503 has a lower resistance value than TaO x (2) 504.
また、図5に示すように、直径100nmの孔構造を形成するため、TiN電極(BE)502の上に、化学蒸着(CVD)により、続いて電子線描画(Electron Beam Lithography)によりSiO2層505を成膜する。図5を参照すれば理解できるように、この微細孔構造の底部では、TiN電極(BE)が完全に露出している。反応性スパタリングにより露出したTiN電極(BE)上に、TaOx(2)、TaOx(1)およびTiN電極(TE)の層が配置され、フォトリソグラフィおよびイオンミリングによりパターンが形成される。最後に、過渡電流により素子が被る電気的ダメージを抑制するため、図6に示すように、3kΩの負荷抵抗602がRAND601に直列に調整される。Furthermore, as shown in FIG. 5, in order to form a pore structure with a diameter of 100 nm, two layers of SiO are deposited on the TiN electrode (BE) 502 by chemical vapor deposition (CVD) and then by electron beam lithography. 505 is formed into a film. As can be seen with reference to FIG. 5, the TiN electrode (BE) is completely exposed at the bottom of this micropore structure. On the TiN electrode (BE) exposed by reactive sputtering, layers of TaO x (2), TaO x (1) and TiN electrode (TE) are placed and patterned by photolithography and ion milling. Finally, to suppress electrical damage to the device due to transient currents, a 3
以上により形成されたRANDは、セット電圧およびリセット電圧をパルス的に複数回印加したとき、図7に示すようにその抵抗値を変化させることができる。このとき、RANDの抵抗値は、パルス電圧の印加回数に対してヒステリシス特性を示さずに線形に変化する、つまり、どの抵抗値の状態でもパルス電圧による抵抗値の変化量がほぼ同一であるように設定することができる。 The RAND formed as described above can change its resistance value as shown in FIG. 7 when a set voltage and a reset voltage are applied in a plurality of pulses. At this time, the resistance value of RAND changes linearly with respect to the number of pulse voltage applications without showing hysteresis characteristics.In other words, the amount of change in resistance value due to the pulse voltage is almost the same regardless of the resistance value state. Can be set to .
具体的には、図7に示すように、抵抗値を減少させるセット電圧701および抵抗値を増大(回復)させるリセット電圧702を所定回数印加することにより一定の割合で抵抗値を変化させることができる。例えば、図7を参照すると、リセット電圧として200ns幅の-2.0Vのパルス電圧702を50回印加するとRANDの抵抗値は、約8000Ωから約9000Ωまで直線的に増大する。一方、セット電圧として200ns幅の+1.7Vのパルス電圧701を50回印加するとRANDの抵抗値は、約9000Ωから約8000Ωまで直線的に減少する。
Specifically, as shown in FIG. 7, the resistance value can be changed at a constant rate by applying a
1回のセット電圧またはリセット電圧により毎回異なるものの、平均としては約20Ωほど抵抗値が変化しており、変化量は印加される際の抵抗値には影響されず、リセットのパルス電圧50回印加、およびセットのパルス電圧50回印加を繰り返しても基本的にはほぼ同一の特性を示すことができる。 Although it differs each time depending on the set voltage or reset voltage, the resistance value changes by about 20Ω on average, and the amount of change is not affected by the resistance value when applying the reset pulse voltage 50 times. , and even if a set pulse voltage is repeatedly applied 50 times, basically almost the same characteristics can be exhibited.
また、印加される各パルス電圧に対する抵抗値の変化量は毎回微小な変化を伴い、一定の確率的揺らぎを有する。こうした確率的揺らぎは、TOWモデルにおいては、報酬確率分布が動的に変化するような状況で、その変化を迅速に検知することにつながり、当該状況にも柔軟に適応できる能力を向上させることに資する。したがって、本実施形態のRANDは、その抵抗値がパルス電圧の印加に対し線形的に応答し、また確率的揺らぎを有しながら変化する点で、TOWモデルを実装するのに適した素子であることが理解される。なお、本実施形態では、電極としてTiN、酸化物からなる抵抗変化層としてはTaOxを用いたが、その他の材料を用いる場合は本技術分野で知られた手法によりRANDを作製することができる。 Further, the amount of change in resistance value with respect to each applied pulse voltage is accompanied by a minute change each time, and has a certain stochastic fluctuation. In the TOW model, these stochastic fluctuations lead to rapid detection of changes in the reward probability distribution in situations where the distribution changes dynamically, and improve the ability to flexibly adapt to the situation. To contribute. Therefore, the RAND of this embodiment is an element suitable for implementing the TOW model in that its resistance value responds linearly to the application of a pulse voltage and changes with stochastic fluctuations. That is understood. Note that in this embodiment, TiN is used as the electrode and TaOx is used as the variable resistance layer made of oxide, but when using other materials, RAND can be fabricated by a method known in the technical field.
一方、RANDはパルス電圧の強度やパルス幅などの印加条件を変えることで、図8で示されるように、線形的特性とは異なる非線形的(飽和的)な特性801、例えば抵抗値が一定以上大きい、あるいは一定以下に小さい範囲では、パルス電圧に対する抵抗値の変化がより小さくなるように設定することができる。図8は、本発明の一実施形態で使用するアナログ抵抗変化素子のパルス電圧印加による非線形的な抵抗値変化特性を示す図である。こうした図8に示すような非線形的な特性は、飽和した抵抗値が少ないパルス印加で早く抵抗の基準値に復帰できることにつながり、報酬確率が動的に変化する状況にも柔軟に適応できる能力を向上させることに資する。 On the other hand, in RAND, by changing the application conditions such as the intensity and pulse width of the pulse voltage, as shown in FIG. In a range that is large or small below a certain level, it can be set so that the change in resistance value with respect to the pulse voltage becomes smaller. FIG. 8 is a diagram showing a nonlinear resistance value change characteristic due to application of a pulse voltage of an analog resistance change element used in an embodiment of the present invention. These nonlinear characteristics, as shown in Figure 8, allow the saturated resistance value to quickly return to its reference value by applying a small number of pulses, and provide the ability to flexibly adapt to situations where the reward probability changes dynamically. Contributes to improving
以上、本実施形態で用いるRANDおよびRANDの製造方法を説明したが、これに限らず、本実施形態で必要とされる特性を有する素子であれば、いずれの素子も用いることができ、また、本技術分野で知られたアナログ抵抗変化素子やその他素子などの製造方法のいずれかを用いて製造することができる。 The RAND used in this embodiment and the method for manufacturing RAND have been described above, but the present invention is not limited to this, and any element can be used as long as it has the characteristics required in this embodiment. It can be manufactured using any of the manufacturing methods for analog resistance change elements and other elements known in the technical field.
(本実施形態の2本腕バンディット問題)
以上説明した本実施形態のRANDを組み込んだ意思決定装置で、2本腕バンディット問題に関する意思決定を行う処理の例を以下に説明する。図9は、本実施形態の2本腕バンディット問題のためのTOWモデルを説明するための図である。図10は、本実施形態の2本腕バンディット問題のためのTOWモデルで選択された側が報酬を得る場合の処理を示す図であり、図11は選択された側が報酬を得られなかった場合の処理を示す図である。(Two-armed bandit problem of this embodiment)
An example of processing for making a decision regarding the two-armed bandit problem using the decision-making device incorporating the RAND of this embodiment described above will be described below. FIG. 9 is a diagram for explaining the TOW model for the two-armed bandit problem of this embodiment. FIG. 10 is a diagram showing the process when the selected side gets a reward in the TOW model for the two-armed bandit problem of this embodiment, and FIG. 11 is a diagram showing the process when the selected side does not get the reward. It is a figure which shows a process.
本実施形態のTOWモデルの2本腕バンディットアルゴリズムは以下の通り。
(1)R<Rθの(図9ないし11においてRがRθの向って左側にある)場合、スロットマシーンAをプレイ
R>Rθの(図9ないし11においてRがRθの向って右側にある)場合、スロットマシーンBをプレイ
(2)コインが出れば(報酬有)、順方向(次に同じスロットマシーンをプレイすると判定する方向)に抵抗値が+R+1されるためのパルス電圧を印加
コインが出なければ(報酬無)、順方向(次に同じスロットマシーンをプレイすると判定する方向)に抵抗値が-Rωされるための(したがって、逆方向に進む)パルス電圧を印加
(3)印加されたパルス電圧に対応する抵抗値に「揺らぎ」を混入。The two-armed bandit algorithm of the TOW model of this embodiment is as follows.
(1 ) If R<R θ (R is on the left side of R θ in Figures 9 to 11), play slot machine A. (on the right), play slot machine B (2) If a coin comes out (with reward), the pulse voltage to increase the resistance value by +R +1 in the forward direction (direction in which it is determined that the same slot machine will be played next) If a coin does not come out (no reward), apply a pulse voltage so that the resistance value is -R ω in the forward direction (the direction in which it is determined that the same slot machine will be played next time) (therefore, it moves in the opposite direction) (3) Add "fluctuation" to the resistance value corresponding to the applied pulse voltage.
具体的には、本実施形態では、スロットマシーンA901およびスロットマシーンB902の間にある仮想的なバー903を、スロットマシーンの報酬により移動させるというTOWモデルをRANDの抵抗値に対応付ける。
Specifically, in this embodiment, a TOW model in which a
すなわち、先ず、いずれのスロットマシーンをプレイするかを判定するバー903の位置に対応付けて、基準となるRθよりもRが大きいか、小さいかによりプレイするスロットマシーンを判定する。That is, first, the slot machine to play is determined based on whether R is larger or smaller than the reference R θ in association with the position of the
図9で見ると、R<Rθなので、スロットマシーンA901がプレイすると判定され、そのプレイ結果でセット電圧またはリセット電圧を印加し、変化した抵抗値を取得する。取得した抵抗値について同様の処理を行って、最終的に所定以下の抵抗値に達した場合は、スロットマシーンA901を選択するよう意思決定する。逆に、所定以上の抵抗値に達した場合は、スロットマシーンB902を選択するよう意思決定する。Looking at FIG. 9, since R<R θ , it is determined that the slot machine A901 will play, and based on the play result, a set voltage or a reset voltage is applied, and the changed resistance value is obtained. Similar processing is performed on the obtained resistance value, and if the resistance value finally reaches a predetermined value or less, a decision is made to select the slot machine A901. Conversely, when the resistance value reaches a predetermined value or higher, a decision is made to select slot machine B902.
本実施形態の2本腕バンディットの処理をより具体的に説明すると、図9に示すような状態でスロットマシーンA901がプレイすると判定された場合、プレイの結果コインが出たときは、報酬が得られたとして、スロットマシーンA901が次もプレイする方向、すなわち抵抗値が減少する方向に変化するよう電圧パルスを印加する。 To explain more specifically the process of the two-armed bandit of this embodiment, when it is determined that the slot machine A901 will play in the state shown in FIG. A voltage pulse is applied so that the slot machine A901 changes in the direction in which it will play next time, that is, in the direction in which the resistance value decreases.
より具体的には、図10に示すように所定のセット電圧を印加し、その結果スロットマシーンA901方向にR+1だけ変化させるが、これは抵抗値が減少する方向に変化する。この際、揺らぎ401が入るため、抵抗値は一定の範囲内にはあるが、プレイごとに同じ結果にはならない。これにより、適切に解探索が可能となる。More specifically, as shown in FIG. 10, a predetermined set voltage is applied, and as a result, the resistance value changes by R +1 in the direction of the slot machine A901, which changes in the direction of decreasing the resistance value. At this time, since
図9に示すような状態でスロットマシーンA901がプレイすると判定され、プレイの結果コインが出なかったときは、報酬が得られなかったとして、次はスロットマシーンB902がプレイする方向、すなわち抵抗値が増大する方向に変化するようパルス電圧を印加する。具体的には、図11に示すように所定のリセット電圧を印加し、その結果スロットマシーンB902の方向にR-ωだけ変化させるが、これは抵抗値が増大する方向に変化する。この際、揺らぎ420が入るため、抵抗値は一定の範囲内にはあるが、プレイごとに同じ結果にはならない。これにより、適切に解探索ができる。この結果のRの値により次にプレイするスロットマシーンを判定するが、図11に示す状態では、RはRθを超えて、R>Rθとなるので、次はスロットマシーンB902をプレイすると判定され、以上が繰り返される。If it is determined that
以上説明したように、本実施形態の2本腕バンディット問題に対応するRANDを用いたTOWモデルでは抵抗値Rはプレイの進行に従い変化するが、プレイのt回目の抵抗値R(t)は以下のようになる。
R(t)-Rθ=EB(t)-EA(t)+δ (1)As explained above, in the TOW model using RAND corresponding to the two-armed bandit problem of this embodiment, the resistance value R changes as the play progresses, but the resistance value R(t) for the tth play is as follows. become that way.
R(t)-R θ =E B (t)-E A (t)+δ (1)
ここで、Ek(t)(k∈{A,B})は、スロットマシーンのそれぞれの評価値であり、以下のように勝回数Wk(t)および負回数Lk(t)を用いて表現される。δはシステムノイズやシステムエラーを含む揺らぎである。
EA(t)=WA(t)-ωLA(t) (2)
EB(t)=WB(t)-ωLB(t) (3)Here, E k (t) (k∈{A, B}) is the evaluation value of each slot machine, and using the number of wins W k (t) and the number of negative numbers L k (t) as follows, It is expressed as δ is fluctuation including system noise and system error.
E A (t) = W A (t) - ωL A (t) (2)
E B (t) = W B (t) - ωL B (t) (3)
ここで、ωは制御パラメータであり、最適制御パラメータωoは、以下のように決定される。
ωo=γ/(2-γ) (4)
γ=PA+PB (5)Here, ω is a control parameter, and the optimal control parameter ω o is determined as follows.
ω o =γ/(2-γ) (4)
γ=P A + P B (5)
本実施形態のTOWモデルにおいて抵抗値の動作のみを用いることにより、従来のAIアルゴリズムよりも高い正解率を得ることができる。揺らぎの最適な量は、報酬確率の差異により決定するが、いずれの揺らぎであっても相対的に、より高い正解率が期待される。 By using only the resistance value behavior in the TOW model of this embodiment, it is possible to obtain a higher accuracy rate than the conventional AI algorithm. The optimal amount of fluctuation is determined by the difference in reward probabilities, but regardless of the fluctuation, a relatively higher accuracy rate is expected.
(本実施形態の多本腕バンディット)
以上、本実施形態の2本腕バンディットについて説明した。実際の応用においては、確率的報酬付与手段が2つということはないから、2本を超えるMAB問題に対応する必要がある。しかしながら、例えば、以上説明した2本腕バンディットの処理を4本に拡張して適用しようとしても、実際の電子デバイスでは、4本の端子に対して綱引きモデルを適用することは極めて困難であり、そのデバイス加工プロセスは産業上の利用を想定できるものにはならない。したがって、4本を超えて本数が増大した場合においては、さらに実装が困難となる。よって、本実施形態では、以下に説明する2種類の階層型TOWモデルにより2n本腕バンディット問題に対応する。(Multi-armed bandit of this embodiment)
The two-armed bandit of this embodiment has been described above. In actual applications, there are no two probabilistic reward giving means, so it is necessary to deal with more than two MAB problems. However, for example, even if we try to extend the two-armed bandit processing described above to four terminals, it is extremely difficult to apply the tug-of-war model to four terminals in an actual electronic device. The device fabrication process cannot be considered for industrial use. Therefore, when the number increases beyond four, implementation becomes even more difficult. Therefore, in this embodiment, the 2n- armed bandit problem is dealt with using two types of hierarchical TOW models described below.
(本実施形態の多本腕バンディット第1実施例)
図12は、本発明の一実施形態の多本腕バンディット問題のための階層型TOWモデルの一例を示す図であり、図13は、階層型TOWモデルの一例の処理のフローチャートである。本実施例のMABは、単一のRANDを複数用いるが、階層構造を持たせることで、2本腕モデルを容易に拡張することができる。すなわち、図12に示すように上位階層のRANDの下には2つのRANDが配置され、上位階層の状態と、下位の2つのRANDの状態とによりいずれを実行するか選択して、選択されたRANDが実行され抵抗値が更新され、上位階層のRANDの抵抗値が更新される。(First example of multi-armed bandit of this embodiment)
FIG. 12 is a diagram illustrating an example of a hierarchical TOW model for a multi-armed bandit problem according to an embodiment of the present invention, and FIG. 13 is a flowchart of an example of processing of the hierarchical TOW model. The MAB of this embodiment uses a plurality of single RANDs, but by providing a hierarchical structure, the two-arm model can be easily extended. That is, as shown in FIG. 12, two RANDs are arranged below the RAND in the upper layer, and which one to execute is selected based on the state of the upper layer and the state of the two lower RANDs. RAND is executed and the resistance value is updated, and the resistance value of RAND in the upper layer is updated.
図12は、4本腕バンディットの例であるが、以上の処理をさらに多くの階層に適用することにより、容易に2n本腕のバンディット問題を解決することができる。なお、本実施例の説明では、階層構造により各RANDの処理をどう組み合わせるかを中心に説明するので、各RANDの抵抗値の更新処理などの詳細は上述の2本腕バンディット問題の対応を参照のこと。Although FIG. 12 shows an example of a four-armed bandit, the 2n- armed bandit problem can be easily solved by applying the above processing to more layers. In the explanation of this embodiment, we will mainly explain how to combine the processes of each RAND using the hierarchical structure, so please refer to the above-mentioned response to the two-armed bandit problem for details such as the process of updating the resistance value of each RAND. About.
図13を参照して、さらに具体的に処理を説明すると、先ず上位階層であるバー1、下位階層のバー2及びバー3の位置により、例えば下記表1にしたがって下位階層のうちバー2のRANDを実行するかバー3のRANDを実行するかを決定する(ステップ1301)。表1を参照すると、バー1が基準位置より左の場合はバー2のいずれかのスロットマシーンが、バー2の位置に基づいて選択されることが理解できる。
To explain the process in more detail with reference to FIG. 13, first, based on the positions of
したがって、バー2の位置が基準位置の左であれば、バー3の位置にかかわらずスロットマシーンAが、右であれば、バー3の位置にかかわらずスロットマシーンBが選択される。例えば、下位階層のバー2のRANDが選択され、ここに接続するマシーンAがプレイを実行すると、スロットマシーンAのプレイが実行され(ステップ1302)、選択されたスロットマシーンでのプレイ結果に基づきこのRANDの抵抗値を更新する(ステップ1303)。以上の処理をT回行い(ステップ1304)、その結果により、上位階層の抵抗値が更新される(ステップ1305)。
以上の通り、本実施例の手法により単一のRANDを階層的に組み合わせて、2n本腕バンディット問題を解決する階層型TOWモデルを実現することができる。ここで、本実施例では、下位階層の処理をT回実行しているが、これは本実施例の手法は比較的容易な報酬確率分布のスロットマシーンの場合はよく解決されるものの、特定の報酬分布の場合解決が困難なときがあるためである。As described above, by the method of this embodiment, a hierarchical TOW model that solves the 2n- armed bandit problem can be realized by hierarchically combining single RANDs. Here, in this embodiment, the processing of the lower layer is executed T times, but although the method of this embodiment can be solved well in the case of a slot machine with a relatively easy reward probability distribution, This is because in the case of reward distribution, it is sometimes difficult to solve.
具体的には、スロットマシーンA、スロットマシーンB、スロットマシーンC、スロットマシーンDの確率を、PA、PB、PC、PDとし、(P A 、PB、PC、PD)=(0.7、0.5、0.3、0.1)の場合、T回繰り返さなくてもP A +PB>PC+PDとなっているので、下位階層の結果をそのまま上位階層で処理しても、最も高いPAを有するスロットマシーンAを正しく決定することができる。一方、(PA、PB、P C 、PD)=(0.7、0.5、0.9、0.1)の場合、この場合もPA+PB>P C +PDとなるので、バー2を選択してしまい、正解のスロットマシーンCを選択できない可能性が有る。このため、下位階層がT回更新処理を行って、すべて決着するまでは上位階層の更新を休止する。したがって、本実施例の手法を用いた場合、下位階層処理のT回分時間がかかることとなる。Specifically, let the probabilities of slot machine A, slot machine B, slot machine C , and slot machine D be PA , PB , PC, PD , and ( PA , PB , PC, PD ) . In the case of = ( 0.7 , 0.5, 0.3, 0.1), P A + P B > P C + P D without repeating T times, so the result of the lower layer is directly transferred to the upper layer. Even if the processing is performed in the above manner, it is possible to correctly determine the slot machine A having the highest PA . On the other hand, in the case of (P A , P B , P C , P D ) = (0.7, 0.5, 0.9 , 0.1), in this case also P A + P B > P C + P D Therefore, there is a possibility that bar 2 will be selected and slot machine C, which is the correct answer, will not be selected. For this reason, the update of the upper layer is suspended until the lower layer performs the update process T times and all of them are resolved. Therefore, when the method of this embodiment is used, it will take T times of lower layer processing.
以上の通り本実施例では、バー1の位置は、バー2から得られる評価値の合計、およびバー3から得られる評価値の合計の2つの合計を比較して決定される。すなわち、本実施例では、以上の処理を繰り返すことによりRが変化し、Rの値により報酬が最大となるスロットマシーンが判定されるが、バー1のt回プレイ後の抵抗値R(t)は以下のようになる。
R(t)-Rθ=(EC(t)+ED(t))-(EA(t)+EB(t))+δ (6)
Ek(t)=Wk(t)-ω(AB)Lk(t) ここで(k∈{A,B}) (7)
Ek(t)=Wk(t)-ω(CD)Lk(t) ここで(k∈{C,D}) (8)As described above, in this embodiment, the position of
R (t) - R θ = (E C (t) + E D (t)) - (E A (t) + E B (t)) + δ (6)
E k (t)=W k (t)−ω (AB) L k (t) where (k∈{A, B}) (7)
E k (t)=W k (t)−ω (CD) L k (t) where (k∈{C, D}) (8)
ここで、ω(AB)はk∈{A,B}の場合の制御パラメータであり、ω(CD)はk∈{C,D}の場合の制御パラメータである。Here, ω (AB) is a control parameter when kε{A, B}, and ω (CD) is a control parameter when kε{C, D}.
(本実施形態の多本腕バンディット第2実施例)
図14は、本発明の一実施形態の多本腕バンディット問題のための階層型TOWモデルの別の例を示す図であり、図15は、階層型TOWモデルの別の例の処理のフローチャートである。本実施例のMABは、単一のRANDを複数用いるが、上述の第1実施例と同様に、階層構造を持たせることで、2本腕モデルを容易に拡張することができる。すなわち、図14に示すように上位階層のRANDの下位には2つのRANDが配置され、上位階層の状態と、下位の2つのRANDの状態とによりいずれを実行するか選択して、選択されたRANDが実行され抵抗値が更新され、上位階層のRANDの抵抗値が更新される。図14は、4本腕バンディットの例であるが、以上の処理をさらに多くの階層に適用することにより、容易に2n本腕のバンディット問題を解決することができる。本実施例で、上位階層の更新は下位階層のTOWモデルの結果、トーナメント方式のように、バー2およびバー3のスロットマシーンのうちより多くの報酬を獲得したスロットマシーン同士でTOWモデルを行うことによって、上位階層のバーの位置を決定する。これにより、下位階層の処理をT回繰り返すまで上位階層の処理を休止することなく、上述の解決の難解な報酬分布の場合も正解を得ることができる。(Second example of multi-armed bandit of this embodiment)
FIG. 14 is a diagram showing another example of the hierarchical TOW model for the multi-armed bandit problem according to an embodiment of the present invention, and FIG. 15 is a flowchart of processing of another example of the hierarchical TOW model. be. The MAB of this embodiment uses a plurality of single RANDs, but similarly to the first embodiment described above, by providing a hierarchical structure, the two-arm model can be easily expanded. That is, as shown in FIG. 14, two RANDs are arranged below the RAND in the upper layer, and which one to execute is selected based on the state of the upper layer and the state of the two lower RANDs. RAND is executed and the resistance value is updated, and the resistance value of RAND in the upper layer is updated. Although FIG. 14 shows an example of a four-armed bandit, the 2n- armed bandit problem can be easily solved by applying the above processing to more layers. In this embodiment, the update of the upper layer is performed by performing the TOW model between the slot machines that have obtained the most rewards among the slot machines at
図15を参照して、さらに具体的に処理を説明すると、第1実施例と同様に先ず上位階層および下位階層バーの位置によりプレイするスロットマシーンを選択する(ステップ1501)。ここで例えば、下位の階層の選択されたスロットマシーンがプレイを実行すると(ステップ1502)、選択されたスロットマシーンでのプレイ結果に基づきこのRANDの抵抗値を更新する(ステップ1503)。バー2のRANDはスロットマシーンAおよびBに接続されており、バー3のRANDはスロットマシーンCおよびDに接続されているので、バー2のスロットマシーンAおよびBのうち最大に評価値になるスロットマシーンと、バー3のスロットマシーンCおよびDのうち最大に評価値になるスロットマシーンとのTOWモデルにより、バー1の位置、すなわち抵抗値が決定され更新される(ステップ1504)。
To explain the process in more detail with reference to FIG. 15, first, a slot machine to be played is selected based on the positions of the upper layer and lower layer bars, as in the first embodiment (step 1501). Here, for example, when a selected slot machine in a lower hierarchy executes a play (step 1502), the resistance value of this RAND is updated based on the play result of the selected slot machine (step 1503). Since the RAND of
以上の通り本実施例では、バー1の位置は、上述の第1実施例のような評価値の合計の比較ではなく、バー2のスロットマシーンAおよびBのうち最大の評価値になるスロットマシーンと、バー3のスロットマシーンCおよびDのうち最大の評価値になるスロットマシーンとのTOWモデルにより決定される。すなわち、本実施例のバー1の抵抗値R(t)は以下の通りである。
R(t)-Rθ=MAX(EC(t),ED(t))-MAX(EA(t),EB(t))+δ (9)
Ek(t)=Wk(t)-ω(AB)Lk(t) ここで(k∈{A,B}) (10)
Ek(t)=Wk(t)-ω(CD)Lk(t) ここで(k∈{C,D}) (11)As described above, in this embodiment, the position of
R (t) - R θ = MAX (E C (t), E D (t)) - MAX (E A (t), E B (t)) + δ (9)
E k (t)=W k (t)−ω (AB) L k (t) where (k∈{A, B}) (10)
E k (t)=W k (t)−ω (CD) L k (t) where (k∈{C, D}) (11)
ここで、MAXはMAX関数であり、引数のうち最大のものを出力する。したがって、より多い報酬が出力される。 Here, MAX is a MAX function, which outputs the largest one among the arguments. Therefore, more rewards are output.
以上の通り、本実施例の手法により単一のRANDを階層的に組み合わせて、2n本腕バンディット問題を解決する階層型TOWモデルを実現することができるが、本実施例の改良された階層的運用方法は階層型TOWモデルであることのみを前提としているので、RANDを用いた装置以外でも、様々なデバイスを用いて実現されるTOWモデルのいずれにも使用することができる他、そのようなデバイスを用いない通常のコンピュータを用いたシステムでも使用することができる。As described above, by the method of this embodiment, it is possible to realize a hierarchical TOW model that solves the 2n- armed bandit problem by hierarchically combining single RANDs. The operating method assumes only a hierarchical TOW model, so it can be used for any TOW model realized using various devices other than devices using RAND. It can also be used in systems using ordinary computers without any special devices.
図16は、本発明の一実施形態の多本腕バンディット問題のための階層型TOWモデルの性能評価の一例を示す図であり、図17は階層型TOWモデルの性能評価の別の例を示す図である。ここで、実装が困難であると上述した多分岐モデルは、実際の測定はできないので、シミュレーションで行った。図16は、報酬確率分布(PA、PB、PC、PD)=(0.7、0.5、0.3、0.1)の場合の性能評価であり、図17は、報酬確率分布(PA、PB、PC、PD)=(0.7、0.5、0.9、0.1)の場合の性能評価を示すグラフである。図16および17を参照すると、実施例1および実施例2が分岐モデルと比較してもほぼ同等程度の性能であることが理解される。FIG. 16 is a diagram showing an example of performance evaluation of the hierarchical TOW model for the multi-armed bandit problem according to an embodiment of the present invention, and FIG. 17 is a diagram showing another example of performance evaluation of the hierarchical TOW model. It is a diagram. Here, since the multi-branch model mentioned above, which is difficult to implement, cannot be measured in practice, simulation was used. FIG. 16 shows the performance evaluation when the reward probability distribution (P A , P B , P C , P D )=(0.7, 0.5, 0.3, 0.1), and FIG. It is a graph showing performance evaluation in the case of reward probability distribution (P A , P B , P C , P D )=(0.7, 0.5, 0.9, 0.1). Referring to FIGS. 16 and 17, it can be seen that the performance of Example 1 and Example 2 is almost equivalent to that of the branch model.
本発明の実施の形態によれば、抵抗値がパルス電圧の印加回数に対し線形的あるいは非線形的に変化するよう応答特性を変更できるRANDを用いて、各々がTOWモデルを実装する2n-1個のRANDを大規模集積化し階層的に運用することができ、また動的に報酬確率が変化するようなMABに対する適応性を向上させられ、様々な実社会応用における2nの確率的報酬付与手段をもつ従来よりも大規模の意思決定問題を解く処理を、小型かつ低消費電力かつ実時間で高速に実行することが可能になる。According to an embodiment of the present invention, each of the 2 n −1 TOW models implements a TOW model using RAND that can change the response characteristic so that the resistance value changes linearly or nonlinearly with respect to the number of pulse voltage applications. It is possible to integrate individual RANDs on a large scale and operate them hierarchically, and to improve the adaptability to MAB where the reward probability changes dynamically . It becomes possible to solve larger-scale decision-making problems than ever before in a compact size, with low power consumption, and at high speed in real time.
また、2本腕バンディット問題についても、本発明のRANDを用いることにより従来よりも小型かつ低消費電力かつ実時間で高速に実行することが可能になる。 Furthermore, by using the RAND of the present invention, the two-armed bandit problem can be executed in a smaller size, with lower power consumption, and faster in real time than before.
また、TOWモデルを用いれば、2n本腕バンディット問題を解決するための新たな改良された階層的運用方法が可能になるので、TOWモデルを実装する様々なデバイスの特性を有効に活用することができる。In addition, the TOW model enables new and improved hierarchical operational methods to solve the 2n -armed bandit problem, allowing effective use of the characteristics of various devices implementing the TOW model. Can be done.
[もう一つの説明]
本発明の実施の形態に係る意思決定装置1はまた、次のように説明することもできる。図18は、本発明の実施の形態に係る意思決定装置1の一例に係る構成ブロック図である。[Another explanation]
The
図18に例示するように、本実施の形態のある例に係る意思決定装置1は、制御部11と、記憶部12と、アナログ抵抗変化素子回路部13と、入力部14と、出力部15とを含んで構成されている。
As illustrated in FIG. 18, the decision-making
制御部11は、CPU等のプログラム制御デバイスにより構成され、記憶部12に格納されたプログラムに従って動作する。本実施の形態では、この制御部11は、複数の選択肢のうちからいずれかの選択肢を選択する処理を行うものである。ここで選択肢のそれぞれは、確率的に報酬(何らかの利益)を付与する手段であり、例えばウェブページに出稿する複数種類の広告や、通信で利用可能な複数のチャネルなどである。具体的に広告であれば、広告の効果(クリックされたか否かなど)が報酬に相当し、通信のためのチャネルであれば通信速度を報酬に相当する情報として利用すればよい。
The
制御部11は、この選択肢の選択の処理を、アナログ抵抗変化素子回路部13を制御し、当該制御の結果としての、アナログ抵抗変化素子回路部13に含まれる各アナログ抵抗変化素子の抵抗値の情報を取得することによって実行する。この制御部11の具体的な処理の内容については、後に説明する。
The
記憶部12は、制御部11によって実行されるプログラムを保持する。またこの記憶部12は、制御部11のワークメモリとしても動作する。また入力部14は、キーボードやマウス等であり、ユーザの指示操作を受けて、当該指示操作の内容を制御部11に出力する。出力部15は、ディスプレイ等であり、制御部11から入力される指示に従い、ユーザに情報を提示する。
The
アナログ抵抗変化素子回路部13は、例えばRAND(Resistive Analog Neuro Device)を少なくとも一つ含んで構成される。ここでRANDは、図5に例示したように、下部電極(BE)層502と、この下部電極層502上に一部開口して形成される、微細孔構造を有する絶縁層505と、この絶縁層505の開口を通じて下部電極層502に接触する抵抗変化層500と、抵抗変化層500上に形成された上部電極(TE)層501とをこの順に積層したメモリ素子である。
The analog resistance change
ここで抵抗変化層500は、互いに抵抗値の異なる下側層504と上側層503とを含む。具体的にこの上側層503はTa2O5-δ,下側層504はTaOxであり、上側層503と下側層504との間で酸素イオンを授受して上側層503の少なくとも一部で酸化あるいは還元反応を生じさせ、この上側層503の一部にTaOxのチャネルを形成したり、あるいは上側層503をTa2O5-δに戻して、このチャネルを狭める(あるいは消失させる)ことで抵抗値を変化させることを可能としたものである。Here, the
この抵抗値の変化は、正パルス(上側電極層501が下側電極層502よりも高い電位(リセット電圧と呼ぶ)となるようなパルス状電圧信号)を印加するか、あるいは負パルス(上側電極層501が下側電極層502よりも低い電位(セット電圧と呼ぶ)となるようなパルス状電圧信号)を印加することで生じさせることができ、上記の酸化タンタル(TaOx)を下側層504に利用する例では、正パルスを印加したときに抵抗値が高められ、負パルスを印加すると抵抗値が低減される。このような素子のセルの動作は、広く知られているため、ここでのこれ以上の説明は省略する。This change in resistance value can be achieved by applying a positive pulse (a pulsed voltage signal such that the
なお、上部電極層501、下部電極層502は、それぞれTiNにより形成でき、絶縁層505はSiO2を、化学蒸着(CVD)により形成したものでよい。またその開口部(開口の直径は約100nmでよい)は、電子線描画(Electron Beam Lithography)によって形成できる。この上側に抵抗変化層500を形成する方法としては、例えば反応性スパッタリング等の方法を採用できる。Note that the
このように、本実施の形態の一例では、アナログ抵抗変化素子回路部13は、窒化物からなる電極によって、酸化物からなる抵抗変化層を挟持する積層構造を有したRANDを用いて構成できる。なお、上記の上側電極層501,下側電極層502の材料は、TiNのほか、TiON、TaN、TaONなどを用いることができる。また酸化物を用いた抵抗変化層500としては、TaOxだけでなく、HfOx、TiOx、AlOx等、いずれも安定な、互いに異なる酸化状態を有する材料であれば、他の材料を使用することもできる。As described above, in one example of the present embodiment, the analog resistance variable
また各RANDには、それぞれ過渡電流により素子が被る電気的ダメージを抑制するため3kΩ程度の負荷抵抗を直列に接続し、この負荷抵抗を介して正パルスあるいは負パルスを印加することとしてもよい。 Further, a load resistor of approximately 3 kΩ may be connected in series to each RAND in order to suppress electrical damage to the element due to transient current, and a positive pulse or a negative pulse may be applied via this load resistor.
本実施の形態の一例に係るアナログ抵抗変化素子回路部13は、このような構成の素子を少なくとも一つ用いているので、この素子(RAND)にセット信号またはリセット信号をパルス的に複数回印加したとき、図7に例示したように各素子(RAND)の抵抗値を変化させることができる。図7において、リセット信号は、200nsの時間だけ-2.0Vのリセット電圧を印加するものであり、セット信号は、200nsの時間だけ1.7Vのセット電圧を印加するものである。図7に例示するように、RANDは、リセット信号を印加したときにはその抵抗値が単調に増加し、セット信号を印加すると、その抵抗値が単調に減少するよう制御される。
Since the analog resistance change
また、このときRANDの抵抗値は、ある抵抗値の範囲では、パルスの印加回数に対してヒステリシス特性を示さずに実質的に線形に変化する。つまり、どの抵抗値の状態でも一回のパルスによる抵抗値の変化量が実質的に同一であるようになっている。 Moreover, at this time, the resistance value of RAND changes substantially linearly without showing a hysteresis characteristic with respect to the number of pulse applications within a certain resistance value range. In other words, the amount of change in resistance value caused by one pulse is substantially the same regardless of the state of the resistance value.
すなわち、図4に示したように、リセット電圧として200ns幅の-2.0Vのパルス電圧702を50回印加したとき、RANDの抵抗値は、約8000Ωから約9000Ωの範囲で、直線的に増大している。
That is, as shown in FIG. 4, when a
一方、セット電圧として200ns幅の+1.7Vのパルス電圧701を50回印加したときには、RANDの抵抗値は、約9000Ωから約8000Ωの範囲で直線的に減少している。ここで1つのパルスあたりの抵抗値の変化は毎回異なるが、平均で約20Ωずつ抵抗値が変化しており、またその変化量は、印加される際の抵抗値に関わらず実質的に一定となっている。つまりRANDの抵抗値は、印加するパルスの回数に応じて直線的に変化するものであり、このため、例えば+ωΩを目標としてRANDの抵抗値を変化させる場合は、リセット電圧としてのパルスをω/20回(例えばω=1000であれば50回)印加することとすればよい。同様に、-ωΩを目標としてRANDの抵抗値を変化させる場合は、セット電圧としてのパルスをω/20回(例えばω=1000であれば50回)印加すればよい。
On the other hand, when the
また上述のように、パルス電圧が印加されるごとの抵抗値の変化量は、一定ではなく、毎回微小な変動(確率的揺らぎ)を伴う。この特性は、本実施の形態では有利な効果をもたらす。 Further, as described above, the amount of change in the resistance value each time a pulse voltage is applied is not constant, but involves minute fluctuations (stochastic fluctuations) each time. This characteristic provides an advantageous effect in this embodiment.
また、RANDでは、上記のパルス状の信号の印加により抵抗値が線形に変化する抵抗値の範囲外では、パルス状信号の印加によって抵抗値が非線形的に(ある例では抵抗値が飽和するように)変化する抵抗値の範囲が存在する(図8)。 In addition, in RAND, outside the resistance value range where the resistance value changes linearly by the application of the pulsed signal, the resistance value changes nonlinearly (in some cases, the resistance value saturates) by the application of the pulsed signal. (Fig. 8).
なお、本実施形態の例では、電極としてTiN、酸化物からなる抵抗変化層としてはTaOxを用いたRANDの例を示したが、RANDを構成する素材としては、これに限られず、広く知られた種々の素材を用いて得ることができる。 In this embodiment, an example of RAND is shown in which TiN is used as an electrode and TaOx is used as a variable resistance layer made of an oxide. However, the material constituting RAND is not limited to this, and may be any widely known material. It can be obtained using various materials.
このように本実施の形態の例ではRANDのような微細な回路構造を利用できるので、小型化が容易であり、また、消費電力も抑えることが可能となっている。また、簡素な構成の回路としているので、多段の論理回路を配するなどといった構成に比べ、比較的高速な動作が可能となり、実質的に実時間で(学習した)最適な選択を為し得る。 In this way, in the example of this embodiment, a fine circuit structure such as RAND can be used, so miniaturization is easy and power consumption can be suppressed. In addition, since the circuit has a simple configuration, it can operate at relatively high speeds compared to configurations that include multi-stage logic circuits, and it is possible to make (learned) optimal selections in virtually real time. .
またRANDでなくとも、これに限らず、本実施形態で必要とされる特性(抵抗値等の物理量を増大または減少変化させる制御を行った際に、平均的には抵抗値等の物理量の変化量は一定でありながら、毎回の抵抗値等の物理量の変化量が確率的なゆらぎを有するという特性)を有する素子であれば、いずれの素子も用いることができ、また、本技術分野で知られたアナログ抵抗変化素子やその他素子などの製造方法のいずれかを用いて製造することができる。 In addition, even if it is not RAND, the characteristics required in this embodiment (when controlling to increase or decrease a physical quantity such as resistance value, the average change in physical quantity such as resistance value) Any element can be used as long as it has the characteristic that the amount of change in a physical quantity such as resistance value has stochastic fluctuations each time although the quantity is constant. It can be manufactured using any of the methods for manufacturing analog resistance change elements and other elements.
次に制御部11の動作について説明する。本実施の形態では、制御部11は、記憶部12に格納されたプログラムを実行することで、図19に例示するように、意思決定処理部21と、成果判定部22と、抵抗値制御部23と、を含む機能的構成を実現する。
Next, the operation of the
ここで意思決定処理部21は、アナログ抵抗変化素子回路部13が備えるRANDの抵抗値を参照し、当該抵抗値が所定の基準値より大きいか小さいかを判断して、当該判断の結果に応じた意思決定結果を出力する。この抵抗値の参照は、定電圧電源からRANDに電圧を印加し、RANDに流れる電流量を計測し、電源電圧Vを計測した電流量で除して抵抗値を求めることで行えばよい。なお、複数のRANDがある場合は、図18に模式的に示したように、各RANDのそれぞれに直列にスイッチを配し、各RANDを順次選択しつつ、選択したRANDに直接に接続されたスイッチをオン(接続状態)とし、その他のスイッチをオフとして定電圧電源からスイッチがオンとなったRANDについて電圧を印加して当該RANDを流れる電流を計測するようにすれば、各RANDの抵抗値を順次求めることができる。
Here, the decision-
この意思決定処理部21の最も簡単な例は次のようなものである。すなわち、アナログ抵抗変化素子回路部13が一つのRANDを備え、このRANDの抵抗値によって、広告A,Bのいずれをウェブページに掲載するかを判断する処理を行う場合、意思決定処理部21は、上記参照した抵抗値が上記基準値より大きい場合に広告Aを掲載したウェブページを提供し、そうでない場合に広告Bを掲載したウェブページを提供することとすればよい。
The simplest example of this decision-
成果判定部22は、意思決定処理部21が出力した意思決定結果に応じた成果(報酬)があったか否かを判断してその判断結果を出力するものである。具体的にこの成果判定部22は、意思決定処理部21が上記のように掲載する広告をいずれにするかを決定するものである場合、当該広告がクリックされたか否かを報酬の有無として、クリックされた場合に成果あり、そうでない場合は成果なしとした出力を行う。
The
抵抗値制御部23は、意思決定処理部21の出力と、成果判定部22が出力する成果の情報とに基づいて、アナログ抵抗変化素子回路部13のRANDの抵抗値を制御して学習処理を実行する。具体的に抵抗値制御部23は、上述の例では、
(1)広告Aを選択したときに成果ありの出力があったときには、上記RANDにセット信号を所定回数印加して、抵抗値を低減(例えば-rを目標として低減)させる(広告Aが選ばれる確率を上昇させる)。
(2)広告Aを選択したときに成果なしの出力があったときには、上記RANDにリセット信号を所定回数印加して、抵抗値を増大(例えば+ωを目標として増大)させる(広告Aが選ばれる確率を下降させる)。
(3)広告Bを選択したときに成果ありの出力があったときには、上記RANDにリセット信号を所定回数印加して、抵抗値を増大(例えば+rを目標として増大)させる(広告Bが選ばれる確率を上昇させる)。
(4)広告Bを選択したときに成果なしの出力があったときには、上記RANDにセット信号を所定回数印加して、抵抗値を低減(例えば-ωを目標として低減)させる(広告Bが選ばれる確率を下降させる)。The resistance
(1) When advertisement A is selected and there is an output that shows results, apply a set signal to RAND a predetermined number of times to reduce the resistance value (for example, reduce with -r as the target) (advertisement A is selected). ).
(2) If there is an output with no results when advertisement A is selected, apply a reset signal to RAND a predetermined number of times to increase the resistance value (for example, increase with +ω as the target) (advertisement A is selected) decrease the probability).
(3) When advertisement B is selected and there is an output that shows results, apply a reset signal to RAND a predetermined number of times to increase the resistance value (for example, increase with +r as the target) (advertisement B is selected) increase the probability).
(4) If there is an output with no results when advertisement B is selected, apply a set signal to RAND a predetermined number of times to reduce the resistance value (for example, reduce it with -ω as the target) (advertisement B is selected). ).
なお、ここで上記(1)から(4)でそれぞれ信号を印加する回数は同じである必要はなく、例えば(1)の場合の信号印加の回数より(2)での信号印加回数を小さくしてもよい。 Note that the number of times the signal is applied in each of (1) to (4) above does not have to be the same; for example, the number of times the signal is applied in (2) is smaller than the number of times the signal is applied in (1). It's okay.
この例では、t回後の試行の後の抵抗値R(t)は、当初の抵抗値をRθとして、
R(t)-Rθ=EB(t)-EA(t)+δ
と表すことができる。ここで、EA(t),EB(t)は、試行中にA,Bがそれぞれ選択されたときの目標値の総和:
EA(t)=r・WA(t)-ω・LA(t)
EB(t)=r・WB(t)-ω・LB(t)
であり、δはRANDの特性である確率的変動(の総和)を表す。なお、Wk(k=AまたはB)は、試行回数のうちkを選択して成果があったと判定された回数、Lk(k=AまたはB)は、試行回数のうちkを選択して成果がなかったと判定された回数である。ωは制御パラメータであり、実験的に定める。例えばωは、選択肢kで成果のある確率Pk:
Pk=Wk/(Wk+Lk)
を用い、γ=PA+PBとして、
ω=γ/(2-γ)
として定めてもよい。In this example, the resistance value R(t) after t trials is given by the initial resistance value R θ .
R (t) - R θ = E B (t) - E A (t) + δ
It can be expressed as. Here, E A (t) and E B (t) are the sum of target values when A and B are selected during the trial, respectively:
E A (t)=r・W A (t)−ω・L A (t)
E B (t)=r・W B (t)−ω・L B (t)
, and δ represents (the sum of) stochastic fluctuations that are a characteristic of RAND. In addition, W k (k = A or B) is the number of times k was selected out of the number of trials and it was determined that there was a result, and L k (k = A or B) is the number of times k was selected out of the number of trials. This is the number of times it was determined that there was no result. ω is a control parameter and is determined experimentally. For example, ω is the probability P k that option k yields an outcome:
Pk = Wk / ( Wk + Lk )
Using γ=P A + P B ,
ω=γ/(2-γ)
It may be set as
また、本実施の形態の一例では、意思決定の対象となる選択肢が上記例のようにA,Bの2つだけであるとは限られず、選択肢が多数である場合にも適用できる。例えば選択肢がA,B,C,D…と2n個ある場合、これらから一つを選択する意思決定を行う場合には、複数個のRANDを用いて、仮想的に階層型の意思決定処理回路を形成する。具体的にこの階層型の意思決定処理回路は、2n-1個のRANDを用い、図20に例示するような仮想的な二分木の階層構造として配列する。ここで各RANDは、電気的には図18に例示したように、並列に配されているものとしてよいが、制御部11の処理として、図20に例示するように、仮想的に、階層的な配置にあるものとして次の処理を行う。なお、ここで最下層の2n-1個のRANDが選択肢のいずれかを選択する処理に実際に供される。Furthermore, in this embodiment, the options for decision making are not limited to only two, A and B, as in the above example, but can also be applied to a case where there are many options. For example, when there are 2n options such as A, B, C, D..., when making a decision to select one from these, multiple RANDs are used to perform a virtually hierarchical decision-making process. form a circuit. Specifically, this hierarchical decision-making processing circuit uses 2 n -1 RANDs and is arranged in a virtual binary tree hierarchical structure as illustrated in FIG. Here, each RAND may be electrically arranged in parallel as illustrated in FIG. 18, but as a process of the
つまり図20の例では、末端側である最下層(第N層)に設定した2n-1個のRANDのそれぞれがA,B,C,D…と2n個のうちから重複なく選択された一対の選択肢(A,B),(C,D)…の選択に係るものとして設定され、このRANDの直接の上位(第N-1層)に仮想的に配される2n-2個のRANDは、それぞれ下層(第N層)のRANDのうちから重複なく選択した一対のRANDのいずれかを選択するものとして設定される。例えば、第N-1層のRAND(便宜的に第1のRANDと呼ぶ)の一つは、第N層の、選択肢A,Bに対応するRAND(便宜的に第2のRANDと呼ぶ)と、選択肢C,Dに対応するRAND(便宜的に第3のRANDと呼ぶ)とのいずれかの選択に関わる。このような互いに隣接する層にある、第1のRANDと第2のRANDとの関係、及び第1のRANDと第3のRANDとの関係を以下では階層的連関関係と呼ぶ。以下、同様の構成として最上位(第1層)までのRANDを設定する。In other words, in the example of FIG. 20, each of the 2 n -1 RANDs set in the lowest layer (Nth layer) on the terminal side is selected from A, B, C, D, etc. without duplication . 2n -2 items are set as related to the selection of a pair of options (A, B), (C, D)..., and are virtually arranged directly above this RAND (N-1st layer). The RANDs are set to select one of a pair of RANDs selected without duplication from among the RANDs of the lower layer (Nth layer). For example, one of the RANDs in the N-1 layer (referred to as the first RAND for convenience) is the RAND corresponding to options A and B in the N-th layer (referred to as the second RAND for convenience). , RAND corresponding to options C and D (referred to as the third RAND for convenience). The relationship between the first RAND and the second RAND and the relationship between the first RAND and the third RAND, which are located in layers adjacent to each other, are hereinafter referred to as a hierarchical association relationship. Hereinafter, RAND up to the highest level (first layer) will be set as a similar configuration.
例えばn=2(選択肢が4つ)である場合、意思決定処理部21は、最上位(第1層)にあるものと設定した第1のRANDについて、その抵抗値R1が所定の基準値より大きい場合に選択肢AまたはBの選択を決定する、下層の第2のRANDを選択する、また、そうでなければ、選択肢CまたはDの選択を決定する、下層の第3のRANDを選択する。
For example, when n=2 (four options), the decision-
そして意思決定処理部21は、選択肢AまたはBを選択したときには、仮想的階層として下位(第2層、ここでの最下層)にあるものとして設定した第2のRANDについて、その抵抗値R2を参照し、この抵抗値R2が所定の基準値より大きい場合に選択肢Aを選択する。また抵抗値R2が所定の基準値より大きくない場合に選択肢Bを選択する。
Then, when selecting option A or B, the decision-
同様に、意思決定処理部21は、選択肢CまたはDを選択したときには、仮想的階層として第2のRANDと同じく下位(第2層)にあるものとして設定した第3のRANDについて、その抵抗値R3を参照し、この抵抗値R3が所定の基準値より大きい場合に選択肢Cを選択する。また抵抗値R3が所定の基準値より大きくない場合に選択肢Dを選択する。
Similarly, when selecting option C or D, the decision-
つまり、選択肢AまたはBの選択には、第1のRAND(ルートである最上位のRAND)と、末端である第2のRANDとが関わる。また選択肢CまたはDの選択には、第1のRAND(ルートである最上位のRAND)と、末端である第3のRANDとが関わる。このように、ある一対の選択肢の選択に関わるルートから末端までに至る一連のRANDを、ここでは選択連鎖と呼ぶ。 That is, the selection of option A or B involves the first RAND (the highest RAND that is the root) and the second RAND that is the end. Further, the selection of option C or D involves the first RAND (the highest RAND, which is the root) and the third RAND, which is the terminal. In this way, a series of RANDs from the root to the end related to the selection of a pair of options is referred to herein as a selection chain.
この例では、抵抗値制御部23は、意思決定処理部21の出力と、成果判定部22が出力する成果の情報とに基づいて、アナログ抵抗変化素子回路部13の第1乃至第3のRANDの抵抗値R1からR3を制御する。
In this example, the resistance
具体的にこの抵抗値制御部23における各RANDの抵抗値の制御の方法には、次のいくつかの方法がある。以下、それぞれについて説明する。
Specifically, there are several methods for controlling the resistance value of each RAND in the resistance
[第1の方法]
第1の方法では、最下層の各RANDのそれぞれについて学習処理する。すなわち第1の方法では、最下層の各RANDについて、予め定めた回数だけ次の処理を実行する。[First method]
In the first method, learning processing is performed for each RAND in the lowest layer. That is, in the first method, the following process is executed a predetermined number of times for each RAND in the lowest layer.
ここでは制御部11は、各RANDについて、対応する選択肢のいずれかを選択する。例えば第2のRANDであれば、当該第2のRANDの抵抗値が所定の基準値より大きいか否かにより選択肢A,Bのいずれかを選択する。この選択は既に説明した意思決定処理部21の動作と同様のものである。
Here, the
そして選択の結果、成果があったか否かを調べ、選択の結果、及び成果があったか否かにより第2のRANDの抵抗値を制御する。この制御も、抵抗値制御部23における動作と同様のものである。制御部11は、この第2のRANDに関する処理を予め定めた回数(例えばT回)行う。制御部11は、第3のRANDについても同様の処理を、予め定めたT回だけ行う。
Then, as a result of the selection, it is checked whether or not there was a result, and the resistance value of the second RAND is controlled depending on the result of the selection and whether or not there was a result. This control is also similar to the operation in the resistance
つまり広告の例であれば、制御部11は、A,Bのうちから選択した広告を提示する動作をT回試行し、その結果に応じて第2のRANDの抵抗値を制御する。また制御部11は、C,Dのうちから選択した広告を提示する動作もT回試行し、その結果に応じて第3のRANDの抵抗値を制御する。
In other words, in the case of an advertisement, the
本実施の形態のここでの例では、制御部11は、これらの処理の間、第2,第3のRANDのそれぞれの抵抗値の目標値の総和ΣEkを求めておく。In this example of the present embodiment, the
すなわち、既に述べたように、制御部11のこの動作により、T回後の第2のRAND(選択肢A,Bに対応)については、その当初の抵抗値をRθとして、
R(T)-Rθ=EB(T)-EA(T)+δ2
と表すことができ、ここで
Ek(T)=Wk(T)-ωLk(T) (ただしk=A,B)
であるが、制御部11は、この抵抗値の制御のほか、
ΣEA,B(T)=EA(T)+EB(T)
を求めて記憶しておく。同様に、制御部11は、
ΣEC,D(T)=EA(T)+EB(T)
を求めて記憶しておく。That is, as already mentioned, by this operation of the
R (T) - R θ = E B (T) - E A (T) + δ 2
It can be expressed as, where E k (T) = W k (T) - ωL k (T) (where k = A, B)
However, in addition to controlling this resistance value, the
ΣE A,B (T)=E A (T)+E B (T)
Find and remember. Similarly, the
ΣE C,D (T)=E A (T)+E B (T)
Find and remember.
なお、このA,Bのいずれかの広告を提示するページの提供と、C,Dのいずれかの広告を提示するページの提供とは時間的に並列的に行われてもよい。 Note that the provision of the page presenting either advertisement A or B and the provision of the page presenting advertisement C or D may be performed in parallel in terms of time.
制御部11は、このようにしてそれぞれT回の試行による学習処理結果に基づいて、より上位のRANDについて学習処理を行う。具体的に制御部11は、これら第2,第3のRANDに対して階層的連関関係にある、上位の層のRAND(ここでの例では第1のRAND)について、その抵抗値Rを、当初の抵抗値をRθ1として、
R-Rθ1=ΣEC,D(T)-ΣEA,B(T)+δ1
となるように設定する(ΣEC,D(T)-ΣEA,B(T)を目標値としてパルス信号を印加する)。In this way, the
R-R θ1 = ΣE C,D (T)-ΣE A,B (T)+δ 1
(A pulse signal is applied with ΣE C,D (T) - ΣE A,B (T) as the target value).
また3以上の層がある場合は、第i+1層のRANDについて学習処理を行ったときの、第i+1層のRANDの各々について所定数回(例えばT回)更新した後のΣEk(T)を求め、第i層のRANDの抵抗値を、上述の例と同様にして設定して、選択連鎖となっている各層のRANDの抵抗値を更新すればよい。 In addition, if there are three or more layers, calculate ΣEk(T) after updating each RAND of the i+1st layer a predetermined number of times (for example, T times) when performing learning processing on the RAND of the i+1st layer. , the resistance value of RAND of the i-th layer may be set in the same manner as in the above example, and the resistance value of RAND of each layer forming the selection chain may be updated.
制御部11は、この設定が終了した後(学習処理が完了した後)は、既に述べたように、最上位のRANDから、そのRANDの抵抗値が所定の基準値より大きいか否かにより、第2層のRANDのいずれかを選択し、第2層の選択されたRANDの抵抗値を参照して、当該参照した抵抗値が所定の基準値より大きいか否かにより、第3層のRANDのいずれかを選択し…第i層の選択されたRANDの抵抗値を参照して、当該参照した抵抗値が所定の基準値より大きいか否かにより、第i+1層のRANDのいずれかを選択し…と繰り返して処理し、最下層において選択されたRANDの抵抗値が所定の基準値より大きいか否かにより、選択肢のいずれを選択するかを決定する。
After this setting is completed (after the learning process is completed), the
例えば上述の例であれば、制御部11は、最上位の第1のRANDの抵抗値が所定の基準値より大きい場合に、第3のRAND(選択肢C,Dに対応)を選択し、当該選択した第3のRANDの抵抗値を参照して、当該参照した第3のRANDの抵抗値が所定の基準値より大きいときには、選択肢Dを選択する。また、当該参照した第3のRANDの抵抗値が所定の基準値より大きくなければ、制御部11は、選択肢Cを選択する。
For example, in the above example, if the resistance value of the first RAND at the highest level is larger than a predetermined reference value, the
[第2の方法]
また第2の方法では、制御部11は、図21に例示するように、処理の時点での各RANDの抵抗値によって選択肢を選択する(S2101)。つまり制御部11は、最上位のRANDから、そのRANDの抵抗値が所定の基準値より大きいか否かにより、第2層のRANDのいずれかを選択し、第2層の選択されたRANDの抵抗値を参照して、当該参照した抵抗値が所定の基準値より大きいか否かにより、第3層のRANDのいずれかを選択し…第i層の選択されたRAND(以下、第i層注目RANDと呼ぶ)の抵抗値を参照して、当該参照した抵抗値が所定の基準値より大きいか否かにより、第i+1層のRANDのいずれかを選択し…と繰り返して処理し、最下層において選択されたRAND(以下の説明で最下層注目RANDと呼ぶ)の抵抗値が所定の基準値より大きいか否かにより、選択肢のいずれを選択するかを決定する。[Second method]
In the second method, the
そして制御部11は、決定した選択に基づく所定処理を行い(例えば選択された選択肢が表す広告を掲載したウェブページを提供し)、成果があったか否か(例えばクリックがされた否か)を調べる(S2102)。そして制御部11は、当該選択した選択肢と、成果があったか否かにより、最下層注目RANDの抵抗値を制御する(S2103)。この制御は、抵抗値制御部23における動作と同様のものである。
Then, the
またこのとき制御部11は、既に説明した
Ek(t)=Wk(t)-ωLk(t) (ただしk=A,B,C…、またtは時刻(試行回数))
を各選択肢について評価値として演算して求めておく。Further, at this time, the
is calculated and obtained as an evaluation value for each option.
そして制御部11は、この最下層(第N層)の最下層注目RANDの上位となる、第N-1層注目RANDの抵抗値を、次のように制御する。
Then, the
制御部11は最下層から順に、時刻tでの下層側(第i層)のRANDの評価値を求めると、時刻tにおける第i-1層のRANDの抵抗値を、当該RANDの選択肢である第i層のRAND(それぞれの選択肢をU,V及びX,Yとする)の各評価値を用いて、
R(t)-Rθ=MAX[EX(t),EY(t)]-MAX[EU(t),EV(t)]+δ
となるよう設定する(MAX[EX(t),EY(t)]-MAX[EU(t),EV(t)]を目標値としてパルス信号を印加する)。ここで、MAX[x,y]は、x,yのうち大きい値をとることを意味する。When the
R (t) - R θ = MAX [E X (t), E Y (t)] - MAX [E U (t), E V (t)] + δ
( A pulse signal is applied with MAX[ E Here, MAX[x, y] means taking the larger value of x and y.
つまり制御部11は、下層側のEkが更新されるごとに、上層側のRANDの抵抗値を次のように更新する(S2104;上位層抵抗値更新)。すなわち制御部11は、上述の例で、選択肢U,Vを選択する第i層のRANDのEk(k=U,V)が更新されたならば、当該第i層のRANDに対して階層的連関関係にある第i-1層のRANDの抵抗値を、R(t-1)よりも、MAX[EU(t),EV(t)]-MAX[EU(t-1),EV(t-1)]だけ増大するよう目標値を設定して制御する。That is, the
また制御部11は、上述の例で、選択肢X,Yを選択する第i層のRANDのEk(k=X,Y)が更新されたならば、当該第i層のRANDに対して階層的連関関係にある第i-1層のRANDの抵抗値を、R(t-1)よりも、MAX[EX(t),EY(t)]-MAX[EX(t-1),EY(t-1)]だけ減少させるよう目標値を設定して制御する。Furthermore, in the above example, if Ek (k=X, Y) of the i-th layer RAND that selects options X and Y is updated, the
これにより時刻tの時点で、当該RANDの抵抗値が、
R(t)-Rθ=MAX[EX(t),EY(t)]-MAX[EU(t),EV(t)]+δ
となるよう目標値を設定して制御する。本実施の形態のこの例では、制御部11は、こうして選択連鎖となっている各層のRANDの抵抗値を更新する。As a result, at time t, the resistance value of the RAND becomes
R (t) - R θ = MAX [E X (t), E Y (t)] - MAX [E U (t), E V (t)] + δ
The target value is set and controlled so that In this example of the present embodiment, the
制御部11は、以上のように、処理S2103,S2104での学習処理を行いつつ、処理S2101,S2102での選択の処理を実行する。つまり、既に述べたように、制御部11は、最上位のRANDから、そのRANDの抵抗値が所定の基準値より大きいか否かにより、第2層のRANDのいずれかを選択し、第2層の選択されたRANDの抵抗値を参照して、当該参照した抵抗値が所定の基準値より大きいか否かにより、第3層のRANDのいずれかを選択し…第i層の選択されたRANDの抵抗値を参照して、当該参照した抵抗値が所定の基準値より大きいか否かにより、第i+1層のRANDのいずれかを選択し…と繰り返して処理し、最下層において選択されたRANDの抵抗値が所定の基準値より大きいか否かにより、選択肢のいずれを選択するかを決定する。
As described above, the
例えば上述の例であれば、制御部11は、最上位の第1のRANDの抵抗値が所定の基準値より大きい場合に、第3のRAND(選択肢C,Dに対応)を選択し、当該選択した第3のRANDの抵抗値を参照して、当該参照した第3のRANDの抵抗値が所定の基準値より大きいときには、選択肢Dを選択する。また、当該参照した第3のRANDの抵抗値が所定の基準値より大きくなければ、制御部11は、選択肢Cを選択する。
For example, in the above example, if the resistance value of the first RAND at the highest level is larger than a predetermined reference value, the
また本実施の形態のこの第2の方法においては、処理S2102と並行して、処理S2101と処理S2103との間で、制御部11は、すべてのRANDについて、その抵抗値を、判断の基準となる所定の基準値に近接させる処理を行ってもよい。具体的に制御部11は、基準値をRTとする場合、各RANDの時刻tでの抵抗値をR(t)として、
R′(t)=α(R(t)-RT)+RT (つまり抵抗値のα倍)
となるよう制御(α(R(t)-RT)+RTを目標値として制御)する。なお、αは0以上1以下の実数であり、経験的に定める。In addition, in this second method of the present embodiment, in parallel with process S2102, between process S2101 and process S2103, the
R'(t)=α(R(t)-R T )+R T (that is, α times the resistance value)
(Control with α(R(t)-R T )+R T as the target value). Note that α is a real number between 0 and 1, and is determined empirically.
[もう一つの方法(第3の方法)の例]
また別の方法では、制御部11は、図22に例示するように、処理の時点での各RANDの抵抗値によって選択肢を選択する(S2201)。つまり、制御部11は、最上位のRANDから、そのRANDの抵抗値が所定の基準値より大きいか否かにより、第2層のRANDのいずれかを選択し、第2層の選択されたRANDの抵抗値を参照して、当該参照した抵抗値が所定の基準値より大きいか否かにより、第3層のRANDのいずれかを選択し…第i層の選択されたRAND(以下、第i層注目RANDと呼ぶ)の抵抗値を参照して、当該参照した抵抗値が所定の基準値より大きいか否かにより、第i+1層のRANDのいずれかを選択し…と繰り返して処理し、最下層において選択されたRAND(以下の説明で最下層注目RANDと呼ぶ)の抵抗値が所定の基準値より大きいか否かにより、選択肢のいずれを選択するかを決定する。[Example of another method (third method)]
In another method, the
制御部11は、次に、すべてのRANDについて、その抵抗値を、判断の基準となる所定の基準値に近接させる処理を行う(S2202)。具体的に制御部11は、基準値をRTとする場合、各RANDの時刻tでの抵抗値をR(t)として、
R′(t)=α(R(t)-RT)+RT (つまり抵抗値のα倍)
となるよう制御(α(R(t)-RT)+RTを目標値として制御)する。なお、αは0以上1以下の実数であり、経験的に定める。Next, the
R'(t)=α(R(t)-R T )+R T (that is, α times the resistance value)
(Control with α(R(t)-R T )+R T as the target value). Note that α is a real number between 0 and 1, and is determined empirically.
一方で、制御部11は、処理S2201で選択した選択肢を試行し、成果があったか否かを判断する(S2203)。この処理は具体的に選択肢がウェブページに貼り付けられる広告である場合、当該広告がクリックされたか否かにより成果の有無を判断することになる。
On the other hand, the
制御部11は、処理S2203の判断の結果に応じて、処理S2201で選択した選択肢に対応する最下層のRANDの抵抗値を制御する(S2204)。すなわち、当該最下層(第N層)のRANDが選択肢X,Yに対応するもの(最下層注目RAND)であり、その抵抗値が所定の基準値より大きい場合に選択肢Yを選択し、そうでない場合に選択肢Xを選択するものであるときには、制御部11は、
(1)選択肢Xを選択したときに成果ありと判断したときには、対応するRANDにセット信号を所定回数印加して、抵抗値を低減(例えば-rを目標値として低減)させ、
(2)選択肢Xを選択したときに成果なしと判断したときには、対応するRANDにリセット信号を所定回数印加して、抵抗値を増大(例えば+ωsを目標値として増大)させ、
(3)選択肢Yを選択したときに成果ありと判断したときには、対応するRANDにリセット信号を所定回数印加して、抵抗値を増大(例えば+rを目標値として増大)させ、
(4)選択肢Yを選択したときに成果なしと判断したときには、対応するRANDにセット信号を所定回数印加して、抵抗値を低減(例えば-ωsを目標値として低減)させる。The
(1) If it is determined that there is a result when option
(2) If it is determined that there is no result when selecting option
(3) When selecting option Y and determining that there is a result, apply a reset signal to the corresponding RAND a predetermined number of times to increase the resistance value (for example, increase +r as a target value),
(4) If it is determined that there is no result when option Y is selected, a set signal is applied to the corresponding RAND a predetermined number of times to reduce the resistance value (for example, reduce it to −ω s as a target value).
さらに制御部11は、第i(i=1,2,…N-1)層のRANDのうち、第i+1層にあって、所定S2201において選択されたRAND(第i+1層注目RAND)に対して階層的連関関係にあるRAND(第i層注目RAND)について、この第i層注目RANDと階層的連関関係を有する下層(第i+1層)の一対のRAND(一方は第i+1層注目RANDとなる)を、RANDx,RANDyとして、
(1)RANDxを選択し、成果ありと判断したときには、第i層注目RANDにセット信号を所定回数印加して、抵抗値を低減(例えば-rを目標値として低減)させ、
(2)RANDxを選択し、成果なしと判断したときには、第i層注目RANDにリセット信号を所定回数印加して、抵抗値を増大(例えば+ωiを目標値として増大)させ、
(3)RANDyを選択し、成果ありと判断したときには、第i層注目RANDにリセット信号を所定回数印加して、抵抗値を増大(例えば+rを目標値として増大)させ、
(4)RANDyを選択し、成果なしと判断したときには、第i層注目RANDにセット信号を所定回数印加して、抵抗値を低減(例えば-ωiを目標値として低減)させる(上位層更新処理;S2205)。なお、ここでωiは、第i層での目標値であり、各層で異なる値が設定されてもよい。Furthermore, the
(1) When RANDx is selected and it is determined that there is a result, a set signal is applied a predetermined number of times to the i-layer attention RAND to reduce the resistance value (for example, -r is set as the target value),
(2) When RANDx is selected and it is determined that there is no result, a reset signal is applied a predetermined number of times to the i-th layer attention RAND to increase the resistance value (for example, increase +ω i as a target value);
(3) When RANDy is selected and it is determined that there is a result, a reset signal is applied to the i-layer attention RAND a predetermined number of times to increase the resistance value (for example, increase +r as a target value);
(4) When RANDy is selected and it is determined that there is no result, a set signal is applied to the i-layer focused RAND a predetermined number of times to reduce the resistance value (for example, -ω i is set as the target value) (upper layer update Processing; S2205). Note that here, ω i is a target value for the i-th layer, and a different value may be set for each layer.
制御部11は、この上位層更新処理を、第N-1層から第1層までの各層に対して順次行い、選択連鎖に含まれる各層における注目RAND(処理S2201で選択したRAND)の抵抗値を更新する。制御部11は、この処理S2201からS2205の処理を繰り返して実行する。
The
この例では、処理S2201での選択結果が、そのまま選択の処理の結果として利用できる。なお、学習処理が完了したと判断できる場合には、処理S2201のみを繰り返し実行するようにしてもよいが、各選択肢において成果が得られる確率が変動する場合(例えば広告であれば、季節により変動することがある)は、処理S2201からS2205の処理を繰り返すことで、変動に追従した選択肢の選択(意思決定)を行うことができる。 In this example, the selection result in step S2201 can be used as is as a result of the selection process. Note that if it is determined that the learning process has been completed, only process S2201 may be repeatedly executed; however, if the probability of obtaining results for each option varies (for example, in the case of advertising, it may vary depending on the season). By repeating the processes from S2201 to S2205, it is possible to select options (decision making) that follow changes.
また、ここまでの説明において、アナログ抵抗変化素子回路部13は、図23に例示するようなクロスバー構造の回路を用いてもよい。この回路は、図23に示すように、互いに異なる層に配され、平面視で交差する第1,第2の配線群2301,2302(図23では左右方向に伸びる配線群を第1の配線群2301、これに直交して交差する配線群を第2の配線群2302とする)の各交点にRAND(または抵抗変化型素子でもよい。ここまでに説明した例でも同様)を配してなる。図23では、図示の都合上、RAND(ないし抵抗変化型素子)を通常の抵抗器の記号で示している。
Further, in the description up to this point, the analog resistance change
本実施の形態の、仮想的に階層型の意思決定処理回路を形成する例を実現する際にこのようなアナログ抵抗変化素子回路部13を使用する場合、最下層のRANDの数が2nであれば、最低でも2n×2nの配線群(交点)を有する回路を使用する。When such an analog resistance variable
そしてこの回路のうち、第1の配線群2301のうち1行目の配線と、第2の配線群2302のうち1列目の配線との交点(以下、1行1列目の交点というように表記する)のRAND1-1と、2行1列目及び1行2列目のRAND2-1,1-2と、…というように、i行1列目の交点から1行i列目(ただしi=2k,k=1,2…,n)の交点を結ぶ仮想的な線分2303-1,2303-2…上の各交点にあるRANDを使用する(他のRANDは使用しない)。In this circuit, the intersection between the first row of wires in the
つまり、階層型の意思決定処理回路における第k層のRANDとして、線分2303-k上の各RANDを使用すれば、上述の種々の方法による処理により、本実施の形態の意思決定装置1を実現できる。ただし本実施の形態ではこの例に限られず、階層型の意思決定処理回路における各RANDとして、どの格子点のRANDを割り当てるかについては、異なる割り当て方法が採用されても構わない。
In other words, if each RAND on the line segment 2303-k is used as the RAND of the k-th layer in the hierarchical decision-making processing circuit, the decision-making
[変形例]
なお、ここまでの説明では、アナログ抵抗変化素子回路を用い、当該回路の抵抗値を用いて一対の選択肢のいずれかを選択させる選択要素として機能させることとしていた。しかしながら、選択の基準として用いる物理量は抵抗値だけに限られず、所定の基準値に対して正または負の方向に、確率的変動を伴った(つまり目標値に対する制御に対して確率的に変動するが当該方向には変化し、かつ、平均の変化量が有意である(測定にかかる)ような)制御が可能であれば、磁場の向き及び強さなど、他の物理量を変化させ得る素子であってもよい。[Modified example]
In the explanation so far, an analog resistance change element circuit is used, and the resistance value of the circuit is used to function as a selection element that selects one of a pair of options. However, the physical quantity used as a selection criterion is not limited to only the resistance value, but also includes stochastic fluctuations in the positive or negative direction with respect to a predetermined reference value (in other words, it fluctuates stochastically with respect to control over the target value). changes in the relevant direction, and if control is possible such that the average amount of change is significant (requires measurement), then it is an element that can change other physical quantities such as the direction and strength of the magnetic field. There may be.
また本実施の形態に係る意思決定装置1の意思決定の対象の例は、上述の広告の例に限られるものではなく、複数の選択肢のうちから選択されるものであれば、例えば通信チャネルの選択(この場合、報酬は通信チャネルの空きがあったか否か、つまり通信ができたか否かによる)や、振動発電装置における、電力を取り出す際の周波数の選択(この例では、報酬は所定値以上の電力が取り出せたか否かによる)などに利用できる。
Further, the example of the decision-making target of the decision-making
1 意思決定装置
11 制御部
12 記憶部
13 アナログ抵抗変化素子回路部
14 入力部
15 出力部
21 意思決定処理部
22 成果判定部
23 抵抗値制御部
101 意思決定制御部
102 RAND回路
103 RANDコントローラ
104 外部インタフェース部
111,112 データライン
121 制御ライン
201、202、203、204 スロットマシーン
205 コイン
301 外部インタフェース管理モジュール
302 抵抗値管理モジュール
303 実行管理モジュール
401、402 バー
411、412 スロットマシーン
420 揺らぎ
501 TiN電極(TE)
502 TiN電極(BE)
503 TaOx(1)
504 TaOx(2)
505 SiO2層
506 基板
601 RAND
602 負荷抵抗
701 セット電圧の動作
702 リセット電圧の動作
901、902 スロットマシーン
903 バー1 Decision-making
502 TiN electrode (BE)
503 TaO x (1)
504 TaO x (2)
505 SiO 2 layer 506
602
Claims (9)
所定のパルス電圧を印加することにより抵抗値が変化する回路手段であって、前記抵抗値がパルス電圧の印加回数に対し線形的に変化し、さらに前記抵抗値は確率的な揺らぎを有しながら変化する回路手段と、
前記回路手段の現在の抵抗値の、所定の閾値に対する大小により、第1の確率的報酬付与手段および第2の確率的報酬付与手段のいずれの報酬付与処理を実行するかを判定し、前記報酬付与処理の結果、報酬有の結果により、実行した確率的報酬付与手段がさらに報酬付与処理を実行すると判定される方向に前記抵抗値を変化させるためのパルス電圧を印加し、報酬無の結果により前記報酬付与処理を実行した確率的報酬付与手段と異なる確率的報酬付与手段が報酬付与処理を実行すると判定される方向に前記抵抗値を変化させるためのパルス電圧を印加する回路制御手段と
を備える意思決定装置要素を用いて、3以上の確率的報酬付与手段から1つを決定する意思決定装置であって、
全ての確率的報酬付与手段を任意に2つ選択して対を構成し下位階層を形成し、各々の対をさらに組み合わせて対を構成して上位階層を形成することにより形成される階層構造を有し、前記形成された対の各々について前記意思決定装置要素を対応させ、全ての前記意思決定装置要素の抵抗値の集合に従って確率的報酬付与手段のいずれかを決定し、該確率的報酬付与手段の報酬結果に従って対応する意思決定装置要素の抵抗値を更新する下位階層処理を実行し、当該更新された値に基づき上位階層の意思決定装置要素の抵抗値を順次更新して行く上位階層処理を繰返すことにより3以上の確率的報酬付与手段から1つの確率的報酬付与手段の報酬付与処理を実行することを決定することを特徴とする意思決定装置。 A decision-making device element that determines one of two or more stochastic reward granting means based on a TOW (Tug-of-War) model,
A circuit means whose resistance value changes by applying a predetermined pulse voltage, wherein the resistance value changes linearly with respect to the number of times the pulse voltage is applied, and further the resistance value has stochastic fluctuations. changing circuit means;
Depending on the magnitude of the current resistance value of the circuit means with respect to a predetermined threshold value, it is determined which of the first stochastic reward giving means and the second stochastic reward giving means is to be executed, and the reward As a result of the granting process, a pulse voltage is applied to change the resistance value in a direction in which it is determined that the stochastic reward granting means that has been executed further executes the reward granting process when there is a reward, and when there is no reward circuit control means for applying a pulse voltage for changing the resistance value in a direction in which it is determined that a stochastic reward giving means different from the stochastic reward giving means that executed the reward giving process executes the reward giving process;
A decision-making device that determines one from three or more probabilistic reward giving means using a decision-making device element comprising :
A hierarchical structure formed by arbitrarily selecting two of all stochastic reward giving means to form a pair to form a lower hierarchy, and further combining each pair to form a pair to form an upper hierarchy. and associating the decision-making device elements with respect to each of the formed pairs, determining one of the stochastic reward granting means according to a set of resistance values of all the decision-making device elements , and determining the stochastic reward granting means. Upper layer processing that executes lower layer processing that updates the resistance value of the corresponding decision making device element according to the reward result of the means, and sequentially updates the resistance value of the higher layer decision making device element based on the updated value. A decision-making device characterized in that by repeating the above, it is determined to execute a reward grant process of one stochastic reward granting means from three or more stochastic reward granting means.
全ての確率的報酬付与手段を任意に2つ選択して対を構成し下位階層を形成し、各々の対をさらに組み合わせて対を構成して上位階層を形成する階層形成ステップと、
前記形成された最下位階層の各対についてTOWモデルの仮想的なバーの両側に前記対の確率的報酬付与手段を各々配置して、前記最下位階層の仮想的なバーの仮想的な位置関係と、それより上位の全階層の仮想的なバーの位置関係により、いずれの確率的報酬付与手段の報酬付与処理を実行するかを判定して、実行する最下位報酬付与ステップと、
前記最下位報酬付与ステップの処理の結果、報酬有の結果により前記報酬付与処理を実行した確率的報酬付与手段がさらに報酬付与処理を実行すると判定される方向に前記最下位階層の仮想的なバーを所定の距離だけ移動させ、報酬無の結果により前記報酬付与処理を実行した確率的報酬付与手段と異なる確率的報酬付与手段が報酬付与処理を実行すると判定される方向に前記最下位階層の仮想的なバーを所定の距離だけ移動させる最下位更新ステップと、
前記最下位更新ステップに基づき、それよりも上位の各階層の仮想的なバーにおいても直下の階層の更新値を反映することで更新が順次実行される上位更新ステップと
を備えることを特徴とするプログラム。 Based on the TOW model (Tug-of-War), in which a solution is obtained by a virtual bar negotiation between two parties, a decision-making method is developed in which a decision is made to decide one of three or more probabilistic reward giving means. A program to be executed by a computer, the decision making method comprising:
a hierarchy forming step of arbitrarily selecting two of all stochastic reward giving means to form a pair to form a lower hierarchy, and further combining each pair to form a pair to form an upper hierarchy;
For each pair of the formed lowest hierarchy, the pair of stochastic reward giving means is arranged on both sides of the virtual bar of the TOW model, and the virtual positional relationship of the virtual bar of the lowest hierarchy is determined. and a lowest reward granting step of determining and executing the reward granting process of which probabilistic reward granting means is to be executed based on the positional relationship of the virtual bars of all the layers above it;
As a result of the process of the lowest level reward granting step , the virtual bar of the lowest level is moved in the direction in which it is determined that the stochastic reward granting means that has executed the reward granting process further executes the reward granting process based on the result that there is a reward. is moved by a predetermined distance, and based on the result of no reward, the virtual of the lowest hierarchy is moved in the direction in which it is determined that a stochastic reward giving means different from the stochastic reward giving means that executed the reward giving process executes the reward giving process. a bottom update step of moving the bar by a predetermined distance;
and an upper update step in which, based on the lowest update step, updates are performed sequentially by reflecting the updated values of the immediately lower hierarchy in the virtual bars of each higher hierarchy. program.
所定の物理量の値を、基準値に対して正または負の方向に確率的変動を伴って制御可能な回路素子を2n-1個用いて仮想的な二分木を構成し、最下層の2n-1個の回路素子が前記選択肢のいずれかを選択する処理に供される回路部と、
前記選択肢のうち一つを選択して、報酬の有無を判断する試行手段と、
前記試行手段の判断の結果により、当該試行手段が選択した選択肢に関わる回路素子のそれぞれの前記物理量の値を、予め定めた規則に従って制御する物理量制御手段と、
前記仮想的な二分木に構成された各回路素子を、最上位の回路素子から順次選択し、選択した回路素子の物理量の値が前記基準値より正であるか否かにより、一対の下位の回路素子のいずれかを選択することを繰り返して、選択された最下位の回路素子の物理量の値が前記基準値より正であるか否かにより、前記選択肢のいずれかを選択する選択肢選択手段と、
を有し、
前記物理量制御手段は、
前記試行手段の選択により、報酬を受けた場合に、当該試行手段が選択した選択肢が前記選択肢選択手段により選択される確率を上昇させるよう、選択肢に関わる回路素子のそれぞれの前記物理量の値を、予め定めた規則に従って制御する意思決定装置。 A decision-making device that selects one option from among 2n options (n is a natural number) each of which can receive a reward with probability,
A virtual binary tree is constructed using 2 n -1 circuit elements that can control the value of a predetermined physical quantity with stochastic fluctuations in the positive or negative direction with respect to a reference value, and the lowest layer 2 a circuit unit in which n-1 circuit elements are subjected to a process of selecting one of the options;
trial means for selecting one of the options and determining whether there is a reward;
physical quantity control means for controlling the value of the physical quantity of each of the circuit elements related to the option selected by the trial means according to a determination result of the trial means, according to a predetermined rule;
Each of the circuit elements configured in the virtual binary tree is selected sequentially starting from the highest level circuit element, and depending on whether the value of the physical quantity of the selected circuit element is more positive than the reference value, the pair of lower order option selection means for repeatedly selecting one of the circuit elements and selecting one of the options depending on whether the value of the physical quantity of the selected lowest circuit element is more positive than the reference value; ,
has
The physical quantity control means includes:
In order to increase the probability that the option selected by the trial means is selected by the option selection means when a reward is received due to the selection of the trial means, the value of the physical quantity of each of the circuit elements related to the choice is set. A decision-making device that controls according to predetermined rules.
前記物理量制御手段は、
前記試行手段の選択により、報酬を受けた場合に、前記仮想的な二分木に構成された各回路素子のうち、前記試行手段が選択した選択肢の選択に関わる各層の回路素子を注目回路素子として、それぞれ前記選択肢または下位の層の注目回路素子が選択される確率を上昇させるよう、各注目回路素子の前記物理量の値を、予め定めた規則に従って制御し、
前記試行手段の選択により、報酬を受けなかった場合に、前記仮想的な二分木に構成された各回路素子のうち、前記試行手段が選択した選択肢の選択に関わる各層の回路素子を注目回路素子として、それぞれ前記選択肢または下位の層の注目回路素子が選択される確率を下降させるよう、各注目回路素子の前記物理量の値を、予め定めた規則に従って制御する意思決定装置。 The decision-making device according to claim 5 ,
The physical quantity control means includes:
When a reward is received as a result of the selection of the trial means, among the circuit elements configured in the virtual binary tree, the circuit elements of each layer involved in the selection of the option selected by the trial means are set as circuit elements of interest. , controlling the value of the physical quantity of each circuit element of interest according to a predetermined rule so as to increase the probability that the circuit element of interest in the option or the lower layer is selected, respectively;
If no reward is received due to the selection of the trial means, among the circuit elements configured in the virtual binary tree, the circuit elements of each layer involved in the selection of the option selected by the trial means are designated as circuit elements of interest. A decision-making device that controls the value of the physical quantity of each circuit element of interest according to a predetermined rule so as to reduce the probability that the option or the circuit element of interest in a lower layer is selected.
前記物理量制御手段は、
前記予め定めた規則に従って回路素子の物理量の値を制御するに先立ち、各回路素子の物理量の値を、所定の値に近接させるよう制御する意思決定装置。 The decision-making device according to claim 5 or 6 ,
The physical quantity control means includes:
A decision-making device that controls the value of the physical quantity of each circuit element to approach a predetermined value before controlling the value of the physical quantity of the circuit element according to the predetermined rule.
前記物理量は、回路の抵抗値であり、前記回路素子は、抵抗変化素子である意思決定装置。 The decision-making device according to any one of claims 5 to 7 ,
The decision-making device wherein the physical quantity is a resistance value of a circuit, and the circuit element is a variable resistance element.
前記意思決定装置は、所定の物理量の値を、基準値に対して正または負の方向に確率的変動を伴って制御可能な回路素子を2 The decision-making device includes two circuit elements capable of controlling the value of a predetermined physical quantity with stochastic fluctuations in a positive or negative direction with respect to a reference value. nn -1個用いて仮想的な二分木を構成して、最下層の2-1 is used to construct a virtual binary tree, and the bottom 2 n-1n-1 個の回路素子を、前記選択肢のいずれかを選択する処理に供し、subjecting the circuit elements to a process of selecting one of the options,
試行手段が、前記選択肢のうち一つを選択して、報酬の有無を判断し、 The trial means selects one of the options and determines whether there is a reward,
物理量制御手段が、前記試行手段の判断の結果により、当該試行手段が選択した選択肢に関わる回路素子のそれぞれの前記物理量の値を、予め定めた規則に従って制御し、 A physical quantity control means controls the value of each of the physical quantities of the circuit elements related to the option selected by the trial means according to a predetermined rule, based on the determination result of the trial means,
選択肢選択手段が、前記仮想的な二分木に構成された各回路素子を、最上位の回路素子から順次選択し、選択した回路素子の物理量の値が前記基準値より正であるか否かにより、一対の下位の回路素子のいずれかを選択することを繰り返して、選択された最下位の回路素子の物理量の値が前記基準値より正であるか否かにより、前記選択肢のいずれかを選択し、 The option selection means sequentially selects each circuit element configured in the virtual binary tree starting from the highest circuit element, and determines whether the value of the physical quantity of the selected circuit element is more positive than the reference value. , repeating the process of selecting one of the pair of lower-order circuit elements, and selecting one of the options depending on whether the value of the physical quantity of the selected lowest-order circuit element is more positive than the reference value. death,
前記物理量制御手段は、 The physical quantity control means includes:
前記試行手段の選択により、報酬を受けた場合に、当該試行手段が選択した選択肢が前記選択肢選択手段により選択される確率を上昇させるよう、選択肢に関わる回路素子のそれぞれの前記物理量の値を、予め定めた規則に従って制御する意思決定装置の制御方法。 In order to increase the probability that the option selected by the trial means is selected by the option selection means when a reward is received due to the selection of the trial means, the value of the physical quantity of each of the circuit elements related to the choice is set. A method for controlling a decision-making device according to predetermined rules.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018174258 | 2018-09-18 | ||
JP2018174258 | 2018-09-18 | ||
PCT/JP2019/036433 WO2020059723A1 (en) | 2018-09-18 | 2019-09-17 | Intention determination device, and method for controlling intention determination device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020059723A1 JPWO2020059723A1 (en) | 2021-09-24 |
JP7403739B2 true JP7403739B2 (en) | 2023-12-25 |
Family
ID=69887041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020548524A Active JP7403739B2 (en) | 2018-09-18 | 2019-09-17 | Decision-making device and method for controlling the decision-making device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7403739B2 (en) |
WO (1) | WO2020059723A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7394391B2 (en) | 2020-12-18 | 2023-12-08 | 株式会社鷺宮製作所 | vibration power generation device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017049945A (en) | 2015-09-04 | 2017-03-09 | 株式会社東芝 | Signal generator and transmission device |
JP2018124790A (en) | 2017-01-31 | 2018-08-09 | 国立研究開発法人物質・材料研究機構 | Decision making device |
-
2019
- 2019-09-17 WO PCT/JP2019/036433 patent/WO2020059723A1/en active Application Filing
- 2019-09-17 JP JP2020548524A patent/JP7403739B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017049945A (en) | 2015-09-04 | 2017-03-09 | 株式会社東芝 | Signal generator and transmission device |
JP2018124790A (en) | 2017-01-31 | 2018-08-09 | 国立研究開発法人物質・材料研究機構 | Decision making device |
Also Published As
Publication number | Publication date |
---|---|
WO2020059723A1 (en) | 2020-03-26 |
JPWO2020059723A1 (en) | 2021-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nandakumar et al. | A phase-change memory model for neuromorphic computing | |
Shi et al. | Neuroinspired unsupervised learning and pruning with subquantum CBRAM arrays | |
Yu | Neuro-inspired computing with emerging nonvolatile memorys | |
Wijesinghe et al. | An all-memristor deep spiking neural computing system: A step toward realizing the low-power stochastic brain | |
Hu et al. | Associative memory realized by a reconfigurable memristive Hopfield neural network | |
Pedretti et al. | Tree-based machine learning performed in-memory with memristive analog CAM | |
Yang et al. | Transiently chaotic simulated annealing based on intrinsic nonlinearity of memristors for efficient solution of optimization problems | |
Gao et al. | Fully parallel write/read in resistive synaptic array for accelerating on-chip learning | |
Sun et al. | In-memory PageRank accelerator with a cross-point array of resistive memories | |
Li et al. | In situ parallel training of analog neural network using electrochemical random-access memory | |
Brivio et al. | Non-linear memristive synaptic dynamics for efficient unsupervised learning in spiking neural networks | |
US20150200363A1 (en) | Resistive switching element and use thereof | |
Joksas et al. | Nonideality‐Aware Training for Accurate and Robust Low‐Power Memristive Neural Networks | |
Charan et al. | Accurate inference with inaccurate RRAM devices: Statistical data, model transfer, and on-line adaptation | |
Ernoult et al. | Using memristors for robust local learning of hardware restricted Boltzmann machines | |
Sanchez Esqueda et al. | Efficient learning and crossbar operations with atomically-thin 2-D material compound synapses | |
Kim et al. | Zero-shifting technique for deep neural network training on resistive cross-point arrays | |
Fu et al. | Level scaling and pulse regulating to mitigate the impact of the cycle-to-cycle variation in memristor-based edge ai system | |
Chen et al. | Open-loop analog programmable electrochemical memory array | |
Esmanhotto et al. | Experimental demonstration of multilevel resistive random access memory programming for up to two months stable neural networks inference accuracy | |
Pedretti et al. | Conductance variations and their impact on the precision of in-memory computing with resistive switching memory (RRAM) | |
JP7403739B2 (en) | Decision-making device and method for controlling the decision-making device | |
Yakopcic et al. | Filament formation in lithium niobate memristors supports neuromorphic programming capability | |
Park et al. | Linear conductance update improvement of CMOS-compatible second-order memristors for fast and energy-efficient training of a neural network using a memristor crossbar array | |
Afshari et al. | Analyzing the impact of memristor variability on crossbar implementation of regression algorithms with smart weight update pulsing techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210405 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7403739 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |