JP6972057B2 - 演算装置 - Google Patents
演算装置 Download PDFInfo
- Publication number
- JP6972057B2 JP6972057B2 JP2019049035A JP2019049035A JP6972057B2 JP 6972057 B2 JP6972057 B2 JP 6972057B2 JP 2019049035 A JP2019049035 A JP 2019049035A JP 2019049035 A JP2019049035 A JP 2019049035A JP 6972057 B2 JP6972057 B2 JP 6972057B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- values
- output
- layers
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Description
y[n] j=f[n](v[n] j)…(2)
e[m−1] i=g[m](s[m−1] i)…(4)
w[n] ij=w[n] ij−∂E/∂w[n] ij…(5)
∂E/∂w[n] ij=y[n−1] i×f[n]´(v[n] j)×e[n] j…(6)
21 第1ニューラルネットワーク
22 第2ニューラルネットワーク
24 入力部
26 出力部
28 評価部
30 係数更新部
32 制御部
36 出力評価部
40 逆伝播ニューラルネットワーク
Claims (15)
- 第1モードにおいて演算を実行する第1ニューラルネットワークと、
前記第1モードとは異なる第2モードにおいて演算を実行し、前記第1ニューラルネットワークと同一の層構造の第2ニューラルネットワークと、
前記第1モードにおいて前記第1ニューラルネットワークによる演算の誤差を評価し、前記第2モードにおいて前記第2ニューラルネットワークによる演算の誤差を評価する評価部と、
前記第1モードにおいて、前記第1ニューラルネットワークによる演算の誤差を評価した評価結果に基づき前記第2ニューラルネットワークに設定されている複数の係数を更新し、前記第2モードにおいて、前記第2ニューラルネットワークによる演算の誤差を評価した評価結果に基づき前記第1ニューラルネットワークに設定されている複数の係数を更新する係数更新部と、
を備える演算装置。 - 前記第1モードおよび前記第2モードを交互に切り換え制御する制御部
をさらに請求項1に記載の演算装置。 - 前記第1ニューラルネットワークおよび前記第2ニューラルネットワークのそれぞれは、N個(Nは、2以上の整数)の層を有し、
前記第1ニューラルネットワークおよび前記第2ニューラルネットワークのそれぞれは、前記N個の層のそれぞれから複数の中間出力値を出力し、
前記評価部は、
前記第1モードにおいて、前記第2ニューラルネットワークの前記N個の層のそれぞれに対応させて、前記第1ニューラルネットワークの前記N個の層のそれぞれから出力された前記複数の中間出力値の誤差を評価した複数の中間評価値を生成し、
前記第2モードにおいて、前記第1ニューラルネットワークの前記N個の層のそれぞれに対応させて、前記第2ニューラルネットワークの前記N個の層のそれぞれから出力された前記複数の中間出力値の誤差を評価した前記複数の中間評価値を生成する
請求項2に記載の演算装置。 - 前記係数更新部は、
前記第1モードにおいて、前記第1ニューラルネットワークの前記N個の層のそれぞれに対応する前記複数の中間評価値に基づき、前記第2ニューラルネットワークの前記N個の層のそれぞれに設定されている複数の係数を更新し、
前記第2モードにおいて、前記第2ニューラルネットワークの前記N個の層のそれぞれに対応する前記複数の中間評価値に基づき、前記第1ニューラルネットワークの前記N個の層のそれぞれに設定されている複数の係数を更新する
請求項3に記載の演算装置。 - 前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける前記N個の層のそれぞれは、前段の層から出力された前記複数の中間出力値と、設定されている複数の係数とを行列乗算することにより複数の積和演算値を算出し、前記複数の積和演算値に対して、予め設定されている活性化関数演算を実行することにより前記複数の中間出力値を算出する
請求項3または4に記載の演算装置。 - 前記評価部は、
前記第1モードにおいて、前記第1ニューラルネットワークの第N層から出力された前記複数の中間出力値のそれぞれにおける複数の目標値のそれぞれに対する誤差を評価した複数の出力評価値を生成し、前記第2モードにおいて、前記第2ニューラルネットワークの第N層から出力された前記複数の中間出力値のそれぞれにおける前記複数の目標値のそれぞれに対する誤差を評価した前記複数の出力評価値を生成する出力評価部と、
前記複数の出力評価値を伝播させて、前記N個の層のそれぞれに対応する前記複数の中間評価値を出力する逆伝播ニューラルネットワークと、
を有する
請求項5に記載の演算装置。 - 前記逆伝播ニューラルネットワークは、
前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける第2層から第N層に対応する(N−1)個の層を有し、
前記複数の出力評価値を、第N層から第2層へ向かう方向に伝播し、
前記(N−1)個の層のそれぞれにおいて、前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける対応する層の行列乗算を転置させた行列乗算を実行して、前記複数の中間評価値を算出する
請求項6に記載の演算装置。 - 前記逆伝播ニューラルネットワークは、
前記(N−1)個の層のそれぞれにより算出した前記複数の中間評価値を、前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける前段の層に対応する前記複数の中間評価値として出力し、
第N層が取得した前記複数の出力評価値を、前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける第N層に対応する前記複数の中間評価値として出力する
請求項7に記載の演算装置。 - 前記係数更新部は、
前記第1モードにおいて、
前記N個の層のそれぞれに対応して、前記第1ニューラルネットワークの前段の層から出力された前記複数の中間出力値、前記第1ニューラルネットワークの対応する層で算出された前記複数の積和演算値、および、前記評価部により生成された対応する層についての前記複数の中間評価値を取得し、
前記N個の層のそれぞれに対応して取得した前記複数の中間出力値、前記複数の積和演算値および前記複数の中間評価値に基づき、前記第2ニューラルネットワークの前記N個の層のそれぞれに設定されている複数の係数を更新し、
前記第2モードにおいて、
前記N個の層のそれぞれに対応して、前記第2ニューラルネットワークの前段の層から出力された前記複数の中間出力値、前記第2ニューラルネットワークの対応する層で算出された前記複数の積和演算値、および、前記評価部により生成された対応する層についての前記複数の中間評価値を取得し、
前記N個の層のそれぞれに対応して取得した前記複数の中間出力値、前記複数の積和演算値および前記複数の中間評価値に基づき、前記第1ニューラルネットワークの前記N個の層のそれぞれに設定されている複数の係数を更新する
請求項6から8の何れか1項に記載の演算装置。
- 前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおいて、
第n層(nは、1以上N以下の整数)は、第(n−1)層から出力されたI個(Iは、2以上の整数)の中間出力値を取得し、
第n層は、J個(Jは、2以上の整数)の中間出力値を出力し、
第n層は、I個の列およびJ個の行の行列に対応して配置された(I×J)個の係数が設定されている
請求項9に記載の演算装置。 - 前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける第n層が取得するi番目(iは、1以上I以下の整数)の中間出力値をy[n−1] iと表し、
前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける第n層が算出するj番目(jは、1以上J以下の整数)の積和演算値をv[n] jと表し、
前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける第n層に設定された第i列および第j行の係数をw[n] ijと表した場合、
前記第1ニューラルネットワークおよび前記第2ニューラルネットワークの第n層は、下記の式(1)の行列乗算により、j=1〜JまでのJ個の積和演算値を算出する
- 前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける第n層が出力するj番目の中間出力値をy[n] jと表し、
前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける第n層に設定された活性化関数をf[n](・)と表した場合、
前記第1ニューラルネットワークおよび前記第2ニューラルネットワークの第n層は、下記の式(2)の活性化関数演算により、j=1〜JまでのJ個の中間出力値を算出する
y[n] j=f[n](v[n] j)…(2)
請求項11に記載の演算装置。 - 前記逆伝播ニューラルネットワークにおける第n層が取得するj番目の中間評価値をe[n] jと表し、
前記第1ニューラルネットワークおよび前記第2ニューラルネットワークにおける第n層に設定された活性化関数の微分関数をf[n]´(・)と表し、
係数の誤差を評価するための評価関数をEと表し、
前記第1ニューラルネットワークおよび前記第2ニューラルネットワークの第n層に設定された第i行および第j列の係数の誤差を評価するための前記評価関数の勾配を、∂E/∂w[n] ijと表した場合、
前記係数更新部は、前記第1ニューラルネットワークおよび前記第2ニューラルネットワークの第n層に設定された第i行および第j列の係数を、式(3)により算出した∂E/∂w[n] ijに基づき更新する
∂E/∂w[n] ij=y[n−1] i×f[n]´(v[n] j)×e[n] j…(3)
請求項12に記載の演算装置。 - 前記第1モードにおいて、複数の入力値を前記第1ニューラルネットワークの第1層に与え、前記第2モードにおいて、前記複数の入力値を前記第2ニューラルネットワークの第1層に与える入力部と、
前記第1モードにおいて、前記第1ニューラルネットワークの最終層から出力された複数の値を、複数の出力値として出力し、前記第2モードにおいて、前記第2ニューラルネットワークの最終層から出力された複数の値を、前記複数の出力値として出力する出力部と、
をさらに備える請求項1から13の何れか1項に記載の演算装置。 - 前記第1ニューラルネットワークは、ハードウェア回路により実現され、
前記第2ニューラルネットワークは、ハードウェア回路により実現される
請求項1から14の何れか1項に記載の演算装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019049035A JP6972057B2 (ja) | 2019-03-15 | 2019-03-15 | 演算装置 |
US16/555,430 US11651193B2 (en) | 2019-03-15 | 2019-08-29 | Operation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019049035A JP6972057B2 (ja) | 2019-03-15 | 2019-03-15 | 演算装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020149625A JP2020149625A (ja) | 2020-09-17 |
JP6972057B2 true JP6972057B2 (ja) | 2021-11-24 |
Family
ID=72424721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019049035A Active JP6972057B2 (ja) | 2019-03-15 | 2019-03-15 | 演算装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11651193B2 (ja) |
JP (1) | JP6972057B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7132196B2 (ja) | 2019-09-17 | 2022-09-06 | 株式会社東芝 | 処理装置および推論システム |
JP2021111142A (ja) | 2020-01-10 | 2021-08-02 | 株式会社東芝 | 演算装置 |
JP7289802B2 (ja) * | 2020-02-17 | 2023-06-12 | 株式会社日立製作所 | リザーバー計算機 |
JP7358312B2 (ja) | 2020-08-25 | 2023-10-10 | 株式会社東芝 | 記憶装置およびニューラルネットワーク装置 |
JP7346373B2 (ja) | 2020-09-16 | 2023-09-19 | 株式会社東芝 | 演算装置およびニューラルネットワーク装置 |
CN112597540B (zh) * | 2021-01-28 | 2021-10-01 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护的多重共线性检测方法、装置及系统 |
JP7532284B2 (ja) | 2021-02-24 | 2024-08-13 | 株式会社東芝 | 不揮発性メモリデバイス |
CN116757511A (zh) | 2022-03-04 | 2023-09-15 | 株式会社日立制作所 | 供应方自动评级方法、供应方自动评级装置及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3026656B2 (ja) * | 1991-09-30 | 2000-03-27 | 株式会社デンソー | 薄膜抵抗体の製造方法 |
JPH05197707A (ja) * | 1992-08-05 | 1993-08-06 | Hitachi Ltd | 情報処理システム |
JP4356716B2 (ja) * | 2006-08-03 | 2009-11-04 | パナソニック電工株式会社 | 異常監視装置 |
KR20150034900A (ko) | 2013-09-26 | 2015-04-06 | 삼성전자주식회사 | 뉴런 회로들을 연결하는 시냅스 회로, 뉴로모픽 회로를 구성하는 단위 셀 및 뉴로모픽 회로 |
JP2017111658A (ja) * | 2015-12-17 | 2017-06-22 | 株式会社日立製作所 | 設計支援装置 |
KR20180027887A (ko) * | 2016-09-07 | 2018-03-15 | 삼성전자주식회사 | 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 트레이닝 방법 |
US10382917B2 (en) * | 2016-12-30 | 2019-08-13 | Riseio, Inc. | System and method for a building-integrated predictive service communications platform |
US10819718B2 (en) * | 2017-07-05 | 2020-10-27 | Deep Instinct Ltd. | Methods and systems for detecting malicious webpages |
JP6773621B2 (ja) | 2017-09-15 | 2020-10-21 | 株式会社東芝 | 演算装置 |
KR102593438B1 (ko) * | 2017-11-17 | 2023-10-24 | 삼성전자주식회사 | 뉴럴 네트워크 학습 방법 및 디바이스 |
-
2019
- 2019-03-15 JP JP2019049035A patent/JP6972057B2/ja active Active
- 2019-08-29 US US16/555,430 patent/US11651193B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020149625A (ja) | 2020-09-17 |
US11651193B2 (en) | 2023-05-16 |
US20200293861A1 (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6972057B2 (ja) | 演算装置 | |
CN111587440B (zh) | 用于更新精确突触权重值的神经形态芯片 | |
US20180121790A1 (en) | Neural Array Having Multiple Layers Stacked Therein For Deep Belief Network And Method For Operating Neural Array | |
JPH04293151A (ja) | 並列データ処理方式 | |
JP2000511307A (ja) | 同時学習およびパフォーマンス情報処理システム | |
Gao et al. | Combination of sign inverting and delay scheduling control concepts for multiple-delay dynamics | |
US20200293855A1 (en) | Training of artificial neural networks | |
US5592589A (en) | Tree-like perceptron and a method for parallel distributed training of such perceptrons | |
CN114819093A (zh) | 利用基于忆阻器阵列的环境模型的策略优化方法和装置 | |
JP7361192B2 (ja) | ハードウェア・アクセラレータとインターフェースするための方法 | |
EP4134882A1 (en) | Information processing system, information processing device, information processing method, and information processing program | |
JP2024514063A (ja) | ディープ・ニューラル・ネットワーク・トレーニング | |
CN116261730A (zh) | 用于具有全局部存储的基于模拟存储器的神经网络的流水线 | |
JPH04237388A (ja) | ニューロプロセッサ | |
Merabti et al. | Hardware implementation of a real-time genetic algorithm for adaptive filtering applications | |
JPH02266458A (ja) | ニューラルネットワークシミュレーション装置 | |
US20210133556A1 (en) | Feature-separated neural network processing of tabular data | |
Oubbati et al. | Meta-learning for adaptive identification of non-linear dynamical systems | |
JPH04233657A (ja) | 回帰ニューラルネットワークの教示方法 | |
US11487990B2 (en) | Resistive crossbar arrays with reduced numbers of elements | |
Grantner et al. | Design of a reconfigurable state transition algorithm for fuzzy automata | |
Tosini et al. | NNGen: a powerful tool for the implementation of Artificial Neural Networks on a chip | |
MacDonald | Connecting to the past | |
Ghanemi et al. | A VLSI systolic implementation of the Hopfield and back‐propagation neural algorithms | |
JP2024110210A (ja) | リザーバ計算機、及び設備状態検知システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211102 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6972057 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |