[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH10187648A - ニューラルユニット演算方式およびその装置 - Google Patents

ニューラルユニット演算方式およびその装置

Info

Publication number
JPH10187648A
JPH10187648A JP8354369A JP35436996A JPH10187648A JP H10187648 A JPH10187648 A JP H10187648A JP 8354369 A JP8354369 A JP 8354369A JP 35436996 A JP35436996 A JP 35436996A JP H10187648 A JPH10187648 A JP H10187648A
Authority
JP
Japan
Prior art keywords
value
output
sum
neural unit
neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8354369A
Other languages
English (en)
Other versions
JP3292073B2 (ja
Inventor
Fuyuki Okamoto
冬樹 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP35436996A priority Critical patent/JP3292073B2/ja
Publication of JPH10187648A publication Critical patent/JPH10187648A/ja
Application granted granted Critical
Publication of JP3292073B2 publication Critical patent/JP3292073B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

(57)【要約】 【課題】各ニューラルユニットあたりN回の乗算の繰り
返し処理を実行することによる、ネットワークの大規模
化に伴う処理時間を短縮するニューラルユニット装置の
提供。 【解決手段】ニューラルユニットにおいて計算される積
jiiはその値が−L≦Wjii≦M (L、M≧0)の
範囲にある。ニューラルユニットが実行する積和計算に
おいて、その初期値を−LNとし(Nは積和の繰返し回
数)、L+Wjijiを毎回足していく。ここで毎回加算
される数値(L+Wjii)は必ず非負の数であることに
注意する。シグモイド関数の形状から、入力mの正側及
び負側で値が飽和している。L+Wjii(i=1、…、
N)を加算していく過程で、最終項(第N項)に到達前の
途中(k項)までの積和の値(=−LN+Σi k(L+Wji
i))がシグモイド関数の飽和領域にはいっていたなら
ば、以降の乗算と累和計算は省略する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ニューラルネット
ワークの基本演算である積和演算およびシグモイド関数
変換を行うニューラルユニット演算方式とその装置に関
する。
【0002】
【従来の技術】近時、半導体技術の発展に伴い、ニュー
ラルネットワークをデジタルLSIによって実現しよう
という試みが盛んになってきている。ニューラルネット
ワークの基本構成を図3に示す。図3を参照すると、複
数のニューラルユニットがネットワーク状に結合されて
おり、各ニューラルユニットは、複数の別のニューラル
ユニットからの信号を入力し、別のニューラルユニット
へと出力を供給している。そして各ニューラルユニット
は、そのニューラルユニットへ信号を供給しているニュ
ーラルユニットとの間の結合の度合いを表す「シナプス
荷重値」を備えている。
【0003】例えば、図3において、第jニューラルユ
ニット301は、第A、第B、第Cニューラルユニット
302、303、304からの出力を受けている。第j
ニューラルユニット301は、これらの3つのニューラ
ルユニット302、303、304との間の結合強度を
表すシナプス荷重値WjA、WjB、WjCを備えている。
【0004】さて、第A、第B、第Cニューラルユニッ
ト302、303、304の出力信号をそれぞれ、
A、XB、XCとしよう。すると、第jニューラルユニ
ットからの信号Xjは、次のようにして計算され出力さ
れる。
【0005】まず、信号XA、XB、XCと、シナプス荷
重値WjA、WjB、WjCとを用いて、次式(1)の積和m
を計算する。
【0006】m=WjAA+WjBB+WjCC …(1)
【0007】このmの値に対して、次のようなシグモイ
ド関数による非線形変換処理を行い、Xjが出力され
る。すなわち、mと出力Xjとは、シグモイド関数fに
よって、次式(2)のように関係付けられる。
【0008】Xj=f(m) …(2)
【0009】なお、シグモイド関数fとは、図2に示す
ような形状を持つ非線形関数であり、入力mが零近辺で
はmとともに急峻にその値が増加するが、入力mがある
程度大きい値になるとその値は飽和する、という特徴を
もっている。
【0010】ニューラルネットワークにおいては、その
構成要素であるニューラルユニットが、以上のような積
和演算とシグモイド関数変換処理とを行って、その結果
を次段のニューラルユニットへ出力していき、所定の段
数だけ信号伝達が行われた後に、外部へ信号が出力され
る。
【0011】さて、このようなニューラルネットワーク
においては、各ニューラルユニットの処理すべき基本演
算は、上式(1)、(2)のような積和演算とシグモイ
ド関数変換である。よって、ニューラルユニットをデジ
タル回路によって、図4に示すような回路構成によって
実現することができる。
【0012】図4は、デジタル回路による、従来のニュ
ーラルユニットの基本構成を示す図である。図4を参照
して、従来のデジタル型のニューラルユニットの動作を
以下に説明する。
【0013】図4において、ニューラルユニットを第j
ニューラルユニットとする(図3の301参照)。そし
て、このニューラルユニットには、N個のニューラルユ
ニット(第1〜第Nニューラルユニット)が、それぞれ
信号X1〜XNを供給しているものとする。また第1〜第
Nニューラルユニットと、この第jニューラルユニット
と、の間のシナプス荷重値をそれぞれWj1、Wj2
j3、…、WjNとする。なお、信号X1〜XN、及びシナ
プス荷重値Wj1〜WjNは、それぞれ、適当なビット長の
2進数によって表現されているものとする。
【0014】さて、この第jニューラルユニットは、図
4に示すように、乗算器402、加算器403、及び、
シナプス荷重値(Wj1、Wj2、Wj3、…、WjN)を格納
するシナプス荷重値メモリ401から構成されている。
【0015】N個のニューラルユニットからの出力信号
1〜XNは、順番に入力信号線400に供給され、ま
た、これに同期して、シナプス荷重値メモリ401か
ら、Wj1、Wj2、…、WjNが順番に読み出される。
【0016】こうして第1サイクルでは、入力信号線4
00にX1が供給され、シナプス荷重値メモリ401か
らは、シナプス荷重値Wj1が読み出され、この両者の積
が乗算器402によって計算される。
【0017】つづいて第2サイクルでは、同様に、X2
とWj2との積が計算される。各サイクル毎に求められた
積Wjiiは、加算器403によって累和されていく。
【0018】このようにして、次式(3)に示すよう
に、Nサイクルかけて、積和mの値が計算される。
【0019】
【数1】
【0020】このmの値は、シグモイド関数変換器40
4の入力となる。シグモイド関数変換器404は、シグ
モイド関数の入出力特性をもった信号変換器である。こ
うしてシグモイド関数変換器404から出力信号Xj
出力される。
【0021】以上説明したデジタル回路によるニューラ
ルユニットの構成、及び動作は、各種バリエーションが
考えられる。但し、ここでは、これら全てを説明するこ
とはしない。いずれのバリエーションも、基本的には積
和演算器とシグモイド関数変換器から構成されているこ
とは同じである。
【0022】なお、このようなデジタル回路によるニュ
ーラルユニットの構成については、例えば論文(安永
他、「ア セルフラーニング デジタル ニューラル
ネットワーク ユージング ウェーファ スケール エ
ル・エス・アイ」、アイトリプルイー ジャーナル オ
ブ ソリッド・ステート・サーキッツ、1993 Feb. vo
l28, no.2, pp106-114 (M.Yasunaga et.al “A S
elf-Learning Digitalneural Network Using Wafer
-Scale LSI”, IEEE Journal of Solid-State Ci
rcuits, Feb. 1993, vol28, no.2, pp106-114)等
の記載が参照される。
【0023】
【発明が解決しようとする課題】上記したような従来の
デジタル型ニューラルネットワークにおいては、各ニュ
ーラルユニットあたりN回の乗算の繰り返し処理を実行
する必要がある。このため、ネットワークの大規模化に
伴い、ニューラルユニットの結合数が増加するにつれ
て、Nも増加し、処理時間が非常に長くなってしまう、
という問題点を有している。
【0024】したがって、本発明は、上記事情に鑑みて
創案されたものであって、その目的は、積和の繰り返し
数を短縮することによって高速な処理を実現可能とし
た、ニューラルユニット演算方式とその装置を提供する
ことにある。
【0025】
【課題を解決するための手段】前記目的を達成するた
め、本発明のニューラルユニット演算方式は、配列型の
データである入力信号と配列型のデータであるシナプス
荷重値との乗算を所定回数行い、その結果を累和し、そ
の累和値をシグモイド関数変換して出力するというニュ
ーラルユニット演算方式において、非零の値を初期値と
して、正値のみ、もしくは負値のみを累和していき、予
め指定された値に累和値が到達したら累和を終了するこ
とを特徴とする。
【0026】また本発明のニューラルユニット装置は、
ニューラルネットワークの基本構成ユニットであり、デ
ジタル乗算器とデジタル加算器とによって配列型のデー
タである入力信号と、配列型のデータであるシナプス荷
重値の席輪演算を所定回数行い、その結果をシグモイド
関数変換して出力するニューラルユニット装置におい
て、非零の値を初期値として、正値のみ、もしくは負値
のみを累和していく積和演算器と、前記積和演算器の出
力がシグモイド関数の飽和域に入っているか否かを検出
する検出回路と、を備えることを特徴とする。
【0027】また、本発明のニューラルユニット演算装
置は、積和の繰り返し回数をNとしデジタル乗算器の出
力可能な値のうちの最小値をLとしたとき、−LNを初
期値とし、L+(シナプス荷重値)×(入力信号値)を
累和していき、その累和値がシグモイド関数の飽和域に
入ったか否かを検出する検出器とを備えることを特徴と
する。
【0028】さらに本発明のニューラルユニット装置
は、積和の繰り返し回数をNとし、デジタル乗算器の出
力可能な値のうちの最大値をMとしたとき、MNを初期
値とし、−M+(シナプス荷重値)×(入力信号値)を
累和していき、その累和値がシグモイド関数の飽和域に
入ったか否かを検出する検出器とを備えることを特徴と
する。
【0029】そして本発明のニューラルユニット装置
は、シナプス荷重値メモリと、前記シナプス荷重値メモ
リの出力と入力信号の積を計算する乗算器と、前記乗算
器の出力値と定数値と加算器の出力値とを入力とし、桁
上げと中間和とを出力するCSAと、前記CSAの桁上
げ出力と累算の初期値とを入力とするセレクタと、前記
セレクタの出力と前記CSAの中間和とを入力とする加
算器と、前記加算器の出力を入力とするシグモイド関数
変換器と、前記加算器の出力を入力とする飽和判定器と
から構成されることを特徴とする。
【0030】
【発明の実施の形態】本発明の実施の形態及び実施例に
ついて以下に順を追って説明する。まず、本発明の原理
を以下に説明する。
【0031】第jニューラルユニット(図3参照)にお
いて計算される積Wjiiは、一般にその値が次式
(4)の範囲にある。
【0032】 −L≦Wjii≦M (L、M≧0) …(4)
【0033】L、Mの値は、WJiとXiを表現する際の
ビット長によって決定される。例えばWjiとXiが、ど
ちらも、4ビットの数値部(負数は絶対値であらわす)
と1ビットの符号部をもった2進数で表現されていると
しよう。
【0034】すると、 −15≦Wji≦15 −15≦Wi≦15 であるから、その積については、 −225≦Wjii≦225 となる。すなわち、L=225、M=225である。
【0035】このように、L、Mの値は、Wとiiを表
現する際のビット長によって決定される。
【0036】さて本発明においては、ニューラルユニッ
トが実行する積和演算において、その初期値を−LNと
する。ここで、Nは、積和の繰り返し回数である。そし
て従来とは異なり、L+Wjiiを毎回足していく。す
なわち、次式(5)によってmを計算する。
【0037】
【数2】
【0038】ここで、毎回加算される数値(L+Wji
i)は、必ず正または0の数(非負値)であることに注
意する。
【0039】さてシグモイド関数の形状(図2)に注意
すると、これは、入力mの正側および負側で値が飽和し
ている。したがって、初期値を−LNとして、順にL+
jii(i=1、2、…、N)を加算していく過程に
おいて、最終項(第N項)まで至らなくても、途中の第
k項までの和の値(次式(6)参照)が、例えば図2に
おける飽和領域aに入っていたならば、以降の乗算と累
和計算は省略できる。
【0040】
【数3】
【0041】なぜなら第k+1項以降も、正または零の
値しか加算されないので、最終結果は、必ず、飽和領域
aにあることになる。そして飽和領域では、シグモイド
関数の出力値はほとんど変わらないからである。すなわ
ち、積和演算結果が飽和領域に入ったところで計算を中
止しても、最後まで計算を繰り返したときに比べてほと
んど違わない値が得られる。
【0042】よって、上式(3)の計算のために積和を
繰り返し実行している途中で、たとえN項全ての積和を
行わなくても、繰り返しの途中で飽和領域aに入ったな
らば計算を終了することによって、積和の繰り返し回数
を削減することができる。
【0043】もちろん、積和の最終結果がいつも飽和域
にあるとは限らない。その場合は、N回の繰り返し計算
が必要である。しかし、ネットワーク全体で平均すれ
ば、積和計算の繰り返し数は削減されるであろうから、
結果としてNが増大しても、従来構成に比べて、処理時
間が短いニューラルネットワーク装置が実現できる。
【0044】上記の原理に基づく本発明のニューラルユ
ニット演算方式は、その好ましい実施の形態において、
非零の値を初期値として、正値のみ、もしくは負値のみ
を累和していき、累和値が予め指定した値に到達したら
累和を終了する、ことを特徴とする。
【0045】また、本発明のニューラルユニット装置
は、その好ましい実施の形態において、ニューラルネッ
トワークの基本構成ユニットをなす、デジタル乗算器
(図1の102)とデジタル加算器(図1の103)
と、によって、配列型のデータである入力信号と配列型
のデータであるシナプス荷重値の乗算を所定回数行い、
その結果を累和し、その累和値をシグモイド関数変換し
て出力するニューラルユニット装置において、非零の値
を初期値として正値のみ、もしくは負値のみを、累和し
ていき、加算器の出力がシグモイド関数の飽和域に入っ
ているか否かを検出する検出回路(図1の109)と、
を備える。
【0046】より詳細には、本発明のニューラルユニッ
ト装置は、その好ましい実施の形態において、積和の繰
り返し回数をNとし、デジタル乗算器(図1の102)
の出力可能な値のうちの最小値をLとしたとき、−LN
を初期値とし、L+(シナプス荷重値Wji)×(入力信
号値Xi)を累和していき、検出回路(図1の109)
において、この累和値がシグモイド関数の飽和域に入っ
たか否かを検出する。あるいは、積和の繰り返し回数を
Nとし、デジタル乗算器の出力可能な値のうちの最大値
をMとしたとき、MNを初期値とし、−M+(シナプス
荷重値Wji)×(入力信号値Xi)を累和していき、検
出回路(図1の109)において、その累和値がシグモ
イド関数の飽和域に入っているか否かを検出する。
【0047】
【実施例】上記した本発明の実施の形態について更に詳
細に説明すべく、本発明の実施例について図面を参照し
て以下に説明する。
【0048】図1は、本発明の一実施例の構成を示す図
である。本発明の一実施においては、上記従来技術で説
明したのと同様に、図1に示すニューラルユニットを第
jニューラルユニット(図3参照)とし、このニューラ
ルユニットに、第1〜第Nニューラルユニットが、それ
ぞれ信号X1〜XNを供給しているものとする。また第1
〜第Nニューラルユニットとこの第jニューラルユニッ
トとの間のシナプス荷重値をそれぞれWj1、Wj2
j3、…、WjNとする。信号X1〜XN、及びシナプス荷
重値Wj1〜WjNはそれぞれ、適当なビット長の2進数に
よって表現されているものとする。シナプス荷重値メモ
リ101にはWj1〜WjNが格納されている。
【0049】N個のニューラルユニットからの出力信号
1〜XNは、順番に入力信号線100に供給され、ま
た、これに同期して、シナプス荷重値メモリ101か
ら、Wj1、Wj2、…、WjNが順番に読み出される。
【0050】すなわち第1サイクルでは、入力信号線1
00にX1が供給され、シナプス荷重値メモリ101か
らはWj1が読み出され、その両者の積が乗算器102に
よって計算される。
【0051】つづいて第2サイクルでは同様にX2とW
j2の積が計算される。
【0052】さて加算器103は累和を計算するもので
あるが、従来構成では累和計算の初期値は零であったの
に対し、本実施例では、初期値は−LNという値とす
る。ここで、Lは、本発明の原理として既に説明したよ
うに、Wjiiの最小値である。初期値をセットするこ
とは、セレクタ106によって容易に実現できる。すな
わち、累和計算の一番最初だけはセレクタ106が値−
LNを選択して加算器103の入力とし、それ以降は、
順番にWj11、Wj22が累算されていくようにすれば
よい。
【0053】CSA105は、いわゆるキャリー・セー
ブ・アダー(Carrier Save Adeer;
桁上げ保存加算器)であって、3つの数を入力して、こ
れらを加算し2つの数、すなわち、桁上げと中間和を出
力する。図1を参照すると、CSA105は、加算器1
05の出力値、乗算器102の出力値(Wjii)、及
びLを入力として、桁上げ107と中間和108とを出
力する。両者は加算器103によって加算される。こう
して毎サイクルごとにL+Wjiiが加算されていく。
以上のようにすることで、第kサイクルにおける加算器
103の出力は、本発明の原理として既に説明したよう
に(上式(6)参照)、以下の値になる。
【0054】
【数4】
【0055】加算器103の出力は、シグモイド関数変
換器104の入力となる。そして毎サイクルごとに、飽
和判定器109は、加算器103の出力値が飽和領域a
(図2参照)に入っているか否かをチェックする。
【0056】もしも飽和領域aに入ったならば、飽和判
定器109は、計算終了信号140を発信する。計算終
了信号140が発信されると、このニューラルユニット
は、たとえ乗算回数がN回に達していなくても処理を終
了する。
【0057】このように、たとえN回までの計算を行わ
なくても、出力Xjの値は、すでに充分正確な値(すな
わちN回計算を行ったときの値)になっていることは、
本発明の原理として既に説明した通りである。
【0058】なお、以上の説明はすべて、累和の初期値
として、−LNを使用したが、全く同じ原理によって、
累和の初期値を、MNから始めてもよい。
【0059】ここで、Mは、上式(4)で定義されてい
るとおり、Wjiiの最大値である。そして、累和して
いく値は−M+Wjiiとすれば良い。
【0060】すなわち次式(7)によって、mを計算す
る。
【0061】
【数5】
【0062】この場合は、正の最大値MNからはじまっ
て、毎回負または零の数のみが加算されていく。よっ
て、第k項までの途中結果が、図2における飽和領域b
に入ったならば、計算を終了する。こうしてもよいこと
は、第k+1項以降も負または零の値しか加算されない
ので、最終結果は、必ず、飽和領域bの中にあり、途中
で計算を中止しても、最後まで計算を繰り返したときに
比べてほとんど違わない値が得られるためである。
【0063】この方法は、図1に示した実施例におい
て、初期値120をMNとし、CSAの入力130を−
Mとすることで実現できる。
【0064】
【発明の効果】以上説明したように、本発明によれば、
従来のニューラルユニットではN回必要であった積和繰
り返し回数を短縮することができるため、高速なニュー
ラルユニットが実現することができるという効果を奏す
る。
【0065】また本発明によれば、ニューラルユニット
の数を増やして大規模なニューラルネットワークを構成
した場合に、その処理時間の増加を抑えることができ
る、という効果を奏する。
【図面の簡単な説明】
【図1】本発明のニューラルユニットの一実施例の構成
を示す図である。
【図2】シグモイド関数の形状を示す図である。
【図3】ニューラルネットワークの基本構成を示す図で
ある。
【図4】デジタル回路によるニューラルユニットの従来
の構成の一例を示す図である。
【符号の説明】
100、400 入力信号線 101、401 シナプス荷重値メモリ 102、402 乗算器 103、403 加算器 104、404 シグモイド関数変換器 105 CSA 106 セレクタ 107 桁上げ 108 中間和 109 飽和検出器 110、410 出力信号Xj 120 初期値(−LN) 130 L 140 計算終了信号 301 第jニューラルユニット 302 第Aニューラルユニット 303 第Bニューラルユニット 304 第Cニューラルユニット 305 ニューラルユニット 310 信号Xj 311 信号XA 312 信号XB 313 信号XC

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】配列型のデータである入力信号と配列型の
    データであるシナプス荷重値との乗算を所定回数行い、
    その結果を累和し、その累和値をシグモイド関数変換し
    て出力する、ニューラルユニット演算方式において、 非零の値を初期値として、正値のみ、もしくは負値のみ
    を累和していき、累和値が予め指定された値に到達した
    ら累和を終了する、ことを特徴とするニューラルユニッ
    ト演算方式。
  2. 【請求項2】ニューラルネットワークの基本構成ユニッ
    トをなす、デジタル乗算器とデジタル加算器と、によっ
    て、配列型のデータである入力信号と配列型のデータで
    あるシナプス荷重値の乗算を所定回数行い、その結果を
    累和し、その累和値をシグモイド関数変換して出力する
    ニューラルユニット装置において、 非零の値を初期値として、正値のみ、もしくは負値のみ
    を累和していく積和演算器と、 前記積和演算器の出力がシグモイド関数の飽和域に入っ
    ているか否かを検出する検出回路と、 を備えることを特徴とするニューラルユニット装置。
  3. 【請求項3】請求項2記載のニューラルユニット装置に
    おいて、積和の繰り返し回数をNとし、前記デジタル乗
    算器の出力可能な値のうちの最小値をLとしたとき、 −LNを初期値とし、 L+(シナプス荷重値)×(入力信号値)を累和してい
    き、 前記検出回路において、前記累和値がシグモイド関数の
    飽和域に入ったか否かを検出する、ことを特徴とするニ
    ューラルユニット装置。
  4. 【請求項4】請求項2記載のニューラルユニット装置に
    おいて、 積和の繰り返し回数をNとし、 前記デジタル乗算器の出力可能な値のうちの最大値をM
    としたとき、MNを初期値とし、 −M+(シナプス荷重値)×(入力信号値)を累和して
    いき、 前記検出回路において、前記累和値がシグモイド関数の
    飽和域に入っているか否かを検出する、ことを特徴とす
    るニューラルユニット装置。
  5. 【請求項5】シナプス荷重値を格納した記憶部と、 前記記憶部の出力であるシナプス荷重値と入力信号との
    積を計算する乗算器と、 前記乗算器の出力値と定数値と加算器の出力値とを入力
    とし、桁上げと中間和とを出力するCSA(キャリー・
    セーブ・アダー)と、 前記CSAの桁上げ出力と累算の初期値とを入力とする
    セレクタと、を備え、 前記加算器は、前記セレクタの出力と前記CSAの出力
    である中間和とを入力としてこれらを加算し、 更に、 前記加算器の出力を入力とするシグモイド関数変換器
    と、 前記加算器の出力を入力とし、該出力がシグモイド関数
    の飽和域に入っているか否かを判定する飽和判定器と、 を備えたことを特徴とするニューラルユニット装置。
JP35436996A 1996-12-19 1996-12-19 ニューラルユニット演算方式およびその装置 Expired - Fee Related JP3292073B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35436996A JP3292073B2 (ja) 1996-12-19 1996-12-19 ニューラルユニット演算方式およびその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35436996A JP3292073B2 (ja) 1996-12-19 1996-12-19 ニューラルユニット演算方式およびその装置

Publications (2)

Publication Number Publication Date
JPH10187648A true JPH10187648A (ja) 1998-07-21
JP3292073B2 JP3292073B2 (ja) 2002-06-17

Family

ID=18437096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35436996A Expired - Fee Related JP3292073B2 (ja) 1996-12-19 1996-12-19 ニューラルユニット演算方式およびその装置

Country Status (1)

Country Link
JP (1) JP3292073B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108345935A (zh) * 2017-01-25 2018-07-31 株式会社东芝 积和运算器、网络单元及网络装置
WO2020194594A1 (ja) * 2019-03-27 2020-10-01 Tdk株式会社 ニューラルネットワーク演算処理装置及びニューラルネットワーク演算処理方法
JP2023026404A (ja) * 2021-08-13 2023-02-24 台湾積體電路製造股▲ふん▼有限公司 スキップロジックを有するビット単位の積和累積

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11630997B2 (en) 2018-01-23 2023-04-18 Samsung Electronics Co., Ltd. Method and apparatus with bit-serial data processing of a neural network

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04112362A (ja) * 1990-09-03 1992-04-14 Nippon Telegr & Teleph Corp <Ntt> 累積回路
JPH05128284A (ja) * 1991-11-07 1993-05-25 Matsushita Electric Ind Co Ltd ニユーロプロセツサ
JPH07210533A (ja) * 1994-01-19 1995-08-11 Nippon Telegr & Teleph Corp <Ntt> ニューラルネットワーク回路及びこれを用いた演算方法
JPH0830572A (ja) * 1994-07-18 1996-02-02 Nippon Telegr & Teleph Corp <Ntt> ニューラルネットワーク回路及びこれを用いた演算方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04112362A (ja) * 1990-09-03 1992-04-14 Nippon Telegr & Teleph Corp <Ntt> 累積回路
JPH05128284A (ja) * 1991-11-07 1993-05-25 Matsushita Electric Ind Co Ltd ニユーロプロセツサ
JPH07210533A (ja) * 1994-01-19 1995-08-11 Nippon Telegr & Teleph Corp <Ntt> ニューラルネットワーク回路及びこれを用いた演算方法
JPH0830572A (ja) * 1994-07-18 1996-02-02 Nippon Telegr & Teleph Corp <Ntt> ニューラルネットワーク回路及びこれを用いた演算方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108345935A (zh) * 2017-01-25 2018-07-31 株式会社东芝 积和运算器、网络单元及网络装置
WO2020194594A1 (ja) * 2019-03-27 2020-10-01 Tdk株式会社 ニューラルネットワーク演算処理装置及びニューラルネットワーク演算処理方法
US11681498B2 (en) 2019-03-27 2023-06-20 Tdk Corporation Neural network arithmetic processing device and neural network arithmetic processing method
JP2023026404A (ja) * 2021-08-13 2023-02-24 台湾積體電路製造股▲ふん▼有限公司 スキップロジックを有するビット単位の積和累積

Also Published As

Publication number Publication date
JP3292073B2 (ja) 2002-06-17

Similar Documents

Publication Publication Date Title
KR920007505B1 (ko) 신경회로망을 이용한 곱셈기
EP0629969A1 (en) Artificial neuron and method of using same
JP7379821B2 (ja) 推論処理装置および推論処理方法
KR20180083030A (ko) 이진 파라미터를 갖는 컨볼루션 신경망 시스템 및 그것의 동작 방법
US11042360B1 (en) Multiplier circuitry for multiplying operands of multiple data types
CN110109646A (zh) 数据处理方法、装置和乘加器及存储介质
US11663464B2 (en) Deep neural network with low-precision dynamic fixed-point in reconfigurable hardware design
Jin et al. Sparse ternary connect: Convolutional neural networks using ternarized weights with enhanced sparsity
JP3292073B2 (ja) ニューラルユニット演算方式およびその装置
Shu et al. High energy efficiency FPGA-based accelerator for convolutional neural networks using weight combination
CN111694544A (zh) 多位复用乘加运算装置、神经网络运算系统以及电子设备
Ando et al. Dither nn: An accurate neural network with dithering for low bit-precision hardware
US4142242A (en) Multiplier accumulator
US20200104131A1 (en) Method for Operating a Digital Computer to Reduce the Computational Complexity Associated with Dot Products between Large Vectors
CN114548387A (zh) 神经网络处理器执行乘法运算的方法和神经网络处理器
KR102669205B1 (ko) 뉴로모픽 연산 장치 및 그것의 동작 방법
CN110705196B (zh) 一种基于随机计算的无误差加法器
Al-Yateem et al. Digital Filter based Adder Module Realization High-Speed Switching Functions
Li et al. Stability analysis between the hybrid stochastic delay differential equations with jumps and the Euler-Maruyama method
CN111492369A (zh) 人工神经网络中移位权重的残差量化
US11204740B2 (en) Neuromorphic arithmetic device and operating method thereof
CN116402106B (zh) 神经网络加速方法、神经网络加速器、芯片及电子设备
CN113988279A (zh) 一种支持负值激励的存算阵列输出电流读出方法及系统
US20210064340A1 (en) Arithmetic circuit
RU2256226C2 (ru) Нейронная сеть для расширения кортежа числовой системы вычетов

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020226

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080329

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090329

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090329

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100329

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110329

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110329

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120329

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120329

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130329

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130329

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140329

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees