[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN108154226B - 一种使用模拟计算的神经网络芯片 - Google Patents

一种使用模拟计算的神经网络芯片 Download PDF

Info

Publication number
CN108154226B
CN108154226B CN201611111667.4A CN201611111667A CN108154226B CN 108154226 B CN108154226 B CN 108154226B CN 201611111667 A CN201611111667 A CN 201611111667A CN 108154226 B CN108154226 B CN 108154226B
Authority
CN
China
Prior art keywords
neural network
column
memory
voltage value
mos transistor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611111667.4A
Other languages
English (en)
Other versions
CN108154226A (zh
Inventor
戴瑾
郭一民
陈峻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Ciyu Information Technologies Co Ltd
Original Assignee
Shanghai Ciyu Information Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Ciyu Information Technologies Co Ltd filed Critical Shanghai Ciyu Information Technologies Co Ltd
Priority to CN201611111667.4A priority Critical patent/CN108154226B/zh
Publication of CN108154226A publication Critical patent/CN108154226A/zh
Application granted granted Critical
Publication of CN108154226B publication Critical patent/CN108154226B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/02Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using magnetic elements
    • G11C11/16Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using magnetic elements using elements in which the storage effect is based on magnetic spin effect
    • G11C11/165Auxiliary circuits
    • G11C11/1653Address circuits or decoders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Computer Hardware Design (AREA)
  • Semiconductor Memories (AREA)
  • Mram Or Spin Memory Techniques (AREA)

Abstract

一种使用模拟计算的神经网络芯片包括:由多个MTJ存储单元组成的存储阵列,每一个存储单元由一个磁隧道结和一个选通MOS晶体管串联,通过行地址解码器和列地址解码器选择存储阵列中的存储单元;存储阵列的每一列配置一个置于高阻态的参考单元;存储阵列的每一列配置两个MOS晶体管,其中两个MOS晶体管的栅极均连接至神经元的输入信号,两个MOS晶体管中的一个MOS晶体管的源极连接至相应列的源极线信号,两个MOS晶体管中的另一个MOS晶体管的源极连接至相应列的参考单元的源极线;所述一个MOS晶体管的漏极连接第一电压值,所述另一个MOS晶体管的漏极连接第二电压值,第一电压值减去MTJ存储单元的基准电位的差值等于MTJ存储单元的基准电位减去第二电压值的差值。

Description

一种使用模拟计算的神经网络芯片
技术领域
本发明涉及半导体芯片领域以及人工智能领域,尤其涉及一种使用模拟计算的神经网络芯片。
背景技术
人脑是一个由大量神经元复杂连接的网络。每个神经元通过大量的树突连接大量的其他神经元,接收信息,每一个连接点叫突触(Synapse)。在外部刺激积累到一定程度后,产生一个刺激信号,通过轴突传送出去。轴突有大量的末梢,通过突触,连接到大量其他神经元的树突。就是这样一个由简单功能的神经元组成的网络,实现了人类所有的智能活动。人的记忆和智能,普遍被认为存储在每一个突触的不同的耦合强度里。
神经元的反应频率不超过100Hz,现代计算机的CPU比人脑快1000万倍,但处理很多复杂问题的能力不如人脑。这促使了计算机行业开始模仿人脑。最早的对人脑的模仿,是在软件层面的。
神经网络(Neural Networks)是计算机学习中常用的算法。神经网络算法中的神经元就是一个函数,它有很多个输入,每一个输入都对应着一个权重。一般的算法是每一个输入乘以权重在相加。它输出0或1(由一个阈值决定),或者一个介于0和1之间的值。一个典型的神经网络,是把大量细胞阵列(Neuron)的输出输入连接在一起的网络,通常组织成多级架构。它内部有很多个参数(权重、阈值),学习训练的过程就是调整这些参数。这是一个需要海量计算的函数优化。这类算法,已经取得了丰富的成果,得到广泛应用。
神经网络算法中的网络都是分成很多层的。最早的网络,上一层的每一个神经元和下一层的每一个神经元连接,成为全连通的网络。全连通网络的一个问题,在于图像处理这类应用中,图像的像素很多,每一层需要的权重数量正比于像素平方,由此该方案占用内存太大,计算量更是无法应付。
在卷积神经网络中,前面的很多层不再是全连通的。每一层的神经元作为一个图像被排成阵列。下一层的每一个神经元只和这一层的一个小区域连通。小区域常常是一个边长为k的方形区域,k称为卷积网络的内核尺寸(Kernel Size),如图1所示。
卷积神经网络(Convolutional Neural Network,CNN)因为对这个小区域的各个点加权重的求和类似卷积而得名。这一组权重在各个同一层细胞中的各个点都是一样的(既平移不变性),从而跟全连通网络相比大幅度减少权重数量,使得高分辨率的图像处理成为可能。一个卷积神经网络包括多个这样连通的层,以及其他种类的层。
随着深度学习应用的普及,人们开始开发专用的神经网络芯片。用专用电路实现神经元计算的加法和乘法,比用CPU或者GPU高效得多。
磁阻式随机访问存储器(Magnetic Random Access Memory,MRAM)是一种新的内存和存储技术,可以像SRAM/DRAM一样快速随机读写,并且比DRAM快;还可以像闪存一样在断电后永久保留数据,并且不像NAND它可以不限次地擦写。
MRAM的经济性相当好,单位容量占用的硅片面积比SRAM(通常作为CPU的缓存)有很大的优势,有望接近DRAM的水平。它的性能也相当好,读写时延接近最好的SRAM,功耗则在各种内存和存储技术最好。而且MRAM不像DRAM以及闪存那样与标准CMOS半导体工艺不兼容。MRAM可以和逻辑电路集成到一个芯片中。有了MRAM技术,就可以把内存、存储、计算三个功能集成到一个芯片上来。新的计算架构就有可能。
MRAM的原理是基于一个叫做MTJ(磁性隧道结)的结构。它是由两层铁磁性材料(记忆层10和参考层30)夹着一层非常薄的非铁磁绝缘材料层(隧道势垒层20)组成的,如图1所示。下面的一层铁磁材料是具有固定磁化方向的参考层30,上面的铁磁材料是可变磁化方向的记忆层10,它的磁化方向可以和固定磁化层相平行或反平行。由于量子物理的效应,电流可以穿过中间的隧道势垒层20,但是MTJ的电阻和可变磁化层的磁化方向有关。图2示出了低电阻的情况,图3示出了高电阻的情况。
读取MRAM的过程就是对MTJ的电阻进行测量。使用比较新的STT-MRAM技术,写MRAM也比较简单:使用比读更强的电流穿过MTJ进行写操作。一个自下而上的电流把可变磁化层置成与固定层平行的方向,自上而下的电路把它置成反平行的方向。
如图4所示,每个MRAM的记忆单元由一个MTJ和一个MOS管组成。每一个存储单元需要连接三根线:MOS管的栅极连接到芯片的字线负责接通或切断这个单元;MOS管的一极连在源极线上;MOS管的另一极和MTJ的一极相连,MTJ的另一极连在位线上。
一个MRAM芯片由一个或多个MRAM存储单元的阵列组成,每个阵列有若干外部电路,如图5所示。行地址解码器:把收到的地址变成字线的选择;列地址解码器:把收到的地址变成位线的选择;读写控制器:控制位线上的读(测量)写(加电流)操作;输入输出控制:和外部交换数据。
目前的神经网络芯片大都使用数字电路,内部嵌入SRAM或MRAM存储权重。但是,这种方案会消耗大量电能,并且效率不高。
因此,本领域的技术人员致力于开发一种更省电更高效的技术方案。
发明内容
有鉴于现有技术的上述缺陷,本发明所要解决的技术问题是提供一种使用模拟计算的神经网络芯片,其中使用MTJ的电阻直接作为权重,更省电更高效。
为实现上述目的,本发明提供了一种使用模拟计算的神经网络芯片,包括:由多个MTJ存储单元组成的存储阵列,每一个存储单元由一个磁隧道结MTJ和一个选通MOS晶体管串联,其中通过行地址解码器和列地址解码器选择存储阵列中的存储单元;存储阵列的每一列配置一个置于高阻态的参考单元;存储阵列的每一列配置两个MOS晶体管,其中两个MOS晶体管的栅极均连接至神经元的输入信号,两个MOS晶体管中的一个MOS晶体管的源极连接至相应列的源极线信号,两个MOS晶体管中的另一个MOS晶体管的源极连接至相应列的参考单元的源极线;所述一个MOS晶体管的漏极连接第一电压值,所述另一个MOS晶体管的漏极连接第二电压值,其中第一电压值减去MTJ存储单元的基准电位的差值等于MTJ存储单元的基准电位减去第二电压值的差值。
优选地,在所述的使用模拟计算的神经网络芯片中,存储阵列的每一列的位线和该列的参考单元的位线均连接至电荷积分器。
优选地,在所述的使用模拟计算的神经网络芯片中,电荷积分器的基准电位与MTJ存储单元的基准电位相等。
优选地,在所述的使用模拟计算的神经网络芯片中,神经元的输入信号是脉冲宽度调制信号。
优选地,在所述的使用模拟计算的神经网络芯片中,所述存储阵列按照MRAM阵列的写入操作的方式执行写入操作。
优选地,在所述的使用模拟计算的神经网络芯片中,多于一个比特的权重,通过逐级加倍所述第一电压与基准电位的差,以及所述第二电压与基准电位的电压差的方法产生多比特的权重。
优选地,在所述的使用模拟计算的神经网络芯片中,神经元的多个输入所对应的权重的字存储在同一行里,多个乘法和加法在同一周期里完成操作;而且完成多个输入的收集后,电荷积分器的信号被脉冲发生器转换成脉宽调制信号发送到下一层神经网络。
本发明使用模拟计算,可以在一个周期内完成多次乘法和加法,速度很快。本发明使用模拟计算,如果精度要求不很高,使用的电压在几十mV甚至更小,非常省电。本发明把原来MRAM的读出放大器改装成了神经元计算器,非常经济。
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
附图说明
结合附图,并通过参考下面的详细描述,将会更容易地对本发明有更完整的理解并且更容易地理解其伴随的优点和特征,其中:
图1是卷积神经网络的架构。
图2是MRAM的磁性隧道结的结构低电阻的情况的示意图。
图3是MRAM的磁性隧道结的结构高电阻的情况的示意图。
图4是MRAM存储单元的架构示意图。
图5是MRAM阵列的架构示意图。
图6是根据本发明优选实施例的使用模拟计算的神经网络芯片的总体结构示意图。
图7是根据本发明优选实施例的使用模拟计算的神经网络芯片的多个输入的情况的示意图。
需要说明的是,附图用于说明本发明,而非限制本发明。注意,表示结构的附图可能并非按比例绘制。并且,附图中,相同或者类似的元件标有相同或者类似的标号。
具体实施方式
在本发明中提出一种与基于细胞阵列的神经网络架构的架构。由众多兼具存储功能的神经元计算器,以及密集网络连接组成。这种新架构将在大型计算、大数据处理、人工智能等领域中得到广泛的应用。本发明采用了类似MRAM的结构,但去除了读出放大器,直接使用MTJ的电阻进行计算,使得神经元和权重存储更紧密地结合到一起,极大地提高了速度,降低了成本。
图6是根据本发明优选实施例的使用模拟计算的神经网络芯片的总体结构示意图。
如图6所示,根据本发明优选实施例的使用模拟计算的神经网络芯片包括:由多个MTJ存储单元40组成的存储阵列,每一个存储单元由一个磁隧道结MTJ和一个选通MOS晶体管串联,其中通过行地址解码器和列地址解码器(未示出)选择存储阵列中的存储单元40。
所述存储阵列按照MRAM阵列的写入操作的方式执行写入操作,只不过其中不包括读出放大器。
例如,如图6所示,行地址解码器发出输出信号:第一源极线信号SL1、第一位线信号BL1、第二源极线信号SL2、第二位线信号BL2、第三源极线信号SL3、第三位线信号BL3、第四源极线信号SL4、第四位线信号BL4、第五源极线信号SL5、第五位线信号BL5。
例如,如图6所示,列地址解码器发出输出信号:第一字线信号WL1、第二字线信号WL2、第三字线信号WL3、第四字线信号WL4、第五字线信号WL5。
存储阵列的每一列配置一个置于高阻态的参考单元50。
存储阵列的每一列配置两个MOS晶体管,其中两个MOS晶体管的栅极均连接至神经元的输入信号50(输入脉冲),两个MOS晶体管中的一个MOS晶体管的源极连接至相应列的源极线信号,两个MOS晶体管中的另一个MOS晶体管的源极连接至相应列的参考单元的源极线;所述一个MOS晶体管的漏极连接第一电压值,所述另一个MOS晶体管的漏极连接第二电压值,其中第一电压值减去MTJ存储单元的基准电位Vb的差值等于MTJ存储单元的基准电位Vb减去第二电压值的差值。
需要说明的是,附图示出了NMOS晶体管的示例,但是PMOS晶体管也是可行的;示出NMOS晶体管的示例仅仅是因为NMOS晶体管相对于PMOS晶体管是优选的。
存储阵列的每一列的位线和该列的参考单元的位线均连接至电荷积分器70。其中,电荷积分器的基准电位与MTJ存储单元的基准电位相等。
即,该列存储单元的源极线和参考单元都通过开关管连接到供电系统,存储单元和参考单元的供电分别比基准电位Vb高、低相同的电压。
例如,如图6所示,如果多于一个比特的权重,通过逐级加倍电压的方法产生多比特的权重。具体地,例如,第二个比特存储单元和参考单元的供电电位为Vb+2Vr和Vb-2Vr,第三个比特存储单元和参考单元的供电电位为Vb+4Vr和Vb-4Vr,第四个比特存储单元和参考单元的供电电位为Vb+8Vr和Vb-8Vr;以此类推;但是,最后一个比特存储单元和参考单元的供电电位为Vb+Vr和Vb-Vr。多比特的权重作为一个字存储在阵列的同一行里。
神经元的输入信号按脉冲宽度调制,电脉冲到来时连通存储单元、参考单元和供电系统。二者的位线都连接到一个使用同样基准电位Vb的电荷积分器。这样脉冲产生的电荷就等于脉冲宽度乘以存储单元和参考单元的电流差,完成了权重和输入的乘法。当存储单元处于高阻态时,电荷积分约等于0。
对于多个输入,如图7所示,把多个输入对应的权重的字存储在同一行里。这样,多个乘法和加法就能在同一周期里完成。完成多个输入的收集后,电荷积分器70的信号被脉冲发生器80转换成脉宽调制信号发送到下一层神经网络。
本发明使用模拟计算,可以在一个周期内完成多次乘法和加法,速度很快。本发明使用模拟计算,如果精度要求不很高,使用的电压在几十mV甚至更小,非常省电。本发明把原来MRAM的读出放大器改装成了神经元计算器,非常经济。
上述说明示出并描述了本发明的优选实施例,如前所述,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述发明构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (6)

1.一种使用模拟计算的神经网络芯片,其特征在于包括:由多个MTJ存储单元组成的存储阵列,每一个存储单元由一个磁隧道结MTJ和一个选通MOS晶体管串联,其中通过行地址解码器和列地址解码器选择存储阵列中的存储单元;存储阵列的每一列配置一个置于高阻态的参考单元;存储阵列的每一列配置两个MOS晶体管,其中两个MOS晶体管的栅极均连接至神经元的输入信号,两个MOS晶体管中的一个MOS晶体管的源极连接至相应列的源极线信号,两个MOS晶体管中的另一个MOS晶体管的源极连接至相应列的参考单元的源极线;所述列的位线和参考单元的位线连接至电荷积分器;所述一个MOS晶体管的漏极连接第一电压值,所述另一个MOS晶体管的漏极连接第二电压值,其中第一电压值减去MTJ存储单元的基准电位的差值等于MTJ存储单元的基准电位减去第二电压值的差值;或者,列存储单元的源极线和参考单元的源极线分别接到第一电压值和第二电压值,两个MOS管的源极分别连接至所述列的位线和参考单元的位线,漏极连接到电荷积分器。
2.如权利要求1所述的使用模拟计算的神经网络芯片,其特征在于,电荷积分器的基准电位与MTJ存储单元的基准电位相等。
3.如权利要求1至2之一所述的使用模拟计算的神经网络芯片,其特征在于,神经元的输入信号是脉冲宽度调制信号。
4.如权利要求1至2之一所述的使用模拟计算的神经网络芯片,其特征在于,所述存储阵列按照MRAM阵列的写入操作的方式执行写入操作。
5.如权利要求1至2之一所述的使用模拟计算的神经网络芯片,其特征在于,多于一个比特的权重,通过逐级加倍所述第一电压与基准电位的差,以及所述第二电压与基准电位的电压差的方法产生多比特的权重。
6.如权利要求1至2之一所述的使用模拟计算的神经网络芯片,其特征在于,神经元的多个输入所对应的权重的字存储在同一行里,多个乘法和加法在同一周期里完成操作;而且完成多个输入的收集后,电荷积分器的信号被脉冲发生器转换成脉宽调制信号发送到下一层神经网络。
CN201611111667.4A 2016-12-06 2016-12-06 一种使用模拟计算的神经网络芯片 Active CN108154226B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611111667.4A CN108154226B (zh) 2016-12-06 2016-12-06 一种使用模拟计算的神经网络芯片

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611111667.4A CN108154226B (zh) 2016-12-06 2016-12-06 一种使用模拟计算的神经网络芯片

Publications (2)

Publication Number Publication Date
CN108154226A CN108154226A (zh) 2018-06-12
CN108154226B true CN108154226B (zh) 2021-09-03

Family

ID=62467850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611111667.4A Active CN108154226B (zh) 2016-12-06 2016-12-06 一种使用模拟计算的神经网络芯片

Country Status (1)

Country Link
CN (1) CN108154226B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12124945B2 (en) 2019-01-28 2024-10-22 Institute of Microelectronics, Chinese Academy of Sciences Neural network operation device
CN112396171B (zh) * 2019-08-15 2024-10-25 杭州智芯科微电子科技有限公司 人工智能计算芯片、信号处理系统
CN110717580B (zh) * 2019-09-27 2022-03-11 东南大学 面向二值化神经网络的基于电压调制的计算阵列

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010142762A1 (fr) * 2009-06-11 2010-12-16 Thales Dispositif ferroélectrique à résistance ajustable
CN102110464A (zh) * 2009-12-26 2011-06-29 上海芯豪微电子有限公司 宽带读写存储器装置
CN102411990A (zh) * 2011-11-11 2012-04-11 上海新储集成电路有限公司 一种位级双口非易失性静态随机存取存储器及其实现方法
CN102543172A (zh) * 2012-02-27 2012-07-04 北京大学 一种适用于神经元电路的阻变忆阻器的控制方法
CN102640281A (zh) * 2010-01-29 2012-08-15 松下电器产业株式会社 半导体存储装置
CN102668085A (zh) * 2009-12-11 2012-09-12 国际商业机器公司 掺杂氮的氧化镁内的电阻开关
CN102884580A (zh) * 2010-05-06 2013-01-16 高通股份有限公司 在双稳态元件的群集状态中对多电平存储器进行概率性编程的方法和设备
CN104347520A (zh) * 2013-07-29 2015-02-11 三星电子株式会社 非易失性存储器晶体管和包括该存储器晶体管的设备
CN105160401A (zh) * 2015-08-27 2015-12-16 电子科技大学 一种基于忆阻器阵列的wta神经网络及其应用
CN105740946A (zh) * 2015-07-29 2016-07-06 上海磁宇信息科技有限公司 一种应用细胞阵列计算系统实现神经网络计算的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9111222B2 (en) * 2011-11-09 2015-08-18 Qualcomm Incorporated Method and apparatus for switching the binary state of a location in memory in a probabilistic manner to store synaptic weights of a neural network

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010142762A1 (fr) * 2009-06-11 2010-12-16 Thales Dispositif ferroélectrique à résistance ajustable
CN102668085A (zh) * 2009-12-11 2012-09-12 国际商业机器公司 掺杂氮的氧化镁内的电阻开关
CN102110464A (zh) * 2009-12-26 2011-06-29 上海芯豪微电子有限公司 宽带读写存储器装置
CN102640281A (zh) * 2010-01-29 2012-08-15 松下电器产业株式会社 半导体存储装置
CN102884580A (zh) * 2010-05-06 2013-01-16 高通股份有限公司 在双稳态元件的群集状态中对多电平存储器进行概率性编程的方法和设备
CN102411990A (zh) * 2011-11-11 2012-04-11 上海新储集成电路有限公司 一种位级双口非易失性静态随机存取存储器及其实现方法
CN102543172A (zh) * 2012-02-27 2012-07-04 北京大学 一种适用于神经元电路的阻变忆阻器的控制方法
CN104347520A (zh) * 2013-07-29 2015-02-11 三星电子株式会社 非易失性存储器晶体管和包括该存储器晶体管的设备
CN105740946A (zh) * 2015-07-29 2016-07-06 上海磁宇信息科技有限公司 一种应用细胞阵列计算系统实现神经网络计算的方法
CN105160401A (zh) * 2015-08-27 2015-12-16 电子科技大学 一种基于忆阻器阵列的wta神经网络及其应用

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Spin-Transfer Torque Magnetic Memory as a Stochastic Memristive Synapse for Neuromorphic Systems;Adrien F. Vincent等;《IEEE Transactions on Biomedical Circuits and Systems ( Volume: 9, Issue: 2, April 2015)》;20150414;第166-174页 *
几种新型非易失存储器的原理及发展趋势;蒋明曦,刘春岩;《微处理器》;20140430;第5-7页 *

Also Published As

Publication number Publication date
CN108154226A (zh) 2018-06-12

Similar Documents

Publication Publication Date Title
Yu et al. Compute-in-memory chips for deep learning: Recent trends and prospects
US11568223B2 (en) Neural network circuit
US11361216B2 (en) Neural network circuits having non-volatile synapse arrays
Luo et al. Accelerating deep neural network in-situ training with non-volatile and volatile memory based hybrid precision synapses
US20170330070A1 (en) Spin orbit torque based electronic neuron
Chang et al. PXNOR-BNN: In/with spin-orbit torque MRAM preset-XNOR operation-based binary neural networks
CN110875076A (zh) 具有自旋轨道转矩设备的内容可寻址存储器
TWI699711B (zh) 記憶體裝置及其製造方法
CN113688984B (zh) 一种基于磁性随机存储器的存内二值化神经网络计算电路
CN107368888B (zh) 类脑计算系统及其突触
CN108154225B (zh) 一种使用模拟计算的神经网络芯片
Zhang et al. The application of non-volatile look-up-table operations based on multilevel-cell of resistance switching random access memory
Wang et al. Reconfigurable bit-serial operation using toggle SOT-MRAM for high-performance computing in memory architecture
CN108154226B (zh) 一种使用模拟计算的神经网络芯片
CN108154227B (zh) 一种使用模拟计算的神经网络芯片
He et al. Accelerating low bit-width deep convolution neural network in MRAM
Vatajelu et al. Fully-connected single-layer stt-mtj-based spiking neural network under process variability
Verma et al. Neuromorphic Accelerator for Spiking Neural Network Using SOT-MRAM Crossbar Array
WO2024021365A1 (zh) 存储器单元、阵列电路结构及数据处理方法
Verma et al. Advances in neuromorphic spin-based spiking neural networks: a review
Wei et al. Neuromorphic computing systems with emerging devices
Lee et al. Novel, parallel and differential synaptic architecture based on NAND flash memory for high-density and highly-reliable binary neural networks
Chen et al. A Low-Cost Training Method of ReRAM Inference Accelerator Chips for Binarized Neural Networks to Recover Accuracy Degradation due to Statistical Variabilities
Verma et al. Comparative analysis of spin based memories for neuromorphic computing
US12141686B2 (en) Spin orbit torque based electronic neuron

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant