CN114119344A - 数据处理方法及数据处理装置 - Google Patents
数据处理方法及数据处理装置 Download PDFInfo
- Publication number
- CN114119344A CN114119344A CN202111454533.3A CN202111454533A CN114119344A CN 114119344 A CN114119344 A CN 114119344A CN 202111454533 A CN202111454533 A CN 202111454533A CN 114119344 A CN114119344 A CN 114119344A
- Authority
- CN
- China
- Prior art keywords
- data
- matrix
- data stream
- weight
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 20
- 238000003672 processing method Methods 0.000 title abstract description 25
- 239000011159 matrix material Substances 0.000 claims abstract description 132
- 238000004364 calculation method Methods 0.000 claims abstract description 111
- 238000000034 method Methods 0.000 claims abstract description 28
- 239000013598 vector Substances 0.000 claims description 34
- 230000004913 activation Effects 0.000 claims description 26
- 238000010276 construction Methods 0.000 claims description 15
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 239000000872 buffer Substances 0.000 description 25
- 238000004590 computer program Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 230000015654 memory Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 8
- 238000009825 accumulation Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Neurology (AREA)
- Image Processing (AREA)
Abstract
本公开提供了一种数据处理方法及数据处理装置,可以应用于人工智能技术领域。该方法包括:从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵;将数据矩阵和权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个第二缓存具有对应的计算单元;对于每个第二缓存,在第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将已写入数据流构建第一数据序列和第二数据序列;基于预设步长,将第一数据序列和第二数据序列分别从计算单元的两侧输入,其中,计算单元包括串联的多个计算节点;以及将多个计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。
Description
技术领域
本公开涉及人工智能技术领域,具体涉及神经网络加速计算领域,更具体地,涉及一种数据处理方法及数据处理装置。
背景技术
目前边缘设备如自动驾驶等领域的计算需要在资源和功耗低的情况下满足计算精度高和计算延迟小的特点,而相关技术的计算能力无法满足如双目深度估计等实际应用。制约计算能力的主要原因是输入数据量大,无法满足计算所需输入的数据量,因而在计算过程中需要完成大量数据传输,增加了数据通信开销。
现阶段,输入数据速率与计算能力不匹配的问题是专用加速器面临的挑战,而对于双目深度估计等应用,计算实时性要求高,尤其是双目视觉算法中,要求同时计算左图与右图两个数据流,且要求两个数据流同时输出。相关技术中的边缘端设备受功耗和设备面积的制约,利用极低的硬件成本同时计算两个数据流具有十分重要的意义。
发明内容
有鉴于此,本公开提供了一种数据处理方法及数据处理装置。
本公开的一个方面提供了一种数据处理方法,包括:
从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵;
将上述数据矩阵和上述权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个上述第二缓存具有对应的计算单元;
对于每个上述第二缓存,在上述第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将上述已写入数据流构建第一数据序列和第二数据序列;
基于上述预设步长,将上述第一数据序列和上述第二数据序列分别从上述计算单元的两侧输入,其中,上述计算单元包括串联的多个计算节点;以及
将多个上述计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。
根据本公开的实施例,其中,上述数据矩阵的维度为M,上述权重矩阵的维度为N,其中,上述M为正整数,上述N为小于M的正整数;
其中,将上述数据矩阵和上述权重矩阵按行分割为多个数据流,包括:
对上述数据矩阵和上述权重矩阵按行进行分割,得到M个数据向量和N个权重向量;以及
将M个上述数据向量中的第(kN+i)个上述数据向量和N个上述权重向量中的第i个上述权重向量构建为第i个上述数据流,其中,上述k为0或小于M/N的正整数,上述i为小于或等于N的正整数。
根据本公开的实施例,上述数据处理方法还包括:
在上述已写入数据流中包括上述数据向量的N个激活值和上述权重向量的N个权重值的情况下,确定上述已写入数据流满足上述计算窗口需求。
根据本公开的实施例,其中,上述基于预设步长,将上述已写入数据流构建第一数据序列和第二数据序列,包括:
以上述预设步长为间隔,基于上述已写入数据流中的N个激活值来构建第一数据序列;以及
以上述预设步长为间隔,基于上述已写入数据流中的N个权重值来构建第二数据序列。
根据本公开的实施例,其中,
上述数据矩阵包括归属于第一待处理图像的第一数据矩阵和归属于第二待处理图像的第二数据矩阵;
上述权重矩阵包括归属于第一目标卷积层的第一权重矩阵和归属于第二目标卷积层的第二权重矩阵;
其中,上述第一数据矩阵的维度和第二数据矩阵的维度相等,上述第一权重矩阵的维度和第二权重矩阵的维度相等。
根据本公开的实施例,其中,上述将上述数据矩阵和上述权重矩阵按行分割为多个数据流,包括:
将上述第一数据矩阵和上述第一权重矩阵按行分割为多个第一数据流;
将上述第二数据矩阵和上述第二权重矩阵按行分割为多个第二数据流。
根据本公开的实施例,其中,上述已写入数据流包括上述第一数据流中的多个激活值和多个权重值、上述第二数据流中的多个激活值和多个权重值;
其中,上述基于预设步长,将上述已写入数据流构建第一数据序列和第二数据序列,包括:
在上述预设步长为1的情况下,将上述第一数据流中的多个激活值和上述第二数据流中的多个激活值交替构建得到上述第一数据序列;以及
将上述第一数据流中的多个权重值和上述第二数据流中的多个权重值交替构建得到上述第二数据序列。
根据本公开的实施例,其中,上述基于预设步长,将上述已写入数据流构建第一数据序列和第二数据序列,包括:
在上述预设步长为n的情况下,将上述第一数据流中的多个激活值和上述第二数据流中的多个激活值以(n-1)位为间隔,交替构建得到上述第一数据序列,其中,上述n为大于1的正整数;以及
将上述第一数据流中的多个权重值和上述第二数据流中的多个权重值以(n-1)位为间隔,交替构建得到上述第二数据序列。
根据本公开的实施例,上述数据处理方法还包括:
将上述当前计算窗口的输出值作为一个元素,遍历所有计算窗口的输出值,得到用于表示上述目标卷积层对上述数据矩阵的运算结果的输出矩阵。
本公开的另一个方面提供了一种数据处理装置,包括:
获取模块,用于从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵;
分割模块,用于将上述数据矩阵和上述权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个上述第二缓存具有对应的计算单元;
数据序列构建模块,用于对于每个上述第二缓存,在上述第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将上述已写入数据流构建第一数据序列和第二数据序列;
计算模块,用于基于上述预设步长,将上述第一数据序列和上述第二数据序列分别从上述计算单元的两侧输入,其中,上述计算单元包括串联的多个计算节点;以及
输出模块,用于将多个上述计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。
基于以上技术方案,本公开的数据处理方法及数据处理装置相对于现有技术至少具有以下优势之一:
本公开的提供的数据处理方法可以对双目相机采集到的左右两张视差图进行运算,通过对左右两张视差图的卷积计算,可以解决在边缘设备如FPGA等中部署双目视觉中的立体匹配算法的问题、降低计算所需硬件资源、降低硬件执行中对双数据流的等待、提高算法部署的实用性、实时性。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了可以应用本公开的数据处理方法的示例性系统架构;
图2示意性示出了根据本公开实施例的数据处理方法的流程图
图3示意性示出了根据本公开实施例的计算节点的示意图;
图4示意性示出了根据本公开实施例的计算单元的示意图;
图5示意性示出了根据本公开实施例的计算阵列的示意图;
图6示意性示出了根据本公开实施例的计算单元的结构;
图7示意性示出了根据本公开实施例的脉动阵列计算双数据流任务的各个时间节点的计算结果示意图;
图8示意性示出了根据本公开实施例的数据处理装置的框图;
图9示意性示出了根据本公开实施例的适于实现数据处理方法的电子设备的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
在实现本公开的发明构思过程中,发明人发现利用硬件加速乘累加操作是深度学习加速器的关键加速方向,如加速单个CNN(卷积神经网络)层对于提升计算速度可起决定作用。传统脉动阵列可以应用于CNN的窗口计算,加速卷积神经网络的计算过程,传统脉动阵列可以将权重固定在脉动阵列中,将参数进行流动,最终利用加法树完成一次输出,此种方案未考虑权重的流动,灵活性较低。
具体地,本公开的实施例提供了一种数据处理方法及数据处理装置。该方法包括:从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵;将数据矩阵和权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个第二缓存具有对应的计算单元;对于每个第二缓存,在第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将已写入数据流构建第一数据序列和第二数据序列;基于预设步长,将第一数据序列和第二数据序列分别从计算单元的两侧输入,其中,计算单元包括串联的多个计算节点;以及将多个计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。
根据本公开的实施例,该数据处理方法可以从软件层面压缩模型规模,降低模型的存储空间和数据传输数量后,也可以利用本公开计算压缩后的数据。综上,本公开的数据处理方法可以在硬件消耗极低的情况下可以同时计算2个数据流数据,并且输出结果在同一阵列交替输出,保证了2个数据流的时序同步。
在本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
在本公开的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
图1示意性示出了可以应用本公开的数据处理方法的示例性系统架构。
如图1所示,待处理图像的数据矩阵和目标卷积层的权重矩阵可以存储于第一缓存110中,将数据矩阵和权重矩阵按行分割为多个数据流,并分别写入第二缓存121、122、123、124、125、126中,其中,每个第二缓存具有对应的计算单元;对于每个第二缓存,在第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将已写入数据流构建第一数据序列和第二数据序列;基于预设步长,将第一数据序列和第二数据序列分别从计算单元的两侧输入,其中,计算单元包括串联的多个计算节点;以及将多个计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。第一计算存储模块131可以存储第二缓存121、122、123计算所需的数据,第二计算存储模块可以存储124、125、126计算所需的数据,计算窗口的输出值可以传输至输出值存储模块140。
图2示意性示出了根据本公开实施例的数据处理方法的流程图。
如图2所示,该数据处理方法包括操作S201~S205。
在操作S201,从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵。
在操作S202,将数据矩阵和权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个第二缓存具有对应的计算单元。
在操作S203,对于每个第二缓存,在第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将已写入数据流构建第一数据序列和第二数据序列。
在操作S204,基于预设步长,将第一数据序列和第二数据序列分别从计算单元的两侧输入,其中,计算单元包括串联的多个计算节点。
在操作S205,将多个计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。
根据本公开的实施例,数据矩阵的维度为M,权重矩阵的维度为N,其中,M为正整数,N为小于M的正整数;
其中,将数据矩阵和权重矩阵按行分割为多个数据流,包括:
对数据矩阵和权重矩阵按行进行分割,得到M个数据向量和N个权重向量;以及
将M个数据向量中的第(kN+i)个数据向量和N个权重向量中的第i个权重向量构建为第i个数据流,其中,k为0或小于M/N的正整数,i为小于或等于N的正整数。
根据本公开的实施例,上述数据处理方法还包括:
在已写入数据流中包括数据向量的N个激活值和权重向量的N个权重值的情况下,确定已写入数据流满足计算窗口需求。
根据本公开的实施例,其中,基于预设步长,将已写入数据流构建第一数据序列和第二数据序列,包括:
以预设步长为间隔,基于已写入数据流中的N个激活值来构建第一数据序列;以及
以预设步长为间隔,基于已写入数据流中的N个权重值来构建第二数据序列。
根据本公开的实施例,其中,
数据矩阵包括归属于第一待处理图像的第一数据矩阵和归属于第二待处理图像的第二数据矩阵;
权重矩阵包括归属于第一目标卷积层的第一权重矩阵和归属于第二目标卷积层的第二权重矩阵;
其中,第一数据矩阵的维度和第二数据矩阵的维度相等,第一权重矩阵的维度和第二权重矩阵的维度相等。
根据本公开的实施例,其中,将数据矩阵和权重矩阵按行分割为多个数据流,包括:
将第一数据矩阵和第一权重矩阵按行分割为多个第一数据流;
将第二数据矩阵和第二权重矩阵按行分割为多个第二数据流。
根据本公开的实施例,其中,已写入数据流包括第一数据流中的多个激活值和多个权重值、第二数据流中的多个激活值和多个权重值;
其中,基于预设步长,将已写入数据流构建第一数据序列和第二数据序列,包括:
在预设步长为1的情况下,将第一数据流中的多个激活值和第二数据流中的多个激活值交替构建得到第一数据序列;以及
将第一数据流中的多个权重值和第二数据流中的多个权重值交替构建得到第二数据序列。
根据本公开的实施例,其中,基于预设步长,将已写入数据流构建第一数据序列和第二数据序列,包括:
在预设步长为n的情况下,将第一数据流中的多个激活值和第二数据流中的多个激活值以(n-1)位为间隔,交替构建得到第一数据序列,其中,n为大于1的正整数;以及
将第一数据流中的多个权重值和第二数据流中的多个权重值以(n-1)位为间隔,交替构建得到第二数据序列。
根据本公开的实施例,上述数据处理方法还包括:
将当前计算窗口的输出值作为一个元素,遍历所有计算窗口的输出值,得到用于表示目标卷积层对数据矩阵的运算结果的输出矩阵。
本公开的一个实施例中,提供了一种数据处理方法,包括:
操作S1,从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵。
根据本公开的实施例,数据矩阵和目标卷积层的权重矩阵过可以通过AXI总线传入第一缓存中,但不限于此,还可以将摄像机实时采集的数据送入第一缓存中。
操作S2,将数据矩阵和权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个第二缓存具有对应的计算单元。
根据本公开的实施例,每一个计算单元的计算数据至少需要包括一次完整乘累加计算所需的数据,其中,乘累加计算可以是卷积计算。之后分批次送入第二缓存中。在第二缓存中,设置标志单次数据量满足最低计算要求的指示信号,计算阵列控制电路根据指示信号启动一次完整计算,同时数据继续从第一缓存中送入阵列中,当数据不足完成一次完整窗口计算时,停止计算。
根据本公开的实施例,数据流可以包括灰度图像数据等。
根据本公开的实施例,计算阵列可以包括多个计算单元,每个计算单元可以包括多个计算节点。
操作S3,对于每个所述第二缓存,在所述第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将所述已写入数据流构建第一数据序列和第二数据序列。
操作S4,基于预设步长,将第一数据序列和第二数据序列分别从计算单元的两侧输入,其中,计算单元包括串联的多个计算节点。
图3示意性示出了根据本公开实施例的计算节点的示意图。
如图3所示,计算节点310内为乘法操作,
可以通过公式(4)表示。
y=w×x; (4)
公式(4)中w为数据流的一个权重向量,x为数据流的一个激活向量,计算完成可以存入计算单元专用缓存321、322,结果可以表示为:
y1=y1+y
y2=y2+y
其中y1代表数据流1的专用缓存结果,y2代表数据流2的专用缓存结果。
图4示意性示出了根据本公开实施例的计算单元的示意图。
如图4所示,计算单元400内可以包括3个串联的计算节点411、412、413。第一数据序列可以包括激活值Rx1、Lx1、Rx2、Lx2,第二数据序列可以还包括权重值Rw1、Lw1、Rw2、Lw2,第一数据序列和第二数据序列分别从计算单元400的两侧输入。计算单元400可以通过脉动形式将双向流动的第一数据序列Rx1、Lx1、Rx2、Lx2和第二数据序列Rw1、Lw1、Rw2、Lw2进行乘加计算,并交替两个数据序列。数据序列进入计算阵列的方式为数据流中的激活值正向按照节拍送入阵列,数据流中的权重值反向按照节拍送入计算阵列。
图5示意性示出了根据本公开实施例的计算阵列的示意图。
如图5所示,计算阵列500可以包括3个计算单元。计算阵列500可以是应用于深度学习加速器的双向双数据流脉动计算阵列,计算内容可以是通过公式(5)表示。
公式(5)中,datas为总数据块,data为输入数据流的计算窗口数据,len()为数据量,y[k]为第k个窗口的计算结果,w为权重矩阵,x为数据矩阵。图5中纵向的3个计算节点构成一个加法树。利用该双向双数据流脉动阵列结构计算所述双路数据流 单个计算单元可以得到计算完成后的计算结果包括第一数据流的部分计算窗口的部分积,N个计算单元可以得到第一数据流的完整计算窗口的部分积,N为窗口尺寸的行数,每个奇数周期将N个部分积在计算单元中第一数据流的专用缓存中进行累加操作,可得到N个计算部分积累加结果,最后将所有累加后的部分积送入加法树中得到第一数据流在一个计算窗口的输出值。对于第二数据流的计算,所有偶数周期送入第二数据流的当前计算窗口的权重值和激活值,每次送入一组,在计算阵列中这些权重值与激活值会对向流动,中间间隔的是另一组数据流,N个计算单元可以得到第二数据流的完整计算窗口的部分积,N为窗口尺寸的行数,每个偶数周期将N个部分积在计算单元中第二数据流的专用缓存中进行累加操作,可得到N个计算部分积的累加结果,最后将所有这些部分积的累加结果送入加法树中得到第二数据流的最终一个计算窗口的输出值。
图6示意性示出了根据本公开实施例的计算单元的结构。
如图6所示,专用缓存611、612可以是用于储存第一数据流与第二数据流,在判断单元621经奇偶周期判断后送入串行累加单元,和来自乘法运算的结果进行加法运算,与专用缓存中的已存在值累加后存入该专用缓存中,替换掉原来存在的值,更新完成专用缓存中的值。
在得到整个计算窗口的的输出值后,将计算阵列中所有并行计算单元的结果送入加法树中,复位专用缓存中的值为0,开始重新进行对应数据流部分积的累加;加法树根据所有对应专用缓存中的输入值进行求和操作,可以得到完整计算窗口的计算结果,并将该计算结果存入输出专用缓存中;根据双向双数据流的计算阵列和其数据流流动时的计算过程,可以得到第一数据流与第二数据流的计算窗口中部分积结果,将部分积结果送入加法树可最终得到计算窗口的输出值。
图7示意性示出了根据本公开实施例的各个时间节点的计算结果示意图。
如图7所示,在预设步长为1的情况下,将第一数据流中的激活值rx0、rx1、rx2和第二数据流中的激活值1x0、lx1、1x2交替构建得到第一数据序列;将第一数据流中的权重值rw0、rw1、rw2和第二数据流中的多个权重值lw0、lw1、1w2交替构建得到第二数据序列。
3*3的计算阵列可以由3个3*1的计算单元组成,一个3*1的计算单元中各计算节点计算第一数据流的情况可以是,x从计算节点0流向计算节点2,w由计算节点2流向计算节点0,且计算可复用权重,w在流到计算节点0时重新回到计算节点2,
在时刻0:rx0在计算节点0,rw0在计算节点2;
在时刻1:rx0在计算节点1,rw0在计算节点1;lx0在计算节点0,lw0在计算节点2;
在时刻2:rx0在计算节点2,rw0在计算节点0;lx0在计算节点1,lw0在计算节点1;rx1在计算节点0,rw1在计算节点2;
在时刻3:lw1在计算节点2;lx0在计算节点2,lw0在计算节点0;rx1在计算节点1,rw1在计算节点1;lx1在计算节点0;
在时刻4:rx1在计算节点2;lw1在计算节点2;lx1在计算节点1,rw1在计算节点1;rx2在计算节点0,lw0在计算节点0。
其中,所述第一数据流和第二数据流的激活值和权重值分别从计算单元两边对向流入。第一数据流和第二数据流的权重值和激活值交替输入计算单元;计算节点1节点的计算情况可以通过表一表示。
表一
时刻1 | 计算节点1输出rx0*rw0 |
时刻2 | 计算节点1输出lx0*lw0 |
时刻3 | 计算节点1输出rx1*rw1 |
时刻4 | 计算节点1输出lx1*lw1 |
在计算节点1中,时刻1、时刻3、时刻5分别输出了第一数据流的在第一窗口的积,并将这些积按照公式(6)规则在第一数据流专用缓存进行累加计算。
y1=y1+y(奇次运算); (6)
并行的N路同步完成N个该计算过程,送入加法树得到完整窗口的计算结果。
在计算节点1中,时刻2、时刻4、时刻6分别输出了第二数据流的第一窗口的积,并将这些积按照公式(7)的规则在第二数据流专用缓存进行累加计算。
y2=y2+y(偶次运算) (7)
并行的N路同步完成N个该计算过程,送入与第一数据流相同的加法树,通过在不同时钟周期复用该加法树得到完整窗口的计算结果。
图8示意性示出了根据本公开实施例的数据处理装置的框图。
如图8所示,根据本公开实施例的数据处理装置800可以包括:获取模块810、分割模块820、数据序列构建模块830、计算模块840和输出模块850。
获取模块810,用于从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵;
分割模块820,用于将数据矩阵和权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个第二缓存具有对应的计算单元;
数据序列构建模块830,用于对于每个第二缓存,在第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将已写入数据流构建第一数据序列和第二数据序列;
计算模块840,用于基于预设步长,将第一数据序列和第二数据序列分别从计算单元的两侧输入,其中,计算单元包括串联的多个计算节点;以及
输出模块850,用于将多个计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。
根据本公开的实施例,其中,数据矩阵的维度为M,权重矩阵的维度为N,其中,M为正整数,N为小于M的正整数;
分割模块可以包括:
分隔单元,用于对数据矩阵和权重矩阵按行进行分割,得到M个数据向量和N个权重向量。
构建单元,用于将M个数据向量中的第(kN+i)个数据向量和N个权重向量中的第i个权重向量构建为第i个数据流,其中,k为0或小于M/N的正整数,i为小于或等于N的正整数。
根据本公开的实施例,上述数据处理装置还可以包括:确定模块。
确定模块,用于在已写入数据流中包括数据向量的N个激活值和权重向量的N个权重值的情况下,确定已写入数据流满足计算窗口需求。
根据本公开的实施例,数据序列构建模块可以包括:第一数据序列构建单元和第二数据序列构建单元。
第一数据序列构建单元,用于以预设步长为间隔,基于已写入数据流中的N个激活值来构建第一数据序列。
第二数据序列构建单元,用于以预设步长为间隔,基于已写入数据流中的N个权重值来构建第二数据序列。
根据本公开的实施例,其中,
数据矩阵包括归属于第一待处理图像的第一数据矩阵和归属于第二待处理图像的第二数据矩阵;
权重矩阵包括归属于第一目标卷积层的第一权重矩阵和归属于第二目标卷积层的第二权重矩阵;
其中,第一数据矩阵的维度和第二数据矩阵的维度相等,第一权重矩阵的维度和第二权重矩阵的维度相等。
根据本公开的实施例,分隔模块可以包括:第一分隔单元和第二分隔单元。
第一分隔单元,用于将第一数据矩阵和第一权重矩阵按行分割为多个第一数据流。
第二分隔单元,用于将第二数据矩阵和第二权重矩阵按行分割为多个第二数据流。
根据本公开的实施例,其中,已写入数据流包括第一数据流中的多个激活值和多个权重值、第二数据流中的多个激活值和多个权重值。
数据序列构建模块可以包括:第一交替构建单元和第二交替构建单元。
第一交替构建单元,用于在预设步长为1的情况下,将第一数据流中的多个激活值和第二数据流中的多个激活值交替构建得到第一数据序列;以及
第二交替构建单元,用于将第一数据流中的多个权重值和第二数据流中的多个权重值交替构建得到第二数据序列。
根据本公开的实施例,数据序列构建模块可以包括第三交替构建单元和第四交替构建单元。
第三交替构建单元,用于在预设步长为n的情况下,将第一数据流中的多个激活值和第二数据流中的多个激活值以(n-1)位为间隔,交替构建得到第一数据序列,其中,n为大于1的正整数;以及
第四交替构建单元,用于将第一数据流中的多个权重值和第二数据流中的多个权重值以(n-1)位为间隔,交替构建得到第二数据序列。
根据本公开的实施例,数据处理装置还可以包括遍历模块。
遍历模块,用于将当前计算窗口的输出值作为一个元素,遍历所有计算窗口的输出值,得到用于表示目标卷积层对数据矩阵的运算结果的输出矩阵。
根据本公开的实施例的模块、单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,获取模块810、分割模块820、数据序列构建模块830、计算模块840和输出模块850中的任意多个可以合并在一个模块/单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块/单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元/子单元中实现。根据本公开的实施例,获取模块810、分割模块820、数据序列构建模块830、计算模块840和输出模块850中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,获取模块810、分割模块820、数据序列构建模块830、计算模块840和输出模块850中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
需要说明的是,本公开的实施例中数据处理装置部分与本公开的实施例中数据处理方法部分是相对应的,数据处理装置部分的描述具体参考数据处理方法部分,在此不再赘述。
图9示意性示出了根据本公开实施例的适于实现数据处理方法的电子设备的框图。图9示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,根据本公开实施例的计算机电子设备900包括处理器901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。处理器901例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器901还可以包括用于缓存用途的板载存储器。处理器901可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 903中,存储有电子设备900操作所需的各种程序和数据。处理器901、ROM902以及RAM 903通过总线904彼此相连。处理器901通过执行ROM 902和/或RAM 903中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 902和RAM 903以外的一个或多个存储器中。处理器901也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备900还可以包括输入/输出(I/O)接口905,输入/输出(I/O)接口905也连接至总线904。电子设备900还可以包括连接至I/O接口905的以下部件中的一项或多项:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被处理器901执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质。例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 902和/或RAM 903和/或ROM 902和RAM 903以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行本公开实施例所提供的方法的程序代码,当计算机程序产品在电子设备上运行时,该程序代码用于使电子设备实现本公开实施例所提供的XX方法。
在该计算机程序被处理器901执行时,执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分909被下载和安装,和/或从可拆卸介质911被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (10)
1.一种数据处理方法,包括:
从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵;
将所述数据矩阵和所述权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个所述第二缓存具有对应的计算单元;
对于每个所述第二缓存,在所述第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将所述已写入数据流构建第一数据序列和第二数据序列;
基于所述预设步长,将所述第一数据序列和所述第二数据序列分别从所述计算单元的两侧输入,其中,所述计算单元包括串联的多个计算节点;以及
将多个所述计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。
2.根据权利要求1所述的方法,其中,所述数据矩阵的维度为M,所述权重矩阵的维度为N,其中,所述M为正整数,所述N为小于M的正整数;
其中,将所述数据矩阵和所述权重矩阵按行分割为多个数据流,包括:
对所述数据矩阵和所述权重矩阵按行进行分割,得到M个数据向量和N个权重向量;以及
将M个所述数据向量中的第(kN+i)个所述数据向量和N个所述权重向量中的第i个所述权重向量构建为第i个所述数据流,其中,所述k为0或小于M/N的正整数,所述i为小于或等于N的正整数。
3.根据权利要求2所述的方法,还包括:
在所述已写入数据流中包括所述数据向量的N个激活值和所述权重向量的N个权重值的情况下,确定所述已写入数据流满足所述计算窗口需求。
4.根据权利要求3所述的方法,其中,所述基于预设步长,将所述已写入数据流构建第一数据序列和第二数据序列,包括:
以所述预设步长为间隔,基于所述已写入数据流中的N个激活值来构建第一数据序列;以及
以所述预设步长为间隔,基于所述已写入数据流中的N个权重值来构建第二数据序列。
5.根据权利要求1所述的方法,其中,
所述数据矩阵包括归属于第一待处理图像的第一数据矩阵和归属于第二待处理图像的第二数据矩阵;
所述权重矩阵包括归属于第一目标卷积层的第一权重矩阵和归属于第二目标卷积层的第二权重矩阵;
其中,所述第一数据矩阵的维度和第二数据矩阵的维度相等,所述第一权重矩阵的维度和第二权重矩阵的维度相等。
6.根据权利要求5所述的方法,其中,所述将所述数据矩阵和所述权重矩阵按行分割为多个数据流,包括:
将所述第一数据矩阵和所述第一权重矩阵按行分割为多个第一数据流;
将所述第二数据矩阵和所述第二权重矩阵按行分割为多个第二数据流。
7.根据权利要求6所述的方法,其中,所述已写入数据流包括所述第一数据流中的多个激活值和多个权重值、所述第二数据流中的多个激活值和多个权重值;
其中,所述基于预设步长,将所述已写入数据流构建第一数据序列和第二数据序列,包括:
在所述预设步长为1的情况下,将所述第一数据流中的多个激活值和所述第二数据流中的多个激活值交替构建得到所述第一数据序列;以及
将所述第一数据流中的多个权重值和所述第二数据流中的多个权重值交替构建得到所述第二数据序列。
8.根据权利要求7所述的方法,其中,所述基于预设步长,将所述已写入数据流构建第一数据序列和第二数据序列,包括:
在所述预设步长为n的情况下,将所述第一数据流中的多个激活值和所述第二数据流中的多个激活值以(n-1)位为间隔,交替构建得到所述第一数据序列,其中,所述n为大于1的正整数;以及
将所述第一数据流中的多个权重值和所述第二数据流中的多个权重值以(n-1)位为间隔,交替构建得到所述第二数据序列。
9.根据权利要求1所述的方法,还包括:
将所述当前计算窗口的输出值作为一个元素,遍历所有计算窗口的输出值,得到用于表示所述目标卷积层对所述数据矩阵的运算结果的输出矩阵。
10.一种数据处理装置,包括:
获取模块,用于从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵;
分割模块,用于将所述数据矩阵和所述权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个所述第二缓存具有对应的计算单元;
数据序列构建模块,用于对于每个所述第二缓存,在所述第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将所述已写入数据流构建第一数据序列和第二数据序列;
计算模块,用于基于所述预设步长,将所述第一数据序列和所述第二数据序列分别从所述计算单元的两侧输入,其中,所述计算单元包括串联的多个计算节点;以及
输出模块,用于将多个所述计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111454533.3A CN114119344A (zh) | 2021-11-30 | 2021-11-30 | 数据处理方法及数据处理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111454533.3A CN114119344A (zh) | 2021-11-30 | 2021-11-30 | 数据处理方法及数据处理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114119344A true CN114119344A (zh) | 2022-03-01 |
Family
ID=80369629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111454533.3A Pending CN114119344A (zh) | 2021-11-30 | 2021-11-30 | 数据处理方法及数据处理装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114119344A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147252A (zh) * | 2019-04-28 | 2019-08-20 | 深兰科技(上海)有限公司 | 一种卷积神经网络的并行计算方法及装置 |
WO2020238843A1 (zh) * | 2019-05-24 | 2020-12-03 | 华为技术有限公司 | 神经网络计算设备、方法以及计算设备 |
CN112950656A (zh) * | 2021-03-09 | 2021-06-11 | 北京工业大学 | 一种基于fpga平台的按通道进行预读取数据的分块卷积方法 |
CN113537482A (zh) * | 2021-09-14 | 2021-10-22 | 绍兴埃瓦科技有限公司 | 神经网络计算模块、方法和通信设备 |
-
2021
- 2021-11-30 CN CN202111454533.3A patent/CN114119344A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147252A (zh) * | 2019-04-28 | 2019-08-20 | 深兰科技(上海)有限公司 | 一种卷积神经网络的并行计算方法及装置 |
WO2020238843A1 (zh) * | 2019-05-24 | 2020-12-03 | 华为技术有限公司 | 神经网络计算设备、方法以及计算设备 |
CN112950656A (zh) * | 2021-03-09 | 2021-06-11 | 北京工业大学 | 一种基于fpga平台的按通道进行预读取数据的分块卷积方法 |
CN113537482A (zh) * | 2021-09-14 | 2021-10-22 | 绍兴埃瓦科技有限公司 | 神经网络计算模块、方法和通信设备 |
Non-Patent Citations (2)
Title |
---|
乔瑞秀等: "一种高性能可重构深度卷积神经网络加速器", 西安电子科技大学学报, 30 June 2019 (2019-06-30) * |
孔鑫等: "一种面向卷积神经网络加速器的高性能乘累加器", 西安电子科技大学学报, 31 August 2020 (2020-08-31) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11227216B2 (en) | Batch processing in a neural network processor | |
CN111860812B (zh) | 一种用于执行卷积神经网络训练的装置和方法 | |
US7225324B2 (en) | Multi-adaptive processing systems and techniques for enhancing parallelism and performance of computational functions | |
US10379816B2 (en) | Data accumulation apparatus and method, and digital signal processing device | |
US10108581B1 (en) | Vector reduction processor | |
EP3674987A1 (en) | Method and apparatus for processing convolution operation in neural network | |
WO2019094882A1 (en) | Deep neural network processor with interleaved backpropagation | |
KR20190068616A (ko) | 신경 네트워크 명령어 세트 아키텍처 | |
CN104899182A (zh) | 一种支持可变分块的矩阵乘加速方法 | |
US20210056416A1 (en) | Distributed Deep Learning System | |
CN113435682A (zh) | 分布式训练的梯度压缩 | |
JP7387017B2 (ja) | アドレス生成方法及びユニット、深層学習処理器、チップ、電子機器並びにコンピュータプログラム | |
CN112784973A (zh) | 卷积运算电路、装置以及方法 | |
CN114503126A (zh) | 矩阵运算电路、装置以及方法 | |
CN102446342B (zh) | 可重构二值运算器、可重构二值图像处理系统及其实现基本形态学算法的方法 | |
CN114119344A (zh) | 数据处理方法及数据处理装置 | |
CN111886605B (zh) | 针对多个输入数据集的处理 | |
EP4133418B1 (en) | Neural network weight distribution from a grid of memory elements | |
CN112418418B (zh) | 基于神经网络的数据处理方法、装置、存储介质及服务器 | |
CN115374052A (zh) | 用于可重构密码阵列的任务处理方法及装置 | |
CN115346099A (zh) | 基于加速器芯片的图像卷积方法、芯片、设备及介质 | |
TWI753728B (zh) | 運算單元架構、運算單元叢集及卷積運算的執行方法 | |
CN111652365B (zh) | 一种用于加速Deep Q-Network算法的硬件架构及其设计空间探索方法 | |
CN110633707A (zh) | 预测速度的方法和装置 | |
CN118503600B (zh) | 数据处理方法及装置、处理器、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |