神经网络计算方法与神经网络计算装置与流程

xiaoxiao2月前  19


本公开关于一种计算方法及计算装置,尤其涉及一种神经网络计算方法及神经网络计算装置。


背景技术:

1、对于神经网络(neural network,nn)的计算而言,中间数据的大小反映了所需要的存储器大小。sram、dram、缓存器等存储器具有足够的大小时,可以增进神经网络的计算效率。然而,较大的存储器容量需要较大的芯片尺寸且增加了成本。

2、在神经网络模型的传统计算程序中,数据需要以一层接着一层的方式进行计算。某一层的中间数据皆需要被计算出来且需要存储于存储器中。这样一来,需要相当大的存储器容量。


技术实现思路

1、本公开关于一种神经网络计算方法及神经网络计算装置,神经网络的数据可以通过前层计算数据集进行计算,并且任一前层仅有部分的前层元素需要被存储。因此,存储器使用量可以大幅降低,存储器面积与成本可以有效降低。

2、根据本公开的一方面,提出一种神经网络计算方法,该神经网络计算方法包括以下步骤:决定至少一个选取层;决定多个前层;这些前层在选取层之前;从选取层的多个选取元素中选择一选择元素;定义相关于选择元素的一前层计算数据集;前层计算数据集由这些前层的多个前层元素的一部分所组成;根据前层计算数据集,计算选择元素。

3、根据本公开的另一方面,提出一种神经网络计算装置,该神经网络计算装置包括:一决定单元、一选择单元、一定义单元以及一计算单元;决定单元用于决定至少一个选取层并决定多个前层;这些前层在选取层之前;选择单元用于从选取层的多个选取元素中选择一选择元素;定义单元用于定义相关于选择元素的一前层计算数据集;前层计算数据集由这些前层的多个前层元素的一部分所组成;计算单元用于根据前层计算数据集,计算选择元素。

4、根据本公开的再一方面,提出一种神经网络计算方法,该神经网络计算方法包括以下步骤:决定至少一个选取层;决定多个前层;这些前层在选取层之前;从选取层的多个选取元素中选择一个以上选择元素;定义相关于这些选择元素的一个以上前层计算数据集;各个前层计算数据集由这些前层的多个前层元素的一部分所组成;根据这些前层计算数据集,计算这些选择元素。

5、为了对本公开的上述及其他方面有更佳的了解,下文特举实施例,并配合所附附图详细说明如下。



技术特征:

1.一种神经网络计算方法,包括:

2.根据权利要求1所述的神经网络计算方法,其中所述多个前层的数量大于2。

3.根据权利要求1所述的神经网络计算方法,还包括:

4.根据权利要求1所述的神经网络计算方法,其中该至少一个选取层的数量大于1。

5.一种神经网络计算装置,包括:

6.根据权利要求5所述的神经网络计算装置,还包括:

7.根据权利要求5所述的神经网络计算装置,其中该至少一个选取层的数量大于1。

8.一种神经网络计算方法,包括:

9.根据权利要求8所述的神经网络计算方法,其中所述多个所述多个选择元素以平行的方式计算。

10.根据权利要求8所述的神经网络计算方法,其中所述多个视觉数据集存储于同一存储器中。


技术总结
本公开提供一种神经网络计算方法与神经网络计算装置,该神经网络计算方法包括以下步骤:决定至少一个选取层;决定多个前层;这些前层在选取层之前;从选取层的多个选取元素中选择一选择元素;定义相关于选择元素的一前层计算数据集;前层计算数据集由这些前层的多个前层元素的一部分所组成;根据前层计算数据集,计算选择元素。

技术研发人员:林昱佑,李峯旻
受保护的技术使用者:旺宏电子股份有限公司
技术研发日:
技术公布日:2024/9/23

最新回复(0)