JP7040771B2 - ニューラルネットワーク処理装置、通信装置、ニューラルネットワーク処理方法、およびプログラム - Google Patents
ニューラルネットワーク処理装置、通信装置、ニューラルネットワーク処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7040771B2 JP7040771B2 JP2018192019A JP2018192019A JP7040771B2 JP 7040771 B2 JP7040771 B2 JP 7040771B2 JP 2018192019 A JP2018192019 A JP 2018192019A JP 2018192019 A JP2018192019 A JP 2018192019A JP 7040771 B2 JP7040771 B2 JP 7040771B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- quantized
- convolution
- memory
- quantization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Complex Calculations (AREA)
Description
[第1の実施の形態]
まず、本発明の第1の実施の形態に係るCNN処理装置(ニューラルネットワーク処理装置)1の構成を説明する。図1は、CNN処理装置1の機能構成を示すブロック図である。
上述したCNN処理装置1は、入力バッファ(第1メモリ)10、重みバッファ(第2メモリ)11、畳み込み演算部12、演算結果バッファ13、量子化処理部14、出力バッファ15、および記憶部16を備える。
次に、上述した機能を有するCNN処理装置1のハードウェア構成の例について図2のブロック図を用いて説明する。
次に、上述した構成を有するCNN処理装置1の動作について図3および図4を参照して説明する。まず、入力バッファ10および重みバッファ11は、CNN処理装置1の外部に設置されたサーバなどから与えられた入力信号Aおよび重みUをそれぞれ一時的に記憶する(ステップS1、ステップS3)。
次に、本発明の第2の実施の形態について説明する。なお、以下の説明では、上述した第1の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
図5は、第2の実施の形態に係るCNN処理装置1Aの機能構成を示すブロック図である。CNN処理装置1Aは、入力バッファ10、量子化重みバッファ(第2メモリ)11A、量子化畳み込み演算部12A、演算結果バッファ13、出力バッファ15、および記憶部16を備える。以下、第1の実施の形態と異なる構成を中心に説明する。
次に、上述した構成を有するCNN処理装置1Aの動作について、図6および図7を参照して説明する。まず、外部のサーバなどで量子化された重みU’がCNN処理装置1において通信ネットワークNWを介して取得され、量子化された重みU’が記憶部16に記憶されているものとする。
次に、本発明の第3の実施の形態について説明する。なお、以下の説明では、上述した第1および第2の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
図8は、第3の実施の形態に係るCNN処理装置1Bの機能構成を示すブロック図である。CNN処理装置1Bは、入力バッファ10、量子化重みバッファ11A、畳み込み演算部12、演算結果バッファ13、量子化処理部14、出力バッファ15、および記憶部(第3メモリ、第4メモリ)16Bを備える。
重み量子化関数160は、重みの量子化を実現する関数である。より詳細には、重み量子化関数160は、量子化処理部14が、重みUに対して予め設定された端数処理、例えば、小数点を含む重みUの整数化などを行い、データ数を削減する量子化処理を実現する関数である。
次に上述した構成を有するCNN処理装置1Bの動作について図9および図10を参照して説明する。
Claims (16)
- 多層ニューラルネットワークに与えられる入力信号を記憶する第1メモリと、
前記多層ニューラルネットワークの重みを記憶する第2メモリと、
前記第1メモリ及び前記第2メモリにそれぞれ記憶された前記入力信号と前記重みとの積和演算を含む前記多層ニューラルネットワークの畳み込み演算を行うプロセッサと、
前記畳み込み演算の演算結果であり前記多層ニューラルネットワークでの次の演算に使用される演算結果を記憶するバッファと、を備え、
前記畳み込み演算は、データのビット精度を削減する量子化が組み込まれた、量子化されていない演算結果ではなく量子化された演算結果のみが前記バッファに記憶されるよう畳み込みと量子化とを一括して行う量子化畳み込み演算であり、
前記積和演算に使用される前記重みは、前記第2メモリに記憶される前に予め1ビットのビット精度まで量子化されているか、前記第2メモリに記憶された後に前記プロセッサにより1ビットのビット精度まで量子化され、
前記量子化畳み込み演算を実現する第1関数を記憶する第3メモリをさらに備え、
前記プロセッサは、前記第3メモリから前記第1関数を読み出し、読み出した前記第1関数を用いて前記量子化畳み込み演算を行う、
ことを特徴とするニューラルネットワーク処理装置。 - 請求項1に記載のニューラルネットワーク処理装置において、
前記プロセッサは、前記量子化された演算結果に対して活性化関数を用いた処理を行う
ことを特徴とするニューラルネットワーク処理装置。 - 請求項1又は2に記載のニューラルネットワーク処理装置において、
前記プロセッサは、前記量子化畳み込み演算に用いるバイアスに対してのビット精度を削減する量子化を行う
ことを特徴とするニューラルネットワーク処理装置。 - 請求項1から3のいずれか1項に記載のニューラルネットワーク処理装置において、
前記多層ニューラルネットワークは、前記プロセッサにより前記量子化畳み込み演算を順次行う複数の畳み込み層を有し、
前記プロセッサは、前記複数の畳み込み層のうちの最終層以外の畳み込み層それぞれの出力であってその次の畳み込み層に入力される前記量子化された演算結果を補助記憶装置に記憶させる、
ことを特徴とするニューラルネットワーク処理装置。 - 請求項4に記載のニューラルネットワーク処理装置において、
前記重みを量子化する第2関数を記憶する第4メモリをさらに備え、
前記プロセッサは、前記第4メモリから前記第2関数を読み出し、読み出した前記第2関数を用いて前記重みを量子化する、
ことを特徴とするニューラルネットワーク処理装置。 - 請求項5に記載のニューラルネットワーク処理装置において、
前記プロセッサは、前記第2関数と前記第1関数とを交互に読み出して前記複数の畳み込み層それぞれでの前記重みの量子化と前記量子化畳み込み演算とを行う
ことを特徴とするニューラルネットワーク処理装置。 - 請求項1から6のいずれか1項に記載のニューラルネットワーク処理装置において、
前記多層ニューラルネットワークは、前処理された画像信号を前記入力信号として記憶するための入力バッファをさらに備え、
前記画像信号に施される前処理はモノクロ変換、コントラスト調整、および輝度調整のうち一つを含む、
ことを特徴とするニューラルネットワーク処理装置。 - 請求項1から7のいずれか1項に記載のニューラルネットワーク処理装置において、
前記重みの量子化はFPGA上で実行される
ことを特徴とするニューラルネットワーク処理装置。 - 請求項1から8のいずれか1項に記載のニューラルネットワーク処理装置を備える通信装置であって、
通信ネットワークを介して外部電子機器との通信を行うためのインターフェース回路をさらに備え、
前記通信ネットワークを介して、前記外部電子機器から前記量子化畳み込み演算に用いるデータを通信する、
ことを特徴とする通信装置。 - 請求項9に記載の通信装置であって、
前記通信ネットワークを介して、前記外部電子機器から予め量子化された前記重みを受信する
ことを特徴とする通信装置。 - 請求項9または10に記載の通信装置であって、
前記通信ネットワークを介して、前記外部電子機器から前記第1関数を受信する
ことを特徴とする通信装置。 - 多層ニューラルネットワークに与えられる入力信号を第1メモリに記憶する第1ステップと、
前記多層ニューラルネットワークの重みを第2メモリに記憶する第2ステップと、
プロセッサが、前記第1メモリ及び前記第2メモリにそれぞれ記憶された前記入力信号と前記重みとの積和演算を含む前記多層ニューラルネットワークの畳み込み演算を行う第3ステップと、
バッファにより前記畳み込み演算の演算結果であり前記多層ニューラルネットワークでの次の演算に使用される演算結果を記憶する第4ステップと、を備え、
前記畳み込み演算は、データのビット精度を削減する量子化が組み込まれた、量子化されていない演算結果ではなく量子化された演算結果のみが前記バッファに記憶されるよう畳み込みと量子化とを一括して行う量子化畳み込み演算であり、
前記積和演算に使用される前記重みは、前記第2メモリに記憶される前に予め1ビットのビット精度まで量子化されているか、前記第2メモリに記憶された後に前記プロセッサにより1ビットのビット精度まで量子化され、
前記第3ステップでは、前記プロセッサが、前記量子化畳み込み演算を実現する関数を記憶する第3メモリから前記関数を読み出し、読み出した前記関数を用いて前記量子化畳み込み演算を行う、
ことを特徴とするニューラルネットワーク処理方法。 - 多層ニューラルネットワークに与えられる入力信号を記憶する第1メモリと、前記多層ニューラルネットワークの重みを記憶する第2メモリと、を備えるコンピュータのプロセッサに、
前記第1メモリ及び前記第2メモリにそれぞれ記憶された前記入力信号と前記重みとの積和演算を含む前記多層ニューラルネットワークの畳み込み演算を行う演算処理と、
前記畳み込み演算の演算結果であり前記多層ニューラルネットワークでの次の演算に使用される演算結果をバッファに記憶させる記憶処理と、を実行させ、
前記畳み込み演算は、データのビット精度を削減する量子化が組み込まれた、量子化されていない演算結果ではなく量子化された演算結果のみが前記バッファに記憶されるよう畳み込みと量子化とを一括して行う量子化畳み込み演算であり、
前記積和演算に使用される前記重みは、前記第2メモリに記憶される前に予め1ビットのビット精度まで量子化されているか、前記第2メモリに記憶された後に前記プロセッサにより1ビットのビット精度まで量子化され、
前記コンピュータは、前記量子化畳み込み演算を実現する関数を記憶する第3メモリをさらに備え、
前記演算処理は、前記第3メモリから前記関数を読み出す処理と、読み出した前記関数を用いて前記量子化畳み込み演算を行う処理と、を含む、
プログラム。 - 請求項13に記載のプログラムであって、
前記プロセッサに、前記量子化された演算結果に対して活性化関数を用いた処理を実行させる
プログラム。 - 請求項13又は14に記載のプログラムであって、
前記プロセッサに、前記量子化畳み込み演算に用いるバイアスに対してのビット精度を削減する量子化を行う処理を実行させる
プログラム。 - 請求項13から15のいずれか1項に記載のプログラムであって、
前記多層ニューラルネットワークは、前記プロセッサにより前記量子化畳み込み演算を順次行う複数の畳み込み層を有し、
前記プロセッサに、前記複数の畳み込み層のうちの最終層以外の畳み込み層それぞれの出力であってその次の畳み込み層に入力される前記量子化された演算結果を補助記憶装置に記憶させる処理を実行させる、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018192019A JP7040771B2 (ja) | 2018-10-10 | 2018-10-10 | ニューラルネットワーク処理装置、通信装置、ニューラルネットワーク処理方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018192019A JP7040771B2 (ja) | 2018-10-10 | 2018-10-10 | ニューラルネットワーク処理装置、通信装置、ニューラルネットワーク処理方法、およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020060967A JP2020060967A (ja) | 2020-04-16 |
JP2020060967A5 JP2020060967A5 (ja) | 2020-10-08 |
JP7040771B2 true JP7040771B2 (ja) | 2022-03-23 |
Family
ID=70219026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018192019A Active JP7040771B2 (ja) | 2018-10-10 | 2018-10-10 | ニューラルネットワーク処理装置、通信装置、ニューラルネットワーク処理方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7040771B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113361664B (zh) * | 2021-08-10 | 2021-11-05 | 北京航空航天大学 | 一种基于量子卷积神经网络的图像识别系统及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160328647A1 (en) | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
JP2018132830A (ja) | 2017-02-13 | 2018-08-23 | LeapMind株式会社 | ニューラルネットワーク構築方法、ニューラルネットワーク装置及びニューラルネットワーク装置更新方法 |
JP2018142049A (ja) | 2017-02-27 | 2018-09-13 | 株式会社日立製作所 | 情報処理装置、画像認識装置、および、畳込みニューラルネットワークのパラメータ設定方法 |
JP2018147182A (ja) | 2017-03-03 | 2018-09-20 | キヤノン株式会社 | 演算処理装置およびその制御方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10303632A (ja) * | 1997-04-24 | 1998-11-13 | Kokusai Denshin Denwa Co Ltd <Kdd> | アレーアンテナにおけるニューラルネットワークによる不要信号の抑圧方法 |
GB201607713D0 (en) * | 2016-05-03 | 2016-06-15 | Imagination Tech Ltd | Convolutional neural network |
-
2018
- 2018-10-10 JP JP2018192019A patent/JP7040771B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160328647A1 (en) | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
JP2018132830A (ja) | 2017-02-13 | 2018-08-23 | LeapMind株式会社 | ニューラルネットワーク構築方法、ニューラルネットワーク装置及びニューラルネットワーク装置更新方法 |
JP2018142049A (ja) | 2017-02-27 | 2018-09-13 | 株式会社日立製作所 | 情報処理装置、画像認識装置、および、畳込みニューラルネットワークのパラメータ設定方法 |
JP2018147182A (ja) | 2017-03-03 | 2018-09-20 | キヤノン株式会社 | 演算処理装置およびその制御方法 |
Non-Patent Citations (1)
Title |
---|
米川晴義ほか,電力性能効率に優れた二値化ディープニューラルネットワークのFPGA実装,情報処理学会研究報告 システム・アーキテクチャ(ARC) 2017-ARC-224 [online] ,日本,情報処理学会,2017年01月16日,2017-ARC-224巻 22号,1~6ページ |
Also Published As
Publication number | Publication date |
---|---|
JP2020060967A (ja) | 2020-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11475298B2 (en) | Using quantization in training an artificial intelligence model in a semiconductor solution | |
CN111652368B (zh) | 一种数据处理方法及相关产品 | |
US20240104378A1 (en) | Dynamic quantization of neural networks | |
CN110363279B (zh) | 基于卷积神经网络模型的图像处理方法和装置 | |
US20200364552A1 (en) | Quantization method of improving the model inference accuracy | |
WO2021179587A1 (zh) | 神经网络模型量化方法、装置、电子设备及计算机可读存储介质 | |
US10491239B1 (en) | Large-scale computations using an adaptive numerical format | |
JP6886747B2 (ja) | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、およびニューラルネットワーク処理プログラム | |
KR102233174B1 (ko) | 신경망 가속기 및 그것의 동작 방법 | |
WO2021012148A1 (zh) | 基于深度神经网络的数据处理方法、装置及移动设备 | |
US20200320385A1 (en) | Using quantization in training an artificial intelligence model in a semiconductor solution | |
JP7040771B2 (ja) | ニューラルネットワーク処理装置、通信装置、ニューラルネットワーク処理方法、およびプログラム | |
JP7274180B2 (ja) | プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 | |
CN112889024B (zh) | 利用硬件计算效率和调整因子优化神经网络 | |
US20230024977A1 (en) | Method of processing data, data processing device, data processing program, and method of generating neural network model | |
US12100196B2 (en) | Method and machine learning system to perform quantization of neural network | |
CN117273092A (zh) | 一种模型量化方法、装置、电子设备及存储介质 | |
US20220147806A1 (en) | Electronic device and method for controlling electronic device | |
US20200143282A1 (en) | Quantizing machine learning models with balanced resolution via damped encoding | |
Gong et al. | A survey of low-bit large language models: Basics, systems, and algorithms | |
US11861452B1 (en) | Quantized softmax layer for neural networks | |
JP2020060967A5 (ja) | ニューラルネットワーク処理装置、通信装置、ニューラルネットワーク処理方法、およびプログラム | |
CN113902928A (zh) | 图像特征的提取方法、装置及电子设备 | |
JP2021076900A (ja) | データ処理装置及びその動作方法、プログラム | |
JP2020129296A (ja) | 情報処理装置、演算処理装置および情報処理装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200831 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220303 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7040771 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |