JP7329352B2 - 分類のためのニューラルネットワークにおいて、パラメータを処理する方法及び装置 - Google Patents
分類のためのニューラルネットワークにおいて、パラメータを処理する方法及び装置 Download PDFInfo
- Publication number
- JP7329352B2 JP7329352B2 JP2019075655A JP2019075655A JP7329352B2 JP 7329352 B2 JP7329352 B2 JP 7329352B2 JP 2019075655 A JP2019075655 A JP 2019075655A JP 2019075655 A JP2019075655 A JP 2019075655A JP 7329352 B2 JP7329352 B2 JP 7329352B2
- Authority
- JP
- Japan
- Prior art keywords
- layer
- neural network
- classes
- accuracy
- output layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 162
- 238000000034 method Methods 0.000 title claims description 49
- 238000012545 processing Methods 0.000 title claims description 26
- 230000008569 process Effects 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 description 17
- 238000001994 activation Methods 0.000 description 17
- 238000012549 training Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
110 プロセッサ
120 メモリ
600 電子システム
610 プロセッサ
620 RAM
630 ニューラルネットワーク装置
640 メモリ
650 センサモジュール
660 通信モジュール
Claims (15)
- 分類のためのn層ニューラルネットワークにおいて、パラメータを処理する方法であって、
入力データが分類されるクラス個数に係わる情報を取得する段階と、
前記取得する段階で取得された情報に基づき、前記入力データが各クラスに分類される可能性に係わる演算結果を出力する層のための精度を、前記クラス個数に比例するように決定する段階と、
前記精度を決定する段階で決定された精度により、前記層において、パラメータを処理する段階と、
を含み、前記演算結果を出力する層は、前記n層ニューラルネットワークのうちの出力層であり、前記出力層以外の層では、前記決定された精度より低い精度により、パラメータを処理する方法。 - 前記決定する段階は、
前記クラス個数を対数表示したものに比例するように、前記出力層のための精度を決定する段階
を含む、請求項1に記載の方法。 - 前記決定する段階は、
前記クラス個数が既設定の閾値以上である場合、前記層のための精度を、前記n層ニューラルネットワーク内の他の層のための精度より高く決定する段階
を含む、請求項1に記載の方法。 - 前記精度は、前記出力層で処理されるパラメータのビット幅を示す、請求項1ないし3のうちいずれか1項に記載の方法。
- 前記出力層は、前記n層ニューラルネットワーク内の最終全結合層である、請求項1ないし4のうちいずれか1項に記載の方法。
- 前記出力層は、ソフトマックス層及び損失層に結合され、
前記出力層は、前記ソフトマックス層から、前記演算結果に対するクロスエントロピー損失の勾配を入力される、請求項1ないし5のうちいずれか1項に記載の方法。 - 前記パラメータは、前記出力層に入力される前記演算結果に対するクロスエントロピー損失の勾配、及び前記出力層の重みを含む、請求項1ないし5のうちいずれか1項に記載の方法。
- 請求項1ないし7のうちいずれか1項に記載の方法をコンピュータに実行させるプログラム。
- 分類のためのn層ニューラルネットワークにおいて、パラメータを処理する装置であって、
少なくとも1つのプログラムを記録しているメモリと、
前記少なくとも1つのプログラムを実行することにより、入力データが分類されるクラス個数に係わる情報を取得し、その取得された情報に基づき、前記入力データが各クラスに分類される可能性に係わる演算結果を出力する層のための精度を、前記クラス個数に比例するように決定し、その決定された精度により、前記層において、パラメータを処理するプロセッサと、
を含み、前記演算結果を出力する層は、前記n層ニューラルネットワークのうちの出力層であり、前記出力層以外の層では、前記決定された精度より低い精度により、パラメータを処理する装置。 - 前記プロセッサは、前記クラス個数を対数表示したものに比例するように、前記層のための精度を決定する、請求項9に記載の装置。
- 前記プロセッサは、前記クラス個数が既設定の閾値以上である場合、前記層のための精度を、前記n層ニューラルネットワーク内の他の層のための精度より高く決定する、請求項9に記載の装置。
- 前記精度は、前記出力層で処理されるパラメータのビット幅を示す、請求項9ないし11のうちいずれか1項に記載の装置。
- 前記出力層は、前記n層ニューラルネットワーク内の最終全結合層である、請求項9ないし12のうちいずれか1項に記載の装置。
- 前記出力層は、ソフトマックス層及び損失層に結合され、
前記出力層は、前記ソフトマックス層から前記演算結果に対するクロスエントロピー損失の勾配を入力される、請求項9ないし13のうちいずれか1項に記載の装置。 - 前記パラメータは、前記出力層に入力される前記演算結果に対するクロスエントロピー損失の勾配、及び前記出力層の重みを含む、請求項9ないし13のうちいずれか1項に記載の装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862666269P | 2018-05-03 | 2018-05-03 | |
US62/666,269 | 2018-05-03 | ||
KR1020180077496A KR102581471B1 (ko) | 2018-05-03 | 2018-07-04 | 분류를 위한 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 |
KR10-2018-0077496 | 2018-07-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019194851A JP2019194851A (ja) | 2019-11-07 |
JP7329352B2 true JP7329352B2 (ja) | 2023-08-18 |
Family
ID=66182448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019075655A Active JP7329352B2 (ja) | 2018-05-03 | 2019-04-11 | 分類のためのニューラルネットワークにおいて、パラメータを処理する方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11875251B2 (ja) |
EP (1) | EP3564868A1 (ja) |
JP (1) | JP7329352B2 (ja) |
CN (1) | CN110443347B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020172829A1 (zh) * | 2019-02-27 | 2020-09-03 | 华为技术有限公司 | 一种神经网络模型处理方法及装置 |
US20210125064A1 (en) * | 2019-10-24 | 2021-04-29 | Preferred Networks, Inc. | Method and apparatus for training neural network |
US11836629B2 (en) * | 2020-01-15 | 2023-12-05 | SambaNova Systems, Inc. | Computationally efficient softmax loss gradient backpropagation |
CN113392954B (zh) * | 2020-03-13 | 2023-01-24 | 华为技术有限公司 | 终端网络模型的数据处理方法、装置、终端以及存储介质 |
CN111639745B (zh) * | 2020-05-13 | 2024-03-01 | 北京三快在线科技有限公司 | 一种数据处理方法及装置 |
CN114492721A (zh) * | 2020-10-27 | 2022-05-13 | 北京晶视智能科技有限公司 | 神经网络的混合精度量化方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009516246A (ja) | 2005-11-15 | 2009-04-16 | ベルナデット ガーナー | ニューラルネットワークのトレーニング方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5598509A (en) * | 1992-08-28 | 1997-01-28 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/recognition system using the same |
JP3946562B2 (ja) * | 2002-04-08 | 2007-07-18 | 本田技研工業株式会社 | 行動制御装置及び方法 |
KR100683501B1 (ko) | 2005-02-23 | 2007-02-15 | 인천대학교 산학협력단 | 신경망 기법을 이용한 뉴스 비디오의 앵커 화면 추출 장치및 그 방법 |
US10095917B2 (en) * | 2013-11-04 | 2018-10-09 | Facebook, Inc. | Systems and methods for facial representation |
US20160026912A1 (en) * | 2014-07-22 | 2016-01-28 | Intel Corporation | Weight-shifting mechanism for convolutional neural networks |
US10803381B2 (en) * | 2014-09-09 | 2020-10-13 | Intel Corporation | Fixed point integer implementations for neural networks |
US9524450B2 (en) | 2015-03-04 | 2016-12-20 | Accenture Global Services Limited | Digital image processing using convolutional neural networks |
US10262259B2 (en) * | 2015-05-08 | 2019-04-16 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
CA3021085A1 (en) * | 2016-05-20 | 2017-11-23 | Magic Leap, Inc. | Method and system for performing convolutional image transformation estimation |
CN106228238B (zh) * | 2016-07-27 | 2019-03-22 | 中国科学技术大学苏州研究院 | 现场可编程门阵列平台上加速深度学习算法的方法和系统 |
US20190050710A1 (en) * | 2017-08-14 | 2019-02-14 | Midea Group Co., Ltd. | Adaptive bit-width reduction for neural networks |
CN107679525B (zh) * | 2017-11-01 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 图像分类方法、装置及计算机可读存储介质 |
US20190171927A1 (en) * | 2017-12-06 | 2019-06-06 | Facebook, Inc. | Layer-level quantization in neural networks |
-
2019
- 2019-01-10 US US16/244,644 patent/US11875251B2/en active Active
- 2019-04-11 JP JP2019075655A patent/JP7329352B2/ja active Active
- 2019-04-15 EP EP19169298.7A patent/EP3564868A1/en active Pending
- 2019-04-18 CN CN201910315912.0A patent/CN110443347B/zh active Active
-
2023
- 2023-12-05 US US18/529,620 patent/US20240112030A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009516246A (ja) | 2005-11-15 | 2009-04-16 | ベルナデット ガーナー | ニューラルネットワークのトレーニング方法 |
Non-Patent Citations (1)
Title |
---|
石井 潤,DNN向けニューロン毎の量子化ビット幅最適化に関する評価,電子情報通信学会技術研究報告 Vol.117 No.379,日本,一般社団法人電子情報通信学会,2018年01月11日 |
Also Published As
Publication number | Publication date |
---|---|
US20240112030A1 (en) | 2024-04-04 |
US20190340504A1 (en) | 2019-11-07 |
CN110443347A (zh) | 2019-11-12 |
JP2019194851A (ja) | 2019-11-07 |
CN110443347B (zh) | 2024-04-02 |
US11875251B2 (en) | 2024-01-16 |
EP3564868A1 (en) | 2019-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7329352B2 (ja) | 分類のためのニューラルネットワークにおいて、パラメータを処理する方法及び装置 | |
KR102589303B1 (ko) | 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치 | |
KR102601604B1 (ko) | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 | |
JP7329455B2 (ja) | ニューラルネットワーク量子化のための方法及び装置 | |
KR102526650B1 (ko) | 뉴럴 네트워크에서 데이터를 양자화하는 방법 및 장치 | |
JP7117280B2 (ja) | ニューラルネットワークのパラメータを量子化する方法及びその装置 | |
KR20190125141A (ko) | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 | |
US11763153B2 (en) | Method and apparatus with neural network operation | |
US11816557B2 (en) | Method and apparatus with neural network parameter quantization | |
US11868874B2 (en) | Two-dimensional array-based neuromorphic processor and implementing method | |
US20240086694A1 (en) | Neuromorphic method and apparatus with multi-bit neuromorphic operation | |
CN114358274A (zh) | 训练用于图像识别的神经网络的方法和设备 | |
US11853869B2 (en) | Neural network apparatus and method of processing variable-resolution operation by the same | |
KR102581471B1 (ko) | 분류를 위한 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 | |
KR20200139071A (ko) | 뉴럴 네트워크에서 파라미터를 양자화하는 방법 및 장치 | |
KR20240035013A (ko) | 뉴럴 네트워크의 파라미터 양자화 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7329352 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |