JP6574503B2 - 機械学習方法および装置 - Google Patents
機械学習方法および装置 Download PDFInfo
- Publication number
- JP6574503B2 JP6574503B2 JP2018041353A JP2018041353A JP6574503B2 JP 6574503 B2 JP6574503 B2 JP 6574503B2 JP 2018041353 A JP2018041353 A JP 2018041353A JP 2018041353 A JP2018041353 A JP 2018041353A JP 6574503 B2 JP6574503 B2 JP 6574503B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- similarity
- kernel
- machine learning
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 65
- 239000013598 vector Substances 0.000 claims description 92
- 238000013527 convolutional neural network Methods 0.000 claims description 83
- 239000011159 matrix material Substances 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 43
- 238000013528 artificial neural network Methods 0.000 claims description 38
- 238000011176 pooling Methods 0.000 claims description 34
- 230000000750 progressive effect Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 20
- 230000004044 response Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 16
- 230000004913 activation Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000012856 packing Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 239000011365 complex material Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
kernel)のうち少なくとも一つに基づいて、前記相互間の類似度が高いカーネルの集合を決定するように遂行され得る。
Claims (19)
- コンボリューショナルニューラルネットワークを学習させるための機械学習装置により遂行される、コンボリューショナルニューラルネットワークに対する機械学習方法において、
対象データの入力を受ける段階;
前記コンボリューショナルニューラルネットワークに対する前記対象データの統計的特性と前記コンボリューショナルニューラルネットワークに対するあらかじめ使用された訓練データの統計的特性との差に基づいて、漸進的学習開始の可否を判断する段階;
前記漸進的学習を開始すると判断した場合、前記コンボリューショナルニューラルネットワークに含まれたそれぞれのコンボリューションレイヤーで相互間の類似度が高いカーネルの集合を決定する段階;および
前記相互間の類似度が高いカーネルの集合に含まれたカーネルが適用されるノード間の加重値を更新する段階;を含み、
前記相互間の類似度が高いカーネルの集合に含まれたカーネルのそれぞれをランダム行列を利用して、更新する段階をさらに含む、機械学習方法。 - 前記漸進的学習開始の可否を判断する段階は、
前記対象データに対する前記コンボリューショナルニューラルネットワークの出力値のうち最大値をあらかじめ選定した基準値と比較し、前記コンボリューショナルニューラルネットワークの出力値のうち最大値が前記基準値よりも小さい場合、前記漸進的学習を開始すると判断する、請求項1に記載の機械学習方法。 - 前記対象データが、複数個のデータからなるデータパッチである場合、
前記データパッチに含まれたデータのうち、前記コンボリューショナルニューラルネットワークの出力値のうち最大値があらかじめ選定した基準値よりも小さい条件を満足するデータの個数が基準個数以上の場合、前記漸進的学習を開始すると判断する、請求項2に記載の機械学習方法。 - 前記相互間の類似度が高いカーネルの集合を決定する段階は、
カーネル間の距離または類似度を測定することによって、前記相互間の類似度が高いカーネルペアを少なくとも一つ以上決定する、請求項1に記載の機械学習方法。 - 前記相互間の類似度が高いカーネルの集合を決定する段階は、
カーネル間のコーダル距離(chordal distance)、カイ二乗カーネル(Chi−square kernel)のうち少なくとも一つに基づいて、前記相互間の類似度が高いカーネルペアを少なくとも一つ以上決定する、請求項4に記載の機械学習方法。 - 前記相互間の類似度が高いカーネルの集合を決定する段階は、同じノードのコンボリューション演算に利用されるカーネルからカーネル連結行列(Concatenated kernel matrix)を構成し、
前記カーネル連結行列間の距離または類似度を測定することによって、前記相互間の類似度が高いカーネル連結行列ペアを少なくとも一つ以上決定する、請求項1に記載の機械学習方法。 - 前記相互間の類似度が高いカーネルの集合を決定する段階は、前記カーネル連結行列間の差のノルム(norm)、前記カーネル連結行列間の二乗差、コーダル距離(Chordal distance)、カイ二乗カーネル(Chi−square kernel)のうち少なくとも一つに基づいて、前記相互間の類似度が高いカーネルの集合を決定する、請求項6に記載の機械学習方法。
- 前記漸進的学習を開始すると判断した場合、前記コンボリューショナルニューラルネットワークに含まれたそれぞれの完全連結レイヤー(fully connected layer)で相互間の類似度が高いウェイトベクトル(Weight vector)の集合を決定する段階;および
前記相互間の類似度が高いウェイトベクトルの集合に含まれたウェイトベクトルが適用されるノード間の加重値を更新する段階;をさらに含む、請求項1に記載の機械学習方法。 - 前記相互間の類似度が高いウェイトベクトルの集合を決定する段階は、
ウェイトベクトル間の距離または類似度を測定することによって、前記相互間の類似度が高いウェイトベクトルペアを少なくとも一つ以上決定する、請求項8に記載の機械学習方法。 - 前記相互間の類似度が高いウェイトベクトルの集合を決定する段階は、
ウェイトベクトル間の差のノルム(norm)、二乗差、コサイン距離(cosine distance)、マハラノビス距離(Mahalanobis distance)、コーダル距離(Chordal distance)、およびカイ二乗カーネル(Chi−square kernel)のうち少なくとも一つに基づいて、前記相互間の類似度が高いウェイトベクトルペアを少なくとも一つ以上決定する、請求項9に記載の機械学習方法。 - 前記相互間の類似度が高いウェイトベクトルの集合に含まれたウェイトベクトルのそれぞれを、ランダムベクトルを利用して更新する段階;をさらに含む、請求項8に記載の機械学習方法。
- 前記ノード間の加重値を更新する段階は、
教師あり学習方式および教師なし学習方式のうち少なくとも一つを利用して前記ノード間の加重値を更新する、請求項1に記載の機械学習方法。 - 前記教師なし学習方式によって前記ノード間の加重値を更新する場合、
前記コンボリューショナルニューラルネットワークの出力を、前記コンボリューショナルニューラルネットワークに対称的な構造を有する対称ニューラルネットワークに入力させ、
前記対称ニューラルネットワークの出力と前記コンボリューショナルニューラルネットワークに対する入力との間の差に基づいて、前記ノード間の加重値を更新する、請求項12に記載の機械学習方法。 - 前記対称ニューラルネットワークは、前記コンボリューショナルニューラルネットワークの全体連結レイヤーに対応する逆方向の全体連結レイヤー(backward fully connected layer)と、前記コンボリューショナルニューラルネットワークのコンボリューションレイヤーおよびプーリングレイヤーに対応するデコンボリューションレイヤーおよびアンプーリングレイヤーを含む、請求項13に記載の機械学習方法。
- コンボリューショナルニューラルネットワークを学習させるための機械学習装置において、
プロセッサ(processor);および
前記プロセッサを介して実行される少なくとも一つの命令が保存されたメモリ(memory)を含み、
前記少なくとも一つの命令は、
対象データの入力を受けて;前記コンボリューショナルニューラルネットワークに対する前記対象データの統計的特性と前記コンボリューショナルニューラルネットワークに対するあらかじめ使用された訓練データの統計的特性との差に基づいて、漸進的学習開始の可否を判断し;前記漸進的学習を開始すると判断した場合、前記コンボリューショナルニューラルネットワークに含まれたそれぞれのコンボリューションレイヤーで相互間の類似度が高いカーネルの集合を決定し;前記相互間の類似度が高いカーネルの集合に含まれたカーネルが適用されるノード間の加重値を更新して、前記相互間の類似度が高いカーネルの集合に含まれたカーネルのそれぞれをランダム行列を利用して、更新するように遂行される、機械学習装置。 - 前記少なくとも一つの命令は、
カーネル間のコーダル距離(chordal distance)、カイ二乗カーネル(Chi−square kernel)のうち少なくとも一つに基づいて、前記相互間の類似度が高いカーネルペアを少なくとも一つ以上決定するように遂行される、請求項15に記載の機械学習装置。 - 前記少なくとも一つの命令は、
同じノードのコンボリューション演算に利用されるカーネルからカーネル連結行列(Concatenated kernel matrix)を構成し、
前記カーネル連結行列間の差のノルム(norm)、二乗差、コーダル距離(Chordal distance)、カイ二乗カーネル(Chi−square kernel)のうち少なくとも一つに基づいて、前記相互間の類似度が高いカーネルの集合を決定するように遂行される、請求項15に記載の機械学習装置。 - 前記少なくとも一つの命令は、
前記漸進的学習を開始すると判断した場合、前記コンボリューショナルニューラルネットワークに含まれたそれぞれの完全連結レイヤー(fully connected layer)で相互間の類似度が高いウェイトベクトル(Weight vector)の集合を決定し、前記相互間の類似度が高いウェイトベクトルの集合に含まれたウェイトベクトルが適用されるノード間の加重値を更新するように遂行される、請求項15に記載の機械学習装置。 - 前記少なくとも一つの命令は、
ウェイトベクトル間の差のノルム(norm)に基づいて、前記相互間の類似度が高いウェイトベクトルペアを少なくとも一つ以上決定するように遂行される、請求項15に記載の機械学習装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0101084 | 2017-08-09 | ||
KR1020170101084A KR101880901B1 (ko) | 2017-08-09 | 2017-08-09 | 기계 학습 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019032808A JP2019032808A (ja) | 2019-02-28 |
JP6574503B2 true JP6574503B2 (ja) | 2019-09-11 |
Family
ID=63103102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018041353A Active JP6574503B2 (ja) | 2017-08-09 | 2018-03-07 | 機械学習方法および装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10970631B2 (ja) |
JP (1) | JP6574503B2 (ja) |
KR (1) | KR101880901B1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10366328B2 (en) * | 2017-09-19 | 2019-07-30 | Gyrfalcon Technology Inc. | Approximating fully-connected layers with multiple arrays of 3x3 convolutional filter kernels in a CNN based integrated circuit |
EP3725081A4 (en) * | 2017-12-13 | 2021-08-18 | Nokia Technologies Oy | APPARATUS, METHOD AND COMPUTER PROGRAM FOR CODING AND DECODING OF VIDEO |
US10430691B1 (en) * | 2019-01-22 | 2019-10-01 | StradVision, Inc. | Learning method and learning device for object detector based on CNN, adaptable to customers' requirements such as key performance index, using target object merging network and target region estimating network, and testing method and testing device using the same to be used for multi-camera or surround view monitoring |
US10387752B1 (en) * | 2019-01-22 | 2019-08-20 | StradVision, Inc. | Learning method and learning device for object detector with hardware optimization based on CNN for detection at distance or military purpose using image concatenation, and testing method and testing device using the same |
US10423860B1 (en) * | 2019-01-22 | 2019-09-24 | StradVision, Inc. | Learning method and learning device for object detector based on CNN to be used for multi-camera or surround view monitoring using image concatenation and target object merging network, and testing method and testing device using the same |
US10402695B1 (en) * | 2019-01-23 | 2019-09-03 | StradVision, Inc. | Learning method and learning device for convolutional neural network using 1×H convolution for image recognition to be used for hardware optimization, and testing method and testing device using the same |
US10387754B1 (en) * | 2019-01-23 | 2019-08-20 | StradVision, Inc. | Learning method and learning device for object detector based on CNN using 1×H convolution to be used for hardware optimization, and testing method and testing device using the same |
CN109886317B (zh) * | 2019-01-29 | 2021-04-27 | 中国科学院自动化研究所 | 基于注意力机制的通用图像美学评估方法、系统及设备 |
US11514329B2 (en) * | 2019-03-27 | 2022-11-29 | General Electric Company | Data-driven deep learning model generalization analysis and improvement |
US11593650B2 (en) | 2019-03-27 | 2023-02-28 | GE Precision Healthcare LLC | Determining confident data samples for machine learning models on unseen data |
GB2582782A (en) * | 2019-04-02 | 2020-10-07 | Graphcore Ltd | Graph conversion method |
KR102263375B1 (ko) * | 2019-10-01 | 2021-06-11 | 전남대학교산학협력단 | 커널 기법을 사용한 제한된 볼츠만 머신 시스템 |
US11593673B2 (en) | 2019-10-07 | 2023-02-28 | Servicenow Canada Inc. | Systems and methods for identifying influential training data points |
KR102519554B1 (ko) * | 2019-12-03 | 2023-04-06 | 경희대학교 산학협력단 | 심층 신경망 시스템을 포함하는 전자 장치 및 그 동작 방법 |
US11074507B1 (en) * | 2020-05-22 | 2021-07-27 | StradVision, Inc. | Method for performing adjustable continual learning on deep neural network model by using selective deep generative replay module and device using the same |
CN111722145B (zh) * | 2020-06-12 | 2023-04-25 | 华北电力大学(保定) | 一种同步电机励磁绕组匝间短路轻度故障诊断方法 |
TWI746038B (zh) * | 2020-07-02 | 2021-11-11 | 阿證科技股份有限公司 | 類神經網路人工智慧決策核心系統 |
CN112069837A (zh) * | 2020-09-17 | 2020-12-11 | 湖北亿咖通科技有限公司 | 一种基于神经网络的自然语言处理方法和电子设备 |
CN116402116B (zh) * | 2023-06-05 | 2023-09-05 | 山东云海国创云计算装备产业创新中心有限公司 | 神经网络的剪枝方法、系统、设备、介质及图像处理方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7634137B2 (en) * | 2005-10-14 | 2009-12-15 | Microsoft Corporation | Unfolded convolution for fast feature extraction |
US8972253B2 (en) * | 2010-09-15 | 2015-03-03 | Microsoft Technology Licensing, Llc | Deep belief network for large vocabulary continuous speech recognition |
EP3089081A4 (en) | 2014-02-10 | 2017-09-20 | Mitsubishi Electric Corporation | Hierarchical neural network device, learning method for determination device, and determination method |
US9477654B2 (en) * | 2014-04-01 | 2016-10-25 | Microsoft Corporation | Convolutional latent semantic models and their applications |
EP3271863B1 (en) * | 2015-03-20 | 2021-07-28 | Fraunhofer Gesellschaft zur Förderung der angewandten Forschung E.V. | Relevance score assignment for artificial neural network |
CN106156807B (zh) | 2015-04-02 | 2020-06-02 | 华中科技大学 | 卷积神经网络模型的训练方法及装置 |
US10460230B2 (en) * | 2015-06-04 | 2019-10-29 | Samsung Electronics Co., Ltd. | Reducing computations in a neural network |
US11423311B2 (en) * | 2015-06-04 | 2022-08-23 | Samsung Electronics Co., Ltd. | Automatic tuning of artificial neural networks |
EP3345104B1 (en) * | 2015-09-01 | 2023-06-07 | Dream It Get IT Limited | Media unit retrieval and related processes |
US20170169358A1 (en) | 2015-12-09 | 2017-06-15 | Samsung Electronics Co., Ltd. | In-storage computing apparatus and method for decentralized machine learning |
KR101644998B1 (ko) | 2015-12-22 | 2016-08-02 | 엑스브레인 주식회사 | Convolutional Neural Network를 이용하여 비정상 입력 데이터를 검출하는 방법 및 장치 |
KR101823749B1 (ko) | 2016-03-10 | 2018-01-31 | 한국과학기술원 | 군집 지능과 기계학습 알고리즘을 이용한 적응형 미지 공격 탐지 시스템의 방식 및 장치 |
WO2017212459A1 (en) * | 2016-06-09 | 2017-12-14 | Sentient Technologies (Barbados) Limited | Content embedding using deep metric learning algorithms |
US20180060724A1 (en) * | 2016-08-25 | 2018-03-01 | Microsoft Technology Licensing, Llc | Network Morphism |
-
2017
- 2017-08-09 KR KR1020170101084A patent/KR101880901B1/ko active IP Right Grant
-
2018
- 2018-02-28 US US15/908,420 patent/US10970631B2/en active Active
- 2018-03-07 JP JP2018041353A patent/JP6574503B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR101880901B1 (ko) | 2018-07-23 |
US20190050728A1 (en) | 2019-02-14 |
JP2019032808A (ja) | 2019-02-28 |
US10970631B2 (en) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6574503B2 (ja) | 機械学習方法および装置 | |
US11875268B2 (en) | Object recognition with reduced neural network weight precision | |
JP6608981B2 (ja) | 異常セッション感知方法 | |
JP6504590B2 (ja) | 画像のセマンティックセグメンテーションのためのシステム及びコンピューター実施方法、並びに非一時的コンピューター可読媒体 | |
US11151450B2 (en) | System and method for generating explainable latent features of machine learning models | |
CN109754078B (zh) | 用于优化神经网络的方法 | |
CN107622302B (zh) | 用于卷积神经网络的超像素方法 | |
JP7536893B2 (ja) | 自己注意ベースのニューラルネットワークを使用した画像処理 | |
Chu et al. | Analysis of feature maps selection in supervised learning using convolutional neural networks | |
WO2022105108A1 (zh) | 一种网络数据分类方法、装置、设备及可读存储介质 | |
US11657285B2 (en) | Methods, systems, and media for random semi-structured row-wise pruning in neural networks | |
CN112633482A (zh) | 一种高效宽度图卷积神经网络模型及其训练方法 | |
CN112560639B (zh) | 人脸关键点数目转换方法、系统、电子设备及存储介质 | |
JP7150651B2 (ja) | ニューラルネットワークのモデル縮約装置 | |
CN115080139A (zh) | 用于神经网络部署和执行的有效量化 | |
CN113490955B (zh) | 用于产生金字塔层的架构的系统和方法 | |
KR102105951B1 (ko) | 추론을 위한 제한된 볼츠만 머신 구축 방법 및 추론을 위한 제한된 볼츠만 머신을 탑재한 컴퓨터 장치 | |
Dai et al. | Random sharing parameters in the global region of convolutional neural network | |
JP7438544B2 (ja) | ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法 | |
CN116964589A (zh) | 一种由预训练小型网络构建的多节点神经网络 | |
Graham et al. | Applying Neural Networks to a Fractal Inverse Problem | |
KR20210041919A (ko) | 데이터 생성 방법 | |
CN114168320B (zh) | 基于隐式空间映射的端到端边缘智能模型搜索方法和系统 | |
US20220343162A1 (en) | Method for structure learning and model compression for deep neural network | |
CN116663640A (zh) | 用于剪枝的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6574503 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |