JP7073437B2 - ハイパーネットワークトレーニングの方法及び装置、電子機器、記憶媒体 - Google Patents
ハイパーネットワークトレーニングの方法及び装置、電子機器、記憶媒体 Download PDFInfo
- Publication number
- JP7073437B2 JP7073437B2 JP2020069754A JP2020069754A JP7073437B2 JP 7073437 B2 JP7073437 B2 JP 7073437B2 JP 2020069754 A JP2020069754 A JP 2020069754A JP 2020069754 A JP2020069754 A JP 2020069754A JP 7073437 B2 JP7073437 B2 JP 7073437B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- hypernetwork
- substructure
- subnet
- multipath neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Mobile Radio Communication Systems (AREA)
Description
事前に構築された初期ハイパーネットワークに基づいて、トレーニング用マルチパスニューラルサブネットワーク(Multipath neural subnetwork)を取得することと、
前記トレーニング用マルチパスニューラルサブネットワークをトレーニングして、各トレーニング用マルチパスニューラルサブネットワークにおける各サブ構造の重みパラメータを更新することと、
前記トレーニング用マルチパスニューラルサブネットワークの各サブ構造の重みパラメータを前記初期ハイパーネットワークに同期することと、
前記初期ハイパーネットワークが収束するかどうかを判断し、収束しない場合、事前に構築された初期ハイパーネットワークに基づいてトレーニング用マルチパスニューラルサブネットワークを取得するステップに戻って実行し、収束する場合、トレーニングを終了し、ターゲットハイパーネットワークを取得することとを含み、
前記事前に構築された初期ハイパーネットワークに基づいて、トレーニング用マルチパスニューラルサブネットワークを取得することは、
事前に構築されたハイパーネットワークの各レイヤについて、前記各レイヤから複数のサブ構造をサンプリングし、前記複数のサブ構造の出力結果を加算するために使用される出力端を追加して、前記複数のサブ構造および前記出力端を含むサブ構造ユニットを取得することと、
前記各レイヤの順序に応じて各サブ構造ユニットを直列に接続して、初期トレーニング用マルチパスニューラルサブネットワークを取得することと、
前記初期ハイパーネットワークおよび初期トレーニング用マルチパスニューラルサブネットワークの同じサブ構造に対して、パラメータ共有を実行して、最終的なトレーニング用マルチパスニューラルサブネットワークを取得することとを含む。
トレーニングセットの第1の数のトレーニングサンプルを取得することと、
前記トレーニングサンプルを前記トレーニング用マルチパスニューラルサブネットワークに順次に入力して、前記第1の数のトレーニングサンプルがすべて使用されるまで前記トレーニング用マルチパスニューラルサブネットワークをトレーニングすることとを含む。
前記ターゲットハイパーネットワークに基づいて新たに取得された複数のトレーニング用マルチパスニューラルサブネットワークを評価して、評価結果を取得することと、
前記評価結果に従って、設定条件を満たすトレーニング用マルチパスニューラルサブネットワークを決定し、前記トレーニング用マルチパスニューラルサブネットワークをターゲットシナリオに適用することとをさらに含む。
前記ターゲットハイパーネットワークに基づいて、複数のトレーニング用マルチパスニューラルサブネットワークを取得することと、
前記ターゲットハイパーネットワーク内の各サブ構造の重みパラメータを、前記トレーニング用マルチパスニューラルサブネットワーク内の対応するサブ構造に共有することと、
前記複数のトレーニング用マルチパスニューラルサブネットワークを評価して、各トレーニング用マルチパスニューラルサブネットワークの評価結果を取得することとを含む。
事前に構築された初期ハイパーネットワークに基づいてトレーニング用マルチパスニューラルサブネットワークを取得するように構成されるサブネットワーク取得モジュールと、
前記トレーニング用マルチパスニューラルサブネットワークをトレーニングして、各トレーニング用マルチパスニューラルサブネットワークにおける各サブ構造の重みパラメータを更新するように構成されるサブネットワークトレーニングモジュールと、
前記トレーニング用マルチパスニューラルサブネットワーク内の各サブ構造の重みパラメータを前記初期ハイパーネットワークに同期するように構成される重みパラメータ同期モジュールと、
前記初期ハイパーネットワークが収束するかどうかを判断し、前記初期ハイパーネットワークが収束しない場合、前記サブネットワーク取得モジュールをトリガーし、前記初期ハイパーネットワークが収束する場合、トレーニングを終了し、ターゲットハイパーネットワークを取得するように構成されるハイパーネットワーク取得モジュールとを含み、
前記サブネットワーク取得モジュールは、
事前に構築されたハイパーネットワークの各レイヤについて、前記各レイヤから複数のサブ構造をサンプリングし、前記複数のサブ構造の出力結果を加算するために使用される出力端を追加して、前記複数のサブ構造および前記出力端を含むサブ構造ユニットを取得するように構成されるサブ構造取得ユニットと、
前記各レイヤの順序に応じて各サブ構造ユニットを直列に接続して、初期トレーニング用マルチパスニューラルサブネットワークを取得するように構成されるサブ構造直列ユニットと、
前記初期ハイパーネットワークおよび初期トレーニング用マルチパスニューラルサブネットワークの同じサブ構造に対して、パラメータ共有を実行して、最終的なトレーニング用マルチパスニューラルサブネットワークを取得するように構成されるパラメータ共有ユニットとを含む。
トレーニングセットの第1の数のトレーニングサンプルを取得するように構成されるトレーニングサンプル取得ユニットと、
前記トレーニングサンプルを前記トレーニング用マルチパスニューラルサブネットワークに順次に入力して、前記第1の数のトレーニングサンプルがすべて使用されるまで前記トレーニング用マルチパスニューラルサブネットワークをトレーニングするように構成されるサブネットワークトレーニングユニットとを含む。
前記ターゲットハイパーネットワークに基づいて新たに取得された複数のトレーニング用マルチパスニューラルサブネットワークを評価して、評価結果を取得するように構成される評価結果取得モジュールと、
前記評価結果に従って、設定条件を満たすトレーニング用マルチパスニューラルサブネットワークを決定し、前記トレーニング用マルチパスニューラルサブネットワークをターゲットシナリオに適用するように構成されるターゲットシナリオ決定モジュールとを含む。
前記ターゲットハイパーネットワークに基づいて、複数のトレーニング用マルチパスニューラルサブネットワークを取得するように構成されるサブネットワーク取得ユニットと、
前記ターゲットハイパーネットワーク内の各サブ構造の重みパラメータを、前記トレーニング用マルチパスニューラルサブネットワーク内の対応するサブ構造に共有するように構成されるパラメータ共有ユニットと、
前記複数のトレーニング用マルチパスニューラルサブネットワークに対して評価して、各トレーニング用マルチパスニューラルサブネットワークの評価結果を取得するように構成されるサブネットワーク評価ユニットとを含む。
プロセッサと、
前記プロセッサによって実行可能な命令を記憶するように構成されるメモリとを含み、
前記プロセッサは、前記メモリ内の実行可能な命令を実行して、上記に記載の方法を実現するように構成される。
事前に構築された初期ハイパーネットワークに基づいてマルチパスニューラルサブネットワークを取得するように構成されるサブネットワーク取得モジュール901と、
前記マルチパスニューラルサブネットワークをトレーニングして、各サブ構造の重みパラメータを更新するように構成されるサブネットワークトレーニングモジュール902と、
前記マルチパスニューラルサブネットワーク内の各サブ構造の重みパラメータを前記初期ハイパーネットワークに同期するように構成される重みパラメータ同期モジュール903と、
前記初期ハイパーネットワークが収束するかどうかを判断し、前記初期ハイパーネットワークが収束しない場合、前記サブネットワーク取得モジュールをトリガーし、前記初期ハイパーネットワークが収束する場合、トレーニングを終了し、ターゲットハイパーネットワークを取得するように構成されるハイパーネットワーク取得モジュール904とを含む。
事前に構築されたハイパーネットワークの各レイヤについて、前記各レイヤから少なくとも1つのサブ構造をサンプリングし、前記少なくとも1つのサブ構造の出力結果を加算するために使用される出力端を追加して、前記少なくとも1つのサブ構造および前記出力端を含むサブ構造ユニットを取得するように構成されるサブ構造取得ユニット1001と、
前記各レイヤの順序に応じて各サブ構造ユニットを直列に接続して、初期マルチパスニューラルサブネットワークを取得するように構成されるサブ構造直列ユニット1002と、
前記初期ハイパーネットワークおよび初期マルチパスニューラルサブネットワークの同じサブ構造に対して、パラメータ共有を実行して、最終的なマルチパスニューラルサブネットワークを取得するように構成されるパラメータ共有ユニット1003とを含む。
トレーニングセットの第1の数のトレーニングサンプルを取得するように構成されるトレーニングサンプル取得ユニット1101と、
前記トレーニングサンプルを前記マルチパスニューラルサブネットワークに順次に入力して、前記第1の数のトレーニングサンプルがすべて使用されるまで前記マルチパスニューラルサブネットワークをトレーニングするように構成されるサブネットワークトレーニングユニット1102とを含む。
前記ターゲットハイパーネットワークに基づいて、新たに取得された複数のマルチパスニューラルサブネットワークを評価して、評価結果を取得するように構成される評価結果取得モジュール1201と、
前記評価結果に従って、設定条件を満たすマルチパスニューラルサブネットワークを決定し、前記マルチパスニューラルサブネットワークをターゲットシナリオに適用するように構成されるターゲットシナリオ決定モジュール1202を含む。
前記ターゲットハイパーネットワークに基づいて、複数のマルチパスニューラルサブネットワークを取得するように構成されるサブネットワーク取得ユニット1301と、
前記ターゲットハイパーネットワーク内の各サブ構造の重みパラメータを、前記マルチパスニューラルサブネットワーク内の対応するサブ構造に共有するように構成されるパラメータ共有ユニット1302と、
前記複数のマルチパスニューラルサブネットワークに対して評価して、各マルチパスニューラルサブネットワークの評価結果を取得するように構成されるサブネットワーク評価ユニット1303とを含む。
Claims (13)
- ハイパーネットワークトレーニングの方法であって、
事前に構築された初期ハイパーネットワークに基づいて、トレーニング用マルチパスニューラルサブネットワークを取得することと、
前記トレーニング用マルチパスニューラルサブネットワークをトレーニングして、各トレーニング用マルチパスニューラルサブネットワークにおける各サブ構造の重みパラメータを更新することと、
前記トレーニング用マルチパスニューラルサブネットワークの各サブ構造の重みパラメータを前記初期ハイパーネットワークに同期することと、
前記初期ハイパーネットワークが収束するかどうかを判断し、収束しない場合、事前に構築された初期ハイパーネットワークに基づいてトレーニング用マルチパスニューラルサブネットワークを取得するステップに戻って実行し、収束する場合、トレーニングを終了し、ターゲットハイパーネットワークを取得することとを含み、
前記事前に構築された初期ハイパーネットワークに基づいて、トレーニング用マルチパスニューラルサブネットワークを取得することは、
事前に構築されたハイパーネットワークの各レイヤについて、前記各レイヤから複数のサブ構造をサンプリングし、前記複数のサブ構造の出力結果を加算するために使用される出力端を追加して、前記複数のサブ構造および前記出力端を含むサブ構造ユニットを取得することと、
前記各レイヤの順序に応じて各サブ構造ユニットを直列に接続して、初期トレーニング用マルチパスニューラルサブネットワークを取得することと、
前記初期ハイパーネットワークおよび初期トレーニング用マルチパスニューラルサブネットワークの同じサブ構造に対して、パラメータ共有を実行して、最終的なトレーニング用マルチパスニューラルサブネットワークを取得することとを含むことを特徴とする、
ハイパーネットワークトレーニングの方法。 - 前記各レイヤから複数のサブ構造をサンプリングするステップでは、ベルヌーイサンプリング方法を使用してサブ構造を順次にサンプリングし、且つ前記各レイヤの各サブ構造がサンプリングされる確率は均等であることを特徴とする、
請求項1に記載のハイパーネットワークトレーニングの方法。 - 前記トレーニング用マルチパスニューラルサブネットワークをトレーニングすることは、
トレーニングセットの第1の数のトレーニングサンプルを取得することと、
前記トレーニングサンプルを前記トレーニング用マルチパスニューラルサブネットワークに順次に入力して、前記第1の数のトレーニングサンプルがすべて使用されるまで前記トレーニング用マルチパスニューラルサブネットワークをトレーニングすることとを含むことを特徴とする、
請求項1に記載のハイパーネットワークトレーニングの方法。 - 前記方法は、
前記ターゲットハイパーネットワークに基づいて新たに取得された複数のトレーニング用マルチパスニューラルサブネットワークを評価して、評価結果を取得することと、
前記評価結果に従って、設定条件を満たすトレーニング用マルチパスニューラルサブネットワークを決定し、前記トレーニング用マルチパスニューラルサブネットワークをターゲットシナリオに適用することとをさらに含むことを特徴とする、
請求項1に記載のハイパーネットワークトレーニングの方法。 - 前記ターゲットハイパーネットワークに基づいて新たに取得された複数のトレーニング用マルチパスニューラルサブネットワークを評価して、評価結果を取得することは、
前記ターゲットハイパーネットワークに基づいて、複数のトレーニング用マルチパスニューラルサブネットワークを取得することと、
前記ターゲットハイパーネットワーク内の各サブ構造の重みパラメータを、前記トレーニング用マルチパスニューラルサブネットワーク内の対応するサブ構造に共有することと、
前記複数のトレーニング用マルチパスニューラルサブネットワークを評価して、各トレーニング用マルチパスニューラルサブネットワークの評価結果を取得することとを含むことを特徴とする、
請求項4に記載のハイパーネットワークトレーニングの方法。 - 前記ターゲットシナリオは、画像の分類、ターゲットの検出、セマンティックセグメンテーション、テキストから音声への変換、自然言語の翻訳、音声の強調のうちの少なくとも1つを含むことを特徴とする、
請求項4に記載のハイパーネットワークトレーニングの方法。 - ハイパーネットワークトレーニング装置であって、
前記装置は、
事前に構築された初期ハイパーネットワークに基づいてトレーニング用マルチパスニューラルサブネットワークを取得するように構成されるサブネットワーク取得モジュールと、
前記トレーニング用マルチパスニューラルサブネットワークをトレーニングして、各トレーニング用マルチパスニューラルサブネットワークにおける各サブ構造の重みパラメータを更新するように構成されるサブネットワークトレーニングモジュールと、
前記トレーニング用マルチパスニューラルサブネットワーク内の各サブ構造の重みパラメータを前記初期ハイパーネットワークに同期するように構成される重みパラメータ同期モジュールと、
前記初期ハイパーネットワークが収束するかどうかを判断し、前記初期ハイパーネットワークが収束しない場合、前記サブネットワーク取得モジュールをトリガーし、前記初期ハイパーネットワークが収束する場合、トレーニングを終了し、ターゲットハイパーネットワークを取得するように構成されるハイパーネットワーク取得モジュールとを含み、
前記サブネットワーク取得モジュールは、
事前に構築されたハイパーネットワークの各レイヤについて、前記各レイヤから複数のサブ構造をサンプリングし、前記複数のサブ構造の出力結果を加算するために使用される出力端を追加して、前記複数のサブ構造および前記出力端を含むサブ構造ユニットを取得するように構成されるサブ構造取得ユニットと、
前記各レイヤの順序に応じて各サブ構造ユニットを直列に接続して、初期トレーニング用マルチパスニューラルサブネットワークを取得するように構成されるサブ構造直列ユニットと、
前記初期ハイパーネットワークおよび初期トレーニング用マルチパスニューラルサブネットワークの同じサブ構造に対して、パラメータ共有を実行して、最終的なトレーニング用マルチパスニューラルサブネットワークを取得するように構成されるパラメータ共有ユニットとを含むことを特徴とする、
ハイパーネットワークトレーニング装置。 - 前記サブ構造取得ユニットは、ベルヌーイサンプリング方法を使用してサブ構造を順次にサンプリングするように構成され、前記各レイヤの各サブ構造がサンプリングされる確率は均等であることを特徴とする、
請求項7に記載のハイパーネットワークトレーニング装置。 - 前記サブネットワークトレーニングモジュールは、
トレーニングセットの第1の数のトレーニングサンプルを取得するように構成されるトレーニングサンプル取得ユニットと、
前記トレーニングサンプルを前記トレーニング用マルチパスニューラルサブネットワークに順次に入力して、前記第1の数のトレーニングサンプルがすべて使用されるまで前記トレーニング用マルチパスニューラルサブネットワークをトレーニングするように構成されるサブネットワークトレーニングユニットとを含むことを特徴とする、
請求項7に記載のハイパーネットワークトレーニング装置。 - 前記装置は、さらに、
前記ターゲットハイパーネットワークに基づいて新たに取得された複数のトレーニング用マルチパスニューラルサブネットワークを評価して、評価結果を取得するように構成される評価結果取得モジュールと、
前記評価結果に従って、設定条件を満たすトレーニング用マルチパスニューラルサブネットワークを決定し、前記トレーニング用マルチパスニューラルサブネットワークをターゲットシナリオに適用するように構成されるターゲットシナリオ決定モジュールとを含むことを特徴とする、
請求項7に記載のハイパーネットワークトレーニング装置。 - 前記評価結果取得モジュールは、
前記ターゲットハイパーネットワークに基づいて、複数のトレーニング用マルチパスニューラルサブネットワークを取得するように構成されるサブネットワーク取得ユニットと、
前記ターゲットハイパーネットワーク内の各サブ構造の重みパラメータを、前記トレーニング用マルチパスニューラルサブネットワーク内の対応するサブ構造に共有するように構成されるパラメータ共有ユニットと、
前記複数のトレーニング用マルチパスニューラルサブネットワークに対して評価して、各トレーニング用マルチパスニューラルサブネットワークの評価結果を取得するように構成されるサブネットワーク評価ユニットとを含むことを特徴とする、
請求項10に記載のハイパーネットワークトレーニング装置。 - 電子機器であって、
プロセッサと、
前記プロセッサによって実行可能な命令を記憶するように構成されるメモリとを含み、
前記プロセッサは、前記メモリ内の実行可能な命令を実行して、請求項1ないし6のいずれか一項に記載の方法を実現するように構成されることを特徴とする、前記電子機器。 - 実行可能な命令を記憶するように構成される読み取り可能な記憶媒体であって、
前記実行可能な命令がプロセッサによって実行されると、請求項1ないし6のいずれか一項に記載の方法が実現されることを特徴とする、前記読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911102261.3 | 2019-11-12 | ||
CN201911102261.3A CN110956262A (zh) | 2019-11-12 | 2019-11-12 | 超网络训练方法及装置、电子设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021077322A JP2021077322A (ja) | 2021-05-20 |
JP7073437B2 true JP7073437B2 (ja) | 2022-05-23 |
Family
ID=69977411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020069754A Active JP7073437B2 (ja) | 2019-11-12 | 2020-04-08 | ハイパーネットワークトレーニングの方法及び装置、電子機器、記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11443189B2 (ja) |
EP (1) | EP3825923A1 (ja) |
JP (1) | JP7073437B2 (ja) |
KR (1) | KR102387020B1 (ja) |
CN (1) | CN110956262A (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523665B (zh) * | 2020-04-23 | 2024-02-13 | 北京百度网讯科技有限公司 | 超网络参数更新方法、装置和电子设备 |
CN111553464B (zh) | 2020-04-26 | 2023-09-29 | 北京小米松果电子有限公司 | 基于超网络的图像处理方法、装置及智能设备 |
CN111539439B (zh) * | 2020-04-30 | 2021-01-05 | 宜宾电子科技大学研究院 | 一种图像语义分割方法 |
CN111563591B (zh) * | 2020-05-08 | 2023-10-20 | 北京百度网讯科技有限公司 | 超网络的训练方法和装置 |
CN111563592B (zh) * | 2020-05-08 | 2023-12-15 | 北京百度网讯科技有限公司 | 基于超网络的神经网络模型生成方法和装置 |
CN111582453B (zh) * | 2020-05-09 | 2023-10-27 | 北京百度网讯科技有限公司 | 生成神经网络模型的方法和装置 |
CN113705276B (zh) * | 2020-05-20 | 2024-08-27 | 武汉Tcl集团工业研究院有限公司 | 模型构建方法、模型构建装置、计算机设备及介质 |
CN111639753B (zh) * | 2020-05-29 | 2023-12-05 | 北京百度网讯科技有限公司 | 用于训练图像处理超网络的方法、装置、设备以及存储介质 |
CN111652354B (zh) * | 2020-05-29 | 2023-10-24 | 北京百度网讯科技有限公司 | 用于训练超网络的方法、装置、设备以及存储介质 |
CN111639752B (zh) * | 2020-05-29 | 2023-09-26 | 北京百度网讯科技有限公司 | 用于训练超网络的方法、装置、设备以及存储介质 |
CN111783951B (zh) * | 2020-06-29 | 2024-02-20 | 北京百度网讯科技有限公司 | 基于超网络的模型获取方法、装置、设备及存储介质 |
CN111968635B (zh) * | 2020-08-07 | 2024-03-05 | 北京小米松果电子有限公司 | 语音识别的方法、装置及存储介质 |
WO2022141189A1 (zh) * | 2020-12-30 | 2022-07-07 | 南方科技大学 | 一种循环神经网络精度和分解秩的自动搜索方法和装置 |
CN114970654B (zh) * | 2021-05-21 | 2023-04-18 | 华为技术有限公司 | 数据处理方法、装置和终端 |
CN113326922B (zh) * | 2021-05-31 | 2023-06-13 | 北京市商汤科技开发有限公司 | 神经网络的生成方法、装置、电子设备及存储介质 |
US20240119077A1 (en) * | 2022-09-28 | 2024-04-11 | Samsung Electronics Co., Ltd. | Apparatus and method for sharing and pruning weights for vision and language models |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018018451A (ja) | 2016-07-29 | 2018-02-01 | 富士通株式会社 | 機械学習方法、機械学習プログラム及び情報処理装置 |
WO2019106619A1 (en) | 2017-11-30 | 2019-06-06 | International Business Machines Corporation | Compression of fully connected/recurrent layers of deep network(s) through enforcing spatial locality to weight matrices and effecting frequency compression |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102532658B1 (ko) * | 2016-10-28 | 2023-05-15 | 구글 엘엘씨 | 신경 아키텍처 검색 |
US11069033B2 (en) * | 2018-09-10 | 2021-07-20 | University Of Florida Research Foundation, Inc. | Neural network evolution using expedited genetic algorithm for medical image denoising |
US11531861B2 (en) * | 2018-11-06 | 2022-12-20 | Google Llc | Neural architecture search with factorized hierarchical search space |
WO2020140073A1 (en) * | 2018-12-27 | 2020-07-02 | Google Llc | Neural architecture search through a graph search space |
CN110288084A (zh) | 2019-06-06 | 2019-09-27 | 北京小米智能科技有限公司 | 超网络训练方法和装置 |
KR102140996B1 (ko) * | 2020-02-21 | 2020-08-04 | 광주과학기술원 | 바이너리 뉴럴 네트워크를 위한 뉴럴 아키텍처 서치 방법 및 장치 |
CN112528671A (zh) * | 2020-12-02 | 2021-03-19 | 北京小米松果电子有限公司 | 语义分析方法、装置以及存储介质 |
-
2019
- 2019-11-12 CN CN201911102261.3A patent/CN110956262A/zh active Pending
-
2020
- 2020-03-24 US US16/828,427 patent/US11443189B2/en active Active
- 2020-03-26 KR KR1020200036528A patent/KR102387020B1/ko active IP Right Grant
- 2020-03-27 EP EP20166225.1A patent/EP3825923A1/en active Pending
- 2020-04-08 JP JP2020069754A patent/JP7073437B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018018451A (ja) | 2016-07-29 | 2018-02-01 | 富士通株式会社 | 機械学習方法、機械学習プログラム及び情報処理装置 |
WO2019106619A1 (en) | 2017-11-30 | 2019-06-06 | International Business Machines Corporation | Compression of fully connected/recurrent layers of deep network(s) through enforcing spatial locality to weight matrices and effecting frequency compression |
Non-Patent Citations (3)
Title |
---|
BENDER, Gabriel et al.,Understanding and simplifying one-shot architecture search [online],2018年,[retrieved on 2021.06.09], Retrieved from the Internet: <URL: http://proceedings.mlr.press/v80/bender18a/bender18a.pdf> |
CHO, Minsu et al.,One-shot neural architecture search via compressive sensing [online],2019年06月07日,[retrieved on 2021.06.09], Retrieved from the Internet: <URL: https://arxiv.org/pdf/1906.02869.pdf> |
CHU, Xiangxiang et al.,FairNAS: Rethinking Evaluation Fairness of Weight Sharing Neural Architecture Search [online],2019年08月14日,[retrieved on 2021.06.09], Retrieved from the Internet: <URL: https://arxiv.org/pdf/1907.01845v2.pdf> |
Also Published As
Publication number | Publication date |
---|---|
KR20210058619A (ko) | 2021-05-24 |
KR102387020B1 (ko) | 2022-04-15 |
EP3825923A1 (en) | 2021-05-26 |
US11443189B2 (en) | 2022-09-13 |
CN110956262A (zh) | 2020-04-03 |
JP2021077322A (ja) | 2021-05-20 |
US20210142166A1 (en) | 2021-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7073437B2 (ja) | ハイパーネットワークトレーニングの方法及び装置、電子機器、記憶媒体 | |
CN110826344B (zh) | 神经网络模型压缩方法、语料翻译方法及其装置 | |
KR102365890B1 (ko) | 신경망의 훈련 방법, 장치 및 저장 매체 | |
KR102270394B1 (ko) | 이미지를 인식하기 위한 방법, 단말, 및 저장 매체 | |
JP2021533466A (ja) | モデルトレーニング方法、機械翻訳方法、コンピュータ装置及びプログラム | |
JP7030885B2 (ja) | 機械翻訳用のニューラルネットワークモデルの圧縮方法、装置および記憶媒体 | |
EP3901827B1 (en) | Image processing method and apparatus based on super network, intelligent device and computer storage medium | |
US11735168B2 (en) | Method and apparatus for recognizing voice | |
CN108573306B (zh) | 输出回复信息的方法、深度学习模型的训练方法及装置 | |
CN110188865B (zh) | 信息处理方法及装置、电子设备和存储介质 | |
US11874876B2 (en) | Electronic device and method for predicting an intention of a user | |
CN110956127A (zh) | 用于生成特征向量的方法、装置、电子设备和介质 | |
CN112259122A (zh) | 音频类型识别方法、装置及存储介质 | |
CN116189277A (zh) | 训练方法和装置、手势识别方法、电子设备及存储介质 | |
CN111221424B (zh) | 用于生成信息的方法、装置、电子设备和计算机可读介质 | |
CN108345590B (zh) | 一种翻译方法、装置、电子设备以及存储介质 | |
CN111160522B (zh) | 机器学习的抗噪方法、装置及系统 | |
CN115409044A (zh) | 翻译方法、装置、可读介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7073437 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |