KR20210058619A - 하이퍼네트워크 훈련 방법 및 장치, 전자 기기, 저장 매체 - Google Patents
하이퍼네트워크 훈련 방법 및 장치, 전자 기기, 저장 매체 Download PDFInfo
- Publication number
- KR20210058619A KR20210058619A KR1020200036528A KR20200036528A KR20210058619A KR 20210058619 A KR20210058619 A KR 20210058619A KR 1020200036528 A KR1020200036528 A KR 1020200036528A KR 20200036528 A KR20200036528 A KR 20200036528A KR 20210058619 A KR20210058619 A KR 20210058619A
- Authority
- KR
- South Korea
- Prior art keywords
- sub
- network
- hypernetwork
- training
- path neural
- Prior art date
Links
- 238000012549 training Methods 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000001537 neural effect Effects 0.000 claims abstract description 154
- 238000011156 evaluation Methods 0.000 claims description 32
- 238000005070 sampling Methods 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
Description
도 1은 일 예시 실시예에 따라 도시된 하이퍼네트워크 훈련 방법의 흐름도이다.
도 2는 일 예시적 실시예에 따라 도시된 하이퍼네트워크의 구조 예시도이다.
도 3은 일 예시적 실시예에 따라 도시된 멀티 경로 뉴럴 서브 네트워크의 흐름도이다.
도 4는 일 예시적 실시예에 따라 도시된 샘플링된 서브 구조의 예시도이다.
도 5는 일 예시적 실시예에 따라 도시된 파라미터 공유의 예시도이다.
도 6은 일 예시적 실시예에 따라 도시된 멀티 경로 뉴럴 서브 네트워크를 훈련하는 흐름도이다.
도 7은 일 예시적 실시예에 따라 도시된 하이퍼네트워크의 가중 파라미터를 동기화시키는 예시도이다.
도 8은 일 예시적 실시예에 따라 도시된 멀티 경로 뉴럴 서브 네트워크 평가의 흐름도이다.
도 9 내지 도 13은 일 예시적 실시예에 따라 도시된 하이퍼네트워크 훈련 장치의 블록도이다.
도 14는 일 예시적 실시예에 따라 도시된 전자 기기의 블록도이다.
Claims (15)
- 하이퍼네트워크 훈련 방법으로서,
상기 방법은,
미리 구축된 초기 하이퍼네트워크에 기반하여 멀티 경로 뉴럴 서브 네트워크를 획득하는 단계;
상기 멀티 경로 뉴럴 서브 네트워크를 훈련시켜, 각 서브 구조의 가중 파라미터를 업데이트하는 단계;
상기 멀티 경로 뉴럴 서브 네트워크에서 각 서브 구조의 가중 파라미터를 상기 초기 하이퍼네트워크에 동기화시키는 단계; 및
상기 초기 하이퍼네트워크가 수렴되는지 여부를 판단하고, 수렴되지 않으면, 미리 구축된 초기 하이퍼네트워크에 기반하여 멀티 경로 뉴럴 서브 네트워크를 획득하는 단계로 재실행하고, 수렴되면, 훈련을 종료하고 목표 하이퍼네트위크를 획득하는 단계를 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 방법. - 제1항에 있어서,
상기 미리 구축된 초기 하이퍼네트워크에 기반하여 멀티 경로 뉴럴 서브 네트워크를 획득하는 단계는,
미리 구축된 하이퍼네트워크의 각 계층에 대해, 상기 각 계층으로부터 적어도 하나의 서브 구조를 샘플링하며, 상기 적어도 하나의 서브 구조의 출력 결과를 합치기 위한 출력단을 추가하여, 상기 적어도 하나의 서브 구조 및 상기 출력단을 포함하는 서브 구조 유닛을 획득하는 단계;
상기 각 계층의 순서에 따라 각 서브 구조 유닛을 직렬연결하여, 초기 멀티 경로 뉴럴 서브 네트워크를 획득하는 단계; 및
상기 초기 하이퍼네트워크 및 초기의 멀티 경로 뉴럴 서브 네트워크에서 동일한 서브 구조에 대해 파라미터를 공유하여, 최종 멀티 경로 뉴럴 서브 네트워크를 획득하는 단계를 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 방법. - 제2항에 있어서,
상기 각 계층으로부터 적어도 하나의 서브 구조를 샘플링하는 단계에서, 베르누이 샘플링 방법으로 서브 구조를 순차적으로 샘플링하며, 상기 각 계층에서 각 서브 구조가 샘플링될 확률은 같은 것을 특징으로 하는 하이퍼네트워크 훈련 방법. - 제1항에 있어서,
상기 멀티 경로 뉴럴 서브 네트워크를 훈련시키는 단계는,
훈련 세트에서 제1 개수 개의 훈련 샘플를 획득하는 단계; 및
상기 제1 개수의 훈련 샘플을 모두 사용할 때까지, 상기 훈련 샘플을 순차적으로 상기 멀티 경로 뉴럴 서브 네트워크에 입렵하여 상기 멀티 경로 뉴럴 서브 네트워크를 훈련시키는 단계를 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 방법. - 제1항에 있어서,
상기 방법은,
상기 목표 하이퍼네트워크에 기반하여 새로 획득된 복수 개의 멀티 경로 뉴럴 서브 네트워크를 평가하여, 평가 결과를 획득하는 단계; 및
상기 평가 결과에 따라 설정 조건을 만족하는 멀티 경로 뉴럴 서브 네트워크를 결정하여, 상기 결정된 멀티 경로 뉴럴 서브 네트워크를 목표 시나리오에 적용하는 단계를 더 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 방법. - 제5항에 있어서,
상기 목표 하이퍼네트워크에 기반하여 새로 획득된 복수 개의 멀티 경로 뉴럴 서브 네트워크를 평가하여, 평가 결과를 획득하는 단계는,
상기 목표 하이퍼네트워크에 기반하여 복수 개의 멀티 경로 뉴럴 서브 네트워크를 획득하는 단계;
상기 목표 하이퍼네트워크에서 각 서브 구조의 가중 파라미터를 상기 경로 뉴럴 서브 네트워크에서 대응되는 서브 구조에 공유하는 단계; 및
상기 복수 개의 멀티 경로 뉴럴 서브 네트워크를 평가하여, 각 멀티 경로 뉴럴 서브 네트워크의 평가 결과를 획득하는 단계를 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 방법. - 제5항에 있어서,
상기 목표 시나리오는 이미지 분류, 목표 검출, 시맨틱 세그머테이션, 텍스트 음성 변환, 자연어 번역, 음성 향상 중 적어도 하나를 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 방법. - 하이퍼네트워크 훈련 장치로서,
상기 장치는,
미리 구축된 초기 하이퍼네트워크에 기반하여 멀티 경로 뉴럴 서브 네트워크를 획득하기 위한 서브 네트워크 획득 모듈;
상기 멀티 경로 뉴럴 서브 네트워크를 훈련시켜, 각 서브 구조의 가중 파라미터를 업데이트하기 위한 서브 네트워크 훈련 모듈;
상기 멀티 경로 뉴럴 서브 네트워크에서 각 서브 구조의 가중 파라미터를 상기 초기 하이퍼네트워크에 동기화시키기 위한 가중 파라미터 동기화 모듈; 및
상기 초기 하이퍼네트워크의 수렴되는지 여부를 판단하고, 상기 초기 하이퍼네트워크가 수렴되지 않으면 상기 서브 네트워크가 획득한 모듈을 트리거하며, 상기 초기 하이퍼네트워크가 수렴되면 훈련을 종료하고 목표 하이퍼네트워크를 획득하기 위한 하이퍼네트워크 획득 모듈을 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 장치. - 제8항에 있어서,
상기 서브 네트워크 획득 모듈은,
미리 구축된 하이퍼네트워크의 각 계층에 대해, 상기 각 계층으로부터 적어도 하나의 서브 구조를 샘플링하고, 상기 적어도 하나의 서브 구조의 출력 결과를 합치기 위한 출력단을 추가하여, 상기 적어도 하나의 서브 구조 및 상기 출력단을 포함하는 서브 구조의 유닛을 획득하기 위한 서브 구조 획득 유닛;
상기 각 계층의 순서에 따라 각 서브 구조 유닛을 직렬연결하여, 초기의 멀티 경로 뉴럴 서브 네트워크를 획득하기 위한 서브 구조 직렬연결 유닛; 및
상기 초기 하이퍼네트워크 및 초기의 멀티 경로 뉴럴 서브 네트워크에서 동일한 서브 구조에 대해 파라미터를 공유하여, 최종 멀티 경로 뉴럴 서브 네트워크를 획득하기 위한 파라미터 공유 유닛을 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 장치. - 제9항에 있어서,
상기 서브 구조 획득 유닛은 베르누이 샘플링 방법으로 서브 구조를 순차적으로 샘플링하기 위한 것이고, 상기 각 계층에서 각 서브 구조가 샘플링될 확률은 같은 것을 특징으로 하는 하이퍼네트워크 훈련 장치. - 제8항에 있어서,
상기 서브 네트워크 훈련 모듈은,
훈련 세트에서 제1 개수 개의 훈련 샘플을 획득하기 위한 훈련 샘플 획득 유닛; 및
상기 제1 개수의 훈련 샘플을 모두 사용할 때까지, 상기 훈련 샘플을 순차적으로 상기 멀티 경로 뉴럴 서브 네트워크에 입력하여, 상기 멀티 경로 뉴럴 서브 네트워크를 훈련시키기 위한 서브 네트워크 훈련 유닛을 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 장치. - 제 8 항에 있어서,
상기 하이퍼네트워크 훈련 장치는,
상기 목표 하이퍼네트워크에 기반하여 새로 획득된 복수 개의 멀티 경로 뉴럴 서브 네트워크를 평가하여, 평가 결과를 획득하기 위한 평가 결과 획득 모듈; 및
상기 평가 결과에 따라 설정 조건을 만족하는 멀티 경로 뉴럴 서브 네트워크를 결정하여, 상기 결정된 멀티 경로 뉴럴 서브 네트워크를 목표 시나리오에 적용하기 위한 목표 시나리오 결정 모듈을 더 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 장치. - 제 12 항에 있어서,
상기 평가 결과 획득 모듈은,
상기 목표 하이퍼네트워크에 기반하여 복수 개의 멀티 경로 뉴럴 서브 네트워크를 획득하기 위한 서브 네트워크 획득 유닛;
상기 목표 하이퍼네트워크에서 각 서브 구조의 가중 파라미터를 상기 멀티 경로 뉴럴 서브 네트워크에서 대응되는 서브 구조에 공유하기 위한 파라미터 공유 유닛; 및
상기 복수 개의 멀티 경로 뉴럴 서브 네트워크를 평가하여, 각 멀티 경로 뉴럴 서브 네트워크의 평가 결과를 획득하기 위한 서브 네트워크 평가 유닛을 포함하는 것을 특징으로 하는 하이퍼네트워크 훈련 장치. - 전자 기기로서,
프로세서; 및
상기 프로세서에서 실행 가능한 명령어를 저장하기 위한 메모리를 포함하고;
상기 프로세서는 상기 메모리에서 실행 가능한 명령어를 실행하여, 제 1항 내지 제7항 중 어느 한 항에 따른 방법의 단계를 구현하도록 구성되는 것을 특징으로 하는 전자 기기. - 실행 가능한 명령어를 저장하는 판독 가능한 저장 매체로서,
상기 실행 가능한 명령어가 프로세서에서 실행될 때, 제 1항 내지 제7항에 따른 방법의 단계를 구현하는 것을 특징으로 하는 판독 가능한 저장 매체.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911102261.3 | 2019-11-12 | ||
CN201911102261.3A CN110956262A (zh) | 2019-11-12 | 2019-11-12 | 超网络训练方法及装置、电子设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210058619A true KR20210058619A (ko) | 2021-05-24 |
KR102387020B1 KR102387020B1 (ko) | 2022-04-15 |
Family
ID=69977411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200036528A KR102387020B1 (ko) | 2019-11-12 | 2020-03-26 | 하이퍼네트워크 훈련 방법 및 장치, 전자 기기, 저장 매체 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11443189B2 (ko) |
EP (1) | EP3825923A1 (ko) |
JP (1) | JP7073437B2 (ko) |
KR (1) | KR102387020B1 (ko) |
CN (1) | CN110956262A (ko) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523665B (zh) * | 2020-04-23 | 2024-02-13 | 北京百度网讯科技有限公司 | 超网络参数更新方法、装置和电子设备 |
CN111553464B (zh) * | 2020-04-26 | 2023-09-29 | 北京小米松果电子有限公司 | 基于超网络的图像处理方法、装置及智能设备 |
CN111539439B (zh) * | 2020-04-30 | 2021-01-05 | 宜宾电子科技大学研究院 | 一种图像语义分割方法 |
CN111563592B (zh) * | 2020-05-08 | 2023-12-15 | 北京百度网讯科技有限公司 | 基于超网络的神经网络模型生成方法和装置 |
CN111563591B (zh) * | 2020-05-08 | 2023-10-20 | 北京百度网讯科技有限公司 | 超网络的训练方法和装置 |
CN111582453B (zh) * | 2020-05-09 | 2023-10-27 | 北京百度网讯科技有限公司 | 生成神经网络模型的方法和装置 |
CN113705276B (zh) * | 2020-05-20 | 2024-08-27 | 武汉Tcl集团工业研究院有限公司 | 模型构建方法、模型构建装置、计算机设备及介质 |
CN111639752B (zh) * | 2020-05-29 | 2023-09-26 | 北京百度网讯科技有限公司 | 用于训练超网络的方法、装置、设备以及存储介质 |
CN111652354B (zh) * | 2020-05-29 | 2023-10-24 | 北京百度网讯科技有限公司 | 用于训练超网络的方法、装置、设备以及存储介质 |
CN111639753B (zh) * | 2020-05-29 | 2023-12-05 | 北京百度网讯科技有限公司 | 用于训练图像处理超网络的方法、装置、设备以及存储介质 |
CN111783951B (zh) * | 2020-06-29 | 2024-02-20 | 北京百度网讯科技有限公司 | 基于超网络的模型获取方法、装置、设备及存储介质 |
CN111968635B (zh) * | 2020-08-07 | 2024-03-05 | 北京小米松果电子有限公司 | 语音识别的方法、装置及存储介质 |
WO2022141189A1 (zh) * | 2020-12-30 | 2022-07-07 | 南方科技大学 | 一种循环神经网络精度和分解秩的自动搜索方法和装置 |
CN114970654B (zh) * | 2021-05-21 | 2023-04-18 | 华为技术有限公司 | 数据处理方法、装置和终端 |
CN113326922B (zh) * | 2021-05-31 | 2023-06-13 | 北京市商汤科技开发有限公司 | 神经网络的生成方法、装置、电子设备及存储介质 |
US20240119077A1 (en) * | 2022-09-28 | 2024-04-11 | Samsung Electronics Co., Ltd. | Apparatus and method for sharing and pruning weights for vision and language models |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018018451A (ja) | 2016-07-29 | 2018-02-01 | 富士通株式会社 | 機械学習方法、機械学習プログラム及び情報処理装置 |
JP6817431B2 (ja) * | 2016-10-28 | 2021-01-20 | グーグル エルエルシーGoogle LLC | ニューラルアーキテクチャ検索 |
US11977974B2 (en) | 2017-11-30 | 2024-05-07 | International Business Machines Corporation | Compression of fully connected / recurrent layers of deep network(s) through enforcing spatial locality to weight matrices and effecting frequency compression |
US11069033B2 (en) * | 2018-09-10 | 2021-07-20 | University Of Florida Research Foundation, Inc. | Neural network evolution using expedited genetic algorithm for medical image denoising |
US11531861B2 (en) * | 2018-11-06 | 2022-12-20 | Google Llc | Neural architecture search with factorized hierarchical search space |
WO2020140073A1 (en) * | 2018-12-27 | 2020-07-02 | Google Llc | Neural architecture search through a graph search space |
CN110288084A (zh) | 2019-06-06 | 2019-09-27 | 北京小米智能科技有限公司 | 超网络训练方法和装置 |
KR102140996B1 (ko) * | 2020-02-21 | 2020-08-04 | 광주과학기술원 | 바이너리 뉴럴 네트워크를 위한 뉴럴 아키텍처 서치 방법 및 장치 |
CN112528671A (zh) * | 2020-12-02 | 2021-03-19 | 北京小米松果电子有限公司 | 语义分析方法、装置以及存储介质 |
-
2019
- 2019-11-12 CN CN201911102261.3A patent/CN110956262A/zh active Pending
-
2020
- 2020-03-24 US US16/828,427 patent/US11443189B2/en active Active
- 2020-03-26 KR KR1020200036528A patent/KR102387020B1/ko active IP Right Grant
- 2020-03-27 EP EP20166225.1A patent/EP3825923A1/en active Pending
- 2020-04-08 JP JP2020069754A patent/JP7073437B2/ja active Active
Non-Patent Citations (1)
Title |
---|
Single Path One-Shot Neural Architecture Search with Uniform Sampling* * |
Also Published As
Publication number | Publication date |
---|---|
US11443189B2 (en) | 2022-09-13 |
JP7073437B2 (ja) | 2022-05-23 |
EP3825923A1 (en) | 2021-05-26 |
US20210142166A1 (en) | 2021-05-13 |
JP2021077322A (ja) | 2021-05-20 |
KR102387020B1 (ko) | 2022-04-15 |
CN110956262A (zh) | 2020-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102387020B1 (ko) | 하이퍼네트워크 훈련 방법 및 장치, 전자 기기, 저장 매체 | |
KR102365890B1 (ko) | 신경망의 훈련 방법, 장치 및 저장 매체 | |
KR102270394B1 (ko) | 이미지를 인식하기 위한 방법, 단말, 및 저장 매체 | |
CN111582453B (zh) | 生成神经网络模型的方法和装置 | |
WO2019214365A1 (zh) | 翻译模型训练的方法、语句翻译的方法、设备及存储介质 | |
US10007660B2 (en) | Contextual language understanding for multi-turn language tasks | |
CN110162799A (zh) | 模型训练方法、机器翻译方法以及相关装置和设备 | |
US20210390449A1 (en) | Method and device for data processing, and storage medium | |
US10754885B2 (en) | System and method for visually searching and debugging conversational agents of electronic devices | |
CN110826344A (zh) | 神经网络模型压缩方法、语料翻译方法及其装置 | |
US11735168B2 (en) | Method and apparatus for recognizing voice | |
CN108573306B (zh) | 输出回复信息的方法、深度学习模型的训练方法及装置 | |
CN111798865A (zh) | 终端马达的检测方法、装置、终端及存储介质 | |
CN112784985A (zh) | 神经网络模型的训练方法及装置、图像识别方法及装置 | |
CN117033681A (zh) | 一种图像的处理方法、装置以及存储介质 | |
CN116542289A (zh) | 一种数据处理方法及其装置 | |
CN112784912B (zh) | 图像识别方法及装置、神经网络模型的训练方法及装置 | |
CN108345590B (zh) | 一种翻译方法、装置、电子设备以及存储介质 | |
CN113822020B (zh) | 文本处理方法、设备、存储介质 | |
US11822446B2 (en) | Automated testing methods for condition analysis and exploration | |
US20250053808A1 (en) | Method, apparatus, electronic device, and storage medium for data processing | |
CN111562864B (zh) | 显示图片方法、电子设备和计算机可读介质 | |
Geise et al. | Reality mining in sensor-based mobile-driven environments | |
Wollner et al. | Improvements in interface design through implicit modeling | |
CN116977706A (zh) | 分类模型训练方法、分类方法及装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20200326 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20210928 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20220325 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20220412 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20220413 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |