CN113611286A - 一种基于共性特征提取的跨语种语音情感识别方法和系统 - Google Patents
一种基于共性特征提取的跨语种语音情感识别方法和系统 Download PDFInfo
- Publication number
- CN113611286A CN113611286A CN202111169207.8A CN202111169207A CN113611286A CN 113611286 A CN113611286 A CN 113611286A CN 202111169207 A CN202111169207 A CN 202111169207A CN 113611286 A CN113611286 A CN 113611286A
- Authority
- CN
- China
- Prior art keywords
- voice
- emotion
- data
- language
- cross
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000000605 extraction Methods 0.000 title claims abstract description 26
- 230000008451 emotion Effects 0.000 claims abstract description 72
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 15
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 238000004458 analytical method Methods 0.000 claims abstract description 5
- 238000007619 statistical method Methods 0.000 claims abstract description 4
- 238000013145 classification model Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 9
- 238000012512 characterization method Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000003595 spectral effect Effects 0.000 claims description 6
- 238000001228 spectrum Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 4
- 238000011426 transformation method Methods 0.000 claims description 4
- 238000009825 accumulation Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 3
- 238000011410 subtraction method Methods 0.000 claims description 3
- 230000002996 emotional effect Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000003993 interaction Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本发明属于人工智能领域,涉及一种基于共性特征提取的跨语种语音情感识别方法和系统,该系统包括:语音信号采集模块,采用高保真单麦克风或者麦克风阵列采集用户语音信号;语音信号预处理模块,用于将采集到的语音信号进行预处理,对语音进行端点检测,去除语音前后静音段,生成可用于神经网络处理的数据;跨语种语音情感识别模块,用于通过设计的复数网络模型处理声谱图特征,预测用户音频的情感类型;分析存储模块,用于存储用户的语音数据和情感标签数据,并根据实际业务进行统计分析。本发明能够有效解决跨语种的语音情感识别问题,解决音频中的相位特征处理问题,从而提取音频中更加精细的发音特征,提升语音情感识别精度。
Description
技术领域
本发明属于人工智能领域,涉及一种基于共性特征提取的跨语种语音情感识别方法和系统。
背景技术
语音是人类在日常交流中表达情感的主要方式。随着人工智能技术的发展,人机交互等应用得到了快速发展,能够进行类人交互,即基于情感智能的人机交互成为一种迫切需求,语音情感识别是实现这种情感交互的关键技术支撑。
当前关于语音情感识别的技术有基于人工特征的传统语音情感识别方法和基于人工神经网络的端到端语音情感识别方法。传统方法往往需要大量的专家知识,根据特定的发音特征等,进行识别特征的设计和模型构建,代价往往比较大。基于人工神经网络的方法一般只需要设计好网络模型,然后利用大量的标注数据,就可以让模型自主学习,实现语音的情感识别。目前,基于神经网络的方法在语音情感识别的效果上,比传统方法表现更好。
使用端到端神经网络技术实现语音情感识别需要大量的标注数据去训练模型,但是对于语音情感标注,标注员只有懂得相关的语种才能够进行标注,而且标注训练模型所需的数据需要耗费大量时间。这就使得语音情感识别只能在某些具有大量标注数据的语种上进行,而对于没有标注数据的语种,就难以实现语音的情感识别。
发明内容
为了解决现有技术中存在的上述跨语种语音情感识别问题,本发明提出了一种基于共性特征提取的跨语种语音情感识别方法和系统,能够有效解决跨语种的语音情感识别问题,并通过复数网络,解决音频中的相位特征处理问题,从而提取音频中更加精细的发音特征,从而提升语音情感识别精度,其具体技术方案如下:
一种基于共性特征提取的跨语种语音情感识别方法,包括如下步骤:
步骤一、采集含标注信息的英文情感语音数据和不含标注信息的其他语种情感语音数据;
步骤二、对情感语音数据进行预处理,生成含相位的声谱图;
步骤三、去除声谱图前后静音段,后输入至网络得到语音深度特征信息,计算得到语音深度特征最大均值误差;
步骤四、将语音深度特征信息输入至分类网络计算得到带标签数据输出的分类概率,结合向量化标签数据得到的标签表征,计算含标注信息的英文情感语音数据分类误差;
步骤五、根据语音深度特征最大均值误差和含标注信息的英文情感语音数据分类误差,训练得到跨语言情感语音分类模型;
步骤六、输入待预测音频处理后的声谱图至训练好的跨语言情感语音分类模型,预测出语音情感。
进一步的,所述步骤一,具体包括以下步骤:
进一步的,所述步骤二,具体为:
进一步的,所述步骤三,具体包括以下步骤:
k表示高斯核函数,可表示为:
其中,b根据数据集进行调整取值。
进一步的,所述步骤四,具体包括以下步骤:
其中,C是情感类别数量。
进一步的,所述步骤五,具体为:
进一步的,所述步骤六,具体为:
一种基于共性特征提取的跨语种语音情感识别系统,包括:
语音信号采集模块,用于采集用户语音信号,语音信号包括含标注信息的英文情感语音数据和不含标注信息的其他语种情感语音数据;
语音信号预处理模块,用于将采集到的语音信号进行预处理,生成含相位的声谱图,再进行端点检测,去除声谱图信号前后静音段,生成可用于神经网络处理的数据;
跨语种语音情感识别模块,用于通过设计的复数网络模型处理声谱图,得到语音深度特征信息,训练出情感识别模型,预测用户音频的情感类型;
分析存储模块,用于利用Oracle数据库,存储用户的语音数据和情感标签数据,并根据实际业务进行统计分析。
进一步的,所述预处理,具体包括:预加重、分帧、加窗、短时傅里叶变换、静音去除操作,将语音信号从时域信号转换到频域信号,即从音频采样转换成声谱特征;其中采用谱减法对语音进行静音去噪,采用Z变换方法对语音进行预加重,采用短时傅里叶变换方法对语音进行声谱特征提取。
本发明的优点:
1、本发明的基于共性特征提取的跨语种语音情感识别方法,通过最小化网络提取的不同语种的隐含特征的最大均值误差,提取不同语种音频共有的情感信息,有效实现跨语种语音情感的目的;
2、本发明的基于共性特征提取的跨语种语音情感识别方法,利用复数网络提取语谱图信息,能够从语音中提取出与情感发音相关的相位信息,能够使得模型的识别精度更高;
3、本发明的基于共性特征提取的跨语种语音情感识别系统集成了跨语言的语音情感识别模型,能够实现跨语种的语音情感识别,适用于跨地区使用的语音情感识别场景,例如:跨地区的电话、视频会议系统的会议内容自动分析等。
附图说明
图1为本发明的跨语种语音情感识别系统的结构示意图;
图2为本发明的跨语种语音情感识别方法的流程示意图;
图3为本发明的跨语种语音情感识别方法的网络结构示意图。
具体实施方式
为了使本发明的目的、技术方案和技术效果更加清楚明白,以下结合说明书附图,对本发明作进一步详细说明。
如图2所示,一种基于共性特征提取的跨语种语音情感识别方法,包括如下步骤:
S1、采集含标注信息的英文情感语音数据:
S2、采集不含标注信息的其他语种情感语音数据:
S3、预处理语音信号,生成含相位的声谱图:
S4、声谱图去前后静音段:
S5、输入语谱图到网络求取语音深度特征信息:
S6、计算语音深度特征最大均值误差:
具体的,所述模型特征相似度损失计算方法如下:
其中,b根据数据集进行调整取值,可取1等数值。
S7、输入语音深度特征信息到分类网络计算带标签数据输出的分类概率:
S8、将标注数据的标签进行向量化表示:
S9、计算标注数据分类误差:
具体的,所述交叉熵函数计算方法如下:
其中,C是情感类别数量,通常取值为7,ns是一次输入训练模型的英文带标签样本数量。
10、根据两个误差更新训练网络,得到情感识别模型M:
S11、输入待预测音频处理后的语谱图到模型M,预测语音情感:
如图1所示,一种基于共性特征提取的跨语种语音情感识别系统,包括:
语音信号采集模块,采用高保真单麦克风或者麦克风阵列,用于采集用户语音信号;
语音信号预处理模块,用于将采集到的语音信号进行预处理,生成含相位的声谱图,再进行端点检测,去除声谱图信号前后静音段,生成可用于神经网络处理的数据;其中,所述预处理,具体包括:预加重、分帧、加窗、短时傅里叶变换、静音去除操作,将语音信号从时域信号转换到频域信号,即从音频采样转换成声谱特征;其中采用谱减法对语音进行静音去噪,采用Z变换方法对语音进行预加重,采用短时傅里叶变换方法对语音进行声谱特征提取;
跨语种语音情感识别模块,用于通过设计的复数网络模型处理声谱图,得到语音深度特征信息,训练出情感识别模型,预测用户音频的情感类型;
分析存储模块,用于利用Oracle等数据库,存储用户的语音数据和情感标签数据,并根据实际业务进行统计分析。
以上所述,仅为本发明的优选实施案例,并非对本发明做任何形式上的限制。虽然前文对本发明的实施过程进行了详细说明,对于熟悉本领域的人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行同等替换。凡在本发明精神和原则之内所做修改、同等替换等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于共性特征提取的跨语种语音情感识别方法,其特征在于,包括如下步骤:
步骤一、采集含标注信息的英文情感语音数据和不含标注信息的其他语种情感语音数据;
步骤二、对情感语音数据进行预处理,生成含相位的声谱图;
步骤三、去除声谱图前后静音段,后输入至网络得到语音深度特征信息,计算得到语音深度特征最大均值误差;
步骤四、将语音深度特征信息输入至分类网络计算得到带标签数据输出的分类概率,结合向量化标签数据得到的标签表征,计算得到含标注信息的英文情感语音数据分类误差;
步骤五、根据语音深度特征最大均值误差和含标注信息的英文情感语音数据分类误差,训练得到跨语言情感语音分类模型;
步骤六、输入待预测音频处理后的声谱图至训练好的跨语言情感语音分类模型,预测出语音情感。
4.如权利要求3所述的一种基于共性特征提取的跨语种语音情感识别方法,其特征在于,所述步骤三,具体包括以下步骤:
k表示高斯核函数,可表示为:
其中,b根据数据集进行调整取值。
8.一种基于共性特征提取的跨语种语音情感识别系统,其特征在于,包括:
语音信号采集模块,用于采集用户语音信号,语音信号包括含标注信息的英文情感语音数据和不含标注信息的其他语种情感语音数据;
语音信号预处理模块,用于将采集到的语音信号进行预处理,生成含相位的声谱图,再进行端点检测,去除声谱图信号前后静音段,生成可用于神经网络处理的数据;
跨语种语音情感识别模块,用于通过设计的复数网络模型处理声谱图,得到语音深度特征信息,训练出情感识别模型,预测用户音频的情感类型;
分析存储模块,用于利用Oracle数据库,存储用户的语音数据和情感标签数据,并根据实际业务进行统计分析。
9.如权利要求8所述的一种基于共性特征提取的跨语种语音情感识别系统,其特征在于,所述预处理,具体包括:预加重、分帧、加窗、短时傅里叶变换、静音去除操作,将语音信号从时域信号转换到频域信号,即从音频采样转换成声谱特征;其中采用谱减法对语音进行静音去噪,采用Z变换方法对语音进行预加重,采用短时傅里叶变换方法对语音进行声谱特征提取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111169207.8A CN113611286B (zh) | 2021-10-08 | 2021-10-08 | 一种基于共性特征提取的跨语种语音情感识别方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111169207.8A CN113611286B (zh) | 2021-10-08 | 2021-10-08 | 一种基于共性特征提取的跨语种语音情感识别方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113611286A true CN113611286A (zh) | 2021-11-05 |
CN113611286B CN113611286B (zh) | 2022-01-18 |
Family
ID=78310804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111169207.8A Active CN113611286B (zh) | 2021-10-08 | 2021-10-08 | 一种基于共性特征提取的跨语种语音情感识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113611286B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115456114A (zh) * | 2022-11-04 | 2022-12-09 | 之江实验室 | 一种模型训练和业务执行的方法、装置、介质及设备 |
CN115620706A (zh) * | 2022-11-07 | 2023-01-17 | 之江实验室 | 一种模型训练方法、装置、设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101064104A (zh) * | 2006-04-24 | 2007-10-31 | 中国科学院自动化研究所 | 基于语音转换的情感语音生成方法 |
US20090313014A1 (en) * | 2008-06-12 | 2009-12-17 | Jong-Ho Shin | Mobile terminal and method for recognizing voice thereof |
CN102142253A (zh) * | 2010-01-29 | 2011-08-03 | 富士通株式会社 | 语音情感识别设备及方法 |
CN103400145A (zh) * | 2013-07-19 | 2013-11-20 | 北京理工大学 | 基于线索神经网络的语音-视觉融合情感识别方法 |
CN103578480A (zh) * | 2012-07-24 | 2014-02-12 | 东南大学 | 负面情绪检测中的基于上下文修正的语音情感识别方法 |
US20160275588A1 (en) * | 2014-05-29 | 2016-09-22 | Tencent Technology (Shenzhen) Company Limited | Method, device, and system for obtaining information based on audio input |
CN107103900A (zh) * | 2017-06-06 | 2017-08-29 | 西北师范大学 | 一种跨语言情感语音合成方法及系统 |
CN107316654A (zh) * | 2017-07-24 | 2017-11-03 | 湖南大学 | 基于dis‑nv特征的情感识别方法 |
CN110718208A (zh) * | 2019-10-15 | 2020-01-21 | 四川长虹电器股份有限公司 | 基于多任务声学模型的语音合成方法及系统 |
CN111105781A (zh) * | 2019-12-23 | 2020-05-05 | 联想(北京)有限公司 | 语音处理方法、装置、电子设备以及介质 |
CN111145719A (zh) * | 2019-12-31 | 2020-05-12 | 北京太极华保科技股份有限公司 | 将中英混合及语气标签化的数据标注方法及装置 |
-
2021
- 2021-10-08 CN CN202111169207.8A patent/CN113611286B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101064104A (zh) * | 2006-04-24 | 2007-10-31 | 中国科学院自动化研究所 | 基于语音转换的情感语音生成方法 |
US20090313014A1 (en) * | 2008-06-12 | 2009-12-17 | Jong-Ho Shin | Mobile terminal and method for recognizing voice thereof |
CN102142253A (zh) * | 2010-01-29 | 2011-08-03 | 富士通株式会社 | 语音情感识别设备及方法 |
CN103578480A (zh) * | 2012-07-24 | 2014-02-12 | 东南大学 | 负面情绪检测中的基于上下文修正的语音情感识别方法 |
CN103400145A (zh) * | 2013-07-19 | 2013-11-20 | 北京理工大学 | 基于线索神经网络的语音-视觉融合情感识别方法 |
US20160275588A1 (en) * | 2014-05-29 | 2016-09-22 | Tencent Technology (Shenzhen) Company Limited | Method, device, and system for obtaining information based on audio input |
CN107103900A (zh) * | 2017-06-06 | 2017-08-29 | 西北师范大学 | 一种跨语言情感语音合成方法及系统 |
CN107316654A (zh) * | 2017-07-24 | 2017-11-03 | 湖南大学 | 基于dis‑nv特征的情感识别方法 |
CN110718208A (zh) * | 2019-10-15 | 2020-01-21 | 四川长虹电器股份有限公司 | 基于多任务声学模型的语音合成方法及系统 |
CN111105781A (zh) * | 2019-12-23 | 2020-05-05 | 联想(北京)有限公司 | 语音处理方法、装置、电子设备以及介质 |
CN111145719A (zh) * | 2019-12-31 | 2020-05-12 | 北京太极华保科技股份有限公司 | 将中英混合及语气标签化的数据标注方法及装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115456114A (zh) * | 2022-11-04 | 2022-12-09 | 之江实验室 | 一种模型训练和业务执行的方法、装置、介质及设备 |
CN115620706A (zh) * | 2022-11-07 | 2023-01-17 | 之江实验室 | 一种模型训练方法、装置、设备及存储介质 |
CN115620706B (zh) * | 2022-11-07 | 2023-03-10 | 之江实验室 | 一种模型训练方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113611286B (zh) | 2022-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107680582B (zh) | 声学模型训练方法、语音识别方法、装置、设备及介质 | |
CN109410914B (zh) | 一种赣方言语音和方言点识别方法 | |
CN110910283A (zh) | 生成法律文书的方法、装置、设备和存储介质 | |
CN107945805A (zh) | 一种智能化跨语言语音识别转化方法 | |
CN112397054B (zh) | 一种电力调度语音识别方法 | |
CN111724770B (zh) | 一种基于深度卷积生成对抗网络的音频关键词识别方法 | |
CN112712824A (zh) | 一种融合人群信息的语音情感识别方法和系统 | |
CN113611286B (zh) | 一种基于共性特征提取的跨语种语音情感识别方法和系统 | |
WO2023048746A1 (en) | Speaker-turn-based online speaker diarization with constrained spectral clustering | |
Zhu et al. | Catslu: The 1st chinese audio-textual spoken language understanding challenge | |
Bhati et al. | Self-expressing autoencoders for unsupervised spoken term discovery | |
Chen et al. | Towards unsupervised automatic speech recognition trained by unaligned speech and text only | |
CN112331207B (zh) | 服务内容监控方法、装置、电子设备和存储介质 | |
CN114566189A (zh) | 基于三维深度特征融合的语音情感识别方法及系统 | |
Zhang et al. | Cacnet: Cube attentional cnn for automatic speech recognition | |
CN111653270B (zh) | 语音处理方法、装置、计算机可读存储介质及电子设备 | |
Bigot et al. | Person name recognition in ASR outputs using continuous context models | |
Thukroo et al. | Spoken language identification system for kashmiri and related languages using mel-spectrograms and deep learning approach | |
Birla | A robust unsupervised pattern discovery and clustering of speech signals | |
CN114036957B (zh) | 一种快速语义相似度计算方法 | |
CN112309398B (zh) | 工作时长监控方法、装置、电子设备和存储介质 | |
CN114298019A (zh) | 情绪识别方法、装置、设备、存储介质、程序产品 | |
CN112231440A (zh) | 一种基于人工智能的语音搜索方法 | |
Kumar et al. | A time delay neural network acoustic modeling for hindi speech recognition | |
CN113470617B (zh) | 语音识别方法以及电子设备、存储装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |