CN110600000A - 语音播报方法、装置、电子设备及存储介质 - Google Patents
语音播报方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN110600000A CN110600000A CN201910933157.2A CN201910933157A CN110600000A CN 110600000 A CN110600000 A CN 110600000A CN 201910933157 A CN201910933157 A CN 201910933157A CN 110600000 A CN110600000 A CN 110600000A
- Authority
- CN
- China
- Prior art keywords
- voice
- user
- text
- engine
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000003860 storage Methods 0.000 title claims abstract description 24
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 150
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 150
- 238000012549 training Methods 0.000 claims abstract description 91
- 238000011156 evaluation Methods 0.000 claims description 26
- 230000015654 memory Effects 0.000 claims description 18
- 230000003213 activating effect Effects 0.000 claims description 2
- 238000013461 design Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 12
- 230000006399 behavior Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000004088 simulation Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 206010021703 Indifference Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请公开了语音播报方法、装置、电子设备及存储介质,涉及语音技术领域。具体实现方案为:先获取待播报文本,然后,根据待播报文本以及用户语音合成引擎生成合成语音,合成语音用于模拟用户发音,用户语音合成引擎是根据用户语音集合训练得到的引擎,其中,用户语音集合包括用户输入的语音控制指令;最后,对播放合成语音进行播放。本申请提供的语音播报方法,可以通过利用个性化的用户语音合成引擎对待播报文本进行语音合成并播放,以模拟用户发音,从而实现个性化声音的输出。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及一种语音技术。
背景技术
随着语音技术的发展,越来越多的领域都实现了语音交互,而从文本到语音(TextTo Speech,简称TTS)的方式被广泛用于一些不适合通过视觉获取信息的场景,例如,车载场景中。
其中,TTS是语音合成应用的一种,它可以将储存于电子设备中的文件,如文字数据,转换成自然语音进行输出。目前,对于TTS的合成,通常需要大量的语料数据进行训练。厂家通常在对模型进行训练之后,生成TTS合成引擎,并将训练好的引擎预设在电子设备中,以进行后续的合成。
但是,由于厂家提供的TTS合成引擎通常都是统一的,因此,在进行语音合成时,针对不同用户所合成输出的语音也都是无差异化的。
发明内容
本申请提供一种语音播报方法、装置、电子设备及存储介质,以解决由于TTS合成引擎统一所带来的合成输出的语音无差异化的问题。
第一方面,本申请提供一种语音播报方法,包括:
获取待播报文本;
根据所述待播报文本以及用户语音合成引擎生成合成语音,所述合成语音用于模拟用户发音,所述用户语音合成引擎是根据用户语音集合训练得到的引擎,其中,所述用户语音集合包括所述用户输入的语音控制指令;
播放所述合成语音。
在本实施中,通过利用个性化的用户语音合成引擎对待播报文本进行语音合成并播放,从而模拟用户发音,以实现个性化声音的输出,其中,用户语音合成引擎可以是通过利用用户输入的语音控制指令训练生成,从而在用户进行正常的语音控制同时,就可以生成用于训练的语料数据,从而避免了传统定制个性化合成引擎时,需要特意进行长时间录制所带来的不便。
在一种可能的设计中,在所述根据所述待播报文本以及用户语音合成引擎生成合成语音之前,还包括:
获取所述用户输入的所述语音控制指令,以生成所述用户语音集合;
根据所述语音控制指令获取语音识别文本,以生成语音识别文本集合;
根据所述用户语音集合以及所述识别文本集合生成语音训练库;
根据所述语音训练库对预设语音合成模型进行训练以生成所述用户语音合成引擎。
在本实施例中,通过将用户输入的语音控制指令进行语音识别,从而生成用户语音集合以及语音识别文本集合,进而构建用于对预设语音合成模型进行训练的语音训练库。
在一种可能的设计中,在所述根据所述语音训练库对预设语音合成模型进行训练以生成所述用户语音合成引擎之前,还包括:
确定所述语音训练库中的训练语料数量大于预设数量阈值。
在本实施例中,通过设置练语料数量的阈值作为训练的触发条件,可以保证在存储有具备足够数量的训练语料之后再进行训练,从而保证训练的有效性。
在一种可能的设计中,在所述根据所述待播报文本以及用户语音合成引擎生成合成语音之前,还包括:
获取引擎选择指令;
根据所述引擎选择指令从多个语音合成引擎中激活所述用户语音合成引擎。
在本实施例中,可以根据引擎选择指令从多个语音合成引擎中激活用户语音合成引擎,以适应用户不同的使用场景。
在一种可能的设计中,所述语音播报方法,还包括:
获取评价指令;
根据所述评价指令确定是否继续根据所述用户语音集合对所述用户语音合成引擎进行训练。
在本实施例中,可以通过判断所形成用户语音合成引擎的合成效果是否满足要求来动态地调整语音训练库的语料数据采集行为,相较于现有技术中,根据人为统一确定具体数量的方式更具有适应性,并且效率更高。
在一种可能的设计中,若根据所述评价指令确定停止对所述用户语音合成引擎进行训练,则将所述用户语音合成引擎加载至本地存储。
在本实施例中,在当下的语音训练库对用户发音行为的模拟行为已经满足要求时,将用户语音合成引擎加载至本地存储,从而实现离线的语音合成,以提高合成速率以及避免产生过多的资费。
在一种可能的设计中,若根据所述评价指令确定继续对所述用户语音合成引擎进行训练,则继续获取所述用户输入的所述语音控制指令。
在本实施例中,在当下的语音训练库对用户发音行为的模拟行为无法满足要求时,以获取更多的训练语料数据,从而利用更多的训练语料数据对模型进行训练,进而提高所生成的用户语音合成引擎对于用户发音行为的相似度。
第二方面,本申请还提供一种语音播报装置,包括:
文本获取模块,用于获取待播报文本;
语音合成模块,用于根据所述待播报文本以及用户语音合成引擎生成合成语音,所述合成语音用于模拟用户发音,所述用户语音合成引擎是根据用户语音集合训练得到的引擎,其中,所述用户语音集合包括所述用户输入的语音控制指令;
语音播放模块,用于播放所述合成语音。
在一种可能的设计中,所述装置,还包括:
指令获取模块,用于获取所述用户输入的所述语音控制指令,以生成所述用户语音集合;
语音识别模块,用于根据所述语音控制指令获取语音识别文本,以生成语音识别文本集合;
训练库生成模块,用于根据所述用户语音集合以及所述识别文本集合生成语音训练库;
引擎训练模块,用于根据所述语音训练库对预设语音合成模型进行训练以生成所述用户语音合成引擎。
在一种可能的设计中,所述装置,还包括:
语料确定模块,用于确定所述语音训练库中的训练语料数量大于预设数量阈值。
在一种可能的设计中,所述装置,还包括:
选择获取模块,用于获取引擎选择指令;
引擎选择模块,根据所述引擎选择指令从多个语音合成引擎中激活所述用户语音合成引擎。
在一种可能的设计中,所述指令获取模块,还用于获取评价指令;
所述引擎训练模块,还用于根据所述评价指令确定是否继续根据所述用户语音集合对所述用户语音合成引擎进行训练。
在一种可能的设计中,所述装置,还包括:
引擎加载模块,用于若根据所述评价指令确定停止对所述用户语音合成引擎进行训练,则将所述用户语音合成引擎加载至本地存储。
在一种可能的设计中,所述指令获取模块,还用于若根据所述评价指令确定继续对所述用户语音合成引擎进行训练,则继续获取所述用户输入的所述语音控制指令。
第三方面,本申请还提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的计算机程序;
其中,所述处理器被配置为通过执行所述计算机程序来实现第一方面中任意一种可能的方法。
第四方面,本申请还提供一种存储有计算机指令的非瞬时计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面中任意一种可能的方法。
上述申请中的一个实施例具有如下优点或有益效果:
通过利用个性化的用户语音合成引擎对待播报文本进行语音合成并播放,从而模拟用户发音,以实现个性化声音的输出,其中,用户语音合成引擎可以是通过利用用户输入的语音控制指令训练生成,从而在用户进行正常的语音控制同时,就可以生成用于训练的语料数据,从而避免了传统定制个性化合成引擎时,需要特意进行长时间录制所带来的不便。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请第一实施例提供的语音播报方法的应用场景示意图;
图2是图1所示语音播报方法的另一种应用场景示意图;
图3是本申请第二实施例示出的语音播报方法的流程示意图;
图4是本申请第三实施例示出的用户语音合成引擎生成步骤流程示意图;
图5是本申请第四实施例示出的语音播报方法的流程示意图;
图6是本申请第五实施例提供的语音播报方法的应用场景示意图;
图7是图6所示语音播报方法的另一种应用场景示意图;
图8是本申请第六实施例示出的语音播报装置的结构示意图;
图9是本申请第七实施例示出的语音播报装置的结构示意图;
图10是本申请第八实施例示出的语音播报装置的结构示意图;
图11是本申请第九实施例示出的语音播报装置的结构示意图;
图12是用来实现本申请实施例的语音播报方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在现有技术中,为了生成TTS合成引擎,需要采集大量的语料数据,进行训练。其中,在进行训练时,通常都是好找电台、电视台的播音员、一些发音标准的人士或者一些知名人士进行大量的语料录制,再根据录制的语料对语音合成模型(例如:神经网络模型)进行训练,从而得到相应的TTS语音合成引擎。
在电子产品设计中,厂家通常将已经生成的TTS合成引擎预设在电子设备中,以进行后续在电子产品中的语音合成输出。但是,由于厂家提供的TTS合成引擎通常都是统一的,因此,在进行语音合成时,针对不同用户所合成输出的语音也都是无差异化的。
如果用户需要定制个性化的TTS合成引擎,例如,用户需要定制模拟自己发音的TTS合成引擎,同样也需要录制大量语料数据,需要占用用户大量的时间和精力。
针对上述存在的各个问题,本申请实施例提供语音播报方法,可以通过利用个性化的用户语音合成引擎对待播报文本进行语音合成并播放,从而模拟用户发音,以实现个性化声音的输出,其中,用户语音合成引擎可以是通过利用用户输入的语音控制指令训练生成,从而在用户进行正常的语音控制同时,就可以生成用于训练的语料数据,从而避免了传统定制个性化合成引擎时,需要特意进行长时间录制所带来的不便。下面通过几个具体实现方式对该语音播报方法进行详细说明。
图1是本申请第一实施例提供的语音播报方法的应用场景示意图,图2是图1所示语音播报方法的另一种应用场景示意图。如图1-图2所示,本实施例提供的语音播报方法可以应用于电子设备100与用户200之间的语音交互场景。
如图1所示,电子设备100可以为具有语音控制功能的设备,例如,智能手机、个人电脑、平板电脑以及车载终端等。用户200可以通过输入语音控制指令的方式对电子设备100进行控制。例如:用户可以通过“查询天气”进行获取天气信息的获取,通过“帮忙查找附近好吃的餐厅”进行周围餐厅的推荐,以及通过“请导航至肯德基”来实现地图导航。值得说明的,由于用户在对电子设备进行语音控制时,通常都是发音较为清晰,因此,通过获取用户输入语音控制指令作为语料,能够大大提高训练质量和引擎的模拟效果。
在用户输入语音控制指令之后,电子设备可以对语音控制指令进行语音识别,从而形成语音识别文本,然后将语音控制指令以及对应的语音识别文本发送到语音训练库110中进行保存。直至语音训练库110中的语料数量超过了预设的数量阈值(例如:1万条、5万条或者10万条等),开始利用训练库中的训练语料对预设语音合成模型进行训练以生成用户语音合成引擎。其中,由于该用户语音合成引擎是利用用户自身的声音进行训练的,因此,该用户语音合成引擎可以用于模拟用户自身的发音,从而生成个性化的用户语音合成引擎。
继续参照图2,在生成用户语音合成引擎之后,在进行应用时,用户可以选择该用户语音合成引擎作为电子设备的TTS引擎。当电子设备获取到待播报文本之后,就可以利用该用户语音合成引擎将待播报文本合成语音,并进行播放,从而模拟用户的发声。
图3是本申请第二实施例示出的语音播报方法的流程示意图。如图2所示,本实施例提供的语音播报方法,包括:
步骤101、获取待播报文本。
值得说明的,待播报文本可以为网页信息、帮助文件信息、天气推送信息、周围热点推送信息或者是导航信息等,在本实施例中,并不对待播报文本的具体形式进行限定,该待播报文本可以为任意已经存储于电子设备的文本信息、响应于相应指令生成的文本信息、或者是从任意数据源获取到的文本信息。
并且,待播报文本的形式可以根据所应用电子设备的类型不同而适应性地不同。例如,当电子设备为车载设备时,待播报文本就可以为导航信息,而当电子设备为盲人阅读器时,待播报文本就可以为电子书。
步骤102、根据待播报文本以及用户语音合成引擎生成合成语音。
具体的,可以根据待播报文本以及用户语音合成引擎生成合成语音,其中,所合成语音用于模拟用户发音。
而用户语音合成引擎是根据用户语音集合训练得到的引擎,其中,用户语音集合包括有用户输入的语音控制指令。可以理解为,在用户通过语音控制指令对电子设备进行控制时,电子设备在用户输入语音控制指令之后,可以对语音控制指令进行语音识别,从而形成语音识别文本,然后将语音控制指令以及对应的语音识别文本发送到语音训练库中进行保存。最后,利用所生成的语音训练库对预设的语音合成模型进行训练,从而得到用户语音合成引擎。
其中,由于该用户语音合成引擎是利用用户自身的声音进行训练的,因此,该用户语音合成引擎可以用于模拟用户自身的发音,从而生成个性化的用户语音合成引擎。
此外,为了进一步优化训练的语料质量,语音控制指令还可以是用户对电子设备完成控制的语音控制指令,而对于无法实现具体控制操作的语音控制指令排除在语音训练库之外。
由于用户语音合成引擎的训练需要较多数量的语料数据,因此,在进行训练之前,还可以确定语音训练库中的训练语料数量大于预设数量阈值,从而保证训练的有效性。
并且,由于可以在一个电子设备中设置有多个语音合成引擎,而用户语音合成引擎可以为多个语音合成引擎中的其中一个,因此,在进行语音合成之前,用户还可以进行语音合成引擎的选择。具体的,可以是获取到引擎选择指令,然后根据引擎选择指令从多个语音合成引擎中激活用户语音合成引擎,以适应用户不同的使用场景。
步骤103、播放合成语音。
在对合成后的语音进行播放是,可以是在其特有的语音控制器作用下通过麦克风进行播放,从而使得针对待播报文本所输出的语音音律流畅,发音接近用户自身的声音,从而使得听者在听取信息时感觉自然,避免机器语音输出的冷漠与生涩感。
在本实施例中,通过利用个性化的用户语音合成引擎对待播报文本进行语音合成并播放,从而模拟用户发音,以实现个性化声音的输出,其中,用户语音合成引擎可以是通过利用用户输入的语音控制指令训练生成,从而在用户进行正常的语音控制同时,就可以生成用于训练的语料数据,从而避免了传统定制个性化合成引擎时,需要特意进行长时间录制所带来的不便。
而在图3所示实施例的基础上,图4是本申请第三实施例示出的用户语音合成引擎生成步骤流程示意图。如图4所示,本实施例提供的语音播报方法中的用户语音合成引擎生成步骤,包括:
步骤201、获取用户输入的语音控制指令,以生成用户语音集合。
步骤202、根据语音控制指令获取语音识别文本,以生成语音识别文本集合。
步骤203、根据用户语音集合以及识别文本集合生成语音训练库。
步骤204、根据语音训练库对预设语音合成模型进行训练以生成用户语音合成引擎。
用户可以通过输入语音控制指令的方式对电子设备进行控制。例如:用户可以通过“查询天气”进行获取天气信息的获取,通过“帮忙查找附近好吃的餐厅”进行周围餐厅的推荐,以及通过“请导航至肯德基”来实现地图导航。值得说明的,由于用户在对电子设备进行语音控制时,通常都是发音较为清晰,因此,通过获取用户输入语音控制指令作为语料,能够大大提高训练质量和引擎的模拟效果。
在用户输入语音控制指令之后,通过对语音控制指令进行存储,以生成用户语音集合。此外,除了对语音控制指令进行存储之前,还可以对语音控制指令进行语音识别,从而形成语音识别文本,以生成语音识别文本集合,然后根据用户语音集合以及识别文本集合生成语音训练库。以根据语音训练库对预设语音合成模型进行训练以生成用户语音合成引擎。
图5是本申请第四实施例示出的语音播报方法的流程示意图。如图5所示,本实例提供的语音播报方法,包括:
步骤301、获取用户输入的语音控制指令,以生成用户语音集合。
步骤302、根据语音控制指令获取语音识别文本,以生成语音识别文本集合。
步骤303、根据用户语音集合以及识别文本集合生成语音训练库。
步骤304、根据语音训练库对预设语音合成模型进行训练以生成用户语音合成引擎。
值得说明的,本实施例中步骤301-步骤304的具体实现方式与图4所示实施例中步骤201-步骤204的实现方式类似,因此,在本实施例中,不再进行赘述。
步骤305、获取待播报文本。
步骤306、根据待播报文本以及用户语音合成引擎生成合成语音。
步骤307、播放合成语音。
值得说明的,本实施例中步骤305-步骤307的具体实现方式与图4所示实施例中步骤101-步骤103的实现方式类似,因此,在本实施例中,不再进行赘述。
步骤308、获取评价指令。
在用户利用用户语音合成引擎生成合成语音并进行播放之后,用户可以进行判断合成的语音是否符合要求,从而输入评价指令,其中,评价指令可以包括符合要求指令以及不符合要求指令。
步骤309、根据评价指令判断是否继续对用户语音合成引擎进行训练。若判断结果为是,至指令步骤310;若判断结果为是,至指令步骤311。
步骤310、继续获取用户输入的语音控制指令。
若评价指令为不符合要求指令,则可以根据评价指令确定继续对用户语音合成引擎进行训练,以继续获取用户输入的语音控制指令。从而使得语音训练库中的语料数据更多,以利用更多的语料数据对模型进行训练,进而提高所生成的用户语音合成引擎对于用户发音行为的相似度。
步骤311、将用户语音合成引擎加载至本地存储。
此外,若评价指令为符合要求指令,则说明基于当下的语音训练库对用户发音行为的模拟行为已经满足要求,因此,可以根据评价指令确定停止对用户语音合成引擎进行训练,则将用户语音合成引擎加载至本地存储,从而实现离线的语音合成,以提高合成速率以及避免产生过多的资费。
在本实施例中,可以通过判断所形成用户语音合成引擎的合成效果是否满足要求来动态地调整语音训练库的语料数据采集行为,相较于现有技术中,根据人为统一确定具体数量的方式更具有适应性,并且效率更高。
值得说明的,不同用户在进行用户语音合成引擎训练时,所训练的效果不尽相同,而若需要达到符合要求的效果所需要的语料数据数量也不尽相同。在现有技术中,技术人员通常是定义一个较多数量条目的语料数据,例如50万条,再进行训练。而在实际中,有些用户的声音只需20万条的语料数据就可以训练处较好的效果,因此,可以将本实施例中用于触发训练的预设数量阈值设置为较低的数值,然后再利用上述动态调整的方式进行逐步优化,以提高效率。
图6是本申请第五实施例提供的语音播报方法的应用场景示意图,图7是图6所示语音播报方法的另一种应用场景示意图。如图6-图7所示,本实施例提供的语音播报方法可以应用于电子设备100与用户200之间的语音交互场景,其中,电子设备100可以为车辆300中的车载终端,例如智能车机终端。
其中,TTS语音播报技术在汽车领域的应用也越来越广泛,将TTS语音播报系统应用于汽车领域中,那么在车载环境中,驾驶员就不必用眼睛去看汽车里很小的屏幕了,只需专心驾驶车辆,从而减少因看屏幕带来的行车安全隐患。车载TTS语音播报系统中,TTS一般是作为一个功能模块集成在多功能车载终端内,且播报内容和规则是预先设置好的,TTS语音播报系统会在车辆启动后按照预先设置的规则和内容进行播报。
参照图6,用户200可以通过输入语音控制指令的方式对车载终端进行控制。例如:用户可以通过“查询天气”进行获取天气信息的获取,通过“帮忙查找附近好吃的餐厅”进行周围餐厅的推荐,以及通过“请导航至肯德基”来实现地图导航。值得说明的,由于用户在对电子设备进行语音控制时,通常都是发音较为清晰,因此,通过获取用户输入语音控制指令作为语料,能够大大提高训练质量和引擎的模拟效果。
在用户输入语音控制指令之后,车载终端可以对语音控制指令进行语音识别,从而形成语音识别文本,然后将语音控制指令以及对应的语音识别文本发送到语音训练库110中进行保存。直至语音训练库110中的语料数量超过了预设的数量阈值(例如:1万条、5万条或者10万条等),开始利用训练库中的训练语料对预设语音合成模型进行训练以生成用户语音合成引擎。其中,由于该用户语音合成引擎是利用用户自身的声音进行训练的,因此,该用户语音合成引擎可以用于模拟用户自身的发音,从而生成个性化的用户语音合成引擎。
继续参照,7,在生成用户语音合成引擎之后,在进行应用时,用户可以选择该用户语音合成引擎作为电子设备的TTS引擎。当电子设备获取到待播报文本之后,就可以利用该用户语音合成引擎将待播报文本合成语音,并进行播放,从而模拟用户的发声。
从而在车载环境中,驾驶员就不必用眼睛去看汽车里很小的屏幕了,只需专心驾驶车辆,减少因看屏幕带来的行车安全隐患,并且,由于输出的合成声音为模拟用户自身的声音,因此,提高车载环境中的声音亲切感,以提高驾驶员及乘客的用车体验。
图8是本申请第六实施例示出的语音播报装置的结构示意图。如图8所示,本实施例提供的语音播报装置400,包括:
文本获取模块401,用于获取待播报文本;
语音合成模块402,用于根据所述待播报文本以及用户语音合成引擎生成合成语音,所述合成语音用于模拟用户发音,所述用户语音合成引擎是根据用户语音集合训练得到的引擎,其中,所述用户语音集合包括所述用户输入的语音控制指令;
语音播放模块403,用于播放所述合成语音。
在图8所示实施例的基础上,图9是本申请第七实施例示出的语音播报装置的结构示意图。如图9所示,本实施例提供的语音播报装置400,还包括:
指令获取模块404,用于获取所述用户输入的所述语音控制指令,以生成所述用户语音集合;
语音识别模块405,用于根据所述语音控制指令获取语音识别文本,以生成语音识别文本集合;
训练库生成模块406,用于根据所述用户语音集合以及所述识别文本集合生成语音训练库;
引擎训练模块407,用于根据所述语音训练库对预设语音合成模型进行训练以生成所述用户语音合成引擎。
在图9所示实施例的基础上,图10是本申请第八实施例示出的语音播报装置的结构示意图。如图10所示,本实施例提供的语音播报装置400,还包括:
语料确定模块408,用于确定所述语音训练库中的训练语料数量大于预设数量阈值。
在一种可能的设计中,所述指令获取模块404,还用于获取评价指令;
所述引擎训练模块407,还用于根据所述评价指令确定是否继续根据所述用户语音集合对所述用户语音合成引擎进行训练。
在图10所示实施例的基础上,图11是本申请第九实施例示出的语音播报装置的结构示意图。如图11所示,本实施例提供的语音播报装置400,还包括:
选择获取模块409,用于获取引擎选择指令;
引擎选择模块410,根据所述引擎选择指令从多个语音合成引擎中激活所述用户语音合成引擎。
在一种可能的设计中,所述指令获取模块404,还用于获取评价指令;
所述引擎训练模块407,还用于根据所述评价指令确定是否继续根据所述用户语音集合对所述用户语音合成引擎进行训练。
继续参照图11,在一种可能的设计中,所述语音播报装置400,还包括:
引擎加载模块411,用于若根据所述评价指令确定停止对所述用户语音合成引擎进行训练,则将所述用户语音合成引擎加载至本地存储。
在一种可能的设计中,所述指令获取模块404,还用于若根据所述评价指令确定继续对所述用户语音合成引擎进行训练,则继续获取所述用户输入的所述语音控制指令。
值得说明的,图8-图11所示实施例提供的语音播报装置,可用于执行上述任意实施例所提供的方法,具体实现方式和技术效果类似,这里不再进行赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
图12是用来实现本申请实施例的语音播报方法的电子设备的框图。如图12所示,电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图12所示,该电子设备包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图12中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语音播报方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语音播报方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语音播报方法对应的程序指令/模块(例如,附图7所示的文本获取模块401、语音合成模块402以及语音播放模块403)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语音播报方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据本申请实施例提供的电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至本申请实施例提供电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例提供电子设备还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图12中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与本申请实施例提供电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过利用个性化的用户语音合成引擎对待播报文本进行语音合成并播放,从而模拟用户发音,以实现个性化声音的输出,其中,用户语音合成引擎可以是通过利用用户输入的语音控制指令训练生成,从而在用户进行正常的语音控制同时,就可以生成用于训练的语料数据,从而避免了传统定制个性化合成引擎时,需要特意进行长时间录制所带来的不便。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (10)
1.一种语音播报方法,其特征在于,包括:
获取待播报文本;
根据所述待播报文本以及用户语音合成引擎生成合成语音,所述合成语音用于模拟用户发音,所述用户语音合成引擎是根据用户语音集合训练得到的引擎,其中,所述用户语音集合包括所述用户输入的语音控制指令;
播放所述合成语音。
2.根据权利要求1所述的语音播报方法,其特征在于,在所述根据所述待播报文本以及用户语音合成引擎生成合成语音之前,还包括:
获取所述用户输入的所述语音控制指令,以生成所述用户语音集合;
根据所述语音控制指令获取语音识别文本,以生成语音识别文本集合;
根据所述用户语音集合以及所述识别文本集合生成语音训练库;
根据所述语音训练库对预设语音合成模型进行训练以生成所述用户语音合成引擎。
3.根据权利要求2所述的语音播报方法,其特征在于,在所述根据所述语音训练库对预设语音合成模型进行训练以生成所述用户语音合成引擎之前,还包括:
确定所述语音训练库中的训练语料数量大于预设数量阈值。
4.根据权利要求1-3中任意一项所述的语音播报方法,其特征在于,在所述根据所述待播报文本以及用户语音合成引擎生成合成语音之前,还包括:
获取引擎选择指令;
根据所述引擎选择指令从多个语音合成引擎中激活所述用户语音合成引擎。
5.根据权利要求1-3中任意一项所述的语音播报方法,其特征在于,还包括:
获取评价指令;
根据所述评价指令确定是否继续根据所述用户语音集合对所述用户语音合成引擎进行训练。
6.根据权利要求5所述的语音播报方法,其特征在于,若根据所述评价指令确定停止对所述用户语音合成引擎进行训练,则将所述用户语音合成引擎加载至本地存储。
7.根据权利要求5所述的语音播报方法,其特征在于,若根据所述评价指令确定继续对所述用户语音合成引擎进行训练,则继续获取所述用户输入的所述语音控制指令。
8.一种语音播报装置,其特征在于,包括:
文本获取模块,用于获取待播报文本;
语音合成模块,用于根据所述待播报文本以及用户语音合成引擎生成合成语音,所述合成语音用于模拟用户发音,所述用户语音合成引擎是根据用户语音集合训练得到的引擎,其中,所述用户语音集合包括所述用户输入的语音控制指令;
语音播放模块,用于播放所述合成语音。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910933157.2A CN110600000B (zh) | 2019-09-29 | 2019-09-29 | 语音播报方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910933157.2A CN110600000B (zh) | 2019-09-29 | 2019-09-29 | 语音播报方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110600000A true CN110600000A (zh) | 2019-12-20 |
CN110600000B CN110600000B (zh) | 2022-04-15 |
Family
ID=68864631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910933157.2A Active CN110600000B (zh) | 2019-09-29 | 2019-09-29 | 语音播报方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110600000B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111681640A (zh) * | 2020-05-29 | 2020-09-18 | 北京百度网讯科技有限公司 | 播报文本的确定方法、装置、设备和介质 |
CN111696518A (zh) * | 2020-06-05 | 2020-09-22 | 四川纵横六合科技股份有限公司 | 一种基于文本的自动化语音合成方法 |
CN111739510A (zh) * | 2020-06-24 | 2020-10-02 | 华人运通(上海)云计算科技有限公司 | 信息处理方法、装置、车辆和计算机存储介质 |
CN111770388A (zh) * | 2020-06-30 | 2020-10-13 | 百度在线网络技术(北京)有限公司 | 内容处理方法、装置、设备及存储介质 |
CN111816168A (zh) * | 2020-07-21 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、语音播放的方法、装置及存储介质 |
CN112269864A (zh) * | 2020-10-15 | 2021-01-26 | 北京百度网讯科技有限公司 | 生成播报语音的方法、装置、设备和计算机存储介质 |
CN112330850A (zh) * | 2020-07-10 | 2021-02-05 | 深圳Tcl新技术有限公司 | 门锁播报控制方法、装置、智能门锁及存储介质 |
CN112786023A (zh) * | 2020-12-23 | 2021-05-11 | 竹间智能科技(上海)有限公司 | 标记模型构建方法及语音播报系统 |
CN113223493A (zh) * | 2020-01-20 | 2021-08-06 | Tcl集团股份有限公司 | 语音看护方法、装置、系统及存储介质 |
CN113449141A (zh) * | 2021-06-08 | 2021-09-28 | 阿波罗智联(北京)科技有限公司 | 语音播报方法、装置、电子设备及存储介质 |
CN115440190A (zh) * | 2021-06-04 | 2022-12-06 | 上海博泰悦臻网络技术服务有限公司 | 基于声音复刻的语音播报方法、系统、存储介质及设备 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070055527A1 (en) * | 2005-09-07 | 2007-03-08 | Samsung Electronics Co., Ltd. | Method for synthesizing various voices by controlling a plurality of voice synthesizers and a system therefor |
US20080319753A1 (en) * | 2007-06-25 | 2008-12-25 | International Business Machines Corporation | Technique for training a phonetic decision tree with limited phonetic exceptional terms |
US20160093284A1 (en) * | 2014-09-25 | 2016-03-31 | Intel Corporation | Method and apparatus to synthesize voice based on facial structures |
US20170092295A1 (en) * | 2015-09-28 | 2017-03-30 | GM Global Technology Operations LLC | Streamlined navigational speech recognition |
CN107168676A (zh) * | 2017-03-29 | 2017-09-15 | 联想(北京)有限公司 | 一种信息输出方法及其装置 |
CN107644637A (zh) * | 2017-03-13 | 2018-01-30 | 平安科技(深圳)有限公司 | 语音合成方法和装置 |
CN109036374A (zh) * | 2018-07-03 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 数据处理方法和装置 |
CN109448694A (zh) * | 2018-12-27 | 2019-03-08 | 苏州思必驰信息科技有限公司 | 一种快速合成tts语音的方法及装置 |
CN109448493A (zh) * | 2018-12-27 | 2019-03-08 | 中国电子科技集团公司第十五研究所 | 塔台管制模拟训练系统、语音管制指令识别及报读方法 |
US20190237061A1 (en) * | 2018-01-31 | 2019-08-01 | Semantic Machines, Inc. | Training natural language system with generated dialogues |
CN110136691A (zh) * | 2019-05-28 | 2019-08-16 | 广州多益网络股份有限公司 | 一种语音合成模型训练方法、装置、电子设备及存储介质 |
CN110265028A (zh) * | 2019-06-20 | 2019-09-20 | 百度在线网络技术(北京)有限公司 | 语音合成语料库的构建方法、装置及设备 |
-
2019
- 2019-09-29 CN CN201910933157.2A patent/CN110600000B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070055527A1 (en) * | 2005-09-07 | 2007-03-08 | Samsung Electronics Co., Ltd. | Method for synthesizing various voices by controlling a plurality of voice synthesizers and a system therefor |
US20080319753A1 (en) * | 2007-06-25 | 2008-12-25 | International Business Machines Corporation | Technique for training a phonetic decision tree with limited phonetic exceptional terms |
US20160093284A1 (en) * | 2014-09-25 | 2016-03-31 | Intel Corporation | Method and apparatus to synthesize voice based on facial structures |
US20170092295A1 (en) * | 2015-09-28 | 2017-03-30 | GM Global Technology Operations LLC | Streamlined navigational speech recognition |
CN107644637A (zh) * | 2017-03-13 | 2018-01-30 | 平安科技(深圳)有限公司 | 语音合成方法和装置 |
CN107168676A (zh) * | 2017-03-29 | 2017-09-15 | 联想(北京)有限公司 | 一种信息输出方法及其装置 |
US20190237061A1 (en) * | 2018-01-31 | 2019-08-01 | Semantic Machines, Inc. | Training natural language system with generated dialogues |
CN109036374A (zh) * | 2018-07-03 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 数据处理方法和装置 |
CN109448694A (zh) * | 2018-12-27 | 2019-03-08 | 苏州思必驰信息科技有限公司 | 一种快速合成tts语音的方法及装置 |
CN109448493A (zh) * | 2018-12-27 | 2019-03-08 | 中国电子科技集团公司第十五研究所 | 塔台管制模拟训练系统、语音管制指令识别及报读方法 |
CN110136691A (zh) * | 2019-05-28 | 2019-08-16 | 广州多益网络股份有限公司 | 一种语音合成模型训练方法、装置、电子设备及存储介质 |
CN110265028A (zh) * | 2019-06-20 | 2019-09-20 | 百度在线网络技术(北京)有限公司 | 语音合成语料库的构建方法、装置及设备 |
Non-Patent Citations (4)
Title |
---|
JAKUB VIT 等: ""On the analysis of traning data for wavenet-based speech synthesis"", 《HTTPS://SIGPORT.ORG/DOCUMENTS/ANALYSIS-TRANING-DATA-WAVENET-BASED-SPEECH-SYNTHESIS》 * |
TERESA M.KAMM 等: ""Selective sample of training data for speech recognition"", 《PROC. HUMAN LANGUAGE TEXHNOLOGY》 * |
刘文强: ""语音识别技术在智能家居中的研究与应用"", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 * |
双志伟: ""个性化语音生成研究"", 《中国博士学位论文全文数据库(信息科技辑)》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113223493A (zh) * | 2020-01-20 | 2021-08-06 | Tcl集团股份有限公司 | 语音看护方法、装置、系统及存储介质 |
CN111681640A (zh) * | 2020-05-29 | 2020-09-18 | 北京百度网讯科技有限公司 | 播报文本的确定方法、装置、设备和介质 |
CN111681640B (zh) * | 2020-05-29 | 2023-09-15 | 阿波罗智联(北京)科技有限公司 | 播报文本的确定方法、装置、设备和介质 |
CN111696518A (zh) * | 2020-06-05 | 2020-09-22 | 四川纵横六合科技股份有限公司 | 一种基于文本的自动化语音合成方法 |
CN111739510A (zh) * | 2020-06-24 | 2020-10-02 | 华人运通(上海)云计算科技有限公司 | 信息处理方法、装置、车辆和计算机存储介质 |
CN111770388A (zh) * | 2020-06-30 | 2020-10-13 | 百度在线网络技术(北京)有限公司 | 内容处理方法、装置、设备及存储介质 |
CN112330850A (zh) * | 2020-07-10 | 2021-02-05 | 深圳Tcl新技术有限公司 | 门锁播报控制方法、装置、智能门锁及存储介质 |
CN111816168A (zh) * | 2020-07-21 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、语音播放的方法、装置及存储介质 |
CN112269864A (zh) * | 2020-10-15 | 2021-01-26 | 北京百度网讯科技有限公司 | 生成播报语音的方法、装置、设备和计算机存储介质 |
CN112269864B (zh) * | 2020-10-15 | 2023-06-23 | 北京百度网讯科技有限公司 | 生成播报语音的方法、装置、设备和计算机存储介质 |
CN112786023A (zh) * | 2020-12-23 | 2021-05-11 | 竹间智能科技(上海)有限公司 | 标记模型构建方法及语音播报系统 |
CN115440190A (zh) * | 2021-06-04 | 2022-12-06 | 上海博泰悦臻网络技术服务有限公司 | 基于声音复刻的语音播报方法、系统、存储介质及设备 |
CN113449141A (zh) * | 2021-06-08 | 2021-09-28 | 阿波罗智联(北京)科技有限公司 | 语音播报方法、装置、电子设备及存储介质 |
US20220293085A1 (en) * | 2021-06-08 | 2022-09-15 | Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | Method for text to speech, electronic device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
CN110600000B (zh) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110600000B (zh) | 语音播报方法、装置、电子设备及存储介质 | |
CN109147784B (zh) | 语音交互方法、设备以及存储介质 | |
CN112259072A (zh) | 语音转换方法、装置和电子设备 | |
CN110767220A (zh) | 一种智能语音助手的交互方法、装置、设备及存储介质 | |
CN111681640B (zh) | 播报文本的确定方法、装置、设备和介质 | |
US10818151B2 (en) | Vibration method, electronic device and computer readable storage medium | |
US10783884B2 (en) | Electronic device-awakening method and apparatus, device and computer-readable storage medium | |
CN105141587A (zh) | 一种虚拟玩偶互动方法及装置 | |
CN110503944B (zh) | 语音唤醒模型的训练和使用方法及装置 | |
CN112165648B (zh) | 一种音频播放的方法、相关装置、设备及存储介质 | |
CN110517692A (zh) | 热词语音识别方法和装置 | |
CN111031373A (zh) | 视频播放方法、装置、电子设备及计算机可读存储介质 | |
CN112581946A (zh) | 语音控制方法、装置、电子设备和可读存储介质 | |
CN110660391A (zh) | 基于rpa接口实现大屏终端语音控制的定制方法及系统 | |
CN110633357A (zh) | 语音交互方法、装置、设备和介质 | |
CN110706701A (zh) | 语音技能推荐方法、装置、设备及存储介质 | |
CN110718221A (zh) | 语音技能控制方法、语音设备、客户端以及服务器 | |
CN111816168A (zh) | 一种模型训练的方法、语音播放的方法、装置及存储介质 | |
CN111736799A (zh) | 基于人机交互的语音交互方法、装置、设备和介质 | |
CN111768755A (zh) | 信息处理方法、装置、车辆和计算机存储介质 | |
CN111681052B (zh) | 一种语音交互方法、服务器和电子设备 | |
CN110473524B (zh) | 语音识别系统的构建方法和装置 | |
CN110674338B (zh) | 语音技能推荐方法、装置、设备及存储介质 | |
CN110516043B (zh) | 用于问答系统的答案生成方法和装置 | |
CN112164396A (zh) | 语音控制方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211021 Address after: 100176 101, floor 1, building 1, yard 7, Ruihe West 2nd Road, Beijing Economic and Technological Development Zone, Daxing District, Beijing Applicant after: Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant before: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |