[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN111402856B - 语音处理方法、装置、可读介质及电子设备 - Google Patents

语音处理方法、装置、可读介质及电子设备 Download PDF

Info

Publication number
CN111402856B
CN111402856B CN202010209023.9A CN202010209023A CN111402856B CN 111402856 B CN111402856 B CN 111402856B CN 202010209023 A CN202010209023 A CN 202010209023A CN 111402856 B CN111402856 B CN 111402856B
Authority
CN
China
Prior art keywords
processed
information
voice information
spectrum data
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010209023.9A
Other languages
English (en)
Other versions
CN111402856A (zh
Inventor
殷翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010209023.9A priority Critical patent/CN111402856B/zh
Publication of CN111402856A publication Critical patent/CN111402856A/zh
Application granted granted Critical
Publication of CN111402856B publication Critical patent/CN111402856B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本公开涉及一种语音处理方法、装置、可读介质及电子设备,包括:接收用户输入的待处理语音信息,并确定与待处理语音信息对应的目标曲谱信息;提取待处理语音信息中的待处理频谱数据;根据待处理频谱数据和目标曲谱信息得到修正后的目标频谱数据;根据目标频谱数据通过声码器合成得到调音后的目标语音。通过上述技术方案,能够通过对用户所输入的目标语音信息中的目标频谱信息进行修正的方式对该目标语音信息进行调音,无需额外的硬件开销,也无需进行任何信号处理层面的修音,避免了出现音差较大的情况下,调音后的声音失真、或者听感很差的问题,改善了修音效果,且减少了修音成本。

Description

语音处理方法、装置、可读介质及电子设备
技术领域
本公开涉及语音合成技术领域,具体地,涉及一种语音处理方法、装置、可读介质及电子设备。
背景技术
在现有技术中,在用户演唱的歌曲的音高或者节奏与原唱歌曲有差异时,通常只能通过硬件调整(例如声卡)或者信号处理的方式来将用户演唱歌曲的音高或者节奏尽可能修正至与原唱歌曲的信号相近。这样的处理方式首先需要较高的成本,例如需要购置声卡,另外,仅仅根据原唱的声音信号来对用户演唱歌曲的声音信号还容易出现音差较大的情况下,调音后的声音失真、或者听感很差的问题。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种语音处理方法,所述方法包括:
接收用户输入的待处理语音信息,并确定与所述待处理语音信息对应的目标曲谱信息;
提取所述待处理语音信息中的待处理频谱数据;
根据所述待处理频谱数据和所述目标曲谱信息得到修正后的目标频谱数据;
根据所述目标频谱数据通过声码器合成得到调音后的目标语音。
第二方面,本公开还提供一种语音处理装置,所述装置包括:
接收模块,用于接收用户输入的待处理语音信息,并确定与所述待处理语音信息对应的目标曲谱信息;
提取模块,用于提取所述待处理语音信息中的待处理频谱数据;
转换模块,用于根据所述待处理频谱数据和所述目标曲谱信息得到修正后的目标频谱数据;
合成模块,用于根据所述目标频谱数据通过声码器合成得到调音后的目标语音。
第三方面,本公开还提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现第一方面所述方法的步骤。
第四方面,本公开还提供一种电子设备,包括:
存储装置,其上存储有一个或多个计算机程序;
一个或多个处理装置,用于执行所述存储装置中的所述一个或多个计算机程序,以实现第一方面所述方法的步骤。
通过上述技术方案,能够通过对用户所输入的目标语音信息中的目标频谱信息进行修正的方式对该目标语音信息进行调音,无需额外的硬件开销,也无需进行任何信号处理层面的修音,避免了出现音差较大的情况下,调音后的声音失真、或者听感很差的问题,改善了修音效果,且减少了修音成本。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
在附图中:
图1是根据本公开一示例性实施例示出的一种语音处理方法的流程图。
图2是根据本公开又一示例性实施例示出的一种语音处理方法的流程图。
图3是根据本公开又一示例性实施例示出的一种语音处理方法中预设神经网络模型的训练方法的流程图。
图4是根据本公开又一示例性实施例示出的一种语音处理方法的流程图。
图5是根据本公开一示例性实施例示出的一种语音处理装置的结构框图。
图6示出了适于用来实现本公开实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1是根据本公开一示例性实施例示出的一种语音处理方法的流程图。如图1所示,所述方法包括步骤101至步骤104。
在步骤101中,接收用户输入的待处理语音信息,并确定与所述待处理语音信息对应的目标曲谱信息。
与该待处理语音信息对应的目标曲谱信息为预先就已经设置好的,用户在输入该待处理语音信息时,便可确定该待处理语音信息所对应的歌曲模板,每个歌曲模板都有其对应的预设好的曲谱信息,该曲谱信息可以为是直接从本地获取,也可以是从其他数据库中获取得到。该曲谱信息中包括例如midi信息、装饰音等数据。因此,在接收到该待处理语音信息的情况下,便可以确定与该待处理语音信息对应的目标曲谱信息。
在步骤102中,提取所述待处理语音信息中的待处理频谱数据。
该待处理频谱数据可以为例如梅尔频谱(Mel Bank Features)。
在步骤103中,根据所述待处理频谱数据和所述目标曲谱信息得到修正后的目标频谱数据。在提取得到该待处理频谱数据之后,根据该目标曲谱信息对该待处理频谱进行修正,从而得到修正后的与该目标曲谱信息对应的目标频谱数据。
在步骤104中,根据所述目标频谱数据通过声码器合成得到调音后的目标语音。
在得到该目标频谱数据之后,通过声码器来对调音后的目标语音进行合成。其中,在一种可能的实施方式中,该声码器可以为预设神经网络声码器,例如WaveNet声码器。在得到该目标语音的情况下,便可根据实际情况将该目标语音与对应的伴奏模板合成之后作为完整的修音后的歌曲。
通过上述技术方案,能够通过对用户所输入的目标语音信息中的目标频谱信息进行修正的方式对该目标语音信息进行调音,无需额外的硬件开销,也无需进行任何信号处理层面的修音,避免了出现音差较大的情况下,调音后的声音失真、或者听感很差的问题,改善了修音效果,且减少了修音成本。
图2是根据本公开又一示例性实施例示出的一种语音处理方法的流程图。如图2所示,所述方法除了包括图1中所示的步骤101、步骤102和步骤104,还包括步骤201。
在步骤201中,将所述待处理频谱数据和所述目标曲谱信息输入预设神经网络模型中以得到修正后的目标频谱数据。
也即,根据该待处理频谱数据和该目标曲谱信息得到修正的目标频谱数据的方式可以是通过该预设神经网络模型来实现。该预设神经网络模型即为预先训练好的网络模型,通过将该待处理语音信息中的待处理频谱数据和与该待处理语音信息对应的曲谱信息一同输入该预设神经网络模型中之后,便可直接直接通过对该待处理频谱数据按照目标曲谱信息进行修正,以得到修音处理后的目标频谱数据。
在一种可能的实施方式中,用户输入该待处理语音信息可以为没有歌曲伴奏的清唱的语音信息。在此情况下,直接提取该待处理语音信息对应的待处理频谱数据即可,提取得到的该待处理频谱数据即为与该清唱对应的待处理频谱数据。
在另一种可能的实施方式中,该用户输入的待处理语音信息为包括歌曲伴奏的混音的语音信息。在此情况下,在执行如图1所示的步骤102之前,需要将所述歌曲伴奏从所述待处理语音信息中分离,以得到没有所述歌曲伴奏的清唱的待处理语音信息,也即,将该待处理语音信息中的歌曲伴奏与清唱进行分离,并仅在该待处理语音信息中保留清唱,之后再根据如图1所示的步骤102,提取没有歌曲伴奏的清唱的待处理语音信息中的待处理频谱数据,该待处理频谱数据即为与该清唱对应的待处理频谱数据。
图3是根据本公开又一示例性实施例示出的一种语音处理方法中预设神经网络模型的训练方法的流程图。如图3所示,所述训练方法包括步骤301至步骤304。
在步骤301中,对待训练歌曲的原唱语音信息中的旋律数据和/或音高数据进行无规律调整,以得到对应于所述待训练歌曲的多个走调语音信息。该待训练歌曲即为任意能够用于对该预设神经网络模型进行训练且能够获取到其原唱语音信息的歌曲。在确定该待训练歌曲的情况下,可以按照该待训练歌曲的midi阶数对该待训练歌曲的的旋律数据和/或音高数据进行无规律的调整,调整后的语音信息即可以作为待训练歌曲的走调语音信息。
在步骤302中,获取所述待训练歌曲对应的曲谱信息。该待训练歌曲的曲谱信息可以为预先准备好的。
在步骤303中,获取对所述待训练歌曲的原唱语音信息经过调音师调音后的调音语音信息。调音师对该原唱语音信息进行调音后的得到的调音语音信息可以是任意调音师在对该预设神经网络模型进行训练之前完成的,调音师对该原唱语音信息进行的调音无需参考该待训练歌曲的曲谱信息。
在步骤304中,将从所述走调语音信息中提取得到的第一频谱数据和所述待训练歌曲对应的曲谱信息作为所述预设神经网络模型的输入训练数据,将从所述调音语音信息中提取得到的第二频谱数据作为所述预设神经网络模型的输出训练数据,以对所述预设神经网络模型进行训练。
在获取到上述走调语音信息以及调音语音信息之后,便可将作为一组训练数据对用于对该预设神经网络模型进行训练。
另外,除了可以将上述走调语音信息以及调音语音信息作为一组训练数据对用于对该预设神经网络模型训练之外,还可将原唱语音信息与该调音语音信息作为一组训练数据对用于对该预设神经网络模型进行训练。例如,上述用于对该预设神经网络模型进行训练的输入训练数据中,可以包括10%的走调语音信息和发音不饱满的语音信息。
通过上述技术方案,能够将调音师对该原唱语音信息的调音数据作为该预设神经网络模型的学习目标,从而就能使得训练得到的模型能够学习得到调音师根据歌曲的曲谱信息会如何进行调音,进而使得经过该预设神经网络模型调音之后得到的目标语音更加接近调音师的调音结果,不仅不会出现因为音差太大却一直根据曲谱来进行调音而导致的调音后的声音失真、或者听感很差的问题,而且还能够提升调音效果。
在一种可能的实施方式中,还可以将走调语音信息与原唱语音信息作为一组数据对作为对该预设神经网络模型的训练数据。
在一种可能的实施方式中,所述预设神经网络模型通过以下方式进行训练:对所述预设神经网络模型的训练数据按照风格类型进行分类。例如,在该预设神经网络模型训练的过程中,针对不同的歌曲风格,例如爵士、摇滚、民谣等等,使用不同的ID来进行分类,从而能够使得该预设神经网络模型能够分别针对不同类型的歌曲风格学习不同的调音特征。
图4是根据本公开又一示例性实施例示出的一种语音处理方法的流程图。如图4所示,所述方法除了包括如图1所示的步骤101、步骤102和步骤104之外,还包括步骤401和步骤402。
在步骤401中,确定与所述待处理语音信息对应的目标风格类型。该目标风格类型可以是与该待处理语音信息对应的歌曲模板中已经设定好的风格类型。或者,也可以通过对该待处理语音信息进行风格识别来确定的。
在该预设神经网络模型训练时若针对不同风格类型的歌曲进行了分别的学习,则在该如图1所示的步骤103中,除了将从该待处理语音信息中提取出来的待处理频谱数据和与该待处理语音信息对应的目标曲谱信息输入该预设神经网络模型中进行修正之外,还可以如图4中所示的步骤402,将所述待处理频谱数据、所述目标曲谱信息和所述目标风格类型输入预设神经网络模型中以得到修正后的目标频谱数据。
其中,该目标风格类型可以以ID的形式来控制转换。对于该预设神经网络模型,可以采用one-hot向量编码的方式对该目标风格类型进行输入,以使该预设神经网络模型识别该待处理语音信息的风格类型,并采用与该待处理语音信息的风格类型相对应的转换特征来对该待处理频谱数据进行转换。
图5是根据本公开一示例性实施例示出的一种语音处理装置的结构框图。如图5所示,所述装置100包括:接收模块10,用于接收用户输入的待处理语音信息,并确定与所述待处理语音信息对应的目标曲谱信息;提取模块20,用于提取所述待处理语音信息中的待处理频谱数据;转换模块30,用于根据所述待处理频谱数据和所述目标曲谱信息得到修正后的目标频谱数据;合成模块40,用于根据所述目标频谱数据通过声码器合成得到调音后的目标语音。
通过上述技术方案,能够通过对用户所输入的目标语音信息中的目标频谱信息进行修正的方式对该目标语音信息进行调音,无需额外的硬件开销,也无需进行任何信号处理层面的修音,避免了出现音差较大的情况下,调音后的声音失真、或者听感很差的问题,改善了修音效果,且减少了修音成本。
在一种可能的实施方式中,所述转换模块30还用于:
将所述待处理频谱数据和所述目标曲谱信息输入预设神经网络模型中以得到修正后的目标频谱数据。
在一种可能的实施方式中,所述声码器为预设神经网络声码器。
在一种可能的实施方式中,所述用户输入的待处理语音信息为没有歌曲伴奏的清唱的语音信息。
在一种可能的实施方式中,所述用户输入的待处理语音信息为包括歌曲伴奏的混音的语音信息,在提取所述待处理语音信息中的待处理频谱数据之前,所述装置100还包括:
分离模块,用于将所述歌曲伴奏从所述待处理语音信息中分离,以得到没有所述歌曲伴奏的清唱的待处理语音信息。
在一种可能的实施方式中,所述预设神经网络模型通过以下方式进行训练:
对待训练歌曲的原唱语音信息中的旋律数据和/或音高数据进行无规律调整,以得到对应于所述待训练歌曲的多个走调语音信息;
获取所述待训练歌曲对应的曲谱信息;
获取对所述待训练歌曲的原唱语音信息经过调音师调音后的调音语音信息;
将从所述走调语音信息中提取得到的第一频谱数据和所述待训练歌曲对应的曲谱信息作为所述预设神经网络模型的输入训练数据,将从所述调音语音信息中提取得到的第二频谱数据作为所述预设神经网络模型的输出训练数据,以对所述预设神经网络模型进行训练。
在一种可能的实施方式中,所述预设神经网络模型通过以下方式进行训练:
对所述预设神经网络模型的训练数据按照风格类型进行分类。
在一种可能的实施方式中,所述装置100还包括:确定模块,用于确定与所述待处理语音信息对应的目标风格类型;所述转换模型,还用于将所述待处理频谱数据、所述目标曲谱信息和所述目标风格类型输入预设神经网络模型中以得到修正后的目标频谱数据。
下面参考图6,其示出了适于用来实现本公开实施例的电子设备600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,可以利用诸如HTTP(HyperText Transfer Protocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收用户输入的待处理语音信息,并确定与待处理语音信息对应的目标曲谱信息;提取待处理语音信息中的待处理频谱数据;将待处理频谱数据和目标曲谱信息输入预设神经网络模型中以得到修正后的目标频谱数据;根据目标频谱数据通过预设神经网络声码器合成得到调音后的目标语音。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,接收模块还可以被描述为“接收用户输入的待处理语音信息的模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种语音处理方法,所述方法包括:接收用户输入的待处理语音信息,并确定与所述待处理语音信息对应的目标曲谱信息;
提取所述待处理语音信息中的待处理频谱数据;
根据所述待处理频谱数据和所述目标曲谱信息得到修正后的目标频谱数据;
根据所述目标频谱数据通过声码器合成得到调音后的目标语音。
根据本公开的一个或多个实施例,示例2提供了示例1的方法,所述根据所述待处理频谱数据和所述目标曲谱信息得到修正后的目标频谱数据包括:
将所述待处理频谱数据和所述目标曲谱信息输入预设神经网络模型中以得到修正后的目标频谱数据。
根据本公开的一个或多个实施例,示例3提供了示例1的方法,所述声码器为预设神经网络声码器。
根据本公开的一个或多个实施例,示例4提供了示例1-3中任一示例的方法,所述用户输入的待处理语音信息为没有歌曲伴奏的清唱的语音信息。
根据本公开的一个或多个实施例,示例5提供了示例1-3中任一示例的方法,所述用户输入的待处理语音信息为包括歌曲伴奏的混音的语音信息,在提取所述待处理语音信息中的待处理频谱数据之前,所述方法还包括:
将所述歌曲伴奏从所述待处理语音信息中分离,以得到没有所述歌曲伴奏的清唱的待处理语音信息。
根据本公开的一个或多个实施例,示例6提供了示例2的方法,所述预设神经网络模型通过以下方式进行训练:
对待训练歌曲的原唱语音信息中的旋律数据和/或音高数据进行无规律调整,以得到对应于所述待训练歌曲的多个走调语音信息;
获取所述待训练歌曲对应的曲谱信息;
获取对所述待训练歌曲的原唱语音信息经过调音师调音后的调音语音信息;
将从所述走调语音信息中提取得到的第一频谱数据和所述待训练歌曲对应的曲谱信息作为所述预设神经网络模型的输入训练数据,将从所述调音语音信息中提取得到的第二频谱数据作为所述预设神经网络模型的输出训练数据,以对所述预设神经网络模型进行训练。
根据本公开的一个或多个实施例,示例7提供了示例2的方法,所述预设神经网络模型通过以下方式进行训练:
对所述预设神经网络模型的训练数据按照风格类型进行分类。。
根据本公开的一个或多个实施例,示例8提供了示例7的方法,所述方法还包括:
确定与所述待处理语音信息对应的目标风格类型;
所述将所述待处理频谱数据和所述目标曲谱信息输入预设神经网络模型中以得到修正后的目标频谱数据包括:
将所述待处理频谱数据、所述目标曲谱信息和所述目标风格类型输入预设神经网络模型中以得到修正后的目标频谱数据。
根据本公开的一个或多个实施例,示例9提供了一种语音处理装置,所述装置包括:
接收模块,用于接收用户输入的待处理语音信息,并确定与所述待处理语音信息对应的目标曲谱信息;
提取模块,用于提取所述待处理语音信息中的待处理频谱数据;
转换模块,用于根据所述待处理频谱数据和所述目标曲谱信息得到修正后的目标频谱数据;
合成模块,用于根据所述目标频谱数据通过声码器合成得到调音后的目标语音。
根据本公开的一个或多个实施例,示例10提供了示例9的装置,所述转换模块还用于:
将所述待处理频谱数据和所述目标曲谱信息输入预设神经网络模型中以得到修正后的目标频谱数据。
根据本公开的一个或多个实施例,示例11提供了示例9的装置,所述声码器为预设神经网络声码器。
根据本公开的一个或多个实施例,示例12提供了示例9-11中任一示例的装置,所述用户输入的待处理语音信息为没有歌曲伴奏的清唱的语音信息。
根据本公开的一个或多个实施例,示例13提供了示例9-11中任一示例的装置,所述用户输入的待处理语音信息为包括歌曲伴奏的混音的语音信息,在提取所述待处理语音信息中的待处理频谱数据之前,所述方法还包括:
将所述歌曲伴奏从所述待处理语音信息中分离,以得到没有所述歌曲伴奏的清唱的待处理语音信息。
根据本公开的一个或多个实施例,示例14提供了示例10的装置,所述预设神经网络模型通过以下方式进行训练:
对待训练歌曲的原唱语音信息中的旋律数据和/或音高数据进行无规律调整,以得到对应于所述待训练歌曲的多个走调语音信息;
获取所述待训练歌曲对应的曲谱信息;
获取对所述待训练歌曲的原唱语音信息经过调音师调音后的调音语音信息;
将从所述走调语音信息中提取得到的第一频谱数据和所述待训练歌曲对应的曲谱信息作为所述预设神经网络模型的输入训练数据,将从所述调音语音信息中提取得到的第二频谱数据作为所述预设神经网络模型的输出训练数据,以对所述预设神经网络模型进行训练。
根据本公开的一个或多个实施例,示例15提供了示例10的装置,所述预设神经网络模型通过以下方式进行训练:
对所述预设神经网络模型的训练数据按照风格类型进行分类。
根据本公开的一个或多个实施例,示例16提供了示例15的装置,所述装置还包括:
确定模块,用于确定与所述待处理语音信息对应的目标风格类型;
所述转换模型,还用于将所述待处理频谱数据、所述目标曲谱信息和所述目标风格类型输入预设神经网络模型中以得到修正后的目标频谱数据。
根据本公开的一个或多个实施例,示例17提供了一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现示例1-8中任一项所述方法的步骤。
根据本公开的一个或多个实施例,示例18提供了一种电子设备,包括:存储装置,其上存储有一个或多个计算机程序;一个或多个处理装置,用于执行所述存储装置中的所述一个或多个计算机程序,以实现示例1-8中任一项所述方法的步骤。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

Claims (10)

1.一种语音处理方法,其特征在于,所述方法包括:
接收用户输入的待处理语音信息,并确定与所述待处理语音信息对应的目标曲谱信息;
提取所述待处理语音信息中的待处理频谱数据;
根据所述待处理频谱数据和所述目标曲谱信息得到修正后的目标频谱数据;
根据所述目标频谱数据通过声码器合成得到调音后的目标语音;
其中,所述根据所述待处理频谱数据和所述目标曲谱信息得到修正后的目标频谱数据包括:
将所述待处理频谱数据和所述目标曲谱信息输入预设神经网络模型中以得到修正后的目标频谱数据;
所述预设神经网络的训练数据包含待训练歌曲对应的走调语音信息、曲谱信息和调音语音信息,所述走调语音信息是通过对待训练歌曲的原唱语音信息中的旋律数据和/或音高数据进行无规律调整得到的;所述调音语音信息是通过对所述待训练歌曲的原唱语音信息经过调音师调音后所得的。
2.根据权利要求1所述的方法,其特征在于,所述声码器为预设神经网络声码器。
3.根据权利要求1或2所述的方法,其特征在于,所述用户输入的待处理语音信息为没有歌曲伴奏的清唱的语音信息。
4.根据权利要求1或2所述的方法,其特征在于,所述用户输入的待处理语音信息为包括歌曲伴奏的混音的语音信息,在提取所述待处理语音信息中的待处理频谱数据之前,所述方法还包括:
将所述歌曲伴奏从所述待处理语音信息中分离,以得到没有所述歌曲伴奏的清唱的待处理语音信息。
5.根据权利要求1所述的方法,其特征在于,所述预设神经网络模型通过以下方式进行训练:
将从所述走调语音信息中提取得到的第一频谱数据和所述待训练歌曲对应的曲谱信息作为所述预设神经网络模型的输入训练数据,将从所述调音语音信息中提取得到的第二频谱数据作为所述预设神经网络模型的输出训练数据,以对所述预设神经网络模型进行训练。
6.根据权利要求1所述的方法,其特征在于,所述预设神经网络模型通过以下方式进行训练:
对所述预设神经网络模型的训练数据按照风格类型进行分类。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
确定与所述待处理语音信息对应的目标风格类型;
所述将所述待处理频谱数据和所述目标曲谱信息输入预设神经网络模型中以得到修正后的目标频谱数据包括:
将所述待处理频谱数据、所述目标曲谱信息和所述目标风格类型输入预设神经网络模型中以得到修正后的目标频谱数据。
8.一种语音处理装置,其特征在于,所述装置包括:
接收模块,用于接收用户输入的待处理语音信息,并确定与所述待处理语音信息对应的目标曲谱信息;
提取模块,用于提取所述待处理语音信息中的待处理频谱数据;
转换模块,用于根据所述待处理频谱数据和所述目标曲谱信息得到修正后的目标频谱数据;
合成模块,用于根据所述目标频谱数据通过声码器合成得到调音后的目标语音;
所述转换模块还用于:
将所述待处理频谱数据和所述目标曲谱信息输入预设神经网络模型中以得到修正后的目标频谱数据;
所述预设神经网络的训练数据包含待训练歌曲对应的走调语音信息、曲谱信息和调音语音信息,所述走调语音信息是通过对待训练歌曲的原唱语音信息中的旋律数据和/或音高数据进行无规律调整得到的;所述调音语音信息是通过对所述待训练歌曲的原唱语音信息经过调音师调音后所得的。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-7中任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括:
存储装置,其上存储有一个或多个计算机程序;
一个或多个处理装置,用于执行所述存储装置中的所述一个或多个计算机程序,以实现权利要求1-7中任一项所述方法的步骤。
CN202010209023.9A 2020-03-23 2020-03-23 语音处理方法、装置、可读介质及电子设备 Active CN111402856B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010209023.9A CN111402856B (zh) 2020-03-23 2020-03-23 语音处理方法、装置、可读介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010209023.9A CN111402856B (zh) 2020-03-23 2020-03-23 语音处理方法、装置、可读介质及电子设备

Publications (2)

Publication Number Publication Date
CN111402856A CN111402856A (zh) 2020-07-10
CN111402856B true CN111402856B (zh) 2023-04-14

Family

ID=71429092

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010209023.9A Active CN111402856B (zh) 2020-03-23 2020-03-23 语音处理方法、装置、可读介质及电子设备

Country Status (1)

Country Link
CN (1) CN111402856B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112786006B (zh) * 2021-01-13 2024-05-17 北京有竹居网络技术有限公司 语音合成方法、合成模型训练方法、装置、介质及设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101399044A (zh) * 2007-09-29 2009-04-01 国际商业机器公司 语音转换方法和系统
CN101515458A (zh) * 2008-02-19 2009-08-26 富士通株式会社 编码设备、编码方法和包括该方法的计算机程序产品
CN104347080A (zh) * 2013-08-09 2015-02-11 雅马哈株式会社 语音分析方法和装置、语音合成方法和装置、以及存储语音分析程序的介质
CN105304080A (zh) * 2015-09-22 2016-02-03 科大讯飞股份有限公司 语音合成装置及方法
CN105825844A (zh) * 2015-07-30 2016-08-03 维沃移动通信有限公司 一种修音的方法和装置
WO2018003849A1 (ja) * 2016-06-30 2018-01-04 ヤマハ株式会社 音声合成装置および音声合成方法
CN108810075A (zh) * 2018-04-11 2018-11-13 北京小唱科技有限公司 基于服务器端实现的音频修正系统
CN109817197A (zh) * 2019-03-04 2019-05-28 天翼爱音乐文化科技有限公司 歌声生成方法、装置、计算机设备和存储介质
CN110415722A (zh) * 2019-07-25 2019-11-05 北京得意音通技术有限责任公司 语音信号处理方法、存储介质、计算机程序和电子设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101399044A (zh) * 2007-09-29 2009-04-01 国际商业机器公司 语音转换方法和系统
CN101515458A (zh) * 2008-02-19 2009-08-26 富士通株式会社 编码设备、编码方法和包括该方法的计算机程序产品
CN104347080A (zh) * 2013-08-09 2015-02-11 雅马哈株式会社 语音分析方法和装置、语音合成方法和装置、以及存储语音分析程序的介质
CN105825844A (zh) * 2015-07-30 2016-08-03 维沃移动通信有限公司 一种修音的方法和装置
CN105304080A (zh) * 2015-09-22 2016-02-03 科大讯飞股份有限公司 语音合成装置及方法
WO2018003849A1 (ja) * 2016-06-30 2018-01-04 ヤマハ株式会社 音声合成装置および音声合成方法
CN108810075A (zh) * 2018-04-11 2018-11-13 北京小唱科技有限公司 基于服务器端实现的音频修正系统
CN109817197A (zh) * 2019-03-04 2019-05-28 天翼爱音乐文化科技有限公司 歌声生成方法、装置、计算机设备和存储介质
CN110415722A (zh) * 2019-07-25 2019-11-05 北京得意音通技术有限责任公司 语音信号处理方法、存储介质、计算机程序和电子设备

Also Published As

Publication number Publication date
CN111402856A (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
CN111445892B (zh) 歌曲生成方法、装置、可读介质及电子设备
CN111402843B (zh) 说唱音乐生成方法、装置、可读介质及电子设备
CN109543064B (zh) 歌词显示处理方法、装置、电子设备及计算机存储介质
CN106898340B (zh) 一种歌曲的合成方法及终端
CN110503961B (zh) 音频识别方法、装置、存储介质及电子设备
CN111798821B (zh) 声音转换方法、装置、可读存储介质及电子设备
WO2022105545A1 (zh) 语音合成方法、装置、可读介质及电子设备
CN111402842B (zh) 用于生成音频的方法、装置、设备和介质
CN111445897B (zh) 歌曲生成方法、装置、可读介质及电子设备
CN112153460B (zh) 一种视频的配乐方法、装置、电子设备和存储介质
CN111583900A (zh) 歌曲合成方法、装置、可读介质及电子设备
CN111292717B (zh) 语音合成方法、装置、存储介质和电子设备
CN112489606B (zh) 旋律生成方法、装置、可读介质及电子设备
CN111369971A (zh) 语音合成方法、装置、存储介质和电子设备
CN111667810B (zh) 多音字语料的获取方法、装置、可读介质和电子设备
CN113257218B (zh) 语音合成方法、装置、电子设备和存储介质
CN109308901A (zh) 歌唱者识别方法和装置
CN111916050A (zh) 语音合成方法、装置、存储介质和电子设备
CN113205793B (zh) 音频生成方法、装置、存储介质及电子设备
CN112786013A (zh) 基于唱本的语音合成方法、装置、可读介质和电子设备
CN111785247A (zh) 语音生成方法、装置、设备和计算机可读介质
CN112562633B (zh) 一种歌唱合成方法、装置、电子设备及存储介质
CN111369968B (zh) 语音合成方法、装置、可读介质及电子设备
CN111402856B (zh) 语音处理方法、装置、可读介质及电子设备
CN111429881B (zh) 语音合成方法、装置、可读介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant