[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN1761993B - 歌声合成方法和设备以及机器人设备 - Google Patents

歌声合成方法和设备以及机器人设备 Download PDF

Info

Publication number
CN1761993B
CN1761993B CN2004800076166A CN200480007616A CN1761993B CN 1761993 B CN1761993 B CN 1761993B CN 2004800076166 A CN2004800076166 A CN 2004800076166A CN 200480007616 A CN200480007616 A CN 200480007616A CN 1761993 B CN1761993 B CN 1761993B
Authority
CN
China
Prior art keywords
song
note
sound
performance data
synthetic method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2004800076166A
Other languages
English (en)
Other versions
CN1761993A (zh
Inventor
小林贤一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1761993A publication Critical patent/CN1761993A/zh
Application granted granted Critical
Publication of CN1761993B publication Critical patent/CN1761993B/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/055Spint toy, i.e. specifically designed for children, e.g. adapted for smaller fingers or simplified in some way; Musical instrument-shaped game input interfaces with simplified control features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Toys (AREA)

Abstract

本发明涉及歌声合成方法和设备、程序、记录介质以及机器人设备,其中具体公开了一种利用演奏数据合成歌声的歌声合成方法。接收的演奏数据被分析为音调和音长以及歌词的音乐信息(S2,S3)。如果从被分析的音乐信息选择与歌词相应的音轨(S5),从该音轨选择将被分配歌声的音符。

Description

歌声合成方法和设备以及机器人设备
技术领域
本发明涉及用于从演奏数据合成歌声的方法和设备、程序、记录介质以及机器人设备。
本发明包含与2003年3月20日向日本专利办公室申请的日本专利申请JP-2003-079152有关的主题,此专利申请的全部内容在本文引作参考。
背景技术
到目前为止知道例如通过计算机从给定歌唱数据合成歌声的技术。
在相关技术领域中,MIDI(乐器数字接口)数据是被接受作为实际标准的代表性演奏数据。一般地,通过控制称作MIDI声源的数字声源而用MIDI数据产生音乐声音,其中,所述MIDI声源例如为由MIDI数据激发的声源,如计算机声源或电子乐器的声源。歌词数据可引入到MIDI文件,如SMF(标准MIDI文件),从而,可自动地编制具有歌词的音乐五线谱。
例如,已经在日本专利特开平专利出版物H-11-95798中提出使用由歌声参数(特殊数据表示)或组成歌声的音位片段表现的MIDI数据的尝试。
虽然这些相关技术试图用MIDI数据的数据形式来表现歌声,但是,此尝试仅仅是在控制乐器意义上的控制。
而且,利用常规技术不纠正MIDI数据就把为乐器编制的MIDI数据译成歌曲是不可能的。
另一方面,用于大声读电子邮件或主页的声音合成软件由包括本受让人在内的许多制造商销售。然而,读的方式是大声读文本的常规方式。
使用电气或磁性操作来执行与包括人类的生命体相似的动作的机械设备称作机器人。机器人在日本的使用回溯到60年代末。当时使用的大多数机器人是工业机器人,如机械手或运输机器人,目的是使工厂的生产操作自动化或提供无人操作。
近年来,正在进行应用机器人的开发,所述应用机器人适于支持人类生活,即在我们日常生活的各个方面支持人类活动,作为人类的伙伴。与工业机器人截然不同的是,应用机器人被赋予在我们日常生活的各个方面学习如何使它自己适合有个体差异的操作员或适应变化环境的能力。宠物型机器人或人形机器人正投入实际使用,其中,宠物型机器人模拟四足动物如狗或猫的身体机构或动作,人形机器人以人类用两条腿直立行走的身体机构或动作为模型进行设计。
与工业机器人截然不同的是,应用机器人设备能执行以娱乐为中心的各种动作。为此,这些应用机器人设备有时称作娱乐机器人。在此类机器人设备中,有根据外部信息或内部状态而执行自主动作的机器人。
用于自主机器人设备的人工智能(AI)是智力功能如推理或判断的人工实现。进一步试图人工实现诸如感觉或直觉的功能。在借助视觉装置或自然语言向外部表现人工智能的表现装置中,有借助声音的装置,作为使用自然语言的表现功能的实例。
歌声的常规合成使用特殊类型的数据,或者即使使用MIDI数据,也不能有效地使用嵌入在其中的歌词数据,或者,不能唱为乐器准备的MIDI数据。
发明内容
本发明的目的是提供一种有可能克服常规技术中固有问题的新型方法和设备。
本发明的另一目的是提供一种合成歌声的方法和设备,从而,有可能通过利用演奏数据如MIDI数据而合成歌声。
本发明的又一目的是提供一种合成歌声的方法和设备,其中,基于由SMF规定的MIDI数据的歌词信息而产生歌声,可自动地检验作为歌唱主体的声音串,从而在把声音串的音乐信息再现为歌声时,能实现‘含糊发音’或‘清晰发音’的音乐表现,并且其中,即使在不输入用于歌声的原始MIDI数据的情况下,也可从演奏数据选择作为歌唱主体的声音,并且,可调整声音长度或休止长度,以把音符或休止符转换为适于歌唱的音符或休止符。
本发明的再一目的是提供一种使计算机执行歌声合成功能的程序和记录介质。
根据本发明的歌声合成方法包括:分析步骤,所述分析步骤把演奏数据分析为音调和音长以及歌词的音乐信息;以及歌声产生步骤,所述歌声产生步骤基于被分析的音乐信息而产生歌声。歌声产生步骤基于包括在被分析音乐信息内的声音类型信息而决定歌声的类型。
根据本发明的歌声合成设备包括:分析装置,所述分析装置把演奏数据分析为音调和音长以及歌词的音乐信息;以及歌声产生装置,所述歌声产生装置基于被分析的音乐信息而产生歌声。歌声产生装置基于包括在被分析音乐信息内的声音类型信息而决定歌声的类型。
利用根据本发明的歌声合成方法和设备,有可能分析演奏数据,基于从音调、音长和声音速度或歌词得到的音符信息而产生与歌声有关的信息,从而产生歌声,其中,所述音调、音长和声音速度或歌词从被分析演奏数据获得,同时,基于与包含在被分析演奏数据内的声音类型有关的信息,有可能决定歌声的类型,从而允许以适合目标音乐曲调的音色和音质唱歌。
根据本发明,演奏数据优选是MIDI文件如SMF的演奏数据。
在此情况下,如果基于包括在MIDI文件的演奏数据的音轨中的乐器名或音轨名/序列名而决定歌声的类型,就可有利地利用MIDI数据。
在向演奏数据的声音串分配歌词的成分时,例如,日本人希望把MIDI文件的演奏数据中从音符开始时刻直到音符结束时刻的时间间隔分配为歌声的一个声音,所述音符开始时刻是歌声的每个声音开始的基准。通过这样做,以演奏数据的每个音符一个歌声的速率唱出歌词,允许歌唱演奏数据的声音串。
希望根据演奏数据的声音串中相邻音符的时间关系而调整歌声的声音互连的时间或方式.例如,如果第二音符的音符开始在时间上位于第一音符的音符结束之前,那么,甚至在第一音符的音符结束之前,就短暂地停止歌声第一声音的发音,并且,在第二声音的音符开始时刻发出第二声音,其中,第二音符是叠加在第一音符上的音符.如果在第一和第二音符之间没有重叠,就削减第一声音的音量,清楚地表现从第二声音开始的断点.如果在第一和第二音符之间有重叠,就把第一和第二音符接合在一起,而不削减第一声音的音量.在前一种情况下,‘清晰地’唱歌,以相邻声音之间有间断地唱歌.在第二种情况下,‘含糊地’平滑地唱歌.如果在第一和第二音符之间没有重叠但在它们之间只有比预定时间间隔更短的声音中断时间间隔,第一声音的结束时刻就移到第二声音的开始时刻,在此时刻把第一和第二声音接合在一起.
有在演奏数据中包括和音演奏数据的情况。例如,在MIDI数据的情况下,有在给定音轨或通道中记录和音演奏数据的情况。在存在此和音演奏数据的情况下,本发明考虑哪个声音串将作为歌词的主体。例如,如果在MIDI文件的演奏数据中有多个具有相同音符开始时刻的音符,就选择具有最高音调的音符作为歌唱主体的声音。这保证有利于歌唱所谓的女高音部分。可替换地,如果在MIDI文件的以上演奏数据中有多个具有相同音符开始时刻的音符,就选择具有最低音调的音符作为歌唱主体的声音。这保证歌唱所谓的低音部分。如果在MIDI文件的演奏数据中有多个具有相同音符开始时刻的音符,就选择具有最大指定音量的音符作为歌唱目标的声音。这保证歌唱主旋律或主题。还可替换地,如果在MIDI文件的以上演奏数据中有多个具有相同音符开始时刻的音符,各个音符就被处理成单独的声音部分,并向各个声音部分赋予相同的歌词,以产生不同音调值的歌声。这实现这些声音部分的合唱。
还有在输入演奏数据中包括用于再现打击乐如木琴的乐声或短长度的改变声音的数据部分的情况。在此情况下,希望为歌唱调整歌声的长度。为此,如果在以上MIDI文件的演奏数据中从音符开始直到音符结束的时间比规定值更短,音符就不是歌唱的主体。或者,把以上MIDI文件的演奏数据中从音符开始直到音符结束的时间扩展预定的比例,以产生歌声。可替换地,在从音符开始直到音符结束的时间上增加预设时间,以产生歌声。希望以与乐器名相一致的形式设置和/或希望可由操作员设定用于改变从音符开始直到音符结束的时间的增加或比例的预设数据。
优选地,按从一个乐器到另一乐器的歌声设定唱出的歌声类型。
如果在MIDI文件的演奏数据中通过补丁而改变乐器的指定,即使在相同的音轨中,歌声设定步骤也希望在歌唱中途改变歌声的类型。
根据本发明的程序允许计算机执行根据本发明的歌声合成功能。根据本发明的程序可由其中记录该程序的计算机读取。
根据本发明的机器人设备是基于被提供的输入信息而执行动作的自主机器人设备,所述机器人设备包括:分析装置,所述分析装置把演奏数据分析为音调和音长以及歌词的音乐信息;以及歌声产生装置,所述歌声产生装置基于被分析的音乐信息而产生歌声。歌声产生装置基于包括在被分析音乐信息内的声音类型信息而决定歌声的类型。这进一步提高作为娱乐机器人的机器人设备的性质。
附图说明
图1为示出根据本发明的歌声合成设备的系统的框图。
图2示出分析结果的音符信息的实例。
图3示出歌声信息的实例。
图4为示出歌声产生单元的结构的框图。
图5示意性地示出用于解释歌声中音符长度调整的演奏数据中的第一和第二声音.
图6为示出根据本发明的歌声合成操作的流程图。
图7为示出根据本发明的机器人设备的外观的透视图。
图8示意性地示出机器人设备的自由度结构的模型。
图9为示出机器人设备系统结构的框图。
具体实施方式
参照附图详细解释本发明的优选实施例。
图1示出根据本发明的歌声合成设备的示意性系统配置。应指出,预先假定本歌声合成设备例如用于机器人设备,其中,所述机器人设备至少包括感觉模型、语音合成装置和发音装置。然而,这不应解释为限制意义的,并且当然,本发明可应用于各种机器人设备以及除机器人之外的各种计算机AI(人工智能)。
在图1中,演奏数据分析单元2分析以MIDI数据为代表的演奏数据1,分析输入的演奏数据,把该数据转换为音乐五线谱信息4,所述音乐五线谱信息4表示包括在演奏数据中的音轨或通道的音调、音长和声音速度。
图2示出转换为音乐五线谱信息的演奏数据(MIDI数据)的实例。参照图2,事件从一个音轨写到下一个音轨并从一个通道写到下一个通道。事件包括音符事件和控制事件。音符事件具有与产生时间(图2中的列‘时间’)、音调、长度和强度(速度)有关的信息。因而,音符串或声音串由音符事件序列定义。控制事件包括表示产生时间的数据、诸如颤音、演奏动态表现和控制内容的控制类型数据。例如,在颤音的情况下,控制内容包括表示声音脉动大小的‘深度’项、表示声音脉动周期的‘宽度’项、以及表示从声音脉动开始时刻(发声时刻)的‘延迟’项。用于特定音轨或通道的控制事件用于再现所述音轨或通道的音符串的音乐声,除非发生用于所述控制类型的新控制事件(控制变化)。而且,在MIDI文件的演奏数据中,可基于音轨而输入歌词。在图2中,在上半部表示的‘あるう日’(‘一天’,发‘a-ru-u-hi’音)是在音轨1中输入的歌词的一部分,而在下半部表示的‘あるう日’是在音轨2中输入的歌词的一部分。也就是说,在图2的实例中,歌词已经嵌入到被分析的音乐信息(音乐五线谱信息)中。
在图2中,时间用“小节:拍:分段信号数量”表示,长度用“分段信号数量”表示,速度用数字‘0-127’表示,并且,音调用‘A4’代表440Hz而表示。另一方面,颤音的深度、宽度和延迟分别用数字‘0-64-127’表示。
回到图1,被转换的音乐五线谱信息4传递给歌词赋予单元5。歌词赋予单元5根据音乐五线谱信息4而产生歌声信息6,歌声信息6由用于声音的歌词以及与声音的长度、音调、速度和声调有关的信息组成,其中,所述声音的歌词与音符相匹配。
图3示出歌声信息6的实例。在图3中,‘¥song¥’为表示歌词信息开始的标签。标签‘¥PP,T10673075¥’表示10673075μsec的停顿,标签‘¥tdyna 110 649075¥’表示从前端开始10673075μsec的总速度,标签‘¥fine-100¥’表示细微的音调调整,与MIDI的微调相对应,并且,标签‘¥vibrato NRPN_dep=64¥’、‘¥vibrato NRPN_del=50¥’以及‘¥vibrato NRPN_rat=64¥’分别代表颤音的深度、延迟和宽度。标签‘¥dyna 100¥’代表不同声音的相对速度,并且,标签‘¥G4,T288461¥あ’代表具有G4音调和288461μsec长度的歌词元素‘あ’(发‘a’音).图3的歌声信息从图2所示的音乐五线谱信息(MIDI数据的分析结果)获得.图3的歌词信息从图2所示的音乐五线谱信息(MIDI数据的分析结果)获得.从图2和3的比较可看出,用于控制乐器的演奏数据,如音乐五线谱信息,完全用于产生歌声信息.例如,对于歌词部分‘あるう日’中的组成元素‘あ’,其产生时间、长度、音调或速度包括在控制信息中或包括在音乐五线谱信息的音符事件信息中(参见图2),并且与除‘あ’之外的其它歌唱属性一起直接使用,其中,所述歌唱属性例如为声音‘あ’的产生时间、长度、音调或速度,音乐五线谱信息中相同音轨或通道内的下一音符事件信息也直接用于下一歌词元素‘る’(发‘u’音),等等.
参照图1,歌声信息6传递给歌声产生单元7,在此歌声产生单元7中,歌声产生单元7基于歌声信息6而产生歌声波形8。从歌声信息6产生歌声波形8的歌声产生单元7例如按图4所示进行配置。
在图4中,歌声节奏产生单元7-1把歌声信息6转换为歌声节奏数据。波形产生单元7-2通过基于音质的波形存储器7-3而把歌声节奏数据转换为歌声波形8。
作为具体实例,现在解释把歌词元素‘ら’(发‘ra’音)扩展为当前时间长度的情况。在不应用颤音情况下的歌声节奏数据可按下表1表示:
表1
  [标记]   [音调]   [音量]
  0      ra1000   aa39600  aa40100  aa40600  aa41100  aa41600  aa42100  aa42600  aa43100  a.   0   50   0      6639600  5740100  4840600  3941100  3041600  2142100  1242600  3
在上表中,[标记]代表各个声音(音位元素)的时间长度。也就是说,声音(音位元素)‘ra’具有从采样0到采样1000的1000个采样的时间长度,并且,初始声音‘aa’、下一声音‘ra’具有从采样1000到采样39600的38600个采样的时间长度。‘音调’代表以点音调表示的音调周期。也就是说,在采样点0的音调周期为56个采样。这里,不改变‘ら’的音调,从而,56个采样的音调周期作用在全部采样上另一方面,‘音量’代表各个采样点每一个上的相对音量。也就对于100%的缺省值,在0采样点的音量为66%,而在39600采样点的音量为57%。在40100采样点的音量为48%,在42600采样点的音量为3%,等等。这实现‘ら’声音随着时间的衰减。
另一方面,如果应用颤音,就编制下表2所示的歌声节奏数据:
表2
  [标记]   [音调]   [音量]
  0      ra1000   aa11000  aa21000  aa31000  aa39600  aa40100  aa40600  aa41100  aa41600  aa42100  aa42600  aa43100  a.   0      501000   502000   534009   476009   538010   4710010  5312011  4714011  5316022  4718022  5320031  4722031  5324042  4726042  5328045  4730045  5332051  4734051  5336062  4738062  5340074  4742074  5343010  50   0       6639600   5740100   4840600   3941100   3041600   2142100   1242600   3
如上表的列‘音调’所示,在0采样点的音调周期和在1000采样点的音调周期都是50个采样,并且互相相等。在此时间间隔中,语音音调没有变化。从此时刻起,音调周期以大约4000个采样的周期(宽度)在50±3的范围内上下摆动,例如:2000采样点上53个采样的音调周期、4009采样点上47个采样的音调周期以及6009采样点上53个采样的音调周期。以此方式,实现作为语音音调脉动的颤音。基于与歌声信息6中相应歌声元素如‘ら’有关的信息而产生列‘音调’的数据,所述信息具体为诸如A4的音调号、或诸如标签¥vibratoNRPN_dep=64¥’、‘¥vibrato NRPN_del=50¥’以及‘¥vibratoNRPN_rat=64¥’的颤音控制数据。
基于以上歌声音位数据,波形产生单元7-2从基于音质的波形存储器7-3读出感兴趣音质的样本而产生歌声波形8.在基于音质的波形存储器中已经储存不同音质的音位片段数据.当波形产生单元查询基于音质的波形存储器7-3时,波形产生单元7-2基于在歌声节奏数据中表示的音素序列、音调周期和音量而检索尽可能接近以上音素序列、音调周期和音量的音位片段数据.由此检索的数据被分片和排列,以产生语音波形数据.也就是说,音素数据例如以CV(辅音-元音)、VCV或CVC的形式按照不同的音质而储存在基于音质的波形存储器7-3中.波形产生单元7-2基于歌声音位数据而按需要连接音素数据,并例如把适当的停顿、口音类型或语调附加到因此连接的数据上,以产生歌声波形8.应指出,用于从歌声信息6产生歌声波形8的歌声产生单元不局限于歌声产生单元7,并且,可以使用任何其它适当的歌声产生单元.
回到图1,演奏数据1传递给MIDI声源9,MIDI声源9接着基于演奏数据而产生音乐声。产生的音乐声是伴奏波形10。
歌声波形8和伴奏波形10传递给适于使两个波形互相合成和混合的混合单元11。
混合单元11使歌声波形8和伴奏波形10合成,并且,把两个波形叠加在一起,以产生并再现因此叠加的波形。因而,基于演奏数据1,通过歌声及其附属的伴奏而再现音乐。
歌词赋予单元5借助音轨选择器12,基于音乐五线谱信息4中描述的音乐信息的任何音轨名/序列名、或乐器名而选择作为歌声主体的音轨。例如,如果声音或语音类型如‘女高音’被指定为音轨名,就直接确定该音轨是歌声的音轨。在诸如‘小提琴’的乐器的情况下,由操作员指定的音轨是歌声的主体。然而,如果操作员没有指定,情况就不是这样。在歌声主体数据13中包含给定音轨是否为歌声主体的信息,其内容可由操作员修改。
另一方面,可由音质设定单元16设定哪一个音质应用于事先选择的音轨。在指定音质时,可从一个音轨到另一音轨并从一个乐器到另一个乐器地设定将要发音的声音类型。保留包括乐器名与音质之间相关性设定的信息,作为音质适应数据19,并且,查询此音质适应数据,以选择例如与乐器名相关的音质。例如,作为歌声音质的音质‘女高音’、‘女低音1’、‘女低音2’、‘男高音1’和‘男低音1’分别与乐器名‘长笛’、‘单簧管’、‘中音萨克斯管’、‘低音萨克斯管’和‘巴松管’相关联。对于音质指定的优先次序,(a)如果操作员已经指定音质,就应用因此指定的音质,并且(b)如果在音轨名/序列名中包含指定音质的字母/字符,就应用相关字母/字符串的音质。另外,(c)在与乐器名有关的音质适应数据19中包含乐器名的情况下,就应用在音质适应数据19中描述的相应音质,并且,(d)如果与以上条件不相关,就应用缺省音质。根据模式,可以或不可以应用此缺省音质。对于不应用缺省音质的模式,从MIDI再现乐器的声音。
另一方面,如果在给定的MIDI音轨中乐器的指定已经通过修补而改变为控制数据,即使在相同的音轨中,也可根据音质适应数据19而中途改变歌声的音质。
歌词赋予单元5基于音乐五线谱信息4而产生歌声信息6。在此情况下,MIDI数据中的音符开始时刻就用作歌曲的每个歌声开始的基准。从此时刻直到音符结束的声音被认为是一个声音。
图5示出第一音符或第一声音NT1与第二音符或第二声音NT2之间的关系。在图5中,第一声音NT1的音符开始时刻表示为t1a,第一声音NT1的音符结束时刻表示为t1b,并且,第二声音NT2的音符开始时刻表示为t2a。如上所述,歌词赋予单元5使用MIDI数据中的音符开始时刻作为歌曲中每个歌声的开始基准(t1a用作第一声音NT1的开始基准),并且,把直到其音符结束为止的声音分配为一个歌声。这是歌词赋予的基础。因而,从一个声音到下一个声音地唱歌词,与MIDI数据的声音串中的每个音符的长度和音符开始时刻保持一致。
然而,如果在第一声音NT1的音符开始和音符结束之间(t1a~t1b)之间有作为叠加声音的第二声音NT2的音符开始,即,如果t1b>t2a,音符长度改变单元14就改变歌声的音符结束时刻,从而,歌声甚至在第一声音的音符结束之前就中断,并且,在第二声音NT2的音符开始时刻t2a发出下一歌声.
如果在MIDI数据中在第一声音NT1和第二声音NT2之间没有重叠(t1a<t2a),歌词赋予单元5就削减歌声中第一声音的音量,以便清楚地表现从歌声的第二声音开始的断点,以表现‘清晰发音’。如果相反在第一和第二声音之间有重叠,歌词赋予单元5就不削减音量,并把第一和第二声音接合在一起,在音乐曲调上表现‘含糊发音’。
如果在MIDI数据中在第一声音NT1和第二声音NT2之间没有重叠,但只存在比储存于音符长度改变单元15中的预设时间更短的声音中断,音符长度改变单元14就把第一歌声的音符结束时刻移到第二歌声的音符开始时刻,以把第一和第二声音接合在一起。
如果在MIDI数据中有多个其音符开始时刻相同(如t1a=t2a)的音符或声音,歌词赋予单元5就使音符选择单元17根据音符选择模式18而从以下组中选择声音,作为歌声的主体,其中,所述组由具有最高音调的声音、具有最低音调的声音和具有最大音量的声音组成。
在音符选择模式18中,可根据声音类型而设定将要选择具有最高音调的声音、具有最低音调的声音、具有最大音量的声音以及独立声音中的哪一个。
如果在MIDI文件的演奏数据中有多个具有相同音符开始时刻的音符,并且在音符选择模式18中这些音符被设定为独立的声音,歌词赋予单元5就把这些声音处理为截然不同的声音部分,并且向这些声音赋予相同的歌词,以产生明显不同音调的歌声。
如果从音符开始到音符结束的时间长度比通过音符长度改变单元14在音符长度改变数据15中设定的规定值更短,歌词赋予单元5就不使用该声音作为唱歌的主体。
音符长度改变单元14通过在音符长度改变数据15中预设的比例,或通过增加规定时间而扩展从音符开始直到音符结束为止的时间。这些音符长度改变数据15以与乐器名匹配的形式保存在音乐五线谱信息中,并可由操作员设定。
在前面已经结合歌词信息解释在演奏数据中包括歌词的情况。然而,本发明不局限于此配置。如果在演奏数据中不包括歌词,就可自动产生或由操作员输入可选歌词,如‘ら’或‘ぼん’(发‘bon’音),并且,通过音轨选择器或通过歌词赋予单元5选择作为歌词主体(音轨或通道)的演奏数据,以便歌词分配。
图6示出歌声合成设备的总体操作的流程图。
首先,输入MIDI文件的演奏数据1(步骤S1)。接着分析演奏数据1,并接着输入音乐五线谱数据4(步骤S2和S3)。随后向执行设定处理的操作员进行询问(步骤S4),其中,所述设定处理例如设定作为歌声主体的数据、选择音符的模式、改变音符长度的数据或用于处理音质的数据。在操作员还未执行设定的情况下,在后续处理中应用缺省设定。
随后的步骤S5-S10表示用于产生歌声信息的循环。首先,通过音轨选择单元12选择作为歌词主体的音轨(步骤S5)。通过音符选择单元17从作为歌词主体的音轨确定将根据音符选择模式而分配给歌声的音符(步骤S6)。如果需要,通过音符长度改变单元14根据以上定义的条件而改变分配给歌声的音符的长度,如发音时刻或时间长度(步骤S7)。接着,通过歌词赋予单元5,基于在步骤S5-S8中获得的数据而准备歌声信息6(步骤S9)。
接着,检查对所有音轨的查询是否已经结束(步骤S10).如果查询还未结束,处理就返回到步骤S5,并且,如果查询已经结束,歌声信息6就传递给歌声产生单元7,以编制歌声波形(步骤S11).
接着,通过MIDI声源9再现MIDI,以编制伴奏波形10(步骤S12)。
通过到目前为止执行的处理,编制歌声波形8和伴奏波形10。
当两个波形互相合成时,混合单元11把歌声波形8和伴奏波形10叠加在一起,以形成被再现的输出波形3(步骤S13和S14)。此输出波形3通过未示出的声音系统输出,作为声信号。
上述歌声合成功能例如包括在机器人设备中。
以本发明实施例示出的用两条腿行走类型的机器人设备是在我们日常生活各个方面,如在我们的生活环境中,支持人类活动的应用机器人,并且能根据内部状态如愤怒、悲伤、快乐或幸福而动作。同时,这是能表现人类基本行为的娱乐机器人。
参照图7,机器人设备60由躯干单元62形成,躯干单元62在预定位置连接到头部单元63、左右臂单元64R/L以及左右腿单元65R/L,其中,R和L分别代表表示右和左的后缀,以下相同。
在图8中示意性地示出为机器人设备60设置的关节的自由度结构。支撑头部单元63的颈关节包括三个自由度,即颈关节偏转轴101、颈关节俯仰轴102和颈关节翻滚轴103。
组成上肢的臂单元64R/L由肩关节俯仰轴107、肩关节翻滚轴108、上臂偏转轴109、肘关节俯仰轴110、前臂偏转轴111、腕关节俯仰轴112、腕关节翻滚轴113和手单元114组成。手单元114实际上是包括多个手指的多关节多自由度结构。然而,由于手单元114的动作作用于或者影响机器人设备60的姿势控制或行走控制,因此,在本文描述中假设手单元具有零自由度。结果,每个臂单元都设置七个自由度。
躯干单元62也具有三个自由度,即,躯干俯仰轴104、躯干翻滚轴105和躯干偏转轴106。
形成下肢的每个腿单元65R/L都由臀关节偏转轴115、臀关节俯仰轴116、臀关节翻滚轴117、膝关节俯仰轴118、踝关节俯仰轴119、踝关节翻滚轴120、以及腿单元121组成。在本文描述中,臀关节俯仰轴116和臀关节翻滚轴117的交叉点规定机器人设备60的臀关节位置。尽管实际上人类的腿单元121是包括脚底的结构,其中,脚底具有多个关节和多个自由度,但是,假设机器人设备的脚底是零自由度的。结果,每条腿具有六个自由度。
总之,机器人设备60全部具有总计3+7×2+3+6×2=32个自由度。然而,应指出,娱乐机器人设备的自由度的数量不局限于32,从而,可根据设计或制造中的约束条件或根据要求的设计参数而适当地增加或减少自由度的数量,即,关节数量。
实际上使用执行器来安装上述机器人设备60拥有的上述自由度。考虑到消除外观上过度的肿胀以接近人体自然形状的要求、以及对因两条腿行走导致的不稳定结构进行姿势控制的要求,希望执行器尺寸小且重量轻。更优选执行器设计和构造为直接传动耦合类型的小尺寸AC伺服执行器,其中,伺服控制系统布置为一个芯片并安装在电动机单元中。
图9示意性地示出机器人设备60的控制系统结构.参照图9,控制系统由思维控制模块200以及动作控制模块300组成,其中,思维控制模块200根据用户输入而动态地负责情绪判断或感觉表达,动作控制模块300控制机器人设备60全部躯体的协同动作,如驱动执行器350.
思维控制模块200是独立驱动的信息处理设备,它由执行计算与情绪判断或感觉表达的CPU(中央处理单元)211、RAM(随机存取存储器)212、ROM(只读存储器)213、以及外部存储装置(如硬盘驱动器)214组成,并且能在模块内执行自主式处理。
此思维控制模块200根据外部的刺激,如从图像输入装置251输入的图像数据或从声音输入装置252输入的声音数据,而决定机器人设备60当前的感觉或意向。图像输入装置251例如包括多个CCD(电荷耦合装置)照相机,而声音输入装置252包括多个麦克风。
思维控制模块200基于决定而发出对动作控制模块300的命令,以便执行动作的行为序列,即四肢的动作。
动作控制模块300是独立驱动的信息处理设备,它由控制机器人设备60全部躯体的协同动作的CPU(中央处理单元)311、RAM 312、ROM 313、以及外部存储装置(如硬盘驱动器)314组成,并且能在模块内执行自主式处理。外部存储装置314能储存动作表,包括脱机计算的行走方案以及目标ZMP轨迹。应指出,ZMP是在地板表面上在行走过程中从地板作用的反作用力的力矩等于零的点,而ZMP轨迹是在机器人设备60的行走周期中ZMP移动的轨迹。对于ZMP的概念以及应用ZMP作为行走机器人稳定程度的检验标准,参照Miomir Vukobratovic的“有腿移动机器人(Legged LocomotionRobots)”,以及Ichiro KATO等的“行走机器人和人造腿(WalkingRobot and Artificial Legs)”,NIKKAN KOGYO SHIMBUN-SHA出版。
通过总线接口(I/F)301连接到动作控制模块300的例如有执行器350、姿势传感器351、地板接触确认传感器352、353、以及电源控制装置354,其中,执行器350分布在图9所示机器人设备60的全部躯体上,用于实现自由度;姿势传感器351用于测量躯干单元62的倾斜姿势;地板接触确认传感器352、353用于检测左右脚的脚底的飞跃状态或站立状态;电源控制装置354用于监督诸如电池的电源。例如通过组合加速传感器和陀螺仪传感器而形成姿势传感器351,同时,地板接触确认传感器352、353中的每一个都由近程传感器或微型开关形成。
思维控制模块200和动作控制模块300在公共平台上形成,并且通过总线接口201、301互连。
动作控制模块300控制由各个执行器350产生的全部躯体的协同动作,用于实现由思维控制模块200命令的行为。也就是说,CPU 311从外部存储装置314中提取出与思维控制模块200所命令行为一致的行为方案,或者在内部产生该行为方案。CPU 311根据指定的动作方案而设定脚/腿动作、ZMP轨迹、躯干动作、上肢动作、水平位置和腰部高度,同时向各个执行器发送命令值,以命令执行与设定内容一致的动作。
CPU 311还基于姿势传感器351的控制信号而检测机器人设备60的躯干单元62的姿势或倾斜,同时,通过地板接触确认传感器352、353的输出信号检测腿单元65R/L是处于飞跃状态还是处于站立状态,以便适应性地控制机器人设备60全部躯体的协同动作。
CPU 311还控制机器人设备60的姿势或动作,从而,ZMP位置总是指向ZMP稳定区的中心。
动作控制模块300适于向思维控制模块200返回已经实现与思维控制模块200所做决定保持一致的行为的程度,即处理状态。
以此方式,机器人设备60能基于控制程序而核实自己的状态和周围的状态,以执行自主行为。
在此机器人设备60中,例如在思维控制模块200的ROM 213中驻留已经实施上述歌声合成功能的程序,包括数据。在此情况下,用于合成歌声的程序由思维控制模块200的CPU 211执行。
通过向机器人设备提供上述歌声合成功能,新获得机器人设备对着伴奏唱歌的表现能力,结果是该机器人设备作为娱乐机器人的性质得到增强,进一步密切机器人设备与人类的关系。
工业应用
对于根据本发明的歌声合成方法和设备,其中,演奏数据被分析为音调和音长的音乐信息以及歌词的音乐信息,基于被分析的音乐信息而产生歌声,并且,其中,基于包含在被分析音乐信息内的声音类型信息而确定歌声的类型,有可能分析给定的演奏数据,以根据音符信息而产生歌声信息,以便根据歌声信息而产生歌声,其中,所述音符信息是基于从分析得到的歌词或音调、音长或声音速度。还有可能基于与包含在被分析音乐信息内的声音类型有关的信息而确定歌声类型,从而,有可能以适合感兴趣音乐曲调的音色和音质唱歌。结果,不必增加在到目前为止只通过乐器声音而编制或表现音乐时的任何特殊信息而再现歌声,因此,可较大地提高音乐表现力。
根据本发明的程序允许计算机执行本发明的歌声合成功能。在根据本发明的记录介质上记录此程序,并且,此介质是计算机可读的。
对于根据本发明的程序和记录介质,其中,演奏数据被分析为音调和音长的音乐信息以及歌词的音乐信息,基于被分析的音乐信息而产生歌声,并且,其中,基于包含在被分析音乐信息内的声音类型信息而确定歌声的类型,可分析演奏数据,基于音符信息而产生歌声信息,并且,基于因此产生的歌声信息而产生歌声,其中,所述音符信息是基于从分析得到的音调、音长或声音速度和歌词。而且,通过基于与包含在被分析音乐信息内的声音类型有关的信息而决定歌声类型,以适合目标音乐曲调的音色和音质唱歌。
根据本发明的机器人设备能实现根据本发明的歌声合成功能。也就是说,对于根据本发明的基于被提供的输入信息而执行动作的自主机器人设备,演奏数据被分析为音调和音长的音乐信息以及歌词的音乐信息,基于被分析的音乐信息而产生歌声,并且,其中,基于包含在被分析音乐信息内的声音类型信息而确定歌声的类型,可分析演奏数据,基于音符信息而产生歌声信息,并且,基于因此产生的歌声信息而产生歌声,其中,所述音符信息是基于从分析得到的音调、音长和声音速度以及歌词。而且,通过基于与包含在被分析音乐信息内的声音类型有关的信息而决定歌声类型,以适合目标音乐接合的音色和音质唱歌。结果是可提高机器人设备的表现力,作为娱乐机器人的机器人设备的性质得到增强,进一步密切机器人设备与人类的关系。

Claims (25)

1.一种用于合成歌声的方法,包括:
分析步骤,所述分析步骤把演奏数据分析为音调和音长以及歌词的音乐信息;以及
歌声产生步骤,所述歌声产生步骤基于被分析的音乐信息而产生歌声;
所述歌声产生步骤基于包括在被分析音乐信息内的声音类型信息而决定所述歌声的类型。
2.如权利要求1所述的歌声合成方法,其中,所述演奏数据是MIDI文件的演奏数据。
3.如权利要求2所述的歌声合成方法,其中,所述歌声产生步骤基于包含在所述MIDI文件的演奏数据内的音轨中的乐器名或音轨名/序列名而决定歌声的类型。
4.如权利要求2所述的歌声合成方法,其中,所述歌声产生步骤把从歌声的每个声音的音符开始时刻直到音符结束时刻的时间分配为歌声的一个声音,所述音符开始时刻是歌声的每个声音开始的时刻基准。
5.如权利要求4所述的歌声合成方法,其中,利用是歌声的每个声音开始的时刻基准的所述MIDI文件的所述演奏数据中的音符开始时刻,在所述第一音符的音符结束之前有第二声音的音符开始作为叠加在所述第一音符上的音符的情况下,即使在所述第一声音的音符结束之前,所述歌声产生步骤使所述歌声的第一声音中断,所述歌声产生步骤也使歌声的所述第二声音在所述第二音符的音符开始时刻发音。
6.如权利要求5所述的歌声合成方法,其中,如果在所述MIDI文件的所述演奏数据中在所述第一和第二音符之间没有重叠,所述歌声产生步骤就削减所述第一声音的音量,清楚地表现从歌声的第二声音开始的断点,在所述第一和第二音符之间有重叠并把所述第一和第二音符接合在一起以在音乐曲调上表现含糊发音的情况下,所述歌声产生步骤不削减音量。
7.如权利要求5所述的歌声合成方法,其中,如果在所述第一和第二音符之间没有重叠,但在所述第一和第二音符之间只有比预定时间更短的声音中断间隔,所述歌声产生步骤就把所述第一声音的结束时刻移动到所述第二声音的开始时刻以把第一和第二声音接合在一起。
8.如权利要求4所述的歌声合成方法,其中,如果在所述MIDI文件的演奏数据中有多个具有相同音符开始时刻的音符,所述歌声产生步骤就选择最高音调的音符作为歌声。
9.如权利要求4所述的歌声合成方法,其中,如果在所述MIDI文件的演奏数据中有多个具有相同音符开始时刻的音符,所述歌声产生步骤就选择最低音调的音符作为歌声。
10.如权利要求4所述的歌声合成方法,其中,如果在所述MIDI文件的演奏数据中有多个具有相同音符开始时刻的音符,所述歌声产生步骤就选择最大音量的音符作为歌声。
11.如权利要求4所述的歌声合成方法,其中,如果在所述MIDI文件的演奏数据中有多个具有相同音符开始时刻的音符,所述歌声产生步骤就把这些音符处理成单独的声音部分,并向这些声音部分赋予相同的歌词,以产生不同音调值的歌声。
12.如权利要求4所述的歌声合成方法,其中,如果从音符开始直到音符结束的时间长度比规定值更短,所述歌声产生步骤就不把该音符处理成歌唱主体。
13.如权利要求4所述的歌声合成方法,其中,把从音符开始直到音符结束的时间长度扩展预定的比例,以产生歌声。
14.如权利要求13所述的歌声合成方法,其中,以与乐器名相关联的形式设置用于改变从音符开始直到音符结束的时间的所述预定比例的数据.
15.如权利要求4所述的歌声合成方法,其中,所述歌声产生步骤在所述MIDI文件的所述演奏数据中在从音符开始直到音符结束的时间上增加预定时间,以产生歌声。
16.如权利要求15所述的歌声合成方法,其中,以与乐器名相关联的形式设置用于改变从音符开始直到音符结束的时间的预定增加数据。
17.如权利要求4所述的歌声合成方法,其中,所述歌声产生步骤改变从音符开始直到音符结束的时间,并且其中,由操作员设定用于改变所述时间的所述数据。
18.如权利要求2所述的歌声合成方法,其中,所述歌声产生步骤从一个乐器名到下一乐器名地设定歌声类型。
19.如权利要求2所述的歌声合成方法,其中,如果在所述MIDI文件的演奏数据中通过补丁而改变乐器的指定,即使在相同的音轨中,所述歌声产生步骤也改变歌声的类型。
20.一种用于合成歌声的设备,包括:
分析装置,所述分析装置把演奏数据分析为音调和音长以及歌词的音乐信息;以及
歌声产生装置,所述歌声产生装置基于被分析的音乐信息而产生歌声;
所述歌声产生装置基于包括在被分析音乐信息内的声音类型信息而决定歌声的类型。
21.如权利要求20所述的歌声合成设备,其中,所述演奏数据是MIDI文件的演奏数据。
22.如权利要求21所述的歌声合成设备,其中,所述歌声产生装置基于包含在所述MIDI文件的演奏数据的音轨中的乐器名或音轨名/序列名而决定歌声的类型。
23.如权利要求21所述的歌声合成设备,其中,所述歌声产生装置把从歌声的每个声音的音符开始时刻直到音符结束时刻的时间分配为歌声的一个声音,MIDI文件的演奏数据中的所述音符开始时刻是歌声的每个声音开始的基准时刻。
24.一种基于被提供的输入信息而执行动作的自主机器人设备,包括:
分析装置,所述分析装置把演奏数据分析为音调和音长以及歌词的音乐信息;以及
歌声产生装置,所述歌声产生装置基于被分析的音乐信息而产生歌声;
所述歌声产生装置基于包括在被分析音乐信息内的声音类型信息而决定所述歌声的类型。
25.如权利要求24所述的用于合成歌声的机器人设备,其中,所述演奏数据是MIDI文件的演奏数据。
CN2004800076166A 2003-03-20 2004-03-19 歌声合成方法和设备以及机器人设备 Expired - Fee Related CN1761993B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP079152/2003 2003-03-20
JP2003079152A JP2004287099A (ja) 2003-03-20 2003-03-20 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置
PCT/JP2004/003759 WO2004084175A1 (ja) 2003-03-20 2004-03-19 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置

Publications (2)

Publication Number Publication Date
CN1761993A CN1761993A (zh) 2006-04-19
CN1761993B true CN1761993B (zh) 2010-05-05

Family

ID=33028064

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2004800076166A Expired - Fee Related CN1761993B (zh) 2003-03-20 2004-03-19 歌声合成方法和设备以及机器人设备

Country Status (5)

Country Link
US (1) US7189915B2 (zh)
EP (1) EP1605435B1 (zh)
JP (1) JP2004287099A (zh)
CN (1) CN1761993B (zh)
WO (1) WO2004084175A1 (zh)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7176372B2 (en) * 1999-10-19 2007-02-13 Medialab Solutions Llc Interactive digital music recorder and player
US9818386B2 (en) 1999-10-19 2017-11-14 Medialab Solutions Corp. Interactive digital music recorder and player
US7076035B2 (en) 2002-01-04 2006-07-11 Medialab Solutions Llc Methods for providing on-hold music using auto-composition
EP1326228B1 (en) 2002-01-04 2016-03-23 MediaLab Solutions LLC Systems and methods for creating, modifying, interacting with and playing musical compositions
WO2006043929A1 (en) * 2004-10-12 2006-04-27 Madwaves (Uk) Limited Systems and methods for music remixing
US7928310B2 (en) 2002-11-12 2011-04-19 MediaLab Solutions Inc. Systems and methods for portable audio synthesis
US7169996B2 (en) 2002-11-12 2007-01-30 Medialab Solutions Llc Systems and methods for generating music using data/music data file transmitted/received via a network
JP2006251173A (ja) * 2005-03-09 2006-09-21 Roland Corp 楽音制御装置および楽音制御プログラム
KR100689849B1 (ko) * 2005-10-05 2007-03-08 삼성전자주식회사 원격조정제어장치, 영상처리장치, 이를 포함하는 영상시스템 및 그 제어방법
WO2007053687A2 (en) * 2005-11-01 2007-05-10 Vesco Oil Corporation Audio-visual point-of-sale presentation system and method directed toward vehicle occupant
JP2009063617A (ja) * 2007-09-04 2009-03-26 Roland Corp 楽音制御装置
KR101504522B1 (ko) * 2008-01-07 2015-03-23 삼성전자 주식회사 음악 저장/검색 장치 및 방법
JP2011043710A (ja) * 2009-08-21 2011-03-03 Sony Corp 音声処理装置、音声処理方法及びプログラム
TWI394142B (zh) * 2009-08-25 2013-04-21 Inst Information Industry 歌聲合成系統、方法、以及裝置
GB2500471B (en) * 2010-07-20 2018-06-13 Aist System and method for singing synthesis capable of reflecting voice timbre changes
US9798805B2 (en) * 2012-06-04 2017-10-24 Sony Corporation Device, system and method for generating an accompaniment of input music data
CN102866645A (zh) * 2012-09-20 2013-01-09 胡云潇 一种基于音乐特征控制节拍动作的运动家具及其控制方法
US9159310B2 (en) 2012-10-19 2015-10-13 The Tc Group A/S Musical modification effects
JP6024403B2 (ja) * 2012-11-13 2016-11-16 ヤマハ株式会社 電子音楽装置、パラメータ設定方法および当該パラメータ設定方法を実現するためのプログラム
CN106233245B (zh) * 2013-10-30 2019-08-27 音乐策划公司 用于增强音频、使音频输入相符于音乐音调以及创作用于音频输入的和声音轨的系统和方法
US9123315B1 (en) * 2014-06-30 2015-09-01 William R Bachand Systems and methods for transcoding music notation
JP2016080827A (ja) * 2014-10-15 2016-05-16 ヤマハ株式会社 音韻情報合成装置および音声合成装置
JP6728754B2 (ja) * 2015-03-20 2020-07-22 ヤマハ株式会社 発音装置、発音方法および発音プログラム
JP6492933B2 (ja) * 2015-04-24 2019-04-03 ヤマハ株式会社 制御装置、合成歌唱音生成装置およびプログラム
JP6582517B2 (ja) * 2015-04-24 2019-10-02 ヤマハ株式会社 制御装置およびプログラム
CN105070283B (zh) * 2015-08-27 2019-07-09 百度在线网络技术(北京)有限公司 为歌声语音配乐的方法和装置
FR3059507B1 (fr) * 2016-11-30 2019-01-25 Sagemcom Broadband Sas Procede de synchronisation d'un premier signal audio et d'un deuxieme signal audio
CN107871492B (zh) * 2016-12-26 2020-12-15 珠海市杰理科技股份有限公司 音乐合成方法和系统
JP6497404B2 (ja) * 2017-03-23 2019-04-10 カシオ計算機株式会社 電子楽器、その電子楽器の制御方法及びその電子楽器用のプログラム
CN107978323B (zh) * 2017-12-01 2022-09-27 腾讯科技(深圳)有限公司 音频识别方法、装置及存储介质
JP6587007B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
CN108831437B (zh) * 2018-06-15 2020-09-01 百度在线网络技术(北京)有限公司 一种歌声生成方法、装置、终端和存储介质
JP6547878B1 (ja) * 2018-06-21 2019-07-24 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
WO2020217801A1 (ja) * 2019-04-26 2020-10-29 ヤマハ株式会社 オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム
JP6835182B2 (ja) * 2019-10-30 2021-02-24 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
CN111276115A (zh) * 2020-01-14 2020-06-12 孙志鹏 云节拍
US11257471B2 (en) * 2020-05-11 2022-02-22 Samsung Electronics Company, Ltd. Learning progression for intelligence based music generation and creation
JP7568055B2 (ja) 2021-03-09 2024-10-16 ヤマハ株式会社 音生成装置およびその制御方法、プログラム、電子楽器
CN113140230B (zh) * 2021-04-23 2023-07-04 广州酷狗计算机科技有限公司 音符音高值的确定方法、装置、设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4527274A (en) * 1983-09-26 1985-07-02 Gaynor Ronald E Voice synthesizer
JPH05341793A (ja) * 1991-04-19 1993-12-24 Pioneer Electron Corp カラオケ演奏装置
JP3514263B2 (ja) * 1993-05-31 2004-03-31 富士通株式会社 歌声合成装置
JP3333022B2 (ja) * 1993-11-26 2002-10-07 富士通株式会社 歌声合成装置
JP3567294B2 (ja) 1994-12-31 2004-09-22 カシオ計算機株式会社 音声発生装置
JP3567548B2 (ja) 1995-08-24 2004-09-22 カシオ計算機株式会社 演奏情報編集装置
US5998725A (en) * 1996-07-23 1999-12-07 Yamaha Corporation Musical sound synthesizer and storage medium therefor
JP3405123B2 (ja) 1997-05-22 2003-05-12 ヤマハ株式会社 音声データ処理装置及びデータ処理プログラムを記録した媒体
US6304846B1 (en) * 1997-10-22 2001-10-16 Texas Instruments Incorporated Singing voice synthesis
JP2000105595A (ja) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd 歌唱装置及び記録媒体
JP4531916B2 (ja) 2000-03-31 2010-08-25 クラリオン株式会社 情報提供システム及び発声人形
JP2002132281A (ja) * 2000-10-26 2002-05-09 Nippon Telegr & Teleph Corp <Ntt> 歌声メッセージ生成・配信方法及びその装置
JP3680756B2 (ja) 2001-04-12 2005-08-10 ヤマハ株式会社 楽曲データ編集装置、方法、及びプログラム
JP3858842B2 (ja) * 2003-03-20 2006-12-20 ソニー株式会社 歌声合成方法及び装置
JP3864918B2 (ja) * 2003-03-20 2007-01-10 ソニー株式会社 歌声合成方法及び装置

Also Published As

Publication number Publication date
JP2004287099A (ja) 2004-10-14
EP1605435A4 (en) 2009-12-30
US20060185504A1 (en) 2006-08-24
EP1605435B1 (en) 2012-11-14
CN1761993A (zh) 2006-04-19
US7189915B2 (en) 2007-03-13
WO2004084175A1 (ja) 2004-09-30
EP1605435A1 (en) 2005-12-14

Similar Documents

Publication Publication Date Title
CN1761993B (zh) 歌声合成方法和设备以及机器人设备
CN1761992B (zh) 歌声合成方法和设备以及机器人设备
JP3864918B2 (ja) 歌声合成方法及び装置
US6310279B1 (en) Device and method for generating a picture and/or tone on the basis of detection of a physical event from performance information
Overholt The overtone violin
CN104050961A (zh) 语音合成装置和方法以及存储有语音合成程序的记录介质
Sobh et al. Experimental robot musicians
JP3707122B2 (ja) スタイル変更装置およびカラオケ装置
JP3829780B2 (ja) 奏法決定装置及びプログラム
Howard et al. Real-time gesture-controlled physical modelling music synthesis with tactile feedback
JP4259532B2 (ja) 演奏制御装置、およびプログラム
Jaffe et al. The computer-extended ensemble
JP2005004106A (ja) 信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体並びにロボット装置
Nichols II The vbow: An expressive musical controller haptic human-computer interface
Jaffe Orchestrating the Chimera: Musical Hybrids, Technology and the Development of a" Maximalist" Musical Style
Menzies New performance instruments for electroacoustic music
Musick et al. Building a harmonically ecosystemic machine: Combining sonic ecosystems with models of contemporary harmonic language
Unemi A design of genetic encoding for breeding short musical pieces
JP2003114680A (ja) 楽曲情報編集装置及び楽曲情報編集プログラム
JP3797180B2 (ja) 楽譜表示装置及び楽譜表示プログラム
Pierard The Divergence of Drumset Function in Popular Music, and how DAWs can Bridge the Divide Between Drummers and Beatmakers
Kokoras Fab Synthesis: Performing sound, from Musique Concrète to Mechatronics
Blond et al. Towards a robotic percussion accompaniment
Solis et al. Improvement of the oral cavity and finger mechanisms and implementation of a pressure-pitch control system for the Waseda Saxophonist Robot
Fox Utilizing Unconventional Percussion Instruments in Solo Electroacoustic Composition: A Literature Survey and Performance Guide

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100505

Termination date: 20150319

EXPY Termination of patent right or utility model