[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6834370B2 - Speech synthesis method - Google Patents

Speech synthesis method Download PDF

Info

Publication number
JP6834370B2
JP6834370B2 JP2016217379A JP2016217379A JP6834370B2 JP 6834370 B2 JP6834370 B2 JP 6834370B2 JP 2016217379 A JP2016217379 A JP 2016217379A JP 2016217379 A JP2016217379 A JP 2016217379A JP 6834370 B2 JP6834370 B2 JP 6834370B2
Authority
JP
Japan
Prior art keywords
singing
expression
time
spectrum
singing expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016217379A
Other languages
Japanese (ja)
Other versions
JP2018077281A (en
Inventor
ジョルディ ボナダ
ボナダ ジョルディ
ブラアウ メルレイン
ブラアウ メルレイン
竜之介 大道
竜之介 大道
マイケル ウィルソン
マイケル ウィルソン
久湊 裕司
裕司 久湊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016217379A priority Critical patent/JP6834370B2/en
Publication of JP2018077281A publication Critical patent/JP2018077281A/en
Application granted granted Critical
Publication of JP6834370B2 publication Critical patent/JP6834370B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、音声合成に関する。 The present invention relates to speech synthesis.

歌唱等の音声を合成する技術が知られている。より表現力豊かな歌唱音声を生成するため、単に与えられた音階で与えられた歌詞の音声を出力するだけでなく、この音声に音楽的な歌唱表現を付与することが試みられている。特許文献1は、2つの音声信号を、調波成分の周波数帯域が互いに近傍に位置するように調整することによって声質を変換する技術を開示している。 A technique for synthesizing voice such as singing is known. In order to generate a more expressive singing voice, it is attempted not only to output the voice of the given lyrics in a given scale but also to give a musical singing expression to this voice. Patent Document 1 discloses a technique for converting voice quality by adjusting two voice signals so that the frequency bands of the tuning components are located close to each other.

特開2014−2338号公報Japanese Unexamined Patent Publication No. 2014-2338

特許文献1に記載の技術においては、合成歌唱に与えられる歌唱表現が十分でない場合があった。これに対し本発明は、より豊かな音声表現を与える技術を提供する。 In the technique described in Patent Document 1, the singing expression given to the synthetic singing may not be sufficient. On the other hand, the present invention provides a technique for giving richer speech expression.

本発明は、合成音に付与する音声表現の素片を取得するステップと、前記素片のうち所定の特徴部分を、当該特徴部分以外の部分とは異なるアルゴリズムで時間軸方向に伸張するステップと、前記伸張された前記素片と前記合成音とを加算するステップとを有する音声合成方法を提供する。 The present invention includes a step of acquiring a element of speech expression to be given to a synthetic sound, and a step of extending a predetermined feature portion of the element piece in the time axis direction by an algorithm different from that of the portion other than the feature portion. Provided is a speech synthesis method including a step of adding the stretched element piece and the synthetic sound.

前記アルゴリズムは、前記特徴部分を、当該特徴部分以外の部分よりも1に近い伸張率で伸張するアルゴリズムであってもよい。 The algorithm may be an algorithm that stretches the feature portion at a stretch rate closer to 1 than a portion other than the feature portion.

前記素片の時間長が前記合成音の時間長よりも短い場合、前記アルゴリズムは、前記特徴部分以外の部分の少なくとも一部を繰り返すアルゴリズムであってもよい。 When the time length of the element piece is shorter than the time length of the synthetic sound, the algorithm may be an algorithm that repeats at least a part of a part other than the feature part.

前記素片の時間長が前記合成音の時間長よりも長い場合、前記アルゴリズムは、前記特徴部分以外の部分の少なくとも一部を削除するアルゴリズムであってもよい。 When the time length of the element piece is longer than the time length of the synthetic sound, the algorithm may be an algorithm for deleting at least a part of a part other than the feature part.

本発明によれば、より豊かな音声表現を与えることができる。 According to the present invention, a richer speech expression can be provided.

関連技術に係るGUIを例示する図。The figure which illustrates GUI related to the related technology. 一実施形態に係る歌唱表現付与の概念を示す図。The figure which shows the concept of singing expression addition which concerns on one Embodiment. 一実施形態に係る音声合成装置1の機能構成を例示する図。The figure which illustrates the functional structure of the voice synthesis apparatus 1 which concerns on one Embodiment. 音声合成装置1のハードウェア構成を例示する図。The figure which illustrates the hardware configuration of the voice synthesizer 1. データベース10の構造を示す模式図。The schematic diagram which shows the structure of database 10. アタック基準の歌唱表現における基準時刻を例示する図。The figure which illustrates the reference time in the singing expression of the attack standard. リリース基準の歌唱表現における基準時刻を例示する図。The figure which illustrates the reference time in the singing expression of the release reference. 合成器20の機能構成を例示する図。The figure which illustrates the functional structure of a synthesizer 20. 歌唱表現の素片の時間長が短い例におけるマッピング関数を例示する図。The figure which illustrates the mapping function in the example which the time length of the element piece of a singing expression is short. 歌唱表現の素片の時間長が長い例におけるマッピング関数を例示する図。The figure which illustrates the mapping function in the example which the time length of the element piece of a singing expression is long. スペクトル包絡およびスペクトル包絡概形の関係を例示する図。The figure which exemplifies the relationship between the spectrum envelope and the spectrum envelope outline. 歌唱表現の素片の基本周波数をシフトする処理を例示する図。The figure which exemplifies the process of shifting the fundamental frequency of the element piece of a singing expression. 周波数領域で合成するための、合成手段24の機能構成を例示する図。The figure which illustrates the functional structure of the synthesis means 24 for synthesis in a frequency domain. 合成器20の動作を例示するシーケンスチャート。A sequence chart illustrating the operation of the synthesizer 20. 時間領域で合成するための、合成手段24の機能構成を例示する図。The figure which illustrates the functional structure of the synthesis means 24 for synthesis in the time domain. UI部30の機能構成を例示する図。The figure which illustrates the functional structure of the UI unit 30. UI部30において用いられるGUIを例示する図。The figure which illustrates the GUI used in the UI part 30. 歌唱表現を選択するUIを例示する図。The figure which illustrates the UI which selects a singing expression. 歌唱表現を選択するUIの別の例を示す図。The figure which shows another example of the UI which selects a singing expression. ダイヤルの回転角とモーフィング係数とを対応させるテーブルの例。An example of a table that makes the angle of rotation of the dial correspond to the morphing coefficient. 歌唱表現に係るパラメーターを編集するためのUIの別の例。Another example of a UI for editing parameters related to singing expressions.

1.音声合成技術
音声合成のための種々の技術が知られている。音声のうち音階の変化およびリズムを伴うものを歌唱(歌声)という。歌唱合成としては、素片接続型歌唱合成および統計的歌唱合成が知られている。素片接続型歌唱合成では、多数の歌唱素片を収録したデータベースが用いられる。歌唱素片(音声素片の一例)は、主として音韻(単音素または音素連鎖)によって区分される。歌唱の合成に際して、これらの歌唱素片は、基本周波数、タイミング、および継続長が楽譜情報に応じて調整されたうえで接続される。素片接続型歌唱合成に用いられる歌唱素片は、データベースに登録される全ての音韻に渡って音質ができるだけ一定であることが要求される。音質が一定でないと、歌唱を合成した際に不自然な音声の変動が発生してしまうからである。また、これらの素片に含まれる動的な音響変化のうち歌唱表現(音声表現の一例)に対応する部分は、合成時にそれが表出しないように処理される必要がある。歌唱表現は音楽的な文脈に依存して歌唱に付与されるべきものであり、音韻の種別と直接に対応付けられるべきものではないからである。特定の音韻に対して常に同じ歌唱表現が表出されると、得られる合成歌唱は不自然なものとなる。したがって、素片接続型歌唱合成においては、例えば基本周波数および音量の変化は、歌唱素片に含まれるものを直接的に用いるのではなく、楽譜情報およびあらかじめ決められたルールに基づいて生成された基本周波数および音量の変化が用いられる。仮に、音韻と歌唱表現とのすべての組み合わせに対応する歌唱素片をデータベースに収録すれば、楽譜情報に一致する音韻および音楽的文脈に対して自然な歌唱表現の双方に対応する歌唱素片を選択することが可能になる。しかし、あらゆる音韻に対してあらゆる歌唱表現に対応する歌唱素片を収録するには膨大な手間がかかり、データベースの容量も膨大なものとなってしまう。また、素片同士の組み合わせの数は素片の数に対して爆発的に増加するため、素片同士のあらゆる接続に対して不自然な合成歌唱とならないことを保証することは難しい。
1. 1. Speech synthesis technology Various techniques for speech synthesis are known. Of the voices, those with changes in scale and rhythm are called singing (singing voice). As singing synthesis, elemental connection type singing synthesis and statistical singing synthesis are known. In the piece-connected singing synthesis, a database containing a large number of singing pieces is used. Singing elements (an example of audio elements) are mainly classified by phonemes (single phonemes or phoneme chains). In singing composition, these singing elements are connected after adjusting the fundamental frequency, timing, and continuation length according to the musical score information. The singing element pieces used for the element piece connection type singing composition are required to have the same sound quality as possible over all the phonemes registered in the database. This is because if the sound quality is not constant, unnatural voice fluctuations will occur when singing is synthesized. In addition, the part of the dynamic acoustic changes contained in these pieces that corresponds to the singing expression (an example of the audio expression) needs to be processed so that it does not appear at the time of synthesis. This is because the singing expression should be given to the singing depending on the musical context, and should not be directly associated with the type of phonology. If the same singing expression is always expressed for a particular phoneme, the resulting synthetic singing will be unnatural. Therefore, in elemental connection type singing synthesis, for example, changes in fundamental frequency and volume are generated based on musical score information and predetermined rules, rather than directly using what is contained in the singing element. Changes in fundamental frequency and volume are used. If the database contains singing pieces that correspond to all combinations of phonemes and singing expressions, singing pieces that correspond to both phonemes that match the score information and singing expressions that are natural to the musical context can be obtained. It becomes possible to select. However, it takes a huge amount of time and effort to record a singing element corresponding to every singing expression for every phoneme, and the capacity of the database becomes enormous. Also, since the number of combinations of pieces increases explosively with respect to the number of pieces, it is difficult to guarantee that the singing will not be unnatural for any connection between pieces.

一方、統計的歌唱合成では、多数の訓練データを利用して楽譜情報と歌唱の音響的特徴との関係を統計モデルとしてあらかじめ学習しておく。合成時には、入力された楽譜情報から最も尤もらしい音響的特徴量を推定し、それを用いて歌唱を合成する。統計的歌唱合成では様々な歌唱スタイルごとに訓練データを構築することで、種々の歌唱表現を含んだ統計モデルを学習可能である利点がある。しかし、統計的歌唱合成には主として2つの問題がある。第1の問題は過剰平滑化である。多数の訓練データから統計モデルを学習する過程は本質的にデータの平均化と次元削減を伴うため、合成出力される音響的特徴は必然的に、通常の単一の歌唱よりも特徴量の分散が小さくなってしまう。その結果、合成音の表現力やリアルさが損なわれる。第2の問題は、統計モデルを学習可能な音響的特徴量の種類が限られている点である。特に位相情報は巡回的な値域を持つことから統計的なモデリングが困難であり、たとえば調波成分どうしまたは特定の調波成分とその周辺に存在する成分との位相関係やそれらの時間的変動を適切にモデリングすることは困難である。しかし、実際には濁声や嗄声などを含む表現力豊かな歌唱を合成するためには、位相情報を適切に利用することが必要である。 On the other hand, in statistical singing synthesis, the relationship between musical score information and the acoustic characteristics of singing is learned in advance as a statistical model using a large amount of training data. At the time of synthesis, the most plausible acoustic features are estimated from the input score information, and the singing is synthesized using it. Statistical singing synthesis has the advantage that it is possible to learn a statistical model that includes various singing expressions by constructing training data for each of various singing styles. However, there are two main problems with statistical singing synthesis. The first problem is oversmoothing. Since the process of learning a statistical model from a large number of training data essentially involves data averaging and dimensionality reduction, the synthetically output acoustic features are inevitably more feature-distributed than a normal single song. Becomes smaller. As a result, the expressiveness and realism of the synthetic sound are impaired. The second problem is that the types of acoustic features that can be trained in statistical models are limited. In particular, phase information has a cyclic range, so statistical modeling is difficult. For example, the phase relationship between tonal components or specific tonal components and the components existing in the vicinity and their temporal fluctuations can be determined. It is difficult to model properly. However, in reality, it is necessary to properly use phase information in order to synthesize expressive singing including muddy voice and hoarseness.

歌唱合成において多様な声質を合成できるようにする技術として、特許文献1に記載のVQM(Voice Quality Modification)が知られている。VQMにおいては、ある種の歌唱表現に相当する声質の第1音声信号、および歌唱合成による第2音声信号が用いられる。第2音声信号は、素片接続型歌唱合成によるものであっても、統計的歌唱合成によるものであってもよい。これら2つの音声信号を用いれば、位相情報を含めて歌唱を合成することができる。その結果、通常の歌唱合成よりもリアルで表現力豊かな歌唱を合成できる。しかし、この技術においては、第1音声信号の音響的特徴の時間変化を歌唱合成に反映する方法が明らかではない。なおここでいう時間変化とは、定常的に濁声や嗄声を発声した際にも観測されるような音響的特徴の高速な変動を指すのではなく、例えば発声を開始した直後にはそのような高速な変動の程度が大きく、その後時間の経過に伴い徐々に減衰し、さらに時間が経過すると一定の程度で安定するといった、比較的巨視的な声質の推移に相当する。このような声質の変化は、歌唱表現の種別によって大きな違いが現れる。 VQM (Voice Quality Modification) described in Patent Document 1 is known as a technique for synthesizing various voice qualities in singing synthesis. In VQM, a first voice signal having a voice quality corresponding to a certain singing expression and a second voice signal obtained by singing synthesis are used. The second audio signal may be a piece-connected singing composition or a statistical singing composition. By using these two audio signals, it is possible to synthesize a singing including phase information. As a result, it is possible to synthesize a singing that is more realistic and expressive than a normal singing synthesis. However, in this technique, it is not clear how to reflect the time change of the acoustic characteristics of the first speech signal in the singing synthesis. Note that the time change here does not mean a high-speed change in acoustic characteristics that is observed even when a muddy voice or hoarse voice is uttered constantly, but such a change immediately after the start of utterance, for example. It corresponds to a relatively macroscopic transition of voice quality, in which the degree of high-speed fluctuation is large, then gradually attenuates with the passage of time, and then stabilizes to a certain degree with the passage of time. Such changes in voice quality make a big difference depending on the type of singing expression.

図1は、関連技術に係るGUIを例示する図である。このGUIは、関連技術に係る歌唱合成プログラムにおいて使用される。このGUIは、楽譜表示領域911、ウインドウ912、およびウインドウ913を含む。楽譜表示領域911は、音声合成に係る楽譜が表示される領域であり、この例ではいわゆるピアノロールに相当する形式で楽譜が表される。楽譜表示領域911内において横軸は時間を、縦軸は音階を、それぞれ表す。ウインドウ912は、ユーザーの操作に応じて表示されるポップアップウインドウであり、合成歌唱に対して付与することができる歌唱表現の一覧を含む。ユーザーは、この一覧の中から適用される歌唱表現を選択する。ウインドウ913には、選択された歌唱表現の適用の程度を表すグラフが表示される。ウインドウ913内において横軸は時間を、縦軸は歌唱表現の適用の強さを、それぞれ表す。ユーザーは、ウインドウ913においてグラフを編集し、VQMの適用の程度の時間変化を入力する。しかし、この例では、VQMの適用の程度の時間変化をユーザーが手作業で入力しなければならないので、自然で表現力豊かな歌唱を合成するのは困難である。 FIG. 1 is a diagram illustrating a GUI related to the related technology. This GUI is used in a singing synthesis program related to a related technique. This GUI includes a score display area 911, a window 912, and a window 913. The score display area 911 is an area in which a score related to speech synthesis is displayed, and in this example, the score is represented in a format corresponding to a so-called piano roll. In the score display area 911, the horizontal axis represents time and the vertical axis represents scale. The window 912 is a pop-up window displayed according to a user operation, and includes a list of singing expressions that can be given to the synthetic singing. The user selects the applicable singing expression from this list. The window 913 displays a graph showing the degree of application of the selected singing expression. In the window 913, the horizontal axis represents time and the vertical axis represents the strength of application of the singing expression. The user edits the graph in window 913 and inputs the time variation of the degree of application of VQM. However, in this example, it is difficult to synthesize a natural and expressive singing because the user has to manually input the time change of the degree of application of VQM.

2.構成
図2は、一実施形態に係る歌唱表現付与の概念を示す図である。なお、以下において、「合成歌唱」とは合成された音声であって特に音階と歌詞とが与えられた音声をいう。特に断りの無い限り、単に「合成歌唱」というときは、本実施形態に係る歌唱表現が付与されていない合成音声を指す。「歌唱表現」とは合成音声に対して付与される音楽的な表現をいい、例えば、ボーカルフライ(fry)、うなり声(growl)、および嗄れ声(rough)のような表現を含む。本実施形態においては、あらかじめ収録された局所的な歌唱表現の素片(サンプル)を、通常の(歌唱表現が付与されていない)合成歌唱にモーフィングによって加算することを「合成歌唱に対し歌唱表現を付与する」という。ここで、歌唱表現の素片は、歌唱音声全体または1個のノートに対し、時間的に局所的なものである。時間的に局所的とは、歌唱表現の占める時間が、歌唱音声全体または1個のノートに対し部分的であることをいう。歌唱表現の素片は、歌唱者による歌唱表現をあらかじめ録音したものであり、歌唱中の、局所的な時間においてなされている歌唱表現(音楽的な表現)の素片である。素片とは歌唱者の発した音声波形の一部をデータ化したものである。また、モーフィングとは、歌唱表現の素片および合成歌唱の少なくとも一方に、時間の経過に伴って増加または減少する係数を乗算して両者を加算する処理をいう。歌唱表現の素片と通常の合成歌唱とは、タイミングを合わせてモーフィングされる。モーフィングにおいて、歌唱表現における音響的特徴の時間変化は保たれたままである。歌唱表現の素片をモーフィングによって加算するときには、通常の合成歌唱のうちの、局所的な時間における合成歌唱に対して、モーフィングを行う。
2. 2. Configuration FIG. 2 is a diagram showing the concept of singing expression assignment according to one embodiment. In the following, "synthetic singing" refers to a synthesized voice, and in particular, a voice to which a scale and lyrics are given. Unless otherwise specified, the term "synthetic singing" simply refers to a synthetic voice to which the singing expression according to the present embodiment is not added. "Singing expression" refers to a musical expression given to a synthetic voice, and includes, for example, expressions such as vocal fly (fry), growl (growl), and roar (rough). In the present embodiment, adding a pre-recorded element (sample) of a local singing expression to a normal synthetic singing (without a singing expression) by morphing is described as "singing expression for synthetic singing". Is given. " Here, the element of the singing expression is temporally local to the entire singing voice or one note. Temporally local means that the time occupied by the singing expression is partial to the entire singing voice or one note. A piece of singing expression is a pre-recorded piece of singing expression by a singer, and is a piece of singing expression (musical expression) made at a local time during singing. A piece is a data of a part of the voice waveform emitted by a singer. Further, morphing refers to a process of multiplying at least one of a piece of a singing expression and a synthetic singing by a coefficient that increases or decreases with the passage of time and adds both. A piece of singing expression and a normal synthetic singing are morphed in time. In morphing, the temporal variation of acoustic features in singing expression remains preserved. When the elements of the singing expression are added by morphing, the morphing is performed on the synthetic singing at the local time in the normal synthetic singing.

この例で、合成歌唱と歌唱表現の素片との加算の基準時刻は、ノート(すなわち音符)の先頭時刻およびノートの末尾時刻である。以下、ノートの先頭時刻を基準時刻とすることを「アタック基準」といい、末尾時刻を基準時刻とすることを「リリース基準」という。 In this example, the reference time for addition of the synthetic singing and the element of the singing expression is the start time of the note (that is, the note) and the end time of the note. Hereinafter, setting the start time of a note as a reference time is referred to as an "attack reference", and setting the end time as a reference time is referred to as a "release reference".

図3は、一実施形態に係る音声合成装置1の機能構成を例示する図である。音声合成装置1は、データベース10、合成器20、およびUI(User Interface)部30を有する。この例では素片接続型歌唱合成が用いられる。データベース10は、歌唱素片および歌唱表現の素片が収録されたデータベースである。合成器20は、楽譜情報および歌唱表現を指示する情報に基づいてデータベース10から歌唱素片および歌唱表現の素片を読み出し、これらを用いて歌唱表現付きの歌唱音声を合成する。UI部30は、楽譜情報、歌唱表現、および歌唱音声の入力、編集、および出力を行うためのインターフェースである。 FIG. 3 is a diagram illustrating a functional configuration of the speech synthesizer 1 according to the embodiment. The voice synthesizer 1 has a database 10, a synthesizer 20, and a UI (User Interface) unit 30. In this example, a piece-connected singing composition is used. The database 10 is a database in which singing elements and singing expression elements are recorded. The synthesizer 20 reads a singing element piece and a singing expression element piece from the database 10 based on the musical score information and the information instructing the singing expression, and synthesizes a singing voice with the singing expression using these. The UI unit 30 is an interface for inputting, editing, and outputting musical score information, singing expression, and singing voice.

図4は、音声合成装置1のハードウェア構成を例示する図である。音声合成装置1は、CPU(Central processing Unit)101、メモリー102、ストレージ103、入出力IF104、ディスプレイ105、および入力装置106を有するコンピュータ装置、具体的には例えばタブレット端末である。CPU101は、プログラムを実行して音声合成装置1の他の要素を制御する制御装置である。メモリー102は主記憶装置であり、例えばROM(Read Only Memory)およびRAM(Random Access Memory)を含む。ROMは、音声合成装置1を起動するためのプログラム等を記憶する。RAMは、CPU101がプログラムを実行する際のワークエリアとして機能する。ストレージ103は補助記憶装置であり、各種のデータおよびプログラムを記憶する。ストレージ103は、例えば、HDD(Hard Disk Drive)およびSSD(Solid State Drive)の少なくとも一方を含む。入出力IF104は、他の装置との間で情報の入出力を行うためのインターフェースであり、例えば、無線通信インターフェースまたはNIC(Network Interface Controller)を含む。ディスプレイ105は情報を表示する装置であり、例えばLCD(Liquid Crystal Display)を含む。入力装置106は、音声合成装置1に情報を入力するための装置であり、例えば、タッチスクリーン、キーパッド、ボタン、マイクロフォン、およびカメラの少なくとも1つを含む。 FIG. 4 is a diagram illustrating a hardware configuration of the speech synthesizer 1. The speech synthesizer 1 is a computer device having a CPU (Central processing unit) 101, a memory 102, a storage 103, an input / output IF 104, a display 105, and an input device 106, specifically, for example, a tablet terminal. The CPU 101 is a control device that executes a program to control other elements of the speech synthesizer 1. The memory 102 is a main storage device, and includes, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory). The ROM stores a program or the like for starting the voice synthesizer 1. The RAM functions as a work area when the CPU 101 executes a program. The storage 103 is an auxiliary storage device and stores various data and programs. The storage 103 includes, for example, at least one of an HDD (Hard Disk Drive) and an SSD (Solid State Drive). The input / output IF 104 is an interface for inputting / outputting information to / from another device, and includes, for example, a wireless communication interface or a NIC (Network Interface Controller). The display 105 is a device for displaying information, and includes, for example, an LCD (Liquid Crystal Display). The input device 106 is a device for inputting information to the speech synthesizer 1, and includes, for example, at least one of a touch screen, a keypad, a button, a microphone, and a camera.

この例で、ストレージ103は、コンピュータ装置を音声合成装置1として機能させるプログラム(以下「歌唱合成プログラム」という)を記憶する。CPU101が歌唱合成プログラムを実行することにより、コンピュータ装置に図3の機能が実装される。ストレージ103は、データベース10を記憶する記憶手段の一例である。CPU101は、合成器20の一例である。CPU101、ディスプレイ105、および入力装置106は、UI部30の一例である。以下、図3の機能要素の詳細をそれぞれ説明する。 In this example, the storage 103 stores a program (hereinafter referred to as a “singing synthesis program”) that causes the computer device to function as the speech synthesis device 1. When the CPU 101 executes the singing synthesis program, the function of FIG. 3 is implemented in the computer device. The storage 103 is an example of a storage means for storing the database 10. The CPU 101 is an example of the synthesizer 20. The CPU 101, the display 105, and the input device 106 are examples of the UI unit 30. The details of the functional elements of FIG. 3 will be described below.

2−1.データベース10
データベース10は歌唱素片が収録されたデータベース(素片データベース)および歌唱表現の素片が収録されたデータベース(歌唱表現データベース)を含むが、素片データベースについては、従来知られている素片接続型歌唱合成において用いられるものと同じであるので詳細な説明は省略する。以下、特に断りの無い限り、歌唱表現データベースを単にデータベース10という。データベース10においては、歌唱合成時の計算負荷の低減と音響的特徴の推定誤りの防止とを両立するため、歌唱表現の素片の音響的特徴を事前に推定しておき、推定した音響的特徴をデータベースに収録しておくことが好ましい。データベース10に収録される音響的特徴は、人の手によって修正されたものであってもよい。
2-1. Database 10
The database 10 includes a database containing singing elements (elementary piece database) and a database containing singing expression elements (singing expression database). The elemental piece database is a conventionally known elemental connection. Since it is the same as that used in type singing synthesis, detailed description is omitted. Hereinafter, unless otherwise specified, the singing expression database is simply referred to as database 10. In database 10, in order to reduce the calculation load during singing synthesis and prevent estimation errors of acoustic features, the acoustic features of the elementary pieces of the singing expression are estimated in advance, and the estimated acoustic features are estimated. Is preferably recorded in the database. The acoustic features recorded in the database 10 may be manually modified.

図5は、データベース10の構造を例示する模式図である。ユーザーまたはプログラムが目的とする歌唱表現を容易に見つけられるようにするため、データベース10において歌唱表現の素片は組織化されて収録される。図5は、木構造の例を示す。木構造における末端の葉が、それぞれ一つの歌唱表現に相当する。例えば、「Attack−Fry−Power−High」は、フライ発声を主とするアタック基準の歌唱表現のうち、力強い声質で、高音域に適した歌唱表現を意味する。木構造の末端の葉だけでなく、節に歌唱表現を配置してもよい。例えば、上記の例に加えて「Attack−Fry−Power」に相当する歌唱表現を収録してもよい。 FIG. 5 is a schematic diagram illustrating the structure of the database 10. In order to make it easy for the user or the program to find the desired singing expression, the pieces of the singing expression are organized and recorded in the database 10. FIG. 5 shows an example of a tree structure. Each leaf at the end of the tree structure corresponds to one singing expression. For example, "Attack-Fry-Power-High" means a singing expression that has a strong voice quality and is suitable for a high range among attack-based singing expressions mainly composed of fly vocalization. Singing expressions may be placed in the nodes as well as in the leaves at the ends of the tree structure. For example, in addition to the above example, a singing expression corresponding to "Attack-Fry-Power" may be recorded.

データベース10には、歌唱表現1個につき少なくとも1個の素片が収録される。音韻に応じて2個以上の素片が収録されてもよい。歌唱表現の素片は全ての音韻に対して独自のものを収録する必要はない。なぜなら、歌唱表現の素片は合成歌唱とモーフィングされるので、歌唱としての基本的な品質は合成歌唱によって既に確保されているからである。例えば、素片接続型歌唱合成において良い品質の歌唱を得るには、2音素連鎖の音韻(例えば、/a−i/または/a−o/といった組み合わせ)毎に素片を収録する必要がある。しかし、歌唱表現の素片は、単音素毎(例えば、/a/または/o/)に独自のものを収録してもよいし、あるいはさらに数を減らして、歌唱表現1個につき歌唱表現の素片1個(例えば/a/だけ)だけを収録してもよい。歌唱表現毎に何個の素片を収録するかは、歌唱表現データベース作成の工数と合成歌唱の品質とのバランスを考慮してデータベース作製者が決定する。より高品質な(リアルな)合成歌唱を得るには、音韻毎に独自の歌唱表現の素片を収録する。歌唱表現データベース作成の工数を削減するには、歌唱表現1個あたりの素片の数を減らす。 The database 10 contains at least one piece for each singing expression. Two or more pieces may be recorded depending on the phoneme. It is not necessary to record a unique piece of singing expression for every phoneme. This is because the elements of the singing expression are morphed with synthetic singing, so the basic quality of singing is already ensured by synthetic singing. For example, in order to obtain a good quality singing in a piece-connected singing composition, it is necessary to record a piece for each phoneme of a two-phoneme chain (for example, a combination of / ai / or / ao /). .. However, the elements of the singing expression may be unique for each single note element (for example, / a / or / o /), or the number may be further reduced so that each singing expression is represented by the singing expression. Only one piece (for example, / a / only) may be recorded. The number of pieces to be recorded for each singing expression is determined by the database creator in consideration of the balance between the man-hours for creating the singing expression database and the quality of synthetic singing. To obtain a higher quality (realistic) synthetic singing, record a piece of original singing expression for each phoneme. To reduce the man-hours required to create a singing expression database, reduce the number of pieces per singing expression.

歌唱表現1個につき2個以上の素片が収録される場合、素片と音韻とのマッピング(対応付け)の定義が必要である。一例としては、ある歌唱表現に関し、素片ファイル「S0000」が音韻/a/および/i/にマッピングされ、素片ファイル「S0001」が音韻/u/、/e/、および/o/にマッピングされる。このようなマッピングは、歌唱表現毎に定義される。データベース10に収録される素片の数は、歌唱表現毎に異なっていてもよい。例えば、ある歌唱表現については2個の素片が収録され、別の歌唱表現には5個の素片が収録されてもよい。 When two or more pieces are recorded for each singing expression, it is necessary to define the mapping (correlation) between the pieces and the phoneme. As an example, for a singing expression, the elemental file "S0000" is mapped to the phonemes / a / and / i /, and the elemental file "S0001" is mapped to the phonemes / u /, / e /, and / o /. Will be done. Such a mapping is defined for each singing expression. The number of pieces recorded in the database 10 may differ for each singing expression. For example, one singing expression may contain two pieces, and another singing expression may contain five pieces.

データベース10において、歌唱表現の素片毎に基準時刻(表現基準時刻)を示す情報が記録される。この基準時刻は、歌唱表現の素片の波形における時間軸上の特徴点である。基準時刻には、歌唱表現開始時刻、歌唱表現終了時刻、ノートオンセット開始時刻、ノートオフセット開始時刻、ノートオンセット終了時刻、およびノートオフセット終了時刻のうち少なくとも1つが含まれる。 In the database 10, information indicating a reference time (expression reference time) is recorded for each element of the singing expression. This reference time is a feature point on the time axis in the waveform of the elementary piece of the singing expression. The reference time includes at least one of a singing expression start time, a singing expression end time, a note-on-set start time, a note offset start time, a note-on-set end time, and a note offset end time.

図6および図7は、各基準時刻を例示する図である。この例で、歌唱表現の素片の音声波形の時間領域は、プレ区間、オンセット区間、サステイン区間、オフセット区間、およびポスト区間に区分される。これらの区間は、例えばデータベース10の作成者により区分される。図6はアタック基準の歌唱表現を、図7はリリース基準の歌唱表現を、それぞれ示している。 6 and 7 are diagrams illustrating each reference time. In this example, the time domain of the voice waveform of the elemental piece of the singing expression is divided into a pre-section, an onset section, a sustain section, an offset section, and a post-section. These sections are divided by, for example, the creator of database 10. FIG. 6 shows an attack-based singing expression, and FIG. 7 shows a release-based singing expression.

アタック基準の歌唱表現は、プレ区間、オンセット区間、およびサステイン区間に区分される。サステイン区間は、音響的特徴(例えば基本周波数)が所定の範囲内に安定する区間である。サステイン区間の基本周波数が、この歌唱表現の音高に相当する。オンセット区間は、サステイン区間の前段の区間であって、音響的特徴が時間に伴って変化する区間である。プレ区間は、オンセット区間の前段の区間である。アタック基準の歌唱表現において、プレ区間の始期が歌唱表現開始時刻である。オンセット区間の始期がノートオンセット開始時刻である。オンセット区間の終期がノートオンセット終了時刻である。サステイン区間の終期が歌唱表現終了時刻である。 The attack-based singing expression is divided into a pre-section, an on-set section, and a sustain section. The sustain section is a section in which acoustic characteristics (for example, fundamental frequency) are stable within a predetermined range. The fundamental frequency of the sustain section corresponds to the pitch of this singing expression. The onset section is a section before the sustain section, and is a section in which the acoustic characteristics change with time. The pre-section is the section before the on-set section. In the attack-based singing expression, the beginning of the pre-section is the singing expression start time. The beginning of the onset section is the note onset start time. The end of the onset section is the note onset end time. The end of the sustain section is the end time of the singing expression.

リリース基準の歌唱表現は、サステイン区間、オフセット区間、およびポスト区間に区分される。オフセット区間は、サステイン区間の後段の区間であって、音響的特徴が時間に伴って変化する区間である。ポスト区間は、オフセット区間の後段の区間である。サステイン区間の始期が歌唱表現開始時刻である。サステイン区間の終期がノートオフセット開始時刻である。オフセット区間の終期がノートオフセット終了時刻である。ポスト区間の終期が歌唱表現終了時刻である。 Release-based singing expressions are divided into sustain sections, offset sections, and post sections. The offset section is a section after the sustain section, in which the acoustic characteristics change with time. The post section is the section after the offset section. The beginning of the sustain section is the singing expression start time. The end of the sustain section is the note offset start time. The end of the offset section is the note offset end time. The end of the post section is the end time of the singing expression.

データベース10には、歌唱合成に適用されるパラメーターのテンプレートが記録される。ここでいうパラメーターには、例えば、モーフィング係数(適用率)の時間推移および適用時間、並びに歌唱表現のスピードが含まれる。例えば、データベース作成者により複数のテンプレートが作成され、歌唱表現毎にどのテンプレートが適用されるかデータベース作成者があらかじめ決定しておいてもよい。すなわち、どの歌唱表現に対しどのテンプレートが適用されるかあらかじめ決まっていてもよい。あるいは、テンプレートそれ自体がデータベース10に含まれ、歌唱合成の際にどのテンプレートを使用するかユーザーが選択してもよい。 Templates of parameters applied to singing synthesis are recorded in the database 10. The parameters referred to here include, for example, the time transition and application time of the morphing coefficient (application rate), and the speed of singing expression. For example, a plurality of templates may be created by the database creator, and the database creator may determine in advance which template is applied for each singing expression. That is, which template is applied to which singing expression may be determined in advance. Alternatively, the template itself is included in the database 10, and the user may select which template to use when singing.

2−2.合成器20
図8は、合成器20の機能構成を例示する図である。合成器20は、タイミング計算手段21、時間伸縮マッピング手段22、短時間スペクトル操作手段23、合成手段24、特定手段25、および取得手段26を有する。
2-2. Synthesizer 20
FIG. 8 is a diagram illustrating the functional configuration of the synthesizer 20. The synthesizer 20 includes a timing calculation means 21, a time expansion / contraction mapping means 22, a short-time spectrum manipulation means 23, a synthesis means 24, a specific means 25, and an acquisition means 26.

タイミング計算手段21は、歌唱表現の素片に対して記録された基準時刻を利用して、歌唱表現の素片と合成歌唱とを一致させるタイミング(時間軸上の位置)を計算する。例えば、タイミング計算手段21は、アタック基準の歌唱表現の素片に対しては、ノートオンセット開始時刻(合成音基準時刻の一例)を合成歌唱の母音開始時刻に一致させる。リリース基準の歌唱表現の素片に対しては、ノートオフセット終了時刻(合成音基準時刻の別の例)を合成歌唱の母音終了時刻に一致させるか、または、歌唱表現終了時刻を合成歌唱の発音終了時刻に一致させる。 The timing calculation means 21 calculates the timing (position on the time axis) to match the element piece of the singing expression with the synthetic singing by using the reference time recorded for the element piece of the singing expression. For example, the timing calculation means 21 makes the note-on-set start time (an example of the synthetic sound reference time) match the vowel start time of the synthetic singing with respect to the element of the attack-based singing expression. For a piece of release-based singing expression, either match the note offset end time (another example of synthetic sound reference time) with the synthetic singing vowel end time, or set the singing expression end time to the synthetic singing pronunciation. Match the end time.

時間伸縮マッピング手段22は、歌唱表現の素片の時間伸縮マッピングを計算する(時間軸上の伸張処理を行う)。ここでは、時間伸縮マッピング手段22は、合成歌唱と歌唱表現の素片との時刻の対応を示すマッピング関数を計算する。ここで用いられるマッピング関数は、歌唱表現の素片の基準時刻毎に特性を区分した非線形関数である。このような関数を用いることで素片に含まれる歌唱表現の性質を極力損なうことなく合成歌唱に加算することができる。時間伸縮マッピング手段22は、歌唱表現の素片のうち特徴部分を、特徴部分以外の部分とは異なるアルゴリズムで(すなわち異なるマッピング関数を用いて)時間伸張を行う。特徴部分とは、例えば、後述するようにアタック基準の歌唱表現においてはプレ区間およびオンセット区間である。 The time expansion / contraction mapping means 22 calculates the time expansion / contraction mapping of the element of the singing expression (performs the expansion process on the time axis). Here, the time expansion / contraction mapping means 22 calculates a mapping function indicating the time correspondence between the synthetic singing and the element of the singing expression. The mapping function used here is a non-linear function that divides the characteristics for each reference time of the elementary piece of the singing expression. By using such a function, it is possible to add to the synthetic singing without impairing the property of the singing expression contained in the element piece as much as possible. The time expansion / contraction mapping means 22 performs time expansion of the characteristic portion of the elemental piece of the singing expression by an algorithm different from that of the portion other than the characteristic portion (that is, using a different mapping function). The characteristic portion is, for example, a pre-section and an on-set section in an attack-based singing expression as described later.

図9は、合成歌唱より歌唱表現の素片の方が時間長が短い例におけるマッピング関数を例示する図である。これは、例えば、特定のノートについてアタック基準の歌唱表現を適用する場合において、合成歌唱より歌唱表現の素片の方が時間長が短いときに用いられる。まず、マッピング関数の基本的な考え方を説明する。歌唱表現の素片において、プレ区間およびオンセット区間には、歌唱表現としての音響的特徴の動的変動が多く含まれている。そのため、この区間を時間伸縮すると歌唱表現の性質が変わってしまう。そこで、時間伸縮マッピング手段22は、プレ区間およびオンセット区間は可能な限り時間伸縮を行わず、サステイン区間を引き延ばすことによって所望の時間伸縮マッピングを得る。 FIG. 9 is a diagram illustrating a mapping function in an example in which the time length of the elemental piece of the singing expression is shorter than that of the synthetic singing. This is used, for example, when an attack-based singing expression is applied to a specific note, and the time length of the singing expression element is shorter than that of the synthetic singing. First, the basic concept of the mapping function will be explained. In the elemental piece of the singing expression, the pre-section and the on-set section contain a lot of dynamic fluctuations of the acoustic characteristics as the singing expression. Therefore, if this section is expanded or contracted over time, the nature of the singing expression will change. Therefore, the time expansion / contraction mapping means 22 does not perform time expansion / contraction as much as possible in the pre-section and the onset section, and obtains a desired time expansion / contraction mapping by extending the sustain section.

図9(a)は、サステイン区間においてマッピング関数の傾きを緩やかにする、すなわち歌唱表現の素片のデータ読み出し速度を遅くすることによって素片全体の時間を引き延ばす例を示す。図9(b)は、サステイン区間においても読み出し速度は一定のまま、データ読み出し位置を何度も手前に戻すことによって素片全体の時間を引き延ばす例を示す。これは、サステイン区間では概ね定常的な音響的特徴が維持されるという特性を利用したものである。このとき、データ読出し位置を戻す時刻と戻る時刻は、音響的特徴に現れる時間的周期性の開始位置と終了位置に対応していることが好ましい。このようなデータ読出し位置を採用することにより、自然な歌唱表現が付与された合成歌唱を得ることができる。これらの開始位置および終了位置は、例えば、歌唱表現の素片の音響的特徴量の時系列に対して自己相関関数を求め、そのピークを採用することによって求めることができる。図9(c)は、サステイン区間においていわゆるランダムミラーループ(Random-Mirror-Loop)を適用して素片全体の時間を引き延ばす例を示す。ランダムミラーループは、読み出しの途中でデータ読み出し速度の符号を何度も反転させることによって素片全体の時間を引き延ばす手法である。歌唱表現サンプルに本来含まれない人工的な周期性が発生しないようにするため、符号を反転する時刻は擬似乱数に基づいて決定される。 FIG. 9A shows an example in which the slope of the mapping function is made gentle in the sustain interval, that is, the time of the entire element piece is extended by slowing down the data reading speed of the element piece of the singing expression. FIG. 9B shows an example in which the time of the entire piece is extended by repeatedly returning the data read position to the front while keeping the read speed constant even in the sustain section. This utilizes the characteristic that the acoustic characteristics that are generally stationary are maintained in the sustain section. At this time, it is preferable that the time for returning the data read position and the time for returning the data correspond to the start position and the end position of the temporal periodicity appearing in the acoustic feature. By adopting such a data reading position, it is possible to obtain a synthetic singing with a natural singing expression. These start and end positions can be obtained, for example, by obtaining an autocorrelation function with respect to the time series of the acoustic features of the elements of the singing expression and adopting the peaks thereof. FIG. 9C shows an example in which a so-called random mirror loop (Random-Mirror-Loop) is applied in the sustain section to extend the time of the entire element piece. The random mirror loop is a method of extending the time of the entire element piece by inverting the sign of the data reading speed many times during reading. The time to invert the sign is determined based on a pseudo-random number so that artificial periodicity that is not originally included in the singing expression sample does not occur.

図9(a)〜(c)はプレ区間およびオンセット区間におけるデータ読み出し速度を変えない例を示すが、ユーザーが歌唱表現のスピードを調整したい場合がある。一例としては、「しゃくり」の歌唱表現において、素片として収録されている歌唱表現よりも速くしたい場合がある。このような場合、プレ区間およびオンセット区間におけるデータ読み出し速度を変えればよい。具体的に、素片よりも速くしたい場合はデータ読み出し速度を速くする。図9(d)はプレ区間およびオンセット区間におけるデータ読み出し速度を速くする例を示す。サステイン区間においてはデータ読み出し速度を遅くし、素片全体の時間を引き延ばす。 9 (a) to 9 (c) show an example in which the data reading speed in the pre-section and the on-set section is not changed, but the user may want to adjust the speed of the singing expression. As an example, there is a case where the singing expression of "hiccups" is desired to be faster than the singing expression recorded as a piece. In such a case, the data read speed in the pre-section and the on-set section may be changed. Specifically, if you want to make it faster than the raw piece, increase the data read speed. FIG. 9D shows an example of increasing the data read speed in the pre-section and the on-set section. In the sustain section, the data read speed is slowed down and the time of the entire piece is extended.

図10は、合成歌唱より歌唱表現の素片の方が時間長が長い例におけるマッピング関数を例示する図である。これは、例えば、特定のノートについてアタック基準の歌唱表現を適用する場合において、合成歌唱より歌唱表現の素片の方が時間長が長いときに用いられる。これらの例でも、時間伸縮マッピング手段22は、プレ区間およびオンセット区間は可能な限り時間伸縮を行わず、サステイン区間を短縮することによって所望の時間伸縮マッピングを得る。 FIG. 10 is a diagram illustrating a mapping function in an example in which the elemental piece of the singing expression has a longer time length than the synthetic singing. This is used, for example, when an attack-based singing expression is applied to a specific note, and the elemental piece of the singing expression has a longer time length than the synthetic singing. In these examples as well, the time expansion / contraction mapping means 22 obtains the desired time expansion / contraction mapping by shortening the sustain interval without performing time expansion / contraction in the pre-section and the onset section as much as possible.

図10(a)は、サステイン区間においてマッピング関数の傾きを急にする、すなわち歌唱表現の素片のデータ読み出し速度を速くすることによって素片全体の時間を短縮する例を示す。図10(b)は、サステイン区間においても読み出し速度は一定のまま、サステイン区間の途中でデータ読み出しを打ち切ることによって素片全体の時間を短縮する例を示す。サステイン区間の音教的特徴は定常的であるので、データ読み出し速度を変えるよりもデータ読み出し速度は一定のまま単に素片の末尾を使用しない方が自然な合成歌唱が得られる。図10(c)は、合成歌唱の時間が、歌唱表現の素片のプレ区間およびオンセット区間の時間長の和よりも短い場合に用いられるマッピング関数を示す。この例では、時間伸縮マッピング手段22は、オンセット区間の終期が合成歌唱の終期と一致するように、オンセット区間におけるデータ読み出し速度を速くする。図10(d)は、合成歌唱の時間が、歌唱表現の素片のプレ区間およびオンセット区間の時間長の和よりも短い場合に用いられるマッピング関数の別の例を示す。この例では、時間伸縮マッピング手段22は、オンセット区間においてもデータ読み出し速度は一定のまま、オンセット区間の途中でデータ読み出しを打ち切ることによって素片全体の時間を短縮する。なお図10(d)の例では、基本周波数の決定に注意が必要である。オンセット区間の音高はノートの音高と異なることが多いため、オンセット区間の末尾を使用しないと合成歌唱の基本周波数がノートの音高に到達せず、音が外れたように(音痴に)聞こえてしまう場合がある。これを避けるためには、時間伸縮マッピング手段22は、オンセット区間内でノートの音高に相当する基本周波数の代表値を決め、この基本周波数がノートの音高に一致するように歌唱表現の素片全体の基本周波数をシフトする。基本周波数の代表値としては、例えば、オンセット区間の末尾の基本周波数が用いられる。 FIG. 10A shows an example in which the slope of the mapping function is steep in the sustain interval, that is, the time of the entire element is shortened by increasing the data reading speed of the element of the singing expression. FIG. 10B shows an example in which the time of the entire element piece is shortened by stopping the data reading in the middle of the sustain section while the reading speed remains constant even in the sustain section. Since the sonic characteristics of the sustain section are stationary, it is more natural to obtain a synthetic singing by simply not using the end of the piece while keeping the data reading speed constant rather than changing the data reading speed. FIG. 10 (c) shows a mapping function used when the time of synthetic singing is shorter than the sum of the time lengths of the pre-interval and the onset interval of the elementary piece of the singing expression. In this example, the time expansion / contraction mapping means 22 increases the data read speed in the onset section so that the end of the onset section coincides with the end of the synthetic singing. FIG. 10 (d) shows another example of the mapping function used when the time of synthetic singing is shorter than the sum of the time lengths of the pre-interval and the onset interval of the elementary piece of the singing expression. In this example, the time expansion / contraction mapping means 22 shortens the time of the entire element piece by interrupting the data reading in the middle of the onset section while keeping the data reading speed constant even in the onset section. In the example of FIG. 10D, it is necessary to pay attention to the determination of the fundamental frequency. Since the pitch of the onset section is often different from the pitch of the note, the fundamental frequency of the synthetic singing does not reach the pitch of the note unless the end of the onset section is used, and the sound is off (tone deafness). It may be heard. In order to avoid this, the time expansion / contraction mapping means 22 determines a representative value of the fundamental frequency corresponding to the pitch of the note in the onset section, and expresses the singing so that this fundamental frequency matches the pitch of the note. Shift the fundamental frequency of the entire piece. As a representative value of the fundamental frequency, for example, the fundamental frequency at the end of the onset section is used.

図9および図10は、アタック基準の歌唱表現に対する時間伸縮マッピングを例示するものであったが、リリース基準の歌唱表現に対する時間伸縮マッピングも考え方は同じである。すなわち、リリース基準の歌唱表現においてはオフセット区間およびポスト区間が特徴部分であり、他の部分とは異なったアルゴリズムで時間伸張マッピングが行われる。 Although FIGS. 9 and 10 exemplify the time expansion / contraction mapping for the attack-based singing expression, the idea is the same for the time expansion / contraction mapping for the release-based singing expression. That is, in the release-based singing expression, the offset section and the post section are characteristic parts, and the time extension mapping is performed by an algorithm different from the other parts.

短時間スペクトル操作手段23は、歌唱表現の素片の短時間スペクトルをいくつかの成分(音響的特徴)に分解する。短時間スペクトル操作手段23は、分解により得られた成分の一部を、合成歌唱の同じ成分に対してモーフィングすることで、歌唱表現が付与された合成歌唱の短時間スペクトルの系列を得る。短時間スペクトル操作手段23は、歌唱表現の素片の短時間スペクトルを、例えば以下のうち1つ以上の成分に分解する。
(a)スペクトル包絡
(b)スペクトル包絡概形
(c)位相スペクトル包絡
(d)スペクトル包絡(または調波振幅)の時間的微細変動
(e)位相スペクトル包絡(または調波位相)の時間的微細変動
(f)基本周波数
なお、歌唱表現の素片と合成歌唱との間でこれらの成分を独立にモーフィングするためには、合成歌唱に対しても上記の分解が行われる必要があるが、歌唱合成器においては合成の途中でこれらの情報が生成されている場合があるので、それを利用すればよい。以下に各成分を説明する。
The short-time spectrum manipulation means 23 decomposes the short-time spectrum of the element of the singing expression into several components (acoustic features). The short-time spectrum manipulation means 23 morphs a part of the components obtained by decomposition to the same component of the synthetic singing to obtain a series of short-time spectra of the synthetic singing to which the singing expression is given. The short-time spectrum manipulation means 23 decomposes the short-time spectrum of the element of the singing expression into, for example, one or more of the following components.
(A) Spectral Envelopment (b) Spectral Encapsulation Outline (c) Phase Spectral Encapsulation (d) Temporal Fine Fluctuations in Spectral Encapsulation (or Harmonic Amplitude) Fluctuation (f) Basic frequency In order to morph these components independently between the element of the singing expression and the synthetic singing, the above decomposition must be performed on the synthetic singing as well. In the synthesizer, this information may be generated in the middle of synthesis, so it may be used. Each component will be described below.

スペクトル包絡は、振幅スペクトルの概形であり、主に音韻と個人性の知覚に関する。スペクトル包絡の推定法は多数提案されており、たとえば低次のケプストラム係数による推定が利用できる。本実施形態においてスペクトル包絡を他の成分と独立して扱うことには特別な意義がある。すなわち、仮に、音韻または個人性が合成歌唱とは異なる歌唱表現の素片を使用しても、スペクトル包絡に関するモーフィング適用率をゼロとすれば、合成歌唱の音韻および個人性が100%現れる。そのため、音韻または個人性が異なる歌唱表現の素片(例えば、本人の他音韻または全くの他人の素片)を転用することができる。なお、意図的に音韻や個人性を変化させるような歌唱表現において、その程度を制御するためにこの成分は独立にモーフィングされてもよい。 Spectral entrainment is an outline of the amplitude spectrum and is primarily concerned with the perception of phonology and individuality. Many methods for estimating spectral envelopes have been proposed, and for example, estimation based on low-order cepstrum coefficients can be used. In this embodiment, it is of special significance to treat the spectral envelope independently of other components. That is, even if a piece of singing expression whose phonology or individuality is different from that of synthetic singing is used, if the morphing application rate for spectral envelope is set to zero, the phonology and individuality of synthetic singing will appear 100%. Therefore, it is possible to divert a piece of singing expression having a different phoneme or individuality (for example, another phoneme of the person or a piece of another person at all). In addition, in a singing expression that intentionally changes the phonology or individuality, this component may be morphed independently in order to control the degree.

スペクトル包絡概形は、振幅スペクトル包絡をさらに大まかに表現した概形であり、主に声の明るさに関する。スペクトル包絡概形は様々な方法で求めることが可能であり、例えば、スペクトル包絡よりもさらに低次のケプストラム係数によって求めることができる。スペクトル包絡とは異なり、スペクトル包絡概形には音韻や個人性の情報はほとんど含まれない。そこで、スペクトル包絡のモーフィングを行わない場合であっても、スペクトル包絡概形成分のみモーフィングを行うことで、歌唱表現に含まれる声の明るさとその時間的な動きを保持することができる。 The spectral envelopment scheme is a more general representation of the amplitude spectral envelopment and is primarily related to the brightness of the voice. The spectral envelope outline can be obtained by various methods, for example, by a cepstrum coefficient having a lower order than that of the spectral envelope. Unlike the spectral envelope, the spectral envelope scheme contains little phonological or personality information. Therefore, even when the spectral envelope is not morphed, the brightness of the voice included in the singing expression and its temporal movement can be maintained by performing the morphing only for the spectral envelope approximately formed portion.

位相スペクトル包絡は、位相スペクトルの概形である。位相スペクトル包絡は様々な方法で求めることが可能である。例えば、信号の周期に同期するフレーム間隔における短時間スペクトルの分析をし、その後、各調波成分における位相の値のみを採用し、この段階でアンラッピングし、さらに調波成分以外の周波数(調波と調波の間)においては最近傍補間や線形または高次の曲線補間などすることで、単なる位相スペクトルではなく位相スペクトル包絡を得ることができる。 The phase spectrum envelopment is an outline of the phase spectrum. The phase spectrum envelope can be determined by various methods. For example, a short-time spectrum is analyzed at a frame interval synchronized with the period of the signal, then only the phase value of each tuning component is adopted, unwrapped at this stage, and frequencies other than the tuning component (tuning). In (between waves and tuning), it is possible to obtain a phase spectrum encapsulation rather than a simple phase spectrum by performing nearest-neighbor interpolation or linear or higher-order curve interpolation.

図11は、スペクトル包絡およびスペクトル包絡概形の関係を例示する図である。スペクトル包絡の時間的変動および位相スペクトル包絡の時間的変動は、ごく短時間のうちの音声スペクトルにおいて高速に変動する成分に相当し、濁声や嗄声のガサガサ感に相当する。スペクトル包絡の時間的微細変動は,これらの推定値に対して時間軸上での差分をとるか、一定時間区間内で平滑化したこれらの値と注目フレームにおける値との差分をとることで得ることができる。位相スペクトル包絡の時間的変動は、位相スペクトル包絡に対して時間軸上での差分をとるか、または一定時間区間内で平滑化したこれらの値と注目フレームにおける値との差分をとることでその微細変動を得ることができる。これらの処理はいずれもある種の高域通過フィルタに相当する。 FIG. 11 is a diagram illustrating the relationship between the spectral envelope and the spectral envelope outline. The temporal variation of the spectral envelopment and the temporal variation of the phase spectral encapsulation correspond to the components that fluctuate at high speed in the speech spectrum within a very short time, and correspond to the rough feeling of muddy voice and hoarseness. The temporal fine variation of the spectral envelope is obtained by taking the difference on the time axis with respect to these estimated values, or by taking the difference between these values smoothed within a certain time interval and the value in the frame of interest. be able to. The temporal variation of the phase spectrum inclusion is obtained by taking the difference on the time axis with respect to the phase spectrum inclusion, or by taking the difference between these values smoothed within a certain time interval and the value in the frame of interest. Fine fluctuations can be obtained. All of these processes correspond to some kind of high-pass filter.

音響的特徴としてスペクトル包絡およびスペクトル包絡概形の両方が用いられる場合、実際のモーフィングには、スペクトル包絡そのもの(例えば図11)が用いられるのではなく、
(a’)スペクトル包絡概形とスペクトル包絡との差分、および
(b)スペクトル包絡概形
の2つの音響的特徴が用いられる。例えば図11のようにスペクトル包絡とスペクトル包絡概形とを分離すると、スペクトル包絡にスペクトル包絡概形の情報まで含まれてしまうので、両者を分離して扱うためである。このように分離すると、絶対的な音量に関する情報はスペクトル包絡概形に含まれる。人間が発する声の強さを変化させるとき、個人性や音韻性はある程度保つことができる一方、音量とスペクトルの全体的な傾斜が同時に変化することが多いので、スペクトル包絡概形に音量の情報を含めるのは自然なことと言える。
When both spectral envelopes and spectral envelope schemes are used as acoustic features, the actual morphing does not use the spectral envelope itself (eg, FIG. 11).
Two acoustic features are used: (a') the difference between the spectral envelope outline and the spectral envelope, and (b) the spectral envelope outline. For example, if the spectrum envelope and the spectrum envelope outline are separated as shown in FIG. 11, the spectrum envelope includes information on the spectrum envelope outline, so that both are treated separately. When separated in this way, information about the absolute volume is contained in the spectral envelope outline. When changing the intensity of human voice, individuality and phonological characteristics can be maintained to some extent, but since the volume and the overall inclination of the spectrum often change at the same time, the volume information in the spectrum envelope outline. It can be said that it is natural to include.

なお、スペクトル包絡および位相スペクトル包絡に代えて、調波振幅および調波位相が用いられてもよい。スペクトル包絡および位相スペクトル包絡を用いるか、または調波振幅および調波位相を用いるかの選択は、合成方式の選択に依存する。パルス列の合成または時変フィルタによる合成が行われる場合はスペクトル包絡および位相スペクトル包絡が用いられ、SMS、SPP、またはWBHSMのように正弦波モデルを基礎とする合成方式では調波振幅および調波位相を用いる。 In addition, the tuning amplitude and the tuning phase may be used instead of the spectrum inclusion and the phase spectrum inclusion. The choice of whether to use spectral wrapping and phase spectral wrapping or tuning amplitude and tuning phase depends on the choice of synthesis method. Spectral wrapping and phase spectral wrapping are used when synthesizing pulse trains or chronological filters, and sine wave model-based synthesizing methods such as SMS, SPP, or WBHSM use tuned amplitude and phase. Is used.

基本周波数は、主に音高の知覚に関する。他の音響的特徴と異なり、変換の適用率による単純な補間で基本周波数を求めることはできない。なぜならば、歌唱表現の素片におけるノートの音高と合成歌唱のノートの音高は一般に異なっており、歌唱表現の素片の基本周波数と合成歌唱の基本周波数を単純に補間した基本周波数で合成しても、合成されるべき音高とはまったく異なった音高になってしまうためである。そこで本実施形態において、短時間スペクトル操作手段23は、まず歌唱表現の素片に付与されたノートの音高が合成歌唱のノートの音高に一致するように、歌唱表現の素片全体の基本周波数を一定量シフトする。この処理は、歌唱表現の素片の各時刻の基本周波数を合成音に一致させるものではなく、歌唱表現の素片に含まれる基本周波数の動的な変動は保持される。 The fundamental frequency is mainly related to the perception of pitch. Unlike other acoustic features, the fundamental frequency cannot be determined by simple interpolation based on the conversion rate. This is because the pitch of the note in the element of the singing expression and the pitch of the note of the synthetic singing are generally different, and the fundamental frequency of the element of the singing expression and the fundamental frequency of the synthetic singing are simply interpolated. Even so, the pitch will be completely different from the pitch to be synthesized. Therefore, in the present embodiment, the short-time spectrum manipulation means 23 first bases the entire element piece of the singing expression so that the pitch of the note given to the element piece of the singing expression matches the pitch of the note of the synthetic singing expression. Shift the frequency by a certain amount. This process does not match the fundamental frequency of each time of the element of the singing expression with the synthetic sound, and the dynamic fluctuation of the fundamental frequency contained in the element of the singing expression is retained.

図12は、歌唱表現の素片の基本周波数をシフトする処理を例示する図である。図12において、破線がシフト前の(すなわちデータベース10に収録された)歌唱表現の素片の特性を、実線がシフト後の特性を、それぞれ示す。この処理では、プレ区間およびオンセット区間における基本周波数の変動が維持されたまま、サステイン区間の基本周波数が所望の周波数となるよう、素片の特性曲線全体がそのままシフトされる。歌唱表現の適用率のパラメーターを基本周波数に対して適用する場合、短時間スペクトル操作手段23は、この処理により得られた基本周波数と通常歌唱合成における基本周波数とを各時刻で補間する。 FIG. 12 is a diagram illustrating a process of shifting the fundamental frequency of a piece of a singing expression. In FIG. 12, the broken line shows the characteristics of the elemental pieces of the singing expression before the shift (that is, recorded in the database 10), and the solid line shows the characteristics after the shift. In this process, the entire characteristic curve of the element piece is shifted as it is so that the fundamental frequency of the sustain section becomes a desired frequency while maintaining the fluctuation of the fundamental frequency in the pre-section and the onset section. When the parameter of the application rate of the singing expression is applied to the fundamental frequency, the short-time spectrum manipulation means 23 interpolates the fundamental frequency obtained by this processing and the fundamental frequency in the normal singing synthesis at each time.

合成手段24は、合成歌唱と歌唱表現の素片とを合成し、歌唱表現が付与された合成歌唱を得る。合成歌唱と歌唱表現の素片とを合成し、最終的に時間領域の波形として得る方法には種々のものが存在するが、これらの方法は入力とするスペクトルの表現方法によって2種類に大別できる。一つは調波成分に基づく方法で、もう一つはスペクトル包絡に基づく方法である。 The synthesizing means 24 synthesizes the synthetic singing and the element pieces of the singing expression to obtain a synthetic singing to which the singing expression is given. There are various methods for synthesizing a synthetic singing and a piece of singing expression and finally obtaining it as a waveform in the time domain, but these methods are roughly divided into two types depending on the expression method of the spectrum to be input. it can. One is a method based on the wave-tuning component, and the other is a method based on the spectral envelope.

調波成分に基づく合成方法としては、例えばSMSが知られている(Serra, Xavier, and Julius Smith. "Spectral modeling synthesis: A sound analysis/synthesis system based on a deterministic plus stochastic decomposition." Computer Music Journal 14.4 (1990): 12-24.)。有声音のスペクトルは基本周波数とそのおおよそ整数倍の周波数における正弦波成分の周波数、振幅、および位相によって表現される。SMSによってスペクトルを生成し、逆フーリエ変換すると、窓関数が乗算された数周期分の波形が得られる。窓関数を除算したうえで合成結果の中心付近のみを別の窓関数で切り出し、出力結果バッファに重畳加算する。この処理をフレーム間隔ごとに繰り返すことで長時間の連続的な波形が得られる。 For example, SMS is known as a synthesis method based on the wave-tuning component (Serra, Xavier, and Julius Smith. "Spectral modeling synthesis: A sound analysis / synthesis system based on a deterministic plus stochastic decomposition." Computer Music Journal 14.4 (1990): 12-24.). The spectrum of voiced sounds is represented by the frequency, amplitude, and phase of the sinusoidal component at the fundamental frequency and its approximately integral multiples. When the spectrum is generated by SMS and the inverse Fourier transform is performed, a waveform for several cycles multiplied by the window function is obtained. After dividing the window function, only the vicinity of the center of the composite result is cut out by another window function, and the output result buffer is overlap-added. By repeating this process at frame intervals, a long-term continuous waveform can be obtained.

スペクトル包絡に基づく合成方法としては、例えばNBVPM(Bonada, Jordi. "High quality voice transformations based on modeling radiated voice pulses in frequency domain." Proc. Digital Audio Effects (DAFx). 2004.)が知られている。この例では、スペクトルは、振幅スペクトル包絡と位相スペクトル包絡によって表現され、基本周波数や調波成分の周波数情報は含まれない。このスペクトルを逆フーリエ変換すると1周期分の声帯振動とそれに対する声道応答に相当するパルス波形が得られる。これを出力バッファに重畳加算する。このとき、隣接するパルス同士のスペクトルにおける位相スペクトル包絡がおおよそ同一の値であれば、出力バッファに重畳加算する時間間隔の逆数が最終的な合成音の基本周波数となる。 As a synthesis method based on the spectrum envelope, for example, NBVPM (Bonada, Jordi. "High quality voice transformations based on modeling radiated voice pulses in frequency domain." Proc. Digital Audio Effects (DAFx). 2004.) is known. In this example, the spectrum is represented by an amplitude spectrum envelopment and a phase spectrum encapsulation, and does not include frequency information of the fundamental frequency or the tuning component. By inverse Fourier transforming this spectrum, a pulse waveform corresponding to the vocal cord vibration for one cycle and the vocal tract response to it can be obtained. This is superimposed and added to the output buffer. At this time, if the phase spectrum enveloping in the spectra of adjacent pulses has approximately the same value, the reciprocal of the time interval to be superimposed and added to the output buffer becomes the fundamental frequency of the final synthesized sound.

歌唱音声と歌唱表現との合成には、周波数領域で行う方法と時間領域で行う方法がある。いずれの方法が用いられる場合でも、歌唱音声と歌唱表現との合成は、基本的には以下の手順で行われる。まず、振幅および位相の時間的微細変動成分以外の成分について、歌唱音声と歌唱表現とをモーフィングする。次に、各調波成分(またはその周辺周波数帯域)の振幅および位相の時間的微細変動成分を加算することにより、歌唱表現を付与した合成歌唱を生成する。 There are two methods for synthesizing singing voice and singing expression, one is performed in the frequency domain and the other is performed in the time domain. Regardless of which method is used, the composition of the singing voice and the singing expression is basically performed by the following procedure. First, the singing voice and the singing expression are morphed for the components other than the temporal fine fluctuation components of the amplitude and the phase. Next, a synthetic singing with a singing expression is generated by adding the temporal fine fluctuation components of the amplitude and phase of each tuning component (or its peripheral frequency band).

なお、歌唱音声と歌唱表現との合成の際、時間的微細変動成分についてのみ、それ以外の成分とは異なる時間伸縮マッピングが用いられてもよい。これは、例えば以下の2つの場合において有効である。 When synthesizing the singing voice and the singing expression, a time expansion / contraction mapping different from the other components may be used only for the temporal minute fluctuation component. This is effective in the following two cases, for example.

第1には、ユーザーが意図して歌唱表現のスピードを変化させた場合である。時間的微細変動成分は、その変動の速さや周期性が「ガサガサ」、「ガリガリ」、または「シュワシュワ」といった声の質感の性質と深く関わるものであり、この変動速度を変化させてしまうと声の質感の性質が変わってしまう。例えば、図7に示したような末尾で音高が下がる歌唱表現においてユーザーがそのスピードを速める指示を入力したとき、ユーザーは具体的には、音高を下げつつ、それに伴う音色や質感の変化の速度を速める意図を有しているものの、歌唱表現の質感の性質そのものを変化させることは意図していないと推察される。したがって、ユーザーの意図どおりの歌唱表現を得るには、基本周波数およびスペクトル包絡等の成分については線形時間伸縮によってポスト区間のデータ読出し速度を速めればよいが、時間的微細変動成分については適当な周期でループさせたり(図9(b)のサステイン区間と同様)、ランダムミラーループ(図9(c)のサステイン区間と同様)させたりする。 The first is the case where the user intentionally changes the speed of the singing expression. The temporal fine fluctuation component is deeply related to the nature of the texture of the voice such as "roughness", "gritty", or "shwashwa" in the speed and periodicity of the fluctuation, and it is said that the fluctuation speed is changed. The nature of the texture of is changed. For example, when the user inputs an instruction to increase the speed in a singing expression in which the pitch is lowered at the end as shown in FIG. 7, the user specifically lowers the pitch and changes the timbre and texture accordingly. Although it has the intention of increasing the speed of the song, it is presumed that it does not intend to change the nature of the texture of the singing expression itself. Therefore, in order to obtain the singing expression as intended by the user, it is sufficient to increase the data reading speed of the post section by linear time expansion and contraction for the components such as the fundamental frequency and the spectral wrapping, but it is appropriate for the time minute fluctuation component. It is looped in a cycle (similar to the sustain section of FIG. 9B) or a random mirror loop (similar to the sustain section of FIG. 9C).

第2には、時間的微細変動成分の変動周期が基本周波数に依存すべき歌唱表現を合成する場合である。調波成分の振幅および位相に周期的な変調を有する歌唱表現においては、振幅および位相の変動周期に基本周波数との相関を持たせた方が自然に聞こえる場合があることが経験的に分かっている。このような質感を有する歌唱表現を、例えば「ラフ」または「グロウル」という。振幅および位相の変動周期に基本周波数との相関を持たせる手法としては、歌唱表現波形を合成する際に適用される基本周波数の変換比と同じ比率を時間的微細変動成分のデータ読出し速度に適用する手法を用いることができる。 The second is the case of synthesizing a singing expression in which the fluctuation period of the temporal fine fluctuation component should depend on the fundamental frequency. It has been empirically found that in a singing expression that has periodic modulation of the amplitude and phase of the wave tuning component, it may sound more natural to correlate the fluctuation period of the amplitude and phase with the fundamental frequency. There is. A singing expression having such a texture is called, for example, "rough" or "growl". As a method of correlating the fluctuation period of amplitude and phase with the fundamental frequency, the same ratio as the conversion ratio of the fundamental frequency applied when synthesizing the singing expression waveform is applied to the data reading speed of the temporal fine fluctuation component. Can be used.

合成手段24は、合成歌唱と歌唱表現波形とを合成する。すなわち、合成手段24は、合成歌唱に対し歌唱表現を付与する。合成歌唱と歌唱表現波形との合成は、上述の音響的特徴(a)〜(f)のうち少なくとも1つを用いて行われる。音響的特徴(a)〜(f)のうちどの特徴を用いるかは、歌唱表現毎に設定される。例えば、音楽用語でいうクレッシェンドまたはデクレッシェンドという歌唱表現は、主に発声の強さの時間的な変化に関係する。したがって、モーフィングの対象とすべき主要な音響的特徴はスペクトル包絡概形である。音韻および個人性は、クレッシェンドまたはデクレッシェンドを構成する主要な音響的特徴ではないと考えられる。したがって、スペクトル包絡のモーフィング適用量(係数)がゼロとなるようにすれば、ただ1人の歌唱者のただ1個の音韻の歌唱から収録されたクレッシェンドの歌唱表現の素片を、あらゆる歌唱者のあらゆる音韻に対して適用することもできる。別の例で、ビブラートのような歌唱表現では、基本周波数が周期的に変動し、またそれに同期して音量も変動する。したがって、モーフィングの対象とすべき音響的特徴は、基本周波数およびスペクトル包絡概形である。 The synthesis means 24 synthesizes the synthetic singing and the singing expression waveform. That is, the synthesis means 24 gives a singing expression to the synthetic singing. The synthesis of the synthetic singing and the singing expression waveform is performed using at least one of the above-mentioned acoustic features (a) to (f). Which of the acoustic features (a) to (f) is used is set for each singing expression. For example, the singing expression crescendo or decrescendo in musical terms is mainly related to changes in vocal strength over time. Therefore, the main acoustic feature to be morphed is the spectral entourage scheme. Phonology and individuality are not considered to be the main acoustic features that make up a crescendo or decrescendo. Therefore, if the morphing application amount (coefficient) of the spectral envelope is set to zero, every singer can obtain a fragment of the crescendo singing expression recorded from the singing of only one phonology of one singer. It can also be applied to any phonology of. In another example, in a singing expression such as vibrato, the fundamental frequency fluctuates periodically, and the volume fluctuates in synchronization with it. Therefore, the acoustic features to be morphed are the fundamental frequency and spectral entourage schemes.

また、スペクトル包絡は音韻に関連した音響的特徴であるので、スペクトル包絡をモーフィングの対象から除外することにより、音韻によらない歌唱表現を付与することができる。例えば、ある特定の音韻(例えば/a/)についてのみしか素片が収録されていない歌唱表現も、スペクトル包絡をモーフィングの対象から除外することにより、特定の音韻以外の音韻の合成歌唱に対してもその歌唱表現の素片をモーフィングすることができる。 Further, since the spectral envelope is an acoustic feature related to the phoneme, by excluding the spectral envelope from the target of morphing, a singing expression that does not depend on the phoneme can be given. For example, a singing expression in which a fragment is recorded only for a specific phoneme (for example, / a /) can be used for a synthetic song of a phoneme other than the specific phoneme by excluding the spectral envelope from the target of morphing. Can also morph a piece of that singing expression.

このように、歌唱表現の種類毎に、モーフィングの対象とすべき音響的特徴は限定することができる。このようにモーフィングの対象とする音響的特徴を限定してもよいし、歌唱表現の種類によらず全ての音響的特徴をモーフィングの対処としてもよい。多くの音響的特徴をモーフィングの対象とすると元の歌唱表現の素片に近い合成歌唱が得られるのでその部分の自然性は向上する。しかし、歌唱表現を付与しない部分との音質の差は大きくなってしまうので、歌唱全体を通して聞いたときに違和感が出る可能性もある。したがって、モーフィングする音響的特徴をテンプレート化する際には、自然性と違和感とのバランスを考慮してモーフィングの対象となる音響的特徴を決定する。 In this way, the acoustic features to be morphed can be limited for each type of singing expression. In this way, the acoustic features targeted for morphing may be limited, or all acoustic features may be dealt with by morphing regardless of the type of singing expression. When many acoustic features are targeted for morphing, a synthetic singing that is close to the element of the original singing expression can be obtained, and the naturalness of that part is improved. However, since the difference in sound quality from the part to which the singing expression is not given becomes large, there is a possibility that a sense of incongruity may occur when listening to the whole singing. Therefore, when template the acoustic features to be morphed, the acoustic features to be morphed are determined in consideration of the balance between naturalness and discomfort.

図13は、歌唱音声と歌唱表現の素片とを周波数領域で合成するための、合成手段24のより詳細な機能構成を例示する図である。この例で、合成手段24は、スペクトル生成手段2401、逆フーリエ変換手段2402、合成窓適用手段2403、および重畳加算手段2404を有する。 FIG. 13 is a diagram illustrating a more detailed functional configuration of the synthesizing means 24 for synthesizing a singing voice and a piece of a singing expression in the frequency domain. In this example, the synthesis means 24 has a spectrum generation means 2401, an inverse Fourier transform means 2402, a synthesis window application means 2403, and an overlay addition means 2404.

図14は、合成器20の動作を例示するシーケンスチャートである。ステップS1400において、特定手段25は、データベース10に含まれる素片データベースおよび歌唱表現データベースの中から、合成歌唱の生成に用いられる素片、および歌唱表現の付与に用いられる素片を特定する。スペクトル生成手段2401は、UI部30から供給される情報に基づいてこれらの素片を特定する。 FIG. 14 is a sequence chart illustrating the operation of the synthesizer 20. In step S1400, the specifying means 25 identifies the element piece used for generating the synthetic song and the element piece used for giving the singing expression from the element piece database and the singing expression database included in the database 10. The spectrum generation means 2401 identifies these elements based on the information supplied from the UI unit 30.

ステップS1401において、取得手段26は、合成歌唱の生成に用いられる音響的特徴の時間変化を取得する。ここで取得される音響的特徴は、スペクトル包絡H(f)、スペクトル包絡概形G(f)、位相スペクトル包絡P(f)、スペクトル包絡の時間的微細変動I(f)、位相スペクトル包絡の時間的微細変動Q(f)、および基本周波数F0のうち少なくとも1つを含む。取得手段26は、例えば、ステップS1400において特定された素片に対して処理を行った短時間スペクトル操作手段23からこれらの音響的特徴を取得する。 In step S1401, the acquisition means 26 acquires the time variation of the acoustic features used to generate the synthetic singing. The acoustic features acquired here are the spectral envelope H (f), the spectral envelope outline G (f), the phase spectral envelope P (f), the temporal fine variation I (f) of the spectral envelope, and the phase spectral envelope. It includes at least one of the temporal microvariation Q (f) and the fundamental frequency F0. The acquisition means 26 acquires these acoustic features from, for example, the short-time spectrum manipulation means 23 that has processed the element pieces identified in step S1400.

ステップS1402において、取得手段26は、歌唱表現の付与に用いられる音響的特徴の時間変化を取得する。ここで取得される音響的特徴は、合成歌唱の生成に用いられるものと同じである。合成歌唱の音響的特徴と歌唱表現の音響的特徴とを区別するときは、合成歌唱の音響的特徴に添字vを、歌唱表現の音響的特徴に添字pを、歌唱表現が付与された合成歌唱に添字vpを、それぞれ付与する。取得手段26は、例えば、ステップS1400において特定された素片に対して処理を行った短時間スペクトル操作手段23からこれらの音響的特徴を取得する。 In step S1402, the acquisition means 26 acquires the time change of the acoustic feature used for imparting the singing expression. The acoustic features acquired here are the same as those used to generate synthetic singing. When distinguishing between the acoustic characteristics of a synthetic singing and the acoustic characteristics of a singing expression, the acoustic characteristics of the synthetic singing are subscript v, the acoustic characteristics of the singing expression are subscript p, and the synthetic singing with the singing expression is added. The subscript bp is added to each. The acquisition means 26 acquires these acoustic features from, for example, the short-time spectrum manipulation means 23 that has processed the element pieces identified in step S1400.

ステップS1403において、取得手段26は、付与される歌唱表現の素片に対して設定された基準時刻を取得する。ここで取得される基準時刻は、既に説明したように、歌唱表現開始時刻、歌唱表現終了時刻、ノートオンセット開始時刻、ノートオフセット開始時刻、ノートオンセット終了時刻、およびノートオフセット終了時刻のうち少なくとも1つを含む。 In step S1403, the acquisition means 26 acquires the reference time set for the element of the singing expression to be given. The reference time acquired here is at least one of the singing expression start time, the singing expression end time, the note-on-set start time, the note offset start time, the note-on-set end time, and the note offset end time, as described above. Includes one.

ステップS1404において、タイミング計算手段21は、歌唱表現の素片に対して記録された基準時刻を利用して、歌唱表現の素片とノート(合成歌唱)とを一致させるタイミング(時間軸上の位置)を計算する。 In step S1404, the timing calculation means 21 uses the reference time recorded for the element piece of the singing expression to match the element piece of the singing expression with the note (synthetic singing) (position on the time axis). ) Is calculated.

ステップS1405において、時間伸縮マッピング手段22は、対象となるノートの時間長と歌唱表現の素片の時間長との関係に応じて、歌唱表現の素片に対し時間伸縮マッピングを施す。 In step S1405, the time expansion / contraction mapping means 22 performs time expansion / contraction mapping on the element piece of the singing expression according to the relationship between the time length of the target note and the time length of the element piece of the singing expression.

ステップS1406において、時間伸縮マッピング手段22は、歌唱音声の基準周波数F0vと、歌唱表現の基準周波数F0pとが一致するように(すなわち両者の音高が一致するように)、歌唱表現の素片の音高をシフトする。 In step S1406, the time expansion / contraction mapping means 22 of the singing expression element piece so that the reference frequency F0v of the singing voice and the reference frequency F0p of the singing expression match (that is, the pitches of both match). Shift the pitch.

ステップS1407において、スペクトル生成手段2401は、各音響的特徴について、合成歌唱および歌唱表現のそれぞれにモーフィング係数を乗算してから加算する。一例として、スペクトル包絡概形G(f)、スペクトル包絡H(f)、およびスペクトル包絡の時間的微細変動I(f)について、
Gvp(f)=(1−aG)Gv(f)+aG・Gp(f) …(1)
Hvp(f)=(1−aH)Hv(f)+aH・Hp(f) …(2)
Ivp(f)=(1−aI)Iv(f)+aI・Ip(f) …(3)
により合成歌唱および歌唱表現をモーフィングする。なお、aG、aH、およびaIは、それぞれ、スペクトル包絡概形G(f)、スペクトル包絡H(f)、およびスペクトル包絡の時間的微細変動I(f)に対するモーフィング係数である。これらはそれぞれ独自に設定されてもよい。
In step S1407, the spectrum generating means 2401 multiplies each of the synthetic singing and the singing expression by a morphing coefficient and then adds each acoustic feature. As an example, regarding the spectral envelope outline G (f), the spectral envelope H (f), and the temporal fine variation I (f) of the spectral envelope.
Gvp (f) = (1-aG) Gv (f) + aG · Gp (f) ... (1)
Hvp (f) = (1-aH) Hv (f) + aH · Hp (f) ... (2)
Ivp (f) = (1-aI) Iv (f) + aI · Ip (f)… (3)
Morphs synthetic singing and singing expressions. Note that aG, aH, and aI are morphing coefficients for the spectral envelope outline G (f), the spectral envelope H (f), and the temporal fine variation I (f) of the spectral envelope, respectively. Each of these may be set independently.

ステップS1408において、スペクトル生成手段2401は、音響的特徴を加算することにより得られたスペクトルを出力する。スペクトルが入力されると、逆フーリエ変換手段2402は、入力されたスペクトルに対し逆フーリエ変換を施し(ステップS1409)、時間領域の波形を出力する。時間領域の波形が入力されると、合成窓適用手段2403は、逆入力された波形に対し所定の窓関数を適用し(ステップS1410)、その結果を出力する。重畳加算手段2404は、窓関数が適用された波形を、重畳加算する(ステップS1411)。この処理をフレーム間隔毎に繰り返すことで長時間の連続的な波形が得られる。 In step S1408, the spectrum generating means 2401 outputs the spectrum obtained by adding the acoustic features. When the spectrum is input, the inverse Fourier transform means 2402 performs an inverse Fourier transform on the input spectrum (step S1409) and outputs a waveform in the time domain. When the waveform in the time domain is input, the composite window application means 2403 applies a predetermined window function to the back-input waveform (step S1410), and outputs the result. The overlap-add method 2404 superimposes and adds the waveform to which the window function is applied (step S1411). By repeating this process at each frame interval, a continuous waveform for a long time can be obtained.

周波数領域で合成する方法は、複数の合成処理を実行せずに済むため計算量を抑制することができるという利点がある。ただし、振幅および位相の微細変動成分をモーフィングするためには、歌唱合成手段(図13では図示略)もこれらの音響特徴量を用いるものでなければならない。 The method of synthesizing in the frequency domain has an advantage that the amount of calculation can be suppressed because it is not necessary to execute a plurality of synthesizing processes. However, in order to morph the fine fluctuation components of amplitude and phase, the singing synthesis means (not shown in FIG. 13) must also use these acoustic features.

図15は、歌唱音声と歌唱表現の素片とを時間領域で合成するための、合成手段24のより詳細な機能構成を例示する図である。この例で、合成手段24は、スペクトル生成手段2411、逆フーリエ変換手段2412、合成窓適用手段2413、重畳加算手段2414、歌唱合成手段2415、乗算手段2416、乗算手段2417、および加算手段2418を有する。 FIG. 15 is a diagram illustrating a more detailed functional configuration of the synthesizing means 24 for synthesizing a singing voice and a piece of a singing expression in the time domain. In this example, the synthesizing means 24 has a spectrum generating means 2411, an inverse Fourier transform means 2412, a synthesizing window application means 2413, an overlay addition means 2414, a singing synthesis means 2415, a multiplication means 2416, a multiplication means 2417, and an addition means 2418. ..

この例で、スペクトル生成手段2411には、合成歌唱のスペクトル包絡H(f)、スペクトル包絡概形G(f)、位相スペクトル包絡P(f)、および基本周波数F0、並びに歌唱表現の素片のスペクトル包絡の時間的微細変動I(f)および位相スペクトル包絡の時間的微細変動Q(f)が入力される。スペクトル生成手段2411は、入力された音響的特徴からスペクトルを得る。 In this example, the spectrum generating means 2411 includes the spectrum envelopment H (f) of the synthetic song, the spectrum envelopment outline G (f), the phase spectrum envelopment P (f), the fundamental frequency F0, and the elementary pieces of the singing expression. The temporal fine variation I (f) of the spectral inclusion and the temporal fine variation Q (f) of the phase spectrum inclusion are input. The spectrum generating means 2411 obtains a spectrum from the input acoustic features.

逆フーリエ変換手段2412は、入力されたスペクトルに対し逆フーリエ変換を施し、時間領域の波形を得る。合成窓適用手段2413は、逆フーリエ変換により得られた波形に対し所定の窓関数を適用する。重畳加算手段2414は、窓関数が適用された波形を、重畳加算する。この処理をフレーム間隔毎に繰り返すことで長時間の連続的な波形が得られる。この波形は、基本周波数が合成歌唱の基本周波数にシフトされた、歌唱表現の素片の波形を示す。 The inverse Fourier transform means 2412 performs an inverse Fourier transform on the input spectrum to obtain a waveform in the time domain. The composite window application means 2413 applies a predetermined window function to the waveform obtained by the inverse Fourier transform. The overlap-add method 2414 superimposes and adds the waveform to which the window function is applied. By repeating this process at each frame interval, a continuous waveform for a long time can be obtained. This waveform shows the waveform of a piece of singing expression in which the fundamental frequency is shifted to the fundamental frequency of synthetic singing.

歌唱合成手段2415には、合成歌唱のスペクトル包絡H(f)、スペクトル包絡概形G(f)、位相スペクトル包絡P(f)、および基本周波数F0が入力される。歌唱合成手段2415は、例えば公知の手法を用いて、これらの音響的特徴から合成歌唱の時間領域の波形を生成する。 The spectrum envelope H (f), the spectrum envelope outline G (f), the phase spectrum envelope P (f), and the fundamental frequency F0 of the synthetic song are input to the singing synthesis means 2415. The singing synthesis means 2415 generates a waveform in the time domain of the synthetic singing from these acoustic features, for example, by using a known technique.

乗算手段2416は、重畳加算手段2414の出力に対し、微細変動成分の適用係数aを乗算する。乗算手段2417は、歌唱合成手段2415の出力に対し、係数(1−a)を乗算する。加算手段2418は、乗算手段2416の出力および乗算手段2417の出力を加算する。 The multiplication means 2416 multiplies the output of the superposition addition means 2414 by the application coefficient a of the fine variation component. The multiplication means 2417 multiplies the output of the singing synthesis means 2415 by a coefficient (1-a). The adding means 2418 adds the output of the multiplying means 2416 and the output of the multiplying means 2417.

時間領域で合成する方法は、微細変動成分については歌唱表現の波形を合成する部分(図15の右半分)のみで扱う。この方法によれば、歌唱合成手段2415は振幅および位相の微細変動成分を用いる方式のものである必要はない。この場合、歌唱合成手段2415において、例えば、SPP(Spectral Peak Processing)(Bonada, Jordi, Alex Loscos, and H. Kenmochi. "Sample-based singing voice synthesizer by spectral concatenation." Proceedings of Stockholm Music Acoustics Conference. 2003.)という手法を用いることができる。SPPでは、時間的微細変動ではなく調波ピーク周辺のスペクトル形状によって声の質感に相当する成分が合成される。このような手法を採用した既存の歌唱合成手段に対し歌唱表現を付加する場合には、時間領域で合成する方法を採用する方が、既存の歌唱合成手段をそのまま使用できる点において簡便である。なお、時間領域で合成する場合、歌唱合成と歌唱表現合成とで位相が異なっていると、波形が互いに打ち消しあったり、うなりが生じたりしてしまう。このような問題が生じないようにするには、位相スペクトル包絡が双方の合成で一致し、かつ周期ごとの音声パルスの基準位置(いわゆるピッチマーク)が一致する必要がある。 In the method of synthesizing in the time domain, the minute fluctuation component is treated only in the part where the waveform of the singing expression is synthesized (right half of FIG. 15). According to this method, the singing synthesis means 2415 does not have to be of a method using minute fluctuation components of amplitude and phase. In this case, in the singing synthesis means 2415, for example, SPP (Spectral Peak Processing) (Bonada, Jordi, Alex Loscos, and H. Kenmochi. "Sample-based singing voice synthesizer by spectral concatenation." Proceedings of Stockholm Music Acoustics Conference. 2003 .) Can be used. In SPP, a component corresponding to the texture of voice is synthesized by the spectral shape around the tonal peak, not by the minute fluctuation with time. When adding a singing expression to an existing singing synthesis means adopting such a method, it is convenient to adopt a method of synthesizing in the time domain in that the existing singing synthesis means can be used as it is. In the case of synthesizing in the time domain, if the phases of the singing composition and the singing expression composition are different, the waveforms cancel each other out or a beat occurs. In order to prevent such a problem from occurring, it is necessary that the phase spectrum envelopes match in both composites and the reference positions (so-called pitch marks) of the voice pulses for each period match.

なお、音声を短時間フーリエ変換などで分析して得られる位相スペクトルの値は一般にθ+n2πすなわち整数nに対して不定性を持っていることから、位相スペクトル包絡のモーフィングには困難を伴う場合がある。位相スペクトル包絡が音の知覚に与える影響は他の音響的特徴成分に比べて小さいので、位相スペクトル包絡は必ずしも補間しなくてもよく、任意の値を与えてもよい。最も簡便かつ自然性の高い位相スペクトル包絡の決定方法は、振幅スペクトル包絡から計算される最小位相を用いる方法である。この場合、図13または図15のH(f)およびG(f)から、まず微細変動成分を除くスペクトル包絡H(f)+G(f)を求め、これに対応する最小位相を求めてP(f)とする。任意の振幅スペクトル包絡に対応する最小位相を計算する方法としては、例えばケプストラムを介する方法(Oppenheim, Alan V., and Ronald W. Schafer. Discrete-time signal processing. Pearson Higher Education, 2010.)を用いることができる。 Since the value of the phase spectrum obtained by analyzing the voice by short-time Fourier transform or the like generally has indefiniteness with respect to θ + n2π, that is, the integer n, morphing the phase spectrum envelope may be difficult. .. Since the influence of the phase spectrum envelopment on the perception of sound is smaller than that of other acoustic feature components, the phase spectrum envelopment does not necessarily have to be interpolated, and an arbitrary value may be given. The simplest and most natural method for determining the phase spectrum envelope is to use the minimum phase calculated from the amplitude spectrum envelope. In this case, the spectrum envelope H (f) + G (f) excluding the fine variation component is first obtained from H (f) and G (f) of FIG. 13 or 15, and the corresponding minimum phase is obtained and P ( f). As a method of calculating the minimum phase corresponding to an arbitrary amplitude spectrum envelope, for example, a method via cepstrum (Oppenheim, Alan V., and Ronald W. Schafer. Discrete-time signal processing. Pearson Higher Education, 2010.) is used. be able to.

2−3.UI部30
2−3−1.機能構成
図16は、UI部30の機能構成を例示する図である。UI部30は、表示手段31、受け付け手段32、および音出力手段33を有する。表示手段31は、UIの画面を表示する。受け付け手段32は、UIを介して操作を受け付ける。音出力手段33は、UIを介して受け付けられた操作に応じて、合成歌唱を出力する。表示手段31により表示されるUIは、後述するように、例えば、合成歌唱に付与される歌唱表現の合成に用いられる複数のパラメーターの値を同時に変更するための画像オブジェクトを含む。受け付け手段は、この画像オブジェクトに対する操作を受け付ける。
2-3. UI part 30
2-3-1. Functional configuration FIG. 16 is a diagram illustrating the functional configuration of the UI unit 30. The UI unit 30 has a display means 31, a reception means 32, and a sound output means 33. The display means 31 displays the UI screen. The receiving means 32 receives an operation via the UI. The sound output means 33 outputs a synthetic singing according to an operation received via the UI. The UI displayed by the display means 31 includes, for example, an image object for simultaneously changing the values of a plurality of parameters used for synthesizing the singing expression given to the synthetic singing, as will be described later. The receiving means accepts an operation on this image object.

2−3−2.UI例(概要)
図17は、UI部30において用いられるGUIを例示する図である。このGUIは、一実施形態に係る歌唱合成プログラムにおいて使用される。このGUIは、楽譜表示領域511、ウインドウ512、およびウインドウ513を含む。楽譜表示領域511は、歌唱合成に係る楽譜が表示される領域であり、この例ではいわゆるピアノロールに相当する形式で楽譜が表される。楽譜表示領域511内において横軸は時間を、縦軸は音階を、それぞれ表す。この例では、ノート5111〜5115の5つの音符に相当する画像オブジェクトが表示されている。各ノートには、歌詞が割り当てられる。この例では、ノート5111〜5115に対し、「I」、「love」、「you」、「so」、および「much」という歌詞が割り当てられている。ユーザーはピアノロール上をクリックすることにより、楽譜上の任意の位置に新たなノートを追加することができる。楽譜上に設定されたノートに対しては、いわゆるドラッグ&ドロップ等の操作により、ノートの時間軸上の位置、音階、または長さ等の属性を編集することができる。歌詞は、あらかじめ一曲分の歌詞が入力され、それが所定のアルゴリズムに従って各ノートに自動的に割り当てられてもよいし、ユーザーが各ノートに手動で歌詞を割り当ててもよい。
2-3-2. UI example (overview)
FIG. 17 is a diagram illustrating a GUI used in the UI unit 30. This GUI is used in the singing synthesis program according to the embodiment. This GUI includes a score display area 511, a window 512, and a window 513. The score display area 511 is an area in which a score related to singing composition is displayed, and in this example, the score is represented in a format corresponding to a so-called piano roll. In the score display area 511, the horizontal axis represents time and the vertical axis represents scale. In this example, image objects corresponding to the five notes of notes 5111-5115 are displayed. Lyrics are assigned to each note. In this example, notes 5111-5115 are assigned the lyrics "I", "love", "you", "so", and "much". The user can add a new note at any position on the score by clicking on the piano roll. For the notes set on the score, attributes such as the position, scale, or length of the notes on the time axis can be edited by operations such as so-called drag and drop. As for the lyrics, the lyrics for one song may be input in advance, and the lyrics may be automatically assigned to each note according to a predetermined algorithm, or the user may manually assign the lyrics to each note.

ウインドウ512およびウインドウ513は、それぞれ、楽譜表示領域511において選択された1以上のノートに対してアタック基準の歌唱表現およびリリース基準の歌唱表現を付与するための操作子を示す画像オブジェクトが表示される領域である。楽譜表示領域511におけるノートの選択は所定の操作(例えば、マウスの左ボタンクリック)により行われる。 Window 512 and window 513 display image objects showing controls for assigning an attack-based singing expression and a release-based singing expression to one or more notes selected in the score display area 511, respectively. The area. The note selection in the score display area 511 is performed by a predetermined operation (for example, left button click of the mouse).

2−3−3.UI例(歌唱表現の選択)
図18は、歌唱表現を選択するUIを例示する図である。このUIは、ポップアップウインドウを用いる。歌唱表現を付与したいノートに対してユーザーが所定の操作(例えば、マウスの右ボタンクリック)を行うと、ポップアップウインドウ514が表示される。ポップアップウインドウ514は、木構造に組織化された歌唱表現のうち第1階層を選択するためのウインドウであり、複数の選択肢の表示を含む。ポップアップウインドウ514に含まれる複数の選択肢のうち位一の選択肢に対しユーザーが所定の操作(例えば、マウスの左ボタンクリック)を行うと、ポップアップウインドウ515が表示される。ポップアップウインドウ515は、組織化された歌唱表現の第2階層を選択するためのウインドウである。ポップアップウインドウ515に対しユーザーが一の選択肢を選択する操作を行うと、ポップアップウインドウ516が表示される。ポップアップウインドウ516は、組織化された歌唱表現の第3階層を選択するためのウインドウである。UI部30は、図18のUIを介して選択された歌唱表現を特定する情報を合成器20に出力する。こうして、ユーザーは、所望の歌唱表現を組織化された構造の中から選択することができる。
2-3-3. UI example (selection of singing expression)
FIG. 18 is a diagram illustrating a UI for selecting a singing expression. This UI uses a pop-up window. When the user performs a predetermined operation (for example, right-clicking of the mouse) on the note to which the singing expression is to be added, the pop-up window 514 is displayed. The pop-up window 514 is a window for selecting the first layer of the singing expressions organized in a tree structure, and includes display of a plurality of options. When the user performs a predetermined operation (for example, clicking the left mouse button) on the first-ranked option among the plurality of options included in the pop-up window 514, the pop-up window 515 is displayed. The pop-up window 515 is a window for selecting the second layer of the organized singing expression. When the user selects one option for the pop-up window 515, the pop-up window 516 is displayed. The pop-up window 516 is a window for selecting the third layer of the organized singing expression. The UI unit 30 outputs information for identifying the selected singing expression via the UI of FIG. 18 to the synthesizer 20. In this way, the user can select the desired singing expression from among the organized structures.

なお、楽譜表示領域511において、ノート5111の周辺にはアイコン5116およびアイコン5117が表示される。アイコン5116は、アタック基準の歌唱表現の編集を指示するためのアイコン(画像オブジェクトの一例)であり、アイコン5117は、リリース基準の歌唱表現の編集を指示するためのアイコンである。例えば、ユーザーがマウスポインターをアイコン5116に当てた状態でマウスの右ボタンをクリックすると、アタック基準の歌唱表現を選択するためのポップアップウインドウ514が表示される。 In the score display area 511, icons 5116 and 5117 are displayed around the note 5111. The icon 5116 is an icon (an example of an image object) for instructing the editing of the attack-based singing expression, and the icon 5117 is an icon for instructing the editing of the release-based singing expression. For example, when the user clicks the right mouse button with the mouse pointer on the icon 5116, a pop-up window 514 for selecting an attack-based singing expression is displayed.

図19は、歌唱表現を選択するUIの別の例を示す図である。この例では、ウインドウ512において、アタック基準の歌唱表現を選択するための画像オブジェクトが表示される。詳細には、ウインドウ512には、複数のアイコン5121が表示される。各アイコンは、それぞれ歌唱表現を代表するものである。この例ではデータベース10には10種類の歌唱表現が収録されており、ウインドウ512には10種類のアイコン5121が表示されている。ユーザーは、楽譜表示領域511において対象となる1以上のノートを選択した状態で、ウインドウ512のアイコン5121の中から、付与する歌唱表現に対応するアイコンを選択する。リリース基準の歌唱表現についても同様に、ユーザーは、ウインドウ513においてアイコンを選択する。UI部30は、図19のUIを介して選択された歌唱表現を特定する情報を合成器20に出力する。合成器20はこの情報に基づいて歌唱表現が付与された合成歌唱を生成する。UI部30の音出力手段33は、生成された合成歌唱を出力する。 FIG. 19 is a diagram showing another example of a UI for selecting a singing expression. In this example, in window 512, an image object for selecting an attack-based singing expression is displayed. Specifically, a plurality of icons 5121 are displayed in the window 512. Each icon represents a singing expression. In this example, 10 types of singing expressions are recorded in the database 10, and 10 types of icons 5121 are displayed in the window 512. The user selects an icon corresponding to the singing expression to be given from the icons 5121 of the window 512 in a state where one or more target notes are selected in the score display area 511. Similarly, for the release-based singing expression, the user selects an icon in window 513. The UI unit 30 outputs information for identifying the selected singing expression via the UI of FIG. 19 to the synthesizer 20. The synthesizer 20 generates a synthetic singing with a singing expression based on this information. The sound output means 33 of the UI unit 30 outputs the generated synthetic singing.

2−3−4.UI例(歌唱表現のパラメーター入力)
図19の例において、ウインドウ512には、アタック基準の歌唱表現の程度を変化させるためのダイヤル5122の画像オブジェクトが表示される。ダイヤル5122は、合成歌唱に付与される歌唱表現の付与に用いられる複数のパラメーターの値を同時に変更するための単一の操作子の一例である。さらに、ダイヤル5122は、ユーザーの操作に応じて変位する操作子の一例である。この例では、単一のダイヤル5122の操作によって、歌唱表現に係る複数のパラメーターが同時に調整される。リリース基準の歌唱表現の程度も、同様にウインドウ513に表示されるダイヤル5132を介して調整される。歌唱表現に係る複数のパラメーターは、例えば、各音響的特徴のモーフィング係数の最大値である。モーフィング係数の最大値とは、各ノートにおいて時間の経過に伴ってモーフィング係数が変化する際の最大値である。図2の例では、アタック基準の歌唱表現はノートの始期においてモーフィング係数が最大値をとり、リリース基準の歌唱表現はノートの終期においてモーフィング係数が最大値をとっている。UI部30は、ダイヤル5122の基準位置からの回転角に応じてモーフィング係数の最大値を変化させるための情報(例えばテーブル)を有している。
2-3-4. UI example (parameter input of singing expression)
In the example of FIG. 19, the window 512 displays an image object of the dial 5122 for changing the degree of singing expression based on the attack. Dial 5122 is an example of a single operator for simultaneously changing the values of a plurality of parameters used for assigning a singing expression given to synthetic singing. Further, the dial 5122 is an example of an operator that is displaced according to a user operation. In this example, a single dial 5122 is used to simultaneously adjust a plurality of parameters related to the singing expression. The degree of release-based singing expression is also adjusted via dial 5132, which is also displayed in window 513. The plurality of parameters related to the singing expression are, for example, the maximum value of the morphing coefficient of each acoustic feature. The maximum value of the morphing coefficient is the maximum value when the morphing coefficient changes with the passage of time in each note. In the example of FIG. 2, the attack-based singing expression has the maximum morphing coefficient at the beginning of the note, and the release-based singing expression has the maximum morphing coefficient at the end of the note. The UI unit 30 has information (for example, a table) for changing the maximum value of the morphing coefficient according to the rotation angle of the dial 5122 from the reference position.

図20は、ダイヤル5122の回転角とモーフィング係数の最大値とを対応させるテーブルを例示する図である。このテーブルは、各歌唱表現について定義される。複数の音響的特徴(スペクトル包絡H(f)、スペクトル包絡概形G(f)、位相スペクトル包絡P(f)、スペクトル包絡の時間的微細変動I(f)、位相スペクトル包絡の時間的微細変動Q(f)、および基本周波数F0)の各々について、モーフィング係数の最大値がダイヤル5122の回転角と対応付けて定義される。例えば、回転角が30°のとき、スペクトル包絡H(f)のモーフィング係数の最大値はゼロであり、スペクトル包絡概形G(f)のモーフィング係数の最大値は0.3である。この例では回転角の離散的な値に対してのみ各パラメーターの値が定義されているが、テーブルで定義されていない回転角に対しては補間により各パラメーターの値が特定される。 FIG. 20 is a diagram illustrating a table in which the rotation angle of the dial 5122 and the maximum value of the morphing coefficient are associated with each other. This table is defined for each singing expression. Multiple acoustic features (spectral wrapping H (f), spectral wrapping outline G (f), phase spectral wrapping P (f), temporal variability of spectral wrapping I (f), temporal variability of phase spectral wrapping For each of Q (f) and the fundamental frequency F0), the maximum value of the morphing coefficient is defined in association with the rotation angle of the dial 5122. For example, when the angle of rotation is 30 °, the maximum value of the morphing coefficient of the spectrum inclusion H (f) is zero, and the maximum value of the morphing coefficient of the spectrum inclusion outline G (f) is 0.3. In this example, the value of each parameter is defined only for the discrete value of the rotation angle, but the value of each parameter is specified by interpolation for the rotation angle not defined in the table.

UI部30は、ユーザーの操作に応じてダイヤル5122の回転角を検知する。UI部30は、検知した回転角に対応するモーフィング係数の最大値を、図20のテーブルを参照して特定する。UI部30は、特定されたモーフィング係数の最大値を、合成器20に出力する。なお、歌唱表現に係るパラメーターはモーフィング係数の最大値に限定されない。モーフィング係数の増加率または減少率等、他のパラメーターが調整されてもよい。なお、ユーザーは、どの音符のどの歌唱表現部分を編集対象とするかを、楽譜表示領域511上で選択する。このとき、UI部30は、選択された歌唱表現に対応するテーブルを、ダイヤル5122の操作に応じて参照されるテーブルとして設定する。 The UI unit 30 detects the rotation angle of the dial 5122 according to the user's operation. The UI unit 30 specifies the maximum value of the morphing coefficient corresponding to the detected rotation angle with reference to the table of FIG. The UI unit 30 outputs the maximum value of the specified morphing coefficient to the synthesizer 20. The parameters related to the singing expression are not limited to the maximum value of the morphing coefficient. Other parameters may be adjusted, such as the rate of increase or decrease in the morphing coefficient. In addition, the user selects which singing expression portion of which note is to be edited on the score display area 511. At this time, the UI unit 30 sets the table corresponding to the selected singing expression as the table to be referred to in response to the operation of the dial 5122.

図21は、歌唱表現に係るパラメーターを編集するためのUIの別の例を示す図である。この例では、楽譜表示領域511において選択されたノートに対する歌唱表現の音響的特徴に適用されるモーフィング係数の時間変化を示すグラフの形状が編集される。編集の対象となる歌唱表現は、アイコン616により指定される。アイコン611は、アタック基準の歌唱表現においてモーフィング係数が最大値をとる期間の始期を指定するための画像オブジェクトである。アイコン612は、アタック基準の歌唱表現においてモーフィング係数が最大値をとる期間の終期を指定するための画像オブジェクトである。アイコン613は、アタック基準の歌唱表現におけるモーフィング係数の最大値を指定するための画像オブジェクトである。ユーザーは、アイコン611〜613をドラッグ&ドロップ等の操作により移動することにより、モーフィング係数が最大値をとる期間、およびモーフィング係数の最大値を調整することができる。ダイヤル614は、歌唱表現の適用開始からモーフィング係数が最大に達するまでの曲線の形状(モーフィング係数の増加率のプロファイル)を調整するための画像オブジェクトである。ダイヤル614を操作すると、歌唱表現の適用開始からモーフィング係数が最大に達するまでの曲線が、例えば下に凸なプロファイルから線形なプロファイルを経て、上に凸なプロファイルに変化する。ダイヤル615は、モーフィング係数の最大期間の終期から歌唱表現の適用終了までの曲線の形状(モーフィング係数の減少率のプロファイル)を調整するための画像オブジェクトである。ユーザーは、ダイヤル614および615を操作することにより、ノート内の時間経過に伴うモーフィング係数の変化曲線の形状を調整することができる。UI部30は、図21のグラフにより特定されるパラメーターを合成器20に出力する。合成器20は、これらのパラメーターを用いて制御された歌唱表現の素片が加味された合成歌唱を生成する。「パラメーターを用いて制御された歌唱表現の素片が加味された合成歌唱」とは、例えば図14の処理により処理された素片が加算された合成歌唱をいう。既に説明したようにこの加算は時間領域で行われてもよいし周波数領域で行われてもよい。UI部30の音出力手段33は、生成された合成歌唱を出力する。 FIG. 21 is a diagram showing another example of the UI for editing the parameters related to the singing expression. In this example, the shape of the graph showing the time variation of the morphing coefficient applied to the acoustic features of the singing expression for the notes selected in the score display area 511 is edited. The singing expression to be edited is designated by the icon 616. The icon 611 is an image object for designating the start of the period in which the morphing coefficient takes the maximum value in the attack-based singing expression. The icon 612 is an image object for designating the end of the period in which the morphing coefficient takes the maximum value in the attack-based singing expression. The icon 613 is an image object for designating the maximum value of the morphing coefficient in the attack-based singing expression. The user can adjust the period during which the morphing coefficient takes the maximum value and the maximum value of the morphing coefficient by moving the icons 611 to 613 by operations such as drag and drop. The dial 614 is an image object for adjusting the shape of the curve (profile of the rate of increase of the morphing coefficient) from the start of application of the singing expression to the maximum of the morphing coefficient. When the dial 614 is operated, the curve from the start of application of the singing expression to the maximum of the morphing coefficient changes from, for example, a downwardly convex profile to a linear profile and then to an upwardly convex profile. The dial 615 is an image object for adjusting the shape of the curve (profile of the reduction rate of the morphing coefficient) from the end of the maximum period of the morphing coefficient to the end of application of the singing expression. The user can adjust the shape of the change curve of the morphing coefficient with time in the note by operating the dials 614 and 615. The UI unit 30 outputs the parameters specified by the graph of FIG. 21 to the synthesizer 20. The synthesizer 20 generates a synthetic singing to which the elements of the singing expression controlled by using these parameters are added. The “synthetic singing to which the elements of the singing expression controlled by the parameters are added” means, for example, the synthetic singing to which the elements processed by the process of FIG. 14 are added. As described above, this addition may be performed in the time domain or the frequency domain. The sound output means 33 of the UI unit 30 outputs the generated synthetic singing.

3.変形例
本発明は上述の実施携帯に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3. 3. Modifications The present invention is not limited to the above-mentioned mobile phones, and various modifications can be made. Some modifications will be described below. Two or more of the following modifications may be used in combination.

歌唱表現が付与される対象は歌唱音声に限定されず、歌唱を伴わない音声であってもよい。すなわち歌唱表現は音声表現であってもよい。また、音声表現が付与される対象となる音はコンピュータ装置により合成された合成音に限定されず、実際の人間の歌唱音声であってもよい。さらに、歌唱表現が付与される対象は、人間の声を基にしたものではない音であってもよい。 The target to which the singing expression is given is not limited to the singing voice, and may be a voice without singing. That is, the singing expression may be a voice expression. Further, the sound to which the voice expression is given is not limited to the synthetic sound synthesized by the computer device, and may be an actual human singing sound. Further, the object to which the singing expression is given may be a sound that is not based on the human voice.

音声合成装置1の機能構成は実施形態で例示したものに限定されない。実施形態で例示した機能の一部は省略されてもよい。例えば、音声合成装置1は、タイミング計算手段21、時間伸縮マッピング手段22、短時間スペクトル操作手段23のうち少なくとも一部の機能が省略されてもよい。 The functional configuration of the voice synthesizer 1 is not limited to that illustrated in the embodiment. Some of the functions illustrated in the embodiments may be omitted. For example, the speech synthesizer 1 may omit at least some of the functions of the timing calculation means 21, the time expansion / contraction mapping means 22, and the short-time spectrum manipulation means 23.

音声合成装置1のハードウェア構成は実施形態で例示したものに限定されない。要求される機能を実現できるものであれば、音声合成装置1はどのようなハードウェア構成を有していてもよい。例えば、音声合成装置1は、ネットワーク上のサーバ装置と協働するクライアント装置であってもよい。すなわち、音声合成装置1としての機能は、ネットワーク上のサーバ装置およびローカルのクライアント装置に分散されてもよい。 The hardware configuration of the voice synthesizer 1 is not limited to that illustrated in the embodiment. The speech synthesizer 1 may have any hardware configuration as long as it can realize the required functions. For example, the voice synthesizer 1 may be a client device that cooperates with a server device on the network. That is, the function as the voice synthesizer 1 may be distributed to the server device on the network and the local client device.

CPU101等により実行されるプログラムは、光ディスク、磁気ディスク、半導体メモリーなどの記憶媒体により提供されてもよいし、インターネット等の通信回線を介してダウンロードされてもよい。 The program executed by the CPU 101 or the like may be provided by a storage medium such as an optical disk, a magnetic disk, or a semiconductor memory, or may be downloaded via a communication line such as the Internet.

1…音声合成装置、10…データベース、20…合成器、21…タイミング計算手段、22…時間伸縮マッピング手段、23…短時間スペクトル操作手段、24…合成手段、25…特定手段、26…取得手段、30…UI部、31…表示手段、32…受け付け手段、33…音出力手段、101…CPU、102…メモリー、103…ストレージ、104…入出力IF、105…ディスプレイ、106…入力装置、911…楽譜表示領域、912…ウインドウ、913…ウインドウ、2401…スペクトル生成手段、2402…逆フーリエ変換手段、2403…合成窓適用手段、2404…重畳加算手段、2411…スペクトル生成手段、2412…逆フーリエ変換手段、2413…合成窓適用手段、2414…重畳加算手段、2415…歌唱合成手段、2416…乗算手段、2417…乗算手段、2418…加算手段 1 ... Speech synthesizer, 10 ... Database, 20 ... Synthesizer, 21 ... Timing calculation means, 22 ... Time expansion / contraction mapping means, 23 ... Short-time spectrum manipulation means, 24 ... Synthesis means, 25 ... Specific means, 26 ... Acquisition means , 30 ... UI unit, 31 ... Display means, 32 ... Receiving means, 33 ... Sound output means, 101 ... CPU, 102 ... Memory, 103 ... Storage, 104 ... Input / output IF, 105 ... Display, 106 ... Input device, 911 ... Score display area, 912 ... Window, 913 ... Window, 2401 ... Spectral generation means, 2402 ... Inverse Fourier transform means, 2403 ... Synthesis window application means, 2404 ... Overlap-add method, 2411 ... Spectrum generation means, 2412 ... Inverse Fourier transform Means, 2413 ... Composite window application means, 2414 ... Overlap-add method, 2415 ... Singing synthesis means, 2416 ... Multiplication means, 2417 ... Multiplication means, 2418 ... Addition means

Claims (5)

コンピュータ装置により実行される音声合成方法であって、
音声表現が付与されていない合成音に付与する音声表現の素片を取得するステップと、
前記素片を伸張するステップであって、前記素片のうち所定の特徴部分を、当該特徴部分以外の部分とは異なるアルゴリズムで時間軸方向に伸張するステップと、
前記伸張された前記素片の音響的特徴を用いたモーフィングを行うことにより、前記合成音に対し当該素片を加算して、前記音声表現を付与した合成音を生成するステップと
を有し、
モーフィングされる前記音響的特徴は、前記素片の短時間スペクトルを分解して得られる、スペクトル包絡、スペクトル包絡概形、位相スペクトル包絡、スペクトル包絡の時間的微細変動、位相スペクトル包絡の時間的微細変動、及び基本周波数の6成分のうちの1以上の成分であり、
前記音声表現の素片は、複数の音声表現の素片の中から選択された1つの音声表現の素片であり、前記1以上の成分は、選択された音声表現に応じて異なる
音声合成方法。
A speech synthesis method performed by a computer device.
The step of acquiring the element of the voice expression to be given to the synthetic sound to which the voice expression is not given, and
A step of extending the element piece, the step of extending a predetermined feature portion of the element piece in the time axis direction by an algorithm different from that of the portion other than the feature portion.
Wherein by performing the morphing using acoustic features of stretched the segment, by adding the segment to said synthesized sound, possess and generating a synthesized sound imparted with the audio representation,
The morphed acoustic features are obtained by decomposing the short-time spectrum of the element piece, and are obtained by decomposing the short-time spectrum of the element piece. It is one or more of the six components of fluctuation and fundamental frequency.
The voice expression element is one voice expression element selected from a plurality of voice expression elements, and the one or more components are different voice synthesis methods depending on the selected voice expression. ..
前記素片の短時間スペクトルを分解して得られるスペクトル包絡、スペクトル包絡概形、位相スペクトル包絡、スペクトル包絡の時間的微細変動、位相スペクトル包絡の時間的微細変動、及び基本周波数の6成分のうち、スペクトル包絡の成分についてはモーフィングを行わず、モーフィングされる前記音響的特徴は残る5成分のうちの1以上の成分である
請求項1に記載の音声合成方法。
Of the six components of the spectrum entrainment obtained by decomposing the short-time spectrum of the element piece, the spectrum envelopment outline, the phase spectrum encapsulation, the temporal fine variation of the spectral encapsulation, the temporal fine variation of the phase spectrum encapsulation, and the fundamental frequency. The voice synthesis method according to claim 1, wherein the components of the spectrum entrainment are not morphed, and the acoustic feature to be morphed is one or more of the remaining five components.
前記アルゴリズムは、前記特徴部分を、当該特徴部分以外の部分よりも1に近い伸張率で伸張するアルゴリズムである
請求項1又は2に記載の音声合成方法。
The speech synthesis method according to claim 1 or 2 , wherein the algorithm is an algorithm that stretches the feature portion at a stretch rate closer to 1 than a portion other than the feature portion.
前記素片の時間長が前記合成音の時間長よりも短い場合、
前記アルゴリズムは、前記特徴部分以外の部分の少なくとも一部を繰り返すアルゴリズムである
請求項1乃至のいずれか一項に記載の音声合成方法。
When the time length of the element piece is shorter than the time length of the synthetic sound
The speech synthesis method according to any one of claims 1 to 3 , wherein the algorithm is an algorithm that repeats at least a part of a portion other than the feature portion.
前記素片の時間長が前記合成音の時間長よりも長い場合、
前記アルゴリズムは、前記特徴部分以外の部分の少なくとも一部を削除するアルゴリズムである
請求項1乃至のいずれか一項に記載の音声合成方法。
When the time length of the element piece is longer than the time length of the synthetic sound
The speech synthesis method according to any one of claims 1 to 3 , wherein the algorithm is an algorithm for deleting at least a part of a portion other than the feature portion.
JP2016217379A 2016-11-07 2016-11-07 Speech synthesis method Active JP6834370B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016217379A JP6834370B2 (en) 2016-11-07 2016-11-07 Speech synthesis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016217379A JP6834370B2 (en) 2016-11-07 2016-11-07 Speech synthesis method

Publications (2)

Publication Number Publication Date
JP2018077281A JP2018077281A (en) 2018-05-17
JP6834370B2 true JP6834370B2 (en) 2021-02-24

Family

ID=62149017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016217379A Active JP6834370B2 (en) 2016-11-07 2016-11-07 Speech synthesis method

Country Status (1)

Country Link
JP (1) JP6834370B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194098A (en) * 2019-05-29 2020-12-03 ヤマハ株式会社 Estimation model establishment method, estimation model establishment apparatus, program and training data preparation method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091191A (en) * 1996-09-18 1998-04-10 Toshiba Corp Method of voice synthesis
JP2003255977A (en) * 2002-03-04 2003-09-10 Matsushita Electric Ind Co Ltd Phoneme expanding and compressing method
JP3895758B2 (en) * 2004-01-27 2007-03-22 松下電器産業株式会社 Speech synthesizer
JP2006227589A (en) * 2005-01-20 2006-08-31 Matsushita Electric Ind Co Ltd Device and method for speech synthesis
JP5772739B2 (en) * 2012-06-21 2015-09-02 ヤマハ株式会社 Audio processing device
JP6152753B2 (en) * 2013-08-29 2017-06-28 ヤマハ株式会社 Speech synthesis management device
JP6507579B2 (en) * 2014-11-10 2019-05-08 ヤマハ株式会社 Speech synthesis method

Also Published As

Publication number Publication date
JP2018077281A (en) 2018-05-17

Similar Documents

Publication Publication Date Title
JP6791258B2 (en) Speech synthesis method, speech synthesizer and program
JP5958866B2 (en) Spectral envelope and group delay estimation system and speech signal synthesis system for speech analysis and synthesis
US8280738B2 (en) Voice quality conversion apparatus, pitch conversion apparatus, and voice quality conversion method
JP4813796B2 (en) Method, storage medium and computer system for synthesizing signals
JP2002202790A (en) Singing synthesizer
WO2019138871A1 (en) Speech synthesis method, speech synthesis device, and program
Bonada et al. Sample-based singing voice synthesizer by spectral concatenation
JP2010014913A (en) Device and system for conversion of voice quality and for voice generation
WO2020095951A1 (en) Acoustic processing method and acoustic processing system
JP6821970B2 (en) Speech synthesizer and speech synthesizer
JP2018077283A (en) Speech synthesis method
KR100457414B1 (en) Speech synthesis method, speech synthesizer and recording medium
JP2015161774A (en) Sound synthesizing method and sound synthesizing device
JP2002268658A (en) Device, method, and program for analyzing and synthesizing voice
JP6834370B2 (en) Speech synthesis method
JP4844623B2 (en) CHORAL SYNTHESIS DEVICE, CHORAL SYNTHESIS METHOD, AND PROGRAM
JP4490818B2 (en) Synthesis method for stationary acoustic signals
JP6683103B2 (en) Speech synthesis method
JP6822075B2 (en) Speech synthesis method
EP2634769B1 (en) Sound synthesizing apparatus and sound synthesizing method
JP2000010597A (en) Speech transforming device and method therefor
JP3540609B2 (en) Voice conversion device and voice conversion method
JP3294192B2 (en) Voice conversion device and voice conversion method
JP3540160B2 (en) Voice conversion device and voice conversion method
JP2000122699A (en) Voice converter, and voice converting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R151 Written notification of patent or utility model registration

Ref document number: 6834370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350