[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6201205B2 - Speech synthesis apparatus, speech synthesis method, and speech synthesis program - Google Patents

Speech synthesis apparatus, speech synthesis method, and speech synthesis program Download PDF

Info

Publication number
JP6201205B2
JP6201205B2 JP2012263607A JP2012263607A JP6201205B2 JP 6201205 B2 JP6201205 B2 JP 6201205B2 JP 2012263607 A JP2012263607 A JP 2012263607A JP 2012263607 A JP2012263607 A JP 2012263607A JP 6201205 B2 JP6201205 B2 JP 6201205B2
Authority
JP
Japan
Prior art keywords
subband
waveform
speech
sound source
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012263607A
Other languages
Japanese (ja)
Other versions
JP2014109669A (en
Inventor
信行 西澤
信行 西澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012263607A priority Critical patent/JP6201205B2/en
Publication of JP2014109669A publication Critical patent/JP2014109669A/en
Application granted granted Critical
Publication of JP6201205B2 publication Critical patent/JP6201205B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、入力された時系列の音源制御情報およびスペクトル特性情報を基に、音声波形を合成する音声合成装置、音声合成方法および音声合成プログラムに関する。   The present invention relates to a speech synthesizer, a speech synthesis method, and a speech synthesis program that synthesize a speech waveform based on input time-series sound source control information and spectrum characteristic information.

音声合成技術とは、一般にテキストから音声波形を合成する一連の技術の総称であるが、まず、その一要素である、合成したい音声のスペクトル情報および音源情報から、音声波形を合成する処理を説明する。この処理にあたり、合成したい音声のスペクトル情報や音源情報は、予め対応する自然音声等から求めておく。   Speech synthesis technology is a general term for a series of technologies for synthesizing speech waveforms from text. First, we explain the process of synthesizing speech waveforms from the spectrum information and sound source information of the speech that you want to synthesize. To do. In this process, the spectrum information and sound source information of the voice to be synthesized are obtained in advance from the corresponding natural voice or the like.

音声合成波形の合成の方法として代表的なものに、ソース・フィルタモデルに基づく音声合成方法がある。この方式は、まず適当な音源(ソース)波形を生成し、それを適当な特性のフィルタを通過させることで、所望の特徴を有した音声波形を合成する方法である。これは、例えば、音源が声帯振動に伴う声門体積流に、フィルタが声道伝達特性にそれぞれ対応すると考えると、人間の音声生成過程に対応したモデルであるとも言える。   A typical speech synthesis waveform synthesis method is a speech synthesis method based on a source filter model. This method is a method of first synthesizing a speech waveform having a desired characteristic by generating an appropriate sound source (source) waveform and passing it through a filter having an appropriate characteristic. For example, if it is considered that the sound source corresponds to the glottal volume flow accompanying vocal cord vibration and the filter corresponds to the vocal tract transfer characteristics, it can be said that the model corresponds to the human voice generation process.

ただし、音声の波形から観測できるのは、音声波形のスペクトル特性や周期的な音声波形で観測される基本周波数といった最終的な音声波形に対する物理量であり、音声生成過程に関連した特徴との厳密な対応付けは難しい。そのため、実際には、インパルス列や白色雑音といったスペクトル的に白色な音源波形に対して、フィルタにより合成目標となる音声のスペクトル特性を直接的に与えることで、音声波形を合成することが多い。   However, what can be observed from the speech waveform is the physical quantity for the final speech waveform, such as the spectral characteristics of the speech waveform and the fundamental frequency observed in the periodic speech waveform. Matching is difficult. Therefore, in practice, a speech waveform is often synthesized by directly giving a spectral characteristic of speech as a synthesis target by a filter to a spectrally white sound source waveform such as an impulse train or white noise.

なお、音声波形が周期性を有する場合、観測されるスペクトル情報には、その周期性に由来した基本周波数成分およびその調波成分が含まれる。そして、通常、この周期性は、インパルス列等により音源側で表現される。   When the speech waveform has periodicity, the spectrum information to be observed includes a fundamental frequency component and its harmonic component derived from the periodicity. Normally, this periodicity is expressed on the sound source side by an impulse train or the like.

以下、スペクトル情報とは、基本周波数およびその調波成分の影響を除いた、平滑化されたスペクトル情報をいう。この平滑化の方法には、周波数軸上で、調波成分のピーク点のみをつなぐ方法等がある。また、音声波形は短時間的にはほぼ定常と見なせるが、長時間的には時変であるので、通常は、ある一定間隔(例えば1ミリ秒から20ミリ秒程度)毎の特性を考慮し、そのそれぞれの時刻においてはその定常性を仮定する。ここで、各サンプルのスペクトル情報は例えば複数次のメルケプストラム係数や線形予測係数等で表現する。   Hereinafter, the spectrum information refers to smoothed spectrum information excluding the influence of the fundamental frequency and its harmonic components. The smoothing method includes a method of connecting only the peak points of the harmonic components on the frequency axis. In addition, although the sound waveform can be regarded as almost steady in a short time, it is time-varying over a long time. Therefore, in general, a characteristic at every certain interval (for example, about 1 to 20 milliseconds) is considered. The stationarity is assumed at each time. Here, the spectrum information of each sample is expressed by, for example, a multi-order mel cepstrum coefficient or a linear prediction coefficient.

一般に、声帯振動を伴う音声は有声音、伴わない音声は無声音と呼ばれ、有声音では通常、波形の周期性が観測される。ソース・フィルタに基づく音声波形合成では、有声音の音源としてインパルス列のみを、無声音の音源に白色雑音のみを用いる方法がしばしば用いられている。この方法でも合成音声の言語的な了解度の点では問題ないことが多いが、実際の有声音には雑音的成分も含まれており、その自然性が低下するという問題が生じていた。   In general, voice with vocal cord vibration is called voiced sound, and voice without voice is called unvoiced sound. In voiced sound, waveform periodicity is usually observed. In speech waveform synthesis based on a source filter, a method is often used in which only an impulse train is used as a voiced sound source and only white noise is used as an unvoiced sound source. Although this method often has no problem in terms of linguistic intelligibility of synthesized speech, the actual voiced sound also includes a noisy component, resulting in a problem that its naturalness is lowered.

そこで、インパルス列と白色雑音を同時に生成し、それを組み合わせた波形を音源波形とすることで、合成音声の自然性を改善する方法が開発されている。しかし通常、最適なインパルスと雑音のパワー比が各周波数帯域で一定ではなく、それは合成対象の音声の種類ごとに異なる。そこで、フィルタバンク等を用いて、インパルスと白色雑音の振幅特性を周波数帯域(サブバンド)毎に変える必要がある。   Therefore, a method has been developed that improves the naturalness of synthesized speech by simultaneously generating an impulse train and white noise and using the combined waveform as a sound source waveform. However, usually, the optimum impulse to noise power ratio is not constant in each frequency band, and it differs depending on the type of speech to be synthesized. Therefore, it is necessary to change the amplitude characteristics of the impulse and white noise for each frequency band (subband) using a filter bank or the like.

この際、従来のソース・フィルタモデルとの対応を考え、各音源を足し合わせた結果が白色になるように制御する方法がしばしば用いられる。以下、このような音源をマルチバンド混合励振源と呼ぶ。サブバンド毎の混合比は、時間変化させなくてもある程度の自然性が得られると考えられるが、スペクトル情報同様に時間変化させた方が、より自然性の高い音声を合成することができる。   At this time, considering the correspondence with the conventional source / filter model, a method of controlling so that the result of adding the sound sources to white is often used. Hereinafter, such a sound source is referred to as a multiband mixed excitation source. Although it is considered that a certain degree of naturalness can be obtained without changing the mixing ratio for each subband, it is possible to synthesize speech with higher naturalness by changing the time as in the spectral information.

よって、音声合成には、時間軸上である間隔毎の、音声のスペクトル情報、有声・無声情報、有声についての基本周波数の情報、およびマルチバンド混合励振源を用いてかつその特性を動的に変化させる場合における各サブバンドの混合比の情報が必要となる。なお、以下で説明される音声合成の形態では、説明の便宜上、音源のパワーは常に一定とし、合成音声のパワーはスペクトル特性に含めて制御されるものとする。   Therefore, for speech synthesis, speech spectral information, voiced / unvoiced information, fundamental frequency information about voiced, and multiband mixed excitation sources are used for each interval on the time axis, and the characteristics are dynamically changed. Information on the mixing ratio of each subband in the case of changing is required. In the form of speech synthesis described below, for convenience of explanation, it is assumed that the power of the sound source is always constant and the power of the synthesized speech is controlled by being included in the spectrum characteristics.

今井聖、住田一男、古市千枝子、「音声合成のためのメル対数スペクトル近似(MLSA)フィルタ」、電子情報通信学会論文誌(A)、 J66-A、 2、 Feb.1983、 pp.122-129Sei Imai, Kazuo Sumita, Chieko Furuichi, "Mel Log Spectrum Approximation (MLSA) Filter for Speech Synthesis", IEICE Transactions (A), J66-A, 2, Feb.1983, pp.122-129

上記のような従来技術ではソース・フィルタモデルのフィルタに、MLSA(メル対数スペクトル近似)フィルタ等の比較的演算量の大きいフィルタが用いられている(非特許文献1参照)。MLSAフィルタは、z変換領域における指数関数を、z変換領域上でパデ近似により直接有理式近似することで、目標特性を近似的に実現する回路を構成する手法が用いられている。そして、メルケプストラム係数をほぼそのままフィルタ係数とできる、といった利点があるが、波形1サンプル当たりの積和演算回数が、およそフィルタの次数とパデ近似の次数の積となり、計算量が比較的大きい。   In the prior art as described above, a filter having a relatively large calculation amount such as an MLSA (Mel logarithmic spectrum approximation) filter is used as a filter of the source filter model (see Non-Patent Document 1). The MLSA filter employs a technique of constructing a circuit that approximately realizes a target characteristic by directly approximating an exponential function in a z-transform region by a rational approximation on the z-transform region by Padé approximation. Although there is an advantage that the mel cepstrum coefficient can be used as it is as a filter coefficient, the number of product-sum operations per sample of the waveform is approximately the product of the order of the filter and the order of the Padé approximation, and the amount of calculation is relatively large.

例えば合成音声品質上は、16kHzサンプリング時に30〜40次のメルケプストラムを用いる必要があるが、その場合、指数関数を必要な精度で近似するためには4次または5次のパデ近似が必要、つまり1サンプル当たり150〜200回程度の積和演算が必要である。   For example, in terms of synthesized speech quality, it is necessary to use a 30-40th order mel cepstrum at the time of 16 kHz sampling. In that case, in order to approximate the exponential function with the required accuracy, a fourth order or fifth order Padé approximation is required. That is, a product-sum operation is required about 150 to 200 times per sample.

さらにマルチバンド混合励振を行なう場合、指定の混合比となるように、インパルス列と白色雑音のそれぞれにフィルタを掛ける必要があるため、それぞれのフィルタ処理の分、さらに計算量が増える。このため、携帯端末等の計算処理性能が限られた環境では、比較的高次のフィルタを用いた音声合成処理や、混合励振を行なうことが難しい。   Further, when performing multi-band mixing excitation, it is necessary to filter the impulse train and the white noise so that the specified mixing ratio is obtained, so that the amount of calculation further increases for each filtering process. For this reason, it is difficult to perform speech synthesis processing using a higher-order filter or mixed excitation in an environment where the calculation processing performance of a mobile terminal or the like is limited.

これを解決するため、インパルス列や白色雑音列の音源波形に対して、疑似直交鏡像フィルタバンク等に基づき、サンプルレート削減を包含したサブバンド符号化を行なう方法が考えられる。その方法では、サブバンド符号化領域で各帯域要素の振幅調整を行なってから、復号処理し、音声波形を合成する。   In order to solve this problem, a method of performing subband encoding including sample rate reduction on a sound source waveform of an impulse train or a white noise train based on a quasi-orthogonal mirror image filter bank or the like can be considered. In this method, after adjusting the amplitude of each band element in the subband coding region, decoding processing is performed to synthesize a speech waveform.

上記の方法では、高速コサイン変換等を用いたフィルタバング処理を用いることで、サンプル当たりの処理量をサブバンド数に対して対数オーダとすることができる。従来のフィルタに基づく方法では、サンプル当たりの処理量がフィルタ次数に対して線形オーダとなるため、設定条件によっては、従来手法よりも処理量を減らすことが可能である。   In the above method, the processing amount per sample can be made logarithmic order with respect to the number of subbands by using the filter bang processing using high-speed cosine transform or the like. In the conventional filter-based method, the processing amount per sample is in a linear order with respect to the filter order, so that the processing amount can be reduced as compared with the conventional method depending on setting conditions.

さらに、全ての信号処理が線形な処理である場合に、サブバンド符号領域で事前符号化された白色雑音やインパルス列を組み合わせる方法が考えられる。この方法を用いた場合、音声合成時のサブバンド符号化処理が不要になるため、処理量をさらに削減することができる。   Further, when all signal processing is linear processing, a method of combining white noise or impulse train pre-encoded in the subband code region is conceivable. When this method is used, the processing amount can be further reduced because the subband encoding processing at the time of speech synthesis becomes unnecessary.

これに対し、インパルス列や白色雑音列といった白色な音源波形に対して、疑似直交鏡像フィルタバンク等に基づき、サンプルレート削減を包含したサブバンド符号化を行なうことが考えられる。その場合には、サブバンド符号化領域で各帯域要素の振幅調整を行なってから、復号処理を行うことで音声波形を合成できる。   On the other hand, it is conceivable to perform subband encoding including sample rate reduction on a white sound source waveform such as an impulse train or a white noise train based on a pseudo orthogonal mirror image filter bank or the like. In that case, the speech waveform can be synthesized by performing the decoding process after adjusting the amplitude of each band element in the subband coding region.

この方法では、高速コサイン変換等を用いたフィルタバング処理を用いることで、サンプル当たりの処理量をサブバンド数に対して対数オーダとすることができる。従来のフィルタに基づく方法は、フィルタ次数に対して線形オーダとなるため、設定条件により、従来手法よりも処理量を減らすことが可能である。さらに、全ての信号処理が線形な処理である場合に、サブバンド符号領域で事前符号化された白色雑音やインパルス列を組み合わせる方法が示されている。この方法を用いた場合、音声合成時のサブバンド符号化処理が不要になるため、処理量をさらに削減することができる。   In this method, the processing amount per sample can be made logarithmic order with respect to the number of subbands by using a filter bang process using a high-speed cosine transform or the like. Since the conventional filter-based method has a linear order with respect to the filter order, the processing amount can be reduced as compared with the conventional method depending on setting conditions. Further, there is shown a method of combining white noise or impulse train pre-encoded in the subband code region when all signal processing is linear processing. When this method is used, the processing amount can be further reduced because the subband encoding processing at the time of speech synthesis becomes unnecessary.

しかし、この方法では、音声スペクトル特徴生成において、その周波数軸方向の解像度がサブバンド符号化におけるサブバンド数で決まる。所望のスペクトル特徴からの誤差を抑えた音声を合成するためには、サブバンド数を大きく設定しなければならないが、サブバンド数を増やすと処理量も増える。この処理量の増加はフレーム周期を長くすることで抑えられるものの、一方でフレーム周期を長くするとスペクトル特徴変化の時間軸方向への解像度が不足し、品質が損なわれる。   However, in this method, the resolution in the frequency axis direction is determined by the number of subbands in subband coding in generating the speech spectrum feature. In order to synthesize speech in which an error from a desired spectral feature is suppressed, the number of subbands must be set large, but the processing amount increases as the number of subbands increases. Although this increase in the amount of processing can be suppressed by increasing the frame period, on the other hand, if the frame period is increased, the resolution in the time axis direction of the spectrum feature change is insufficient and the quality is impaired.

また、疑似直交鏡像フィルタバンクでは、ダウンサンプリングに伴うエイリアスをアップサンプリングによるエイリアスで打ち消す構成が可能であり、サブバンド符号化ではこのような構成が通常用いられる。しかし、スペクトル特性の合成のために各サブバンドの振幅係数を独立に変えると、このエイリアスを互いに打ち消し合う処理が崩れ、エイリアスに起因するノイズが生じる。   Further, in the quasi-orthogonal mirror image filter bank, it is possible to cancel the alias associated with downsampling with the alias due to upsampling, and such a configuration is usually used in subband coding. However, if the amplitude coefficient of each subband is changed independently for the synthesis of the spectral characteristics, the process of canceling out aliases is lost, and noise due to the aliases occurs.

このようなエイリアスを生じさせないようにするため、ダウンサンプリングを通常のサブバンド符号化の半分に制限する方法が考えられる。しかし、その結果、処理量が倍になることに加え、エイリアスを生じさせる周波数を挟んで隣り合う2つのサブバンドの振幅調整係数を等しく設定する必要があるため、結果として周波数解像度もサブバンド分割数の約半分となってしまう。   In order to prevent such an alias from occurring, a method of limiting downsampling to half of normal subband coding can be considered. However, as a result, in addition to doubling the amount of processing, it is necessary to set the amplitude adjustment coefficient of two adjacent subbands equal to each other across the frequency that causes aliasing. It will be about half of the number.

本発明は、このような事情に鑑みてなされたものであり、音声合成における周波数解像度および時間解像度を高めつつ、処理量を低減することができる音声合成装置、音声合成方法および音声合成プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and provides a speech synthesis apparatus, a speech synthesis method, and a speech synthesis program capable of reducing the processing amount while increasing the frequency resolution and time resolution in speech synthesis. The purpose is to do.

(1)上記の目的を達成するため、本発明の音声合成装置は、入力された時系列の音源制御情報およびスペクトル特性情報を基に、音声波形を合成する音声合成装置であって、音源波形を複数の周波数帯域の成分に分解する成分分解部と、前記分解された成分をそれぞれサブバンド符号化するサブバンド符号化部と、前記サブバンド符号化された成分で構成されるサブバンド符号化波形ベクトルに対して、前記分解成分について重み付き和を算出する重み付き和算出部と、前記重み付き和を算出されたサブバンド符号化波形ベクトルを復号し、単一の音声波形に合成するサブバンド復号部と、を備えることを特徴としている。   (1) In order to achieve the above object, a speech synthesizer according to the present invention is a speech synthesizer that synthesizes speech waveforms based on input time-series sound source control information and spectrum characteristic information. A component decomposition unit that decomposes the component into a plurality of frequency band components, a subband encoding unit that performs subband encoding on each of the decomposed components, and subband encoding that includes the subband encoded components. A weighted sum calculation unit that calculates a weighted sum for the decomposition component with respect to the waveform vector, and a subband encoded waveform vector for which the weighted sum has been calculated is decoded and combined into a single speech waveform. And a band decoding unit.

これにより、スペクトル特性の合成のために各サブバンドの振幅係数を独立に変える構成においてもエイリアスに起因するノイズを防止するための設定や処理が不要となり、処理量を低減できる。また、成分分解に伴うサブバンド符号化波形ベクトルの重み付き和算出処理の分、処理量が増加するが、サブバンド符号化した際にサブバンド符号化波形ベクトルに0となる要素を多く含むように音源波形を分解し、それらをサブバンド符号上で組み合わせて音声波形を構成することで、サブバンド符号上での重み付き和の計算処理において、実際の積和演算処理の多くを省くことができる。   As a result, even in a configuration in which the amplitude coefficient of each subband is changed independently for the synthesis of spectral characteristics, setting and processing for preventing noise caused by aliases are not required, and the processing amount can be reduced. In addition, the processing amount increases by the weighted sum calculation processing of the subband encoded waveform vector accompanying the component decomposition, but the subband encoded waveform vector includes many elements that become 0 when subband encoding is performed. By disassembling the sound source waveform and combining them on the subband code to compose the speech waveform, it is possible to omit much of the actual product-sum operation process in the weighted sum calculation process on the subband code. it can.

また、音源波形の分解の方法は、サブバンド符号化とは別に任意に定めることができるので、音源波形をより細かく分解することで、合成する音声波形の周波数解像度を高めることができる。これにより、サブバンド符号化におけるサブバンド数を増やした際の処理量増加や時間解像度低下の問題を避けることができる。このようにして、携帯端末等の計算処理性能が限られた環境でも、十分な音声合成処理を可能となる。   Further, since the method for decomposing the sound source waveform can be arbitrarily determined separately from the subband coding, the frequency resolution of the synthesized speech waveform can be increased by further decomposing the sound source waveform. As a result, it is possible to avoid problems such as an increase in processing amount and a decrease in time resolution when the number of subbands in subband encoding is increased. In this manner, sufficient speech synthesis processing can be performed even in an environment where the calculation processing performance of a portable terminal or the like is limited.

(2)また、本発明の音声合成装置は、前記成分分解部が、帯域通過フィルタの集合で構成され、前記分解された成分の和により前記音源波形を近似的に再現できるように前記音源波形を成分分解することを特徴としている。このように、分解された成分ごとにサブバンド符号化して、サブバンド符号化波形ベクトルの重み付き和を算出する処理を行なうことでスペクトル情報に対応した音声を再現できる。   (2) Further, in the speech synthesizer according to the present invention, the component decomposition unit is configured by a set of bandpass filters, and the sound source waveform can be approximately reproduced by the sum of the decomposed components. Is characterized by component decomposition. In this way, by performing subband coding for each decomposed component and calculating a weighted sum of subband encoded waveform vectors, it is possible to reproduce speech corresponding to the spectrum information.

(3)また、本発明の音声合成装置は、前記成分分解部が、前記音源波形として、インパルス列および白色雑音の2種類の音源波形を用い、前記重み付き和算出部は、入力されたスペクトル特性情報に基づくインパルス列と白色雑音との混合比で、前記2種類の音源波形に基づくサブバンド符号化波形ベクトルの重み付き和を求めることを特徴としている。これにより、インパルス列と白色雑音を音源波形とし、音声の種類ごとに異なる最適なインパルスと雑音のパワー比で音声合成することで合成音声の自然性を改善できる。   (3) In the speech synthesizer of the present invention, the component decomposition unit uses two types of sound source waveforms of an impulse train and white noise as the sound source waveform, and the weighted sum calculation unit receives the input spectrum. It is characterized in that a weighted sum of subband encoded waveform vectors based on the two types of sound source waveforms is obtained by a mixing ratio between an impulse train based on characteristic information and white noise. Thereby, the naturalness of the synthesized speech can be improved by using the impulse train and white noise as the sound source waveform and synthesizing the speech with the optimum impulse to noise power ratio that differs for each type of speech.

(4)また、本発明の音声合成装置は、前記成分分解部が、前記サブバンド符号化および復号を行なう対象の周波数帯域と同じ幅で、前記音源波形を成分分解することを特徴としている。これにより、事前の成分分解が無い方法に比べて、3/4程度の処理量で同等の周波数および時間の解像度を得られる。   (4) Further, the speech synthesizer of the present invention is characterized in that the component decomposition unit decomposes the sound source waveform into components having the same width as a frequency band to be subjected to the subband encoding and decoding. Thereby, compared with the method without prior component decomposition, the same frequency and time resolution can be obtained with a processing amount of about 3/4.

(5)また、本発明の音声合成方法は、入力された時系列の音源制御情報およびスペクトル特性情報を基に、音声波形を合成する音声合成方法であって、音源波形を複数の周波数帯域の成分に分解するステップと、前記分解された成分をそれぞれサブバンド符号化するステップと、前記サブバンド符号化された成分で構成されるサブバンド符号化波形ベクトルに対して、前記分解成分について重み付き和を算出するステップと、前記重み付き和を算出されたサブバンド符号化波形ベクトルを、復号し、単一の音声波形に合成するステップと、を含むことを特徴としている。これにより、音声合成における周波数解像度および時間解像度を高めつつ、処理量を低減することができる。   (5) The speech synthesis method of the present invention is a speech synthesis method for synthesizing speech waveforms based on input time-series sound source control information and spectrum characteristic information. A step of subdividing into components, a step of subband encoding each of the decomposed components, and a weighting of the decomposed components with respect to a subband encoded waveform vector composed of the subband encoded components A step of calculating a sum; and a step of decoding the subband encoded waveform vector for which the weighted sum has been calculated and synthesizing it into a single speech waveform. Thereby, the processing amount can be reduced while increasing the frequency resolution and time resolution in speech synthesis.

(6)また、本発明の音声合成プログラムは、入力された時系列の音源制御情報およびスペクトル特性情報を基に、音声波形を合成する音声合成プログラムであって、音源波形を複数の周波数帯域の成分に分解する処理と、前記分解された成分をそれぞれサブバンド符号化する処理と、前記サブバンド符号化された成分で構成されるサブバンド符号化波形ベクトルに対して、前記分解成分について重み付き和を算出する処理と、前記重み付き和を算出されたサブバンド符号化波形ベクトルを復号し、単一の音声波形に合成する処理と、をコンピュータに実行させることを特徴としている。これにより、音声合成における周波数解像度および時間解像度を高めつつ、処理量を低減することができる。   (6) The speech synthesis program of the present invention is a speech synthesis program for synthesizing speech waveforms based on input time-series sound source control information and spectrum characteristic information, and the sound source waveforms are divided into a plurality of frequency bands. A process of decomposing into components, a process of subband encoding each of the decomposed components, and a weighting of the decomposed components with respect to a subband encoded waveform vector composed of the subband encoded components It is characterized by causing a computer to execute a process of calculating a sum and a process of decoding a subband encoded waveform vector for which the weighted sum has been calculated and synthesizing it into a single speech waveform. Thereby, the processing amount can be reduced while increasing the frequency resolution and time resolution in speech synthesis.

本発明によれば、音声合成における周波数解像度および時間解像度を高めつつ、処理量を低減することができる。その結果、携帯端末等の計算処理性能が限られた環境でも、十分な音声合成処理を可能となる。   According to the present invention, it is possible to reduce the processing amount while increasing the frequency resolution and time resolution in speech synthesis. As a result, it is possible to perform sufficient speech synthesis processing even in an environment where the calculation processing performance of a portable terminal or the like is limited.

基礎となる実施形態に係る音声合成装置の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the speech synthesizer which concerns on embodiment which becomes foundations. 基礎となる実施形態に係る音声合成装置の具体的構成を示すブロック図である。It is a block diagram which shows the specific structure of the speech synthesizer which concerns on embodiment which becomes fundamental. サブバンド符号化部の実際の回路構成を示すブロック図である。It is a block diagram which shows the actual circuit structure of a subband encoding part. サブバンド符号化部の理論的な構成を示すブロック図である。It is a block diagram which shows the theoretical structure of a subband encoding part. サブバンド復号部の実際の回路構成を示すブロック図である。It is a block diagram which shows the actual circuit structure of a subband decoding part. サブバンド復号部の理論的な構成を示すブロック図である。It is a block diagram which shows the theoretical structure of a subband decoding part. 帯域分割フィルタバンクについて周波数に対する振幅特性を示すグラフである。It is a graph which shows the amplitude characteristic with respect to a frequency about a band division | segmentation filter bank. 第1の実施形態に係る音声合成装置の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the speech synthesizer which concerns on 1st Embodiment. 第1の実施形態に係る音声合成装置の具体的構成を示すブロック図である。It is a block diagram which shows the specific structure of the speech synthesizer which concerns on 1st Embodiment. 第1の実施形態に係る音声合成装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the speech synthesizer which concerns on 1st Embodiment. 第1の実施形態に係る音声合成装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the speech synthesizer which concerns on 1st Embodiment.

次に、本発明の実施形態について、図面を参照しながら説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては同一の参照番号を付し、重複する説明は省略する。   Next, embodiments of the present invention will be described with reference to the drawings. In order to facilitate understanding of the description, the same reference numerals are given to the same components in the respective drawings, and duplicate descriptions are omitted.

[基礎となる実施形態]
(音声合成装置の構成)
図1は、音声合成装置100の基本構成を示すブロック図であり、図2は、音声合成装置100の具体的構成を示すブロック図である。音声合成装置100は、音源波形をサブバンド符号化部110によりサブバンド符号化して蓄積し、入力情報に応じてサブバンド毎に振幅を調整する。そして、振幅を調整されたサブバンド符号化波形ベクトルを用いてサブバンド復号部140により合成し、目標となるスペクトル特性を近似的に有する音声波形を合成する。
[Basic embodiment]
(Configuration of speech synthesizer)
FIG. 1 is a block diagram showing a basic configuration of the speech synthesizer 100, and FIG. 2 is a block diagram showing a specific configuration of the speech synthesizer 100. The speech synthesizer 100 sub-band encodes and accumulates the sound source waveform by the sub-band encoding unit 110 and adjusts the amplitude for each sub-band according to the input information. Then, the subband decoding unit 140 synthesizes using the subband encoded waveform vector whose amplitude is adjusted, and synthesizes a speech waveform that approximately has a target spectral characteristic.

音声合成装置100は、入力された時系列の音源制御情報およびスペクトル特性情報を基に、音声波形を合成する。本実施形態において、音源制御情報とは基本周波数である。図1に示すように、音声合成装置100は、サブバンド符号化部110、サブバンド符号化音源生成部120、サブバンドパワー調整部130およびサブバンド復号部140を備えている。   The speech synthesizer 100 synthesizes a speech waveform based on the input time-series sound source control information and spectrum characteristic information. In the present embodiment, the sound source control information is a fundamental frequency. As shown in FIG. 1, speech synthesis apparatus 100 includes subband encoding section 110, subband encoded excitation generating section 120, subband power adjustment section 130, and subband decoding section 140.

サブバンド符号化部110は、音源波形を複数の周波数帯域に分割し、音源波形の分割によりベクトル系列を生成する。サブバンド符号化部110は、等時間間隔内のベクトル系列からベクトルを間引き、音源として蓄積をするためのサブバンド符号化波形ベクトルを生成することが好ましい。   The subband encoding unit 110 divides the excitation waveform into a plurality of frequency bands, and generates a vector sequence by dividing the excitation waveform. The subband encoding unit 110 preferably generates a subband encoded waveform vector for thinning out a vector from a vector sequence within an equal time interval and storing it as a sound source.

なお、サブバンド符号化部110は、例えば分析フィルタバンクE(z)〜EM−1(z)およびダウンサンプラD↓により構成される。分析フィルタバンクE(z)〜EM−1(z)は、M個の周波数帯域に等分割するフィルタバンクで構成される。ダウンサンプラD↓は、サブバンド符号化後のM次元のベクトル系列に対し、等時間間隔でD(ただしD≦Mとする)サンプルのベクトル系列から(D−1)のベクトルを間引いて1つのベクトルのみを残す処理を行なう。このような間引き処理により、事前蓄積のサイズと、合成フィルタバンクの処理量をそれぞれ削減できる。 Note that the subband encoding unit 110 includes, for example, analysis filter banks E 0 (z) to E M-1 (z) and a downsampler D ↓. The analysis filter banks E 0 (z) to E M-1 (z) are configured by filter banks that are equally divided into M frequency bands. The downsampler D ↓ subtracts the vector of (D-1) from the vector sequence of D samples (provided that D ≦ M) at equal time intervals with respect to the M-dimensional vector sequence after subband coding. The process of leaving only the vector is performed. Such thinning-out processing can reduce the pre-accumulation size and the processing amount of the synthesis filter bank.

サブバンド符号化音源生成部120は、音源波形を複数の周波数帯域に分割して蓄積されたサブバンド符号化波形ベクトルに基づいて、入力された音源制御情報に対応するサブバンド符号化波形ベクトルを生成する。その際には、蓄積されたサブバンド符号化波形ベクトルのうち複数のサブバンド符号化波形ベクトルを組み合わせて、入力された音源制御情報に対応するサブバンド符号化波形ベクトルを生成する。   The subband encoded excitation generation unit 120 divides the subband encoded waveform vector corresponding to the input excitation control information based on the subband encoded waveform vector accumulated by dividing the excitation waveform into a plurality of frequency bands. Generate. At that time, a plurality of subband encoded waveform vectors among the accumulated subband encoded waveform vectors are combined to generate a subband encoded waveform vector corresponding to the input excitation control information.

サブバンド符号化音源生成部120は、さらに蓄積部121および選択部122を備えている。蓄積部121は、事前に生成した、比較的短時間の音源波形(音源波形素片)をサブバンド符号化した結果としてのベクトルを格納する。このベクトルは、サブバンド符号化によるサブバンド分割数と同じ次元数のベクトルであり、これをサブバンド符号化波形ベクトルという。   The subband coded excitation generation unit 120 further includes an accumulation unit 121 and a selection unit 122. The accumulating unit 121 stores a vector generated as a result of sub-band coding of a relatively short time excitation waveform (sound source waveform segment) generated in advance. This vector is a vector having the same number of dimensions as the number of subband divisions by subband encoding, and this is called a subband encoded waveform vector.

選択部122は、入力された基本周波数の情報に基づき、事前蓄積されたサブバンド符号化波形ベクトルを選択する。このようにして、サブバンド符号化音源生成部120は、選択されたサブバンド符号化波形ベクトルを用いて、または、複数種類のサブバンド符号化波形ベクトルをサブバンド符号化波形ベクトルとして構成して、サブバンド符号化された音源波形ベクトルを出力する。なお、上記の蓄積までは事前処理として予め行ない、それ以降の処理は入力情報があったときに行なう。   The selection unit 122 selects a pre-stored subband encoded waveform vector based on the input fundamental frequency information. In this way, the subband encoded excitation generator 120 uses the selected subband encoded waveform vector or configures a plurality of types of subband encoded waveform vectors as subband encoded waveform vectors. Then, a subband-encoded excitation waveform vector is output. Note that the above accumulation is performed in advance as pre-processing, and the subsequent processing is performed when there is input information.

サブバンドパワー調整部130は、生成されたサブバンド符号化波形ベクトルに対して、入力されたスペクトル特性情報に応じたサブバンド毎の振幅調整を行なう。サブバンドパワー調整部130には、各サブバンドのパワーを制御するための乗算回路を設けている。サブバンドパワー調整部130は、入力されるスペクトル特徴情報に基づき、サブバンド毎にこの係数A〜AM−1を調整する。その結果、目標音声のスペクトル特性を再現する。なお、入力となるスペクトル情報は、直接的に各サブバンドのパワー情報で構成してもよいが、例えばメルケプストラム係数を入力とし、内部的に各サブバンドのパワー情報を計算し、その結果を用いてもよい。 The subband power adjustment unit 130 performs amplitude adjustment for each subband according to the input spectral characteristic information with respect to the generated subband encoded waveform vector. The subband power adjustment unit 130 is provided with a multiplier circuit for controlling the power of each subband. The subband power adjustment unit 130 adjusts the coefficients A 0 to A M−1 for each subband based on the input spectral feature information. As a result, the spectral characteristics of the target speech are reproduced. The spectrum information to be input may be configured directly with the power information of each subband. For example, the mel cepstrum coefficient is input, the power information of each subband is calculated internally, and the result is calculated. It may be used.

サブバンド復号部140は、振幅調整がなされたサブバンド符号化波形ベクトルを単一の音声波形に合成する。すなわち、サブバンド符号化波形を合成し、最終的な合成音声波形を生成する。サブバンド復号部140は、例えばアップサンプラD↑および合成フィルタバンクR(z)〜RM−1(z)により構成される。アップサンプラD↑は、振幅調整がなされたサブバンド符号化波形ベクトルに対し、帯域分割信号間にゼロ値サンプルを挿入し、D倍のアップサンプリングを行なう。合成フィルタバンクR(z)〜RM−1(z)は、M個の周波数帯域に分割されたサブバンド符号化波形ベクトルを単一の音声波形に合成する。 The subband decoding unit 140 synthesizes the subband encoded waveform vector whose amplitude has been adjusted into a single speech waveform. That is, the sub-band encoded waveform is synthesized and a final synthesized speech waveform is generated. The subband decoding unit 140 includes, for example, an upsampler D ↑ and synthesis filter banks R 0 (z) to R M-1 (z). Up-sampler D ↑ inserts a zero value sample between the band-divided signals with respect to the subband encoded waveform vector whose amplitude has been adjusted, and performs D-times up-sampling. The synthesis filter banks R 0 (z) to R M-1 (z) synthesize the subband encoded waveform vector divided into M frequency bands into a single speech waveform.

(フィルタバンクの構成)
フィルタバンクを構成するあるフィルタの係数に離散フーリエ変換(DFT)や離散コサイン変換(DCT)、あるいはそれらの逆変換の係数系列を掛けると、基となったフィルタの特性を、周波数軸上でシフトした形のフィルタ特性が得られる。そして、このようなフィルタでフィルタバンクを構成することで、フィルタバンクの処理で必要な計算に、FFT(高速フーリエ変換)等の高速化手法が利用可能となる。これにより、サブバンド符号化・サブバンド合成の処理を高速化することができる。
(Configuration of filter bank)
Multiplying the coefficients of a filter that constitutes a filter bank by the discrete Fourier transform (DFT), discrete cosine transform (DCT), or inverse transform coefficient series, shifts the characteristics of the underlying filter on the frequency axis. A filter characteristic of the shape is obtained. By configuring a filter bank with such a filter, a high-speed technique such as FFT (Fast Fourier Transform) can be used for calculations necessary for the filter bank processing. Thereby, it is possible to speed up the processing of subband encoding / subband synthesis.

図3Aおよび図3Bは、それぞれサブバンド符号化部110の実際の回路構成および理論的な構成を示すブロック図である。また、図4Aおよび図4Bは、それぞれサブバンド復号部140の実際の回路構成および理論的な構成を示すブロック図である。いずれの例も離散コサイン変換を用いた構成例を示している。   3A and 3B are block diagrams showing an actual circuit configuration and a theoretical configuration of subband encoding section 110, respectively. 4A and 4B are block diagrams showing an actual circuit configuration and a theoretical configuration of subband decoding section 140, respectively. Both examples show configuration examples using discrete cosine transform.

サブバンド符号化部110およびサブバンド復号部140のいずれについても、実際の回路構成には、遅延要素z−1が設けられ、離散コサイン変換要素DCTまたは逆離散コサイン変換要素IDCTが設けられている。これに対し、サブバンド符号化部110およびサブバンド復号部140と理論的に等価な構成では、上記の各要素が含まれない形が等価となっている。サブバンド符号化部110と理論的に等価な構成では、フィルタ処理を行なってからダウンサンプリングを行なうため、処理のサンプルレートが大きく、処理量も大きくなるが、実際の構成では、先にダウンサンプリングを行なっているため、処理量は少なくなる。これは、サブバンド復号部140も同様である。 For both the subband encoding unit 110 and the subband decoding unit 140, the actual circuit configuration includes a delay element z −1 and a discrete cosine transform element DCT or an inverse discrete cosine transform element IDCT. . On the other hand, in a configuration that is theoretically equivalent to the subband encoding unit 110 and the subband decoding unit 140, a form that does not include the above elements is equivalent. In the configuration that is theoretically equivalent to the subband encoding unit 110, since the downsampling is performed after the filter processing, the processing sample rate is large and the processing amount is large. However, in the actual configuration, the downsampling is performed first. Therefore, the processing amount is reduced. The same applies to the subband decoding unit 140.

図5は、等帯域分割フィルタバンクについて周波数に対する振幅特性を示すグラフである。DFTやDCTのみを用いた場合、矩形窓関数をインパルス応答とする帯域通過フィルタを、周波数軸上でシフトした形の帯域通過フィルタで構成されるフィルタバンクと通常見なせる。以下、シフト前の基となるフィルタを基礎フィルタと呼ぶ。なお、基礎フィルタを、一般にはより好ましいと考えられる、遮断域での減衰量がより大きい周波数特性を持つ帯域通過フィルタ(なお周波数0を中心とする場合は、低域通過フィルタとなる)とすることも可能である。ただし、サブバンド符号化処理結果をサブバンド合成した場合に原音声波形が復元できるようにフィルタを設計する必要がある。その条件は完全再構成条件と呼ばれる。また、フィルタ構成によっては厳密な復元が不可能な場合があり、その場合は、近似的に復元されるようにフィルタを設計する。また、長さMのDFTを用いた場合は、基となるフィルタを、正規化角周波数で2πk/M(k≦0<M)シフトさせたM個のフィルタでフィルタバンクが構成され、DCTを用いた場合は、その定義にもよるが、以下の例で定義されるDCT変換の場合、正規化角周波数でπ(k+1/2)/Mシフトさせた特徴と、π(−k+1/2)/Mシフトさせた特徴の和をその周波数特性とする、M個のフィルタでフィルタバンクが構成される。   FIG. 5 is a graph showing amplitude characteristics with respect to frequency for the equal band division filter bank. When only DFT or DCT is used, a bandpass filter having an impulse response of a rectangular window function can be generally regarded as a filter bank composed of bandpass filters that are shifted on the frequency axis. Hereinafter, the base filter before the shift is referred to as a basic filter. Note that the basic filter is a band-pass filter having a frequency characteristic with a larger attenuation in the cut-off region, which is generally considered to be more preferable (if the frequency 0 is the center, it becomes a low-pass filter). It is also possible. However, it is necessary to design a filter so that the original speech waveform can be restored when subband synthesis is performed on the subband encoding processing result. That condition is called the perfect reconstruction condition. Further, depending on the filter configuration, exact restoration may not be possible. In such a case, the filter is designed so as to be restored approximately. When a DFT of length M is used, a filter bank is configured by M filters obtained by shifting the base filter by 2πk / M (k ≦ 0 <M) by a normalized angular frequency, and the DCT is When used, depending on the definition, in the case of the DCT transformation defined in the following example, a characteristic shifted by π (k + 1/2) / M at the normalized angular frequency, and π (−k + 1/2) A filter bank is composed of M filters having the frequency characteristics of the sum of the features shifted by / M.

以下の例では、DCT変換および逆DCT変換のペアを用いている。DFTの入出力は複素数で定義されるのに対し、DCTの入出力は実数であり、処理をより簡単に行なうことができる。例えば、(1)式のM次のDCT係数を係数とするフィルタとして(2)式(0≦k<M)を用いても分析フィルタバンクを構成できる。

Figure 0006201205
Figure 0006201205
In the following example, a pair of DCT transform and inverse DCT transform is used. The input / output of the DFT is defined as a complex number, whereas the input / output of the DCT is a real number, and the processing can be performed more easily. For example, the analysis filter bank can also be configured by using the expression (2) (0 ≦ k <M) as a filter using the M-th order DCT coefficient of the expression (1) as a coefficient.
Figure 0006201205
Figure 0006201205

DCT係数の特性上、これはM分割の等帯域分割フィルタバンクであり、さらにこのフィルタバンクは、完全再構成条件を満たすように構成できるので、帯域分割波形から入力波形を復元することができる。   Due to the characteristics of the DCT coefficient, this is an M-divided equal-band division filter bank. Further, since this filter bank can be configured to satisfy the complete reconstruction condition, the input waveform can be restored from the band-divided waveform.

なお、上記の構成において、サブバンド数はスペクトル特徴情報で記述されるスペクトルを所定の精度で模擬できるだけの数とする。例えば、1サンプルのスペクトル情報がk次(0次係数も含めパラメータ数としてはk+1個)のメルケプストラムの場合で、かつここでのkがスペクトル特徴を表現するのに必要な次元数の場合、そのようなスペクトルを一般的に模擬するために、少なくとも(k+1)個のサブバンド数が必要となる。   In the above configuration, the number of subbands is a number that can simulate the spectrum described by the spectrum feature information with a predetermined accuracy. For example, when the spectral information of one sample is a k-th order mel cepstrum (the number of parameters including the zeroth order coefficient is k + 1), and k here is the number of dimensions necessary to express the spectral feature, In order to generally simulate such a spectrum, at least (k + 1) subbands are required.

また、サブバンドパワー調整部130は、白色な音源に対して、各サブバンドのゲインを調整し、入力されたスペクトル特徴情報に対応する音声波形を生成するように動作する。なお、マルチバンド混合励振を行なう場合は、予めインパルス音源と白色雑音源が等パワーとなるように正規化しておき、各サブバンドのパワー重みの和が1となるように制御することで白色な音源を得ることができる。   In addition, the subband power adjustment unit 130 operates to adjust the gain of each subband with respect to a white sound source and generate an audio waveform corresponding to the input spectral feature information. When performing multiband mixed excitation, normalization is performed so that the impulse sound source and the white noise source have equal power in advance, and control is performed so that the sum of the power weights of each subband is 1. A sound source can be obtained.

先述のように、スペクトル情報として各サブバンドのパワー値を直接入力とする構成ではなく、メルケプストラム係数等から変換して各サブバンドのパワー係数を求めてもよい。サブバンド中心のスペクトル強度を、サブバンドのパワー値と見なして制御することで、目標のスペクトル特徴を近似的に得ることができる。サブバンドの中心は、DFTに基づくフィルタバンクを構成する場合、正規化角周波数軸上で、0,2π/M,4π/M,…となる。   As described above, the power value of each subband may be obtained by converting from the mel cepstrum coefficient or the like instead of directly inputting the power value of each subband as spectrum information. By controlling the spectral intensity at the center of the subband as a power value of the subband, the target spectral feature can be obtained approximately. The center of the subband is 0, 2π / M, 4π / M,... On the normalized angular frequency axis when configuring a filter bank based on DFT.

一方、先述のDCTに基づくフィルタバンクを構成する場合は、±π/2M,±3π/2M,…となる。ただし、入力が実数系列でかつ、インパルス応答が対称な基礎フィルタを用いる場合は、周波数特性も全て周波数0を中心に対称となるので、例えば正規化角周波数で0からπの範囲のみ考えればよい。サブバンド毎のスペクトル特性はフィルタバンク係数から求めることができるので、目標のスペクトル特徴との誤差を、周波数軸上で、サブバンド数よりもより細かい間隔で評価してもよい。例えば平均二乗誤差が最少となるようなサブバンドのパワー係数の組を、反復近似推定等により求めることで、より正確な制御を実現できる。なお、上記の例は一例であり、DCT変換・逆DCT変換のペアを、他の可逆変換のペアに置き換えることもできる。   On the other hand, when a filter bank based on the above-described DCT is configured, ± π / 2M, ± 3π / 2M,... However, in the case of using a basic filter whose input is a real number sequence and whose impulse response is symmetric, the frequency characteristics are all symmetric with respect to the frequency 0. Therefore, for example, only the range from 0 to π in the normalized angular frequency may be considered. . Since the spectral characteristic for each subband can be obtained from the filter bank coefficient, an error from the target spectral feature may be evaluated at a finer interval than the number of subbands on the frequency axis. For example, more accurate control can be realized by obtaining a subband power coefficient set that minimizes the mean square error by iterative approximate estimation or the like. The above example is merely an example, and the pair of DCT transform / inverse DCT transform can be replaced with another reversible transform pair.

(音源の制御方法)
次に、音源の制御方法について説明する。まず前提として、サブバンド符号化・サブバンド合成の前後で処理の線形性が保証されているものとする。先述のDFTやDCTに基づくフィルタバンクは、線形な操作の組み合わせだけでその処理が構成されているので、この条件を満たす。
(Sound source control method)
Next, a sound source control method will be described. First, it is assumed that the linearity of processing is guaranteed before and after subband coding and subband synthesis. The filter bank based on the DFT or DCT described above satisfies this condition because its processing is configured only by a combination of linear operations.

このとき、インパルス列について、例えば、過去の32サンプルから32帯域の分割を行ない、かつ各帯域の分析フィルタ・合成フィルタがFIRフィルタで表現可能な場合、サブバンド符号化した結果を次のように得ることができる。すなわち、入力フレームの1番目と20番目のサンプルでインパルスが立っているようなインパルス音源波形を帯域分割した場合には、1番目のサンプルのみでインパルスが立っている音源波形をサブバンド符号化した結果と、20番目のサンプルのみでインパルスが立っている音源波形をサブバンド符号化した結果の各要素を足すことにより得ることができる。   At this time, for the impulse train, for example, when 32 bands are divided from the past 32 samples and the analysis filter / synthesis filter of each band can be expressed by the FIR filter, the result of subband coding is as follows: Can be obtained. That is, when an impulse sound source waveform in which an impulse is raised in the first and 20th samples of the input frame is divided into bands, the sound source waveform in which an impulse is raised only in the first sample is subband encoded. It can be obtained by adding each element of the result and the result of subband coding of the sound source waveform in which the impulse stands only in the 20th sample.

つまり、M帯域分割の場合、インパルス音源については、M種類の音源波形の変化の事前蓄積があればよい。実際には、音声合成で用いる基本周波数は比較的に低いので、音源波形のMサンプル内に2つ以上のインパルスが含まれるケースが少ない場合も考えられる。その場合、足し合わせ処理の処理量はほぼ無視することができる。   That is, in the case of M band division, it is only necessary to store in advance M types of sound source waveform changes for impulse sound sources. Actually, since the fundamental frequency used in speech synthesis is relatively low, there may be few cases where two or more impulses are included in the M samples of the sound source waveform. In this case, the processing amount of the addition process can be almost ignored.

なお、事前作成・蓄積する波形を生成するための処理量は音声合成時の処理ではないためあまり問題とならない。したがって、例えば、1.5番目のサンプルでインパルスが立っているといった、仮想的にサンプリング周期以上の時間精度でインパルスの位置を制御することも容易である。そのような音源波形は、例えば2倍のサンプリング周波数を用いた対応する波形をまず作成し、高域遮断フィルタであるアンチエイリアスフィルタを掛けることで、元のサンプリング周波数におけるナイキスト周波数以上の成分を除去してから、2:1のダウンサンプリングによりサンプルを間引くことで得ることができる。   Note that the amount of processing for generating waveforms to be created and stored in advance is not a problem because it is not processing at the time of speech synthesis. Therefore, for example, it is also easy to control the position of the impulse with a time accuracy that is virtually equal to or higher than the sampling period, such as an impulse standing at the 1.5th sample. For such a sound source waveform, for example, a corresponding waveform using twice the sampling frequency is first created, and an antialiasing filter that is a high-frequency cutoff filter is applied to remove components higher than the Nyquist frequency at the original sampling frequency. And then thinning out the sample by 2: 1 downsampling.

このような手法は、サンプリング周波数が低く、インパルス位置をサンプル点に丸めてしまうと合成される音声の基本周波数の誤差が大きくなるケースで特に有効である。逆にサンプリングレートが高い場合は、逆にインパルスの位置精度を下げ、蓄積するサブバンド符号化波形の数を減らすという方法も考えられる。   Such a method is particularly effective in the case where the sampling frequency is low and the error of the fundamental frequency of the synthesized speech becomes large if the impulse position is rounded to the sampling point. Conversely, when the sampling rate is high, a method of reducing the position accuracy of the impulses and reducing the number of subband encoded waveforms to be stored is conceivable.

一方、白色雑音源については、インパルスの足し合わせで白色雑音を合成してもよいが、適当な個数、フレーム長の白色雑音列を事前に帯域分割・蓄積しておき、それをフレーム毎にランダムに選択することで、近似的に構成してもよい。この場合、変換波形を蓄積する必要はあるものの、重みづけ和の計算処理が不要となるので、処理量を減らすことができる。なお、比較的少ない数の蓄積のみから白色な雑音を生成するため、蓄積された帯域分割音源波形を複数個足し合わせて、帯域分割音源波形を構成する方法も考えられる。   On the other hand, for white noise sources, white noise may be synthesized by adding impulses, but an appropriate number and frame length of white noise sequences are pre-divided into bands and stored randomly for each frame. By selecting, it may be configured approximately. In this case, although it is necessary to accumulate the converted waveform, it is not necessary to calculate the weighted sum, and the amount of processing can be reduced. In order to generate white noise from only a relatively small number of accumulations, a method of constructing a band-divided sound source waveform by adding a plurality of accumulated band-divided sound source waveforms is also conceivable.

(非最大間引きフィルタバンクを用いた構成)
フィルタバンクにおける間引き率Mはその値が1(全く間引かない)からMまでの場合で、少なくとも再合成前に各サブバンドでパワー調整を行なわない場合、サブバンド合成結果がサブバンド符号化前の入力信号と一致するようなフィルタバンクを構成することができることが理論上知られている。例えば、DFTやDCTのみでフィルタバンクを構成し、間引き率Lの間引きを行なう場合、計算誤差を無視すれば、それらの逆変換により入力波形が完全に復元できることは明らかである。
(Configuration using non-maximum decimation filter bank)
The decimation rate M in the filter bank is a value from 1 (not decimation at all) to M, and at least when power adjustment is not performed in each subband before recombination, the subband synthesis result is before subband coding. It is theoretically known that it is possible to construct a filter bank that matches the input signal. For example, when a filter bank is constituted only by DFT or DCT and thinning-out rate L is thinned out, it is clear that if the calculation error is ignored, the input waveform can be completely restored by their inverse transformation.

しかし、特にD=M(間引き率が最大であり、最大間引きと呼ばれる)の場合は、DCTを用いると、正規化角周波数において(ただしここではその対称性から0からπの範囲のみ考えることとする)、0〜π/M,π/M〜2π/M,…,(M−2)π/M〜(M−1)π/Mの各帯域の成分が、それが通過帯域、遮断帯域であるかに関わらず、それぞれのサブバンドに全て折り返されて格納される。そして、合成時に、各サブバンドの折り返し雑音成分が互いに打ち消しあうことで、入力波形が復元される。   However, especially in the case of D = M (the thinning rate is the maximum and is called the maximum thinning), using DCT, in the normalized angular frequency (however, only the range from 0 to π is considered here because of its symmetry) ), 0 to π / M, π / M to 2π / M,..., (M−2) π / M to (M−1) π / M are components of a pass band and a cutoff band. Regardless of whether or not, all the subbands are folded and stored. At the time of synthesis, the aliasing noise components of the subbands cancel each other, thereby restoring the input waveform.

各サブバンドのフィルタを帯域通過と見た場合、その通過域の幅もπ/Mだが、実際には、通過域で常にゲインが1、遮断域で常に0となるような理想的なフィルタは、有限長のフィルタでは理論上実現できない。実際には、遮断域でもある程度の通過量があり、最大間引きの場合、大きな折り返し雑音が各サブバンドには含まれている。このため、各サブバンドのパワーをサブバンド毎に独立に変更してしまうと、サブバンド間で互いに打ち消しあっている折り返し雑音の構造が崩れてしまい、その折り返し雑音が問題となる。   When the filter of each subband is viewed as a band pass, the width of the pass band is also π / M, but in reality, an ideal filter that always has a gain of 1 in the pass band and always 0 in the cut-off band is It cannot be theoretically realized with a finite filter. Actually, there is a certain amount of passage even in the cut-off area, and in the case of maximum thinning, a large aliasing noise is included in each subband. For this reason, if the power of each subband is changed independently for each subband, the structure of aliasing noise canceling out between the subbands is destroyed, and the aliasing noise becomes a problem.

これに対し、DにMより小さい値を設定すると、サンプルの間引きによる折り返しの幅が、フィルタバンクにおける帯域通過フィルタの通過域の幅より広くなるので、各サブバンドの折り返し雑音が減り、サブバンド毎に独立にパワーを調整した場合でも、折り返し雑音の影響を小さくすることができる。このような設定は非最大間引きと呼ばれる。一般に間引き率Dを小さくするほど、折り返し雑音の影響は小さくなるが、情報量的には冗長となり、蓄積・処理するデータ量が増える。このため、折り返し雑音の影響を抑えるために必要な範囲で、Dはできるだけ大きな値を設定することが好ましい。   On the other hand, if a value smaller than M is set in D, the folding width of the sample by thinning out becomes wider than the band width of the bandpass filter in the filter bank, so that the folding noise of each subband is reduced. Even when the power is adjusted independently every time, the influence of aliasing noise can be reduced. Such a setting is called non-maximum decimation. In general, the smaller the thinning rate D, the smaller the influence of aliasing noise, but the amount of information becomes redundant and the amount of data to be stored and processed increases. For this reason, it is preferable to set D as large as possible within a range necessary for suppressing the influence of aliasing noise.

先述の非最大間引きは、帯域分割前、帯域合成後の波形系列から見ると、フレームシフトDのオーバラップ分析を行なっていることと等価である。また、時間領域におけるDサンプルの処理毎に、サブバンド符号化によるサブバンド分割領域における1サンプルの処理が行なわれる。ここで、簡単のためにDがMの約数であるとする。なお、完全再構成条件を満たすフィルタバンクを用いるものとする。   The aforementioned non-maximum decimation is equivalent to performing an overlap analysis of the frame shift D when viewed from the waveform series before band division and after band synthesis. In addition, for each processing of D samples in the time domain, processing of one sample in the subband division region by subband coding is performed. Here, for simplicity, it is assumed that D is a divisor of M. It is assumed that a filter bank that satisfies the complete reconstruction condition is used.

まず、インパルス音源については、非最大間引きであっても、上記で説明している音源の制御方法と同様の方法で制御する。ただし、例えば長さMのフレームにおいて、先頭からNサンプル目(ただしM>N≧Dとする)のサンプルが立っている場合、Dサンプルのフレームシフトにより、次のフレームでは先頭からN−D番目のサンプルにインパルスが立つ。このとき、インパルス音源はそれぞれのタイミングで、対応する事前蓄積されたサブバンド符号化波形ベクトルを出力する。   First, the impulse sound source is controlled by the same method as the sound source control method described above, even if it is non-maximum decimation. However, for example, in a frame of length M, if the Nth sample (where M> N ≧ D) stands from the beginning, the NDth sample from the beginning in the next frame due to the frame shift of D samples. Impulse stands on the sample. At this time, the impulse sound source outputs a corresponding pre-accumulated subband encoded waveform vector at each timing.

一方、白色雑音については、例えば、最も簡単な方法として、M×Nサンプル周期で同じ波形を繰り返すことで生成する方法が考えられる。その場合は、フレームシフトに対応する、M×N×(M/D)通りの、長さMの波形を事前蓄積しておき、フレームシフトに応じて順に出力する方法がまず考えられる。ここでNは、雑音周期が聴感上問題ない程度となるものであればよい。例えば雑音の周期M×Nが、可聴周波数の下限(例えば20Hz)に対応する周期より長ければよい。   On the other hand, white noise can be generated by repeating the same waveform at an M × N sample period, for example, as the simplest method. In that case, a method of pre-accumulating M × N × (M / D) length M waveforms corresponding to the frame shift and sequentially outputting them in accordance with the frame shift is conceivable. Here, N may be any value as long as the noise period does not cause any problem in hearing. For example, the noise period M × N may be longer than the period corresponding to the lower limit of the audible frequency (for example, 20 Hz).

あるいは、長さMの白色雑音波形素片を予め何個か用意しておき、それをランダムに繋ぎ合わせる方法もある。ここで1つの長さMの白色雑音波形素片について、時間軸上の素片範囲外でサンプル値が全て0として扱う。この白色雑音波形素片単独の時間領域における1フレーム内での出現パターンは、フレーム内における波形の開始点の違いで決まり、開始点には−M+D,−M+2D,…,−D,0,D,…,M−Dの計(2(M/D)−1)個のパターンがある。   Alternatively, there is a method in which several white noise waveform segments having a length M are prepared in advance and are connected at random. Here, for one white noise waveform segment of length M, all sample values are treated as 0 outside the segment range on the time axis. The appearance pattern in one frame in the time domain of the white noise waveform segment alone is determined by the difference in the waveform start point in the frame, and −M + D, −M + 2D,..., −D, 0, D There are a total of (2 (M / D) -1) patterns of M-D.

1フレーム分の雑音波形は1種類(開始点が0の場合)または2種類の長さMの雑音波形の組み合わせで表現できる。したがって、事前作成する長さMのサンプルの白色雑音波形素片がN種類のとき、合計N(2(M/D)−1)個の事前蓄積から、1または2個のサブバンド符号化波形を取得し、それをサブバンド符号化におけるサブバンド分割領域で足し合わせる処理により、白色雑音源を実現できる。   The noise waveform for one frame can be expressed by one type (when the starting point is 0) or a combination of two types of noise waveforms of length M. Therefore, when the number of white noise waveform segments of the sample of length M to be created in advance is N, one or two subband encoded waveforms from a total of N (2 (M / D) -1) prestores. Can be obtained, and a white noise source can be realized by adding the subband division regions in the subband coding.

また、白色雑音波形素片の長さをM/2,M/4,…と短くしていくことで、その場合、1フレーム内での出現パターン数が減り、音源で必要な足し合せ処理が増えていく。逆に白色雑音波形素片の長さを長くすることもできる。その場合は出現パターン数が増えるため、必要な蓄積の数が増えるが、音源で足し合わせの処理が必要となる場合が減ることとなる。   In addition, by reducing the length of the white noise waveform segment to M / 2, M / 4,..., The number of appearance patterns in one frame is reduced, and the addition processing necessary for the sound source is reduced. It will increase. Conversely, the length of the white noise waveform segment can be increased. In this case, since the number of appearance patterns increases, the number of necessary accumulations increases, but the number of cases where a summing process is required with a sound source is reduced.

[第1の実施形態]
(成分分解を行う装置の構成)
上記の実施形態は、サブバンド符号化により周波数分割された帯域ごとに振幅調整をしているが、本発明の実施形態においてはサブバンド符号化前に成分分解しておき、符号化とは別に、分解された成分ごとに振幅調整を行なう。
[First Embodiment]
(Configuration of equipment for component decomposition)
In the above embodiment, amplitude adjustment is performed for each band that is frequency-divided by subband encoding. However, in the embodiment of the present invention, component decomposition is performed before subband encoding, and separately from encoding. The amplitude is adjusted for each decomposed component.

図6は、サブバンド符号化とは別に成分分解して振幅調整する音声合成装置200の基本構成を示すブロック図であり、図7は、音声合成装置200の具体的構成を示すブロック図である。音声合成装置200の基本構成は、音声合成装置100と同様であり、音源波形をサブバンド符号化部210によりサブバンド符号化して蓄積し、入力情報に応じて振幅を調整した後にサブバンド符号を復号する。図6に示すように、音声合成装置200は、成分分解部205、サブバンド符号化部210、重み付き和算出部220およびサブバンド復号部140を備えている。   FIG. 6 is a block diagram showing a basic configuration of a speech synthesizer 200 that performs component decomposition and amplitude adjustment separately from subband coding, and FIG. 7 is a block diagram showing a specific configuration of speech synthesizer 200. . The basic configuration of the speech synthesizer 200 is the same as that of the speech synthesizer 100. The sound source waveform is subband encoded by the subband encoder 210 and stored, and after adjusting the amplitude according to the input information, the subband code is converted. Decrypt. As shown in FIG. 6, the speech synthesizer 200 includes a component decomposition unit 205, a subband encoding unit 210, a weighted sum calculation unit 220, and a subband decoding unit 140.

成分分解部205は、インパルス側分解部206a、白色雑音側分解部206bを備え、音源波形として、インパルス列および白色雑音の2種類の音源波形を用い、音源波形を複数の周波数帯域の成分に分解する。成分分解部205は、帯域通過フィルタの集合で構成され、分解された成分の和により音源波形を近似的に再現できるように音源波形を成分分解する。このように、分解された成分ごとにサブバンド符号化して、重み付き和を行なうことでスペクトル情報に対応した音声を再現できる。   The component decomposition unit 205 includes an impulse side decomposition unit 206a and a white noise side decomposition unit 206b, and uses two types of sound source waveforms of an impulse train and white noise as a sound source waveform, and decomposes the sound source waveform into components of a plurality of frequency bands. To do. The component decomposing unit 205 is composed of a set of band-pass filters, and decomposes the sound source waveform into components so that the sound source waveform can be approximately reproduced by the sum of the decomposed components. In this way, the speech corresponding to the spectrum information can be reproduced by performing subband coding for each decomposed component and performing a weighted sum.

成分分解部205は、それぞれM個、N個のフィルタFpおよびFaを有し、インパルス列と白色雑音の音源波形をそれぞれM個、N個の音源要素波形に分割する。分割については、適当な音源波形に対し、分割波形の和が元の音源波形を再現するか、近似的に特徴を再現するように分割すればよい。このような分割を実現するようなフィルタとして、1/2のハーフバンドフィルタを1/Nの帯域制限に拡張した、N−thバンドフィルタを基礎フィルタとして、その係数をコサイン変調して周波数軸上でシフトさせることで構築したフィルタバンクを用いることができる。なお、成分分解部205における帯域分割方法は、続くサブバンド符号化処理のおける帯域分割処理とは独立に定めることができる。   The component decomposing unit 205 includes M and N filters Fp and Fa, respectively, and divides the impulse train and white noise source waveform into M and N source element waveforms, respectively. As for the division, an appropriate sound source waveform may be divided so that the sum of the divided waveforms reproduces the original sound source waveform or approximate features are reproduced. As a filter that realizes such division, an N-th band filter, which is an expansion of a 1/2 half-band filter to a 1 / N band limit, is used as a basic filter, and its coefficient is cosine-modulated on the frequency axis. It is possible to use a filter bank constructed by shifting with. Note that the band dividing method in the component decomposing unit 205 can be determined independently of the band dividing process in the subsequent subband encoding process.

また、成分分解部205で帯域制限フィルタの遮断域における遮断量を大きくとり、遮断域の振幅強度を仮想的に0と見なすことが好ましい。これにより、サブバンド符号化結果のベクトルにおいて、帯域制限フィルタの遮断域と完全に重なる周波数帯域のサブバンドの要素の値を0とすることができる。そして、多くの0要素を含んだサブバンド符号化波形ベクトルを音声合成処理に用いることができる。その結果、重み付き和算出部220における重み付き和の計算処理において、0要素の積和演算処理を省いて、実際の処理量を減らすことができる。   Further, it is preferable that the component decomposing unit 205 takes a large cutoff amount in the cutoff region of the band limiting filter so that the amplitude intensity in the cutoff region is virtually regarded as zero. Thereby, in the vector of the subband encoding result, the value of the subband element in the frequency band that completely overlaps the cutoff band of the band limiting filter can be set to zero. Then, a subband encoded waveform vector including many 0 elements can be used for speech synthesis processing. As a result, in the weighted sum calculation processing in the weighted sum calculation unit 220, the actual amount of processing can be reduced by omitting the zero-element product-sum operation processing.

サブバンド符号化部210は、分解された成分のそれぞれをD分割でサブバンド符号化する。すなわち、分割された音源要素波形をD次元のベクトルに変換する。サブバンド符号化部210は、インパルス側符号化部211aおよび白色雑音側符号化部211bを備えている。インパルス側符号化部211aはインパルス音源をサブバンド符号化し、白色雑音側符号化部211bは、白色雑音源をサブバンド符号化する。   The subband encoding unit 210 performs subband encoding on each of the decomposed components by D division. That is, the divided sound source element waveform is converted into a D-dimensional vector. The subband encoding unit 210 includes an impulse side encoding unit 211a and a white noise side encoding unit 211b. The impulse side encoding unit 211a performs subband encoding on the impulse sound source, and the white noise side encoding unit 211b performs subband encoding on the white noise source.

重み付き和算出部220は、サブバンド符号化された成分で構成されるサブバンド符号化波形ベクトルに対して、分解成分に重みを掛け、重み付き和を求める。そして、入力されたスペクトル特性情報に基づくインパルス列と白色雑音との混合比で、2種類の音源波形に基づくサブバンド符号化波形ベクトルの重み付き和を求める。これにより、インパルス列と白色雑音を音源波形とし、音声の種類ごとに異なる最適なインパルスと雑音のパワー比で音声合成することで合成音声の自然性を改善できる。   The weighted sum calculation unit 220 multiplies the decomposed component with respect to the subband encoded waveform vector composed of the subband encoded components, and obtains a weighted sum. Then, a weighted sum of the subband encoded waveform vectors based on the two types of sound source waveforms is obtained based on the mixing ratio of the impulse train and the white noise based on the input spectral characteristic information. Thereby, the naturalness of the synthesized speech can be improved by using the impulse train and white noise as the sound source waveform and synthesizing the speech with the optimum impulse to noise power ratio that differs for each type of speech.

重み付き和算出部220は、インパルス側蓄積部221a、インパルス側選択部222a、インパルス側重み付け乗算部223a、白色雑音側蓄積部221b、白色雑音側選択部222b、白色雑音側重み付け乗算部223bおよび加算部224を備えている。   The weighted sum calculation unit 220 includes an impulse side accumulation unit 221a, an impulse side selection unit 222a, an impulse side weighting multiplication unit 223a, a white noise side accumulation unit 221b, a white noise side selection unit 222b, a white noise side weighting multiplication unit 223b, and an addition. Part 224 is provided.

インパルス側蓄積部221aおよび白色雑音側蓄積部221bのそれぞれは、D次元のベクトルに変換された音源要素波形を蓄積する。インパルス側蓄積部221aは、インパルス音源に基づくサブバンド符号化波形ベクトルを蓄積する。白色雑音側蓄積部221bは、白色雑音源に基づくサブバンド符号化波形ベクトルを蓄積する。蓄積までの動作は、音声合成前に行なわれる。   Each of the impulse side accumulation unit 221a and the white noise side accumulation unit 221b accumulates the sound source element waveform converted into a D-dimensional vector. The impulse side accumulation unit 221a accumulates subband encoded waveform vectors based on the impulse sound source. The white noise side accumulation unit 221b accumulates the subband encoded waveform vector based on the white noise source. The operations up to accumulation are performed before speech synthesis.

インパルス側選択部222aおよび白色雑音側選択部222bは、音声合成時に音源情報およびスペクトル特徴情報に基づき、合成音声波形を構成するために必要なサブバンド符号化波形ベクトルを選択する。インパルス側選択部222aは、入力された基本周波数の情報に基づき、事前蓄積されたインパルス音源に基づくサブバンド符号化波形ベクトルを選択する。白色雑音側選択部222bは、例えば上記の「音源の制御方法」に基づき、事前蓄積された白色雑音源に基づくサブバンド符号化波形ベクトルを選択する。   The impulse side selection unit 222a and the white noise side selection unit 222b select a subband encoded waveform vector necessary for constructing a synthesized speech waveform based on sound source information and spectrum feature information during speech synthesis. The impulse side selection unit 222a selects a subband encoded waveform vector based on the impulse sound source accumulated in advance based on the inputted information on the fundamental frequency. The white noise side selection unit 222b selects a subband encoded waveform vector based on a prestored white noise source based on, for example, the “sound source control method” described above.

インパルス側重み付け乗算部223aおよび白色雑音側重み付け乗算部223bは、選択したベクトルの重み付き和を計算することで、合成音声波形を構成するサブバンド符号化波形ベクトルを生成する。インパルス側重み付け乗算部223aは、選択されたサブバンド符号化波形ベクトルの各要素に重み付け係数Ap0〜Ap(M−1)をそれぞれ乗算する。白色雑音側重み付け乗算部223bは、選択されたサブバンド符号化波形ベクトルの各要素に重み付け係数Aa0〜Aa(N−1)をそれぞれ乗算する。なお、各係数は、Apx+Aax=1となるように決められる。 The impulse side weighting multiplication unit 223a and the white noise side weighting multiplication unit 223b calculate a weighted sum of the selected vectors to generate a subband encoded waveform vector constituting the synthesized speech waveform. The impulse-side weighting multiplication unit 223a multiplies each element of the selected subband encoded waveform vector by a weighting coefficient Ap0 to Ap (M-1) . The white noise side weighting multiplication unit 223b multiplies each element of the selected subband encoded waveform vector by a weighting coefficient A a0 to A a (N−1) . Each coefficient is determined so that A px + A ax = 1.

重み付き和算出部220は、音源波形要素選択において、インパルス列を帯域分割した要素と、白色雑音を帯域分割した要素を組み合わせる方法を用いることができる。その重み係数は、まず、音源情報として含まれるインパルス列と雑音の混合比から、インパルス列成分のみのスペクトル特徴と、雑音成分のみのスペクトル特徴を求める。そして、帯域分割した要素の各中心周波数において、それぞれ目標となるスペクトル特徴と、音源要素波形のスペクトル特徴の振幅強度が一致するように重み付き係数を求めればよい。   The weighted sum calculation unit 220 can use a method of combining an element obtained by band-dividing an impulse train and an element obtained by band-dividing white noise in sound source waveform element selection. As the weighting factor, first, the spectral feature of only the impulse train component and the spectral feature of only the noise component are obtained from the mixing ratio of the impulse train and noise included as the sound source information. Then, it is only necessary to obtain the weighting coefficient so that the target spectrum feature and the amplitude intensity of the spectrum feature of the sound source element waveform match at each center frequency of the band-divided element.

なお、インパルス側蓄積部221a、インパルス側選択部222aおよびインパルス側重み付け乗算部223aは、インパルス側重み付き和算出部220aを構成する。白色雑音側蓄積部221b、白色雑音側選択部222bおよび白色雑音側重み付け乗算部223bは、白色雑音側重み付き和算出部220bを構成する。   The impulse side accumulation unit 221a, the impulse side selection unit 222a, and the impulse side weighting multiplication unit 223a constitute an impulse side weighted sum calculation unit 220a. The white noise side accumulation unit 221b, the white noise side selection unit 222b, and the white noise side weighting multiplication unit 223b constitute a white noise side weighted sum calculation unit 220b.

加算部224は、それぞれインパルス側および白色雑音側で重み付け乗算されたサブバンド符号化波形ベクトルを加算する。このように、複数種類のサブバンド符号化波形ベクトルを、音源情報に基づき1つのサブバンド符号化波形ベクトルとして生成する。混合励振源を音源に用いる場合、音源情報に基づき、インパルス列と雑音源の混合比調整も同時に行なう。このように、音声合成装置200は、音源波形の種類に応じて、サブバンド符号化した結果を音声合成時に計算し、事前蓄積した帯域サブバンド符号化波形ベクトルとを組み合わせて、音源となるサブバンド符号化波形ベクトルを生成する。   Adder 224 adds the subband encoded waveform vectors that have been weighted and multiplied on the impulse side and white noise side, respectively. Thus, a plurality of types of subband encoded waveform vectors are generated as one subband encoded waveform vector based on the excitation information. When the mixed excitation source is used as a sound source, the mixing ratio adjustment between the impulse train and the noise source is simultaneously performed based on the sound source information. As described above, the speech synthesizer 200 calculates the result of subband coding according to the type of the sound source waveform at the time of speech synthesis, and combines the pre-stored band subband encoded waveform vector with the sub-band that becomes the sound source. A band encoded waveform vector is generated.

サブバンド復号部140は、生成されたサブバンド符号化波形ベクトルを、サブバンド符号化に伴うエイリアスを打ち消す構成で復号し、単一の音声波形に合成する。そして、生成されたサブバンド符号化波形ベクトルを最終的な合成音声波形に変換する。   The subband decoding unit 140 decodes the generated subband encoded waveform vector with a configuration that cancels aliases associated with subband encoding, and synthesizes it into a single speech waveform. Then, the generated subband encoded waveform vector is converted into a final synthesized speech waveform.

これにより、スペクトル特性の合成のために各サブバンドの振幅係数を独立に変える構成においてもエイリアスに起因するノイズを防止するための設定や処理が不要となり、処理量を低減できる。また、成分分解に伴う処理の分、処理量が増加するが、サブバンド符号化した際にサブバンド符号化波形ベクトルに0となる要素を多く含むような音源波形を分解し、それらをサブバンド符号上で組み合わせて音声波形を構成することで、サブバンド符号上での重み付き和の計算処理において、実際の積和演算処理の多くを省くことができる。   As a result, even in a configuration in which the amplitude coefficient of each subband is changed independently for the synthesis of spectral characteristics, setting and processing for preventing noise caused by aliases are not required, and the processing amount can be reduced. Also, the amount of processing increases by the amount of processing associated with component decomposition. However, when subband coding is performed, a sound source waveform that contains many elements that become 0 in the subband encoded waveform vector is decomposed, and these are subbanded. By configuring the speech waveform by combining on the code, much of the actual product-sum calculation process can be omitted in the calculation process of the weighted sum on the subband code.

また、音源波形の分解の方法は、サブバンド符号化とは別に任意に定めることができるので、音源波形をより細かく分解することで、合成する音声波形の周波数解像度を高めることができる。これにより、サブバンド符号化におけるサブバンド数を増やした際の処理量増加や時間解像度低下の問題を避けることができる。このようにして、携帯端末等の計算処理性能が限られた環境でも、十分な音声合成処理を可能となる。   Further, since the method for decomposing the sound source waveform can be arbitrarily determined separately from the subband coding, the frequency resolution of the synthesized speech waveform can be increased by further decomposing the sound source waveform. As a result, it is possible to avoid problems such as an increase in processing amount and a decrease in time resolution when the number of subbands in subband encoding is increased. In this manner, sufficient speech synthesis processing can be performed even in an environment where the calculation processing performance of a portable terminal or the like is limited.

(音声合成装置の動作例)
次に、音声合成装置200の動作例を説明する。雑音素片は、成分分解部205における音源波形に対する帯域制限フィルタのタップ数と、サブバンド符号化部210におけるフィルタのタップ数の影響を考慮する必要がある。ランダムに選択した素片の足し合わせで雑音を構成する方法をとることもできるが、そのようにすると、足し合わせの数が増え、処理が複雑になる。
(Operation example of speech synthesizer)
Next, an operation example of the speech synthesizer 200 will be described. For the noise element, it is necessary to consider the influence of the number of taps of the band limiting filter on the sound source waveform in the component decomposition unit 205 and the number of taps of the filter in the subband coding unit 210. Although it is possible to use a method of forming noise by adding randomly selected pieces, the number of additions increases and the processing becomes complicated.

そこで、もっと単純な方法として、有限長の音源波形を繰り返し出力する方法により雑音源を構成するのが容易である。有限長の音源波形は、例えば、白色雑音を帯域制限フィルタに通した結果を周期のサンブル分だけ切り出したものである。その周期は充分に長ければ(例えば数千サンプル以上)であれば実質ランダムと見なせる。   Therefore, as a simpler method, it is easy to configure a noise source by a method of repeatedly outputting a finite-length sound source waveform. The sound source waveform of a finite length is obtained by cutting out the result of passing white noise through a band limiting filter by the amount of a sample of the period. If the period is sufficiently long (for example, several thousand samples or more), it can be regarded as substantially random.

この場合、例えばサブバンド数D、周期Lのとき、雑音素片IDは(n,i)で表せる。nは、分割帯域番号であり、帯域制限フィルタFaの添字に対応している。iは雑音素片IDである。iを0から(L/D)−1まで順に変更して出力し、また0に戻る、という処理を行なう。   In this case, for example, when the number of subbands is D and the period is L, the noise element ID can be expressed by (n, i). n is a divided band number and corresponds to the subscript of the band limiting filter Fa. i is a noise element ID. A process of changing i from 0 to (L / D) -1 in order and outputting it, and returning to 0 is performed.

図8および図9は、音声合成装置200の動作の一例を示すフローチャートである。なお、図中のA、Bは、図8と図9との流れを結ぶ点を示している。   FIG. 8 and FIG. 9 are flowcharts showing an example of the operation of the speech synthesizer 200. In the figure, A and B indicate points connecting the flows of FIGS. 8 and 9.

まず、分割帯域番号nを0に設定する(ステップT1)。次に、入力データの有無を判定する(ステップT2)。入力データが無い場合には、処理を終了する。入力データがある場合には、入力データとして、基本周波数、混合重み、スペクトル特徴情報を取得する(ステップT3)。   First, the divided band number n is set to 0 (step T1). Next, the presence / absence of input data is determined (step T2). If there is no input data, the process ends. If there is input data, the fundamental frequency, mixing weight, and spectrum feature information are acquired as input data (step T3).

入力された基本周波数からインパルスの位置を決定する(ステップT4)。各インパルスに対応するサブバンド符号化波形ベクトルを蓄積されたサブバンド符号化波形ベクトルから取得する(ステップT5)。なお、取得数はインパルスの数と同じ個数である。そして、インパルス側で取得したサブバンド符号化波形ベクトルに対して混合重みおよびスペクトル特徴情報を反映した重みを掛ける(ステップT6)。そして、インパルス側でそれらの和を計算する(ステップT7)。   The position of the impulse is determined from the input fundamental frequency (step T4). A subband encoded waveform vector corresponding to each impulse is acquired from the accumulated subband encoded waveform vector (step T5). The number of acquisitions is the same as the number of impulses. Then, the sub-band encoded waveform vector acquired on the impulse side is multiplied by the weight reflecting the mixing weight and the spectral feature information (step T6). Then, the sum is calculated on the impulse side (step T7).

一方、白色雑音のサブバンド符号化波形ベクトルであるnの情報に基づき蓄積されたサブバンド符号化波形ベクトルから取得する(ステップT8)。そして、取得したサブバンド符号化波形ベクトルに対して、(1−混合重み係数)およびスペクトル特徴情報を反映した重みを掛ける(ステップT9)。そして、白色雑音側でそれらの和を計算する(ステップT10)。   On the other hand, it acquires from the subband encoded waveform vector accumulated based on the information of n which is the subband encoded waveform vector of white noise (step T8). Then, the obtained sub-band encoded waveform vector is multiplied by a weight reflecting (1-mixing weight coefficient) and spectrum feature information (step T9). Then, the sum is calculated on the white noise side (step T10).

次に、分割帯域番号nをn+1に設定する(ステップT11)。分割帯域番号nがL/Nより小さいか否かを判定し(ステップT12)、小さい場合には、ステップT14に進む。分割帯域番号nがL/D以上である場合には、分割帯域番号nを0に設定する(ステップT13)。   Next, the divided band number n is set to n + 1 (step T11). It is determined whether or not the divided band number n is smaller than L / N (step T12). If smaller, the process proceeds to step T14. If the divided band number n is greater than or equal to L / D, the divided band number n is set to 0 (step T13).

次に、混合励振源のサブバンド符号化波形ベクトルとして、インパルス側と白色雑側の重み付きサブバンド符号化波形ベクトルの和を計算する(ステップT14)。そして、サブバンド合成処理を行ない(ステップT15)、Dサンプルを出力して(ステップT16)、ステップT2に戻る。このような処理により、処理量を削減し、十分な音声合成処理や混合励振が可能になる。   Next, the sum of the weighted subband encoded waveform vectors on the impulse side and the white miscellaneous side is calculated as the subband encoded waveform vector of the mixed excitation source (step T14). Then, subband synthesis processing is performed (step T15), D samples are output (step T16), and the process returns to step T2. Such processing reduces the amount of processing and enables sufficient speech synthesis processing and mixed excitation.

(処理量の低減)
サブバンド符号化および復号を行なう対象の周波数帯域と同じ幅で、音源波形を成分分解する例を上げて、本発明の処理量の低減を説明する。この例では、事前に成分分解しない方法に比べて、3/4程度の処理量で同等の周波数および時間の解像度を得られる。
(Reduction of processing amount)
The reduction of the processing amount of the present invention will be described with reference to an example in which a sound source waveform is decomposed into components with the same width as the frequency band to be subjected to subband encoding and decoding. In this example, compared with a method in which component decomposition is not performed in advance, the same frequency and time resolution can be obtained with a processing amount of about 3/4.

折り返し雑音を防止するためには、ダウンサンプリングを通常のサブバンド符号化の半分に制限する方法を採用できる。この方法によれば、間引き率を最大間引きの半分に抑え、折り返し雑音が生じる周波数を挟んで隣接する片側のサブバンドとの間で等しい振幅調整係数を設定する。このようにして、折り返し雑音の影響を解消した音声合成を実現できる。これに対し、一方、本発明ではそのような考慮は不要である。   In order to prevent aliasing noise, a method of limiting downsampling to half of normal subband coding can be employed. According to this method, the thinning-out rate is suppressed to half of the maximum thinning-out, and an equal amplitude adjustment coefficient is set between adjacent subbands across the frequency at which aliasing noise occurs. In this way, speech synthesis that eliminates the influence of aliasing noise can be realized. On the other hand, in the present invention, such consideration is unnecessary.

例えば、最終出力のサンプリングレートが16kHzで、サブバンド符号化におけるサブバンド数が32のとき、最大間引き条件でのサブバンド符号のサンプルレートは500Hzとなる。このサンプルレートは、通常、音声特徴を表す場合の時間解像度としては充分なものである。よって、時間解像度の観点からも最大間引きで問題なく、周波数解像度の低下も生じない。その結果、サブバンド符号復号部における出力サンプル当たりの乗算回数は、上記の折り返し雑音を防止するための方法を採用した場合と比較し、単純計算で約1/4以下にできる。   For example, when the final output sampling rate is 16 kHz and the number of subbands in subband coding is 32, the subband code sampling rate under the maximum thinning-out condition is 500 Hz. This sample rate is usually sufficient as a time resolution when representing audio features. Therefore, there is no problem with the maximum thinning from the viewpoint of time resolution, and the frequency resolution does not deteriorate. As a result, the number of multiplications per output sample in the subband code decoding unit can be reduced to about 1/4 or less by simple calculation as compared with the case where the method for preventing the aliasing noise is employed.

一方で、混合重みおよびスペクトル特徴情報から決まる振幅乗数は、サブバンド符号化波形ベクトルの全ての乗数に乗じる必要がある。例えば、音源波形の分割数Nが、サブバンド符号化におけるサブバンド数Dと等しい場合、この処理の乗算回数は、上記の方法における同様の処理に対してN(=D)倍となる。   On the other hand, the amplitude multiplier determined from the mixture weight and the spectral feature information needs to be multiplied by all the multipliers of the subband encoded waveform vector. For example, when the number N of excitation waveform divisions is equal to the number D of subbands in subband encoding, the number of multiplications in this process is N (= D) times that of the same process in the above method.

ただし、サブバンド符号化の際の帯域制限フィルタE(z)の遮断域における振幅特性を0と見なせるときは、実際にはサブバンド符号化波形ベクトルのうち、帯域制限フィルタの通過域と対応するサブバンドは3個となり、この3つのサブバンドの要素以外の値は全て0となる。よって、この乗算処理の回数処理量はN倍ではなく、3倍に抑えることができる。このようにして、事前に成分分解しない方法と比較しても、処理量を抑えることができる。   However, when the amplitude characteristic in the cutoff band of the band limiting filter E (z) at the time of subband coding can be regarded as 0, it actually corresponds to the pass band of the band limiting filter among the subband encoded waveform vectors. There are three subbands, and all values other than the elements of these three subbands are zero. Therefore, the number of times of multiplication processing can be suppressed to 3 times instead of N times. In this way, the processing amount can be reduced even when compared with a method that does not decompose components in advance.

なお、以上のような装置の動作は、装置内のコンピュータによりプログラムが実行されることで行なわれる。また、上記の実施形態では、出力目標音声のスペクトル特性を模擬するように、振幅調整された正弦波を合成し、特定のサブバンドにおいて振幅調整されたサブバンド分割音源波形ベクトルおよび正弦波が合成された正弦波合成成分を組み合わせて1つのサブバンド分割波形ベクトルを生成してもよい。その場合には、生成されたサブバンド分割波形ベクトルおよび振幅調整がなされたサブバンド分割音源波形ベクトルをそれぞれ単一の音声波形に合成できる。   The operation of the apparatus as described above is performed by executing a program by a computer in the apparatus. In the above embodiment, the amplitude-adjusted sine wave is synthesized so as to simulate the spectral characteristics of the output target speech, and the sub-band divided sound source waveform vector and sine wave that are amplitude-adjusted in a specific subband are synthesized. One subband division waveform vector may be generated by combining the combined sine wave components. In this case, the generated subband division waveform vector and the subband division excitation waveform vector whose amplitude has been adjusted can be combined into a single speech waveform.

100 音声合成装置
110 サブバンド符号化部
120 サブバンド符号化音源生成部
121 蓄積部
122 選択部
130 サブバンドパワー調整部
140 サブバンド復号部
200 音声合成装置
205 成分分解部
206a インパルス側分解部
206b 白色雑音側分解部
210 サブバンド符号化部
211a インパルス側符号化部
211b 白色雑音側符号化部
220 重み付き和算出部
220a インパルス側重み付き和算出部
220b 白色雑音側重み付き和算出部
221a インパルス側蓄積部
221b 白色雑音側蓄積部
222a インパルス側選択部
222b 白色雑音側選択部
223a インパルス側重み付け乗算部
223b 白色雑音側重み付け乗算部
224 加算部
DESCRIPTION OF SYMBOLS 100 Speech synthesizer 110 Subband encoding part 120 Subband encoding excitation generation part 121 Storage part 122 Selection part 130 Subband power adjustment part 140 Subband decoding part 200 Speech synthesizer 205 Component decomposition part 206a Impulse side decomposition part 206b White Noise side decomposition unit 210 Subband encoding unit 211a Impulse side encoding unit 211b White noise side encoding unit 220 Weighted sum calculation unit 220a Impulse side weighted sum calculation unit 220b White noise side weighted sum calculation unit 221a Impulse side accumulation Unit 221b white noise side accumulation unit 222a impulse side selection unit 222b white noise side selection unit 223a impulse side weighting multiplication unit 223b white noise side weighting multiplication unit 224 addition unit

Claims (6)

入力された時系列の音源制御情報およびスペクトル特性情報を基に、音声波形を合成する音声合成装置であって、
音源波形を帯域制限フィルタにより複数の周波数帯域の成分に分解する成分分解部と、
前記分解された成分をそれぞれサブバンド符号化することで、サブバンド符号化された成分で構成され所定の次元を有するサブバンド符号化波形ベクトルに変換するサブバンド符号化部と、
前記サブバンド符号化波形ベクトルに対して、前記分解成分について重み付き和を算出する重み付き和算出部と、
前記重み付き和を算出されたサブバンド符号化波形ベクトルを復号し、単一の音声波形に合成するサブバンド復号部と、を備えることを特徴とする音声合成装置。
A speech synthesizer that synthesizes speech waveforms based on input time-series sound source control information and spectrum characteristic information,
A component decomposition unit that decomposes the sound source waveform into components of a plurality of frequency bands by a band limiting filter ;
A subband encoding unit that converts each of the decomposed components into subband encoded waveform vectors that have a predetermined dimension and are configured by subband encoded components;
A weighted sum calculation unit for calculating a weighted sum for the decomposition component with respect to the subband encoded waveform vector;
A speech synthesizer comprising: a subband decoding unit that decodes the subband-encoded waveform vector for which the weighted sum is calculated and synthesizes it into a single speech waveform.
前記成分分解部は、帯域通過フィルタの集合で構成され、前記分解された成分の和により前記音源波形を近似的に再現できるように前記音源波形を成分分解することを特徴とする請求項1記載の音声合成装置。   The component decomposition unit is configured by a set of band-pass filters, and decomposes the sound source waveform into components so that the sound source waveform can be approximately reproduced by a sum of the decomposed components. Voice synthesizer. 前記成分分解部は、前記音源波形として、インパルス列および白色雑音の2種類の音源波形を用い、
前記重み付き和算出部は、入力されたスペクトル特性情報に基づくインパルス列と白色雑音との混合比で、前記2種類の音源波形に基づくサブバンド符号化波形ベクトルの重み付き和を求めることを特徴とする請求項1または請求項2記載の音声合成装置。
The component decomposition unit uses two types of sound source waveforms of an impulse train and white noise as the sound source waveform,
The weighted sum calculation unit obtains a weighted sum of subband encoded waveform vectors based on the two types of excitation waveforms based on a mixing ratio between an impulse train and white noise based on input spectrum characteristic information. The speech synthesizer according to claim 1 or 2.
前記成分分解部は、前記サブバンド符号化および復号を行なう対象の周波数帯域と同じ幅で、前記音源波形を成分分解することを特徴とする請求項1から請求項3のいずれかに記載の音声合成装置。   The speech according to any one of claims 1 to 3, wherein the component decomposition unit performs component decomposition on the sound source waveform with the same width as a frequency band to be subjected to the subband encoding and decoding. Synthesizer. 入力された時系列の音源制御情報およびスペクトル特性情報を基に、音声波形を合成する音声合成方法であって、
音源波形を帯域制限フィルタにより複数の周波数帯域の成分に分解するステップと、
前記分解された成分をそれぞれサブバンド符号化することで、サブバンド符号化された成分で構成され所定の次元を有するサブバンド符号化波形ベクトルに変換するステップと、
前記サブバンド符号化波形ベクトルに対して、前記分解成分について重み付き和を算出するステップと、
前記重み付き和を算出されたサブバンド符号化波形ベクトルを復号し、単一の音声波形に合成するステップと、を含むことを特徴とする音声合成方法。
A speech synthesis method for synthesizing a speech waveform based on input time-series sound source control information and spectrum characteristic information,
Decomposing the sound source waveform into components of a plurality of frequency bands by a band limiting filter ;
Converting each of the decomposed components into subband encoded waveform vectors each having a predetermined dimension and composed of subband encoded components ;
Calculating a weighted sum for the decomposition component for the subband encoded waveform vector;
Decoding the subband-encoded waveform vector for which the weighted sum has been calculated, and synthesizing it into a single speech waveform.
入力された時系列の音源制御情報およびスペクトル特性情報を基に、音声波形を合成する音声合成プログラムであって、
音源波形を帯域制限フィルタにより複数の周波数帯域の成分に分解する処理と、
前記分解された成分をそれぞれサブバンド符号化することで、サブバンド符号化された成分で構成され所定の次元を有するサブバンド符号化波形ベクトルに変換する処理と、
前記サブバンド符号化波形ベクトルに対して、前記分解成分について重み付き和を算出する処理と、
前記重み付き和を算出されたサブバンド符号化波形ベクトルを復号し、単一の音声波形に合成する処理と、をコンピュータに実行させることを特徴とする音声合成プログラム。
A speech synthesis program that synthesizes a speech waveform based on input time-series sound source control information and spectrum characteristic information,
Processing to decompose a sound source waveform into components of a plurality of frequency bands by a band limiting filter ;
A process of converting each of the decomposed components into a subband encoded waveform vector having a predetermined dimension composed of the subband encoded components by performing subband encoding ;
A process of calculating a weighted sum for the decomposition component with respect to the subband encoded waveform vector;
A speech synthesis program for causing a computer to execute a process of decoding the subband encoded waveform vector for which the weighted sum has been calculated and synthesizing it into a single speech waveform.
JP2012263607A 2012-11-30 2012-11-30 Speech synthesis apparatus, speech synthesis method, and speech synthesis program Expired - Fee Related JP6201205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012263607A JP6201205B2 (en) 2012-11-30 2012-11-30 Speech synthesis apparatus, speech synthesis method, and speech synthesis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012263607A JP6201205B2 (en) 2012-11-30 2012-11-30 Speech synthesis apparatus, speech synthesis method, and speech synthesis program

Publications (2)

Publication Number Publication Date
JP2014109669A JP2014109669A (en) 2014-06-12
JP6201205B2 true JP6201205B2 (en) 2017-09-27

Family

ID=51030336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012263607A Expired - Fee Related JP6201205B2 (en) 2012-11-30 2012-11-30 Speech synthesis apparatus, speech synthesis method, and speech synthesis program

Country Status (1)

Country Link
JP (1) JP6201205B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7209275B2 (en) * 2017-08-31 2023-01-20 国立研究開発法人情報通信研究機構 AUDIO DATA LEARNING DEVICE, AUDIO DATA REASONING DEVICE, AND PROGRAM
JP2022055464A (en) * 2020-09-29 2022-04-08 Kddi株式会社 Speech analyzing device, method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2841797B2 (en) * 1990-09-07 1998-12-24 三菱電機株式会社 Voice analysis and synthesis equipment
JP3264679B2 (en) * 1991-08-30 2002-03-11 沖電気工業株式会社 Code-excited linear prediction encoding device and decoding device
JP3292711B2 (en) * 1999-08-06 2002-06-17 株式会社ワイ・アール・ピー高機能移動体通信研究所 Voice encoding / decoding method and apparatus
US20090070118A1 (en) * 2004-11-09 2009-03-12 Koninklijke Philips Electronics, N.V. Audio coding and decoding
JP4727413B2 (en) * 2005-12-21 2011-07-20 三菱電機株式会社 Speech encoding / decoding device

Also Published As

Publication number Publication date
JP2014109669A (en) 2014-06-12

Similar Documents

Publication Publication Date Title
EP2486564B1 (en) Apparatus and method for generating high frequency audio signal using adaptive oversampling
RU2586846C2 (en) Processing device and method of processing input audio signal using cascaded filter bank
EP2392005B1 (en) Improved harmonic transposition
AU2011263191B2 (en) Bandwidth Extension Method, Bandwidth Extension Apparatus, Program, Integrated Circuit, and Audio Decoding Apparatus
CA3008914C (en) Improved subband block based harmonic transposition
KR102014696B1 (en) Cross product enhanced subband block based harmonic transposition
JP6132885B2 (en) Harmonic conversion
AU2013286049B2 (en) Device, method and computer program for freely selectable frequency shifts in the sub-band domain
JP4473913B2 (en) Information signal processing by transformation in spectral / modulated spectral domain representation
JP6410890B2 (en) Speech synthesis apparatus, speech synthesis method, and speech synthesis program
JP6201205B2 (en) Speech synthesis apparatus, speech synthesis method, and speech synthesis program
JP6284298B2 (en) Speech synthesis apparatus, speech synthesis method, and speech synthesis program
JP5763487B2 (en) Speech synthesis apparatus, speech synthesis method, and speech synthesis program
RU2641253C2 (en) Device and method for processing sound signal using error signal due to spectrum aliasing
JP2021157128A (en) Voice waveform synthesizing device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170808

R150 Certificate of patent or registration of utility model

Ref document number: 6201205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees