JPH07140999A - 音声合成装置及び音声合成方法 - Google Patents
音声合成装置及び音声合成方法Info
- Publication number
- JPH07140999A JPH07140999A JP5308731A JP30873193A JPH07140999A JP H07140999 A JPH07140999 A JP H07140999A JP 5308731 A JP5308731 A JP 5308731A JP 30873193 A JP30873193 A JP 30873193A JP H07140999 A JPH07140999 A JP H07140999A
- Authority
- JP
- Japan
- Prior art keywords
- information
- phoneme
- pitch pattern
- duration
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
(57)【要約】
【目的】本発明は、人間の発声に近い合成音声を生成す
ることができる音声合成装置及び音声合成方法を実現す
る。 【構成】読み仮名、アクセント型等の情報を保持するメ
モリ手段24にアクセント指令値及び又は音韻継続時間
長情報を予め用意する。音韻情報又は音韻情報及び音韻
継続時間長情報に基づいて算出した音韻の継続時間長を
用いて音素片データのパラメータ列を生成する。また算
出した音韻の継続時間長及び韻律情報又は算出した音韻
の継続時間長、韻律情報及びアクセント指令値に基づい
てピツチパターンを生成する。このようにして生成され
たパラメータ列及びピツチパターンにより音声波形を合
成することにより、人間の発声に一段と近い合成音声を
出力することができる。
ることができる音声合成装置及び音声合成方法を実現す
る。 【構成】読み仮名、アクセント型等の情報を保持するメ
モリ手段24にアクセント指令値及び又は音韻継続時間
長情報を予め用意する。音韻情報又は音韻情報及び音韻
継続時間長情報に基づいて算出した音韻の継続時間長を
用いて音素片データのパラメータ列を生成する。また算
出した音韻の継続時間長及び韻律情報又は算出した音韻
の継続時間長、韻律情報及びアクセント指令値に基づい
てピツチパターンを生成する。このようにして生成され
たパラメータ列及びピツチパターンにより音声波形を合
成することにより、人間の発声に一段と近い合成音声を
出力することができる。
Description
【0001】
【目次】以下の順序で本発明を説明する。 産業上の利用分野 従来の技術(図4) 発明が解決しようとする課題 課題を解決するための手段(図1) 作用(図1) 実施例(図1〜図3) 発明の効果
【0002】
【産業上の利用分野】本発明は音声合成装置及び音声合
成方法に関し、特に入力文字系列より音声を合成するテ
キスト音声合成装置及びテキスト音声合成方法に適用し
て好適なものである。
成方法に関し、特に入力文字系列より音声を合成するテ
キスト音声合成装置及びテキスト音声合成方法に適用し
て好適なものである。
【0003】
【従来の技術】従来、音声合成装置においては一般に図
4に示すような処理を行なうことにより音声合成を行な
つている。まず音声合成装置1において、所定の入力装
置よりテキスト入力部2に漢字仮名混じりの日本語テキ
ストが入力され、テキストを文章解析部3に出力する。
文章解析部3は入力されたテキストを辞書4を基準にし
て解析し、読み仮名文字列に変換した後、単語固有のア
クセント型を検出して単語、文節毎に分解する。
4に示すような処理を行なうことにより音声合成を行な
つている。まず音声合成装置1において、所定の入力装
置よりテキスト入力部2に漢字仮名混じりの日本語テキ
ストが入力され、テキストを文章解析部3に出力する。
文章解析部3は入力されたテキストを辞書4を基準にし
て解析し、読み仮名文字列に変換した後、単語固有のア
クセント型を検出して単語、文節毎に分解する。
【0004】すなわち日本語においては、英語のように
単語が分かち書きされていないことから、例えば「米国
産業界」のような言葉は、「米国/産業・界」、「米/
国産/業界」のように2種類に区分化することができ
る。
単語が分かち書きされていないことから、例えば「米国
産業界」のような言葉は、「米国/産業・界」、「米/
国産/業界」のように2種類に区分化することができ
る。
【0005】このため文章解析部3は辞書4を参考にし
ながら、言葉の連続関係及び単語の統計的性質を利用し
て、テキスト入力を単語、文節毎に分解するようになさ
れ、これにより単語、文節の境界を検出する。さらに文
章解析部3は、このようにして求められた各文章毎の読
み仮名(音韻に関する情報)と文節境界及びアクセント
型(韻律に関する情報)とを示す記号列を記号列解析部
5に出力する。
ながら、言葉の連続関係及び単語の統計的性質を利用し
て、テキスト入力を単語、文節毎に分解するようになさ
れ、これにより単語、文節の境界を検出する。さらに文
章解析部3は、このようにして求められた各文章毎の読
み仮名(音韻に関する情報)と文節境界及びアクセント
型(韻律に関する情報)とを示す記号列を記号列解析部
5に出力する。
【0006】記号列解析部5はこの記号列を音韻情報及
び韻律情報に分離して抽出し、音韻情報は音韻継続時間
長算出部6及びパラメータ接続部7に出力され、韻律情
報はピツチパターン生成部8に出力される。ここで音韻
情報とは発声される音に関する情報、韻律情報とはアク
セントやイントネーシヨンに関する情報である。
び韻律情報に分離して抽出し、音韻情報は音韻継続時間
長算出部6及びパラメータ接続部7に出力され、韻律情
報はピツチパターン生成部8に出力される。ここで音韻
情報とは発声される音に関する情報、韻律情報とはアク
セントやイントネーシヨンに関する情報である。
【0007】音韻継続時間長算出部6に音韻情報が入力
されると、音韻継続時間長算出部6は音韻情報より各音
韻の継続時間長を算出する。例えば音韻の継続時間長を
算出する方法として、母音の継続時間長を次式
されると、音韻継続時間長算出部6は音韻情報より各音
韻の継続時間長を算出する。例えば音韻の継続時間長を
算出する方法として、母音の継続時間長を次式
【数1】 のように母音の平均継続時間長と、音韻環境の各要因に
おける母音平均長からの変動分の時間長とを加えること
により求める手法がある。この手法は平成2年3月の日
本音響学会講演論文集(海木他著)に発表されている。
おける母音平均長からの変動分の時間長とを加えること
により求める手法がある。この手法は平成2年3月の日
本音響学会講演論文集(海木他著)に発表されている。
【0008】この(1)式において、αは係数行列、σ
は母音の音韻環境が各要因のどのカテゴリに該当するか
を示す係数「1」又は「0」の行列、mは要因数(すな
わち母音の種類、前方音韻の種類、前々方音韻の種類、
後方音韻の種類、後々方音韻の種類、前方が促音、後方
が促音、長音、呼気段落モーラ数、呼気段落内位置、文
モーラ数、文内位置)、lは各要因のカテゴリ数を表
す。
は母音の音韻環境が各要因のどのカテゴリに該当するか
を示す係数「1」又は「0」の行列、mは要因数(すな
わち母音の種類、前方音韻の種類、前々方音韻の種類、
後方音韻の種類、後々方音韻の種類、前方が促音、後方
が促音、長音、呼気段落モーラ数、呼気段落内位置、文
モーラ数、文内位置)、lは各要因のカテゴリ数を表
す。
【0009】この場合、入力として与えられるパラメー
タは求めようとしている音韻の音韻環境であり、母音平
均長からの変動分は予め大量の文章を分析して求めてお
くことにより実現される。
タは求めようとしている音韻の音韻環境であり、母音平
均長からの変動分は予め大量の文章を分析して求めてお
くことにより実現される。
【0010】このようにして求められた音韻の継続時間
長はパラメータ接続部7及びピツチパターン生成部8に
出力される。パラメータ接続部7では、音韻情報及び算
出した各音韻の継続時間長に基づいて、音素片データベ
ース9より読み出した音素片データを接続してパラメー
タ列を生成する。生成されたパラメータ列は音声合成部
10に出力される。
長はパラメータ接続部7及びピツチパターン生成部8に
出力される。パラメータ接続部7では、音韻情報及び算
出した各音韻の継続時間長に基づいて、音素片データベ
ース9より読み出した音素片データを接続してパラメー
タ列を生成する。生成されたパラメータ列は音声合成部
10に出力される。
【0011】他方、ピツチパターン生成部8では、韻律
情報及び算出した各音韻の継続時間長に基づいてピツチ
パターンを生成し、生成されたピツチパターンは音声合
成部10に出力される。
情報及び算出した各音韻の継続時間長に基づいてピツチ
パターンを生成し、生成されたピツチパターンは音声合
成部10に出力される。
【0012】ここでピツチパターン算出の例として、次
式
式
【数2】 に示すようにピツチパターンをフレーズ成分とアクセン
ト成分とに分け、それぞれがインパルス入力、ステツプ
入力で駆動される2次臨界応答出力の和で表現するモデ
ルがある。このモデルは1989年1月の通信学会論文誌 V
ol.J72-A, No.1(藤崎他著「基本周波数パターン生成過
程モデルに基づく文章音声の合成」)に発表されてい
る。
ト成分とに分け、それぞれがインパルス入力、ステツプ
入力で駆動される2次臨界応答出力の和で表現するモデ
ルがある。このモデルは1989年1月の通信学会論文誌 V
ol.J72-A, No.1(藤崎他著「基本周波数パターン生成過
程モデルに基づく文章音声の合成」)に発表されてい
る。
【0013】この(2)式において、Gpi(t) 、G
aj(t) はそれぞれフレーズ制御機構のインパルス応答、
アクセント制御機構のステツプ応答であり、t≧0の範
囲ではインパルス応答、ステツプ応答はそれぞれ次式
aj(t) はそれぞれフレーズ制御機構のインパルス応答、
アクセント制御機構のステツプ応答であり、t≧0の範
囲ではインパルス応答、ステツプ応答はそれぞれ次式
【数3】 及び次式
【数4】 となる。
【0014】この(3)式及び(4)式において、F
min は最低ピツチ周波数、α、β、θは定数、Apiはフ
レーズ指令の大きさ、Tliはフレーズ指令の位置、Aaj
はアクセント指令の大きさ、T1jはアクセント指令の開
始位置、T2jはアクセント指令の終了位置である。また
t<0ではGpi(t) =Gaj(t) =0となる。
min は最低ピツチ周波数、α、β、θは定数、Apiはフ
レーズ指令の大きさ、Tliはフレーズ指令の位置、Aaj
はアクセント指令の大きさ、T1jはアクセント指令の開
始位置、T2jはアクセント指令の終了位置である。また
t<0ではGpi(t) =Gaj(t) =0となる。
【0015】この場合、入力として与えられるパラメー
タは、入力の時刻、大きさ及び応答の速さを決める係数
である。これらの値は、予め大量の文章を分析して求め
て保持しておき、所定の規則により適切な値を用いてピ
ツチパターンを生成する。次に音声合成部10はパラメ
ータ列及びピツチパターンに基づいて波形合成処理を行
い、デイジタルアナログ変換部(D/A部)11を介し
て合成音声信号を出力する。
タは、入力の時刻、大きさ及び応答の速さを決める係数
である。これらの値は、予め大量の文章を分析して求め
て保持しておき、所定の規則により適切な値を用いてピ
ツチパターンを生成する。次に音声合成部10はパラメ
ータ列及びピツチパターンに基づいて波形合成処理を行
い、デイジタルアナログ変換部(D/A部)11を介し
て合成音声信号を出力する。
【0016】
【発明が解決しようとする課題】ところでこのような従
来のテキスト音声合成装置1では、ピツチパターンの算
出は、テキスト解析のための辞書に予め記載されている
各単語のアクセント型と、単語が連なつた場合のアクセ
ントの変化規則とにより、文節のアクセントが求められ
て記号列に出力されている。この場合、同じアクセント
型で同じモーラ数の単語が文章中の同じ位置に出現した
場合には、求められるアクセントパターンは同じものと
なる。
来のテキスト音声合成装置1では、ピツチパターンの算
出は、テキスト解析のための辞書に予め記載されている
各単語のアクセント型と、単語が連なつた場合のアクセ
ントの変化規則とにより、文節のアクセントが求められ
て記号列に出力されている。この場合、同じアクセント
型で同じモーラ数の単語が文章中の同じ位置に出現した
場合には、求められるアクセントパターンは同じものと
なる。
【0017】また音韻の継続時間長は、算出しようとし
ている音韻の前後、その前後の音韻環境や文章中の位置
を考慮して求められるが、同じ音韻環境で異なる単語の
場合には、求められる音韻の継続時間長は同じものとな
る。
ている音韻の前後、その前後の音韻環境や文章中の位置
を考慮して求められるが、同じ音韻環境で異なる単語の
場合には、求められる音韻の継続時間長は同じものとな
る。
【0018】ところが実際に人間が発声した場合のピツ
チのパターンは、同じアクセント型で同じモーラ数の単
語が文章中の同じ位置に出現しても、同じピツチパター
ンで話されることはほとんどなく、音韻の継続時間長も
ミクロ的に同じ音韻環境であつても単語単位のようなマ
クロの音韻環境を考えると同様の長さになるということ
は少ない。従つて従来のテキスト音声合成装置の合成音
声は、単調になつてしまうという問題があつた。
チのパターンは、同じアクセント型で同じモーラ数の単
語が文章中の同じ位置に出現しても、同じピツチパター
ンで話されることはほとんどなく、音韻の継続時間長も
ミクロ的に同じ音韻環境であつても単語単位のようなマ
クロの音韻環境を考えると同様の長さになるということ
は少ない。従つて従来のテキスト音声合成装置の合成音
声は、単調になつてしまうという問題があつた。
【0019】本発明は以上の点を考慮してなされたもの
で、人間の発声に近い合成音声を得ることができる音声
合成装置及び音声合成方法を提案しようとするものであ
る。
で、人間の発声に近い合成音声を得ることができる音声
合成装置及び音声合成方法を提案しようとするものであ
る。
【0020】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、読み仮名、アクセント型等の情報
の他に音韻継続時間長情報及び又はアクセント指令値を
保持するメモリ手段24を基準にして、入力された文章
を解析して当該文章の音韻情報及び韻律情報を示す記号
列データを出力する文章解析手段23と、記号列データ
を音韻情報及び韻律情報に分離して抽出する記号列解析
手段25と、音韻情報又は音韻情報及びメモリ手段24
に保持されている音韻継続時間長情報に基づいて音韻の
継続時間長を算出する音韻継続時間長算出手段26と、
音韻情報及び音韻の継続時間長に基づいてパラメータ列
を生成するパラメータ接続手段27と、音韻の継続時間
長及び韻律情報又は音韻の継続時間長、韻律情報及びメ
モリ手段24に保持されているアクセント指令値に基づ
いてピツチパターンを生成するピツチパターン生成手段
28と、パラメータ列及びピツチパターンより音声波形
を合成する音声合成手段30とを設けるようにする。
め本発明においては、読み仮名、アクセント型等の情報
の他に音韻継続時間長情報及び又はアクセント指令値を
保持するメモリ手段24を基準にして、入力された文章
を解析して当該文章の音韻情報及び韻律情報を示す記号
列データを出力する文章解析手段23と、記号列データ
を音韻情報及び韻律情報に分離して抽出する記号列解析
手段25と、音韻情報又は音韻情報及びメモリ手段24
に保持されている音韻継続時間長情報に基づいて音韻の
継続時間長を算出する音韻継続時間長算出手段26と、
音韻情報及び音韻の継続時間長に基づいてパラメータ列
を生成するパラメータ接続手段27と、音韻の継続時間
長及び韻律情報又は音韻の継続時間長、韻律情報及びメ
モリ手段24に保持されているアクセント指令値に基づ
いてピツチパターンを生成するピツチパターン生成手段
28と、パラメータ列及びピツチパターンより音声波形
を合成する音声合成手段30とを設けるようにする。
【0021】また本発明においては、読み仮名、アクセ
ント型等の情報の他に音韻継続時間長情報及び又はアク
セント指令値を保持するメモリ手段24を基準にして、
入力された文章を解析して当該文章の音韻情報及び韻律
情報を示す記号列データを出力し、記号列データを音韻
情報及び韻律情報に分離して抽出し、音韻情報又は音韻
情報及びメモリ手段24に保持されている音韻継続時間
長情報に基づいて音韻の継続時間長を算出し、音韻情報
及び音韻の継続時間長に基づいてパラメータ列を生成
し、音韻の継続時間長及び韻律情報又は音韻の継続時間
長、韻律情報及びメモリ手段24に保持されているアク
セント指令値に基づいてピツチパターンを生成し、パラ
メータ列及びピツチパターンより音声波形を合成するよ
うにする。
ント型等の情報の他に音韻継続時間長情報及び又はアク
セント指令値を保持するメモリ手段24を基準にして、
入力された文章を解析して当該文章の音韻情報及び韻律
情報を示す記号列データを出力し、記号列データを音韻
情報及び韻律情報に分離して抽出し、音韻情報又は音韻
情報及びメモリ手段24に保持されている音韻継続時間
長情報に基づいて音韻の継続時間長を算出し、音韻情報
及び音韻の継続時間長に基づいてパラメータ列を生成
し、音韻の継続時間長及び韻律情報又は音韻の継続時間
長、韻律情報及びメモリ手段24に保持されているアク
セント指令値に基づいてピツチパターンを生成し、パラ
メータ列及びピツチパターンより音声波形を合成するよ
うにする。
【0022】
【作用】読み仮名、アクセント型等の情報を保持するメ
モリ手段24にアクセント指令値及び又は音韻継続時間
長情報を予め用意する。パラメータ接続手段27では、
音韻情報又は音韻情報及び音韻継続時間長情報に基づい
て算出した音韻の継続時間長を用いて音素片データのパ
ラメータ列を生成する。ピツチパターン生成手段28で
は、算出した音韻の継続時間長及び韻律情報又は算出し
た音韻の継続時間長、韻律情報及びアクセント指令値に
基づいてピツチパターンを生成する。このように生成さ
れたパラメータ列及びピツチパターンより音声波形を合
成することにより、人間の発声に一段と近い合成音声を
出力することができる。
モリ手段24にアクセント指令値及び又は音韻継続時間
長情報を予め用意する。パラメータ接続手段27では、
音韻情報又は音韻情報及び音韻継続時間長情報に基づい
て算出した音韻の継続時間長を用いて音素片データのパ
ラメータ列を生成する。ピツチパターン生成手段28で
は、算出した音韻の継続時間長及び韻律情報又は算出し
た音韻の継続時間長、韻律情報及びアクセント指令値に
基づいてピツチパターンを生成する。このように生成さ
れたパラメータ列及びピツチパターンより音声波形を合
成することにより、人間の発声に一段と近い合成音声を
出力することができる。
【0023】
【実施例】以下図面について、本発明の一実施例を詳述
する。
する。
【0024】図1において、21は全体として音声合成
装置を示し、テキスト入力部22に入力されたテキスト
を所定の各処理部で処理することにより人間の発声に近
い音声を出力するようになされている。ここで音声合成
装置21は従来の音声合成装置1と同じ構成を有する
が、辞書に追加された情報と、これらの情報を用いる各
処理部の処理内容は異なる。
装置を示し、テキスト入力部22に入力されたテキスト
を所定の各処理部で処理することにより人間の発声に近
い音声を出力するようになされている。ここで音声合成
装置21は従来の音声合成装置1と同じ構成を有する
が、辞書に追加された情報と、これらの情報を用いる各
処理部の処理内容は異なる。
【0025】まず所定の入力装置よりテキスト入力部2
2に漢字仮名混じりの日本語テキストが入力され、これ
を文章解析部23に出力する。文章解析部23は入力さ
れたテキストを辞書24を基準にして解析し、読み仮名
文字列に変換した後、単語固有のアクセント型を検出し
て単語、文節毎に分解する。
2に漢字仮名混じりの日本語テキストが入力され、これ
を文章解析部23に出力する。文章解析部23は入力さ
れたテキストを辞書24を基準にして解析し、読み仮名
文字列に変換した後、単語固有のアクセント型を検出し
て単語、文節毎に分解する。
【0026】すなわち文章解析部23は辞書24を参考
にしながら、言葉の連続関係及び単語の統計的性質を利
用して、テキスト入力を単語、文節毎に分解するように
なされ、これにより単語、文節の境界を検出する。さら
に文章解析部23は、このようにして求められた各文章
毎の読み仮名(音韻に関する情報)と文節境界及びアク
セント型(韻律に関する情報)とを示す記号列を記号列
解析部25に出力する。
にしながら、言葉の連続関係及び単語の統計的性質を利
用して、テキスト入力を単語、文節毎に分解するように
なされ、これにより単語、文節の境界を検出する。さら
に文章解析部23は、このようにして求められた各文章
毎の読み仮名(音韻に関する情報)と文節境界及びアク
セント型(韻律に関する情報)とを示す記号列を記号列
解析部25に出力する。
【0027】ここで辞書24には、アクセント型を示す
情報の他に単語固有のアクセント指令値及び音韻継続時
間長情報が予め保持され、音韻継続時間長算出部26は
音韻継続時間長情報を読み出し、ピツチパターン生成部
27はアクセント指令値を読出す。次に記号列解析部2
5はこの記号列を音韻情報及び韻律情報に分離して抽出
し、音韻情報を音韻継続時間長算出部26及びパラメー
タ接続部27に出力し、韻律情報をピツチパターン生成
部28に出力する。
情報の他に単語固有のアクセント指令値及び音韻継続時
間長情報が予め保持され、音韻継続時間長算出部26は
音韻継続時間長情報を読み出し、ピツチパターン生成部
27はアクセント指令値を読出す。次に記号列解析部2
5はこの記号列を音韻情報及び韻律情報に分離して抽出
し、音韻情報を音韻継続時間長算出部26及びパラメー
タ接続部27に出力し、韻律情報をピツチパターン生成
部28に出力する。
【0028】音韻継続時間長算出部26では、記号列解
析部25からの音韻情報及び辞書24からの音韻継続時
間長情報より各音韻の継続時間長を算出する。例えば、
「白い花(shiroihana)」というテキストが入力された
場合、この「白い花」の3番目の母音(すなわち
「i」)の継続時間長を求める場合を以下に説明する。
析部25からの音韻情報及び辞書24からの音韻継続時
間長情報より各音韻の継続時間長を算出する。例えば、
「白い花(shiroihana)」というテキストが入力された
場合、この「白い花」の3番目の母音(すなわち
「i」)の継続時間長を求める場合を以下に説明する。
【0029】この母音「i」の継続時間長は(1)式よ
り求めることができる。すなわち具体的には母音「i」
の継続時間長=『/i/の場合の係数+前の音韻が/o
/の場合の係数+前々方の音韻が/r/の場合の係数+
後の音韻が/h/の場合の係数+後々方の音韻が/a/
の場合の係数+前が促音でない場合の係数+後が促音で
ない場合の係数+長音でない場合の係数+呼気段落のモ
ーラ長「s」の場合の係数+呼気段落中の場合の係数』
+文のモーラ長Nの場合の係数+文中の場合の係数とな
る。
り求めることができる。すなわち具体的には母音「i」
の継続時間長=『/i/の場合の係数+前の音韻が/o
/の場合の係数+前々方の音韻が/r/の場合の係数+
後の音韻が/h/の場合の係数+後々方の音韻が/a/
の場合の係数+前が促音でない場合の係数+後が促音で
ない場合の係数+長音でない場合の係数+呼気段落のモ
ーラ長「s」の場合の係数+呼気段落中の場合の係数』
+文のモーラ長Nの場合の係数+文中の場合の係数とな
る。
【0030】次にこの式の『』で囲んだ項を予め辞書2
4に保持してある値に置き換えて、母音/i/の継続時
間長を算出する。すなわち母音「i」の継続時間長=
『辞書24より読み出した値』+文のモーラ長Nの場合
の係数+文中の場合の係数となる。
4に保持してある値に置き換えて、母音/i/の継続時
間長を算出する。すなわち母音「i」の継続時間長=
『辞書24より読み出した値』+文のモーラ長Nの場合
の係数+文中の場合の係数となる。
【0031】このように予め辞書24に各音韻の継続時
間長を求めるのに必要な音韻継続時間長情報を用意し、
この音韻継続時間長情報を用いて各音韻の継続時間長を
(1)式より算出すれば、異なる単語が同じ音韻環境に
あつても、それぞれの単語に応じた自然な継続時間長を
算出することができる。ここで未知語には継続時間長情
報は存在しないので、未知語の場合には従来の方法によ
り音韻の継続時間長を算出する。
間長を求めるのに必要な音韻継続時間長情報を用意し、
この音韻継続時間長情報を用いて各音韻の継続時間長を
(1)式より算出すれば、異なる単語が同じ音韻環境に
あつても、それぞれの単語に応じた自然な継続時間長を
算出することができる。ここで未知語には継続時間長情
報は存在しないので、未知語の場合には従来の方法によ
り音韻の継続時間長を算出する。
【0032】このようにして算出された各音韻の継続時
間長はパラメータ接続部27及びピツチパターン生成部
28に出力される。パラメータ接続部27では、記号列
解析部25からの音韻情報と音韻継続時間長算出部26
で算出された音韻の継続時間長とに基づいて、音素片デ
ータベース29から選択した音素片データを接続し、パ
ラメータ列を生成する。生成されたパラメータ列は音声
合成部30に出力される。
間長はパラメータ接続部27及びピツチパターン生成部
28に出力される。パラメータ接続部27では、記号列
解析部25からの音韻情報と音韻継続時間長算出部26
で算出された音韻の継続時間長とに基づいて、音素片デ
ータベース29から選択した音素片データを接続し、パ
ラメータ列を生成する。生成されたパラメータ列は音声
合成部30に出力される。
【0033】他方、ピツチパターン生成部28では、記
号列解析部25からの韻律情報、辞書24からのアクセ
ント指令値及び音韻継続時間長算出部26で算出された
音韻の継続時間長に基づいて、ピツチパターンを生成す
る。
号列解析部25からの韻律情報、辞書24からのアクセ
ント指令値及び音韻継続時間長算出部26で算出された
音韻の継続時間長に基づいて、ピツチパターンを生成す
る。
【0034】ここで例えばフレーズ指令及びアクセント
指令がそれぞれ1つずつの場合の従来のピツチパターン
の生成過程を図2に示す。上述のように従来のピツチパ
ターン生成過程において、入力として与えられるパラメ
ータは予め大量の文章を分析して求めてた値であり、所
定の規則によつてそれぞれに適した値を選択し、この選
択した値をそれぞれアクセント指令の大きさA1、開始
位置t1、終了位置t2、応答速度β1に使用してピツ
チパターンを生成している。
指令がそれぞれ1つずつの場合の従来のピツチパターン
の生成過程を図2に示す。上述のように従来のピツチパ
ターン生成過程において、入力として与えられるパラメ
ータは予め大量の文章を分析して求めてた値であり、所
定の規則によつてそれぞれに適した値を選択し、この選
択した値をそれぞれアクセント指令の大きさA1、開始
位置t1、終了位置t2、応答速度β1に使用してピツ
チパターンを生成している。
【0035】他方この実施例においては、予め辞書24
に各単語に固有のアクセント指令値を保持しておき、辞
書24より所定の単語のアクセント指令の大きさA2、
開始位置t3、終了位置t4、応答速度β2を読み出
し、これらを用いて図3に示すようなピツチパターンを
算出することにより、単語特有のピツチパターンを得
る。
に各単語に固有のアクセント指令値を保持しておき、辞
書24より所定の単語のアクセント指令の大きさA2、
開始位置t3、終了位置t4、応答速度β2を読み出
し、これらを用いて図3に示すようなピツチパターンを
算出することにより、単語特有のピツチパターンを得
る。
【0036】このように予め辞書24に各単語ごとの固
有のアクセント指令値を用意し、このアクセント指令値
を用いることによりピツチパターンを生成すれば、同じ
アクセント型で同じモーラ数の単語が文章中の同じ位置
に出現してもそれぞれの単語特有のアクセントパターン
を得ることができるので、単語特有のピツチパターンを
得ることができる。ここで未知語の場合には、音韻の継
続時間長の算出の場合と同様に従来の方法によりアクセ
ント指令値を算出する。
有のアクセント指令値を用意し、このアクセント指令値
を用いることによりピツチパターンを生成すれば、同じ
アクセント型で同じモーラ数の単語が文章中の同じ位置
に出現してもそれぞれの単語特有のアクセントパターン
を得ることができるので、単語特有のピツチパターンを
得ることができる。ここで未知語の場合には、音韻の継
続時間長の算出の場合と同様に従来の方法によりアクセ
ント指令値を算出する。
【0037】このようにして生成されたピツチパターン
は音声合成部30に出力され、音声合成部30において
パラメータ列及びピツチパターンより音声波形を合成
し、D/A部31を介して合成音声信号を出力する。
は音声合成部30に出力され、音声合成部30において
パラメータ列及びピツチパターンより音声波形を合成
し、D/A部31を介して合成音声信号を出力する。
【0038】以上の構成において、辞書24に音韻継続
時間長情報とアクセント指令値とを予め保持しておく。
テキスト入力部22に、辞書24に登録されている語が
入力された場合、パラメータ接続部27においては、辞
書24に保持されている音韻継続時間長情報を用いて算
出した音韻の継続時間長及び音韻情報に基づいて音素片
データのパラメータ列が生成される。またピツチパター
ン生成部28においては、算出した音韻の継続時間長、
音韻情報及び辞書24に保持されているアクセント指令
書に基づいてピツチパターンが生成される。
時間長情報とアクセント指令値とを予め保持しておく。
テキスト入力部22に、辞書24に登録されている語が
入力された場合、パラメータ接続部27においては、辞
書24に保持されている音韻継続時間長情報を用いて算
出した音韻の継続時間長及び音韻情報に基づいて音素片
データのパラメータ列が生成される。またピツチパター
ン生成部28においては、算出した音韻の継続時間長、
音韻情報及び辞書24に保持されているアクセント指令
書に基づいてピツチパターンが生成される。
【0039】このようにして生成したパラメータ列及び
ピツチパターンは各単語固有のパラメータ列及びピツチ
パターンになるので、これらのパラメータ列とピツチパ
ターンとを合成して得られる合成音声は一段と人間の発
声に近い合成音声となる。
ピツチパターンは各単語固有のパラメータ列及びピツチ
パターンになるので、これらのパラメータ列とピツチパ
ターンとを合成して得られる合成音声は一段と人間の発
声に近い合成音声となる。
【0040】以上の構成によれば、テキスト解析用の辞
書24に、各単語のアクセント指令値と音韻継続時間長
情報とを追加して保持する。辞書24に登録されている
語が入力された場合には、音韻継続時間長情報を用いて
算出した音韻の継続時間長に基づいてパラメータ列を生
成し、この算出された音韻の継続時間長及び辞書24に
保持されているアクセント指令値に基づいてピツチパタ
ーンを生成することにより、人間の発声に一段と近い合
成音声を出力することがてきる。
書24に、各単語のアクセント指令値と音韻継続時間長
情報とを追加して保持する。辞書24に登録されている
語が入力された場合には、音韻継続時間長情報を用いて
算出した音韻の継続時間長に基づいてパラメータ列を生
成し、この算出された音韻の継続時間長及び辞書24に
保持されているアクセント指令値に基づいてピツチパタ
ーンを生成することにより、人間の発声に一段と近い合
成音声を出力することがてきる。
【0041】なお上述の実施例においては、辞書24に
アクセント指令値及び音韻継続時間長情報の両方を保持
する場合について述べたが、本発明はこれに限らず、い
ずれか1つの情報だけを辞書24に保持するようにして
もよい。
アクセント指令値及び音韻継続時間長情報の両方を保持
する場合について述べたが、本発明はこれに限らず、い
ずれか1つの情報だけを辞書24に保持するようにして
もよい。
【0042】
【発明の効果】上述のように本発明によれば、メモリ手
段にアクセント指令値及び又は音韻の継続時間長情報を
予め保持し、音韻情報又は音韻情報及び音韻継続時間長
情報に基づいて算出した音韻の継続時間長を用いて音素
片データのパラメータ列を生成し、算出した音韻の継続
時間長及び韻律情報又は算出した音韻の継続時間長、韻
律情報及びアクセント指令値に基づいてピツチパターン
を生成して、これらのパラメータ列及びピツチパターン
により音声波形を合成することにより、人間の発声に一
段と近い合成音声を出力することができる。
段にアクセント指令値及び又は音韻の継続時間長情報を
予め保持し、音韻情報又は音韻情報及び音韻継続時間長
情報に基づいて算出した音韻の継続時間長を用いて音素
片データのパラメータ列を生成し、算出した音韻の継続
時間長及び韻律情報又は算出した音韻の継続時間長、韻
律情報及びアクセント指令値に基づいてピツチパターン
を生成して、これらのパラメータ列及びピツチパターン
により音声波形を合成することにより、人間の発声に一
段と近い合成音声を出力することができる。
【図1】本発明によるテキスト音声合成装置の一実施例
の機能構成を示すブロツク図である。
の機能構成を示すブロツク図である。
【図2】従来のテキスト音声合成装置により算出される
ピツチパターンを示す特性曲線である。
ピツチパターンを示す特性曲線である。
【図3】実施例におけるテキスト音声合成装置により算
出されるピツチパターンを示す特性曲線である。
出されるピツチパターンを示す特性曲線である。
【図4】従来のテキスト音声合成装置の機能構成を示す
ブロツク図である。
ブロツク図である。
1、21……音声合成装置、2、22……テキスト入力
部、3、23……文章解析部、4、24……辞書、5、
25……記号列解析部、6、26……音韻継続時間長算
出部、7、27……パラメータ接続部、8、28……ピ
ツチパターン生成部、9、29……音素片データベー
ス、10、30……音声合成部、11、31……D/A
部。
部、3、23……文章解析部、4、24……辞書、5、
25……記号列解析部、6、26……音韻継続時間長算
出部、7、27……パラメータ接続部、8、28……ピ
ツチパターン生成部、9、29……音素片データベー
ス、10、30……音声合成部、11、31……D/A
部。
Claims (2)
- 【請求項1】読み仮名、アクセント型等の情報の他に音
韻継続時間長情報及び又はアクセント指令値を保持する
メモリ手段を基準にして、入力された文章を解析して当
該文章の音韻情報及び韻律情報を示す記号列データを出
力する文章解析手段と、 上記記号列データを音韻情報及び韻律情報に分離して抽
出する記号列解析手段と、 上記音韻情報又は上記音韻情報及び上記メモリ手段に保
持されている音韻継続時間長情報に基づいて音韻の継続
時間長を算出する音韻継続時間長算出手段と、 上記音韻情報及び上記音韻の継続時間長に基づいてパラ
メータ列を生成するパラメータ接続手段と、 上記音韻の継続時間長及び上記韻律情報又は上記音韻の
継続時間長、上記韻律情報及び上記メモリ手段に保持さ
れているアクセント指令値に基づいてピツチパターンを
生成するピツチパターン生成手段と、 上記パラメータ列及び上記ピツチパターンより音声波形
を合成する音声合成手段とを具えることを特徴とする音
声合成装置。 - 【請求項2】読み仮名、アクセント型等の情報の他に音
韻継続時間長情報及び又はアクセント指令値を保持する
メモリ手段を基準にして、入力された文章を解析して当
該文章の音韻情報及び韻律情報を示す記号列データを出
力し、 上記記号列データを音韻情報及び韻律情報に分離して抽
出し、 上記音韻情報又は上記音韻情報及び上記メモリ手段に保
持されている音韻継続時間長情報に基づいて音韻の継続
時間長を算出し、 上記音韻情報及び上記音韻の継続時間長に基づいてパラ
メータ列を生成し、 上記音韻の継続時間長及び上記韻律情報又は上記音韻の
継続時間長、上記韻律情報及び上記メモリ手段に保持さ
れているアクセント指令値に基づいてピツチパターンを
生成し、 上記パラメータ列及び上記ピツチパターンより音声波形
を合成することを特徴とする音声合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30873193A JP3397406B2 (ja) | 1993-11-15 | 1993-11-15 | 音声合成装置及び音声合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30873193A JP3397406B2 (ja) | 1993-11-15 | 1993-11-15 | 音声合成装置及び音声合成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07140999A true JPH07140999A (ja) | 1995-06-02 |
JP3397406B2 JP3397406B2 (ja) | 2003-04-14 |
Family
ID=17984611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30873193A Expired - Fee Related JP3397406B2 (ja) | 1993-11-15 | 1993-11-15 | 音声合成装置及び音声合成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3397406B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100403293B1 (ko) * | 1999-07-23 | 2003-10-30 | 코나미 가부시키가이샤 | 음성합성방법, 음성합성장치 및 음성합성프로그램을기록한 컴퓨터판독 가능한 매체 |
KR100522889B1 (ko) * | 1999-07-21 | 2005-10-19 | 코나미 가부시키가이샤 | 음성합성방법,음성합성장치 및 음성합성 프로그램을 기록한 컴퓨터판독 가능한 매체 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01126695A (ja) * | 1987-11-11 | 1989-05-18 | Nec Corp | 音声合成装置 |
JPH05181491A (ja) * | 1991-12-30 | 1993-07-23 | Sony Corp | 音声合成装置 |
JPH05289688A (ja) * | 1992-04-13 | 1993-11-05 | Meidensha Corp | 規則音声合成装置のテーブルチューニング方法 |
JPH05289686A (ja) * | 1992-04-13 | 1993-11-05 | Meidensha Corp | 規則音声合成装置のテーブル自動更新方法 |
-
1993
- 1993-11-15 JP JP30873193A patent/JP3397406B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01126695A (ja) * | 1987-11-11 | 1989-05-18 | Nec Corp | 音声合成装置 |
JPH05181491A (ja) * | 1991-12-30 | 1993-07-23 | Sony Corp | 音声合成装置 |
JPH05289688A (ja) * | 1992-04-13 | 1993-11-05 | Meidensha Corp | 規則音声合成装置のテーブルチューニング方法 |
JPH05289686A (ja) * | 1992-04-13 | 1993-11-05 | Meidensha Corp | 規則音声合成装置のテーブル自動更新方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100522889B1 (ko) * | 1999-07-21 | 2005-10-19 | 코나미 가부시키가이샤 | 음성합성방법,음성합성장치 및 음성합성 프로그램을 기록한 컴퓨터판독 가능한 매체 |
KR100403293B1 (ko) * | 1999-07-23 | 2003-10-30 | 코나미 가부시키가이샤 | 음성합성방법, 음성합성장치 및 음성합성프로그램을기록한 컴퓨터판독 가능한 매체 |
Also Published As
Publication number | Publication date |
---|---|
JP3397406B2 (ja) | 2003-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6751592B1 (en) | Speech synthesizing apparatus, and recording medium that stores text-to-speech conversion program and can be read mechanically | |
Isewon et al. | Design and implementation of text to speech conversion for visually impaired people | |
EP0688011B1 (en) | Audio output unit and method thereof | |
JP3587048B2 (ja) | 韻律制御方法及び音声合成装置 | |
US6829577B1 (en) | Generating non-stationary additive noise for addition to synthesized speech | |
JPH0887297A (ja) | 音声合成システム | |
JP3397406B2 (ja) | 音声合成装置及び音声合成方法 | |
Moberg et al. | Cross-lingual phoneme mapping for multilingual synthesis systems. | |
KR100720175B1 (ko) | 음성합성을 위한 끊어읽기 장치 및 방법 | |
Williams | Text-to-speech synthesis for Welsh and Welsh English. | |
JP4056647B2 (ja) | 波形接続型音声合成装置および方法 | |
JPH0229797A (ja) | テキスト音声変換装置 | |
Kaur et al. | BUILDING AText-TO-SPEECH SYSTEM FOR PUNJABI LANGUAGE | |
KR920009961B1 (ko) | 무제한 단어 한국어 합성 방법 및 회로 | |
KR100202539B1 (ko) | 음성합성방법 | |
Evans et al. | An approach to producing new languages for talking applications for use by blind people | |
JPH09292897A (ja) | 音声合成装置 | |
JPH06138894A (ja) | 音声合成装置及び音声合成方法 | |
JPH08160990A (ja) | 音声合成装置 | |
JPH02234198A (ja) | テキスト音声合成システム | |
JPH07134713A (ja) | 音声合成装置 | |
Tian et al. | Modular design for Mandarin text-to-speech synthesis | |
JPH08328578A (ja) | テキスト音声合成装置 | |
JP2001166787A (ja) | 音声合成装置および自然言語処理方法 | |
Gupta et al. | INTERNATIONAL JOURNAL OF ADVANCES IN COMPUTING AND INFORMATION TECHNOLOGY |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080214 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090214 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100214 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |