JP2019109278A - Speech synthesis system, statistic model generation device, speech synthesis device, and speech synthesis method - Google Patents
Speech synthesis system, statistic model generation device, speech synthesis device, and speech synthesis method Download PDFInfo
- Publication number
- JP2019109278A JP2019109278A JP2017240349A JP2017240349A JP2019109278A JP 2019109278 A JP2019109278 A JP 2019109278A JP 2017240349 A JP2017240349 A JP 2017240349A JP 2017240349 A JP2017240349 A JP 2017240349A JP 2019109278 A JP2019109278 A JP 2019109278A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- text
- speech synthesis
- data
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 101
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 101
- 238000001308 synthesis method Methods 0.000 title claims description 7
- 238000012545 processing Methods 0.000 claims abstract description 35
- 238000000605 extraction Methods 0.000 claims description 62
- 238000013179 statistical model Methods 0.000 claims description 53
- 238000006467 substitution reaction Methods 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 17
- 230000000877 morphologic effect Effects 0.000 claims description 15
- 230000010365 information processing Effects 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims 1
- 238000003491 array Methods 0.000 abstract 2
- 238000004891 communication Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 11
- 238000000034 method Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000007619 statistical method Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 4
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
本発明は、音声合成システム、統計モデル生成装置、音声合成装置、音声合成方法に関する。 The present invention relates to a speech synthesis system, a statistical model generation device, a speech synthesis device, and a speech synthesis method.
近年、電話の自動応答、公共交通機関や自治体のアナウンス、スマートフォンやパーソナルコンピュータのアプリケーションによる情報の読み上げ等、様々な分野において音声合成技術が導入されている。また昨今、音声認識、機械翻訳、対話生成等の技術が飛躍的に向上し、音声翻訳やサービスロボット等への実用化が急速に進められている。 In recent years, speech synthesis technology has been introduced in various fields such as automatic answering of telephones, announcements by public transport organizations and local governments, and reading of information by applications of smartphones and personal computers. Also, in recent years, technologies such as speech recognition, machine translation, dialogue generation, etc. have dramatically improved, and their practical application to speech translation, service robots, etc. are rapidly advanced.
音声合成の方式としては様々なものが存在するが、中でもテキスト音声合成方式は重要技術の一つとして注目されている。一般的なテキスト音声合成方式は、テキストを発音記号列に変換するフロントエンド(Front-End)処理と、中間言語から音声波形を生成するバックエンド(Back-End)処理とを含む。昨今ではフロントエンド処理及びバックエンド処理の夫々にDNN (Deep Neural Network)等の統計的手法を適用したものも実用化されている。 There are various methods for speech synthesis, and among them, text-to-speech synthesis is attracting attention as one of the important technologies. A typical text-to-speech synthesis method includes front-end processing for converting text into phonetic symbol strings, and back-end processing for generating speech waveforms from intermediate languages. In recent years, those in which a statistical method such as DNN (Deep Neural Network) is applied to each of front-end processing and back-end processing are also put to practical use.
また最近では、中間言語を経由することなく、入力されたテキストから直接音声を生成する、いわゆるETE(End-To-End)型の音声合成方式も登場している。ETE型の音声合成方式では、音声コーパスの発話テキストの言語特徴量と音声波形の音響特徴量との関係をDNN等の統計的手法により事前に統計モデルとして用意しておき、音声合成時は統計モデルに基づき音声合成の対象となるテキストに対応する音響特徴量を有する系列を生成して音声を合成する。 Recently, a so-called ETE (End-To-End) type speech synthesis system has also appeared, which directly generates speech from input text without passing through an intermediate language. In the ETE speech synthesis method, the relationship between the language feature of the speech text of the speech corpus and the sound feature of the speech waveform is prepared in advance as a statistical model by a statistical method such as DNN, and the speech is synthesized during speech synthesis. A voice is synthesized by generating a sequence having an acoustic feature corresponding to a text to be subjected to speech synthesis based on a model.
ところで、音声合成技術の利用現場においては、例えば、人名や固有名詞等についてユーザが指定した読み(発音)で音声合成を行いたいというニーズが少なからず存在し、ETE型の音声合成方式においてもユーザ辞書の機能に対するニーズは少なくない。しかしETE型の音声合成方式における統計モデルは、その全体(DNNモデル等)が一つの大きなモデルとして構成されており、膨大なデータを用いたETE型の音声合成方式の再学習には大量の計算機リソースが必要となり、ユーザ辞書の内容を学習データに追加したり新語を追加する度に統計モデルを再学習することは必ずしも現実的でない。 By the way, in the field where speech synthesis technology is used, there are not a few needs to perform speech synthesis by reading (pronunciation) specified by the user for personal names, proper nouns, etc., for example. There is a great need for dictionary functionality. However, the statistical model in the ETE speech synthesis system is configured as a whole large model (such as the DNN model), and a large amount of computers are required for relearning the ETE speech synthesis system using a large amount of data. Resources are required, and it is not always practical to re-learn a statistical model each time you add the contents of a user dictionary to training data or add new words.
本発明はこうした背景に鑑みてなされたものであり、ユーザが指定した読み(発音)での音声合成を行うことが可能なETE型の音声合成方式による音声合成システム等を提供することを目的とする。 The present invention has been made in view of the above background, and it is an object of the present invention to provide an ETE-type speech synthesis system etc. capable of performing speech synthesis in reading (pronunciation) specified by a user. Do.
上記課題を解決するための本発明のうちの一つは、情報処理装置を用いて構成される音声合成システムであって、発話テキストと音声データとを対応づけた学習データに基づき、音声合成に用いる統計モデルを生成するモデル学習部と、前記発話テキストの全部又は一部の単語を発音記号列で置き換えた発話テキストと音声データとを対応づけたデータを前記学習データとして生成するテキスト置換部と、単語と当該単語についての発音記号列とを対応づけた情報を含むデータであるユーザ辞書を記憶する記憶部と、音声合成の対象となるテキストである対象テキストについて、当該対象テキストに含まれている単語のうち前記ユーザ辞書に含まれている単語を前記ユーザ辞書において当該単語についての前記発音記号列で置き換えるユーザ辞書適用部と、前記置き換え後の前記対象テキストについて前記統計モデルに基づく音声合成処理を行うことにより合成音声を生成する音声合成処理部と、を備える。 One of the present inventions for solving the above problems is a speech synthesis system configured by using an information processing apparatus, which performs speech synthesis based on learning data in which an utterance text and speech data are associated with each other. A model learning unit that generates a statistical model to be used; a text substitution unit that generates, as the learning data, data in which speech data is associated with speech text in which all or part of words of the speech text are replaced with phonetic symbol strings; A storage unit for storing a user dictionary which is data including information in which a word is associated with a phonetic symbol string for the word, and a target text which is a text to be subjected to speech synthesis in the target text; A user who replaces a word included in the user dictionary among the words with the phonetic symbol string for the word in the user dictionary Comprising a write application unit, and a speech synthesis unit for generating synthetic speech by performing speech synthesis processing based on the statistical model for the target text after the replacement.
本発明によれば、ユーザが指定した読み(発音)での音声合成を行うことが可能なETE型の音声合成方式による音声合成システム等を提供することができる。 According to the present invention, it is possible to provide an ETE-type speech synthesis system or the like that can perform speech synthesis in reading (pronunciation) specified by a user.
以下、本発明に係る実施形態を図面に参照しつつ説明する。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
図1に本実施形態で説明する、ETE(End-To-End)型の音声合成方式により音声合成を行うシステム(以下、音声合成システム1と称する。)の概略的な構成を示している。 FIG. 1 shows a schematic configuration of a system (hereinafter referred to as a speech synthesis system 1) for performing speech synthesis by an ETE (End-To-End) type speech synthesis method described in the present embodiment.
音声合成システム1は、音声コーパス50の発話テキスト51の言語特徴量と音声データ52の音響特徴量との関係をDNN (Deep Neural Network)等の統計的手法(機械学習等)で学習することにより事前に統計モデル60を生成しておき、音声合成の対象となるテキスト(文章や句)(以下、入力テキスト700(対象テキスト)と称する。)に対応する音響特徴量を有する系列を統計モデル60に基づき生成して音声を合成する。
The
尚、本実施形態では、上記の統計的手法としてDNNを例として説明するが、統計的手法は必ずしも限定されず、例えば、隠れマルコフモデル(HMM:Hidden Markov Model)等の他の統計的手法を用いてもよい。また以下ではテキストとして記述される言語が日本語である場合を例として説明するが、テキストとして記述される言語は他の言語であってもよいし、テキストには複数の言語が混在していてもよい。 In the present embodiment, DNN will be described as an example of the above-described statistical method, but the statistical method is not necessarily limited. For example, other statistical methods such as Hidden Markov Model (HMM) may be used. You may use. In the following, the case where the language described as text is Japanese will be described as an example, but the language described as text may be another language, and a plurality of languages are mixed in the text. It is also good.
同図に示すように、音声合成システム1は、音声コーパス50、音声コーパス50に基づき統計モデル60を生成する統計モデル生成部100、及び、入力テキスト700に対応する音響特徴量を有する系列を生成し、生成した系列に基づき音声波形を合成して合成音声800を生成(出力)する音声合成部200、を含む。
As shown in the figure, the
音声コーパス50は、発話テキスト51と、発話テキスト51と対応づけられた音声データ52(音声波形データ、符号化された音声データ等)とを含む。音声コーパス50は、統計モデル生成部100が統計モデル60を生成する際の学習データとして用いられる。
The
音声合成部200は、統計モデル60を用い、入力テキスト700について指定された発音や発話スタイル(例えば、会話調である、感情がこもっている等の発声上の特徴や、声の抑揚、大きさ、リズム、速さ、間の長さといった要素によって特徴付けられる発声上の特徴等)等に従った音声を合成する。
The
図2は音声合成システム1の実現に用いるハードウェアの一例として示す情報処理装置10(コンピュータ、計算機リソース)のブロック図である。同図に示すように、情報処理装置10は、プロセッサ11、主記憶装置12、補助記憶装置13、入力装置14、出力装置15、及び通信装置16を備える。これらは図示しないバス等の通信手段を介して互いに通信可能に接続されている。
FIG. 2 is a block diagram of the information processing apparatus 10 (computer, computer resource) shown as an example of hardware used to realize the
尚、情報処理装置10は、その全ての構成が必ずしもハードウェアで実現されている必要はなく、例えば、構成の一部又は全部がクラウドシステムのクラウドサーバのような仮想的な資源によって実現されていてもよい。
In the
プロセッサ11は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等を用いて構成される。プロセッサ11が、主記憶装置12に格納されているプログラムを読み出して実行することにより、音声合成システム1の様々な機能が実現される。
The
主記憶装置12は、プログラムやデータを記憶する装置であり、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性半導体メモリ(NVRAM(Non Volatile RAM))等である。
The
補助記憶装置13は、例えば、ハードディスクドライブ、SSD(Solid State Drive)、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、ストレージシステム、ICカード、SDメモリカード、FD(フレキシブルディスク)等の記録媒体の読取/書込装置、クラウドサーバの記憶領域等である。補助記憶装置13に格納されているプログラムやデータは主記憶装置12に随時読み込まれる。音声コーパス50等の音声合成システム1が管理するデータは、例えば、補助記憶装置13をデータの格納領域として利用するDBMS(DataBase Management System)のデータベースに管理される。
The
入力装置14は、音声コーパス50や入力テキスト700を入力するためのインタフェース(又はユーザインタフェース)であり、例えば、キーボード、マウス、タッチパネル、カードリーダ、マイクロフォン、アンプ等である。尚、情報処理装置10が、通信装置16を介して他の装置との間で情報の入力を受け付ける構成としてもよい。
The
出力装置15は、各種の情報を出力するインタフェース(又はユーザインタフェース)であり、合成音声を出力する音声出力装置(スピーカ、アンプ等)を含む。尚、情報処理装置10は、ユーザに処理経過や処理結果等の各種情報を提供するインタフェース(例えば、音声出力装置(スピーカ等)、画面表示装置(液晶モニタ、LCD(Liquid Crystal Display)、グラフィックカード等)、印字装置等)を出力装置15として更に備えていてもよい。また情報処理装置10が、通信装置16を介して他の装置との間で情報の出力を行う構成としてもよい。
The
通信装置16は、LANやインターネット等の通信手段を介した他の装置との間の通信を実現する有線方式又は無線方式の通信インタフェースであり、例えば、NIC(Network Interface Card)、各種無線通信モジュール、USB(Universal Serial Interface)モジュール、シリアル通信モジュール、モデム等である。
The
尚、統計モデル生成部100、音声合成部200、音声コーパス50、及び統計モデル60は、これらの全てが共通のハードウェアで実現されていなくてもよく、通信可能に接続された複数のハードウェアに分散して配置されていてもよい。例えば、音声コーパス50及び統計モデル生成部100と、統計モデル60及び音声合成部200とを、独立した資源により構成してもよい。統計モデル60及び音声合成部200は、例えば、カーナビゲーション装置、スマートフォン、携帯電話機、パーソナルコンピュータ等のデバイスに組み込まれる。
The statistical
また統計モデル生成部100の後述する構成要素は、必ずしも共通のハードウェアで実現されていなくてもよく、通信可能に接続された複数のハードウェアに分散して配置されていてもよい。また音声合成部200の後述する構成要素は、必ずしも共通のハードウェアで実現されていなくてもよく、通信可能に接続された複数のハードウェアに分散して配置されていてもよい。
The components of the statistical
また音声コーパス50や統計モデル60をクラウドサーバ等の通信ネットワーク上の資源に配置し、統計モデル生成部100や音声合成部200が有線方式又は無線方式の通信ネットワークを通じて音声コーパス50や統計モデル60にアクセスするようにしてもよい。
In addition, the
また統計モデル生成部100と音声合成部200とを独立したハードウェアに配置し、統計モデル生成部100によって生成された統計モデル60を、物理的な記録媒体(光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、ハードディスクドライブ、SSD、ICカード、SDメモリカード等)や有線方式又は無線方式の通信ネットワークを介して音声合成部200に提供するようにしてもよい。
Further, the statistical
図3は、図1に示した音声合成システム1の構成を詳細に説明する図である。同図に示すように、統計モデル生成部100は、テキスト置換部110、及びモデル学習部120の各機能を有する。
FIG. 3 is a diagram for explaining the configuration of the
テキスト置換部110は、音声コーパス50の発話テキスト51の一部又は全部をテキストデータ形式の発音記号列で置き換える。より詳細には、テキスト置換部110は、発話テキスト51の一部又は全部をテキストデータ形式の発音記号列で置き換える。
The
図4は図3のテキスト置換部110の詳細を説明する図である。同図に示すように、テキスト置換部110は、置換単語抽出部111、音声特徴量抽出部112、発音記号列生成部113、及びテキスト置換処理部115を含む。
FIG. 4 is a diagram for explaining the details of the
置換単語抽出部111は、音声コーパス50の発話テキスト51のうち、発音記号列への置き換えの対象とする単語(例えば、固有名詞等)を抽出する。尚、以下の説明において、「単語」という場合、1文字、1単語、複数の単語の塊、句、節、文等、後述するユーザ辞書212への登録対象となりうる全ての態様を含むものとする。
The replacement
ここでこのように発話テキスト51から置き換えの対象とする単語を抽出するのは、音声コーパス50の全ての発話テキスト51の全ての単語を発音記号列に置き換えてしまうと、音声合成部200による音声合成に際し発音記号列の入っていないテキスト(以下、ノーマルテキストと称する。)に基づく音声合成ができなくなってしまうからである。そこで例えば、ユーザ辞書の機能を実現することが目的である場合、置換単語抽出部111は、例えば、ユーザ辞書に登録される可能性のある単語を置き換えの対象となる単語として抽出する。
The reason why the words to be replaced are extracted from the
図5は、図4に示した置換単語抽出部111の詳細を説明する図である。同図に示すように、置換単語抽出部111は、形態素解析部1111及び単語抽出部1112の各機能を有する。
FIG. 5 is a diagram for explaining the details of the replacement
また置換単語抽出部111は、単語抽出用データ106を記憶する。単語抽出用データ106には、単語抽出部1112が発音記号列への置き換えの対象となる単語として抽出するか否かの判定の基準となる情報が含まれる。単語抽出用データ106の内容は、例えば、ユーザが設定する。尚、置換単語抽出部111が、例えば、統計的手法(機械学習等)を用いて自動的に単語を抽出するようにしてもよい。
The replacement
形態素解析部1111は、形態素解析を行って発話テキスト51を言語の最小単位(日本語の場合は形態素)に分割する。例えば、発話テキスト51が「外国人参政権」である場合、形態素解析部1111は、これを「外国」、「人」、「参政」、「権」という4つの単語に分割する。
The
単語抽出部1112は、形態素解析部2101によって分割されることにより得られた単語から、発音記号列への置き換えの対象となる単語を抽出する。ここで上記抽出の方法は必ずしも限定されないが、例えば、ルールベース手法や統計ベース手法を用いて行うことができる。例えば、鉄道放送向けの音声合成システム1を構築する場合、後述するユーザ辞書212に駅名が登録されることを想定し、置換単語抽出部111は発話テキスト51から駅名を抽出する。具体的には、例えば、入力テキスト700が「新宿さんが新宿で電車を降りました。」であり、単語抽出用データ106が「表記=新宿、読み=しんじゅく、属性=駅名」である場合、単語抽出部2102は、「駅名」として「新宿」が使われている単語のみを抽出する。但しこのように駅名のみを置換するようにした場合には、アクセント型に偏りが生じる可能性がある。そこでユーザ辞書に登録される可能性のある単語を全体的に高品質に読み上げることができるように、例えば、置換単語抽出部111が、単語の音韻のバランス(選択した単語の音素つながりが偏っていないこと)や韻律のバランス(アクセント型、文中における位置などが偏っていないこと)を考慮して音声コーパス50全体の発話テキスト51から単語を適宜選択する(必要であれば駅名以外の単語も抽出対象とする)ようにしてもよい。
The
図6は、図4に示した音声特徴量抽出部112の詳細を説明する図である。音声特徴量抽出部112は、音声コーパス50の音声データ52から、例えば、発音(音素)、発話スタイル、韻律等を音声特徴量として抽出する。
FIG. 6 is a diagram for explaining the details of the audio feature
同図に示すように、音声特徴量抽出部112は、発音(音素)抽出部1121、発話スタイル抽出部1122、及び韻律特徴抽出部1123を有する。発音(音素)抽出部1121は、音声コーパス50の音声データ52から発音(音素)情報を抽出する。発話スタイル抽出部1122は、音声コーパス50の音声データ52から発話スタイル情報を抽出する。韻律特徴抽出部1123は、音声コーパス50の音声データ52から韻律特徴情報を抽出する。このように発音(音素)のみならず発話スタイルや韻律に関する情報を抽出して発音記号列に組み込むことで、合成音声の発話スタイルや抑揚をチューニングすることが可能になる。音声特徴量抽出部112は、更に別の情報を音声特徴量104として抽出してもよい。音声特徴量抽出部112が行う処理は、例えば、音声認識技術やテキスト解析技術等を用いて情報処理装置により自動的に行うことができる。尚、上記処理の一部又は全部を手動で行ってもよい。
As shown in the figure, the voice
尚、発音(音素)情報は、例えば、発話テキスト51から言語処理技術によって抽出することができるが、例えば「明日」という単語が「あした」又は「あす」のうちのいずれで発音されるのか等、言語処理技術では発音を一意に決定することができないことがあるが、その場合は例えば音声認識技術を用いて音声データ52に基づき正確な発音を抽出するようにしてもよい。例えば、ある音声データ52に対応する発話テキスト51が「明日は晴れです。」である場合、音声特徴量抽出部112は音声データ52について音声認識技術を適用することにより「アスワハレデス」という発音(音素)情報を抽出する。
The pronunciation (phoneme) information can be extracted, for example, from the
図4に戻り、発音記号列生成部113は、音声特徴量抽出部112が抽出した音声特徴量104に基づき発音記号列105を生成(音声特徴量104を発音記号列で表現)する。発音記号列105の記述方法は必ずしも限定されないが、例えば、日本語の場合、発音記号列生成部113は、音声特徴量抽出部112が抽出した音声特徴量104に基づき、JIETA(一般社団法人電子情報技術産業協会)が規定する日本語テキスト音声合成用記号(JEITA IT-4006)を生成する。
Returning to FIG. 4, the phonetic symbol
尚、一般的なテキストに用いる文字コードに含まれていないコード(記号コードや特殊コード等)を用いることで、読み(発音)指定の精度を高めることができる。例えば、発音記号列生成部113は、音声特徴量抽出部112が抽出した発音「アスワハレデス」を、「アス'ワ ハレ'テ゛ス%.」という一般的なテキストに用いる文字コードに含まれていないコードを含む発音記号列に変換する。尚、発音(音素)情報以外に、更にアクセント情報や韻律境界情報、ポーズ情報等の情報を付加して読み指定の品質を高めるようにしてもよい。
The accuracy of reading (pronunciation) designation can be enhanced by using a code (symbol code, special code, etc.) not included in the character code used for general text. For example, the phonetic symbol
テキスト置換処理部115は、発話テキスト51について、置換単語抽出部111が抽出した単語(同図における、抽出した単語103)を、これに対応する発音記号列生成部113が生成した発音記号列で置き換えた発話テキスト(以下、発音記号列を含む発話テキスト102と称する。)を生成する。
The text
図3に戻り、テキスト置換処理部115は、テキスト置換部110が生成した、発音記号列を含む発話テキスト102を、これに対応する音声データ52と組み合わせて新たな学習データとして音声コーパス50に追加する。これによりテキスト置換部110が発音記号列を含む発話テキスト102を生成する度に音声コーパス50に学習データが追加されていくことになる。
Returning to FIG. 3, the text
具体例を示すと、例えば、発話テキスト51が「次の停車駅は新宿です。」であり、置換単語抽出部111が、この発話テキスト51から「新宿」という単語(抽出した単語103)を抽出した場合、テキスト置換処理部115は、「次の停車駅はシンシ゛ュクです。」という、発音記号列を含む発話テキスト102を生成する。テキスト置換処理部115は、生成した発音記号列を含む発話テキスト102を、対応する音声データ52と組み合わせて音声コーパス50に追加する。
As a specific example, for example, the
尚、テキスト置換処理部115は、テキスト置換部110が生成した、発音記号列を含む発話テキスト102とこれに対応する音声データ52との組合せを、上記のように新たに音声コーパス50に追加してもよいし、音声コーパス50の、発音記号列に置換する前の発話テキスト51と音声データ52の組合せにおける発話テキスト51を、発音記号列を含む発話テキスト102に置換するようにしてもよい(即ち、音声コーパス50の既存の組合せを更新する)。
The text
図3に示すモデル学習部120は、音声コーパス50に含まれている、全ての発話テキスト51と音声データ52との組合せ(テキスト置換処理部115により新たに追加された組合せを含む)を学習データとして学習(機械学習等)を行い、統計モデル60を生成する。尚、このように学習データには発音記号列を含む発話テキスト102が含まれているため、生成された統計モデル60を用いることで、ノーマルテキストのみならず発音記号列を含むテキストについても音声合成を行うことができる。
The
続いて、図3に示した音声合成部200について説明する。同図に示すように、音声合成部200は、ユーザ辞書適用部210、及び音声合成処理部220の各機能を有する。
Subsequently, the
ユーザ辞書適用部210は、入力テキスト700に基づく音声合成の際、入力テキスト700中にユーザ辞書に登録されている単語を検出すると、検出した単語を当該単語についてユーザ辞書212で指定されている発音記号列に置き換え、発音記号列を含むテキスト203を生成する。尚、ユーザ辞書適用部210の機能は、単純な文字列置換のアルゴリズムによって実現することもできるが、入力テキスト700が日本語のように単語の間に明確な分割文字が存在しない言語で記述されている場合、単純な文字列置換のアルゴリズムでは上記の置き換えを正しく行うことができないことがある。例えば、ユーザ辞書212に「表記=人参、読み(発音記号列)=ニンシ゛ン」というデータが含まれている場合、単純な文字列置換のアルゴリズムでは「外国人参政権」が「外国ニンシ゛ン政権」に置き換えられてしまうとことがある。そこで本実施形態のユーザ辞書適用部210は、以下のようにして発音記号列を含むテキスト203を生成する。
When the user
図7は、ユーザ辞書適用部210の詳細を説明する図である。同図に示すように、ユーザ辞書適用部210は、形態素解析部2101、単語抽出部2102、及び発音記号列置換部2103を有する。
FIG. 7 is a diagram for explaining the details of the user
またユーザ辞書適用部210は、単語抽出用データ211及びユーザ辞書212を記憶する。単語抽出用データ211には、単語抽出部2102が置き換えの対象となる単語として抽出するか否かの判定の基準となる情報が含まれる。ユーザ辞書212は、単語(表記)と読み(発音記号列)とを対応づけた情報が含まれる。
The user
形態素解析部2101は、形態素解析を行って入力テキスト700を言語の最小単位(日本語の場合は形態素)に分割する。例えば、入力テキスト700として「外国人参政権」が入力された場合、形態素解析部2101は、これを「外国」、「人」、「参政」、「権」という4つの単語に分割する。このため、例えば、ユーザ辞書212に「表記=人参、読み(発音記号列)=ニンシ゛ン」といった内容が登録されていた場合でも誤って置き換えてしまうことはない。
The
単語抽出部2102は、形態素解析部2101によって分割された単語から、発音記号列への置き換え対象とする単語(例えば、固有名詞等)を抽出する。この抽出の方法は必ずしも限定されないが、例えば、ルールベース手法や統計ベース手法を用いて行う。前述した単語抽出部1112と同様であるが、例えば、入力テキスト700が「新宿さんが新宿で電車を降りました。」であり、単語抽出用データ211に「表記=新宿、読み=しんじゅく、属性=駅名」が登録されている場合、単語抽出部2102は、「駅名」として「新宿」が使われている単語を抽出する。
The
発音記号列置換部2103は、単語抽出部2102が抽出した単語のうち、ユーザ辞書212に登録されている単語を当該単語についてユーザ辞書212に登録されている読み(発音記号列)で置き換える。上記の例において、例えば、ユーザ辞書212に「表記=新宿、読み(発音記号列)=シンシ゛ュク」が登録されていた場合、発音記号列置換部2103は、「新宿さんが新宿で電車を降りました。」という入力テキスト700を「新宿さんがシンシ゛ュクで電車を降りました。」というテキストに置換する。
The phonetic symbol
尚、形態素解析部2101及び単語抽出部2102としては、前述した統計モデル生成部100の置換単語抽出部111における、形態素解析部1111及び単語抽出部1112と同じもの(アルゴリズムが共通するもの)を用いることが好ましい。また発音記号列置換部2103としては、前述したテキスト置換部110のテキスト置換処理部115と同じもの(アルゴリズムが共通するもの)を用いることが好ましい。このように統計モデル生成部100と音声合成部200とで共通のアルゴリズムを用いることで合成音声の品質を高めることができる。
The
図3に戻り、音声合成処理部220は、統計モデル60を用い、入力テキスト700から合成音声800を生成する。音声合成処理部220は、例えば、非特許文献1のように直接音声波形を生成する方法、非特許文献2のようにフレームごとに音声パラメータを生成した後に音声を生成する手法、非特許文献3のようなDNNで選択した音声素片をつなぎ合わせることで音声合成する手法等により、合成音声800を生成する。
Returning to FIG. 3, the speech
尚、例えば、音声コーパス50に入力テキスト700に対応する発話テキスト51が含まれていない場合にモデル学習部120統計的手法(機械学習等)により類推して統計モデル60を生成するようにしてもよい。例えば、発音記号列を含む発話テキスト102として「シンジュク」を含むものが音声コーパス50に含まれていない場合に、モデル学習部120が、統計的手法により類推して「シンジュク」と音声データ52との対応を含む統計モデル60を生成するようにする。
Note that, for example, when the
以上詳細に説明したように、本実施形態の音声合成システム1は、発話テキスト51の一部の単語を発音記号列で置き換えた発話テキスト51と音声データ52とを対応づけた学習データを含んだ音声コーパス50により統計モデル60を予め学習しておき、入力テキスト700について、当該入力テキスト700に含まれている単語のうちユーザ辞書212に含まれている単語をユーザ辞書212における当該単語に対応づけられている発音記号列で置き換え、置き換え後の入力テキスト700について統計モデル60に基づく音声合成処理を行うことにより合成音声を生成する。そのため、統計モデル60を再学習させることなく、ユーザが指定した読み(発音)での音声合成を行うことが可能できる。このように本実施形態によれば、ユーザが指定した読み(発音)での音声合成を行うことが可能なETE型の音声合成方式による実用的な音声合成システムを実現することができる。
As described above in detail, the
以上、本発明について実施の形態に基づき具体的に説明したが、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。例えば、上記の実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また上記実施形態の構成の一部について、他の構成の追加・削除・置換をすることができる。 As mentioned above, although this invention was concretely demonstrated based on embodiment, this invention is not limited to said embodiment, It can change variously in the range which does not deviate from the summary. For example, the above embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. In addition, with respect to a part of the configuration of the above embodiment, other configurations can be added, deleted, and replaced.
また上記の各構成、機能部、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また上記の各構成、機能等は、プロセッサが夫々の機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、またはICカード、SDカード、DVD等の記録媒体に置くことができる。 In addition, each of the configurations, function units, processing units, processing means, etc. described above may be realized by hardware, for example, by designing part or all of them with an integrated circuit. Further, each configuration, function, etc. described above may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as a program, a table, and a file for realizing each function can be placed in a memory, a hard disk, a recording device such as a solid state drive (SSD), or a recording medium such as an IC card, an SD card, or a DVD.
また各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。例えば、実際にはほとんど全ての構成が相互に接続されていると考えてもよい。 Further, in each drawing, control lines and information lines indicate what is considered to be necessary for explanation, and not all the control lines and information lines in mounting are necessarily shown. For example, in practice it may be considered that almost all configurations are mutually connected.
また以上に説明した情報処理装置の各種機能部、各種処理部、各種データベースの配置形態は一例に過ぎない。各種機能部、各種処理部、各種データベースの配置形態は、各情報処理装置がハードウェアやソフトウェアの性能、処理効率、通信効率等の観点から最適な配置形態に変更し得る。 The arrangement of the various functional units, the various processing units, and the various databases of the information processing apparatus described above is merely an example. The arrangement form of the various functional units, the various processing units, and the various databases can be changed to an optimum arrangement form of each information processing apparatus in terms of hardware and software performance, processing efficiency, communication efficiency, and the like.
1 音声合成システム、10 情報処理装置、50 音声コーパス、51 発話テキスト、52 音声データ、60 統計モデル、100 統計モデル生成部、102 発音記号列を含むテキスト、103 抽出した単語、104 音声特徴量、105 発音記号列、106 単語抽出用データ、110 テキスト置換部、111 置換単語抽出部、1111 形態素解析部、1112 単語抽出部、112 音声特徴量抽出部、1121 発音(音素)抽出部、1122 発話スタイル抽出部、1123 韻律特徴抽出部、113 発音記号列生成部、115 テキスト置換処理部、120 モデル学習部、200 音声合成部、203 発音記号列を含むテキスト、202 発音記号列を含むテキスト、210 ユーザ辞書適用部、211 単語抽出用データ、212 ユーザ辞書、2101 形態素解析部、2102 単語抽出部、2103 発音記号列置換部、700 入力テキスト、800 合成音声
DESCRIPTION OF
Claims (15)
前記発話テキストの一部の単語を発音記号列で置き換えた発話テキストと音声データとを対応づけたデータを前記学習データとして生成するテキスト置換部と、
単語と当該単語についての発音記号列とを対応づけた情報を含むデータであるユーザ辞書を記憶する記憶部と、
を有する統計モデル生成装置と、
音声合成の対象となるテキストである対象テキストについて、当該対象テキストに含まれている単語のうち前記ユーザ辞書に含まれている単語を前記ユーザ辞書における当該単語に対応づけられている前記発音記号列で置き換えるユーザ辞書適用部と、
前記置き換え後の前記対象テキストについて前記統計モデルに基づく音声合成処理を行うことにより合成音声を生成する音声合成処理部と、
を有する音声合成装置と、
を備えた音声合成システム。 A model learning unit that generates a statistical model used for speech synthesis based on learning data in which speech text and speech data are associated;
A text substitution unit that generates, as the learning data, data in which speech data is associated with speech text in which a part of words of the speech text is replaced with a phonetic symbol string;
A storage unit storing a user dictionary which is data including information in which a word is associated with a phonetic symbol string for the word;
A statistical model generator having:
Regarding the target text which is a text to be subjected to speech synthesis, the phonetic symbol string in which a word included in the user dictionary among the words included in the target text is associated with the word in the user dictionary User dictionary application part replaced with,
A speech synthesis processing unit that generates synthesized speech by performing speech synthesis processing based on the statistical model on the target text after the replacement;
A speech synthesizer having
Speech synthesis system equipped with
前記テキスト置換部は、前記音声データから音声特徴量を抽出し、抽出した音声特徴量に基づき発音記号列を生成し、前記発話テキストの一部の単語を前記発音記号列で置き換えた発話テキストと音声データとを対応づけたデータを前記学習データとして生成する、
音声合成システム。 The speech synthesis system according to claim 1, wherein
The text replacement unit extracts a speech feature amount from the speech data, generates a phonetic symbol string based on the extracted voice feature amount, and an utterance text in which a part of words of the utterance text is replaced with the phonetic symbol sequence Generating data associated with voice data as the learning data;
Speech synthesis system.
前記テキスト置換部は、前記音声データについて音声認識を行うことにより前記発音記号列を生成する、
音声合成システム。 The speech synthesis system according to claim 2, wherein
The text substitution unit generates the phonetic symbol string by performing speech recognition on the speech data.
Speech synthesis system.
前記音声特徴量は、発音(音素)、発話スタイル、及び韻律のうちの少なくともいずれかである、
音声合成システム。 The speech synthesis system according to claim 2, wherein
The speech feature is at least one of pronunciation (phoneme), speech style, and prosody.
Speech synthesis system.
前記テキスト置換部は、形態素解析のアルゴリズムにより前記発話テキストを複数の単語に分割し、
前記ユーザ辞書適用部は、前記形態素解析のアルゴリズムと共通のアルゴリズムにより前記対象テキストを複数の単語に分割する、
音声合成システム。 The speech synthesis system according to claim 1, wherein
The text substitution unit divides the utterance text into a plurality of words according to a morphological analysis algorithm;
The user dictionary application unit divides the target text into a plurality of words according to an algorithm common to the morphological analysis algorithm.
Speech synthesis system.
前記テキスト置換部は、発音記号列への置き換え対象とする単語を単語抽出アルゴリズムにより前記発話テキストから抽出し、
前記ユーザ辞書適用部は、発音記号列への置き換え対象とする単語を前記単語抽出アルゴリズムと共通のアルゴリズムにより前記対象テキストから抽出する、
音声合成システム。 The speech synthesis system according to claim 1, wherein
The text replacement unit extracts a word to be replaced with a phonetic symbol string from the utterance text by a word extraction algorithm.
The user dictionary application unit extracts a word to be replaced with a phonetic symbol string from the target text by an algorithm common to the word extraction algorithm.
Speech synthesis system.
前記学習データは音声コーパスである、
音声合成システム。 The speech synthesis system according to claim 1, wherein
The training data is a speech corpus
Speech synthesis system.
前記テキスト置換部は、発音記号列への置き換え対象とする単語を、抽出した単語の音韻又は韻律のバランスを考慮した単語抽出アルゴリズムにより、前記音声コーパスの発話テキストから抽出する、
音声合成システム。 The speech synthesis system according to claim 7, wherein
The text substitution unit extracts a word to be replaced with a phonetic symbol string from the speech text of the speech corpus by a word extraction algorithm taking into consideration the balance of the extracted phoneme or prosody of the extracted word.
Speech synthesis system.
前記モデル学習部は、DNN(Deep Neural Network)により前記統計モデルを生成する、
音声合成システム。 The speech synthesis system according to claim 1, wherein
The model learning unit generates the statistical model by DNN (Deep Neural Network).
Speech synthesis system.
ETE(End-To-End)型音声合成システムである、
音声合成システム。 The speech synthesis system according to claim 1, wherein
ETE (End-To-End) speech synthesis system,
Speech synthesis system.
発話テキストと音声データとを対応づけた学習データに基づき、音声合成に用いる統計モデルを生成する前記モデル学習部と、
前記発話テキストの一部の単語を発音記号列で置き換えた発話テキストと音声データとを対応づけたデータを前記学習データとして生成する前記テキスト置換部と、
を備える、統計モデル生成装置。 The said statistical model production | generation apparatus in the speech synthesis system of Claim 1, Comprising:
The model learning unit that generates a statistical model used for speech synthesis based on learning data in which speech text and speech data are associated;
The text substitution unit generating, as the learning data, data in which speech data is associated with speech text in which a part of words of the speech text is replaced with a phonetic symbol string;
A statistical model generator comprising:
前記学習データは音声コーパスである、
統計モデル生成装置。 The statistical model generation device according to claim 11, wherein
The training data is a speech corpus
Statistical model generator.
前記モデル学習部は、DNN(Deep Neural Network)により前記統計モデルを生成する、
統計モデル生成装置。 The statistical model generation device according to claim 11, wherein
The model learning unit generates the statistical model by DNN (Deep Neural Network).
Statistical model generator.
単語と当該単語についての発音記号列とを対応づけた情報を含むデータであるユーザ辞書を記憶する前記記憶部と、
音声合成の対象となるテキストである対象テキストについて、当該対象テキストに含まれている単語のうち前記ユーザ辞書に含まれている単語を前記ユーザ辞書における当該単語に対応づけられている前記発音記号列で置き換える前記ユーザ辞書適用部と、
前記置き換え後の前記対象テキストについて前記統計モデルに基づく音声合成処理を行うことにより合成音声を生成する前記音声合成処理部と、
を備える、音声合成装置。 The speech synthesizer according to claim 1, wherein the speech synthesizer comprises:
The storage unit storing a user dictionary which is data including information in which a word is associated with a phonetic symbol string for the word;
Regarding the target text which is a text to be subjected to speech synthesis, the phonetic symbol string in which a word included in the user dictionary among the words included in the target text is associated with the word in the user dictionary The user dictionary application unit replaced by
The speech synthesis processing unit that generates synthesized speech by performing speech synthesis processing based on the statistical model on the target text after the replacement;
, A speech synthesizer.
発話テキストと音声データとを対応づけた学習データに基づき、音声合成に用いる統計モデルを生成するステップ、
前記発話テキストの一部の単語を発音記号列で置き換えた発話テキストと音声データとを対応づけたデータを前記学習データとして生成するステップ、
単語と当該単語についての発音記号列とを対応づけた情報を含むデータであるユーザ辞書を記憶するステップ、
音声合成の対象となるテキストである対象テキストについて、当該対象テキストに含まれている単語のうち前記ユーザ辞書に含まれている単語を前記ユーザ辞書における当該単語に対応づけられている前記発音記号列で置き換えるステップ、及び、
前記置き換え後の前記対象テキストについて前記統計モデルに基づく音声合成処理を行うことにより合成音声を生成するステップ、
を実行する、音声合成方法。 The information processing apparatus
Generating a statistical model to be used for speech synthesis based on learning data in which speech text and speech data are associated;
Generating, as the learning data, data in which an utterance text in which a part of words in the utterance text is replaced with a phonetic symbol string and speech data are associated;
Storing a user dictionary which is data including information in which a word is associated with a phonetic symbol string for the word;
Regarding the target text which is a text to be subjected to speech synthesis, the phonetic symbol string in which a word included in the user dictionary among the words included in the target text is associated with the word in the user dictionary Replacing with, and
Generating synthesized speech by performing speech synthesis processing based on the statistical model on the target text after the replacement;
Perform a speech synthesis method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017240349A JP6806662B2 (en) | 2017-12-15 | 2017-12-15 | Speech synthesis system, statistical model generator, speech synthesizer, speech synthesis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017240349A JP6806662B2 (en) | 2017-12-15 | 2017-12-15 | Speech synthesis system, statistical model generator, speech synthesizer, speech synthesis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019109278A true JP2019109278A (en) | 2019-07-04 |
JP6806662B2 JP6806662B2 (en) | 2021-01-06 |
Family
ID=67179602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017240349A Active JP6806662B2 (en) | 2017-12-15 | 2017-12-15 | Speech synthesis system, statistical model generator, speech synthesizer, speech synthesis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6806662B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020034883A (en) * | 2018-08-27 | 2020-03-05 | 日本放送協会 | Voice synthesizer and program |
CN112289303A (en) * | 2019-07-09 | 2021-01-29 | 北京京东振世信息技术有限公司 | Method and apparatus for synthesizing speech data |
CN112667865A (en) * | 2020-12-29 | 2021-04-16 | 西安掌上盛唐网络信息有限公司 | Method and system for applying Chinese-English mixed speech synthesis technology to Chinese language teaching |
JP2022551771A (en) * | 2019-12-13 | 2022-12-13 | グーグル エルエルシー | Training Speech Synthesis to Generate Distinguishable Speech Sounds |
JP2023530805A (en) * | 2021-05-25 | 2023-07-20 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Sound reproduction system, tone color composition method and device for sound reproduction, electronic device, storage medium, and computer program |
CN118335056A (en) * | 2024-05-14 | 2024-07-12 | 江苏华明国安技术有限公司 | Self-adaptive voice broadcasting method and system based on context awareness |
-
2017
- 2017-12-15 JP JP2017240349A patent/JP6806662B2/en active Active
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020034883A (en) * | 2018-08-27 | 2020-03-05 | 日本放送協会 | Voice synthesizer and program |
JP7228998B2 (en) | 2018-08-27 | 2023-02-27 | 日本放送協会 | speech synthesizer and program |
CN112289303A (en) * | 2019-07-09 | 2021-01-29 | 北京京东振世信息技术有限公司 | Method and apparatus for synthesizing speech data |
CN112289303B (en) * | 2019-07-09 | 2024-04-16 | 北京京东振世信息技术有限公司 | Method and device for synthesizing voice data |
JP2022551771A (en) * | 2019-12-13 | 2022-12-13 | グーグル エルエルシー | Training Speech Synthesis to Generate Distinguishable Speech Sounds |
JP7257593B2 (en) | 2019-12-13 | 2023-04-13 | グーグル エルエルシー | Training Speech Synthesis to Generate Distinguishable Speech Sounds |
CN112667865A (en) * | 2020-12-29 | 2021-04-16 | 西安掌上盛唐网络信息有限公司 | Method and system for applying Chinese-English mixed speech synthesis technology to Chinese language teaching |
JP2023530805A (en) * | 2021-05-25 | 2023-07-20 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Sound reproduction system, tone color composition method and device for sound reproduction, electronic device, storage medium, and computer program |
JP7432000B2 (en) | 2021-05-25 | 2024-02-15 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Audio reproduction system, tone composition method and device for audio reproduction, electronic equipment, storage medium, and computer program |
CN118335056A (en) * | 2024-05-14 | 2024-07-12 | 江苏华明国安技术有限公司 | Self-adaptive voice broadcasting method and system based on context awareness |
Also Published As
Publication number | Publication date |
---|---|
JP6806662B2 (en) | 2021-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110797006B (en) | End-to-end speech synthesis method, device and storage medium | |
JP6806662B2 (en) | Speech synthesis system, statistical model generator, speech synthesizer, speech synthesis method | |
US8990089B2 (en) | Text to speech synthesis for texts with foreign language inclusions | |
US9761219B2 (en) | System and method for distributed text-to-speech synthesis and intelligibility | |
El-Imam | Phonetization of Arabic: rules and algorithms | |
Mache et al. | Review on text-to-speech synthesizer | |
Kishore et al. | Experiments with unit selection speech databases for Indian languages | |
El Ouahabi et al. | Toward an automatic speech recognition system for amazigh-tarifit language | |
JP7110055B2 (en) | Speech synthesis system and speech synthesizer | |
Kayte et al. | A text-to-speech synthesis for Marathi language using festival and Festvox | |
Demenko et al. | JURISDIC: Polish Speech Database for Taking Dictation of Legal Texts. | |
Aida–Zade et al. | The main principles of text-to-speech synthesis system | |
Alam et al. | Development of annotated Bangla speech corpora | |
Zevallos | Text-to-speech data augmentation for low resource speech recognition | |
Xu et al. | End‐to‐End Speech Synthesis for Tibetan Multidialect | |
US11250837B2 (en) | Speech synthesis system, method and non-transitory computer readable medium with language option selection and acoustic models | |
Gakuru et al. | Development of a Kiswahili text to speech system. | |
Unnibhavi et al. | Development of Kannada speech corpus for continuous speech recognition | |
Russell et al. | BU-TTS: An Open-Source, Bilingual Welsh-English, Text-to-Speech Corpus | |
Hendessi et al. | A speech synthesizer for Persian text using a neural network with a smooth ergodic HMM | |
Raghavendra et al. | A multilingual screen reader in Indian languages | |
Nair et al. | Indian text to speech systems: A short survey | |
Nair et al. | English to Indian Language and Back Transliteration with Phonetic Transcription for Computational Linguistics Tools based on Conventional Transliteration Schemes | |
Mutawa | Machine learning for Arabic text to speech synthesis: A Tacotron approach | |
Carson-Berndsen | Multilingual time maps: portable phonotactic models for speech technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6806662 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |