[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH01243169A - パターン学習・生成方式 - Google Patents

パターン学習・生成方式

Info

Publication number
JPH01243169A
JPH01243169A JP63070759A JP7075988A JPH01243169A JP H01243169 A JPH01243169 A JP H01243169A JP 63070759 A JP63070759 A JP 63070759A JP 7075988 A JP7075988 A JP 7075988A JP H01243169 A JPH01243169 A JP H01243169A
Authority
JP
Japan
Prior art keywords
layer
output
learning
input
intermediate layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63070759A
Other languages
English (en)
Other versions
JP2637760B2 (ja
Inventor
Mitsuo Furumura
古村 光夫
Hiroo Tanaka
田中 啓夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63070759A priority Critical patent/JP2637760B2/ja
Publication of JPH01243169A publication Critical patent/JPH01243169A/ja
Application granted granted Critical
Publication of JP2637760B2 publication Critical patent/JP2637760B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の概要〕 パターンの学習・生成方式に関し、 実世界のデータの効率的な学習を可能にし、かつ早く収
束することができるようにすることを目的とし、 入力層、多段の中間層、多段の出力層、および最終出力
層からなるニューラルネットワークを用い、入力層に入
力系列を加え、最終出力層は多段の出力層の各出力の重
み付け平均をとってこれを最終出力とし、入力層と中間
層との間の重み係数あるいは中間層と出力層との間の重
み係数のいずれか一方の重み係数をランダム化し、各段
独立に学習させるように構成する。
〔産業上の利用分野〕
本発明はパターンの学習・生成方式に関し、合成音声の
生成、音声認識などに有効であるが、広く時系列データ
を含む一般的なパターンに適用可能である。
合成音声の生成には、登録されたメソセージであればパ
ーコール方式があり、これは音声の特徴を抽出し、抽出
されたパラメータから情報圧縮して、音声出力する。登
録されたものではない任意の文章(文字列)の合成音声
の生成にはいわゆる規則合成法が用いられている。規則
合成法は人間の話し方をルール化し、このルールで文字
列を合成音声化するものである。規則合成法は比較的小
規模なシステムでも合成音声が生成できる反面、少し品
質の高い合成音声を作ろうとする場合ルールが複雑化す
るとともに、一般的な規則を見つけることが、音声の基
本的問題点と密接に関連していて容易でなく、自然な合
成音声を作ることが困難で、機械的、非人間的音声にな
ってしまう。
ニューラルネットワーク(人間の脳をまねたネ・7トワ
ーク)を用いた学習システムを導入することにより、規
則合成法に比べてより自然な合成音声を作ることが可能
である。ニューラルネットワークは、空間にパラメータ
を分布させ、それに覚え込ませるもので、低精度なもの
を並列に多数並べることにより精度を上げ、規則を指示
するではなく学習で覚え込ませるという手法をとる。■
とC0記号列と記号列の学習であり、各々、決められた
場所に符号が立っているか否かで学習ができ、可成り粗
い手法でも成功を収めることが多い。
ニューラルネットワークを用いてテキスト(文字列)か
ら自然な合成音声を自動生成するシステムは、テキスト
から音韻系列に変換する部分と、音韻系列から合成音声
を生成させる部分からなる。
前者の文字列を音韻系列に変換する部分については、文
字列(110の状態)の学習で済むが、音韻系列から合
成音声を生成させる部分については、高精度なアナログ
データの学習をしなければならず、今まで困難であった
。本発明は音韻系列から音源/声道パラメータを出力す
る部分に用いても有効なバクーン学習・生成方式に係る
ものである。
〔従来の技術〕
ニューラルネットワークで用いるアナログニューロン素
子は第5図に示すように重み係数Wij用の抵抗と加算
器Σと出力関数f4からなり、入力X、・しきい値θ、
を受けて次式で表わされる出力Zi、内部変数y、を生
じる。
7、−、LW i j X i+θ、        
・・・・・・(1)x−f;<yi)   (==+、
z、・・・・・’、)−・−C2)ここで■は入力素子
の数、Jは出力素子の数である。ニューラルネットワー
クモデルとしては第6図に示す入力層、中間層(hid
den 1ayer;隠れ層)、および出力層からなる
3層構造のモデルが用いられている。重み付けは入力層
と中間層の間、および中間層と出力層の間で行なわれる
入力層の任意の一点をxh□、tp(1≦is≦Is。
1≦ip≦IP、 ISは人力層における系列の数、I
Pは系列の一つが持つ素子数)とし、中間層の任意の一
点をZl′J(1≦j≦J、Jは中間層の素子の数)と
する。このとき、入出力関係は、 zhj=)l+、  (’HΣW’is+ ip+ j
 X ’is+ ip十〇’j)  =−(3)となる
。同様にして、中間層から出力層への人出力関係は、 Z ’、−f ok(ト’rb X ’j+θ’ 、 
   −・−・−(4)但し、x O、=z h 、で
あり、また1≦に≦K(Kは出力層の素子の数)である
以下に従来技術において用いられるバックプロパゲーシ
ョン学習アルゴリズムを示す。但し、Z)′j+  z
o、をまとめてZj と、またxhis+ip+xl″
jをまとめてXlと、またf ’j+  ” kをまと
めてfと書くことにする。
目標入力(望ましい出力;ターゲット)をt、とし、目
標値tjと実際の出力zJとの誤差の二乗和が最小にな
るように、重みWijを修正する(修正量をΔWijと
する)。簡単化のため、しきい値θ、の値は0とする。
即ち出力誤差EをE=1/2Σ(ti  Z=)”  
     ・・・・・・(5)とおき(1/2は、後で
微分をとったときに係数2が消えるようにするもの)、
次式に基づく学習法(最急降下法;誤差の傾斜が最も急
になるように重み修正量Δを決める)をとる。
ΔW 1JQC−θE/θW0、       ・・・
・・・(6)ここで、式(5)より、次式が成立する。
θE/θzJ=  (t、+  Z;)     ・・
・・・・(7)いま、 θE/c? W i j−θE/e y、−θyJaw
=j  ・(8)であるので、式(1)より θyJ/θWij=θ/θwHJ−’1w、、x y 
= x t ・= (9)となる。つぎに、 δ、=−θE/θyj        ・・・・・・0
0)と置くと、式(8)と式(9)より 一θE/θwIj−δ、χ、       ・・・・・
・θ1)であり、これと式(6)の仮定より ΔWij−αδ、χi          ・・・・・
・02)となる。つぎに、δjを計算する。弐〇〇)よ
りδ4−−θE/θzJ・θzj/θyJであるので、
式(7)1式(2)を考慮すると1、出力層における誤
差の後向き伝播量δ06は δ’h−(tk−Z’k)f′h(y’k)   −・
−OSとなる。また、出力層以外(中間層)における誤
差の後向き伝播量δh4は次のようになる。
δhJ=f′= (y′′;) :、δo、 W jl
+(ここでKは出力層の素子数)  ・・・・・・04
)特に、出力関数f (・)をロジスティック曲線z、
+−1/(1+exp(’/i))     ・・・・
・・θωとする(Z、、はy、がOのとき1/2で、そ
れよりy、が正に増大すると1に、負にも増大すると0
に、飽和曲線を画いて近ずく)と、 f’= (y=) −ZJ(1−z=)     −=
06)であるので、式03)と式(14)は、各々δz
= (tkz0+、) Z’h (1z’h) ・旧・
・071δhj= z ’; (1z ’、1) ’E
δ’kw’4.  ・・・・・HQ8)となる。これら
において、弐02)より、中間層と出力層の間の重みw
05.の修正量ΔW’j、は6w0Jh (n+1) 
−αδ0kxoJ・・−・・・(+!])または、 6w0Jk(n+1) = (zδ0 、 x O、+
βΔw’、k(1)・・・・・・QΦ となる。これに対し、入力層と中間層の間の重みWhi
jの修正量ΔWhijは Δ w1盪J(n+1)   −α δ 11 x 6
□           ・・・・・・   (2イ)
または、 Δwhz7(n+1) −o:δh jX h 、+8
6w h、i (n)・・・・・・Qa となる。以上の展開より、従来法の学習では、入力層か
ら中間層を経て出力層へ、図のモデルを用いて各々の出
力値を計算し、ついで、弐〇7)、 010と式QΦ、
Qつを用いて重み修正をすることにより、パターンの学
習を行っている。つまり、バンクプロパゲーションによ
る学習では、学習用のデータを入力し結果を出力する(
前向き;フィードフォワード)、結果のエラーを減らす
ように結合の強さを変える(後向き:フィードバック)
、再び学習用データを人力する、これを収束するまで繰
り返す、という方法をとる。
〔発明が解決しようとする課題〕
ニューラルネットワークを用いた合成音声自動生成シス
テムは、規則合成法に比べて一層自然な合成音声を生成
することができる。理由は規則合成法が音韻変化の特徴
を全て規則として記述しなければならず、かつこれが困
難であるのに対し、ニューラルネットワークを用いた学
習法を導入すると、音韻環境を伴う入力と実音声より得
られた目標出力をセットで学習させることが可能になり
、自然な音韻環境をネットワークの中に取り込むことが
可能になるからである。しかし、現在までに提案されて
いるニューラルネットワークを用いた学習方式では、特
定の音韻環境以外を学習することは困難である。これは
、従来技術を用いるとデータ同士が直交しているもの以
外の学習が困難であり、学習の途中で今迄の学習結果が
破壊されることが多く、かつ学習の収束性が極めて悪い
ことによる。
本発明はかかる点を改善し、実世界のデータ(必ずしも
直交していないデータ)の効率的学習を可能にし、かつ
早く収束することができるようにすることを目的とする
ものである。
〔課題を解決するための手段〕
第1図に示すように本発明ではニューラルネットワーク
を入力層10、中間層12、出力層14、最終出力層1
6で構成し、中間層と出力層は多段にする(多重化する
)。
入力層10は1段であり、内部にI =ISXIPの点
(素子)を持つ。ここでIsは、入力を系列としたとき
の該系列の持つ個数であり、IPは系列の1点が持つ列
(ベクトル)の中の素子の個数である。
中間層12の段数はM段であり、ここでは中央のものを
H8、最上段をH−(M−11/□、最下段をH(N−
11/□とじている。出力層14もM段とし、ここでは
同様な符号付けをしている。最終出力層16は1段であ
る。
入力層の全ての点から、全ての段の中間層の全ての点に
対し結線し、中間層から出力層へは各最内において、当
該段の中間層の全ての点から出力層の全ての点に結線し
、他の段に対しては結線しない。出力層から最終出力層
へは、ある規則に基づき重み付け平均をとるための結線
をする。
〔作用〕
このニューラルネットワークでは入力層10と中間層1
2との間、あるいは中間層12と出力層14との間の重
み係数を必要に応じてランダム化させる。また、多重化
した中間層12と出力層14では各段独立に学習させ、
最終出力層16で出力層14の各段の出力の重み付け平
均をとってこれを最終出力07とする。次に学習規則を
列挙する。
■)従来法では、入力層はある長さ(IS)の系列から
なり、出力層は入力層の系列(特徴ベクトル列)の−点
(時系列では時刻)に対応するデータの列(特徴ベクト
ル)を出力とし、入力系列と出力系列とをセットで学習
させている。これに対し、本発明では、ネットワークを
多段化させ、出力列を段数分だけ増やして、各段の出力
列に対応する入力系列の点は■ある点を中心としてとな
りあった点をとる、■入力系列の任意の点をとる、など
の選択により定める。
■)次いで、学習を行う場合は、入力層と中間層の間の
重み係数、あるいは中間層と出力層との間の重み係数の
うち、必要に応じていずれか一方の重み係数をランダム
化しく例えば正規乱数値を重み係数に与える)、かつ各
段の間では独立に学習させる。この場合、各段の間でも
ランダム化した重み係数は同じセットではなく、やはり
ランダムである。また、最終出力層では、各段の出力層
の重みづけ平均をとる。
■)また、学習プロセスにおいて出力層における誤差の
後向き伝播量60kを 60に= (th  z’k) K (・)   ・・
・・・・(23)とし、中間層における誤差の後向き伝
播量δl′jを66、=K(・)′f、δ’Wjh  
   ・==−(24)とする。ここで、K(・)はあ
らかじめ定められた関数である。07)OI式から明ら
かなようにδはZが0と1で特異点を持ち、値が0にな
る。δが0に落ちると浮び上れなくなり、修正がなされ
なくなる。関数K(・)はこれを救うものである。さら
に、重み係数の修正についても、中間層と出力層の間の
重みW’jkの修正量ΔW’jkは、6w0Jk(n+
1) =αδ0kt、(i+βΔw’、+k(n) +
M (・)  −−(25)とし、入力層と中間層の間
の重みWhijの修正量ΔWhijは、 Δwh+=(n+1) =aδ’、tL(−)+βΔW
’+、(n) +M (1−・=  (26)とする。
ここで、L(・)1M(・)はあらかじめ定められた関
数とする(ここで、■)の係数ランダム化を行うとΔW
’jk又はΔWh、jのどちらか一方は0となる)。た
だし、前項I)または、前項■)を適用する場合、誤差
伝播則、重み修正量はこの限りではない。
ネットワークの多重化及び最後の重み付け平均で、時間
分解能を損なわずに空間分解能を向上させることができ
、ランダム化で、学習で生じる重み係数の統計的偏り(
これが生じると、今までの学習結果が破壊される恐れが
ある)を均一化、従って学習精度の均一化をすることが
できる。更に、重み係数の一方のランダム化で、他方の
重み係数の収束値を重み係数が取り得る値の空間全体に
拡散させることができ、必らずしも直交していないデー
タの効率的学習が可能になる。
〔実施例〕
本発明のニューラルネットワークの実施例を音声合成と
音声認識について示す。
第2図は音声合成システムで、音韻生成部22と音声パ
ラメータ生成部24を備え、ニューラルネットワークN
NWは各々に設けられる。入力音声26を音声パラメー
タ自動抽出システム20(特開昭59−152496、
同152497に開示)に加えて分析し、音声パラメー
タ即ち音源パワー、有声/無声パラメータ、ピッチ等の
音源パラメータと、声道断面積、PARCOR係数など
の声道パラメータ、またはAR(全極型)パラメータ、
AR/MA (極零型)パラメータ、スペクトル、その
他音声を分析して得られるパラメータを得て、これを音
声パラメータ生成部の学習入力(目標出力)とする。
また自動抽出システム20より得られた音声パラメータ
、あるいは原波形より、人力音声の音韻を決定し、音韻
生成部22の学習人力(目標出力)とする。
音韻生成部22の入力は、発声される音声(入力音声2
6)のちとになるテキスト(文字列)TXである。文字
列T、例えば「朝早く・・・・・・」は音韻系列rA、
S、A、H,A、Y、A、に、U、・・・・・・」に変
換されて、音韻生成部22のニューラルネットワークN
NWの人力層10に入る。(1音韻ずつ逐次入力しかつ
排出されて、入力層には所定数の音韻があるようにされ
る)。上記変換は、平均音節長あるいは規則合成法ある
いは音韻論の知識を用いて行なう。文字列では、音声に
有る時間的な要素はないが、T、−11,間の変換でこ
の時間要素が加えられる。また音韻は文字1つでは決ら
ないので、複数の文字が参照されて、各音韻が逐次フレ
ーム間隔で決定されて行く。こうして時間要素が加えら
れるが、速さは平均的なものであり、実際の速さにはN
NWでの学習により修正される。
学習入力は前述の如くで、実音声より定められた音韻系
列データであり、音韻生成部22のニューラルネットワ
ークNNWは上記に入力音韻系列Ipを学習入力音韻系
列に修正して出力し、この出力Op。■が音声パラメー
タ生成部24の入力になる。学習入力は1,0であるが
、音韻出力は0と1の間の値をとる。このとき、必要に
応じてしきい値をもうけ音韻出力を0と1のみの値とし
てもよい。
音声パラメータ生成部24は上記出力のを受けてこれを
前記学習入力(音声パラメータに変換して出力し、この
出力O1Tは音声合成回路28に加えられて合成音声本
例では「朝早く・・・・・・」を出力させる。
第3図に音声パラメータ生成部の詳細を示す。
入力層10と最終出力層16は1段、中間層12と出力
層14はM段である。入力層10への入力は前記音韻系
列■であり、そのIP個の点(データ)を含む列(音曲
)の13個を入力しく1回の処理対象)とする。各列は
逐次入力され、中央のものにはt。、それより下方のも
のにはも。。1〜も0.3をまた上方のものにはも。−
I〜t o−iを付しである。時間tの進行方向を矢印
で示す。
中間層12及び出力層14の段数Mは、少ないとランダ
ム化、重み付け平均化の意味が薄れるのである程度多い
のがよい。例えばl5=29に対しM=9などとする。
中間層の各段の素子数J、−J、は各々異なってもよい
が、ここでは一般性を失うことなくJl−・・・・・・
=J、−・・・・・・=J、4=Jとする。出力層14
の各膜素子数も同様で、ここではに1−・・・・・・=
K。
=・・・・・・−に、=にとする。また出力層14にお
いて各段が持つ入力系列の点(本例の時系列では時刻)
は入力系列の任意の点(時刻)でよいが、これも一般性
を失なうことなくKl−KMはある系列の点(時刻)を
中心として隣り合った点の値をとるものとする。このと
き、 ■)学習は、入力系列の中から互いに連結する13列の
データをランダムに選択し、その中心の値から両側に(
M−1)/2個だけの系列の点に対応する出力データ列
(ヘクトル)を各段に順に付与し、その値(目標値)と
人力系列とをセットにして各段で行う。このランダムな
選択学習を逐次、必要なだけ繰り返す。また、最終出力
層16では系列の−点(−時刻)に対しM個のデータが
与えられるので、適当な重み(例えば、Rectang
ular、  あるいはHamming、 Ilann
ingその他のWindow関数を与える)を付けて平
均値をとる。
■)学習を行う場合、人力層と中間層、あるいは中間層
と出力層の間の重み係数のうち、必要に応じてどちらか
一方(ここでは、−膜性を失うことなく中間層から出力
層の間の重み係数値)をランダム化し、学習させる。
■)また、学習プロセスにおいては、中間層と出力層の
間の重み係数をランダム化し、入力層と中間その間の学
習を式(23)、 (24) 、 e6)にしたがって
行う。このとき、式(25)と式(26)における関数
r−(・)。
M(・)は、0式 QΦ、 (22)と同様にする、あ
るいは■学習初期においては定数とし、学習結果を判断
し人カバターンの性質、学習の収束性を考慮した重み付
け関数を実験的に決める。
第4図に音声認識の実施例の概要を示す。音声認識は音
声合成の逆プロセスになり、ニューラルネットワークN
NWに音声パラメータを逐次入力して、出力に音韻系列
を得、この音韻系列から文字列を得る。
即ち、入力音声に対し自動抽出システムを適用し、音声
パラメータ即ち音源パラメータ及び声道パラメータを得
る(他のパラメータ、例えばARパラメータ、スペクト
ル・パラメータ、 Walsh−1(adamard、
 Harrパラメータを用いてもよい。これらのパラメ
ータを入力とし、多段のニューラルネットワークNNW
を適用することにより最終出力を得る。最終出力は音声
合成の場合とは逆で、0と1の間の値をとる音韻パラメ
ータ系列である。この場合音韻パラメータは既に重み付
け平均化がなされているので、その出力値はその音韻で
あることの確からしさを示している。
従って最終的に入力音声がどの音韻であるかを決定する
具体的方法は、■系列のある点(時系列の場合は時刻)
において同時に発火している素子の中から出力値の一番
犬きいものをとる。あるいは、■出力値の大きいものか
ら順に候補として選択し、島駆動方式などにより、音韻
論的に最も確からしいものに決定する。■このシステム
を多量の音声データに適用することにより得る知見をル
ール化し、エキスパートシステムを構成することにより
、音韻を決定する、などの方法をとる。音韻系列が求ま
れば、これより文字列に変換する。
この場合、第2図の音韻生成部の逆プロセスをとる(す
なわち、音韻系列を入力とし、文字列を出力とする)ニ
ューラルネットワークを構成し、前記の音韻を決定する
のと同様の手順をとることにより(つまり、出力値をそ
の文字であることの確からしさであると考え、前記■、
■、■の手順をとることにより)文字列を決定すること
もできる。
〔発明の効果〕
以上説明したように本発明はニューラルネットワークを
多重化し、重み付け平均をとって最終出力とし、入力層
と中間層あるいは中間層と出力層間の重み係数をランダ
ム化したので、アナログ情報の学習を極めて高い精度で
、且つす早く収束可能にすることができ、自動音声合成
に用いて一層自然的で良好な合成音声が得られる等の効
果を得ることができる。
【図面の簡単な説明】
第1図は本発明の原理説明図、 第2図〜第4図は本発明の実施例を示し、第2図は音声
合成システムの説明図、第3図は音声パラメータ生成部
の説明図、第4図は音声認識システムの説明図、 第5図〜第6図は従来例を示し、第5図はアナログニュ
ーロン素子の説明図、第6図はニューラルネットワーク
モデルの説明図である。 第1図で10は入力層、12は中間層、14は出力層、
16は最終出力層、■は入力系列、OTは最終出力であ
る。

Claims (1)

  1. 【特許請求の範囲】 1、入力層(10)、多段の中間層(12)、多段の出
    力層(14)、および最終出力層(16)からなるニュ
    ーラルネットワークを用い、 入力層に入力系列(I)を加え、最終出力層は多段の出
    力層の各出力の重み付け平均をとってこれを最終出力(
    O^T)とし、 入力層と中間層との間の重み係数あるいは中間層と出力
    層との間の重み係数のいずれか一方の重み係数をランダ
    ム化し、各段独立に学習させることを特徴とするパター
    ン学習・生成方式。
JP63070759A 1988-03-24 1988-03-24 パターン学習・生成方式 Expired - Lifetime JP2637760B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63070759A JP2637760B2 (ja) 1988-03-24 1988-03-24 パターン学習・生成方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63070759A JP2637760B2 (ja) 1988-03-24 1988-03-24 パターン学習・生成方式

Publications (2)

Publication Number Publication Date
JPH01243169A true JPH01243169A (ja) 1989-09-27
JP2637760B2 JP2637760B2 (ja) 1997-08-06

Family

ID=13440757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63070759A Expired - Lifetime JP2637760B2 (ja) 1988-03-24 1988-03-24 パターン学習・生成方式

Country Status (1)

Country Link
JP (1) JP2637760B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03114439A (ja) * 1989-09-29 1991-05-15 Nec Corp 適応型心電図波形認識装置
JPH03248672A (ja) * 1990-02-27 1991-11-06 Hitachi Ltd 画像処理装置
JPH03279178A (ja) * 1990-03-28 1991-12-10 Mitsubishi Electric Corp エレベータ制御装置
JPH0427832A (ja) * 1990-05-22 1992-01-30 Shirou Usui 色覚情報変換方法及び装置
JPH0432472A (ja) * 1990-05-29 1992-02-04 Mitsubishi Electric Corp エレベータ制御装置
JPH0439277A (ja) * 1990-05-31 1992-02-10 Mitsubishi Electric Corp エレベータ制御装置
JPH0449183A (ja) * 1990-06-19 1992-02-18 Mitsubishi Electric Corp エレベータ制御装置
JPH04123000A (ja) * 1990-09-13 1992-04-23 Mitsubishi Electric Corp 音声合成装置
JPH04335923A (ja) * 1991-05-13 1992-11-24 Matsushita Electric Ind Co Ltd 電気カーペット
JPH05281199A (ja) * 1992-03-31 1993-10-29 Nuclear Fuel Ind Ltd 探傷データ評価装置及び方法
JPH07502320A (ja) * 1991-12-23 1995-03-09 フォード モーター カンパニー 斜板式空気調和ポンプ
JPH10306744A (ja) * 1998-04-06 1998-11-17 Hitachi Ltd 制御装置
CN111613204A (zh) * 2020-04-29 2020-09-01 云知声智能科技股份有限公司 一种快速响应的神经语音合成系统及其方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PATTERN RECOGNITION=1982 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0579328B2 (ja) * 1989-09-29 1993-11-02 Nippon Electric Co
JPH03114439A (ja) * 1989-09-29 1991-05-15 Nec Corp 適応型心電図波形認識装置
JPH03248672A (ja) * 1990-02-27 1991-11-06 Hitachi Ltd 画像処理装置
JPH03279178A (ja) * 1990-03-28 1991-12-10 Mitsubishi Electric Corp エレベータ制御装置
JP2573715B2 (ja) * 1990-03-28 1997-01-22 三菱電機株式会社 エレベータ制御装置
JPH0427832A (ja) * 1990-05-22 1992-01-30 Shirou Usui 色覚情報変換方法及び装置
JPH0432472A (ja) * 1990-05-29 1992-02-04 Mitsubishi Electric Corp エレベータ制御装置
JP2573722B2 (ja) * 1990-05-29 1997-01-22 三菱電機株式会社 エレベータ制御装置
JPH0439277A (ja) * 1990-05-31 1992-02-10 Mitsubishi Electric Corp エレベータ制御装置
JP2573723B2 (ja) * 1990-05-31 1997-01-22 三菱電機株式会社 エレベータ制御装置
JPH0449183A (ja) * 1990-06-19 1992-02-18 Mitsubishi Electric Corp エレベータ制御装置
JP2573726B2 (ja) * 1990-06-19 1997-01-22 三菱電機株式会社 エレベータ制御装置
JPH04123000A (ja) * 1990-09-13 1992-04-23 Mitsubishi Electric Corp 音声合成装置
JPH04335923A (ja) * 1991-05-13 1992-11-24 Matsushita Electric Ind Co Ltd 電気カーペット
JPH07502320A (ja) * 1991-12-23 1995-03-09 フォード モーター カンパニー 斜板式空気調和ポンプ
JPH05281199A (ja) * 1992-03-31 1993-10-29 Nuclear Fuel Ind Ltd 探傷データ評価装置及び方法
JPH10306744A (ja) * 1998-04-06 1998-11-17 Hitachi Ltd 制御装置
CN111613204A (zh) * 2020-04-29 2020-09-01 云知声智能科技股份有限公司 一种快速响应的神经语音合成系统及其方法

Also Published As

Publication number Publication date
JP2637760B2 (ja) 1997-08-06

Similar Documents

Publication Publication Date Title
Desai et al. Voice conversion using artificial neural networks
Han et al. State-of-the-art speech recognition using multi-stream self-attention with dilated 1d convolutions
Zhang et al. Joint training framework for text-to-speech and voice conversion using multi-source tacotron and wavenet
US5095443A (en) Plural neural network system having a successive approximation learning method
CN107545903B (zh) 一种基于深度学习的语音转换方法
JPH01243169A (ja) パターン学習・生成方式
Xie et al. Sequence error (SE) minimization training of neural network for voice conversion.
KR101854706B1 (ko) 인공 신경망을 이용한 자동 작곡 방법 및 그 기록 매체
CN106971709A (zh) 统计参数模型建立方法和装置、语音合成方法和装置
EP4078571A1 (en) A text-to-speech synthesis method and system, a method of training a text-to-speech synthesis system, and a method of calculating an expressivity score
KR100306848B1 (ko) 신경회로망을 이용한 선택적 주의집중 방법
Niwa et al. Statistical voice conversion based on WaveNet
Bocquelet et al. Robust articulatory speech synthesis using deep neural networks for BCI applications
Tobing et al. NU Voice Conversion System for the Voice Conversion Challenge 2018.
JP3521429B2 (ja) ニューラルネットワークを用いた音声認識装置およびその学習方法
JPH0772900A (ja) 音声合成の感情付与方法
Sadekova et al. A Unified System for Voice Cloning and Voice Conversion through Diffusion Probabilistic Modeling.
JPH0540497A (ja) 話者適応音声認識装置
Ren et al. Self-learning and active-learning for electromyography-to-speech Conversion
Koriyama et al. Prosody generation using frame-based Gaussian process regression and classification for statistical parametric speech synthesis
JP3737841B2 (ja) ニューラルネットワーク
Ganhinhin et al. Voice conversion of tagalog synthesized speech using cycle-generative adversarial networks (cycle-gan)
JP6748607B2 (ja) 音声合成学習装置、音声合成装置、これらの方法及びプログラム
JP2910035B2 (ja) 音声合成装置
Wu et al. Statistical voice conversion with quasi-periodic wavenet vocoder