[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017513047A - Pronunciation prediction in speech recognition. - Google Patents

Pronunciation prediction in speech recognition. Download PDF

Info

Publication number
JP2017513047A
JP2017513047A JP2016555771A JP2016555771A JP2017513047A JP 2017513047 A JP2017513047 A JP 2017513047A JP 2016555771 A JP2016555771 A JP 2016555771A JP 2016555771 A JP2016555771 A JP 2016555771A JP 2017513047 A JP2017513047 A JP 2017513047A
Authority
JP
Japan
Prior art keywords
potential
pronunciation
language
text identifier
source language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016555771A
Other languages
Japanese (ja)
Other versions
JP6550068B2 (en
Inventor
ペンロッド アダムス、ジェフリー
ペンロッド アダムス、ジェフリー
ウルハス パーリカル、アロク
ウルハス パーリカル、アロク
ポール リリー、ジェフリー
ポール リリー、ジェフリー
ラストロー、アリヤ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of JP2017513047A publication Critical patent/JP2017513047A/en
Application granted granted Critical
Publication of JP6550068B2 publication Critical patent/JP6550068B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/263Language identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Optimization (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

自動音声認識(ASR)装置が、テキスト識別子の1つまたは複数の元言語の予測に基づきテキスト識別子(たとえば、曲名など)の発音を予測するよう構成されてもよい。1つまたは複数の元言語がテキスト識別子に基づいて判断されてもよい。1つの言語の発音、第2の言語の発音及び複数の言語を組み合わせる混合発音を含む混合発音が発音に含まれてもよい。発音はレキシコンに追加され、コンテンツアイテム(たとえば、曲)及び/またはテキスト識別子と照合されてもよい。ASR装置は、コンテンツアイテムにアクセスするためのASR装置を要求するユーザからの口頭での発話を受信してもよい。ASR装置は、口頭での発話がレキシコン上のコンテンツアイテムの発音の1つと一致するか否かを判断する。ASR装置はその後、口頭での発話が前潜在的なテキスト識別子の発音の1つに一致する際に、コンテンツにアクセスする。An automatic speech recognition (ASR) device may be configured to predict the pronunciation of a text identifier (eg, song title, etc.) based on a prediction of one or more source languages of the text identifier. One or more source languages may be determined based on the text identifier. The pronunciation may include a pronunciation of one language, a pronunciation of the second language, and a mixed pronunciation that combines a plurality of languages. Pronunciations may be added to the lexicon and matched against content items (eg, songs) and / or text identifiers. The ASR device may receive an oral utterance from a user requesting an ASR device to access the content item. The ASR device determines whether the verbal utterance matches one of the pronunciations of the content item on the lexicon. The ASR device then accesses the content when the verbal utterance matches one of the pronunciations of the previous potential text identifier.

Description

関連出願データの相互参照
本出願は、その全体が参照により本明細書に組み込まれる、2014年3月4日出願の米国特許出願第14/196,055号に対する優先権を主張する。
CROSS REFERENCE TO RELATED APPLICATION DATA This application claims priority to US patent application Ser. No. 14 / 196,055 filed Mar. 4, 2014, which is incorporated herein by reference in its entirety.

ヒューマンコンピュータインタラクションは、人間が発話によって計算装置を制御し、これらの装置に入力を行うことができる段階まで進んでいる。計算装置は、受信した音声入力の様々な品質に基づく人間のユーザが話す語を識別する技術を利用する。このような技術は音声認識または自動音声認識(ASR)と称される。言語処理技術と組み合わせた音声認識により、ユーザが発話した命令に基づく、ユーザによる計算装置の制御及びタスクの実行を可能にすることができる。音声認識はまたユーザの音声をテキストデータに変換してもよく、その後そのテキストデータは様々なテキストに基づくプログラム及びアプリケーションに提供されてもよい。   Human computer interaction has progressed to a stage where humans can control computing devices by speaking and input to these devices. The computing device utilizes techniques to identify words spoken by human users based on various qualities of received speech input. Such a technique is referred to as speech recognition or automatic speech recognition (ASR). Speech recognition combined with language processing techniques can allow the user to control the computing device and execute tasks based on instructions uttered by the user. Speech recognition may also convert user speech into text data, which may then be provided to various text-based programs and applications.

ヒューマンコンピュータインタラクションを向上させるためのコンピュータ、携帯端末、電話回線を利用したコンピュータシステム、キオスク、及び他の様々な装置は、音声認識を利用してもよい。   Computers, portable terminals, computer systems using telephone lines, kiosks, and various other devices for improving human computer interaction may utilize speech recognition.

本開示をさらに完全に理解するために、ここで以下の説明を添付の図面と併せて参照する。   For a more complete understanding of the present disclosure, reference is now made to the following description, taken in conjunction with the accompanying drawings, in which:

本開示の一態様による、語の元言語に基づく、外来語の予想発音の予測のための音声認識技術を示す。6 illustrates a speech recognition technique for predicting predicted pronunciation of a foreign word based on the original language of the word according to one aspect of the present disclosure. 本開示の一態様による、分散型音声認識の利用のためのコンピュータネットワークを示す。1 illustrates a computer network for use of distributed speech recognition according to one aspect of the present disclosure. 本開示の一態様による、音声認識のための装置を概念的に示すブロック図である。FIG. 3 is a block diagram conceptually illustrating an apparatus for speech recognition according to one aspect of the present disclosure. 本開示の一態様によって処理されるオーディオ波形を示す。Fig. 4 illustrates an audio waveform processed according to one aspect of the present disclosure. 本開示の一態様による、音声認識ラティス(lattice)を示す。Fig. 4 illustrates a speech recognition lattice according to an aspect of the present disclosure. 本開示の一態様による、語の元言語に基づく、外来語の予想発音の予測のための音声認識方法を示す。6 illustrates a speech recognition method for predicting predicted pronunciation of a foreign word based on the original language of the word, according to one aspect of the present disclosure. 本開示の一態様による、テキスト識別子を含む口頭での発話の処理のための音声認識方法を示す。6 illustrates a speech recognition method for processing verbal utterances including a text identifier according to one aspect of the present disclosure.

自動音声認識(ASR)を実行することが可能な装置との対話において、ユーザはコンテンツアイテムにアクセスするための命令を発声してもよい。これらのコンテンツアイテムは装置のローカルに保存されてもよく、またはリモートに保存されてもよいが、装置によりアクセス可能である。たとえば、ユーザは計算装置に対して特定の音楽のアイテムを「再生する」ための命令を発声してもよい。口頭での命令は、発話と称されてもよい。音楽のアイテムは、テキスト識別子によって識別されてもよい。テキスト識別子は、曲、動画などのコンテンツのアイテムを識別するテキストであってもよい。例示的なテキスト識別子には、アーティスト名、バンド名、アルバム名、曲名、または再生される音楽を識別する他のいくつかのラベルが含まれる。   In an interaction with a device capable of performing automatic speech recognition (ASR), the user may utter instructions to access the content item. These content items may be stored locally on the device or stored remotely, but are accessible by the device. For example, the user may utter a command to the computing device to “play” a particular music item. Verbal commands may be referred to as utterances. Music items may be identified by text identifiers. The text identifier may be text that identifies an item of content such as a song or a video. Exemplary text identifiers include artist names, band names, album names, song names, or some other label that identifies the music being played.

ASRシステムは、予想発音がテキスト識別子に基づく場合の、対応する予想発音に照合される保存されたテキスト識別子(すなわち、アーティスト名、バンド名、アルバム名、及び曲名)のレキシコン(lexicon)を有してもよい。レキシコンはローカルまたはリモートに保存されてもよい。ASRシステムは発話を受信する際、発話音声を保存された予想発音と照合し、検索のために発話を1つまたは複数のコンテンツアイテムと照合してもよい。たとえばユーザが「AC/DCの曲を何か再生して」と述べると、システムは「AC/DC」に対応する音声を、対応する予想発音と、その後バンド名と照合してもよい。バンドが識別されると、装置はその後バンドに関連する曲を再生してもよい。   The ASR system has a lexicon of stored text identifiers (ie, artist name, band name, album name, and song name) that are matched to the corresponding expected pronunciation when the expected pronunciation is based on a text identifier. May be. The lexicon may be stored locally or remotely. When the ASR system receives an utterance, it may match the utterance with the stored expected pronunciation and match the utterance with one or more content items for retrieval. For example, if the user says “Play some AC / DC song”, the system may match the audio corresponding to “AC / DC” with the corresponding expected pronunciation and then the band name. Once the band is identified, the device may then play a song associated with the band.

典型的なASRシステムは、それぞれ特定の言語に関連する。たとえば英語のASRシステムは英語を解するよう構成されてもよく、ドイツ語のASRシステムはドイツ語を解するよう構成されてもよい、など。いくつかのテキスト識別子は、ASRシステムの主言語ではない外国語に由来してもよい。これにより、ユーザが外国語のテキスト識別子の言語学的素性を利用してテキスト識別子を発音しようと試みる場合に混乱が生じる可能性がある。たとえば、ドイツ語の曲名またはドイツ語のバンド名のドイツ語の発音を利用して音楽をリクエストする発話を行うユーザは、英語に基づくASRシステムを混乱させる場合がある。同様に、ASRシステムが曲名のテキストに基づく異なる発音を予想している可能性があるため、ドイツ語の曲名の英語の発音を利用するユーザもまたASRシステムを混乱させる場合がある。   Each typical ASR system is associated with a specific language. For example, an English ASR system may be configured to solve English, a German ASR system may be configured to solve German, and so on. Some text identifiers may come from foreign languages that are not the main language of the ASR system. This can lead to confusion when the user attempts to pronounce the text identifier using the linguistic features of the foreign language text identifier. For example, a user who makes an utterance requesting music using the German pronunciation of a German song name or German band name may confuse the English-based ASR system. Similarly, users who utilize English pronunciation of German song titles may also confuse the ASR system because the ASR system may expect different pronunciations based on the song title text.

テキスト識別子の元言語の予測に基づく、テキスト識別子の予想発音の判断方法を提示する。元言語はテキスト識別子に基づき判断されてもよい。本開示のいくつかの態様においては、テキスト識別子の予想発音がまた、特定のユーザまたはユーザのカテゴリの発音履歴に基づいてもよい。予想発音には、元言語に基づく予想発音の組み合わせ、たとえばある元言語を有すると予想されるテキスト識別子の特定の音素及び異なる元言語を有すると予想されるテキスト識別子の別の音素を有する予想発音が含まれてもよい。さらに、それぞれの予想発音が発生可能性に関連する可能性がある場合、複数の予想発音がテキスト識別子ごとに判断されてもよい。可能性は、テキスト識別子、ユーザの行動、他のユーザの行動、または他の要因に基づいてもよい。   A method for determining the expected pronunciation of a text identifier based on the prediction of the original language of the text identifier is presented. The original language may be determined based on the text identifier. In some aspects of the present disclosure, the expected pronunciation of a text identifier may also be based on the pronunciation history of a particular user or user category. Predicted pronunciation includes a combination of predicted pronunciations based on the original language, for example, a specific phoneme of a text identifier that is expected to have one original language and an expected pronunciation that has another phoneme of the text identifier expected to have a different original language May be included. Further, multiple predicted pronunciations may be determined for each text identifier when each predicted pronunciation may be related to the likelihood of occurrence. The likelihood may be based on text identifiers, user behavior, other user behavior, or other factors.

テキスト識別子の異なる予想発音がレキシコンに追加され、異なるユーザからの異なる発音に対応してもよい。予想発音は、音楽カタログ上に保存された曲などのコンテンツアイテムにリンクされてもよい。計算装置はテキスト識別子を含む口頭での発話を受信すると、発話を予想発音の修正されたレキシコンと照合することによって、口頭での発話にテキスト識別子が含まれるか否かを判断する。口頭での発話が予想発音と一致すると、計算装置は発話の命令部分において示されるように、たとえばリクエストされた曲の再生によってコンテンツ上で動作する。   Predicted pronunciations with different text identifiers may be added to the lexicon to accommodate different pronunciations from different users. Expected pronunciations may be linked to content items such as songs stored on a music catalog. When the computing device receives an oral utterance that includes a text identifier, the computing device determines whether the verbal utterance includes a text identifier by comparing the utterance with a lexicon with a corrected predicted pronunciation. If the verbal utterance matches the expected pronunciation, the computing device operates on the content, eg, by playing the requested song, as indicated in the utterance command portion.

図1は、本開示の一態様による、テキスト識別子の元言語に基づく、テキスト識別子の予想発音の予測のための音声認識技術を示す。図1は、予想発音予測モジュール128及びASRモジュール314を有するASR装置100ならびにASR装置100の近位に位置するユーザ120を含む。予想発音予測モジュール128は、ブロック102に示されるようにテキスト識別子(曲名など)にアクセスし、ブロック104に示されるようにテキスト識別子の元言語を判断するよう構成されてもよい。予測モジュール128はその後ブロック106に示すように、元言語に基づくテキスト識別子の1つまたは複数の予想発音を判断してもよい。予想発音はシステムによる検索のために、コンテンツアイテム(たとえば、曲)と照合されてもよい。予測モジュール128は、発話の受信前にASRシステムの動作の構成またはトレーニングを行う際に、これらのアクションを前もって実行してもよい。   FIG. 1 illustrates a speech recognition technique for predicting expected pronunciation of a text identifier based on the original language of the text identifier, according to one aspect of the present disclosure. FIG. 1 includes an ASR device 100 having a predicted pronunciation prediction module 128 and an ASR module 314 and a user 120 located proximal to the ASR device 100. Predictive pronunciation prediction module 128 may be configured to access a text identifier (such as a song title) as indicated at block 102 and determine the original language of the text identifier as indicated at block 104. Prediction module 128 may then determine one or more predicted pronunciations of the text identifier based on the original language, as shown in block 106. Expected pronunciations may be matched to content items (eg, songs) for retrieval by the system. The prediction module 128 may perform these actions in advance when configuring or training the operation of the ASR system prior to receiving the utterance.

ブロック108に示される装置の口頭での発話の受信の際に、発話はASRモジュール314に移行される。ASRモジュールはその後、ブロック110に示すように発話を予想発音と照合してもよい。その予想発音はその後、ブロック112に示すように、発話において言及された曲などのコンテンツアイテムに照合されてもよい。装置はその後ブロック114に示すように、コンテンツアイテムにアクセス(たとえば、曲を再生)してもよい。   Upon receipt of the verbal utterance of the device shown in block 108, the utterance is transferred to the ASR module 314. The ASR module may then match the utterance with the expected pronunciation as shown at block 110. That expected pronunciation may then be matched to a content item such as a song mentioned in the utterance, as shown in block 112. The device may then access the content item (eg, play a song), as shown at block 114.

図1は特定のモジュールによって実行されている特定のタスクを示すが、タスクは特定のASRシステムによって構成されるように、様々なモジュールによって実行されてもよい。   Although FIG. 1 shows a particular task being performed by a particular module, the task may be performed by various modules, as configured by a particular ASR system.

さらに本明細書に記載の技術は、ASR装置100、ネットワーク装置、または異なる装置のいくつかの組み合わせなどのローカル装置上で実行されてもよい。たとえば元言語及び(1つまたは複数の)予想発音の判断を実際に実行するために、ローカル装置及びリモート装置はローカル装置のテキスト識別子をリモート装置と交換してもよい。さらに、ローカル装置が口頭での発話を含む音声データを受信してもよい間、ローカル装置は音声データを処理のためにリモート装置に送信してもよい。リモート装置はその後、音声上のASR処理を実行してもよい。ASR結果はその後、発話のコンテンツアイテムとの照合及びコンテンツアイテムへのアクセスのためにローカル装置に送信されてもよく、またはリモート装置及びユーザへの再生のためにローカル装置に送信されたその結果(たとえば、ストリーミング曲)によってそれらのタスクが実行されてもよい。あるいは、ローカル装置及びリモート装置は他の方法でともに作用してもよい。   Further, the techniques described herein may be performed on a local device, such as ASR device 100, a network device, or some combination of different devices. For example, the local device and the remote device may exchange the local device's text identifier with the remote device to actually perform the determination of the original language and the expected pronunciation (s). Further, while the local device may receive voice data including verbal speech, the local device may send the voice data to the remote device for processing. The remote device may then perform voice ASR processing. The ASR result may then be sent to the local device for matching with the content item of utterance and access to the content item, or the result sent to the local device for playback to the remote device and the user ( For example, those tasks may be executed by streaming music. Alternatively, the local device and the remote device may work together in other ways.

これらの複数のASR装置はネットワークを介して接続されてもよい。図2に示すように、複数の装置がネットワーク202を介して接続されてもよい。ネットワーク202は、ローカルまたはプライベートネットワークを含んでもよく、またはインターネットなどの広域ネットワークを含んでもよい。装置は有線または無線接続のいずれかを通じてネットワーク202に接続されてもよい。たとえば無線装置204は、無線サービスプロバイダを通じてネットワーク202に接続されてもよい。コンピュータ212などの他の装置は、有線接続を通じてネットワーク202に接続してもよい。たとえば、家庭内または商業施設内に位置する冷蔵庫218などの他の装置は有線または無線接続を通じてネットワーク202に接続してもよい。ラップトップ208またはタブレットコンピュータ210などの他の装置は、様々な接続方法を利用したネットワーク202への接続が可能であってもよく、無線サービスプロバイダを通じて、WiFi接続などを介することを含む。ネットワーク装置は、ヘッドセット206または214などを介することを含む、いくつかの音声入力装置を通じて、口頭での音声を入力してもよい。音声入力装置は、有線または無線接続のいずれかを通じてネットワーク装置に接続されてもよい。ネットワーク装置はまた、ラップトップ208、無線装置204またはタブレットコンピュータ210内の内部マイクロホン(図示せず)などの埋め込み型音声入力装置を含んでもよい。   The plurality of ASR devices may be connected via a network. As shown in FIG. 2, a plurality of devices may be connected via a network 202. Network 202 may include a local or private network, or may include a wide area network such as the Internet. The device may be connected to the network 202 through either a wired or wireless connection. For example, the wireless device 204 may be connected to the network 202 through a wireless service provider. Other devices such as computer 212 may connect to network 202 through a wired connection. For example, other devices such as a refrigerator 218 located in a home or commercial facility may connect to the network 202 through a wired or wireless connection. Other devices such as laptop 208 or tablet computer 210 may be able to connect to network 202 using a variety of connection methods, including via a WiFi service provider, such as a WiFi connection. The network device may input verbal audio through a number of audio input devices, including via a headset 206 or 214 or the like. The voice input device may be connected to the network device through either a wired or wireless connection. The network device may also include an embedded voice input device such as a laptop 208, a wireless device 204 or an internal microphone (not shown) within the tablet computer 210.

特定のASRシステム構成において、ある装置が音声信号をキャプチャしてもよく、別の装置がASR処理を実行してもよい。たとえば、ヘッドセット214への音声入力はコンピュータ212によってキャプチャされ、処理のためにネットワーク202を介してコンピュータ220またはサーバ216へと送信されてもよい。あるいは、コンピュータ212はネットワーク202を介して送信する前に、音声信号を部分的に処理してもよい。ASR処理は多大な計算リソースを利用してもよいため、音声をキャプチャする装置の処理能力がリモート装置よりも低く、より高質なASR結果が所望される場合に、ストレージ及び処理能力の両方に関してこのような分割構成が利用されてもよい。ユーザ及び処理のために他の装置に送信されるキャプチャされた音声信号の近くで音声キャプチャが行われてもよい。たとえば、1つまたは複数のマイクロホンアレイがASR装置とは異なる場所に位置してもよく、キャプチャされた音声が処理のためにアレイからASR装置(または装置)に送信されてもよい。   In certain ASR system configurations, one device may capture audio signals and another device may perform ASR processing. For example, audio input to headset 214 may be captured by computer 212 and sent to computer 220 or server 216 via network 202 for processing. Alternatively, computer 212 may partially process the audio signal before transmitting it over network 202. Because ASR processing may use a lot of computational resources, both the storage and processing power when the processing capability of the device that captures voice is lower than that of the remote device and a higher quality ASR result is desired Such a divided configuration may be used. Audio capture may occur near the captured audio signal that is sent to the user and other devices for processing. For example, one or more microphone arrays may be located at a different location than the ASR device, and captured audio may be transmitted from the array to the ASR device (or device) for processing.

図3は、音声認識を実行するための自動音声認識(ASR)装置302を示す。本開示の態様は、ASR装置302上に存在してもよいコンピュータ読み取り可能及びコンピュータ実行可能命令を含む。図3は、ASR装置302内に含まれてもよいいくつかの構成要素を示すが、他の図示されない構成要素もまた含まれてもよい。また図示される構成要素のいくつかは、本開示の態様を利用することが可能なすべての装置内に存在するとは限らない。さらに、単一の構成要素としてASR装置302内に示されるいくつかの構成要素はまた、単一の装置内に複数回出現してもよい。たとえばASR装置302は、複数の入力装置306、出力装置307または複数の制御装置/処理装置308を含んでもよい。   FIG. 3 shows an automatic speech recognition (ASR) device 302 for performing speech recognition. Aspects of the present disclosure include computer readable and computer executable instructions that may reside on the ASR device 302. Although FIG. 3 shows some components that may be included within ASR device 302, other components not shown may also be included. Also, some of the illustrated components may not be present in all devices that can utilize aspects of the present disclosure. Further, some components shown in ASR device 302 as a single component may also appear multiple times in a single device. For example, the ASR device 302 may include multiple input devices 306, output devices 307, or multiple control / processing devices 308.

単一の音声認識システム内で複数のASR装置が利用されてもよい。このようなマルチデバイスシステムにおいて、ASR装置は、音声認識処理の異なる態様を実行するための異なる構成要素を含んでもよい。複数の装置は、重複する構成要素を含んでもよい。図3に示されるようなASR装置は例示であり、スタンドアロン装置であってもよく、またはその一部または全部がより規模の大きな装置またはシステムの構成要素として含まれてもよい。   Multiple ASR devices may be utilized within a single speech recognition system. In such a multi-device system, the ASR device may include different components for performing different aspects of the speech recognition process. The plurality of devices may include overlapping components. The ASR device as shown in FIG. 3 is exemplary and may be a stand-alone device, or some or all of it may be included as a component of a larger device or system.

本開示の教示は、たとえば、汎用計算システム、サーバクライアント計算システム、メインフレーム計算システム、電話回線を利用した計算システム、ラップトップコンピュータ、携帯電話、携帯情報端末(PDA)、タブレットコンピュータ、他のモバイル装置などを含む、いくつかの異なる装置及びコンピュータシステム内で応用されてもよい。ASR装置302はまた、たとえば現金自動預払機(ATM)、キオスク、家電機器(冷蔵庫、オーブンなど)、乗り物(車、バス、オートバイなど)、及び/または運動機器などの音声認識機能を提供してもよい他の装置またはシステムの構成要素であってもよい。   The teachings of the present disclosure include, for example, general purpose computing systems, server client computing systems, mainframe computing systems, computing systems utilizing telephone lines, laptop computers, mobile phones, personal digital assistants (PDAs), tablet computers, and other mobile It may be applied in a number of different devices and computer systems, including devices and the like. The ASR device 302 also provides voice recognition functions such as, for example, an automated teller machine (ATM), kiosk, home appliance (refrigerator, oven, etc.), vehicle (car, bus, motorcycle, etc.), and / or exercise equipment. It may be a component of another device or system.

ASR装置302は図3に示すように、処理のために口頭での発話をキャプチャする音声キャプチャ装置304を含んでもよい。音声キャプチャ装置304は、音声をキャプチャするためのマイクロホンまたは他の好適な構成要素を含んでもよい。音声キャプチャ装置304はASR装置302に一体化されてもよく、またはASR装置302から分離されてもよい。ASR装置302はまた、ASR装置302の構成要素の間でのデータ搬送のためのアドレス/データバス324を含んでもよい。ASR装置302内の各構成要素はまた、バス324をまたいでの他の構成要素への接続に加えて(またはそれに代えて)、他の構成要素に直接接続されてもよい。図3に特定の構成要素が直接接続されるように示されているが、これらの接続は例示にすぎず、他の構成要素が互いに直接接続されてもよい(ASRモジュール314が制御装置/処理装置308に、など)。   The ASR device 302 may include an audio capture device 304 that captures verbal utterances for processing, as shown in FIG. The audio capture device 304 may include a microphone or other suitable component for capturing audio. The audio capture device 304 may be integrated into the ASR device 302 or separated from the ASR device 302. The ASR device 302 may also include an address / data bus 324 for carrying data between the components of the ASR device 302. Each component within ASR device 302 may also be connected directly to other components in addition to (or instead of) connecting to other components across bus 324. Although specific components are shown in FIG. 3 as being directly connected, these connections are merely exemplary and other components may be directly connected to each other (the ASR module 314 may be connected to the controller / process). Device 308, etc.).

ASR装置302は、データ及びコンピュータ読み取り可能命令の処理のための中央処理装置(CPU)ならびにデータおよび命令の保存のためのメモリ310であってもよい制御装置/処理装置308を含んでもよい。メモリ310は、揮発性ランダムアクセスメモリ(RAM)、不揮発性読み取り専用メモリ(ROM)、及び/または他のタイプのメモリを含んでもよい。ASR装置302はまた、データ及び命令の保存のためのデータストレージ構成要素312を含んでもよい。データストレージ構成要素312は、磁気ストレージ、光学ストレージ、固体ストレージなどの1つまたは複数のストレージタイプを含んでもよい。ASR装置302はまた、入力装置306または出力装置307を通じてリムーバブルまたは外部メモリ及び/またはストレージ(リムーバブルメモリカード、メモリーキードライブ、ネットワークストレージなど)に接続されてもよい。ASR装置302及びその様々な構成要素を操作する制御装置/処理装置308による処理のためのコンピュータ命令は、制御装置/処理装置308によって実行され、メモリ310、ストレージ312、外部装置内に、または以下に記載するASRモジュール314に含まれるメモリ/ストレージ内に保存されてもよい。あるいは実行可能命令の一部または全部が、ソフトウェアに加えてまたは代えてハードウェアまたはファームウェア内に埋め込まれてもよい。本開示の教示は、たとえばソフトウェア、ファームウェア、及び/またはハードウェアの様々な組み合わせにおいて実装されてもよい。   The ASR device 302 may include a controller / processor 308, which may be a central processing unit (CPU) for processing data and computer readable instructions and a memory 310 for storing data and instructions. Memory 310 may include volatile random access memory (RAM), non-volatile read only memory (ROM), and / or other types of memory. The ASR device 302 may also include a data storage component 312 for storing data and instructions. Data storage component 312 may include one or more storage types, such as magnetic storage, optical storage, solid state storage, and the like. ASR device 302 may also be connected to removable or external memory and / or storage (removable memory card, memory key drive, network storage, etc.) through input device 306 or output device 307. Computer instructions for processing by the controller / processor 308 that operates the ASR device 302 and its various components are executed by the controller / processor 308, in the memory 310, storage 312, external devices, or below. May be stored in a memory / storage included in the ASR module 314 described in FIG. Alternatively, some or all of the executable instructions may be embedded in hardware or firmware in addition to or instead of software. The teachings of the present disclosure may be implemented in various combinations of software, firmware, and / or hardware, for example.

ASR装置302は、(1つまたは複数の)入力装置306及び(1つまたは複数の)出力装置307を含む。様々な(1つまたは複数の)入力/出力装置が装置内に含まれてもよい。例示的な入力装置306は、(個別の構成要素として図示される)マイクロホンなどの音声キャプチャ装置304、タッチ入力装置、キーボード、マウス、スタイラスまたは他の入力装置を含む。例示的な出力装置307は、視覚ディスプレイ、触覚ディスプレイ、オーディオスピーカ、ヘッドホン、プリンタまたは他の出力装置を含む。入力装置306及び/または出力装置307はまた、ユニバーサルシリアルバス(USB)、FireWire(登録商標)、Thunderbolt(登録商標)または他の接続プロトコルなどの、外部周辺装置接続のためのインターフェイスを含んでもよい。入力装置306及び/または出力装置307はまた、イーサネット(登録商標)ポート、モデムネットなどのネットワーク接続部を含んでもよい。入力装置306及び/または出力装置307はまた、無線周波(RF)、赤外線、Bluetooth(登録商標)、無線ローカルエリアネットワーク(WLAN)(WiFiなど)などの無線通信装置、またはロングタームエボリューション(LTE)ネットワーク、WiMAXネットワーク、3Gネットワークなどの無線通信ネットワークを用いた通信が可能な無線機などの無線ネットワーク装置を含んでもよい。ASR装置302は入力装置306及び/または出力装置307を通じて、インターネットまたはプライベートネットワークなどの分散型コンピューティング環境を含んでもよいネットワークへの接続をおこなってもよい。   The ASR device 302 includes an input device (s) 306 and an output device (s) 307. Various input / output devices may be included in the device. An exemplary input device 306 includes an audio capture device 304, such as a microphone (shown as a separate component), a touch input device, a keyboard, a mouse, a stylus, or other input device. Exemplary output devices 307 include visual displays, tactile displays, audio speakers, headphones, printers or other output devices. Input device 306 and / or output device 307 may also include an interface for external peripheral device connection, such as Universal Serial Bus (USB), FireWire®, Thunderbolt®, or other connection protocols. . The input device 306 and / or the output device 307 may also include a network connection such as an Ethernet port, a modem net, and the like. The input device 306 and / or the output device 307 may also be a wireless communication device such as radio frequency (RF), infrared, Bluetooth, Bluetooth, wireless local area network (WLAN) (such as WiFi), or long term evolution (LTE). A wireless network device such as a wireless device capable of communication using a wireless communication network such as a network, a WiMAX network, or a 3G network may be included. ASR device 302 may connect through input device 306 and / or output device 307 to a network that may include a distributed computing environment, such as the Internet or a private network.

装置はまた、口頭での音声データのテキストへの処理のためのASRモジュール314を含んでもよい。ASRモジュール314は音声データを音声データに含まれる音声の語を表すテキストデータに書き写す。テキストデータはその後、システム命令の実行、データの入力などの様々な目的のための他の構成要素によって利用されてもよい。口頭での発話を含む音声データは、リアルタイムで処理されてもよく、または後で保存されかつ処理されてもよい。音声データ上の口頭での発話はASRモジュール314に入力され、ASRモジュール314はその後、発話とASRモジュール314に知られているモデルとの間の類似性に基づき発話を解釈する。たとえばASRモジュール314は入力音声データを音声(たとえば、音声単位または音素)及び音声のシーケンスのためのモデルと比較し、音声データの発話において発せられた音声のシーケンスに一致する語を識別してもよい。口頭での発話を解釈することができる異なる方法により、それぞれ特定の組の語が発話において発せられた語の組に一致する可能性を表す確率または認識スコアを割り当ててもよい。認識スコアは、たとえば発話における音声の言語音声のためのモデル(たとえば、音響モデル)との類似性及び音声に一致する特定の語が(たとえば、言語モデルまたは文法を利用して)特定の位置の文に含まれる可能性を含むいくつかの要因に基づいてもよい。考慮される要因及び割り当てられた認識スコアに基づき、ASRモジュール314は、音声データにおいて認識される最も見込みの高い語を出力してもよい。ASRモジュール314はまた、複数の代替的な認識された語をラティスまたはN−bestリスト(以下により詳細に説明する)の形式で出力してもよい。   The device may also include an ASR module 314 for verbal audio data processing to text. The ASR module 314 copies the voice data into text data representing a voice word included in the voice data. The text data may then be utilized by other components for various purposes such as executing system instructions, entering data, etc. Voice data including verbal utterances may be processed in real time or may be stored and processed later. The verbal utterance on the speech data is input to the ASR module 314, which then interprets the utterance based on the similarity between the utterance and the model known to the ASR module 314. For example, the ASR module 314 may compare input speech data with a model for speech (eg, speech units or phonemes) and speech sequences and identify words that match the speech sequence uttered in the speech of speech data. Good. Different ways in which verbal utterances can be interpreted may be assigned probabilities or recognition scores representing the likelihood that each particular set of words matches the set of words uttered in the utterance. The recognition score is, for example, the similarity of speech in speech to a model for language speech (eg, an acoustic model) and a specific word that matches the speech (eg, using a language model or grammar) at a particular location. It may be based on several factors including the possibility of being included in the sentence. Based on the factors considered and the assigned recognition score, the ASR module 314 may output the most probable word recognized in the speech data. The ASR module 314 may also output a plurality of alternative recognized words in the form of a lattice or N-best list (described in more detail below).

認識スコアは音声データの部分が特定の音素または語に対応する確率を表してもよい一方、認識スコアはまた、他の音声データのASR処理に対するスコアをつけた音声データのASR処理品質を示す他の情報を組み込んでもよい。認識スコアは、0から1までの確率、ログ確率または他のインジケータとして、1から100までの数値として表されてもよい。認識スコアは音声データの一部が特定の音素、語などに対応する相対的な信頼度を示してもよい。   While the recognition score may represent the probability that a portion of the speech data corresponds to a particular phoneme or word, the recognition score may also indicate the ASR processing quality of the speech data with a score relative to the ASR processing of other speech data. May be incorporated. The recognition score may be expressed as a numerical value from 1 to 100 as a probability from 0 to 1, a log probability or other indicator. The recognition score may indicate a relative reliability that a part of the voice data corresponds to a specific phoneme, word, or the like.

ASRモジュール314は、ASR装置302のバス324、(1つまたは複数の)入力装置306及び/または(1つまたは複数の)出力装置307、音声キャプチャ装置304、エンコーダ/デコーダ322、制御装置/処理装置308及び/または他の構成要素に接続されてもよい。ASRモジュール314に送信された音声データは、リモートエンティティによってキャプチャされ、ネットワークを介してASR装置302に送信された音声データのように、音声キャプチャ装置304から来てもよく、または入力装置306によって受信されてもよい。音声データは、口頭での発話のオーディオ波形のデジタル表現の形式であってもよい。サンプリングレート、フィルタリング、及びアナログデジタル変換処理の他の態様が音声データの全体的な品質に影響する可能性がある。音声キャプチャ装置304及び入力装置306の様々な設定は、品質とデータサイズまたは他の留意点との従来の兼ね合いに基づき音声データを調節するよう構成されてもよい。   The ASR module 314 includes the bus 324 of the ASR device 302, the input device (s) 306 and / or the output device (s) 307, the audio capture device 304, the encoder / decoder 322, the controller / processing. It may be connected to the device 308 and / or other components. Voice data sent to the ASR module 314 may be captured by the remote entity and may come from the voice capture device 304 or received by the input device 306, such as voice data sent to the ASR device 302 via the network. May be. The audio data may be in the form of a digital representation of an audio waveform of an oral utterance. Other aspects of sampling rate, filtering, and analog-to-digital conversion processing can affect the overall quality of the audio data. Various settings of the audio capture device 304 and the input device 306 may be configured to adjust the audio data based on conventional tradeoffs between quality and data size or other considerations.

ASRモジュール314は、音響フロントエンド(AFE)316、音声認識エンジン318、及び音声ストレージ320を含む。AFE316は音声データを、音声認識エンジン318による処理のためのデータに変換する。音声認識エンジン318は音声認識データを、元の音声データに含まれる音声の認識のために音声ストレージ320に保存された音響、言語、及び他のデータモデルならびに情報と比較する。AFE316及び音声認識エンジン318は、それら自体の(1つまたは複数の)制御装置/(1つまたは複数の)処理装置及びメモリを含んでもよく、またはそれらはたとえばASR装置302の制御装置/処理装置308及びメモリ310を利用してもよい。同様に、AFE316及び音声認識エンジン318の操作のための命令は、ASR装置302のメモリ310及び/若しくはストレージ312内のASRモジュール314内部、または外部装置内にあってもよい。   The ASR module 314 includes an acoustic front end (AFE) 316, a speech recognition engine 318, and a speech storage 320. The AFE 316 converts the voice data into data for processing by the voice recognition engine 318. The speech recognition engine 318 compares the speech recognition data with the acoustic, language, and other data models and information stored in the speech storage 320 for recognition of speech contained in the original speech data. AFE 316 and speech recognition engine 318 may include their own controller (s) / processor (s) and memory, or they may be, for example, controllers / processors of ASR device 302. 308 and memory 310 may be used. Similarly, instructions for operation of AFE 316 and speech recognition engine 318 may be within ASR module 314 within memory 310 and / or storage 312 of ASR device 302 or within an external device.

受信された音声データは処理のためにAFE316に送信されてもよい。AFE316は、音声データ内のノイズを低減し、処理のために音声を含む音声データの部分を識別し、識別された音声構成要素を分割及び処理してもよい。AFE316は、デジタル音声データを各フレームがたとえば10ミリ秒(ms)の時間間隔を表すようなフレームまたは音声セグメントに分割してもよい。フレームの間に、AFE316は、フレーム内の発話部分の素性/品質を表す素性ベクトルと呼ばれる値の組を決定する。素性ベクトルは、たとえば40などの可変数の値を含んでもよい。素性ベクトルは、フレーム内の音声データの異なる品質を表してもよい。図4は、第1の語404が処理される際の第1の語404の複数の点406を有するデジタル音声データ波形402を示す。それらの点音声品質は素性ベクトルに保存されてもよい。素性ベクトルは、口頭での発話の時間を表すマトリクスに流れるかまたは組み合わせられてもよい。これらの素性ベクトルマトリクスはその後処理のために音声認識エンジン318へと移行してもよい。いくつかの手法が、音声データの処理のためにAFE316によって利用されてもよい。このような手法は、メル周波数ケプストラム係数(MFCC)、知覚的線形予測(PLP)技術、ニューラルネットワーク素性ベクトル技術、線形判別分析、半結合共分散マトリクス、または当業者に知られる他の手法の利用を含んでもよい。   The received audio data may be sent to the AFE 316 for processing. The AFE 316 may reduce noise in the audio data, identify portions of the audio data that include audio for processing, and divide and process the identified audio components. The AFE 316 may divide the digital audio data into frames or audio segments where each frame represents a time interval of, for example, 10 milliseconds (ms). During a frame, the AFE 316 determines a set of values called a feature vector that represents the feature / quality of the speech portion within the frame. The feature vector may include a variable number of values, such as 40, for example. The feature vector may represent different qualities of the audio data in the frame. FIG. 4 shows a digital audio data waveform 402 having a plurality of points 406 of the first word 404 as the first word 404 is processed. Those point voice qualities may be stored in a feature vector. The feature vectors may flow or be combined into a matrix representing the time of verbal utterance. These feature vector matrices may then be transferred to the speech recognition engine 318 for later processing. Several approaches may be utilized by AFE 316 for processing audio data. Such techniques include the use of mel frequency cepstrum coefficients (MFCC), perceptual linear prediction (PLP) techniques, neural network feature vector techniques, linear discriminant analysis, semi-joint covariance matrices, or other techniques known to those skilled in the art. May be included.

処理された素性ベクトルはその後ASRモジュール314から出力され、さらなる処理のために他の装置へと伝達する目的で出力装置307に送信されてもよい。素性ベクトルはエンコーダ/デコーダ322によって伝達の前に符号化かつ/または圧縮されてもよい。エンコーダ/デコーダ322は、デジタル音声データ、素性ベクトルなどのASRデータの符号化及び復号化のためにカスタマイズされてもよい。エンコーダ/デコーダ322はまた、たとえば.zipなどの一般的な符号化方式を利用してASR装置302の非ASRデータを符号化してもよい。エンコーダ/デコーダ322の機能は図3に示されるように個別の構成要素内にあってもよく、または、たとえば制御装置/処理装置308、ASRモジュール314、または他の構成要素によって実行されてもよい。   The processed feature vectors are then output from ASR module 314 and may be sent to output device 307 for the purpose of communicating to other devices for further processing. Feature vectors may be encoded and / or compressed prior to transmission by encoder / decoder 322. The encoder / decoder 322 may be customized for encoding and decoding ASR data such as digital audio data, feature vectors. The encoder / decoder 322 may also be e.g. The non-ASR data of the ASR device 302 may be encoded using a general encoding method such as zip. The functions of encoder / decoder 322 may be in separate components as shown in FIG. 3, or may be performed by, for example, controller / processor 308, ASR module 314, or other components. .

音声認識エンジン318は、音声ストレージ320内に保存された情報を参照してAFE316からの出力を処理してもよい。あるいは、フロントエンド後処理後のデータ(素性ベクトルなど)がASRモジュール314によって、内部AFE316以外の別のソースより受信されてもよい。たとえば、別のエンティティが音声データを素性ベクトルへと処理し、その情報を(1つまたは複数の)入力装置306を通じてASR装置302へと伝達してもよい。素性ベクトルは符号化されてASR装置302に到達してもよく、この場合、音声認識エンジン318による処理の前に(たとえばエンコーダ/デコーダ322によって)復号化されてもよい。   The speech recognition engine 318 may process the output from the AFE 316 with reference to information stored in the speech storage 320. Alternatively, front-end post-processed data (such as feature vectors) may be received by ASR module 314 from another source other than internal AFE 316. For example, another entity may process the voice data into a feature vector and communicate that information to the ASR device 302 through the input device (s) 306. The feature vector may be encoded to reach ASR device 302, where it may be decoded (eg, by encoder / decoder 322) prior to processing by speech recognition engine 318.

音声ストレージ320は、音素の発音を特定の語と照合するデータなどの音声認識のための様々な情報を含む。このデータは、音響モデルと称されてもよい。音声ストレージはまた、語の辞書またはレキシコンを含んでもよい。音声ストレージはまた、テキスト識別子をそれらの識別子の予想発音と照合するレキシコンを含んでもよい。テキスト識別子は、カタログ上の音楽、アドレスブック上のコンテンツ、及び/またはASR装置に(または他の場所に)保存された他のコンテンツなどのデジタルコンテンツを識別してもよい。テキスト識別子はまた、ASRシステム及び/またはユーザのデフォルト言語とは異なってもよい(1つまたは複数の)言語に由来する名を有してもよい食品(すなわち、材料、料理など)、レストラン、イベント、または他のアイテムなどの非デジタルアイテムを識別してもよい。音声ストレージはまた、特定のコンテキストにおいてともに利用しやすい語を示すデータを含んでもよい。このデータは、言語または文法モデルと称されてもよい。音声ストレージ320はまた、音声認識においてASRモジュール314によって利用されるモデルをトレーニングし改善するために利用されてもよい録音された音声及び/または対応するトランスクリプションを含んでもよいトレーニングコーパスを含んでもよい。トレーニングコーパスは、音響モデル及び言語モデルを含む音声認識モデルを事前にトレーニングするために利用されてもよい。モデルはその後、ASR処理中に利用されてもよい。   The speech storage 320 includes various information for speech recognition, such as data that matches phoneme pronunciations with specific words. This data may be referred to as an acoustic model. The voice storage may also include a dictionary of words or lexicons. Voice storage may also include lexicons that match text identifiers with the expected pronunciation of those identifiers. The text identifier may identify digital content such as music on a catalog, content on an address book, and / or other content stored on an ASR device (or elsewhere). The text identifier may also have a name derived from the language (s) that may be different from the ASR system and / or the user's default language (ie, ingredients, dishes, etc.), restaurants, Non-digital items such as events or other items may be identified. Voice storage may also include data indicating words that are easy to use together in a particular context. This data may be referred to as a language or grammar model. Speech storage 320 may also include a training corpus that may include recorded speech and / or corresponding transcriptions that may be utilized to train and improve the models utilized by ASR module 314 in speech recognition. Good. The training corpus may be used to pre-train speech recognition models including acoustic models and language models. The model may then be utilized during ASR processing.

トレーニングコーパスは、たとえば音響モデル及び言語モデルを作成するために利用されてもよい関連する素性ベクトル及び関連する正確なテキストを有するいくつかのサンプル発話を含んでもよい。サンプル発話は、特定の音声単位のための予想される音声に対応する数学的モデルを作成するために利用されてもよい。それらの音声単位は、音素、音節、音節の一部、語などを含んでもよい。音声単位はまた、トライフォン、クインフォンなどのコンテキスト上の音素を含んでもよい。音声において規則的に利用されるコンテキスト上の音素は、それ自体のモデルに関連してもよい。あまり一般的でないコンテキスト上の音素は、群モデルを有するようにクラスタ化されてもよい。音素群をこのようにクラスタ化することで、トレーニングコーパスに含まれるモデルが少なくなってもよく、したがってASR処理を容易にする。トレーニングコーパスは、ASRモジュール314の異なる発話の比較を提供するための異なるスピーカからの同じ発話の複数のバージョンを含んでもよい。トレーニングコーパスはまた、正確に認識された発話及び不正確に認識された発話を含んでもよい。これらの不正確に認識された発話は、ASRモジュール314に、たとえばエラータイプ及び対応する訂正の実施例を提供する文法エラー、誤認識エラー、ノイズ、または他のエラーを含んでもよい。トレーニングコーパスは外来語を含み、このような語を認識するようASRシステムをトレーニングしてもよい。トレーニングコーパスはまた、以下に記載するようにシステム性能を向上させるために特定のユーザの傾向を組み込むよう適合されてもよい。   The training corpus may include a number of sample utterances with associated feature vectors and associated accurate text that may be utilized, for example, to create acoustic and language models. Sample utterances may be utilized to create a mathematical model that corresponds to the expected speech for a particular speech unit. These speech units may include phonemes, syllables, parts of syllables, words, and the like. The speech unit may also include contextual phonemes such as triphones, quinphones. Contextual phonemes regularly used in speech may be associated with its own model. Less common contextual phonemes may be clustered to have a group model. By clustering phonemes in this way, fewer models may be included in the training corpus, thus facilitating ASR processing. The training corpus may include multiple versions of the same utterance from different speakers to provide a comparison of different utterances of the ASR module 314. The training corpus may also include correctly recognized utterances and incorrectly recognized utterances. These incorrectly recognized utterances may include grammatical errors, misrecognition errors, noise, or other errors that provide the ASR module 314 with, for example, error types and corresponding correction examples. The training corpus includes foreign words and the ASR system may be trained to recognize such words. The training corpus may also be adapted to incorporate particular user trends to improve system performance as described below.

他の情報はまた、音声認識における利用のために音声ストレージ320内に保存されてもよい。音声ストレージ320のコンテンツが一般的なASRの利用のために用意されてもよく、または、特定のアプリケーションにおいて利用しやすい音声及び語を含むようにカスタマイズされてもよい。たとえばATM(現金自動預払機)におけるASR処理のために、音声ストレージ320は、銀行取引の固有のカスタマイズされたデータを含んでもよい。場合によっては、音声ストレージ320はユーザの個別化された音声入力に基づき、個別のユーザのためにカスタマイズされてもよい。性能を向上させるために、ASRモジュール314は、ASR処理の結果のフィードバックに基づき音声ストレージ320のコンテンツを修正/更新し、ASRモジュール314がトレーニングコーパスにおいて提供された能力を上回るよう音声認識を向上させることを可能にしてもよい。   Other information may also be stored in the voice storage 320 for use in voice recognition. The content of the audio storage 320 may be prepared for general ASR usage or may be customized to include audio and words that are accessible in a particular application. For example, for ASR processing in an ATM (Automated Teller Machine), the voice storage 320 may include unique customized data for bank transactions. In some cases, the voice storage 320 may be customized for individual users based on the user's personalized voice input. To improve performance, the ASR module 314 modifies / updates the content of the voice storage 320 based on the feedback of the results of the ASR process, improving speech recognition so that the ASR module 314 exceeds the capabilities provided in the training corpus. May be possible.

音声認識エンジン318は、受信された素性ベクトルを音声ストレージ320において知られるような語または部分語単位と照合するよう試みる。部分語単位は音素、コンテキスト上の音素、音節、音節の一部、コンテキスト上の音節、または語の任意の他のこのような部分であってもよい。音声認識エンジン318は音響情報及び言語情報に基づき、素性ベクトルのための認識スコアを計算する。素性ベクトル群によって表される意図された音声が部分語単位に一致する可能性を表す音響スコアを計算するために、音響情報が利用される。どの音声及び/または語がコンテキスト上で互いに利用されるかを考慮することによって音響スコアを調節し、それによってASRモジュールが文法的に意味の通る音声結果を出力する可能性を向上させるために、言語情報が利用される。   Speech recognition engine 318 attempts to match the received feature vector with a word or subword unit as known in speech storage 320. A subword unit may be a phoneme, a contextual phoneme, a syllable, a part of a syllable, a contextual syllable, or any other such part of a word. The speech recognition engine 318 calculates a recognition score for the feature vector based on the acoustic information and the language information. Acoustic information is used to calculate an acoustic score that represents the likelihood that the intended speech represented by the feature vectors will match a subword unit. To adjust the acoustic score by considering which voices and / or words are used in context, thereby improving the likelihood that the ASR module will output grammatically meaningful speech results Language information is used.

音声認識エンジン318は、素性ベクトルを音素またはダイフォン、トライフォンなどの他の表音単位と照合するためのいくつかの技術を利用してもよい。ある一般的な技術は、隠れマルコフモデル(HMM)を利用している。素性ベクトルが音素に一致してもよい確率を判断するために、HMMが利用される。HMMを利用して、その状態がともに潜在的な音素(またはトライフォンなどの他の音声単位)を表し、各状態が混合ガウスモデルなどのモデルに関連するような、いくつかの状態が示される。状態間の遷移はまた、以前の状態から現在の状態に到達することができる可能性を表す関連する確率を有してもよい。受信された音声はHMMの状態間の経路として表されてもよく、複数の経路は同じ音声に関する複数の可能性のあるテキストの一致を表してもよい。各音素は、音素の異なる既知の発音及びそれらの部分(口頭での言語音声の冒頭、中央、及び末尾など)に対応する複数の潜在的な状態によって表されてもよい。潜在的な音素の確率の初期判断は、1つの状態に関連してもよい。新しい素性ベクトルが音声認識エンジン318によって処理される際、状態は新しい素性ベクトルの処理に基づき、変化するかまたは同じままであってもよい。処理された素性ベクトルに基づく状態の最も見込みの高いシーケンスを発見するために、ビタビアルゴリズム(Viterbi algorithm)が利用されてもよい。   Speech recognition engine 318 may utilize several techniques for matching feature vectors with phonemes or other phonetic units such as diphones, triphones, and the like. One common technique uses a hidden Markov model (HMM). An HMM is used to determine the probability that a feature vector may match a phoneme. Using the HMM, several states are shown, each of which represents a potential phoneme (or other speech unit such as a triphone) and each state is associated with a model such as a mixed Gaussian model. . Transitions between states may also have an associated probability that represents the likelihood that the current state can be reached from the previous state. Received speech may be represented as a path between HMM states, and multiple paths may represent multiple possible text matches for the same speech. Each phoneme may be represented by a plurality of potential states corresponding to different known pronunciations of the phonemes and their parts (such as the beginning, middle, and end of verbal verbal speech). The initial determination of potential phoneme probabilities may relate to one state. When a new feature vector is processed by the speech recognition engine 318, the state may change or remain the same based on the processing of the new feature vector. A Viterbi algorithm may be utilized to find the most probable sequence of states based on the processed feature vectors.

確率及び状態はいくつかの技術を利用して計算されてもよい。たとえば各状態のための確率は、素性ベクトル及び音声ストレージ320のコンテンツに基づくガウスモデル、混合ガウスモデル、または他の技術を利用して計算されてもよい。最尤推定(MLE)などの技術が、音素状態の確率を推定するために利用されてもよい。   Probabilities and states may be calculated using several techniques. For example, the probabilities for each state may be calculated using a Gaussian model based on the feature vector and the content of the audio storage 320, a mixed Gaussian model, or other techniques. Techniques such as maximum likelihood estimation (MLE) may be utilized to estimate the probability of phoneme states.

ある音素のための潜在的な状態の、素性ベクトルとの潜在的な一致としての計算に加え音声認識エンジン318はまた、別の音素のための潜在的な状態を、素性ベクトルとの潜在的な一致として計算してもよい。このように、複数の状態及び状態遷移確率が計算されてもよい。   In addition to computing a potential state for one phoneme as a potential match with a feature vector, the speech recognition engine 318 also determines a potential state for another phoneme as a potential with a feature vector. It may be calculated as a match. Thus, a plurality of states and state transition probabilities may be calculated.

音声認識エンジン318によって計算された可能性の高い状態及び可能性の高い状態遷移が経路内に構成されてもよい。各経路は、素性ベクトルによって表される音声データと潜在的に一致する音素の進展を表す。1つの経路は各音素のために計算された認識スコアに応じて、1つまたは複数の他の経路と重複してもよい。特定の確率は、状態から状態への各遷移に関連する。累積経路スコアはまた、経路ごとに計算されてもよい。ASR処理の一部としてスコアを組み合わせる際、所望の組み合わせられたスコアに到達するためにスコアが乗算されて(または他の方法で組み合わされて)もよく、または確率がログ領域に変換され、処理の補助のために追加されてもよい。   The likely state calculated by the speech recognition engine 318 and the likely state transition may be configured in the path. Each path represents a phoneme evolution that potentially matches the speech data represented by the feature vector. One path may overlap with one or more other paths depending on the recognition score calculated for each phoneme. A particular probability is associated with each transition from state to state. A cumulative path score may also be calculated for each path. When combining scores as part of ASR processing, the scores may be multiplied (or otherwise combined) to arrive at the desired combined score, or the probabilities are converted to log areas and processed May be added to assist.

音声認識エンジン318は、潜在的な経路を音声認識結果を表すラティスへと組み合わせてもよい。サンプルラティスが図5に示される。ラティス502は、音声認識結果の複数の潜在的な経路を示す。大きなノード間の経路は潜在的な語(たとえば「hello」、「yellow」など)を表し、より小さなノード間の経路は潜在的な音素(たとえば「H」、「E」、「L」、「O」及び「Y」、「E」、「L」、「O」)を表す。例示の目的のために、個別の音素はラティスの第1の2つの語のためのみに示される。ノード504とノード506との間の2つの経路は、「hello how」または「yellow now」の2つの潜在的な語の選択を表す。ノード(潜在的な語などの)間の各経路の点は、認識スコアに関連する。ラティスをまたぐ各経路にまた、認識スコアが割り当てられてもよい。認識スコアが音響モデルスコアの組み合わせである場合の最高の認識スコア経路、言語モデルスコア、及び/または他の要因は、関連する素性ベクトルのためのASR結果として音声認識エンジン318によって返されてもよい。   The speech recognition engine 318 may combine potential paths into lattices that represent speech recognition results. A sample lattice is shown in FIG. Lattice 502 shows multiple potential paths for speech recognition results. Paths between large nodes represent potential words (eg, “hello”, “yello”, etc.), while paths between smaller nodes represent potential phonemes (eg, “H”, “E”, “L”, “ O ”and“ Y ”,“ E ”,“ L ”,“ O ”). For illustrative purposes, individual phonemes are shown only for the first two words of the lattice. The two paths between node 504 and node 506 represent the selection of two potential words, “hello how” or “yello now”. Each path point between nodes (such as potential words) is associated with a recognition score. A recognition score may also be assigned to each path across the lattice. The highest recognition score path, language model score, and / or other factors when the recognition score is a combination of acoustic model scores may be returned by the speech recognition engine 318 as an ASR result for the associated feature vector. .

ASR処理に続き、ASR結果がASRモジュール314によってさらなる処理(解釈されたテキストに含まれる命令の実行など)のために制御装置/処理装置308などのASR装置302の別の構成要素へと、または外部装置への送信のために出力装置307へと送信されてもよい。   Following ASR processing, the ASR result is sent by ASR module 314 to another component of ASR device 302, such as controller / processor 308, for further processing (such as execution of instructions contained in the interpreted text), or It may be transmitted to the output device 307 for transmission to an external device.

音声認識エンジン318はまた、言語モデルまたは文法に基づき経路の分岐のスコアを計算してもよい。言語モデルは、意味の通った語及び文を形成するためにどの語がともに利用しやすいかについてスコアの判断を利用する。言語モデルの応用により、ASRモジュール314が音声データ内に含まれる音声を正確に解釈する可能性が向上してもよい。たとえば口頭での発話内のそれぞれの語の言語コンテキストに基づき「H E L O」(語「hello」として解釈される)、「H A L O」(語「halo」として解釈される)、及び「Y E L O」(語「yellow」として解釈される)の認識スコアを調節するために、「H E L O」、「H A L O」、及び「Y E L O」の潜在的な音素経路を返す音響モデル処理が言語モデルによって調節されてもよい。言語モデルは音声ストレージ320内に保存されたトレーニングコーパスから判断されてもよく、また特定のアプリケーションのためにカスタマイズされてもよい。特定の次の語を知覚する確率が前のn−1語のコンテキスト履歴に依拠する、N−gramモデルなどの技術を利用して言語モデルが実行されてもよい。N−gramモデルはまた、次の語を知覚する確率が前の語(バイグラムモデルの場合)または前の2つの語(トリグラムモデルの場合)に依拠するバイグラム(n=2である)及びトリグラム(n=3である)モデルとして構成されてもよい。音響モデルはまた、N−gram技術を応用してもよい。   The speech recognition engine 318 may also calculate a path branch score based on a language model or grammar. The language model uses score determination as to which words are easy to use together to form meaningful words and sentences. The application of the language model may improve the possibility that the ASR module 314 correctly interprets the speech included in the speech data. For example, “H E L O” (interpreted as the word “hello”), “H A L O” (interpreted as the word “halo”), based on the language context of each word in the verbal utterance, and To adjust the recognition score of “Y E L O” (interpreted as the word “yello”), the potential of “H E L O”, “H A L O”, and “Y E L O” Acoustic model processing that returns phoneme paths may be adjusted by the language model. The language model may be determined from a training corpus stored in the voice storage 320 and may be customized for a particular application. The language model may be implemented using techniques such as the N-gram model, where the probability of perceiving a particular next word depends on the context history of the previous n-1 words. The N-gram model also has bigrams (n = 2) and trigrams whose probability of perceiving the next word depends on the previous word (in the case of the bigram model) or the previous two words (in the case of the trigram model). It may be configured as a model (where n = 3). The acoustic model may also apply N-gram technology.

言語モデルの一部として(またはASR処理の他の段階において)、音声認識エンジン318は計算リソースを保存するために、言語モデルに従う低い認識スコアまたは他の理由のいずれかにより口頭での発話に対応する可能性がほとんどない低い認識スコア状態または経路を取り除き破棄してもよい。さらにASR処理中に音声認識エンジン318は、すでに処理された発話部分における付加的な処理パスを反復的に実行してもよい。結果を洗練させ改善するために、後のパスが前のパスの結果を組み込んでもよい。音声認識エンジン318が潜在的な語を入力音声から判断する際に、ラティスは多くの潜在的な音声及び語が入力音声との潜在的な一致として見なされるように非常に大きくなってもよい。語の結果のネットワークとして潜在的な一致が示されてもよい。音声認識結果のネットワークは、認識されてもよい音声単位の可能性のあるシーケンス及び各シーケンスの可能性を表すアークならびにノードの接続されたネットワークである。語の結果のネットワークは、語レベルでの音声認識結果のネットワークである。他のレベルでの音声認識ネットワークもまた可能である。結果のネットワークは、任意のタイプの音声認識デコーダ(またはエンジン)によって生成されてもよい。たとえば結果のネットワークは、有限状態トランスデューサ(FST)によってデコーダに基づいて生成されてもよい。最高のスコア結果のラティスまたはN−bestリストなどの音声認識結果の最終組を作成するために、結果のネットワークが利用されてもよい。ニューラルネットワークはまた、ASR処理を実行するために利用されてもよい。   As part of the language model (or at other stages of ASR processing), the speech recognition engine 318 responds to verbal utterances either with a low recognition score according to the language model or for other reasons to conserve computational resources Low recognition score states or paths that are unlikely to do may be removed and discarded. Further, during ASR processing, the speech recognition engine 318 may iteratively perform additional processing passes on the already processed speech portion. In order to refine and improve the results, the later pass may incorporate the results of the previous pass. As the speech recognition engine 318 determines potential words from the input speech, the lattice may become very large so that many potential speeches and words are considered as potential matches with the input speech. Potential matches may be shown as a network of word results. The network of speech recognition results is a connected sequence of possible sequences of speech units that may be recognized and arcs and nodes representing the potential of each sequence. A network of word results is a network of speech recognition results at the word level. Voice recognition networks at other levels are also possible. The resulting network may be generated by any type of speech recognition decoder (or engine). For example, the resulting network may be generated based on a decoder by a finite state transducer (FST). The resulting network may be utilized to create a final set of speech recognition results, such as a lattice or N-best list of best score results. Neural networks may also be utilized to perform ASR processing.

音声認識エンジン318は、音声認識エンジン318によって判断されるように、上位N個の経路に対応する経路のN−bestリストをそのそれぞれの認識スコアとともに返してもよい。N−bestリストを受信するアプリケーション(ASR装置302の内部若しくは外部のいずれかの、プログラムまたは構成要素など)はその後、リスト及び関連する認識スコアを考慮してリスト上でさらなる動作または分析を実行してもよい。たとえばエラーの訂正ならびに様々な選択肢及びASRモジュール314の処理条件のトレーニングにおいて、N−bestリストが利用されてもよい。音声認識エンジン318は最善の結果を有する実際の正確な発話をN−bestリスト上の他の結果と比較し、不正確な認識が特定の認識スコアを受信した理由を判断してもよい。音声認識エンジン318はその後の処理の試みにおける不正確な手法の認識スコアを低減させるために、その手法を訂正してもよい(また、音声ストレージ320内の情報を更新してもよい)。   The speech recognition engine 318 may return an N-best list of routes corresponding to the top N routes along with their respective recognition scores, as determined by the speech recognition engine 318. An application that receives the N-best list (such as a program or component, either internal or external to the ASR device 302) then performs further actions or analysis on the list taking into account the list and associated recognition score. May be. For example, the N-best list may be utilized in error correction and training of various options and processing conditions of the ASR module 314. The speech recognition engine 318 may compare the actual accurate utterance with the best results with other results on the N-best list to determine why the incorrect recognition received a particular recognition score. The voice recognition engine 318 may correct the technique (and update the information in the voice storage 320) to reduce the recognition score of the incorrect technique in subsequent processing attempts.

コンテンツアイテムに関する音声命令を処理するためにASR装置が利用されてもよい。コンテンツアイテム自体がASR装置上にローカルに保存されるか(携帯電話上の音楽コレクションなど)、またはリモートに保存されてもよい(リモートサーバからストリーミングされてもよい映画など)。それらのコンテンツアイテムは、たとえば、音楽、電子書籍(eブック)、映画、コンタクト情報、文書、ショートメッセージサービス通信、eメール及び/若しくは他の音声、動画またはテキスト情報を含んでもよい。ASR装置のユーザは、再生、編集、転送などを含む様々な目的でのこのようなコンテンツアイテムへのアクセスを要求してもよい。たとえばユーザは、携帯電話がユーザからの口頭での要求に応じて音楽を再生することができるように要求してもよい。ユーザからの要求を実行するために、コンテンツアイテムのカタログが語の辞書またはレキシコンにリンクされてもよい。レキシコンは、個別のコンテンツアイテムにリンクされたテキスト識別子であってもよいテキスト識別子を含んでもよい。たとえばテキスト識別子は、アーティスト名、アルバム名、曲/映画/eブックのタイトルなどを含んでもよい。各テキスト識別子はカタログ上のコンテンツの1つまたは複数のアイテム(複数の曲にリンクされているバンド名など)に対応してもよく、各コンテンツアイテムは1つまたは複数のテキスト識別子(曲名、バンド名、アルバム名などにリンクされる曲など)にリンクされてもよい。テキスト識別子はまた、デジタルコンテンツ以外のアイテムを参照してもよい。   An ASR device may be utilized to process voice commands for content items. The content item itself may be stored locally on the ASR device (such as a music collection on a mobile phone) or stored remotely (such as a movie that may be streamed from a remote server). These content items may include, for example, music, electronic books (e-books), movies, contact information, documents, short message service communications, email and / or other audio, video or text information. ASR device users may request access to such content items for a variety of purposes, including playback, editing, forwarding, and the like. For example, the user may request that the mobile phone be able to play music in response to a verbal request from the user. A catalog of content items may be linked to a dictionary of words or a lexicon to fulfill a request from a user. A lexicon may include a text identifier that may be a text identifier linked to an individual content item. For example, the text identifier may include an artist name, album name, song / movie / ebook title, and the like. Each text identifier may correspond to one or more items of content on the catalog (such as band names linked to multiple songs), and each content item may have one or more text identifiers (song names, bands). Name, album name, etc.). Text identifiers may also refer to items other than digital content.

上述のように、レキシコンはまた各テキスト識別子の1つまたは複数の予想発音を含んでもよく、それによってユーザは音声命令を通じて関連するコンテンツアイテムにアクセスすることができる。たとえばユーザは、アーティスト名、アルバムまたは曲名を口に出すことによって音楽カタログ上に保存された曲の再生を試みてもよい。予想発音は、語の綴りに基づいて判断されてもよい。綴りに基づく語の予想発音の判断の処理は、書記素音素(G2P)変換または発音の推測(一般的に発音推測と称される)として定義される。場合によって、テキスト識別子は外来語を含んでもよい。例示の目的のために、本応用において言及される外来語(または外国語)は、ASRシステムのデフォルト言語に対して外国語に由来すると考えられる。本明細書に記載の技術が異なる言語に基づくASRシステムに応用されてもよいが、ASRシステムのデフォルト言語は本目的のために英語として示される。   As described above, the lexicon may also include one or more expected pronunciations for each text identifier, thereby allowing the user to access related content items through voice commands. For example, a user may attempt to play a song stored on a music catalog by speaking an artist name, album or song name. The expected pronunciation may be determined based on the spelling of the word. The process of determining the expected pronunciation of a word based on spelling is defined as grapheme phoneme (G2P) conversion or pronunciation guessing (generally called pronunciation guessing). In some cases, the text identifier may include foreign words. For illustrative purposes, the foreign language (or foreign language) mentioned in this application will be derived from a foreign language relative to the default language of the ASR system. Although the techniques described herein may be applied to ASR systems based on different languages, the default language of the ASR system is shown as English for this purpose.

異なる言語の語または言語学的素性を組み込むテキスト識別子のASR処理を補助するために、本開示はテキスト識別子の言語の由来に基づいてテキスト識別子の1つまたは複数の発音を予想するようASRシステムが構成されるシステムを提供する。本開示の一態様において、ASRシステムはテキスト識別子に基づいてテキスト識別子の元言語を判断する。ASRシステムはその後、テキスト及び識別された元言語に基づきテキスト識別子の予想発音を判断する。ASRシステムは、各々が関連する可能性を有する特定のテキスト識別子の複数の予想発音を判断してもよい。予想発音(及び/またはそれらの関連する可能性)はまた、ユーザまたはユーザ群の発音傾向に基づいて調節されてもよい。予想発音はASRシステムによる最終的な検索のために、レキシコンに追加され、そのそれぞれのコンテンツアイテムにリンクされてもよい。   To assist ASR processing of text identifiers that incorporate words or linguistic features of different languages, this disclosure allows the ASR system to predict one or more pronunciations of a text identifier based on the language origin of the text identifier. Provide a configured system. In one aspect of the present disclosure, the ASR system determines the original language of the text identifier based on the text identifier. The ASR system then determines the expected pronunciation of the text identifier based on the text and the identified original language. The ASR system may determine multiple expected pronunciations of a particular text identifier that each has a potential to relate to. Expected pronunciations (and / or their associated possibilities) may also be adjusted based on the pronunciation tendency of the user or group of users. The expected pronunciation may be added to the lexicon and linked to its respective content item for final search by the ASR system.

元言語を判断するために、綴り/テキスト識別子に基づく言語の由来を予測する分類子をASRシステムが利用してもよい。分類子は、文字に基づく統計的モデルなどの統計的モデルであってもよい。テキスト識別子(たとえば、バンド名)は文献、段落などの長い形式のテキストに対して短くてもよいため、元言語の予測のための分類子は、他の言語予測システムによって利用されてもよい段落の列をなす複数のテキストに基づく検知よりも短いテキストの基本的な言語単位に重点を置いてもよい。たとえば分類子は、1つまたは複数の言語(たとえば、言語A、BまたはC)における文字のシーケンスの可能性を識別するようにトレーニングされてもよい。いくつかの態様において、各言語の可能性が個別に学習されてもよい。分類子はまた、異なる言語の語のためのn−gramに基づく文字モデルを実装してもよい。n−gramは、ASRシステムの異なる構成による、音節、文字、語または塩基対などのアイテムのシーケンスに基づいてもよい。   To determine the original language, the ASR system may utilize a classifier that predicts the origin of the language based on the spelling / text identifier. The classifier may be a statistical model, such as a statistical model based on characters. Since text identifiers (eg, band names) may be short for long forms of text such as documents, paragraphs, etc., the classifier for source language prediction is a paragraph that may be utilized by other language prediction systems. Emphasis may be placed on the basic linguistic unit of text that is shorter than detection based on multiple texts in a row. For example, the classifier may be trained to identify the possibility of a sequence of characters in one or more languages (eg, language A, B, or C). In some aspects, the possibilities for each language may be learned individually. The classifier may also implement an n-gram based character model for words in different languages. The n-gram may be based on a sequence of items such as syllables, letters, words or base pairs according to different configurations of the ASR system.

語の綴りが特定の言語に一致する可能性を表すスコアが割り当てられてもよい。たとえばスコアは、テキスト識別子(またはその部分)が由来する可能性の高い2つ以上の言語に割り当てられてもよい。いくつかの態様においてスコアは、元言語の識別を改善させるために異なる言語のそれぞれに割り当てられた確率的重みであってもよい。外国語のための最高スコアを有する1つまたは複数の言語が元言語として識別されてもよい。テキストが「Gotye」である場合、たとえば、確率的重みの70%がフランス語に、また30%がドイツ語に割り当てられてもよい。この判断に基づき、フランス語及びドイツ語の両方の語の予想発音ならびに対応する確率的重みがレキシコンに追加されてもよい。本実装態様により、テキストの最も見込みの高い元言語の選択が可能になる。一態様において、テキスト識別子の一部が異なる元言語スコアを有してもよい。たとえば「Ludwig van Beethoven」の氏名の最初の語はドイツ語の高いスコアを有してもよいが、一方で中央の語がオランダ語の高いスコアなどを有してもよい。語の一部はまた、互いに異なる言語スコアを有してもよい。以下に記載の異なる予想発音を作成するために、このような異なるスコアが利用されてもよい。   A score may be assigned that represents the likelihood that the spelling of the word matches a particular language. For example, a score may be assigned to more than one language from which a text identifier (or portion thereof) is likely to come from. In some aspects, the score may be a probabilistic weight assigned to each of the different languages to improve the identification of the original language. One or more languages with the highest score for the foreign language may be identified as the original language. If the text is “Gotye”, for example, 70% of the probabilistic weights may be assigned to French and 30% to German. Based on this determination, expected pronunciations of both French and German words and corresponding probabilistic weights may be added to the lexicon. This implementation allows the selection of the most probable source language of the text. In one aspect, some of the text identifiers may have different source language scores. For example, the first word of the name “Ludwig van Beethoven” may have a high German score, while the central word may have a high Dutch score, etc. Some of the words may also have different language scores. Such different scores may be used to create the different expected pronunciations described below.

いくつかの態様においては、言語の素性が展開される機械学習分類子に基づく分類子が実装されてもよい。素性は、テキスト識別子の語列の冒頭、中央または末尾において特定の文字の組み合わせを含んでもよい。これらの素性に基づき、素性を組み込みやすい異なる言語にスコアが割り当てられてもよい。たとえば分類子は、オランダ語の元言語を示す語列の中央におけるV−A−Nの存在などの素性を識別する。分類子はテキスト識別子がそれらの言語のそれぞれに由来する可能性に基づく、点または重みを潜在的な元言語のそれぞれに割り当てる。他の分類子モデルは、サポートベクトルマシン/モデルまたは最大エントロピーモデル、文字レベル言語モデル及び条件付き確率場モデルを含む。これらのモデルは、最も見込みの高い元言語のスコアをつけるために、異なる言語のための素性及びスコアを組み合わせてもよい。   In some aspects, a classifier may be implemented that is based on a machine learning classifier in which language features are expanded. A feature may include a combination of specific characters at the beginning, middle or end of a text identifier word string. Based on these features, scores may be assigned to different languages that are easy to incorporate features. For example, the classifier identifies a feature such as the presence of VA-N in the middle of a word string indicating the Dutch original language. The classifier assigns points or weights to each potential source language based on the likelihood that the text identifier is from each of those languages. Other classifier models include support vector machines / models or maximum entropy models, character level language models, and conditional random field models. These models may combine features and scores for different languages to score the most probable source language.

開示のいくつかの態様においては、コンテンツアイテムに関連する他のテキスト識別子の元言語に基づいて外国語の元言語が判断されてもよい。たとえば特定のアーティストの1つまたは複数の曲名または曲の歌詞がドイツ語である場合、アーティスト名がドイツ語に由来する可能性が増大してもよい。この場合、アーティスト名の元言語を判断するための証拠として曲名が利用されてもよい。さらに、他のテキスト識別子は識別されるコンテンツに関連するメタデータを含んでもよい。たとえばデジタルコンテンツのアイテムは、テキスト識別子の元言語を識別するかまたは識別するために利用されてもよいメタデータに関連してもよい。元言語の判断を調節するためにテキスト識別子間の他の関係が探求してもよい。   In some aspects of the disclosure, the original language of the foreign language may be determined based on the original language of other text identifiers associated with the content item. For example, if one or more song titles or song lyrics of a particular artist are in German, the likelihood that the artist name comes from German may increase. In this case, the song title may be used as evidence for determining the original language of the artist name. In addition, other text identifiers may include metadata associated with the identified content. For example, an item of digital content may relate to metadata that may be used to identify or identify the original language of a text identifier. Other relationships between text identifiers may be explored to adjust the judgment of the original language.

1つまたは複数の元言語がテキスト識別子(またはその部分)に関連すると、システムはテキスト識別子の(1つまたは複数の)元言語及びテキストに基づき、テキスト識別子の(1つまたは複数の)予想発音を判断してもよい。   When one or more source languages are associated with a text identifier (or part thereof), the system is based on the source language (s) and text of the text identifier, and the expected pronunciation (s) of the text identifier. May be judged.

開示のいくつかの態様において、書記素音素(G2P)変換または発音推測モデルなどの変換モデルが各潜在的な元言語のために展開されてもよい。変換モデルは外国語のテキストの綴りから外国語のテキストの発音を導き出す。各言語は、音素などの異なる言語単位を含む。外国語の予想発音を判断するために、クロスリンガルマッピング技術が利用されてもよい。第1の言語(たとえば、ドイツ語)の音素が、第1の言語の音素に最も類似する第2の言語(たとえば、英語)の音素にマッピングされてもよい。しかし、ドイツ語のいくつかの発音/音素は、標準的な英語の音素に類似または対応しない場合がある。たとえばKraftwerkの最初の文字「r」のドイツ語の発音は英語の音素に対応しない。文字「r」のドイツ語の発音は実際には、文字「h」の発音と文字「r」の発音の中間の「口蓋垂音/r/」である。このような場合には、ドイツ語の音素は、最も近い英語の音素にマッピングされてもよい。   In some aspects of the disclosure, a transformation model, such as a grapheme phoneme (G2P) transformation or pronunciation guessing model, may be developed for each potential source language. The transformation model derives the pronunciation of the foreign language text from the spelling of the foreign language text. Each language includes different language units such as phonemes. Cross-lingual mapping technology may be used to determine the expected pronunciation of the foreign language. A phoneme of a first language (eg, German) may be mapped to a phoneme of a second language (eg, English) that is most similar to the phoneme of the first language. However, some German pronunciations / phonemes may not be similar to or correspond to standard English phonemes. For example, the German pronunciation of the first letter “r” in Kraftwerk does not correspond to an English phoneme. The pronunciation of the letter “r” in German is actually “palatosis / r /” which is intermediate between the pronunciation of the letter “h” and the pronunciation of the letter “r”. In such a case, the German phoneme may be mapped to the closest English phoneme.

本開示の一態様において、外国語の最も近い発音を判断するために、言語学的技術が利用される。たとえば外国語の最も近い発音を判断するために、「奥舌性」、「円唇性」の部位または調音などの言語学的調音素性が実装されてもよい。調音部位は、発声中に調音器官(たとえば、舌、歯、軟口蓋など)が空気の流れを制限し、形成し、または閉じる口腔内の部位であってもよい。実施例には、両唇音(唇の間)、歯唇音(唇と歯との間)、歯茎音(歯のすぐ後方)、及び口蓋垂音(口蓋垂付近)が含まれる。「奥舌性」は、音声(通常は母音)がのどに向かって調音される度合いとして定義されてもよい。後舌母音は、「caught」の「au」、「rote」の「o」、及び「lute」の「u」を含んでもよい。「円唇性」または「円唇化」は、度合いとして定義されてもよい。音声(母音であることが多いが、常にそうではない)は唇を丸めて調音される。円唇母音は、「rote」の「o」、及び「lute」の「u」を含む。対象の音素を有する外国語のいくつかの実施例を認識するために、たとえば英語音素認識装置などの第1の言語認識装置を利用して、言語学的技術が応用されてもよい。認識装置はその後、外国語の潜在的な発音を判断する。   In one aspect of the present disclosure, linguistic techniques are utilized to determine the nearest pronunciation of a foreign language. For example, in order to determine the nearest pronunciation of a foreign language, linguistic articulation features such as “back tongue”, “lips” or articulation may be implemented. The articulatory site may be a site in the oral cavity where the articulatory organ (eg, tongue, teeth, soft palate, etc.) restricts, forms or closes air flow during speech. Examples include both lip sounds (between lips), lip sounds (between lips and teeth), gum sounds (immediately behind the teeth), and uvula sounds (near the uvula). “Back tongue” may be defined as the degree to which a voice (usually a vowel) is tuned toward the throat. The back tongue vowels may include “au” for “caight”, “o” for “rote”, and “u” for “lute”. “Clips” or “lips” may be defined as a degree. Voice (often vowels, but not always) is tuned with rounded lips. The round lip vowel includes “o” of “rote” and “u” of “lute”. Linguistic techniques may be applied using a first language recognition device, such as, for example, an English phoneme recognition device, to recognize some embodiments of foreign languages having the target phonemes. The recognizer then determines the potential pronunciation of the foreign language.

複数の語の関連及びその対応する発音を分析し、新しい語の予想発音を判断するために、いくつかの言語学的技術(たとえば、期待値最大化アルゴリズム、統計的モデル、隠れマルコフモデル(HMM))が利用されてもよい。たとえば文字シーケンス、音素シーケンス及びそれぞれの語の音声との間の関連を判断するために、ドイツ語を含むレキシコン及び対応するドイツ語の発音が分析されてもよい。たとえば期待値最大化アルゴリズムは、いくつかの例外を除いて英語での文字P−HがFとして発音されてもよいことを学習してもよい。期待値最大化アルゴリズムはまた、Eが「ee」に対して「eh」などといつ発音されるかを学習してもよい。モデルは期待値最大化アルゴリズムの分析に基づいて展開され、新しい音素シーケンスを、またその後新しい語の予想発音を予測するために利用されてもよい。外国語の予想発音を判断するために、言語学的技術が他の技術とともに利用されてもよい。   Several linguistic techniques (eg, expectation maximization algorithms, statistical models, hidden Markov models (HMMs) are used to analyze the association of multiple words and their corresponding pronunciations to determine the expected pronunciation of a new word. )) May be used. For example, lexicons including German and corresponding German pronunciations may be analyzed to determine associations between character sequences, phoneme sequences and the speech of each word. For example, the expectation maximization algorithm may learn that the letter PH in English may be pronounced as F with some exceptions. The expected value maximization algorithm may also learn when E is pronounced as “eh”, etc. with respect to “ee”. The model may be developed based on the analysis of the expectation maximization algorithm and used to predict new phoneme sequences and then the expected pronunciation of new words. Linguistic techniques may be used with other techniques to determine the expected pronunciation of a foreign language.

言語学的技術はまた、(1つまたは複数の)元言語に基づくテキスト識別子のための複数の代替的な発音の予測を可能にする。たとえば各テキスト識別子の複数の発音がグラフによって表されてもよい。グラフの異なる部分が、テキスト識別子の異なる部分のための可能性のある発音を表してもよい。グラフの辺などのグラフの一部は、グラフ上の経路の可能性を示す割り当てられたスコアまたは重みであってもよい。異なる言語(たとえば、英語及びドイツ語)を表すために、異なるグラフが展開されてもよい。たとえば英語及びドイツ語の発音のために、個別のグラフが展開されてもよい。しかしいくつかの態様において外国語の混合発音を予測するために、個別のグラフがともに組み合わせられてもよい。テキスト識別子の発音が進展する際の2つの言語の入れ替えが組み合わせグラフにより可能になるが、これはユーザがある言語に有利に働くテキスト識別子の部分及び別の言語に有利に働くテキスト識別子の他の部分を発音してもよい状況において望ましい。   Linguistic techniques also allow prediction of multiple alternative pronunciations for text identifiers based on the original language (s). For example, a plurality of pronunciations of each text identifier may be represented by a graph. Different parts of the graph may represent possible pronunciations for different parts of the text identifier. A portion of the graph, such as a graph edge, may be an assigned score or weight that indicates the likelihood of a path on the graph. Different graphs may be developed to represent different languages (eg, English and German). For example, separate graphs may be developed for English and German pronunciation. However, individual graphs may be combined together to predict mixed pronunciation of foreign languages in some embodiments. The combination graph allows the switching of the two languages as the pronunciation of the text identifier progresses, but this is the part of the text identifier that favors one language and the other of the text identifier that favors another language. This is desirable in situations where the part may be pronounced.

たとえばドイツのバンド「Kraftwerk」は、ドイツ語で(たとえば、K HH AA F T V EH R K)発音されてもよい。しかし一部のユーザはドイツ語の発音に不慣れである可能性があり、バンド名「Kraftwerk」を英語として(たとえば、K R AE F T W UR K)発音してもよい。さらに一部のユーザについては、バンド名の発音の選択に一貫性がない可能性がある。結果としてテキスト識別子(バンド名「Kraftwerk」など)が、各予想発音それ自体がテキスト識別子の(1つまたは複数の)元言語を含む複数の異なる言語に基づいてもよい複数の予想発音と照合されてもよい。   For example, the German band “Kraftwerk” may be pronounced in German (eg, K HH AA F T V EH R K). However, some users may be unfamiliar with German pronunciation and may pronounce the band name “Kraftwerk” in English (eg, KRAEFTWURK). In addition, for some users, the selection of band name pronunciation may not be consistent. As a result, the text identifier (such as the band name “Kraftwerk”) is matched against multiple expected pronunciations, each predicted pronunciation itself may be based on a plurality of different languages including the original language (s) of the text identifier. May be.

一部のユーザは第1の元言語を有しながら、ユーザが異なる言語で意思を疎通する(またはASR装置を操作する)国に居住してもよい。これらのユーザは、ユーザの元言語を含む複数の言語からの発音の組み合わせを利用して外国語を発音してもよい。ユーザは外国語の一部を第1の言語で、他の部分を1つまたは複数の異なる言語で発音してもよい。たとえばユーザは、バンド名、Kraftwerkの第1の部分を英語で(たとえば、K R AE F T)、第2の部分をドイツ語で(たとえば、V EH R K)発音してもよい。   Some users may have a first original language but reside in a country where the users communicate in different languages (or operate the ASR device). These users may pronounce a foreign language using a combination of pronunciations from a plurality of languages including the user's original language. The user may pronounce part of the foreign language in the first language and the other part in one or more different languages. For example, the user may pronounce the first part of the band name, Kraftwerk in English (eg, K R AE FT) and the second part in German (eg, V EHRK).

英語の発音、K R AE F T W UR K、ドイツ語の発音、K HH AA F T V EH R Kのそれぞれ及び組み合わせの発音K R AE F T V EH R Kは、レキシコンに追加される際に、バンド名と照合されてもよい。複数の予想発音及びバンド名は、ASR装置または他の場所に保存されたバンドによる曲にリンクされてもよい。   Pronunciation of English, KR AE FT W UR K, pronunciation of German, pronunciation of K HH AA FT V EH R K and combinations of K R AE F T V EH R K when added to lexicon In addition, the band name may be collated. Multiple expected pronunciations and band names may be linked to songs by bands stored on the ASR device or elsewhere.

外国語の予想発音はまた、特定のユーザの発音履歴に基づいてもよい。たとえばASRシステムは、特定のユーザの発音パターンまたは癖を認識するようにトレーニングされてもよい。語がその語の綴りに基づきフランス語に80%、かつ英語に20%の重みである場合、分類子または音声認識モデルは特定のユーザの癖に基づき、言語に割り当てられる重みを調節してもよい。発音パターンはまた、特定のユーザが好む言語のランクに基づいてもよい。たとえば言語に割り当てられる重みは、ユーザが好む(1つまたは複数の)言語に基づき調節されてもよい。たとえばLudwig van Beethovenの名は、そのドイツ語及びオランダ語の由来のために、異なるバージョンの発音を有してもよい。この場合、重みがドイツ語(たとえば、60%)及びオランダ語(たとえば、40%)に割り当てられてもよい。Ludwig van Beethovenの名などの外来語を発音する際、特定のユーザが英語、ドイツ語またはオランダ語のどれを好むかに基づき、割り当てられた重みが調節されてもよい。結果としての発音は、ドイツ語、オランダ語及び英語の混合または組み合わせであってもよい。   The predicted pronunciation of the foreign language may also be based on a specific user's pronunciation history. For example, the ASR system may be trained to recognize a particular user's pronunciation pattern or habit. If a word has a weight of 80% for French and 20% for English based on the spelling of the word, the classifier or speech recognition model may adjust the weight assigned to the language based on the particular user's habit. . Pronunciation patterns may also be based on the language rank preferred by a particular user. For example, the weight assigned to a language may be adjusted based on the language (s) preferred by the user. For example, the name Ludwig van Beethoven may have different versions of pronunciation due to its German and Dutch origin. In this case, weights may be assigned to German (eg 60%) and Dutch (eg 40%). In pronouncing foreign words such as Ludwig van Beethoven's name, the assigned weights may be adjusted based on whether a particular user prefers English, German or Dutch. The resulting pronunciation may be a mixture or combination of German, Dutch and English.

ユーザの発音パターンは、ユーザによる同一のまたは異なる語の発音の履歴に基づき判断されてもよい。ASR装置は発音パターンまたは履歴に基づき、ユーザによる同一のまたは異なる語の今後の発音を予期してもよい。ASR装置はまた、ユーザが1つまたは複数の言語の発音に慣れているか否かを、ユーザの発音パターンに基づき学習してもよい。たとえばバンド名、Kraftwerkの発音のユーザの履歴に基づいて、

または「Gustav Mahler」などの他のドイツ語のユーザの発音をASR装置が予期してもよい。ASR装置はまたユーザの発音パターンに基づき、重みを特定のユーザのために、様々な言語に割り当ててもよい。たとえばASR装置は、外来語の発音の際にユーザが好む発音(たとえば、1つの言語または言語の組み合わせ)により大きな重みを割り当ててもよい。同様に特定のユーザが好む言語または好む経路のグラフ上の表現が、より高いスコアまたは重みを割り当てられてもよい。より高いスコアの割り当てにより、グラフのこれらの経路はユーザによる外国語の予想発音を表しやすくなる。したがって予想発音は、予想発音のグラフ、予想発音のN−bestリスト、または予想発音の他のいくつかの構成に関連してもよい。
The user's pronunciation pattern may be determined based on the pronunciation history of the same or different words by the user. The ASR device may anticipate future pronunciation of the same or different words by the user based on the pronunciation pattern or history. The ASR device may also learn whether the user is familiar with pronunciation in one or more languages based on the user's pronunciation pattern. For example, based on the user's history of band name and Kraftwerk pronunciation,

Alternatively, the ASR device may expect the pronunciation of other German users, such as “Gustav Mahler”. The ASR device may also assign weights to different languages for a particular user based on the user's pronunciation pattern. For example, the ASR device may assign a greater weight to the pronunciation (for example, one language or a combination of languages) preferred by the user when a foreign word is pronounced. Similarly, a graphical representation of a preferred language or preferred route for a particular user may be assigned a higher score or weight. By assigning higher scores, these paths in the graph are more likely to represent the predicted pronunciation of the foreign language by the user. Thus, the expected pronunciation may be related to the expected pronunciation graph, the N-best list of expected pronunciations, or some other configuration of the expected pronunciation.

さらに類似の行動を有する複数のユーザは、予想発音の重み付けまたは判断の目的のために一緒にクラスタ化されてもよい。クラスタ化されたユーザのための自動音声認識技術の素性が、クラスタ化されたユーザの行動に基づいて選択される。たとえばユーザのクラスタは、類似の音楽的嗜好(たとえば、インド由来の音楽)を有してもよく、そのためにインド音楽が大半を占める音楽カタログを有してもよい。結果として、クラスタに含まれる新しいユーザからの発音はクラスタ内の他のユーザと同様に処理されてもよく、または(外国語の可能性のある発音を表す)グラフに沿った類似の経路をたどってもよい。ユーザのクラスタに関連する音声認識技術の対応する素性(たとえば、発音、好ましい言語など)に、重みが割り当てられてもよい。したがって(外国語の可能性のある発音を表す)グラフは類似の行動パターンを有するユーザの行動パターンまたはユーザのクラスタに基づいて、トリミングされてもよい。   In addition, multiple users with similar behavior may be clustered together for purposes of predictive pronunciation weighting or judgment. Features of automatic speech recognition techniques for clustered users are selected based on the behavior of the clustered users. For example, a user's cluster may have similar musical preferences (eg, music from India) and thus may have a music catalog that is dominated by Indian music. As a result, pronunciations from new users in the cluster may be treated the same as other users in the cluster, or follow a similar path along the graph (representing a possible pronunciation of a foreign language). May be. Weights may be assigned to corresponding features (eg, pronunciation, preferred language, etc.) of speech recognition technology associated with the user's cluster. Thus, the graph (representing a possible pronunciation of a foreign language) may be trimmed based on user behavior patterns or user clusters with similar behavior patterns.

図6は本開示の一態様による、音声認識における元言語に基づく、外国語のテキスト予想発音の予測のための方法のフロー図を示す。予想発音予測モジュール128、ASR装置100及び/またはリモート音声処理装置(たとえば、ASR装置302)において、方法が実装されてもよい。ブロック602において、ユーザが利用できるようになるコンテンツが、ASR装置100が利用できるカタログに組み込まれてもよい。ブロック604において、1つまたは複数のテキスト識別子がブロック604に示すようにコンテンツアイテムにリンクされてもよい。ブロック606において、ASRシステムが(1つまたは複数の)テキスト識別子に基づいて、1つまたは複数の元言語を判断してもよい。(1つまたは複数の)元言語はそれぞれ、(1つまたは複数の)テキスト識別子のスコア及び/または特定の部分に関連してもよい。ブロック608においては、ASRシステムが判断された(1つまたは複数の)元言語に少なくとも部分的に基づき、テキスト識別子の1つまたは複数の予想発音を判断してもよい。(1つまたは複数の)元言語に基づく(1つまたは複数の)予想発音はそれぞれ、(1つまたは複数の)テキスト識別子のスコア及び/または特定の部分に関連してもよい。ブロック610において、ASRシステムはユーザ情報及び/またはユーザ履歴に少なくとも部分的に基づき、テキスト識別子の(1つまたは複数の)予想発音を判断してもよい。ユーザ履歴は母国語またはユーザが頻繁に利用する言語を含んでもよい。ユーザ履歴はまた、ユーザが類似の語を以前発音した方法を含んでもよい。ユーザ情報はまた、装置またはユーザの環境の判断された(1つまたは複数の)言語を含んでもよい。装置によって検知された他の音声において識別された(1つまたは複数の)言語を判断することによってまたは他の手段を通じて地理的領域の既知の(1つまたは複数の)言語を有する相関する位置データによって判断されてもよい、装置の位置において利用される言語を、環境の言語が含んでもよい。環境の言語はまた、ASRシステムのデフォルト言語を含んでもよい。ユーザの(1つまたは複数の)言語に基づく(1つまたは複数の)予想発音はそれぞれ、(1つまたは複数の)テキスト識別子のスコア及び/または特定の部分に関連してもよい。   FIG. 6 shows a flow diagram of a method for predicting predicted text pronunciation of a foreign language based on the original language in speech recognition, according to one aspect of the present disclosure. The method may be implemented in the predicted pronunciation prediction module 128, the ASR device 100, and / or a remote speech processing device (eg, the ASR device 302). At block 602, content that is made available to the user may be incorporated into a catalog that is available to the ASR device 100. In block 604, one or more text identifiers may be linked to the content item as shown in block 604. At block 606, the ASR system may determine one or more source languages based on the text identifier (s). Each of the source language (s) may be associated with a score and / or specific portion of the text identifier (s). At block 608, the ASR system may determine one or more expected pronunciations of the text identifier based at least in part on the determined source language (s). Each of the expected pronunciation (s) based on the original language (s) may be associated with a score and / or a particular portion of the text identifier (s). At block 610, the ASR system may determine the expected pronunciation (s) of the text identifier based at least in part on the user information and / or user history. The user history may include a native language or a language frequently used by the user. The user history may also include how the user has previously pronounced similar words. User information may also include the determined language (s) of the device or the user's environment. Correlated location data having the known language (s) of the geographic region by determining the identified language (s) in other speech sensed by the device or through other means The language used at the location of the device that may be determined by the environment language may include the language of the environment. The language of the environment may also include the default language of the ASR system. Each of the predicted pronunciation (s) based on the user's language (s) may be associated with a score and / or a particular portion of the text identifier (s).

ブロック612において、ASRシステムは予想発音を組み合わせ、テキスト識別子の(1つまたは複数の)元言語及び判断されたユーザの(1つまたは複数の)言語の組み合わせに少なくとも部分的に基づき、テキスト識別子の1つまたは複数の予想発音を判断してもよい。ユーザの(1つまたは複数の)言語の組み合わせに基づく(1つまたは複数の)予想発音はそれぞれ、(1つまたは複数の)テキスト識別子のスコア及び/または特定の部分に関連してもよい。ブロック614においては、ユーザの典型的な発音またはユーザのカテゴリなどのユーザ履歴に基づき、(1つまたは複数の)予想発音及び/若しくは重みのそれぞれまたはそれらの優先度が調節されてもよい。ブロック616において、(1つまたは複数の)予想発音は、レキシコン上の(1つまたは複数の)テキスト識別子及び/またはコンテンツアイテムに関連してもよい。   At block 612, the ASR system combines the predicted pronunciation and based on the combination of the text identifier's original language (s) and the determined user's language (s) based on the text identifiers. One or more expected pronunciations may be determined. Each of the expected pronunciation (s) based on a combination of the user's language (s) may be associated with a score and / or a particular portion of the text identifier (s). In block 614, each or their priority of the expected pronunciation (s) and / or weights may be adjusted based on the user's history, such as the user's typical pronunciation or user category. At block 616, the predicted pronunciation (s) may be associated with the text identifier (s) and / or content item on the lexicon.

予想発音の上述の判断は、トレーニングまたはASRシステムの構成中に行われてもよく、またはASR装置が新しいコンテンツを利用することができるようになった際に、ローカルストレージへの追加を通じて、若しくはASR装置にアクセス可能になるがリモートに保存されることによって、実行されてもよい。予想発音の判断は、ローカルASR装置、リモートASR装置、またはその組み合わせによって実行されてもよい。   The above-described determination of expected pronunciation may be made during training or configuration of the ASR system, or through addition to local storage when the ASR device becomes available for new content, or ASR It may be performed by making the device accessible but stored remotely. The determination of the predicted pronunciation may be performed by a local ASR device, a remote ASR device, or a combination thereof.

図7に示すように、ASRシステムは口頭での発話の受信時に発話を処理してもよい。ブロック702において、口頭でのテキスト識別子を含む発話が受信される。ブロック704においてASRシステムは、口頭でのテキスト識別子をテキスト識別子のための(1つまたは複数の)予想発音と照合してもよい。照合には、潜在的な一致のN−bestリストを返すこと、または単に最高のスコア照合を返すことが含まれてもよい。ブロック706において、最高のスコア照合テキスト識別子に関連するコンテンツアイテムが判断される。ブロック708において、コンテンツアイテムがアクセスされ、発話に関連する任意の命令(音楽の再生など)がASRシステムによって、または別の装置によって実行されてもよい。   As shown in FIG. 7, the ASR system may process utterances upon receipt of verbal utterances. At block 702, an utterance including a verbal text identifier is received. At block 704, the ASR system may match the verbal text identifier with the expected pronunciation (s) for the text identifier. Matching may include returning an N-best list of potential matches, or simply returning the highest score match. At block 706, the content item associated with the highest score match text identifier is determined. At block 708, the content item is accessed and any instructions related to speech (such as playing music) may be executed by the ASR system or by another device.

本開示の上述の態様は、例示を意図したものである。それらは本開示の原理及び応用を説明するために選択され、すべてを網羅することや本開示を限定することを意図していない。開示された態様の多くの修正や変形が当業者には明らかである。たとえば音声ストレージ内に保存された言語情報に基づく、本明細書に記載のASR技術が多くの異なる言語に応用されてもよい。   The above-described aspects of the present disclosure are intended to be exemplary. They are selected to illustrate the principles and applications of the present disclosure and are not intended to be exhaustive or to limit the present disclosure. Many modifications and variations of the disclosed aspects will be apparent to those skilled in the art. For example, the ASR technique described herein based on linguistic information stored in voice storage may be applied to many different languages.

本開示の態様は、コンピュータ実装方法、システムとして、またはメモリ装置若しくは非一時的コンピュータ読み取り可能記憶媒体などの製品として実装されてもよい。コンピュータ読み取り可能記憶媒体はコンピュータによって読み取り可能であってもよく、コンピュータまたは他の装置に本開示に記載の処理を実行させるための命令を含んでもよい。コンピュータ読み取り可能記憶媒体は、揮発性コンピュータメモリ、不揮発性コンピュータメモリ、ハードドライブ、固体メモリ、フラッシュドライブ、リムーバブルディスク、及び/または他の媒体によって実装されてもよい。   Aspects of the present disclosure may be implemented as a computer-implemented method, system, or product such as a memory device or non-transitory computer-readable storage medium. The computer readable storage medium may be readable by a computer and may include instructions that cause a computer or other device to perform the processes described in this disclosure. The computer readable storage medium may be implemented by volatile computer memory, non-volatile computer memory, hard drives, solid state memory, flash drives, removable disks, and / or other media.

本開示の態様は、異なる形式のソフトウェア、ファームウェア、及び/またはハードウェアにおいて実行されてもよい。さらに本開示の教示は、たとえば特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他の構成要素によって実行されてもよい。   Aspects of the present disclosure may be implemented in different types of software, firmware, and / or hardware. Further, the teachings of the present disclosure may be performed by, for example, an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or other components.

本開示の態様は単一の装置上で実行されてもよく、または複数の装置上で実行されてもよい。たとえば本明細書に記載の1つまたは複数の構成要素を含むプログラムモジュールは異なる装置内に位置してもよく、それぞれが本開示の1つまたは複数の態様を実行してもよい。本開示において使用されるとき、「a」または「one」の用語は特段の記述がない限り、1つまたは複数のアイテムを含んでもよい。さらに、「based on」の語句は特段の記述がない限り、「based at least in part on」を意味することを意図している。   Aspects of the present disclosure may be performed on a single device or may be performed on multiple devices. For example, program modules that include one or more components described herein may be located in different devices, each performing one or more aspects of the disclosure. As used in this disclosure, the term “a” or “one” may include one or more items, unless stated otherwise. Further, the phrase “based on” is intended to mean “based at least in part on” unless stated otherwise.

条項   Clause

条項1
口頭での発話を処理するためのコンピュータ実装された方法であって、
曲名の綴りに少なくとも部分的に基づいて、前記曲名の少なくとも1つの元言語を判断するステップと、
前記少なくとも1つの元言語及びユーザが発話した言語に少なくとも部分的に基づいて前記曲名の複数の潜在的な発音を判断するステップであって、前記複数の潜在的な発音のそれぞれがスコアに関連する、前記判断するステップと、
前記複数の潜在的な発音のそれぞれと前記曲名との間の関連を保存するステップと、
曲の再生の要求を含む口頭での発話を受信するステップと、
前記複数の潜在的な発音の1つのスコアに少なくとも部分的に基づく、前記口頭での発話の部分を前記複数の潜在的な発音の1つと照合するステップと、
前記複数の潜在的な発音の1つに少なくとも部分的に基づく前記曲を識別するステップと、
計算装置上で前記曲を再生をさせるステップと、
を含む、前記方法。
Article 1
A computer-implemented method for processing verbal speech,
Determining at least one source language of the song title based at least in part on the spelling of the song title;
Determining a plurality of potential pronunciations of the song title based at least in part on the at least one source language and the language spoken by the user, each of the plurality of potential pronunciations being associated with a score. The step of determining;
Storing an association between each of the plurality of potential pronunciations and the song name;
Receiving an oral utterance including a request to play a song;
Matching a portion of the verbal utterance with one of the plurality of potential pronunciations based at least in part on a score of the plurality of potential pronunciations;
Identifying the song based at least in part on one of the plurality of potential pronunciations;
Playing the song on a computing device;
Said method.

条項2
前記複数の潜在的な発音を判断するステップがさらに、少なくとも1つの元言語が前記曲名と共通である語のユーザの発音履歴に少なくとも部分的に基づく、請求項1に記載の方法。
Article 2
The method of claim 1, wherein determining the plurality of potential pronunciations is further based at least in part on a user's pronunciation history of words for which at least one source language is common to the song title.

条項3
第1の元言語の前記曲名の1つの部分及び第2の元言語の前記曲名の第2の部分との関連付けにより、少なくとも1つの潜在的な発音を判断するステップをさらに含む、請求項1に記載の方法。
Article 3
The method of claim 1, further comprising determining at least one potential pronunciation by associating with one part of the song title in a first source language and a second part of the song title in a second source language. The method described.

条項4
前記曲名の前記少なくとも1つの元言語を判断するステップが、前記計算装置によって再生可能な他の曲の元言語に少なくとも部分的に基づく、請求項1に記載の方法。
Article 4
The method of claim 1, wherein determining the at least one source language of the song title is based at least in part on the source language of another song reproducible by the computing device.

条項5
計算システムであって、
少なくとも1つの処理装置と、
アクションの組を実行するための、前記少なくとも1つの処理装置によって実行されるよう動作可能な命令を含むメモリ装置であって、前記命令は、少なくとも1つのプロセッサが、
潜在的な元言語がテキスト識別子に少なくとも部分的に基づくような、テキスト識別子の前記潜在的な元言語を判断し、
潜在的な発音が前記潜在的な元言語及び潜在的な口頭での言語に少なくとも部分的に基づくような、前記テキスト識別子の前記潜在的な発音を判断し、
前記潜在的な発音と前記テキスト識別子との間の関連を保存するよう構成する、前記メモリ装置と、
を含む、前記計算システム。
Article 5
A computing system,
At least one processing device;
A memory device comprising instructions operable to be executed by the at least one processing unit for performing a set of actions, wherein the instructions are at least one processor,
Determining the potential source language of the text identifier such that the potential source language is based at least in part on the text identifier;
Determining the potential pronunciation of the text identifier such that the potential pronunciation is based at least in part on the potential source language and a potential verbal language;
The memory device configured to store an association between the potential pronunciation and the text identifier;
Including said computing system.

条項6
前記命令は前記少なくとも1つの処理装置が、
前記テキスト識別子のための前記第2の潜在的な元言語を判断し、前記第2の潜在的な元言語が前記テキスト識別子に少なくとも部分的に基づき、
前記テキスト識別子の第2の潜在的な発音を判断し、前記第2の潜在的な発音が前記第2の潜在的な元言語に少なくとも部分的に基づき、
前記第2の潜在的な発音との前記テキスト識別子間の関連を保存するようにさらに構成する、条項5に記載の計算システム。
Article 6
The instruction is received by the at least one processing unit,
Determining the second potential source language for the text identifier, wherein the second potential source language is based at least in part on the text identifier;
Determining a second potential pronunciation of the text identifier, wherein the second potential pronunciation is based at least in part on the second potential source language;
6. The computing system of clause 5, further configured to store an association between the text identifier with the second potential pronunciation.

条項7
前記潜在的な元言語、第2の潜在的な元言語、潜在的な発音及び第2の潜在的な発音が、それぞれのスコアにそれぞれ関連する、条項6に記載の計算システム。
Article 7
7. The computing system of clause 6, wherein the potential source language, the second potential source language, the potential pronunciation and the second potential pronunciation are each associated with a respective score.

条項8
前記少なくとも1つの処理装置が前記テキスト識別子の第2の潜在的な元言語を判断するようさらに構成され、
前記潜在的な元言語が前記テキスト識別子の第1の部分に関連し、
前記第2の潜在的な元言語が前記テキスト識別子の第2の部分に関連し、
前記潜在的な発音が前記第2の潜在的な元言語に少なくとも部分的にさらに基づく、
条項5に記載の計算システム。
Article 8
The at least one processing device is further configured to determine a second potential source language of the text identifier;
The potential source language is associated with a first portion of the text identifier;
The second potential source language is associated with a second portion of the text identifier;
The potential pronunciation is further based at least in part on the second potential source language;
The calculation system according to clause 5.

条項9
前記少なくとも1つの処理装置が、ユーザの発音履歴に少なくとも部分的にさらに基づいて前記潜在的な発音を判断するようさらに構成される、条項5に記載の計算システム。
Article 9
6. The computing system of clause 5, wherein the at least one processing device is further configured to determine the potential pronunciation based at least in part on a user's pronunciation history.

条項10
ユーザの前記発音履歴が前記ユーザが発話した言語を含む、条項9に記載の計算システム。
Article 10
The calculation system according to clause 9, wherein the pronunciation history of the user includes a language spoken by the user.

条項11
前記少なくとも1つの処理装置が、前記テキスト識別子に関連する第2のテキスト識別子の元言語に少なくとも部分的にさらに基づいて前記潜在的な元言語を判断するようさらに構成される、条項5に記載の計算システム。
Article 11
The clause 5, wherein the at least one processing device is further configured to determine the potential source language based at least in part on an original language of a second text identifier associated with the text identifier. Calculation system.

条項12
前記命令は少なくとも1つのプロセッサが、
発話を含む音声データを受信し、
前記発話における前記潜在的な発音を識別し、
前記保存された関連に基づいて前記テキスト識別子を識別し、
前記テキスト識別子に関連するコンテンツアイテムの少なくとも一部を検索するよう
さらに構成する、条項5に記載の計算システム。
Article 12
The instructions are executed by at least one processor;
Receive audio data including utterances,
Identifying the potential pronunciation in the utterance;
Identifying the text identifier based on the stored association;
6. The computing system of clause 5, further configured to retrieve at least a portion of a content item associated with the text identifier.

条項13
前記計算装置によってアクセスされるアーティスト、アルバム、バンド、映画、書籍、曲及び/または食品の名称を前記テキスト識別子が含む、条項5に記載の計算システム。
Article 13
6. The computing system of clause 5, wherein the text identifier includes an artist, album, band, movie, book, song and / or food name accessed by the computing device.

条項14
前記潜在的な口頭での言語が前記システムの装置の位置に関連する言語を含む、条項5に記載の計算システム。
Article 14
6. The computing system of clause 5, wherein the potential verbal language comprises a language associated with a position of the system device.

条項15
前記少なくとも1つの処理装置が有限状態トランスデューサ(FST)モデル、最大エントロピーモデル、文字レベル言語モデル及び/または条件付き確率場モデルの少なくとも1つを利用して、前記テキスト識別子の前記潜在的な発音を判断するようさらに構成される、条項5に記載の計算システム。
Article 15
The at least one processing unit utilizes at least one of a finite state transducer (FST) model, a maximum entropy model, a character level language model, and / or a conditional random field model to generate the potential pronunciation of the text identifier. 6. The computing system of clause 5, further configured to determine.

条項16
テキスト識別子のための潜在的な元言語を判断するためのプログラムコードであって、前記潜在的な元言語がテキスト識別子に少なくとも部分的に基づく前記プログラムコードと、
前記テキスト識別子の潜在的な発音を判断するためのプログラムコードであって、前記潜在的な発音が前記潜在的な元言語及び潜在的な口頭での言語に少なくとも部分的に基づく前記プログラムコードと、
前記潜在的な発音と前記テキスト識別子との間の関連を保存するためのプログラムコードと、
を含む、計算装置を制御するための処理装置実行可能命令を保存する非一時的コンピュータ読み取り可能記憶媒体。
Article 16
Program code for determining a potential source language for a text identifier, wherein the potential source language is based at least in part on a text identifier;
Program code for determining a potential pronunciation of the text identifier, wherein the potential pronunciation is based at least in part on the potential source language and a potential verbal language;
Program code for storing an association between the potential pronunciation and the text identifier;
A non-transitory computer readable storage medium storing processing unit executable instructions for controlling a computing device.

条項17
前記テキスト識別子のための第2の潜在的な元言語を判断するためのプログラムコードであって、前記第2の潜在的な元言語が前記テキスト識別子に少なくとも部分的に基づく前記プログラムコードと、
前記テキスト識別子の第2の潜在的な発音を判断するためのプログラムコードであって、前記第2の潜在的な発音が前記第2の潜在的な元言語に少なくとも部分的に基づく前記プログラムコードと、
前記第2の潜在的な発音と前記テキスト識別子との間の関連を保存するためのプログラムコードと、
をさらに含む、条項16に記載の非一時的コンピュータ読み取り可能記憶媒体。
Article 17
Program code for determining a second potential source language for the text identifier, wherein the program code is based at least in part on the text identifier;
Program code for determining a second potential pronunciation of the text identifier, wherein the second potential pronunciation is based at least in part on the second potential source language; ,
Program code for storing an association between the second potential pronunciation and the text identifier;
The non-transitory computer readable storage medium of clause 16, further comprising:

条項18
前記潜在的な元言語、第2の潜在的な元言語、潜在的な発音及び第2の潜在的な発音がそれぞれのスコアにそれぞれ関連する、条項17に記載の非一時的コンピュータ読み取り可能記憶媒体。
Article 18
The non-transitory computer readable storage medium of clause 17, wherein the potential source language, the second potential source language, the potential pronunciation and the second potential pronunciation are each associated with a respective score. .

条項19
前記テキスト識別子の第2の潜在的な元言語を判断するためのプログラムコードをさらに含む、非一時的コンピュータ読み取り可能記憶媒体であって、
前記潜在的な元言語が前記テキスト識別子の第1の部分に関連し、
前記第2の潜在的な元言語が前記テキスト識別子の第2の部分に関連し、
前記潜在的な発音が前記第2の潜在的な元言語に少なくとも部分的にさらに基づく、
条項16に記載の前記非一時的コンピュータ読み取り可能記憶媒体。
Article 19
A non-transitory computer readable storage medium further comprising program code for determining a second potential source language of the text identifier,
The potential source language is associated with a first portion of the text identifier;
The second potential source language is associated with a second portion of the text identifier;
The potential pronunciation is further based at least in part on the second potential source language;
The non-transitory computer readable storage medium of clause 16.

条項20
ユーザの発音履歴に少なくとも部分的にさらに基づき前記潜在的な発音を判断するためのプログラムコードをさらに含む、条項16に記載の非一時的コンピュータ読み取り可能記憶媒体。
Article 20
The non-transitory computer readable storage medium of clause 16, further comprising program code for determining the potential pronunciation based at least in part on a user's pronunciation history.

条項21
ユーザの前記発音履歴が前記ユーザが発話した言語を含む、条項20に記載の非一時的コンピュータ読み取り可能記憶媒体。
Article 21
21. A non-transitory computer readable storage medium according to clause 20, wherein the pronunciation history of a user includes a language spoken by the user.

条項22
前記テキスト識別子に関連する第2のテキスト識別子の元言語に少なくとも部分的にさらに基づき、前記潜在的な元言語を判断するためのプログラムコードをさらに含む、条項16に記載の非一時的コンピュータ読み取り可能記憶媒体。
Article 22
17. The non-transitory computer readable code of clause 16, further comprising program code for determining the potential source language based at least in part on the source language of a second text identifier associated with the text identifier. Storage medium.

条項23
発話を含む音声データを受信するためのプログラムコードと、
前記発話における前記潜在的な発音を識別するためのプログラムコードと、
前記保存された関連に基づき前記テキスト識別子を識別するためのプログラムコードと、
前記テキスト識別子に関連するコンテンツアイテムの少なくとも一部分を検索するためのプログラムコードと、
をさらに含む、条項16に記載の非一時的コンピュータ読み取り可能記憶媒体。
Article 23
Program code for receiving audio data including speech, and
Program code for identifying the potential pronunciation in the utterance;
Program code for identifying the text identifier based on the stored association;
Program code for retrieving at least a portion of a content item associated with the text identifier;
The non-transitory computer readable storage medium of clause 16, further comprising:

条項24
前記計算装置によってアクセスされる前記テキスト識別子がアーティスト、アルバム、バンド、映画、書籍、曲及び/または食品の名称を含む、条項16に記載の非一時的コンピュータ読み取り可能記憶媒体。
Article 24
The non-transitory computer readable storage medium of clause 16, wherein the text identifier accessed by the computing device comprises the name of an artist, album, band, movie, book, song and / or food.

条項25
前記潜在的な口頭での言語が前記システムの装置の位置に関連する、条項16に記載の非一時的コンピュータ読み取り可能記憶媒体。
Article 25
The non-transitory computer readable storage medium of clause 16, wherein the potential verbal language is associated with a location of a device of the system.

条項26
前記テキスト識別子の前記潜在的な発音を判断するための前記プログラムコードが、有限状態トランスデューサ(FST)モデル、最大エントロピーモデル、文字レベル言語モデル及び/または条件付き確率場モデルに少なくとも部分的に基づく、条項16に記載の非一時的コンピュータ読み取り可能記憶媒体。
Article 26
The program code for determining the potential pronunciation of the text identifier is based at least in part on a finite state transducer (FST) model, a maximum entropy model, a character level language model, and / or a conditional random field model; 21. A non-transitory computer readable storage medium according to clause 16.

Claims (15)

口頭での発話を処理するためのコンピュータ実装された方法であって、
曲名の綴りに少なくとも部分的に基づいて、前記曲名の少なくとも1つの元言語を判断するステップと、
前記少なくとも1つの元言語及びユーザが発話した言語に少なくとも部分的に基づいて前記曲名の複数の潜在的な発音を判断するステップであって、前記複数の潜在的な発音のそれぞれがスコアに関連する、前記判断するステップと、
前記複数の潜在的な発音のそれぞれと前記曲名との間の関連を保存するステップと、
曲の再生の要求を含む口頭での発話を受信するステップと、
前記複数の潜在的な発音の1つのスコアに少なくとも部分的に基づく、前記口頭での発話の部分を前記複数の潜在的な発音の1つと照合するステップと、
前記複数の潜在的な発音の1つに少なくとも部分的に基づく前記曲を識別するステップと、
計算装置上で前記曲を再生をさせるステップと、
を含む、前記方法。
A computer-implemented method for processing verbal speech,
Determining at least one source language of the song title based at least in part on the spelling of the song title;
Determining a plurality of potential pronunciations of the song title based at least in part on the at least one source language and the language spoken by the user, each of the plurality of potential pronunciations being associated with a score. The step of determining;
Storing an association between each of the plurality of potential pronunciations and the song name;
Receiving an oral utterance including a request to play a song;
Matching a portion of the verbal utterance with one of the plurality of potential pronunciations based at least in part on a score of the plurality of potential pronunciations;
Identifying the song based at least in part on one of the plurality of potential pronunciations;
Playing the song on a computing device;
Said method.
前記複数の潜在的な発音を判断するステップがさらに、少なくとも1つの元言語が前記曲名と共通である語のユーザの発音履歴に少なくとも部分的に基づく、請求項1に記載の方法。   The method of claim 1, wherein determining the plurality of potential pronunciations is further based at least in part on a user's pronunciation history of words for which at least one source language is common to the song title. 第1の元言語の前記曲名の1つの部分及び第2の元言語の前記曲名の第2の部分との関連付けにより、少なくとも1つの潜在的な発音を判断するステップをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising determining at least one potential pronunciation by associating with one part of the song title in a first source language and a second part of the song title in a second source language. The method described. 前記曲名の前記少なくとも1つの元言語を判断するステップが、前記計算装置によって再生可能な他の曲の元言語に少なくとも部分的に基づく、請求項1に記載の方法。   The method of claim 1, wherein determining the at least one source language of the song title is based at least in part on the source language of another song reproducible by the computing device. 計算システムであって、
少なくとも1つの処理装置と、
アクションの組を実行するための、前記少なくとも1つの処理装置によって実行されるよう動作可能な命令を含むメモリ装置であって、前記命令は、少なくとも1つのプロセッサが、
潜在的な元言語がテキスト識別子に少なくとも部分的に基づくような、テキスト識別子の前記潜在的な元言語を判断し、
潜在的な発音が前記潜在的な元言語及び潜在的な口頭での言語に少なくとも部分的に基づくような、前記テキスト識別子の前記潜在的な発音を判断し、
前記潜在的な発音と前記テキスト識別子との間の関連を保存するよう構成する、前記メモリ装置と、
を含む、前記計算システム。
A computing system,
At least one processing device;
A memory device comprising instructions operable to be executed by the at least one processing unit for performing a set of actions, wherein the instructions are at least one processor,
Determining the potential source language of the text identifier such that the potential source language is based at least in part on the text identifier;
Determining the potential pronunciation of the text identifier such that the potential pronunciation is based at least in part on the potential source language and a potential verbal language;
The memory device configured to store an association between the potential pronunciation and the text identifier;
Including said computing system.
前記命令は前記少なくとも1つの処理装置が、
前記テキスト識別子のための前記第2の潜在的な元言語を判断し、前記第2の潜在的な元言語が前記テキスト識別子に少なくとも部分的に基づき、
前記テキスト識別子の第2の潜在的な発音を判断し、前記第2の潜在的な発音が前記第2の潜在的な元言語に少なくとも部分的に基づき、
前記第2の潜在的な発音との前記テキスト識別子間の関連を保存するようさらに構成する、
請求項5に記載の計算システム。
The instruction is received by the at least one processing unit,
Determining the second potential source language for the text identifier, wherein the second potential source language is based at least in part on the text identifier;
Determining a second potential pronunciation of the text identifier, wherein the second potential pronunciation is based at least in part on the second potential source language;
Further configured to store an association between the text identifier with the second potential pronunciation;
The calculation system according to claim 5.
前記潜在的な元言語、第2の潜在的な元言語、潜在的な発音及び第2の潜在的な発音が、それぞれのスコアに関連する、請求項6に記載の計算システム。   The computing system of claim 6, wherein the potential source language, the second potential source language, a potential pronunciation and a second potential pronunciation are associated with respective scores. 前記少なくとも1つの処理装置が前記テキスト識別子の第2の潜在的な元言語を判断するようさらに構成され、
前記潜在的な元言語が前記テキスト識別子の第1の部分に関連し、
前記第2の潜在的な元言語が前記テキスト識別子の第2の部分に関連し、
前記潜在的な発音が前記第2の潜在的な元言語に少なくとも部分的にさらに基づく、
請求項5に記載の計算システム。
The at least one processing device is further configured to determine a second potential source language of the text identifier;
The potential source language is associated with a first portion of the text identifier;
The second potential source language is associated with a second portion of the text identifier;
The potential pronunciation is further based at least in part on the second potential source language;
The calculation system according to claim 5.
前記少なくとも1つの処理装置が、ユーザの発音履歴に少なくとも部分的にさらに基づいて前記潜在的な発音を判断するようさらに構成される、請求項5の計算システム。   The computing system of claim 5, wherein the at least one processing device is further configured to determine the potential pronunciation based at least in part on a user's pronunciation history. ユーザの前記発音履歴が前記ユーザが発話した言語を含む、請求項9に記載の計算システム。   The calculation system according to claim 9, wherein the pronunciation history of the user includes a language spoken by the user. 前記少なくとも1つの処理装置が前記テキスト識別子に関連する第2のテキスト識別子の元言語に少なくとも部分的にさらに基づいて前記潜在的な元言語を判断するようさらに構成される、請求項5に記載の計算システム。   6. The at least one processing device is further configured to determine the potential source language based at least in part on an original language of a second text identifier associated with the text identifier. Calculation system. 前記命令は少なくとも1つのプロセッサが、
発話を含む音声データを受信し、
前記発話における前記潜在的な発音を識別し、
前記保存された関連に基づいて前記テキスト識別子を識別し、
前記テキスト識別子に関連するコンテンツアイテムの少なくとも一部を検索するよう、
さらに構成する、請求項5に記載の計算システム。
The instructions are executed by at least one processor;
Receive audio data including utterances,
Identifying the potential pronunciation in the utterance;
Identifying the text identifier based on the stored association;
To search for at least some of the content items associated with the text identifier;
6. The computing system according to claim 5, further configured.
前記計算装置によってアクセスされるアーティスト、アルバム、バンド、映画、書籍、曲及び/または食品の名称を前記テキスト識別子が含む、請求項5の計算システム。   6. The computing system of claim 5, wherein the text identifier includes an artist, album, band, movie, book, song, and / or food name accessed by the computing device. 前記潜在的な口頭での言語が前記システムの装置の位置に関連する言語を含む、請求項5に記載の計算システム。   The computing system of claim 5, wherein the potential verbal language comprises a language associated with a position of a device of the system. 前記少なくとも1つの処理装置が有限状態トランスデューサ(FST)モデル、最大エントロピーモデル、文字レベル言語モデル及び/または条件付き確率場モデルの少なくとも1つを利用して、前記テキスト識別子の前記潜在的な発音を判断するようさらに構成される、請求項5に記載の計算システム。   The at least one processing unit utilizes at least one of a finite state transducer (FST) model, a maximum entropy model, a character level language model, and / or a conditional random field model to generate the potential pronunciation of the text identifier. The computing system of claim 5, further configured to determine.
JP2016555771A 2014-03-04 2015-02-27 Pronunciation prediction in speech recognition Active JP6550068B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/196,055 US10339920B2 (en) 2014-03-04 2014-03-04 Predicting pronunciation in speech recognition
US14/196,055 2014-03-04
PCT/US2015/017927 WO2015134309A1 (en) 2014-03-04 2015-02-27 Predicting pronunciation in speech recognition

Publications (2)

Publication Number Publication Date
JP2017513047A true JP2017513047A (en) 2017-05-25
JP6550068B2 JP6550068B2 (en) 2019-07-24

Family

ID=54017968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016555771A Active JP6550068B2 (en) 2014-03-04 2015-02-27 Pronunciation prediction in speech recognition

Country Status (5)

Country Link
US (1) US10339920B2 (en)
EP (1) EP3114679B1 (en)
JP (1) JP6550068B2 (en)
CN (1) CN106463113B (en)
WO (1) WO2015134309A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017532307A (en) * 2014-09-07 2017-11-02 セレクタ バイオサイエンシーズ インコーポレーテッドSelecta Biosciences,Inc. Methods and compositions for attenuating antiviral transfer vector immune responses

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8181205B2 (en) 2002-09-24 2012-05-15 Russ Samuel H PVR channel and PVR IPG information
US9728184B2 (en) 2013-06-18 2017-08-08 Microsoft Technology Licensing, Llc Restructuring deep neural network acoustic models
US9311298B2 (en) 2013-06-21 2016-04-12 Microsoft Technology Licensing, Llc Building conversational understanding systems using a toolset
US9589565B2 (en) 2013-06-21 2017-03-07 Microsoft Technology Licensing, Llc Environmentally aware dialog policies and response generation
US9324321B2 (en) 2014-03-07 2016-04-26 Microsoft Technology Licensing, Llc Low-footprint adaptation and personalization for a deep neural network
US9529794B2 (en) 2014-03-27 2016-12-27 Microsoft Technology Licensing, Llc Flexible schema for language model customization
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
US9520127B2 (en) 2014-04-29 2016-12-13 Microsoft Technology Licensing, Llc Shared hidden layer combination for speech recognition systems
US20150325236A1 (en) * 2014-05-08 2015-11-12 Microsoft Corporation Context specific language model scale factors
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US10037202B2 (en) 2014-06-03 2018-07-31 Microsoft Technology Licensing, Llc Techniques to isolating a portion of an online computing service
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
CN105531758B (en) * 2014-07-17 2019-10-01 微软技术许可有限责任公司 Use the speech recognition of foreign words grammer
WO2016068262A1 (en) * 2014-10-29 2016-05-06 京セラ株式会社 Communication robot
US10192546B1 (en) * 2015-03-30 2019-01-29 Amazon Technologies, Inc. Pre-wakeword speech processing
US10127904B2 (en) * 2015-05-26 2018-11-13 Google Llc Learning pronunciations from acoustic sequences
US9734821B2 (en) * 2015-06-30 2017-08-15 International Business Machines Corporation Testing words in a pronunciation lexicon
US10262654B2 (en) * 2015-09-24 2019-04-16 Microsoft Technology Licensing, Llc Detecting actionable items in a conversation among participants
US20170337923A1 (en) * 2016-05-19 2017-11-23 Julia Komissarchik System and methods for creating robust voice-based user interface
US10825445B2 (en) * 2017-03-23 2020-11-03 Samsung Electronics Co., Ltd. Method and apparatus for training acoustic model
US10909978B2 (en) * 2017-06-28 2021-02-02 Amazon Technologies, Inc. Secure utterance storage
CN111226222B (en) * 2017-08-03 2023-07-07 语冠信息技术(上海)有限公司 Depth context-based grammar error correction using artificial neural networks
KR102356889B1 (en) * 2017-08-16 2022-01-28 삼성전자 주식회사 Method for performing voice recognition and electronic device using the same
US10706840B2 (en) 2017-08-18 2020-07-07 Google Llc Encoder-decoder models for sequence to sequence mapping
US10769210B2 (en) 2017-09-29 2020-09-08 Rovi Guides, Inc. Recommending results in multiple languages for search queries based on user profile
US10747817B2 (en) 2017-09-29 2020-08-18 Rovi Guides, Inc. Recommending language models for search queries based on user profile
EP3813062B1 (en) * 2017-09-29 2023-11-22 Rovi Product Corporation Recommending results in multiple languages for search queries based on user profile
CN111508489B (en) * 2017-12-19 2022-10-18 深圳市欧瑞博科技股份有限公司 Speech recognition method, speech recognition device, computer equipment and storage medium
US10943580B2 (en) * 2018-05-11 2021-03-09 International Business Machines Corporation Phonological clustering
US10860648B1 (en) * 2018-09-12 2020-12-08 Amazon Technologies, Inc. Audio locale mismatch detection
US11537821B2 (en) 2019-04-10 2022-12-27 International Business Machines Corporation Evaluating text classification anomalies predicted by a text classification model
US11068656B2 (en) * 2019-04-10 2021-07-20 International Business Machines Corporation Displaying text classification anomalies predicted by a text classification model
US11501764B2 (en) * 2019-05-10 2022-11-15 Spotify Ab Apparatus for media entity pronunciation using deep learning
CN112579734B (en) * 2019-09-30 2024-09-20 北京声智科技有限公司 Pronunciation prediction method and electronic equipment
US11341961B2 (en) * 2019-12-02 2022-05-24 National Cheng Kung University Multi-lingual speech recognition and theme-semanteme analysis method and device
TWI752437B (en) * 2020-03-13 2022-01-11 宇康生科股份有限公司 At least two phoneme-based voice input operation method and computer program product
US20220115003A1 (en) * 2020-10-13 2022-04-14 Rev.com, Inc. Systems and methods for aligning a reference sequence of symbols with hypothesis requiring reduced processing and memory
US11967319B2 (en) * 2020-12-22 2024-04-23 Direct Cursus Technology L.L.C Method and electronic device for processing a spoken utterance
US11676572B2 (en) * 2021-03-03 2023-06-13 Google Llc Instantaneous learning in text-to-speech during dialog
US11699430B2 (en) * 2021-04-30 2023-07-11 International Business Machines Corporation Using speech to text data in training text to speech models
US20240363102A1 (en) * 2023-04-27 2024-10-31 Honeywell International Inc. Apparatuses, computer program products, and computer-implemented methods for adapting speech recognition based on expected response

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002520664A (en) * 1998-07-10 2002-07-09 ルノー・アンド・オスピー・スピーチ・プロダクツ・ナームローゼ・ベンノートシャープ Language-independent speech recognition
JP2004503887A (en) * 2000-06-16 2004-02-05 ヘルセテック インコーポレイテッド Speech recognition device for portable information terminals
JP2004341520A (en) * 2003-04-29 2004-12-02 Sony Internatl Europ Gmbh Voice recognizing method
US20070198273A1 (en) * 2005-02-21 2007-08-23 Marcus Hennecke Voice-controlled data system
US7472061B1 (en) * 2008-03-31 2008-12-30 International Business Machines Corporation Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciations
JP2009175630A (en) * 2008-01-28 2009-08-06 Sharp Corp Speech recognition device, mobile terminal, speech recognition system, speech recognition device control method, mobile terminal control method, control program, and computer readable recording medium with program recorded therein
US20090326945A1 (en) * 2008-06-26 2009-12-31 Nokia Corporation Methods, apparatuses, and computer program products for providing a mixed language entry speech dictation system
JP2012518207A (en) * 2009-02-17 2012-08-09 株式会社ソニー・コンピュータエンタテインメント Multi-language speech recognition

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE203119T1 (en) * 1992-03-06 2001-07-15 Dragon Systems Inc LANGUAGE RECOGNITION SYSTEM FOR COMPOUND WORD LANGUAGES
US5867812A (en) * 1992-08-14 1999-02-02 Fujitsu Limited Registration apparatus for compound-word dictionary
US6032111A (en) 1997-06-23 2000-02-29 At&T Corp. Method and apparatus for compiling context-dependent rewrite rules and input strings
US8855998B2 (en) * 1998-03-25 2014-10-07 International Business Machines Corporation Parsing culturally diverse names
US6963871B1 (en) * 1998-03-25 2005-11-08 Language Analysis Systems, Inc. System and method for adaptive multi-cultural searching and matching of personal names
US6411932B1 (en) * 1998-06-12 2002-06-25 Texas Instruments Incorporated Rule-based learning of word pronunciations from training corpora
US7092821B2 (en) * 2000-05-01 2006-08-15 Invoke Solutions, Inc. Large group interactions via mass communication network
JP2002108858A (en) * 2000-09-20 2002-04-12 Internatl Business Mach Corp <Ibm> Machine translation method, machine translation system and recording medium
US7149688B2 (en) * 2002-11-04 2006-12-12 Speechworks International, Inc. Multi-lingual speech recognition with cross-language context modeling
WO2004047077A1 (en) * 2002-11-15 2004-06-03 Voice Signal Technologies, Inc. Multilingual speech recognition
US8285537B2 (en) * 2003-01-31 2012-10-09 Comverse, Inc. Recognition of proper nouns using native-language pronunciation
US7502731B2 (en) * 2003-08-11 2009-03-10 Sony Corporation System and method for performing speech recognition by utilizing a multi-language dictionary
DE602005004503T2 (en) * 2005-02-21 2009-01-22 Harman Becker Automotive Systems Gmbh Multilingual speech recognition
US20070245305A1 (en) * 2005-10-28 2007-10-18 Anderson Jonathan B Learning content mentoring system, electronic program, and method of use
US7840409B2 (en) 2007-02-27 2010-11-23 Nuance Communications, Inc. Ordering recognition results produced by an automatic speech recognition engine for a multimodal application
US8949130B2 (en) * 2007-03-07 2015-02-03 Vlingo Corporation Internal and external speech recognition use with a mobile communication facility
US8996994B2 (en) * 2008-01-16 2015-03-31 Microsoft Technology Licensing, Llc Multi-lingual word hyphenation using inductive machine learning on training data
US8712776B2 (en) * 2008-09-29 2014-04-29 Apple Inc. Systems and methods for selective text to speech synthesis
US20100082328A1 (en) 2008-09-29 2010-04-01 Apple Inc. Systems and methods for speech preprocessing in text to speech synthesis
TWI420433B (en) * 2009-02-27 2013-12-21 Ind Tech Res Inst Speech interactive system and method
US8190420B2 (en) * 2009-08-04 2012-05-29 Autonomy Corporation Ltd. Automatic spoken language identification based on phoneme sequence patterns
US8688435B2 (en) * 2010-09-22 2014-04-01 Voice On The Go Inc. Systems and methods for normalizing input media
KR101231438B1 (en) * 2011-05-25 2013-02-07 엔에이치엔(주) Search reasult providing system and method for providing loan word pronunciation search service
CN103703461A (en) * 2011-06-24 2014-04-02 谷歌公司 Detecting source languages of search queries
US9275633B2 (en) 2012-01-09 2016-03-01 Microsoft Technology Licensing, Llc Crowd-sourcing pronunciation corrections in text-to-speech engines
US9129591B2 (en) 2012-03-08 2015-09-08 Google Inc. Recognizing speech in multiple languages
US9449305B2 (en) * 2012-03-12 2016-09-20 Unisys Corporation Method of organizing a database according to an event for a web-based conference collaboration tool with dynamic content and roles
US9076347B2 (en) * 2013-03-14 2015-07-07 Better Accent, LLC System and methods for improving language pronunciation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002520664A (en) * 1998-07-10 2002-07-09 ルノー・アンド・オスピー・スピーチ・プロダクツ・ナームローゼ・ベンノートシャープ Language-independent speech recognition
JP2004503887A (en) * 2000-06-16 2004-02-05 ヘルセテック インコーポレイテッド Speech recognition device for portable information terminals
JP2004341520A (en) * 2003-04-29 2004-12-02 Sony Internatl Europ Gmbh Voice recognizing method
US20070198273A1 (en) * 2005-02-21 2007-08-23 Marcus Hennecke Voice-controlled data system
JP2009175630A (en) * 2008-01-28 2009-08-06 Sharp Corp Speech recognition device, mobile terminal, speech recognition system, speech recognition device control method, mobile terminal control method, control program, and computer readable recording medium with program recorded therein
US7472061B1 (en) * 2008-03-31 2008-12-30 International Business Machines Corporation Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciations
US20090326945A1 (en) * 2008-06-26 2009-12-31 Nokia Corporation Methods, apparatuses, and computer program products for providing a mixed language entry speech dictation system
JP2012518207A (en) * 2009-02-17 2012-08-09 株式会社ソニー・コンピュータエンタテインメント Multi-language speech recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017532307A (en) * 2014-09-07 2017-11-02 セレクタ バイオサイエンシーズ インコーポレーテッドSelecta Biosciences,Inc. Methods and compositions for attenuating antiviral transfer vector immune responses

Also Published As

Publication number Publication date
US10339920B2 (en) 2019-07-02
EP3114679A4 (en) 2017-10-25
CN106463113B (en) 2020-01-07
CN106463113A (en) 2017-02-22
EP3114679B1 (en) 2021-12-29
WO2015134309A1 (en) 2015-09-11
JP6550068B2 (en) 2019-07-24
US20150255069A1 (en) 2015-09-10
EP3114679A1 (en) 2017-01-11

Similar Documents

Publication Publication Date Title
JP6550068B2 (en) Pronunciation prediction in speech recognition
US11380330B2 (en) Conversational recovery for voice user interface
US20230012984A1 (en) Generation of automated message responses
US20220189458A1 (en) Speech based user recognition
US20230317074A1 (en) Contextual voice user interface
US10210862B1 (en) Lattice decoding and result confirmation using recurrent neural networks
US9934777B1 (en) Customized speech processing language models
US9640175B2 (en) Pronunciation learning from user correction
US9153231B1 (en) Adaptive neural network speech recognition models
JP5172021B2 (en) Fit automatic speech recognition acoustic model
CN114097026A (en) Context biasing for speech recognition
US9224387B1 (en) Targeted detection of regions in speech processing data streams
US20200184967A1 (en) Speech processing system
EP1557822A1 (en) Automatic speech recognition adaptation using user corrections
US11837225B1 (en) Multi-portion spoken command framework
US11676572B2 (en) Instantaneous learning in text-to-speech during dialog
KR101153078B1 (en) Hidden conditional random field models for phonetic classification and speech recognition
US11715472B2 (en) Speech-processing system
Ons et al. Fast vocabulary acquisition in an NMF-based self-learning vocal user interface
JP7098587B2 (en) Information processing device, keyword detection device, information processing method and program
Banumathi et al. An overview of speech recognition and its challenges

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180830

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190628

R150 Certificate of patent or registration of utility model

Ref document number: 6550068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250