JP6781961B2 - Transmission device, transmission method and transmission program - Google Patents
Transmission device, transmission method and transmission program Download PDFInfo
- Publication number
- JP6781961B2 JP6781961B2 JP2018542405A JP2018542405A JP6781961B2 JP 6781961 B2 JP6781961 B2 JP 6781961B2 JP 2018542405 A JP2018542405 A JP 2018542405A JP 2018542405 A JP2018542405 A JP 2018542405A JP 6781961 B2 JP6781961 B2 JP 6781961B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- keyword
- search
- unit
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005540 biological transmission Effects 0.000 title claims description 57
- 238000000034 method Methods 0.000 title claims description 22
- 230000008451 emotion Effects 0.000 claims description 79
- 238000000605 extraction Methods 0.000 claims description 53
- 239000000284 extract Substances 0.000 claims description 28
- 230000004044 response Effects 0.000 claims description 12
- 230000002996 emotional effect Effects 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000036651 mood Effects 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 235000020965 cold beverage Nutrition 0.000 description 3
- 206010022998 Irritability Diseases 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Child & Adolescent Psychology (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、送信装置、送信方法及び送信プログラムに関する。 The present invention relates to a transmitting device, a transmitting method and a transmitting program.
従来の情報提示装置として、特開2012−256183号公報(特許文献1)に記載されたものがある。上記従来の情報提示装置は、ユーザが現在有している欲求の強さと、ユーザが現在置かれている状況とを推定し、これらの組み合わせを記述したデータベースを照会することにより、ユーザが有している欲求とユーザが置かれている状況の双方を満たすことのできるアイテムを提示する。 As a conventional information presenting device, there is one described in Japanese Patent Application Laid-Open No. 2012-256183 (Patent Document 1). The conventional information presenting device estimates the strength of the desire that the user currently has and the situation that the user is currently in, and queries the database that describes the combination of these, so that the user has the information. Present items that can satisfy both the desires of the user and the situation in which the user is placed.
しかしながら、上記従来の情報提示装置では、ユーザの欲求の強さとユーザが置かれている状況を推定しているに止まるため、必ずしもユーザのニーズに応じた情報を提示することができなかった。 However, since the conventional information presenting device only estimates the strength of the user's desire and the situation in which the user is placed, it is not always possible to present information according to the user's needs.
本発明はこのような事情に鑑みてなされたものであり、ユーザのニーズにより応じた情報を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide information according to the needs of a user.
本発明の一側面に係る検索プログラムは、送信装置に接続するコンピュータを検索装置として機能させる検索プログラムであって、送信装置は、音声を収集して当該音声を示す音声データを生成する音声収集部と、前記音声データから、音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、音声データから、音声の強さ、速度及び抑揚の少なくとも一つを含む、音声の特徴を抽出する音声特徴抽出部と、音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、抽出された音声キーワード及び選択された感情キーワードをコンピュータに送信する送信部と、複数の単語が予め格納された辞書データベースと、を備え、音声キーワード抽出部は、音声に含まれる単語が辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を音声キーワードとして抽出し、コンピュータは、音声キーワード及び感情キーワードに基づく検索処理を実行し、検索プログラムは、コンピュータに、音声キーワードを格納するキーワードデータベースと、辞書データベースの更新指示を送信装置から受信する受信部と、受信部を通じて受信された更新指示に応答して、キーワードデータベースに格納されている音声キーワードの関連語を推測する推測部と、前記キーワードデータベースに格納されている音声キーワードと、推測された関連語とに基づいて、更新後の辞書データベースを作成する辞書データベース作成部と、更新後の辞書データベースを送信装置に送信する送信部と、を実現させる。 The search program according to one aspect of the present invention is a search program that causes a computer connected to a transmission device to function as a search device, and the transmission device is a voice collection unit that collects voice and generates voice data indicating the voice. And, from the voice data, a voice keyword extraction unit that extracts a voice keyword that is a keyword included in the voice, and from the voice data, extracts a voice feature including at least one of voice strength, speed, and intonation. A voice feature extraction unit, an emotion keyword selection unit that selects an emotion keyword corresponding to the extracted voice characteristics from a group of emotion keywords stored in advance based on the voice characteristics, and an extracted voice keyword and selected It includes a transmitter that sends emotional keywords to a computer and a dictionary database in which a plurality of words are stored in advance. The voice keyword extraction unit matches any of the words contained in the voice with any of the words stored in the dictionary database. In that case, the word is extracted as a voice keyword, the computer executes a search process based on the voice keyword and the emotion keyword, and the search program gives the computer an instruction to update the keyword database for storing the voice keyword and the dictionary database. Is stored in the keyword database, a receiving unit that receives the data from the transmitting device, a guessing unit that infers the related words of the voice keywords stored in the keyword database in response to the update instruction received through the receiving unit, and the keyword database. A dictionary database creation unit that creates an updated dictionary database based on voice keywords and inferred related words, and a transmission unit that transmits the updated dictionary database to a transmission device are realized.
本発明によれば、ユーザのニーズにより応じた情報を提供することが可能となる。 According to the present invention, it is possible to provide information according to the needs of the user.
以下、添付の図面を参照して本発明の一実施形態について説明する。図1は、本発明の一実施形態に係る送信装置110を含む検索システム100の構成を示す図である。検索システム100は、送信装置110と、検索装置120と、出力装置130とを備える。本実施形態に係る検索システム100は、送信装置110が収集した音声から抽出されたキーワードと、当該音声から抽出された感情や雰囲気に対応するキーワードに基づいて、所定の検索を行い、その検索結果を出力するシステムである。
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a diagram showing a configuration of a
送信装置110は、送信装置110が置かれている場所で収集した音声に基づいて、所定のキーワードを検索装置120に送信するコンピュータである。送信装置110は、施設や店舗に設置されたコンピュータであってもよいし、施設や店舗を訪問したユーザが所有するコンピュータ(スマートフォンやタブレット端末等)であってもよい。送信装置は、プロセッサ、メモリ及び通信インタフェースを備える。送信装置110は、例えば、携帯電話通信網やインターネットを経由して、検索装置120と通信を行うことができる。
The
検索装置120は、送信装置110から受信したキーワードに基づいて、出力装置130のユーザに対して情報提供を行うコンピュータ(サーバ)である。検索装置120は、プロセッサ、メモリ、データベース及び通信インタフェースを備える。検索装置120は、例えば、インターネットを経由して、送信装置110及び出力装置130と通信を行うことができる。
The
出力装置130は、検索装置120から提供されるデータ(表示データ)に基づいて、検索結果の出力を行うコンピュータである。出力装置130は、検索結果として、数値、文字、映像(画像)、音声等を、ディスプレイやスピーカ等に出力する。出力装置130は、例えば、スマートフォンやタブレット端末、パーソナルコンピュータ等である。出力装置130は、プロセッサ、メモリ及び通信インタフェースを備える。出力装置130は、例えば、携帯電話通信網やインターネットを経由して、検索装置120と通信を行うことができる。
The
なお、出力装置130は、検索結果に基づいて、所定の動作を出力してもよい。出力装置130は、例えば、検索結果に基づいて、所定の通信を行ったり、モータ、アクチュエータ、センサ等を制御したりしてもよい。
The
図2は、送信装置110が備える機能ブロックの一例を示す図である。送信装置110は、音声収集部200と、音声キーワード抽出部210と、辞書データベース220と、音声特徴抽出部230と、感情キーワード選択部240と、感情データベース250と、送信部260と、辞書データベース更新指示作成部270とを備える。
FIG. 2 is a diagram showing an example of a functional block included in the
送信装置110のメモリには、送信プログラムが格納されており、送信装置110のハードウェア資源と送信プログラムとの協働により、送信装置110の各機能(音声収集部200、音声キーワード抽出部210、辞書データベース220、音声特徴抽出部230、感情キーワード選択部240、感情データベース250、送信部260、及び辞書データベース更新指示作成部270)が実現される。送信プログラムは、コンピュータ読み取り可能な記録媒体から送信装置110のメモリに読み込まれて、送信装置110のプロセッサにより実行される。
A transmission program is stored in the memory of the
音声収集部200は、送信装置110の周囲で発せられた音声を収集し、当該音声を示す音声データを生成する。具体的には、音声収集部200は、マイク等によって収集した音声を電気信号に変換し、当該電気信号が示す情報をデジタルデータに変換した音声データを生成する。また、音声収集部200は、生成した音声データを一時的に記憶する記憶部を有してもよい。当該記憶部は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、又はRAM(Random Access Memory)などの磁気的、電気的又は光学的に記憶可能な既存の記憶装置又は記憶媒体である。音声収集部200は、送信装置110の内蔵マイクでもよく、或いは外付けマイク(外付け型の有線式マイク又は無線式のマイク)でもよい。例えば、外付けマイクが接続されたタブレット端末は、送信装置110として機能する。送信装置110は、複数の音声収集部200を備えてもよい。送信装置110は、複数の音声収集部200の相対位置を検出してもよい。
The
音声キーワード抽出部210は、音声収集部200が生成した音声データから、当該音声に含まれるキーワード(以下「音声キーワード」とも呼ぶ。)を抽出する。具体的には、音声キーワード抽出部210は、まず、音声データを解析して、当該音声をテキストデータに変換する。そして、音声キーワード抽出部210は、当該テキストデータに含まれる各単語を、辞書データベース220に予め格納された単語と比較する。そして、音声キーワード抽出部210は、当該テキストデータに含まれる各単語が、辞書データベース220に予め格納された単語と一致した場合に、当該単語を音声キーワードとして抽出する。
The voice
音声特徴抽出部230は、音声収集部200が生成した音声データから、当該音声の特徴を抽出する。本実施形態において、音声特徴抽出部230は、当該音声の強さ、速度及び抑揚の少なくとも一つを抽出し、そして、当該強さ、速度若しくは抑揚、又は、これらの2つ以上の組み合わせを、当該音声の特徴として抽出する。
The voice
音声特徴抽出部230は、音声データが示す音声信号の振幅の大きさに基づいて、当該音声の強さを抽出する。音声特徴抽出部230は、例えば、所定の単位期間における音声の強度の平均を、当該音声の強さとして抽出する。また、音声特徴抽出部230は、所定の文字数、単語数又は文章数を含む音声の強度の平均を、当該音声の強さとして抽出してもよい。
The voice
また、音声特徴抽出部230は、音声に含まれる言葉の音数に基づいて、当該音声の速さを抽出する。音声特徴抽出部230は、例えば、所定の単位期間の含まれる音数を、当該音声の速さとして抽出する。また、音声特徴抽出部230は、所定の単位期間における当該音声の文字数、単語数又は文章数を、当該音声の速さとして抽出してもよい。
Further, the voice
また、音声特徴抽出部230は、音声の強さの変化に基づいて、当該音声の抑揚を抽出する。音声特徴抽出部230は、例えば、音声を複数の単位に分割し、各単位内における強さの変化、及び/又は、単位間における強さの変化を、当該音声の抑揚として抽出する。音声の単位は、例えば、音声に含まれる文章を構成する単語や節である。
In addition, the voice
感情キーワード選択部240は、音声特徴抽出部230が抽出した音声の特徴に基づいて、当該特徴が示す話者の感情や場の雰囲気をキーワードに変換する。感情キーワード選択部240は、例えば、感情データベース250に予め格納された感情キーワード群から、音声特徴抽出部230が抽出した音声の特徴に対応する感情キーワードを選択する。また、感情データベース250は、感情や雰囲気に関連する多数のキーワードを、音声の特徴と対応づけて格納する。具体的には、感情データベース250は、当該音声の強さ、速度及び抑揚のそれぞれの値(又は値が取り得る所定の範囲)や、当該値又は範囲の組み合わせのパターンを、各キーワードと対応づけて格納する。そして、感情キーワード選択部240は、音声特徴抽出部230が抽出した音声の特徴、すなわち、当該音声の強さ、速度及び抑揚のそれぞれの値(又は値が取り得る所定の範囲)や、当該値又は範囲の組み合わせのパターンに基づいて、感情データベース250に格納された多数のキーワードの中から、所定のキーワードを選択する。なお、感情データベース250に格納されるキーワードは、図3に示すような、いわゆるラッセルの感情円環モデルに含まれるキーワードであってもよい。
The emotion
感情キーワード選択部240は、音声特徴抽出部230が抽出した音声の特徴の他に、収集された音声の発した話者の生体情報にさらに基づいて、感情キーワードを選択してもよい。感情キーワード選択部240は、例えば、話者の体温、心拍、脈拍、脳波、皮膚コンダクタンスレベル等の生体情報に基づいて、当該話者の感情を推定し、推定された感情に対応するキーワードを選択してもよい。話者の生体情報は、送信装置110に接続されたセンサから取得されてもよいし、また、例えばネットワークを通じて送信装置110の外部装置から取得されてもよい。
The emotion
音声特徴抽出部230は、音声データの波形から発言の肯定又は否定の度合いに関する指標を抽出してもよい。例えば、音声特徴抽出部230は、Empath(登録商標)を用いて、音声データの波形から発言の肯定又は否定の度合いに関する指標を抽出することができる。Empathは、音声データの波形の物理的な特徴を解析し、平常、怒り、喜び、悲しみ及び元気度の各項目について50段階で判定値を算出する。音声特徴抽出部230は、このように算出された結果に基づいて、発言の肯定又は否定の度合いに関する指標を抽出することができる。このように、音声データの波形から感情や気分に関する判定値を算出する技術は、音声気分解析技術と呼ばれる。音声気分解析技術を用いて判定される項目は、平常、怒り、喜び、悲しみ及び元気度に限られるものではなく、感情に関わるあらゆる項目を含み得る。感情データベース250は、発言の肯定又は否定の度合いに関する指標を、各感情キーワードと対応付けて格納してもよい。感情キーワード選択部240は、音声特徴抽出部230が抽出した、発言の肯定又は否定の度合いに関する指標に対応する感情キーワードを感情データベース250から選択してもよい。
The voice
送信部260は、音声キーワード抽出部210が抽出した音声キーワード、及び、感情キーワード選択部240が選択した感情キーワードを、検索装置120に送信する。送信部260は、例えば、音声収集部200が音声を収集してから所定の期間が経過したこと、音声特徴抽出部230が抽出した記音声の強さが所定の値を超えたこと、音声キーワード抽出部210が所定の単語を抽出したこと等に応答して、音声キーワード抽出部210が抽出した音声キーワード、及び、感情キーワード選択部240が選択した前記感情キーワードを、検索装置120に送信する。当該所定の単語は、例えば、「検索」等である。
The
送信部260は、音声キーワード及び感情キーワードの他に、環境情報又は生体情報を、検索装置120にさらに送信してもよい。環境情報は、例えば、位置、温度、湿度、照度、揺れ等といった、送信装置110が置かれている場所や空間に関する情報である。環境情報は、GPS、温度センサ、湿度センサ、照度センサ、加速度センサ、赤外線センサ等の測定装置によって取得される。送信部260は、環境情報や生体情報を、測定装置から直接的に取得してもよいし、ネットワーク等を通じて間接的に取得してもよい。
The
辞書データベース更新指示作成部270は、辞書データベース220を更新するための指示(辞書データベース更新指示)を作成する。辞書データベース更新指示は、所定の契機で作成される。ここで、所定の契機は、辞書データベース220のヒット率が予め定められた閾値を下回った時点でもよく、或いは、予め定められた一定間隔でもよい。ヒット率とは、辞書データベース220に登録されている全てのキーワードのうち、音声収集部200によって収集された音声に含まれているものと判定されたことのあるキーワードの割合を意味する。送信部260は、辞書データベース更新指示作成部270によって作成された辞書データベース更新指示を検索装置120に送信する。
The dictionary database update
図4は、検索装置120が備える機能ブロックの一例を示す図である。検索装置120は、受信部300と、検索実行部310と、データベース320と、送信部330と、キーワードデータベース340と、推測部350と、辞書データベース作成部360とを備える。検索装置120は、所定のキーワードに基づいてデータベース320に格納された情報を検索し、検索結果を出力装置130に送信する検索エンジンである。検索装置120は、送信装置110から送信される音声キーワードを受信し、これを蓄積することにより、蓄積された音声キーワードから話題を推測する処理を行ってもよい。音声キーワードが、例えば、「ハンドル」、「ブレーキ」、「タイヤ」などである場合、「車」に関する話題がなされているものと推測できる。推測された話題は、例えば、広告業者に提供される。また、検索装置120は、送信装置110からの辞書データベース更新指示に応答して、辞書データベース220を更新する処理をも行う。
FIG. 4 is a diagram showing an example of a functional block included in the
検索装置120のメモリには、音声キーワード及び感情キーワードに基づく検索処理を検索装置120に実行させる検索プログラムが格納されており、検索装置120のハードウェア資源と検索プログラムとの協働により、検索装置120の各機能(受信部300、検索実行部310、データベース320、送信部330、キーワードデータベース340、推測部350、及びデータベース作成部360)が実現される。検索プログラムは、コンピュータ読み取り可能な記録媒体から検索装置120のメモリに読み込まれて、検索装置120のプロセッサにより実行される。
A search program for causing the
受信部300は、送信装置110が送信した音声キーワード及び感情キーワードを受信する。また、受信部300は、送信装置110が送信した音声キーワード及び感情キーワードの他に、環境情報や生体情報をさらに受信してもよい。受信部300は、送信装置110が送信した辞書データベース更新指示を受信する。
The receiving
検索実行部310は、受信部300が受信した音声キーワード及び感情キーワード並びに/又は環境情報及び/若しくは生体情報に基づいて、データベース320を検索する。本実施形態において、音声キーワード、感情キーワード、環境情報及び生体情報は、いずれもテキストデータであり、検索実行部310は、例えば、データベース320に格納された情報のうち、検索に使われたテキストデータのいずれをも含む情報を、検索結果として抽出する。当該情報は、例えば、ウェブサイトに含まれるテキストデータ等である。
The
送信部330は、検索実行部310が抽出した検索結果を、ネットワークを通じて出力装置130に送信する。送信部330は、例えば、検索実行部310が抽出したウェブサイトのURLや当該ウェブサイトに含まれるテキストデータや画像データ等を、検索結果として出力装置130に送信する。
The
キーワードデータベース340は、受信部300を通じて受信された音声キーワードを格納する。推測部350は、受信部300を通じて受信された辞書データベース更新指示に応答して、キーワードデータベース340に格納されている音声キーワードの関連語を推測する。音声キーワードの関連語とは、音声キーワードと頻繁に同時に使われる語句を意味し、このような語句は、「共起語」とも呼ばれている。共起語は、同意語を必ずしも意味するものではない。推測部350は、例えば、人工知能を応用した共起語検索ツールである。このような共起語検索ツールとして、例えば、グーグルやヤフーなどの検索結果の上位となるウェブページのコンテンツで形態素解析を行い、同一文書に頻出する語句を共起語として提示するものが知られている。形態素解析とは、文法的な情報の注記のない自然言語のテキストデータから、対象言語の文法や、辞書と呼ばれる単語の品詞などの情報に基づき、形態素(言語で意味を持つ最小単位)の列に分解し、それぞれの形態素の品詞などを判別する作業を意味する。
The
辞書データベース作成部360は、受信部300を通じて受信された辞書データベース更新指示に応答して、辞書データベース220を更新する。辞書データベース作成部360は、キーワードデータベース340に格納されている音声キーワードと、推測部350により推測された関連語とに基づいて、更新された辞書データベース220を作成する。更新された辞書データベース220は、音声収集部200によって収集された音声から抽出されたことのある音声キーワードとその関連語をキーワードとして登録している。更新前の辞書データベース220に登録されているキーワードのうち、音声収集部200によって収集された音声から抽出されたことのない音声キーワードは、更新後の辞書データベース220から削除される。このような更新処理を繰り返すことにより、辞書データベース220のヒット率を高めることができる。
The dictionary
送信部330は、更新された辞書データベース220を送信装置110に送信する。更新された辞書データベース220を受信した送信装置110は、更新前の辞書データベース220を更新後の辞書データベース220に差し替える。
The
図5は、出力装置130が備える機能ブロックの一例を示す図である。出力装置130は、検索結果受信部400と、検索結果出力部410とを備える。出力装置130において、検索結果受信部400は、検索結果送信部330が送信した検索結果を受信し、検索結果出力部410は、受信した検索結果を、数値、文字、映像(画像)、音声等として、ディスプレイやスピーカ等を通じて出力する。
FIG. 5 is a diagram showing an example of a functional block included in the
出力装置130のメモリには、出力プログラムが格納されており、出力装置130のハードウェア資源と出力プログラムとの協働により、出力装置130の各機能(検索結果受信部400、及び検索結果出力部410)が実現される。出力プログラムは、コンピュータ読み取り可能な記録媒体から出力装置130のメモリに読み込まれて、出力装置130のプロセッサにより実行される。
An output program is stored in the memory of the
図6は、検索システム100における処理の一例を示すフローチャートである。
FIG. 6 is a flowchart showing an example of processing in the
まず、音声収集部200は、送信装置110の周囲で発せられた音声を収集し、当該音声を示す音声データを生成する(S600)。音声収集部200は、例えば、一人又は複数の話者から「今日は暑いですね。」という音声を収集した場合に、この音声データを生成する。次に、音声キーワード抽出部210が、音声データから、音声キーワードを抽出する(S601)。音声キーワード抽出部210は、例えば、「今日は暑いですね。」という音声データから、「暑い」と単語を音声キーワードとして抽出する。次に、音声特徴抽出部230が、音声収集部200が生成した音声データから、当該音声の特徴を抽出する(S602)。音声特徴抽出部230は、例えば、「今日は暑いですね。」という音声における、音声の強さ、速さ、抑揚を抽出する。
First, the
次に、感情キーワード選択部240が、音声特徴抽出部230が抽出した音声の特徴に基づいて、話者の感情や場の雰囲気を示す感情キーワードを選択する(S603)。感情キーワード選択部240は、例えば、「今日は暑いですね。」という音声における、当該音声の強さ、速さ、抑揚の値を組み合わせたパターンに対応する感情キーワードとして、感情データベース250に格納されていた「苛立ち」を選択する。次に、送信部260は、音声キーワード抽出部210が抽出した音声キーワード、及び、感情キーワード選択部240が選択した感情キーワードを、検索装置120に送信する(S604)。送信部260は、「暑い」及び「苛立ち」を、それぞれ音声キーワード及び感情キーワードとして、検索装置120に送信する。また、送信部260は、送信装置110が置かれている場所である「京都府長岡京市神足1丁目にある長岡京駅の外」を示す位置情報と、当該場所における気温である「36℃」を、環境情報として検索装置120に送信する。
Next, the emotion
次に、キーワード受信部300は、送信装置110が送信した音声キーワード、感情キーワード及び環境情報を受信する(S605)。キーワード受信部300は、例えば、「暑い」及び「苛立ち」を、それぞれ音声キーワード及び感情キーワードとして、また、「京都府長岡京市神足1丁目にある長岡京駅の外」を示す位置情報と気温「36℃」を環境情報として受信する。次に、検索実行部310は、キーワード受信部300が受信した音声キーワード及び感情キーワード並びに環境情報に基づいて、データベース320を検索する(S606)。検索実行部310は、例えば、これらのキーワード及び環境情報に基づいて、「今日は暑いですね。」という音声を発した話者が、「京都府長岡京市神足1丁目にある長岡京駅の外」において、気温「36℃」の中で、「暑い」という単語を「苛立ち」という感情とともに発していると判断する。そして、検索実行部310は、「『京都府長岡京市神足1丁目にある長岡京駅』の半径100mにおいて、冷たい飲み物を提供する店舗」を検索する。次に、検索結果送信部330が、検索実行部310が抽出した検索結果を、ネットワークを通じて出力装置130に送信する(S607)。検索結果送信部330は、例えば、「『京都府長岡京市神足1丁目にある長岡京駅』の半径100mにおいて、冷たい飲み物を提供する店舗」に該当する店舗のウェブサイトの一覧を、検索結果として出力装置130に送信する。
Next, the
次に、検索結果受信部400が、検索結果送信部330が送信した検索結果を受信する(S608)。そして、検索結果出力部410は、受信した検索結果を、ディスプレイやスピーカ等を通じて出力する(S609)。検索結果出力部410は、例えば、「『京都府長岡京市神足1丁目にある長岡京駅』の半径100mにおいて、冷たい飲み物を提供する店舗」に該当する店舗のウェブサイトの一覧を、出力装置130が備えるディスプレイに表示する。なお、本例において、例えば、位置情報が「京都府長岡京市神足1丁目にある長岡京駅の外」ではなく「京都府長岡京市東神足1丁目10番1号の建物」を示し、気温が「36℃」ではなく「28℃」を示す場合、検索実行部310は、「今日は暑いですね。」という音声を発した話者が、当該建物において、「暑い」という単語を気温「28℃」の中で「苛立ち」という感情とともに発していると判断してもよい。この場合、検索実行部310は、「当該建物において気温を制御できること」を検索し、空調を制御することを、検索結果として出力してもよい。この場合、検索結果出力部410は、例えば、当該空調の設定温度を「25℃」に変更することを出力する。
Next, the search result receiving unit 400 receives the search result transmitted by the search result transmitting unit 330 (S608). Then, the search result output unit 410 outputs the received search result through a display, a speaker, or the like (S609). The search result output unit 410 displays, for example, a list of websites of stores corresponding to "a store that provides cold drinks within a radius of 100 m of" Nagaokakyo Station in 1-chome, Kotari, Nagaokakyo City, Kyoto Prefecture "". Display on the provided display. In this example, for example, the location information indicates "a building at 1-10-1, Higashikotari, Nagaokakyo City, Kyoto Prefecture" instead of "outside Nagaokakyo Station, located at 1-chome, Kotari, Nagaokakyo City, Kyoto Prefecture", and the temperature is "36". When indicating "28 ° C" instead of "° C", the
次に、図7を参照しながら、辞書データベース更新処理の流れについて説明する。
送信装置110は、所定の契機で辞書データベース更新指示を作成し(S700)、これを検索装置120に送信する(S701)。検索装置120は、辞書データベース更新指示を受信すると(S702)、キーワードデータベース340から音声キーワードを取得し(S703)、音声キーワードの関連語を推測する(S704)。次に、検索装置120は、音声キーワードとその関連語に基づいて、更新された辞書データベース220を作成し(S705)、これを送信装置110に送信する(S706)。送信装置110は、更新後の辞書データベース220を受信すると(S707)、更新前の辞書データベース220を更新後の辞書データベース220に差し替えることにより、辞書データベース220を更新する(S708)。Next, the flow of the dictionary database update process will be described with reference to FIG. 7.
The
以上、本発明の例示的な実施形態について説明した。本実施形態によれば、音声を収集して当該音声を示す音声データを生成し、音声データから、音声に含まれるキーワードである音声キーワードを抽出し、音声データから、音声の強さ、速度及び抑揚の少なくとも一つを含む、音声の特徴を抽出し、音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された音声の特徴に対応する感情キーワードを選択し、抽出された音声キーワード及び選択された感情キーワードを送信する。これにより、音声から抽出された単語と感情の双方に基づいて検索することができるので、当該音声を発した話者のニーズにより応じた情報を提供することができる。 The exemplary embodiments of the present invention have been described above. According to the present embodiment, voice is collected to generate voice data indicating the voice, voice keywords that are keywords included in the voice are extracted from the voice data, and voice strength, speed, and voice data are extracted from the voice data. Voice features including at least one of intonations are extracted, and based on the voice features, emotion keywords corresponding to the extracted voice features are selected from a group of emotion keywords stored in advance, and the extracted voice. Send keywords and selected emotion keywords. As a result, it is possible to search based on both words and emotions extracted from the voice, so that it is possible to provide information according to the needs of the speaker who uttered the voice.
また、本実施形態において、ラッセルの感情円環モデルに含まれるキーワードを、キーワード群として格納してもよい。これにより、話者の感情をより的確に抽出することができる。 Further, in the present embodiment, the keywords included in Russell's emotional ring model may be stored as a keyword group. As a result, the emotions of the speaker can be extracted more accurately.
また、本実施形態において、音声に含まれる単語が辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を音声キーワードとして抽出してもよい。これにより、音声キーワードを抽出するアルゴリズムの負荷を低減させることができる。 Further, in the present embodiment, when a word included in the voice matches any of the words stored in the dictionary database, the word may be extracted as a voice keyword. As a result, the load of the algorithm for extracting the voice keyword can be reduced.
また、本実施形態において、音声収集部が音声を収集してから所定の期間が経過したこと、音声特徴抽出部が抽出した音声の強さが所定の値を超えたこと、又は、音声キーワード抽出部が所定の単語を抽出したことに応答して、音声キーワード及び選択された感情キーワードを送信してもよい。これにより、検索の精度をさらに上げることができる。 Further, in the present embodiment, a predetermined period has passed since the voice collecting unit collected the voice, the strength of the voice extracted by the voice feature extraction unit exceeded the predetermined value, or the voice keyword extraction. In response to the department extracting a predetermined word, a voice keyword and a selected emotion keyword may be transmitted. As a result, the accuracy of the search can be further improved.
また、本実施形態において、所定の検索による検索結果を出力してもよい。これにより、検索結果を話者に伝えたり、又は、話者が置かれた環境に反映させたりすることができる。 Further, in the present embodiment, a search result by a predetermined search may be output. As a result, the search result can be transmitted to the speaker or reflected in the environment in which the speaker is placed.
辞書データベース220に登録されている音声キーワードに一致するものとして、音声収集部200が収集した音声から抽出された音声キーワードとその関連語とに基づいて辞書データベース220を更新することにより、辞書データベース220のヒット率を高めることができる。これにより、辞書データベース220を最適化することができる。辞書データベース220を最適化することにより、音声収集部200が収集する音声(例えば、顧客が実際に発話した音声)に基づいて、商品又はサービスが実際に流行しているか否かを適切に判断することができる。また、音声収集部200が収集する音声は、送信装置110が置かれている場所で実際に収集された音声であるため、インターネット上の評価ではなく、現実社会における評価を基礎として、商品又はサービスが実際に流行しているか否かを判断できる。また、辞書データベース220の更新を繰り返すことにより、不要なキーワードは、辞書データベース220から削除されるため、辞書データベース220の記憶容量は少なくてもよい。これにより、送信装置110の小型化及び低消費電力化が可能となる。
The
なお、以上説明した各実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。即ち、各実施形態に当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。例えば、各実施形態が備える各要素及びその配置、材料、条件、形状、サイズなどは、例示したものに限定されるわけではなく適宜変更することができる。また、各実施形態は例示であり、異なる実施形態で示した構成の部分的な置換又は組み合わせが可能であることは言うまでもなく、これらも本発明の特徴を含む限り本発明の範囲に包含される。 It should be noted that each of the embodiments described above is for facilitating the understanding of the present invention, and is not for limiting the interpretation of the present invention. The present invention can be modified / improved without departing from the spirit thereof, and the present invention also includes an equivalent thereof. That is, those skilled in the art with appropriate design changes to each embodiment are also included in the scope of the present invention as long as they have the features of the present invention. For example, each element included in each embodiment and its arrangement, material, condition, shape, size, and the like are not limited to those exemplified, and can be appropriately changed. In addition, each embodiment is an example, and it goes without saying that the configurations shown in different embodiments can be partially replaced or combined, and these are also included in the scope of the present invention as long as the features of the present invention are included. ..
100…検索システム、110…送信装置、120…検索装置、130…出力装置、200…音声収集部、210…音声キーワード抽出部、220…辞書データベース、230…音声特徴抽出部、240…感情キーワード選択部、250…感情データベース、260…送信部、300…キーワード受信部、310…検索実行部、320…データベース、330…検索結果送信部、400…検索結果受信部、410…検索結果出力部 100 ... Search system, 110 ... Transmission device, 120 ... Search device, 130 ... Output device, 200 ... Voice collection unit, 210 ... Voice keyword extraction unit, 220 ... Dictionary database, 230 ... Voice feature extraction unit, 240 ... Emotion keyword selection Unit, 250 ... Emotion database, 260 ... Transmission unit, 300 ... Keyword receiving unit, 310 ... Search execution unit, 320 ... Database, 330 ... Search result transmitting unit, 400 ... Search result receiving unit, 410 ... Search result output unit
Claims (12)
前記送信装置は、
音声を収集して当該音声を示す音声データを生成する音声収集部と、
前記音声データから、前記音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、
前記音声データから、前記音声の強さ、速度及び抑揚の少なくとも一つを含む、前記音声の特徴を抽出する音声特徴抽出部と、
前記音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された前記音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、
抽出された前記音声キーワード及び選択された前記感情キーワードを前記コンピュータに送信する送信部と、
複数の単語が予め格納された辞書データベースと、
を備え、
前記音声キーワード抽出部は、前記音声に含まれる単語が前記辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を前記音声キーワードとして抽出し、
前記コンピュータは、前記音声キーワード及び前記感情キーワードに基づく検索処理を実行し、
前記検索プログラムは、前記コンピュータに、
前記音声キーワードを格納するキーワードデータベースと、
前記辞書データベースの更新指示を前記送信装置から受信する受信部と、
前記受信部を通じて受信された前記更新指示に応答して、前記キーワードデータベースに格納されている音声キーワードの関連語を推測する推測部と、
前記キーワードデータベースに格納されている音声キーワードと、前記推測された関連語とに基づいて、更新後の辞書データベースを作成する辞書データベース作成部と、
前記更新後の辞書データベースを前記送信装置に送信する送信部と、
を実現させる、検索プログラム。 A search program that allows the computer connected to the transmitter to function as a search device.
The transmitter is
A voice collection unit that collects voice and generates voice data indicating the voice,
A voice keyword extraction unit that extracts voice keywords that are keywords included in the voice from the voice data,
A voice feature extraction unit that extracts the voice features including at least one of the voice strength, speed, and intonation from the voice data.
An emotion keyword selection unit that selects an emotion keyword corresponding to the extracted voice characteristics from a group of emotion keywords stored in advance based on the voice characteristics.
A transmitter that transmits the extracted voice keyword and the selected emotion keyword to the computer .
A dictionary database with multiple words stored in advance and
With
When the word included in the voice matches any of the words stored in the dictionary database, the voice keyword extraction unit extracts the word as the voice keyword.
The computer executes a search process based on the voice keyword and the emotion keyword, and performs search processing.
The search program is applied to the computer.
A keyword database that stores the voice keywords and
A receiving unit that receives an update instruction of the dictionary database from the transmitting device, and
In response to the update instruction received through the receiving unit, the guessing unit that infers the related words of the voice keywords stored in the keyword database, and
A dictionary database creation unit that creates an updated dictionary database based on the voice keywords stored in the keyword database and the inferred related words.
A transmitter that transmits the updated dictionary database to the transmitter,
A search program that realizes.
前記送信装置は、ラッセルの感情円環モデルに含まれるキーワードを、前記キーワード群として格納する感情データベースをさらに備える、検索プログラム。 The search program according to claim 1.
The transmission device is a search program further including an emotion database that stores keywords included in Russell's emotion ring model as the keyword group.
前記送信部は、前記音声収集部が音声を収集してから所定の期間が経過したことに応答して、前記音声キーワード及び選択された前記感情キーワードを前記コンピュータに送信する、検索プログラム。 The search program according to claim 1 or 2.
The transmitting unit is a search program that transmits the voice keyword and the selected emotion keyword to the computer in response to the elapse of a predetermined period after the voice collecting unit collects the voice.
前記音声特徴抽出部は、前記音声の特徴として、少なくとも前記音声の強さを抽出し、
前記送信部は、前記音声特徴抽出部が抽出した前記音声の強さが所定の値を超えたことに応答して、前記音声キーワード及び選択された前記感情キーワードを前記コンピュータに送信する、検索プログラム。 The search program according to any one of claims 1 to 3.
The voice feature extraction unit extracts at least the strength of the voice as a feature of the voice.
The transmission unit is a search program that transmits the voice keyword and the selected emotion keyword to the computer in response to the voice intensity extracted by the voice feature extraction unit exceeding a predetermined value . ..
前記送信部は、前記音声キーワード抽出部が所定の単語を抽出したことに応答して、前記音声キーワード及び選択された前記感情キーワードを前記コンピュータに送信する、検索プログラム。 The search program according to any one of claims 1 to 4.
The transmission unit is a search program that transmits the voice keyword and the selected emotion keyword to the computer in response to the voice keyword extraction unit extracting a predetermined word.
前記コンピュータは、前記検索処理の実行結果を出力する出力装置に接続している、検索プログラム。The computer is a search program connected to an output device that outputs an execution result of the search process.
前記送信装置は、
音声を収集して当該音声を示す音声データを生成する音声収集部と、
前記音声データから、前記音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、
前記音声データから、前記音声の強さ、速度及び抑揚の少なくとも一つを含む、前記音声の特徴を抽出する音声特徴抽出部と、
前記音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された前記音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、
抽出された前記音声キーワード及び選択された前記感情キーワードを前記検索装置に送信する送信部と、
複数の単語が予め格納された辞書データベースと、
を備え、
前記音声キーワード抽出部は、前記音声に含まれる単語が前記辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を前記音声キーワードとして抽出し、
前記検索装置は、前記音声キーワード及び前記感情キーワードに基づく検索処理を実行し、
前記検索装置は、
前記音声キーワードを格納するキーワードデータベースと、
前記辞書データベースの更新指示を前記送信装置から受信する受信部と、
前記受信部を通じて受信された前記更新指示に応答して、前記キーワードデータベースに格納されている音声キーワードの関連語を推測する推測部と、
前記キーワードデータベースに格納されている音声キーワードと、前記推測された関連語とに基づいて、更新後の辞書データベースを作成する辞書データベース作成部と、
前記更新後の辞書データベースを前記送信装置に送信する送信部と、
を備える、検索装置。 A search device that connects to a transmitter
The transmitter is
A voice collection unit that collects voice and generates voice data indicating the voice,
A voice keyword extraction unit that extracts voice keywords that are keywords included in the voice from the voice data,
A voice feature extraction unit that extracts the voice features including at least one of the voice strength, speed, and intonation from the voice data.
An emotion keyword selection unit that selects an emotion keyword corresponding to the extracted voice characteristics from a group of emotion keywords stored in advance based on the voice characteristics.
A transmission unit that transmits the extracted voice keyword and the selected emotion keyword to the search device, and
A dictionary database with multiple words stored in advance and
With
When the word included in the voice matches any of the words stored in the dictionary database, the voice keyword extraction unit extracts the word as the voice keyword.
The search device executes a search process based on the voice keyword and the emotion keyword, and performs search processing.
The search device is
A keyword database that stores the voice keywords and
A receiving unit that receives an update instruction of the dictionary database from the transmitting device, and
In response to the update instruction received through the receiving unit, the guessing unit that infers the related words of the voice keywords stored in the keyword database, and
A dictionary database creation unit that creates an updated dictionary database based on the voice keywords stored in the keyword database and the inferred related words.
A transmitter that transmits the updated dictionary database to the transmitter,
A search device.
前記送信装置は、
音声を収集して当該音声を示す音声データを生成することと、
前記音声データから、前記音声に含まれるキーワードである音声キーワードを抽出することと、
前記音声データから、前記音声の強さ、速度及び抑揚の少なくとも一つを含む、前記音声の特徴を抽出することと、
前記音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された前記音声の特徴に対応する感情キーワードを選択することと、
抽出された前記音声キーワード及び選択された前記感情キーワードを前記コンピュータに送信することと、
複数の単語が予め格納された辞書データベースを実現することと、
を実行し、
前記音声キーワードを抽出することは、前記音声に含まれる単語が前記辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を前記音声キーワードとして抽出することを含み、
前記コンピュータは、前記音声キーワード及び前記感情キーワードに基づく検索処理を実行し、
前記コンピュータは、
前記音声キーワードを格納するキーワードデータベースを実現し、
前記辞書データベースの更新指示を前記送信装置から受信し、
前記受信された前記更新指示に応答して、前記キーワードデータベースに格納されている音声キーワードの関連語を推測し、
前記キーワードデータベースに格納されている音声キーワードと、前記推測された関連語とに基づいて、更新後の辞書データベースを作成し、
前記更新後の辞書データベースを前記送信装置に送信する、検索方法。 A search method performed on the computer connected to the transmitter.
The transmitter is
Collecting voice and generating voice data indicating the voice,
Extracting a voice keyword, which is a keyword included in the voice, from the voice data,
Extracting the characteristics of the voice, including at least one of the strength, speed and intonation of the voice, from the voice data.
To select an emotional keyword corresponding to the extracted voice characteristic from a group of emotional keywords stored in advance based on the voice characteristic.
Sending the extracted voice keyword and the selected emotion keyword to the computer, and
To realize a dictionary database in which multiple words are stored in advance,
And run
Extracting the voice keyword includes extracting the word as the voice keyword when the word contained in the voice matches any of the words stored in the dictionary database.
The computer executes a search process based on the voice keyword and the emotion keyword, and performs search processing.
The computer
A keyword database for storing the voice keywords has been realized.
Upon receiving the update instruction of the dictionary database from the transmitter,
In response to the received update instruction, the related word of the voice keyword stored in the keyword database is inferred.
An updated dictionary database is created based on the voice keywords stored in the keyword database and the inferred related words.
A search method for transmitting the updated dictionary database to the transmitting device.
前記送信装置は、前記送信装置の位置情報を前記コンピュータに送信する、検索方法。 The search method according to claim 8.
A search method in which the transmitting device transmits the position information of the transmitting device to the computer .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016190878 | 2016-09-29 | ||
JP2016190878 | 2016-09-29 | ||
PCT/JP2017/033563 WO2018061839A1 (en) | 2016-09-29 | 2017-09-15 | Transmission device, transmission method, and transmission program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018061839A1 JPWO2018061839A1 (en) | 2019-06-27 |
JP6781961B2 true JP6781961B2 (en) | 2020-11-11 |
Family
ID=61759571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018542405A Active JP6781961B2 (en) | 2016-09-29 | 2017-09-15 | Transmission device, transmission method and transmission program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6781961B2 (en) |
WO (1) | WO2018061839A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6611091B2 (en) * | 2017-05-11 | 2019-11-27 | 株式会社村田製作所 | Information processing system, information processing apparatus, computer program, and dictionary database update method |
CN109087670B (en) * | 2018-08-30 | 2021-04-20 | 西安闻泰电子科技有限公司 | Emotion analysis method, system, server and storage medium |
CN111312245B (en) * | 2020-02-18 | 2023-08-08 | 腾讯科技(深圳)有限公司 | Voice response method, device and storage medium |
CN113808577A (en) * | 2021-09-18 | 2021-12-17 | 平安银行股份有限公司 | Intelligent extraction method, device, electronic device and storage medium for speech abstract |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4451037B2 (en) * | 2001-12-06 | 2010-04-14 | 株式会社ユニバーサルエンターテインメント | Information search system and information search method |
JP2005275601A (en) * | 2004-03-23 | 2005-10-06 | Fujitsu Ltd | Information retrieval system by voice |
JP4609527B2 (en) * | 2008-06-03 | 2011-01-12 | 株式会社デンソー | Automotive information provision system |
JP5446540B2 (en) * | 2009-07-24 | 2014-03-19 | 株式会社Jvcケンウッド | Information retrieval apparatus, control method, and program |
JP5610197B2 (en) * | 2010-05-25 | 2014-10-22 | ソニー株式会社 | SEARCH DEVICE, SEARCH METHOD, AND PROGRAM |
JP2014149571A (en) * | 2013-01-31 | 2014-08-21 | Nikon Corp | Content search device |
JP6514503B2 (en) * | 2014-12-25 | 2019-05-15 | クラリオン株式会社 | Intention estimation device and intention estimation system |
-
2017
- 2017-09-15 WO PCT/JP2017/033563 patent/WO2018061839A1/en active Application Filing
- 2017-09-15 JP JP2018542405A patent/JP6781961B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2018061839A1 (en) | 2019-06-27 |
WO2018061839A1 (en) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238871B2 (en) | Electronic device and control method thereof | |
US11200506B2 (en) | Chatbot integrating derived user intent | |
JP6951712B2 (en) | Dialogue devices, dialogue systems, dialogue methods, and programs | |
JP6781961B2 (en) | Transmission device, transmission method and transmission program | |
US11568853B2 (en) | Voice recognition method using artificial intelligence and apparatus thereof | |
CN109033156B (en) | Information processing method and device and terminal | |
JP2019536119A (en) | User interest identification method, apparatus, and computer-readable storage medium | |
US20220148576A1 (en) | Electronic device and control method | |
US11393459B2 (en) | Method and apparatus for recognizing a voice | |
KR20210155401A (en) | Speech synthesis apparatus for evaluating the quality of synthesized speech using artificial intelligence and method of operation thereof | |
CN110634474B (en) | Speech recognition method and device based on artificial intelligence | |
US11328718B2 (en) | Speech processing method and apparatus therefor | |
US11830478B2 (en) | Learning device, learning method, and learning program for images and sound which uses a similarity matrix | |
KR20210052036A (en) | Apparatus with convolutional neural network for obtaining multiple intent and method therof | |
KR102355152B1 (en) | Method for searching content and electronic device thereof | |
KR102688236B1 (en) | Voice synthesizer using artificial intelligence, operating method of voice synthesizer and computer readable recording medium | |
KR20210044475A (en) | Apparatus and method for determining object indicated by pronoun | |
CN117079299A (en) | Data processing method, device, electronic equipment and storage medium | |
KR20210153165A (en) | An artificial intelligence device that provides a voice recognition function, an operation method of the artificial intelligence device | |
JP6804049B2 (en) | Information display program, data transmission program, data transmission device, data transmission method, information provision device and information provision method | |
KR102642617B1 (en) | Voice synthesizer using artificial intelligence, operating method of voice synthesizer and computer readable recording medium | |
KR102631143B1 (en) | Voice synthesizer using artificial intelligence, operating method of voice synthesizer and computer redable recording medium | |
CN112017740A (en) | Disease inference method, device, equipment and storage medium based on knowledge graph | |
CN113763929A (en) | Voice evaluation method and device, electronic equipment and storage medium | |
US20190287070A1 (en) | Query expansion for candidate selection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200918 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6781961 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |