[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6781961B2 - Transmission device, transmission method and transmission program - Google Patents

Transmission device, transmission method and transmission program Download PDF

Info

Publication number
JP6781961B2
JP6781961B2 JP2018542405A JP2018542405A JP6781961B2 JP 6781961 B2 JP6781961 B2 JP 6781961B2 JP 2018542405 A JP2018542405 A JP 2018542405A JP 2018542405 A JP2018542405 A JP 2018542405A JP 6781961 B2 JP6781961 B2 JP 6781961B2
Authority
JP
Japan
Prior art keywords
voice
keyword
search
unit
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018542405A
Other languages
Japanese (ja)
Other versions
JPWO2018061839A1 (en
Inventor
敬彦 山縣
敬彦 山縣
晋平 笹野
晋平 笹野
昌治 板谷
昌治 板谷
健太郎 今川
健太郎 今川
善成 石橋
善成 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Manufacturing Co Ltd
Original Assignee
Murata Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Manufacturing Co Ltd filed Critical Murata Manufacturing Co Ltd
Publication of JPWO2018061839A1 publication Critical patent/JPWO2018061839A1/en
Application granted granted Critical
Publication of JP6781961B2 publication Critical patent/JP6781961B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、送信装置、送信方法及び送信プログラムに関する。 The present invention relates to a transmitting device, a transmitting method and a transmitting program.

従来の情報提示装置として、特開2012−256183号公報(特許文献1)に記載されたものがある。上記従来の情報提示装置は、ユーザが現在有している欲求の強さと、ユーザが現在置かれている状況とを推定し、これらの組み合わせを記述したデータベースを照会することにより、ユーザが有している欲求とユーザが置かれている状況の双方を満たすことのできるアイテムを提示する。 As a conventional information presenting device, there is one described in Japanese Patent Application Laid-Open No. 2012-256183 (Patent Document 1). The conventional information presenting device estimates the strength of the desire that the user currently has and the situation that the user is currently in, and queries the database that describes the combination of these, so that the user has the information. Present items that can satisfy both the desires of the user and the situation in which the user is placed.

特開2012−256183号公報Japanese Unexamined Patent Publication No. 2012-256183

しかしながら、上記従来の情報提示装置では、ユーザの欲求の強さとユーザが置かれている状況を推定しているに止まるため、必ずしもユーザのニーズに応じた情報を提示することができなかった。 However, since the conventional information presenting device only estimates the strength of the user's desire and the situation in which the user is placed, it is not always possible to present information according to the user's needs.

本発明はこのような事情に鑑みてなされたものであり、ユーザのニーズにより応じた情報を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide information according to the needs of a user.

本発明の一側面に係る検索プログラムは、送信装置に接続するコンピュータを検索装置として機能させる検索プログラムであって、送信装置は、音声を収集して当該音声を示す音声データを生成する音声収集部と、前記音声データから、音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、音声データから、音声の強さ、速度及び抑揚の少なくとも一つを含む、音声の特徴を抽出する音声特徴抽出部と、音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、抽出された音声キーワード及び選択された感情キーワードをコンピュータに送信する送信部と、複数の単語が予め格納された辞書データベースと、を備え、音声キーワード抽出部は、音声に含まれる単語が辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を音声キーワードとして抽出し、コンピュータは、音声キーワード及び感情キーワードに基づく検索処理を実行し、検索プログラムは、コンピュータに、音声キーワードを格納するキーワードデータベースと、辞書データベースの更新指示を送信装置から受信する受信部と、受信部を通じて受信された更新指示に応答して、キーワードデータベースに格納されている音声キーワードの関連語を推測する推測部と、前記キーワードデータベースに格納されている音声キーワードと、推測された関連語とに基づいて、更新後の辞書データベースを作成する辞書データベース作成部と、更新後の辞書データベースを送信装置に送信する送信部と、を実現させる。 The search program according to one aspect of the present invention is a search program that causes a computer connected to a transmission device to function as a search device, and the transmission device is a voice collection unit that collects voice and generates voice data indicating the voice. And, from the voice data, a voice keyword extraction unit that extracts a voice keyword that is a keyword included in the voice, and from the voice data, extracts a voice feature including at least one of voice strength, speed, and intonation. A voice feature extraction unit, an emotion keyword selection unit that selects an emotion keyword corresponding to the extracted voice characteristics from a group of emotion keywords stored in advance based on the voice characteristics, and an extracted voice keyword and selected It includes a transmitter that sends emotional keywords to a computer and a dictionary database in which a plurality of words are stored in advance. The voice keyword extraction unit matches any of the words contained in the voice with any of the words stored in the dictionary database. In that case, the word is extracted as a voice keyword, the computer executes a search process based on the voice keyword and the emotion keyword, and the search program gives the computer an instruction to update the keyword database for storing the voice keyword and the dictionary database. Is stored in the keyword database, a receiving unit that receives the data from the transmitting device, a guessing unit that infers the related words of the voice keywords stored in the keyword database in response to the update instruction received through the receiving unit, and the keyword database. A dictionary database creation unit that creates an updated dictionary database based on voice keywords and inferred related words, and a transmission unit that transmits the updated dictionary database to a transmission device are realized.

本発明によれば、ユーザのニーズにより応じた情報を提供することが可能となる。 According to the present invention, it is possible to provide information according to the needs of the user.

本発明の一実施形態に係る送信装置110を含む検索システム100の構成を示す図である。It is a figure which shows the structure of the search system 100 including the transmission device 110 which concerns on one Embodiment of this invention. 送信装置110が備える機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block included in the transmission device 110. ラッセルの感情円環モデル及びそれに含まれるキーワードを示す図である。It is a figure which shows the emotion ring model of Russell and the keyword contained in it. 検索装置120が備える機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block included in the search apparatus 120. 出力装置130が備える機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block included in the output device 130. 検索システム100における処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process in the search system 100. 辞書データベース更新処理を示すフローチャートである。It is a flowchart which shows the dictionary database update process.

以下、添付の図面を参照して本発明の一実施形態について説明する。図1は、本発明の一実施形態に係る送信装置110を含む検索システム100の構成を示す図である。検索システム100は、送信装置110と、検索装置120と、出力装置130とを備える。本実施形態に係る検索システム100は、送信装置110が収集した音声から抽出されたキーワードと、当該音声から抽出された感情や雰囲気に対応するキーワードに基づいて、所定の検索を行い、その検索結果を出力するシステムである。 Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a diagram showing a configuration of a search system 100 including a transmission device 110 according to an embodiment of the present invention. The search system 100 includes a transmission device 110, a search device 120, and an output device 130. The search system 100 according to the present embodiment performs a predetermined search based on the keyword extracted from the voice collected by the transmission device 110 and the keyword corresponding to the emotion or atmosphere extracted from the voice, and the search result is obtained. It is a system that outputs.

送信装置110は、送信装置110が置かれている場所で収集した音声に基づいて、所定のキーワードを検索装置120に送信するコンピュータである。送信装置110は、施設や店舗に設置されたコンピュータであってもよいし、施設や店舗を訪問したユーザが所有するコンピュータ(スマートフォンやタブレット端末等)であってもよい。送信装置は、プロセッサ、メモリ及び通信インタフェースを備える。送信装置110は、例えば、携帯電話通信網やインターネットを経由して、検索装置120と通信を行うことができる。 The transmission device 110 is a computer that transmits a predetermined keyword to the search device 120 based on the voice collected at the place where the transmission device 110 is placed. The transmission device 110 may be a computer installed in a facility or store, or may be a computer (smartphone, tablet terminal, or the like) owned by a user who visits the facility or store. The transmitting device includes a processor, memory and a communication interface. The transmission device 110 can communicate with the search device 120 via, for example, a mobile phone communication network or the Internet.

検索装置120は、送信装置110から受信したキーワードに基づいて、出力装置130のユーザに対して情報提供を行うコンピュータ(サーバ)である。検索装置120は、プロセッサ、メモリ、データベース及び通信インタフェースを備える。検索装置120は、例えば、インターネットを経由して、送信装置110及び出力装置130と通信を行うことができる。 The search device 120 is a computer (server) that provides information to the user of the output device 130 based on the keyword received from the transmission device 110. The search device 120 includes a processor, memory, a database, and a communication interface. The search device 120 can communicate with the transmission device 110 and the output device 130, for example, via the Internet.

出力装置130は、検索装置120から提供されるデータ(表示データ)に基づいて、検索結果の出力を行うコンピュータである。出力装置130は、検索結果として、数値、文字、映像(画像)、音声等を、ディスプレイやスピーカ等に出力する。出力装置130は、例えば、スマートフォンやタブレット端末、パーソナルコンピュータ等である。出力装置130は、プロセッサ、メモリ及び通信インタフェースを備える。出力装置130は、例えば、携帯電話通信網やインターネットを経由して、検索装置120と通信を行うことができる。 The output device 130 is a computer that outputs search results based on the data (display data) provided by the search device 120. The output device 130 outputs numerical values, characters, video (images), audio, etc. as search results to a display, a speaker, or the like. The output device 130 is, for example, a smartphone, a tablet terminal, a personal computer, or the like. The output device 130 includes a processor, a memory, and a communication interface. The output device 130 can communicate with the search device 120 via, for example, a mobile phone communication network or the Internet.

なお、出力装置130は、検索結果に基づいて、所定の動作を出力してもよい。出力装置130は、例えば、検索結果に基づいて、所定の通信を行ったり、モータ、アクチュエータ、センサ等を制御したりしてもよい。 The output device 130 may output a predetermined operation based on the search result. The output device 130 may, for example, perform predetermined communication or control a motor, an actuator, a sensor, or the like based on the search result.

図2は、送信装置110が備える機能ブロックの一例を示す図である。送信装置110は、音声収集部200と、音声キーワード抽出部210と、辞書データベース220と、音声特徴抽出部230と、感情キーワード選択部240と、感情データベース250と、送信部260と、辞書データベース更新指示作成部270とを備える。 FIG. 2 is a diagram showing an example of a functional block included in the transmission device 110. The transmission device 110 includes a voice collection unit 200, a voice keyword extraction unit 210, a dictionary database 220, a voice feature extraction unit 230, an emotion keyword selection unit 240, an emotion database 250, a transmission unit 260, and a dictionary database update. It is provided with an instruction creation unit 270.

送信装置110のメモリには、送信プログラムが格納されており、送信装置110のハードウェア資源と送信プログラムとの協働により、送信装置110の各機能(音声収集部200、音声キーワード抽出部210、辞書データベース220、音声特徴抽出部230、感情キーワード選択部240、感情データベース250、送信部260、及び辞書データベース更新指示作成部270)が実現される。送信プログラムは、コンピュータ読み取り可能な記録媒体から送信装置110のメモリに読み込まれて、送信装置110のプロセッサにより実行される。 A transmission program is stored in the memory of the transmission device 110, and each function of the transmission device 110 (voice collection unit 200, voice keyword extraction unit 210, etc.) is stored in cooperation with the hardware resources of the transmission device 110 and the transmission program. The dictionary database 220, the voice feature extraction unit 230, the emotion keyword selection unit 240, the emotion database 250, the transmission unit 260, and the dictionary database update instruction creation unit 270) are realized. The transmission program is read from a computer-readable recording medium into the memory of the transmission device 110 and executed by the processor of the transmission device 110.

音声収集部200は、送信装置110の周囲で発せられた音声を収集し、当該音声を示す音声データを生成する。具体的には、音声収集部200は、マイク等によって収集した音声を電気信号に変換し、当該電気信号が示す情報をデジタルデータに変換した音声データを生成する。また、音声収集部200は、生成した音声データを一時的に記憶する記憶部を有してもよい。当該記憶部は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、又はRAM(Random Access Memory)などの磁気的、電気的又は光学的に記憶可能な既存の記憶装置又は記憶媒体である。音声収集部200は、送信装置110の内蔵マイクでもよく、或いは外付けマイク(外付け型の有線式マイク又は無線式のマイク)でもよい。例えば、外付けマイクが接続されたタブレット端末は、送信装置110として機能する。送信装置110は、複数の音声収集部200を備えてもよい。送信装置110は、複数の音声収集部200の相対位置を検出してもよい。 The voice collecting unit 200 collects the voice emitted around the transmitting device 110 and generates voice data indicating the voice. Specifically, the voice collecting unit 200 converts the voice collected by the microphone or the like into an electric signal, and generates the voice data obtained by converting the information indicated by the electric signal into digital data. Further, the voice collecting unit 200 may have a storage unit that temporarily stores the generated voice data. The storage unit is an existing storage unit that can store magnetically, electrically or optically, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, an optical disk, or a RAM (Random Access Memory). A device or storage medium. The voice collecting unit 200 may be the built-in microphone of the transmitting device 110, or may be an external microphone (external wired microphone or wireless microphone). For example, a tablet terminal to which an external microphone is connected functions as a transmitting device 110. The transmission device 110 may include a plurality of voice collecting units 200. The transmitting device 110 may detect the relative positions of the plurality of voice collecting units 200.

音声キーワード抽出部210は、音声収集部200が生成した音声データから、当該音声に含まれるキーワード(以下「音声キーワード」とも呼ぶ。)を抽出する。具体的には、音声キーワード抽出部210は、まず、音声データを解析して、当該音声をテキストデータに変換する。そして、音声キーワード抽出部210は、当該テキストデータに含まれる各単語を、辞書データベース220に予め格納された単語と比較する。そして、音声キーワード抽出部210は、当該テキストデータに含まれる各単語が、辞書データベース220に予め格納された単語と一致した場合に、当該単語を音声キーワードとして抽出する。 The voice keyword extraction unit 210 extracts a keyword (hereinafter, also referred to as “voice keyword”) included in the voice from the voice data generated by the voice collection unit 200. Specifically, the voice keyword extraction unit 210 first analyzes the voice data and converts the voice into text data. Then, the voice keyword extraction unit 210 compares each word included in the text data with a word stored in advance in the dictionary database 220. Then, when each word included in the text data matches a word stored in advance in the dictionary database 220, the voice keyword extraction unit 210 extracts the word as a voice keyword.

音声特徴抽出部230は、音声収集部200が生成した音声データから、当該音声の特徴を抽出する。本実施形態において、音声特徴抽出部230は、当該音声の強さ、速度及び抑揚の少なくとも一つを抽出し、そして、当該強さ、速度若しくは抑揚、又は、これらの2つ以上の組み合わせを、当該音声の特徴として抽出する。 The voice feature extraction unit 230 extracts the voice feature from the voice data generated by the voice collection unit 200. In the present embodiment, the voice feature extraction unit 230 extracts at least one of the voice strength, speed and intonation, and the strength, speed or intonation, or a combination of two or more thereof. Extract as a feature of the voice.

音声特徴抽出部230は、音声データが示す音声信号の振幅の大きさに基づいて、当該音声の強さを抽出する。音声特徴抽出部230は、例えば、所定の単位期間における音声の強度の平均を、当該音声の強さとして抽出する。また、音声特徴抽出部230は、所定の文字数、単語数又は文章数を含む音声の強度の平均を、当該音声の強さとして抽出してもよい。 The voice feature extraction unit 230 extracts the strength of the voice based on the magnitude of the amplitude of the voice signal indicated by the voice data. The voice feature extraction unit 230 extracts, for example, the average voice strength in a predetermined unit period as the voice strength. Further, the voice feature extraction unit 230 may extract the average of the voice intensities including a predetermined number of characters, words, or sentences as the voice strength.

また、音声特徴抽出部230は、音声に含まれる言葉の音数に基づいて、当該音声の速さを抽出する。音声特徴抽出部230は、例えば、所定の単位期間の含まれる音数を、当該音声の速さとして抽出する。また、音声特徴抽出部230は、所定の単位期間における当該音声の文字数、単語数又は文章数を、当該音声の速さとして抽出してもよい。 Further, the voice feature extraction unit 230 extracts the speed of the voice based on the number of sounds of the words included in the voice. The voice feature extraction unit 230 extracts, for example, the number of sounds included in a predetermined unit period as the speed of the voice. In addition, the voice feature extraction unit 230 may extract the number of characters, the number of words, or the number of sentences of the voice in a predetermined unit period as the speed of the voice.

また、音声特徴抽出部230は、音声の強さの変化に基づいて、当該音声の抑揚を抽出する。音声特徴抽出部230は、例えば、音声を複数の単位に分割し、各単位内における強さの変化、及び/又は、単位間における強さの変化を、当該音声の抑揚として抽出する。音声の単位は、例えば、音声に含まれる文章を構成する単語や節である。 In addition, the voice feature extraction unit 230 extracts the intonation of the voice based on the change in the strength of the voice. For example, the voice feature extraction unit 230 divides a voice into a plurality of units, and extracts a change in strength within each unit and / or a change in strength between units as intonation of the voice. A voice unit is, for example, a word or a clause that constitutes a sentence included in the voice.

感情キーワード選択部240は、音声特徴抽出部230が抽出した音声の特徴に基づいて、当該特徴が示す話者の感情や場の雰囲気をキーワードに変換する。感情キーワード選択部240は、例えば、感情データベース250に予め格納された感情キーワード群から、音声特徴抽出部230が抽出した音声の特徴に対応する感情キーワードを選択する。また、感情データベース250は、感情や雰囲気に関連する多数のキーワードを、音声の特徴と対応づけて格納する。具体的には、感情データベース250は、当該音声の強さ、速度及び抑揚のそれぞれの値(又は値が取り得る所定の範囲)や、当該値又は範囲の組み合わせのパターンを、各キーワードと対応づけて格納する。そして、感情キーワード選択部240は、音声特徴抽出部230が抽出した音声の特徴、すなわち、当該音声の強さ、速度及び抑揚のそれぞれの値(又は値が取り得る所定の範囲)や、当該値又は範囲の組み合わせのパターンに基づいて、感情データベース250に格納された多数のキーワードの中から、所定のキーワードを選択する。なお、感情データベース250に格納されるキーワードは、図3に示すような、いわゆるラッセルの感情円環モデルに含まれるキーワードであってもよい。 The emotion keyword selection unit 240 converts the speaker's emotions and the atmosphere of the place indicated by the characteristics into keywords based on the voice characteristics extracted by the voice feature extraction unit 230. The emotion keyword selection unit 240 selects, for example, an emotion keyword corresponding to a voice feature extracted by the voice feature extraction unit 230 from a group of emotion keywords stored in advance in the emotion database 250. In addition, the emotion database 250 stores a large number of keywords related to emotions and moods in association with voice features. Specifically, the emotion database 250 associates each value (or a predetermined range in which the value can be taken) of the voice intensity, speed, and intonation, and a pattern of the combination of the value or range with each keyword. And store. Then, the emotion keyword selection unit 240 sets the voice features extracted by the voice feature extraction unit 230, that is, the respective values (or a predetermined range in which the values can be taken) of the voice strength, speed, and intonation, and the values. Alternatively, a predetermined keyword is selected from a large number of keywords stored in the emotion database 250 based on the pattern of the combination of ranges. The keyword stored in the emotion database 250 may be a keyword included in the so-called Russell's emotion ring model as shown in FIG.

感情キーワード選択部240は、音声特徴抽出部230が抽出した音声の特徴の他に、収集された音声の発した話者の生体情報にさらに基づいて、感情キーワードを選択してもよい。感情キーワード選択部240は、例えば、話者の体温、心拍、脈拍、脳波、皮膚コンダクタンスレベル等の生体情報に基づいて、当該話者の感情を推定し、推定された感情に対応するキーワードを選択してもよい。話者の生体情報は、送信装置110に接続されたセンサから取得されてもよいし、また、例えばネットワークを通じて送信装置110の外部装置から取得されてもよい。 The emotion keyword selection unit 240 may select an emotion keyword based on the biological information of the speaker who emitted the collected voice, in addition to the voice features extracted by the voice feature extraction unit 230. The emotion keyword selection unit 240 estimates the emotion of the speaker based on biological information such as the speaker's body temperature, heartbeat, pulse, brain wave, and skin conductance level, and selects a keyword corresponding to the estimated emotion. You may. The biological information of the speaker may be acquired from a sensor connected to the transmitting device 110, or may be acquired from an external device of the transmitting device 110, for example, through a network.

音声特徴抽出部230は、音声データの波形から発言の肯定又は否定の度合いに関する指標を抽出してもよい。例えば、音声特徴抽出部230は、Empath(登録商標)を用いて、音声データの波形から発言の肯定又は否定の度合いに関する指標を抽出することができる。Empathは、音声データの波形の物理的な特徴を解析し、平常、怒り、喜び、悲しみ及び元気度の各項目について50段階で判定値を算出する。音声特徴抽出部230は、このように算出された結果に基づいて、発言の肯定又は否定の度合いに関する指標を抽出することができる。このように、音声データの波形から感情や気分に関する判定値を算出する技術は、音声気分解析技術と呼ばれる。音声気分解析技術を用いて判定される項目は、平常、怒り、喜び、悲しみ及び元気度に限られるものではなく、感情に関わるあらゆる項目を含み得る。感情データベース250は、発言の肯定又は否定の度合いに関する指標を、各感情キーワードと対応付けて格納してもよい。感情キーワード選択部240は、音声特徴抽出部230が抽出した、発言の肯定又は否定の度合いに関する指標に対応する感情キーワードを感情データベース250から選択してもよい。 The voice feature extraction unit 230 may extract an index relating to the degree of affirmation or denial of speech from the waveform of voice data. For example, the voice feature extraction unit 230 can use Empath (registered trademark) to extract an index relating to the degree of affirmation or denial of speech from the waveform of voice data. Empath analyzes the physical characteristics of the waveform of the voice data, and calculates the judgment value in 50 steps for each item of normality, anger, joy, sadness, and energy level. The voice feature extraction unit 230 can extract an index relating to the degree of affirmation or denial of the statement based on the result calculated in this way. In this way, the technique of calculating the judgment value regarding emotions and moods from the waveform of the voice data is called the voice mood analysis technique. The items determined using the voice mood analysis technique are not limited to normality, anger, joy, sadness and energy, but may include all items related to emotions. The emotion database 250 may store an index relating to the degree of affirmation or denial of a statement in association with each emotion keyword. The emotion keyword selection unit 240 may select an emotion keyword from the emotion database 250 that corresponds to an index related to the degree of affirmation or denial of speech extracted by the voice feature extraction unit 230.

送信部260は、音声キーワード抽出部210が抽出した音声キーワード、及び、感情キーワード選択部240が選択した感情キーワードを、検索装置120に送信する。送信部260は、例えば、音声収集部200が音声を収集してから所定の期間が経過したこと、音声特徴抽出部230が抽出した記音声の強さが所定の値を超えたこと、音声キーワード抽出部210が所定の単語を抽出したこと等に応答して、音声キーワード抽出部210が抽出した音声キーワード、及び、感情キーワード選択部240が選択した前記感情キーワードを、検索装置120に送信する。当該所定の単語は、例えば、「検索」等である。 The transmission unit 260 transmits the voice keyword extracted by the voice keyword extraction unit 210 and the emotion keyword selected by the emotion keyword selection unit 240 to the search device 120. In the transmission unit 260, for example, a predetermined period has passed since the voice collection unit 200 collected the voice, the strength of the recorded voice extracted by the voice feature extraction unit 230 exceeded the predetermined value, and the voice keyword. In response to the extraction of a predetermined word by the extraction unit 210 or the like, the voice keyword extracted by the voice keyword extraction unit 210 and the emotion keyword selected by the emotion keyword selection unit 240 are transmitted to the search device 120. The predetermined word is, for example, "search" or the like.

送信部260は、音声キーワード及び感情キーワードの他に、環境情報又は生体情報を、検索装置120にさらに送信してもよい。環境情報は、例えば、位置、温度、湿度、照度、揺れ等といった、送信装置110が置かれている場所や空間に関する情報である。環境情報は、GPS、温度センサ、湿度センサ、照度センサ、加速度センサ、赤外線センサ等の測定装置によって取得される。送信部260は、環境情報や生体情報を、測定装置から直接的に取得してもよいし、ネットワーク等を通じて間接的に取得してもよい。 The transmission unit 260 may further transmit environmental information or biological information to the search device 120 in addition to the voice keyword and the emotion keyword. The environmental information is information about a place or space where the transmitting device 110 is placed, such as a position, temperature, humidity, illuminance, shaking, and the like. Environmental information is acquired by measuring devices such as GPS, temperature sensor, humidity sensor, illuminance sensor, acceleration sensor, and infrared sensor. The transmission unit 260 may acquire environmental information and biological information directly from the measuring device, or indirectly through a network or the like.

辞書データベース更新指示作成部270は、辞書データベース220を更新するための指示(辞書データベース更新指示)を作成する。辞書データベース更新指示は、所定の契機で作成される。ここで、所定の契機は、辞書データベース220のヒット率が予め定められた閾値を下回った時点でもよく、或いは、予め定められた一定間隔でもよい。ヒット率とは、辞書データベース220に登録されている全てのキーワードのうち、音声収集部200によって収集された音声に含まれているものと判定されたことのあるキーワードの割合を意味する。送信部260は、辞書データベース更新指示作成部270によって作成された辞書データベース更新指示を検索装置120に送信する。 The dictionary database update instruction creation unit 270 creates an instruction (dictionary database update instruction) for updating the dictionary database 220. The dictionary database update instruction is created at a predetermined opportunity. Here, the predetermined trigger may be when the hit rate of the dictionary database 220 falls below a predetermined threshold value, or may be a predetermined fixed interval. The hit rate means the ratio of keywords that have been determined to be included in the voice collected by the voice collecting unit 200 among all the keywords registered in the dictionary database 220. The transmission unit 260 transmits the dictionary database update instruction created by the dictionary database update instruction creation unit 270 to the search device 120.

図4は、検索装置120が備える機能ブロックの一例を示す図である。検索装置120は、受信部300と、検索実行部310と、データベース320と、送信部330と、キーワードデータベース340と、推測部350と、辞書データベース作成部360とを備える。検索装置120は、所定のキーワードに基づいてデータベース320に格納された情報を検索し、検索結果を出力装置130に送信する検索エンジンである。検索装置120は、送信装置110から送信される音声キーワードを受信し、これを蓄積することにより、蓄積された音声キーワードから話題を推測する処理を行ってもよい。音声キーワードが、例えば、「ハンドル」、「ブレーキ」、「タイヤ」などである場合、「車」に関する話題がなされているものと推測できる。推測された話題は、例えば、広告業者に提供される。また、検索装置120は、送信装置110からの辞書データベース更新指示に応答して、辞書データベース220を更新する処理をも行う。 FIG. 4 is a diagram showing an example of a functional block included in the search device 120. The search device 120 includes a receiving unit 300, a search executing unit 310, a database 320, a transmitting unit 330, a keyword database 340, a guessing unit 350, and a dictionary database creating unit 360. The search device 120 is a search engine that searches for information stored in the database 320 based on a predetermined keyword and transmits the search result to the output device 130. The search device 120 may receive the voice keyword transmitted from the transmission device 110 and store the voice keyword to perform a process of estimating a topic from the stored voice keyword. When the voice keywords are, for example, "handle", "brake", "tire", etc., it can be inferred that the topic of "car" is being made. The inferred topic is provided to, for example, an advertiser. The search device 120 also performs a process of updating the dictionary database 220 in response to a dictionary database update instruction from the transmission device 110.

検索装置120のメモリには、音声キーワード及び感情キーワードに基づく検索処理を検索装置120に実行させる検索プログラムが格納されており、検索装置120のハードウェア資源と検索プログラムとの協働により、検索装置120の各機能(受信部300、検索実行部310、データベース320、送信部330、キーワードデータベース340、推測部350、及びデータベース作成部360)が実現される。検索プログラムは、コンピュータ読み取り可能な記録媒体から検索装置120のメモリに読み込まれて、検索装置120のプロセッサにより実行される。 A search program for causing the search device 120 to execute a search process based on a voice keyword and an emotional keyword is stored in the memory of the search device 120, and the search device cooperates with the hardware resources of the search device 120 and the search program. Each of the 120 functions (reception unit 300, search execution unit 310, database 320, transmission unit 330, keyword database 340, guessing unit 350, and database creation unit 360) is realized. The search program is read into the memory of the search device 120 from a computer-readable recording medium and executed by the processor of the search device 120.

受信部300は、送信装置110が送信した音声キーワード及び感情キーワードを受信する。また、受信部300は、送信装置110が送信した音声キーワード及び感情キーワードの他に、環境情報や生体情報をさらに受信してもよい。受信部300は、送信装置110が送信した辞書データベース更新指示を受信する。 The receiving unit 300 receives the voice keyword and the emotion keyword transmitted by the transmitting device 110. Further, the receiving unit 300 may further receive environmental information and biological information in addition to the voice keywords and emotional keywords transmitted by the transmitting device 110. The receiving unit 300 receives the dictionary database update instruction transmitted by the transmitting device 110.

検索実行部310は、受信部300が受信した音声キーワード及び感情キーワード並びに/又は環境情報及び/若しくは生体情報に基づいて、データベース320を検索する。本実施形態において、音声キーワード、感情キーワード、環境情報及び生体情報は、いずれもテキストデータであり、検索実行部310は、例えば、データベース320に格納された情報のうち、検索に使われたテキストデータのいずれをも含む情報を、検索結果として抽出する。当該情報は、例えば、ウェブサイトに含まれるテキストデータ等である。 The search execution unit 310 searches the database 320 based on the voice keyword and emotion keyword received by the reception unit 300 and / or the environmental information and / or the biological information. In the present embodiment, the voice keyword, the emotion keyword, the environmental information, and the biological information are all text data, and the search execution unit 310 uses, for example, the text data used for the search among the information stored in the database 320. Information including any of the above is extracted as a search result. The information is, for example, text data included in a website.

送信部330は、検索実行部310が抽出した検索結果を、ネットワークを通じて出力装置130に送信する。送信部330は、例えば、検索実行部310が抽出したウェブサイトのURLや当該ウェブサイトに含まれるテキストデータや画像データ等を、検索結果として出力装置130に送信する。 The transmission unit 330 transmits the search result extracted by the search execution unit 310 to the output device 130 via the network. For example, the transmission unit 330 transmits the URL of the website extracted by the search execution unit 310, text data, image data, and the like included in the website to the output device 130 as a search result.

キーワードデータベース340は、受信部300を通じて受信された音声キーワードを格納する。推測部350は、受信部300を通じて受信された辞書データベース更新指示に応答して、キーワードデータベース340に格納されている音声キーワードの関連語を推測する。音声キーワードの関連語とは、音声キーワードと頻繁に同時に使われる語句を意味し、このような語句は、「共起語」とも呼ばれている。共起語は、同意語を必ずしも意味するものではない。推測部350は、例えば、人工知能を応用した共起語検索ツールである。このような共起語検索ツールとして、例えば、グーグルやヤフーなどの検索結果の上位となるウェブページのコンテンツで形態素解析を行い、同一文書に頻出する語句を共起語として提示するものが知られている。形態素解析とは、文法的な情報の注記のない自然言語のテキストデータから、対象言語の文法や、辞書と呼ばれる単語の品詞などの情報に基づき、形態素(言語で意味を持つ最小単位)の列に分解し、それぞれの形態素の品詞などを判別する作業を意味する。 The keyword database 340 stores voice keywords received through the receiving unit 300. The guessing unit 350 infers the related words of the voice keywords stored in the keyword database 340 in response to the dictionary database update instruction received through the receiving unit 300. A related word of a voice keyword means a word that is frequently used at the same time as a voice keyword, and such a word is also called a “co-occurrence word”. Co-occurrence words do not necessarily mean synonymous words. The guessing unit 350 is, for example, a co-occurrence word search tool that applies artificial intelligence. As such a co-occurrence word search tool, for example, a tool that performs morphological analysis on the content of a web page such as Google or Yahoo that ranks higher in the search results and presents words and phrases that frequently appear in the same document as co-occurrence words is known. ing. Morphological analysis is a sequence of morphological elements (the smallest unit that has meaning in a language) based on information such as the grammar of the target language and the part of speech of a word called a dictionary, from text data in a natural language without notes of grammatical information. It means the work of decomposing into and determining the part of speech of each morphological element.

辞書データベース作成部360は、受信部300を通じて受信された辞書データベース更新指示に応答して、辞書データベース220を更新する。辞書データベース作成部360は、キーワードデータベース340に格納されている音声キーワードと、推測部350により推測された関連語とに基づいて、更新された辞書データベース220を作成する。更新された辞書データベース220は、音声収集部200によって収集された音声から抽出されたことのある音声キーワードとその関連語をキーワードとして登録している。更新前の辞書データベース220に登録されているキーワードのうち、音声収集部200によって収集された音声から抽出されたことのない音声キーワードは、更新後の辞書データベース220から削除される。このような更新処理を繰り返すことにより、辞書データベース220のヒット率を高めることができる。 The dictionary database creation unit 360 updates the dictionary database 220 in response to the dictionary database update instruction received through the reception unit 300. The dictionary database creation unit 360 creates an updated dictionary database 220 based on the voice keywords stored in the keyword database 340 and the related words inferred by the guessing unit 350. The updated dictionary database 220 registers voice keywords that have been extracted from the voice collected by the voice collection unit 200 and related words as keywords. Among the keywords registered in the dictionary database 220 before the update, the voice keywords that have not been extracted from the voice collected by the voice collection unit 200 are deleted from the dictionary database 220 after the update. By repeating such an update process, the hit rate of the dictionary database 220 can be increased.

送信部330は、更新された辞書データベース220を送信装置110に送信する。更新された辞書データベース220を受信した送信装置110は、更新前の辞書データベース220を更新後の辞書データベース220に差し替える。 The transmission unit 330 transmits the updated dictionary database 220 to the transmission device 110. The transmitting device 110 that has received the updated dictionary database 220 replaces the dictionary database 220 before the update with the dictionary database 220 after the update.

図5は、出力装置130が備える機能ブロックの一例を示す図である。出力装置130は、検索結果受信部400と、検索結果出力部410とを備える。出力装置130において、検索結果受信部400は、検索結果送信部330が送信した検索結果を受信し、検索結果出力部410は、受信した検索結果を、数値、文字、映像(画像)、音声等として、ディスプレイやスピーカ等を通じて出力する。 FIG. 5 is a diagram showing an example of a functional block included in the output device 130. The output device 130 includes a search result receiving unit 400 and a search result output unit 410. In the output device 130, the search result receiving unit 400 receives the search result transmitted by the search result transmitting unit 330, and the search result output unit 410 receives the received search result in numerical values, characters, video (image), voice, etc. Is output through a display, a speaker, or the like.

出力装置130のメモリには、出力プログラムが格納されており、出力装置130のハードウェア資源と出力プログラムとの協働により、出力装置130の各機能(検索結果受信部400、及び検索結果出力部410)が実現される。出力プログラムは、コンピュータ読み取り可能な記録媒体から出力装置130のメモリに読み込まれて、出力装置130のプロセッサにより実行される。 An output program is stored in the memory of the output device 130, and each function of the output device 130 (search result receiving unit 400 and search result output unit) is performed in cooperation with the hardware resources of the output device 130 and the output program. 410) is realized. The output program is read from a computer-readable recording medium into the memory of the output device 130 and executed by the processor of the output device 130.

図6は、検索システム100における処理の一例を示すフローチャートである。 FIG. 6 is a flowchart showing an example of processing in the search system 100.

まず、音声収集部200は、送信装置110の周囲で発せられた音声を収集し、当該音声を示す音声データを生成する(S600)。音声収集部200は、例えば、一人又は複数の話者から「今日は暑いですね。」という音声を収集した場合に、この音声データを生成する。次に、音声キーワード抽出部210が、音声データから、音声キーワードを抽出する(S601)。音声キーワード抽出部210は、例えば、「今日は暑いですね。」という音声データから、「暑い」と単語を音声キーワードとして抽出する。次に、音声特徴抽出部230が、音声収集部200が生成した音声データから、当該音声の特徴を抽出する(S602)。音声特徴抽出部230は、例えば、「今日は暑いですね。」という音声における、音声の強さ、速さ、抑揚を抽出する。 First, the voice collecting unit 200 collects the voice emitted around the transmitting device 110 and generates voice data indicating the voice (S600). The voice collecting unit 200 generates this voice data when, for example, the voice collecting unit 200 collects the voice "It is hot today" from one or a plurality of speakers. Next, the voice keyword extraction unit 210 extracts voice keywords from the voice data (S601). The voice keyword extraction unit 210 extracts the word "hot" as a voice keyword from the voice data such as "It's hot today." Next, the voice feature extraction unit 230 extracts the voice feature from the voice data generated by the voice collection unit 200 (S602). The voice feature extraction unit 230 extracts, for example, the strength, speed, and intonation of the voice in the voice "It's hot today."

次に、感情キーワード選択部240が、音声特徴抽出部230が抽出した音声の特徴に基づいて、話者の感情や場の雰囲気を示す感情キーワードを選択する(S603)。感情キーワード選択部240は、例えば、「今日は暑いですね。」という音声における、当該音声の強さ、速さ、抑揚の値を組み合わせたパターンに対応する感情キーワードとして、感情データベース250に格納されていた「苛立ち」を選択する。次に、送信部260は、音声キーワード抽出部210が抽出した音声キーワード、及び、感情キーワード選択部240が選択した感情キーワードを、検索装置120に送信する(S604)。送信部260は、「暑い」及び「苛立ち」を、それぞれ音声キーワード及び感情キーワードとして、検索装置120に送信する。また、送信部260は、送信装置110が置かれている場所である「京都府長岡京市神足1丁目にある長岡京駅の外」を示す位置情報と、当該場所における気温である「36℃」を、環境情報として検索装置120に送信する。 Next, the emotion keyword selection unit 240 selects an emotion keyword indicating the speaker's emotion and the atmosphere of the place based on the voice characteristics extracted by the voice feature extraction unit 230 (S603). The emotion keyword selection unit 240 is stored in the emotion database 250 as an emotion keyword corresponding to a pattern that combines the strength, speed, and intonation value of the voice in the voice "It's hot today." Select the "irritated" that was. Next, the transmission unit 260 transmits the voice keyword extracted by the voice keyword extraction unit 210 and the emotion keyword selected by the emotion keyword selection unit 240 to the search device 120 (S604). The transmission unit 260 transmits "hot" and "irritated" to the search device 120 as voice keywords and emotion keywords, respectively. In addition, the transmission unit 260 provides location information indicating "outside Nagaokakyo Station in 1-chome, Kotari, Nagaokakyo City, Kyoto Prefecture" where the transmitter 110 is located, and "36 ° C" which is the temperature at the location. , Is transmitted to the search device 120 as environmental information.

次に、キーワード受信部300は、送信装置110が送信した音声キーワード、感情キーワード及び環境情報を受信する(S605)。キーワード受信部300は、例えば、「暑い」及び「苛立ち」を、それぞれ音声キーワード及び感情キーワードとして、また、「京都府長岡京市神足1丁目にある長岡京駅の外」を示す位置情報と気温「36℃」を環境情報として受信する。次に、検索実行部310は、キーワード受信部300が受信した音声キーワード及び感情キーワード並びに環境情報に基づいて、データベース320を検索する(S606)。検索実行部310は、例えば、これらのキーワード及び環境情報に基づいて、「今日は暑いですね。」という音声を発した話者が、「京都府長岡京市神足1丁目にある長岡京駅の外」において、気温「36℃」の中で、「暑い」という単語を「苛立ち」という感情とともに発していると判断する。そして、検索実行部310は、「『京都府長岡京市神足1丁目にある長岡京駅』の半径100mにおいて、冷たい飲み物を提供する店舗」を検索する。次に、検索結果送信部330が、検索実行部310が抽出した検索結果を、ネットワークを通じて出力装置130に送信する(S607)。検索結果送信部330は、例えば、「『京都府長岡京市神足1丁目にある長岡京駅』の半径100mにおいて、冷たい飲み物を提供する店舗」に該当する店舗のウェブサイトの一覧を、検索結果として出力装置130に送信する。 Next, the keyword receiving unit 300 receives the voice keyword, the emotion keyword, and the environmental information transmitted by the transmitting device 110 (S605). The keyword receiving unit 300 uses, for example, "hot" and "irritated" as voice keywords and emotional keywords, respectively, and position information and temperature "36" indicating "outside Nagaokakyo Station in 1-chome, Kotari, Nagaokakyo City, Kyoto Prefecture". ℃ ”is received as environmental information. Next, the search execution unit 310 searches the database 320 based on the voice keyword, the emotion keyword, and the environmental information received by the keyword reception unit 300 (S606). In the search execution unit 310, for example, based on these keywords and environmental information, the speaker who uttered the voice "It's hot today." Is "outside Nagaokakyo Station in 1-chome, Kotari, Nagaokakyo City, Kyoto Prefecture." In, it is judged that the word "hot" is emitted together with the feeling of "irritability" in the temperature "36 ° C.". Then, the search execution unit 310 searches for "a store that offers cold drinks within a radius of 100 m of" Nagaokakyo Station in 1-chome, Kotari, Nagaokakyo City, Kyoto Prefecture ". Next, the search result transmission unit 330 transmits the search result extracted by the search execution unit 310 to the output device 130 via the network (S607). The search result transmission unit 330 outputs, for example, a list of websites of stores corresponding to "a store that provides cold drinks within a radius of 100 m of" Nagaokakyo Station in 1-chome, Kotari, Nagaokakyo City, Kyoto Prefecture "as a search result. It is transmitted to the device 130.

次に、検索結果受信部400が、検索結果送信部330が送信した検索結果を受信する(S608)。そして、検索結果出力部410は、受信した検索結果を、ディスプレイやスピーカ等を通じて出力する(S609)。検索結果出力部410は、例えば、「『京都府長岡京市神足1丁目にある長岡京駅』の半径100mにおいて、冷たい飲み物を提供する店舗」に該当する店舗のウェブサイトの一覧を、出力装置130が備えるディスプレイに表示する。なお、本例において、例えば、位置情報が「京都府長岡京市神足1丁目にある長岡京駅の外」ではなく「京都府長岡京市東神足1丁目10番1号の建物」を示し、気温が「36℃」ではなく「28℃」を示す場合、検索実行部310は、「今日は暑いですね。」という音声を発した話者が、当該建物において、「暑い」という単語を気温「28℃」の中で「苛立ち」という感情とともに発していると判断してもよい。この場合、検索実行部310は、「当該建物において気温を制御できること」を検索し、空調を制御することを、検索結果として出力してもよい。この場合、検索結果出力部410は、例えば、当該空調の設定温度を「25℃」に変更することを出力する。 Next, the search result receiving unit 400 receives the search result transmitted by the search result transmitting unit 330 (S608). Then, the search result output unit 410 outputs the received search result through a display, a speaker, or the like (S609). The search result output unit 410 displays, for example, a list of websites of stores corresponding to "a store that provides cold drinks within a radius of 100 m of" Nagaokakyo Station in 1-chome, Kotari, Nagaokakyo City, Kyoto Prefecture "". Display on the provided display. In this example, for example, the location information indicates "a building at 1-10-1, Higashikotari, Nagaokakyo City, Kyoto Prefecture" instead of "outside Nagaokakyo Station, located at 1-chome, Kotari, Nagaokakyo City, Kyoto Prefecture", and the temperature is "36". When indicating "28 ° C" instead of "° C", the search execution unit 310 tells the speaker who uttered the voice "It's hot today" to use the word "hot" in the building as the temperature "28 ° C". It may be judged that it is emitted with the feeling of "irritability". In this case, the search execution unit 310 may search for "the temperature can be controlled in the building" and output that the air conditioning is controlled as a search result. In this case, the search result output unit 410 outputs, for example, changing the set temperature of the air conditioner to "25 ° C.".

次に、図7を参照しながら、辞書データベース更新処理の流れについて説明する。
送信装置110は、所定の契機で辞書データベース更新指示を作成し(S700)、これを検索装置120に送信する(S701)。検索装置120は、辞書データベース更新指示を受信すると(S702)、キーワードデータベース340から音声キーワードを取得し(S703)、音声キーワードの関連語を推測する(S704)。次に、検索装置120は、音声キーワードとその関連語に基づいて、更新された辞書データベース220を作成し(S705)、これを送信装置110に送信する(S706)。送信装置110は、更新後の辞書データベース220を受信すると(S707)、更新前の辞書データベース220を更新後の辞書データベース220に差し替えることにより、辞書データベース220を更新する(S708)。
Next, the flow of the dictionary database update process will be described with reference to FIG. 7.
The transmission device 110 creates a dictionary database update instruction (S700) at a predetermined opportunity, and transmits this to the search device 120 (S701). When the search device 120 receives the dictionary database update instruction (S702), it acquires the voice keyword from the keyword database 340 (S703) and infers the related word of the voice keyword (S704). Next, the search device 120 creates an updated dictionary database 220 based on the voice keyword and its related words (S705), and transmits this to the transmission device 110 (S706). When the transmitting device 110 receives the updated dictionary database 220 (S707), the transmitting device 110 updates the dictionary database 220 by replacing the old dictionary database 220 with the updated dictionary database 220 (S708).

以上、本発明の例示的な実施形態について説明した。本実施形態によれば、音声を収集して当該音声を示す音声データを生成し、音声データから、音声に含まれるキーワードである音声キーワードを抽出し、音声データから、音声の強さ、速度及び抑揚の少なくとも一つを含む、音声の特徴を抽出し、音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された音声の特徴に対応する感情キーワードを選択し、抽出された音声キーワード及び選択された感情キーワードを送信する。これにより、音声から抽出された単語と感情の双方に基づいて検索することができるので、当該音声を発した話者のニーズにより応じた情報を提供することができる。 The exemplary embodiments of the present invention have been described above. According to the present embodiment, voice is collected to generate voice data indicating the voice, voice keywords that are keywords included in the voice are extracted from the voice data, and voice strength, speed, and voice data are extracted from the voice data. Voice features including at least one of intonations are extracted, and based on the voice features, emotion keywords corresponding to the extracted voice features are selected from a group of emotion keywords stored in advance, and the extracted voice. Send keywords and selected emotion keywords. As a result, it is possible to search based on both words and emotions extracted from the voice, so that it is possible to provide information according to the needs of the speaker who uttered the voice.

また、本実施形態において、ラッセルの感情円環モデルに含まれるキーワードを、キーワード群として格納してもよい。これにより、話者の感情をより的確に抽出することができる。 Further, in the present embodiment, the keywords included in Russell's emotional ring model may be stored as a keyword group. As a result, the emotions of the speaker can be extracted more accurately.

また、本実施形態において、音声に含まれる単語が辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を音声キーワードとして抽出してもよい。これにより、音声キーワードを抽出するアルゴリズムの負荷を低減させることができる。 Further, in the present embodiment, when a word included in the voice matches any of the words stored in the dictionary database, the word may be extracted as a voice keyword. As a result, the load of the algorithm for extracting the voice keyword can be reduced.

また、本実施形態において、音声収集部が音声を収集してから所定の期間が経過したこと、音声特徴抽出部が抽出した音声の強さが所定の値を超えたこと、又は、音声キーワード抽出部が所定の単語を抽出したことに応答して、音声キーワード及び選択された感情キーワードを送信してもよい。これにより、検索の精度をさらに上げることができる。 Further, in the present embodiment, a predetermined period has passed since the voice collecting unit collected the voice, the strength of the voice extracted by the voice feature extraction unit exceeded the predetermined value, or the voice keyword extraction. In response to the department extracting a predetermined word, a voice keyword and a selected emotion keyword may be transmitted. As a result, the accuracy of the search can be further improved.

また、本実施形態において、所定の検索による検索結果を出力してもよい。これにより、検索結果を話者に伝えたり、又は、話者が置かれた環境に反映させたりすることができる。 Further, in the present embodiment, a search result by a predetermined search may be output. As a result, the search result can be transmitted to the speaker or reflected in the environment in which the speaker is placed.

辞書データベース220に登録されている音声キーワードに一致するものとして、音声収集部200が収集した音声から抽出された音声キーワードとその関連語とに基づいて辞書データベース220を更新することにより、辞書データベース220のヒット率を高めることができる。これにより、辞書データベース220を最適化することができる。辞書データベース220を最適化することにより、音声収集部200が収集する音声(例えば、顧客が実際に発話した音声)に基づいて、商品又はサービスが実際に流行しているか否かを適切に判断することができる。また、音声収集部200が収集する音声は、送信装置110が置かれている場所で実際に収集された音声であるため、インターネット上の評価ではなく、現実社会における評価を基礎として、商品又はサービスが実際に流行しているか否かを判断できる。また、辞書データベース220の更新を繰り返すことにより、不要なキーワードは、辞書データベース220から削除されるため、辞書データベース220の記憶容量は少なくてもよい。これにより、送信装置110の小型化及び低消費電力化が可能となる。 The dictionary database 220 is updated by updating the dictionary database 220 based on the voice keywords extracted from the voice collected by the voice collection unit 200 and their related words as matching the voice keywords registered in the dictionary database 220. You can increase the hit rate of. As a result, the dictionary database 220 can be optimized. By optimizing the dictionary database 220, it is appropriately determined whether or not the product or service is actually popular based on the voice collected by the voice collecting unit 200 (for example, the voice actually spoken by the customer). be able to. Further, since the voice collected by the voice collecting unit 200 is the voice actually collected at the place where the transmitting device 110 is placed, the product or service is based on the evaluation in the real world, not the evaluation on the Internet. Can be determined whether or not is actually in fashion. Further, since unnecessary keywords are deleted from the dictionary database 220 by repeating the update of the dictionary database 220, the storage capacity of the dictionary database 220 may be small. This makes it possible to reduce the size and power consumption of the transmission device 110.

なお、以上説明した各実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。即ち、各実施形態に当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。例えば、各実施形態が備える各要素及びその配置、材料、条件、形状、サイズなどは、例示したものに限定されるわけではなく適宜変更することができる。また、各実施形態は例示であり、異なる実施形態で示した構成の部分的な置換又は組み合わせが可能であることは言うまでもなく、これらも本発明の特徴を含む限り本発明の範囲に包含される。 It should be noted that each of the embodiments described above is for facilitating the understanding of the present invention, and is not for limiting the interpretation of the present invention. The present invention can be modified / improved without departing from the spirit thereof, and the present invention also includes an equivalent thereof. That is, those skilled in the art with appropriate design changes to each embodiment are also included in the scope of the present invention as long as they have the features of the present invention. For example, each element included in each embodiment and its arrangement, material, condition, shape, size, and the like are not limited to those exemplified, and can be appropriately changed. In addition, each embodiment is an example, and it goes without saying that the configurations shown in different embodiments can be partially replaced or combined, and these are also included in the scope of the present invention as long as the features of the present invention are included. ..

100…検索システム、110…送信装置、120…検索装置、130…出力装置、200…音声収集部、210…音声キーワード抽出部、220…辞書データベース、230…音声特徴抽出部、240…感情キーワード選択部、250…感情データベース、260…送信部、300…キーワード受信部、310…検索実行部、320…データベース、330…検索結果送信部、400…検索結果受信部、410…検索結果出力部 100 ... Search system, 110 ... Transmission device, 120 ... Search device, 130 ... Output device, 200 ... Voice collection unit, 210 ... Voice keyword extraction unit, 220 ... Dictionary database, 230 ... Voice feature extraction unit, 240 ... Emotion keyword selection Unit, 250 ... Emotion database, 260 ... Transmission unit, 300 ... Keyword receiving unit, 310 ... Search execution unit, 320 ... Database, 330 ... Search result transmitting unit, 400 ... Search result receiving unit, 410 ... Search result output unit

Claims (12)

送信装置に接続するコンピュータを検索装置として機能させる検索プログラムであって、
前記送信装置は、
音声を収集して当該音声を示す音声データを生成する音声収集部と、
前記音声データから、前記音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、
前記音声データから、前記音声の強さ、速度及び抑揚の少なくとも一つを含む、前記音声の特徴を抽出する音声特徴抽出部と、
前記音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された前記音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、
抽出された前記音声キーワード及び選択された前記感情キーワードを前記コンピュータに送信する送信部と、
複数の単語が予め格納された辞書データベースと、
を備え、
前記音声キーワード抽出部は、前記音声に含まれる単語が前記辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を前記音声キーワードとして抽出し、
前記コンピュータは、前記音声キーワード及び前記感情キーワードに基づく検索処理を実行し、
前記検索プログラムは、前記コンピュータに、
前記音声キーワードを格納するキーワードデータベースと、
前記辞書データベースの更新指示を前記送信装置から受信する受信部と、
前記受信部を通じて受信された前記更新指示に応答して、前記キーワードデータベースに格納されている音声キーワードの関連語を推測する推測部と、
前記キーワードデータベースに格納されている音声キーワードと、前記推測された関連語とに基づいて、更新後の辞書データベースを作成する辞書データベース作成部と、
前記更新後の辞書データベースを前記送信装置に送信する送信部と、
を実現させる、検索プログラム。
A search program that allows the computer connected to the transmitter to function as a search device.
The transmitter is
A voice collection unit that collects voice and generates voice data indicating the voice,
A voice keyword extraction unit that extracts voice keywords that are keywords included in the voice from the voice data,
A voice feature extraction unit that extracts the voice features including at least one of the voice strength, speed, and intonation from the voice data.
An emotion keyword selection unit that selects an emotion keyword corresponding to the extracted voice characteristics from a group of emotion keywords stored in advance based on the voice characteristics.
A transmitter that transmits the extracted voice keyword and the selected emotion keyword to the computer .
A dictionary database with multiple words stored in advance and
With
When the word included in the voice matches any of the words stored in the dictionary database, the voice keyword extraction unit extracts the word as the voice keyword.
The computer executes a search process based on the voice keyword and the emotion keyword, and performs search processing.
The search program is applied to the computer.
A keyword database that stores the voice keywords and
A receiving unit that receives an update instruction of the dictionary database from the transmitting device, and
In response to the update instruction received through the receiving unit, the guessing unit that infers the related words of the voice keywords stored in the keyword database, and
A dictionary database creation unit that creates an updated dictionary database based on the voice keywords stored in the keyword database and the inferred related words.
A transmitter that transmits the updated dictionary database to the transmitter,
A search program that realizes.
請求項1に記載の検索プログラムであって、
前記送信装置は、ラッセルの感情円環モデルに含まれるキーワードを、前記キーワード群として格納する感情データベースをさらに備える、検索プログラム
The search program according to claim 1.
The transmission device is a search program further including an emotion database that stores keywords included in Russell's emotion ring model as the keyword group.
請求項1又は2に記載の検索プログラムであって、
前記送信部は、前記音声収集部が音声を収集してから所定の期間が経過したことに応答して、前記音声キーワード及び選択された前記感情キーワードを前記コンピュータに送信する、検索プログラム
The search program according to claim 1 or 2.
The transmitting unit is a search program that transmits the voice keyword and the selected emotion keyword to the computer in response to the elapse of a predetermined period after the voice collecting unit collects the voice.
請求項1乃至3のうち何れか1項に記載の検索プログラムであって、
前記音声特徴抽出部は、前記音声の特徴として、少なくとも前記音声の強さを抽出し、
前記送信部は、前記音声特徴抽出部が抽出した前記音声の強さが所定の値を超えたことに応答して、前記音声キーワード及び選択された前記感情キーワードを前記コンピュータに送信する、検索プログラム
The search program according to any one of claims 1 to 3.
The voice feature extraction unit extracts at least the strength of the voice as a feature of the voice.
The transmission unit is a search program that transmits the voice keyword and the selected emotion keyword to the computer in response to the voice intensity extracted by the voice feature extraction unit exceeding a predetermined value . ..
請求項1乃至4のうち何れか1項に記載の検索プログラムであって、
前記送信部は、前記音声キーワード抽出部が所定の単語を抽出したことに応答して、前記音声キーワード及び選択された前記感情キーワードを前記コンピュータに送信する、検索プログラム
The search program according to any one of claims 1 to 4.
The transmission unit is a search program that transmits the voice keyword and the selected emotion keyword to the computer in response to the voice keyword extraction unit extracting a predetermined word.
請求項1乃至5のうち何れか1項に記載の検索プログラムであって、The search program according to any one of claims 1 to 5.
前記コンピュータは、前記検索処理の実行結果を出力する出力装置に接続している、検索プログラム。The computer is a search program connected to an output device that outputs an execution result of the search process.
送信装置に接続する検索装置であって、
前記送信装置は、
音声を収集して当該音声を示す音声データを生成する音声収集部と、
前記音声データから、前記音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、
前記音声データから、前記音声の強さ、速度及び抑揚の少なくとも一つを含む、前記音声の特徴を抽出する音声特徴抽出部と、
前記音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された前記音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、
抽出された前記音声キーワード及び選択された前記感情キーワードを前記検索装置に送信する送信部と、
複数の単語が予め格納された辞書データベースと、
を備え、
前記音声キーワード抽出部は、前記音声に含まれる単語が前記辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を前記音声キーワードとして抽出し、
前記検索装置は、前記音声キーワード及び前記感情キーワードに基づく検索処理を実行し、
前記検索装置は、
前記音声キーワードを格納するキーワードデータベースと、
前記辞書データベースの更新指示を前記送信装置から受信する受信部と、
前記受信部を通じて受信された前記更新指示に応答して、前記キーワードデータベースに格納されている音声キーワードの関連語を推測する推測部と、
前記キーワードデータベースに格納されている音声キーワードと、前記推測された関連語とに基づいて、更新後の辞書データベースを作成する辞書データベース作成部と、
前記更新後の辞書データベースを前記送信装置に送信する送信部と、
を備える、検索装置。
A search device that connects to a transmitter
The transmitter is
A voice collection unit that collects voice and generates voice data indicating the voice,
A voice keyword extraction unit that extracts voice keywords that are keywords included in the voice from the voice data,
A voice feature extraction unit that extracts the voice features including at least one of the voice strength, speed, and intonation from the voice data.
An emotion keyword selection unit that selects an emotion keyword corresponding to the extracted voice characteristics from a group of emotion keywords stored in advance based on the voice characteristics.
A transmission unit that transmits the extracted voice keyword and the selected emotion keyword to the search device, and
A dictionary database with multiple words stored in advance and
With
When the word included in the voice matches any of the words stored in the dictionary database, the voice keyword extraction unit extracts the word as the voice keyword.
The search device executes a search process based on the voice keyword and the emotion keyword, and performs search processing.
The search device is
A keyword database that stores the voice keywords and
A receiving unit that receives an update instruction of the dictionary database from the transmitting device, and
In response to the update instruction received through the receiving unit, the guessing unit that infers the related words of the voice keywords stored in the keyword database, and
A dictionary database creation unit that creates an updated dictionary database based on the voice keywords stored in the keyword database and the inferred related words.
A transmitter that transmits the updated dictionary database to the transmitter,
A search device.
送信装置に接続するコンピュータにおいて実行される検索方法であって、
前記送信装置は、
音声を収集して当該音声を示す音声データを生成することと、
前記音声データから、前記音声に含まれるキーワードである音声キーワードを抽出することと、
前記音声データから、前記音声の強さ、速度及び抑揚の少なくとも一つを含む、前記音声の特徴を抽出することと、
前記音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された前記音声の特徴に対応する感情キーワードを選択することと、
抽出された前記音声キーワード及び選択された前記感情キーワードを前記コンピュータに送信することと、
複数の単語が予め格納された辞書データベースを実現することと、
を実行し、
前記音声キーワードを抽出することは、前記音声に含まれる単語が前記辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を前記音声キーワードとして抽出することを含み、
前記コンピュータは、前記音声キーワード及び前記感情キーワードに基づく検索処理を実行し、
前記コンピュータは、
前記音声キーワードを格納するキーワードデータベースを実現し、
前記辞書データベースの更新指示を前記送信装置から受信し、
前記受信された前記更新指示に応答して、前記キーワードデータベースに格納されている音声キーワードの関連語を推測し、
前記キーワードデータベースに格納されている音声キーワードと、前記推測された関連語とに基づいて、更新後の辞書データベースを作成し、
前記更新後の辞書データベースを前記送信装置に送信する、検索方法。
A search method performed on the computer connected to the transmitter.
The transmitter is
Collecting voice and generating voice data indicating the voice,
Extracting a voice keyword, which is a keyword included in the voice, from the voice data,
Extracting the characteristics of the voice, including at least one of the strength, speed and intonation of the voice, from the voice data.
To select an emotional keyword corresponding to the extracted voice characteristic from a group of emotional keywords stored in advance based on the voice characteristic.
Sending the extracted voice keyword and the selected emotion keyword to the computer, and
To realize a dictionary database in which multiple words are stored in advance,
And run
Extracting the voice keyword includes extracting the word as the voice keyword when the word contained in the voice matches any of the words stored in the dictionary database.
The computer executes a search process based on the voice keyword and the emotion keyword, and performs search processing.
The computer
A keyword database for storing the voice keywords has been realized.
Upon receiving the update instruction of the dictionary database from the transmitter,
In response to the received update instruction, the related word of the voice keyword stored in the keyword database is inferred.
An updated dictionary database is created based on the voice keywords stored in the keyword database and the inferred related words.
A search method for transmitting the updated dictionary database to the transmitting device.
請求項8に記載の検索方法であって、
前記送信装置は、前記送信装置の位置情報を前記コンピュータに送信する、検索方法
The search method according to claim 8.
A search method in which the transmitting device transmits the position information of the transmitting device to the computer .
請求項1乃至6のうち何れか1項に記載の検索プログラムであって、前記推測部は、人工知能を応用して前記音声キーワードの関連語を推測する、検索プログラム。The search program according to any one of claims 1 to 6, wherein the guessing unit guesses a related word of the voice keyword by applying artificial intelligence. 請求項7に記載の検索装置であって、前記推測部は、人工知能を応用して前記音声キーワードの関連語を推測する、検索装置。The search device according to claim 7, wherein the guessing unit guesses a related word of the voice keyword by applying artificial intelligence. 請求項8又は9に記載の検索方法であって、前記音声キーワードの関連語を推測することは、人工知能を応用して、前記音声キーワードの関連語を推測することを含む、検索方法。 The search method according to claim 8 or 9, wherein guessing a related word of the voice keyword includes guessing a related word of the voice keyword by applying artificial intelligence.
JP2018542405A 2016-09-29 2017-09-15 Transmission device, transmission method and transmission program Active JP6781961B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016190878 2016-09-29
JP2016190878 2016-09-29
PCT/JP2017/033563 WO2018061839A1 (en) 2016-09-29 2017-09-15 Transmission device, transmission method, and transmission program

Publications (2)

Publication Number Publication Date
JPWO2018061839A1 JPWO2018061839A1 (en) 2019-06-27
JP6781961B2 true JP6781961B2 (en) 2020-11-11

Family

ID=61759571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018542405A Active JP6781961B2 (en) 2016-09-29 2017-09-15 Transmission device, transmission method and transmission program

Country Status (2)

Country Link
JP (1) JP6781961B2 (en)
WO (1) WO2018061839A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6611091B2 (en) * 2017-05-11 2019-11-27 株式会社村田製作所 Information processing system, information processing apparatus, computer program, and dictionary database update method
CN109087670B (en) * 2018-08-30 2021-04-20 西安闻泰电子科技有限公司 Emotion analysis method, system, server and storage medium
CN111312245B (en) * 2020-02-18 2023-08-08 腾讯科技(深圳)有限公司 Voice response method, device and storage medium
CN113808577A (en) * 2021-09-18 2021-12-17 平安银行股份有限公司 Intelligent extraction method, device, electronic device and storage medium for speech abstract

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4451037B2 (en) * 2001-12-06 2010-04-14 株式会社ユニバーサルエンターテインメント Information search system and information search method
JP2005275601A (en) * 2004-03-23 2005-10-06 Fujitsu Ltd Information retrieval system by voice
JP4609527B2 (en) * 2008-06-03 2011-01-12 株式会社デンソー Automotive information provision system
JP5446540B2 (en) * 2009-07-24 2014-03-19 株式会社Jvcケンウッド Information retrieval apparatus, control method, and program
JP5610197B2 (en) * 2010-05-25 2014-10-22 ソニー株式会社 SEARCH DEVICE, SEARCH METHOD, AND PROGRAM
JP2014149571A (en) * 2013-01-31 2014-08-21 Nikon Corp Content search device
JP6514503B2 (en) * 2014-12-25 2019-05-15 クラリオン株式会社 Intention estimation device and intention estimation system

Also Published As

Publication number Publication date
JPWO2018061839A1 (en) 2019-06-27
WO2018061839A1 (en) 2018-04-05

Similar Documents

Publication Publication Date Title
US11238871B2 (en) Electronic device and control method thereof
US11200506B2 (en) Chatbot integrating derived user intent
JP6951712B2 (en) Dialogue devices, dialogue systems, dialogue methods, and programs
JP6781961B2 (en) Transmission device, transmission method and transmission program
US11568853B2 (en) Voice recognition method using artificial intelligence and apparatus thereof
CN109033156B (en) Information processing method and device and terminal
JP2019536119A (en) User interest identification method, apparatus, and computer-readable storage medium
US20220148576A1 (en) Electronic device and control method
US11393459B2 (en) Method and apparatus for recognizing a voice
KR20210155401A (en) Speech synthesis apparatus for evaluating the quality of synthesized speech using artificial intelligence and method of operation thereof
CN110634474B (en) Speech recognition method and device based on artificial intelligence
US11328718B2 (en) Speech processing method and apparatus therefor
US11830478B2 (en) Learning device, learning method, and learning program for images and sound which uses a similarity matrix
KR20210052036A (en) Apparatus with convolutional neural network for obtaining multiple intent and method therof
KR102355152B1 (en) Method for searching content and electronic device thereof
KR102688236B1 (en) Voice synthesizer using artificial intelligence, operating method of voice synthesizer and computer readable recording medium
KR20210044475A (en) Apparatus and method for determining object indicated by pronoun
CN117079299A (en) Data processing method, device, electronic equipment and storage medium
KR20210153165A (en) An artificial intelligence device that provides a voice recognition function, an operation method of the artificial intelligence device
JP6804049B2 (en) Information display program, data transmission program, data transmission device, data transmission method, information provision device and information provision method
KR102642617B1 (en) Voice synthesizer using artificial intelligence, operating method of voice synthesizer and computer readable recording medium
KR102631143B1 (en) Voice synthesizer using artificial intelligence, operating method of voice synthesizer and computer redable recording medium
CN112017740A (en) Disease inference method, device, equipment and storage medium based on knowledge graph
CN113763929A (en) Voice evaluation method and device, electronic equipment and storage medium
US20190287070A1 (en) Query expansion for candidate selection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201001

R150 Certificate of patent or registration of utility model

Ref document number: 6781961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150