JP2019060921A - Information processor and program - Google Patents
Information processor and program Download PDFInfo
- Publication number
- JP2019060921A JP2019060921A JP2017183342A JP2017183342A JP2019060921A JP 2019060921 A JP2019060921 A JP 2019060921A JP 2017183342 A JP2017183342 A JP 2017183342A JP 2017183342 A JP2017183342 A JP 2017183342A JP 2019060921 A JP2019060921 A JP 2019060921A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- unit
- data
- emotion
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
特許文献1には、取得した口の動きの画像に基づいて、その動きに対応する文字を抽出し、その文字を用いて音声を生成して通信先に送信する携帯端末装置が開示されている。
特許文献2には、マイクロフォンに入力される音の大きさがあらかじめ定められた閾値以上である場合には、着信時に読唇通話モードを選択する画面を表示部に表示させ、読唇通話モードが選択されると通話モードを読唇通話モードに切り替え、読唇通話モードに切り替えられると、撮像装置で撮像して得られた画像から話者の唇の形状を検出して言葉の音声データ及びテキストデータの少なくとも一方に変換し、外部に送信する携帯端末装置が開示されている。
According to
本発明は、話者の口の動きからその話者の発言に対応するデータを生成して表現する際に、そのデータをその話者の感情に沿った態様で表現することを目的とする。 An object of the present invention is, when generating and expressing data corresponding to a speaker's utterance from the movement of the speaker's mouth, to express the data in a mode in accordance with the speaker's emotion.
本発明の請求項1に係る情報処理装置は、話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部と、を有する情報処理装置である。
The information processing apparatus according to
本発明の請求項2に係る情報処理装置は、請求項1に記載の態様において、抽出された前記変化から前記発言を特定する特定部と、前記感情を推定する推定部と、を有し、前記生成部は、前記特定部により特定された前記発言と、前記推定部により推定された前記感情と、に対応する前記データを生成することを特徴とする情報処理装置である。 An information processing apparatus according to a second aspect of the present invention, in the aspect according to the first aspect, includes an identifying unit that identifies the utterance from the extracted change, and an estimating unit that estimates the emotion. The generation unit is an information processing apparatus characterized by generating the data corresponding to the utterance specified by the specification unit and the emotion estimated by the estimation unit.
本発明の請求項3に係る情報処理装置は、請求項2に記載の態様において、前記話者の生体情報を取得する第2取得部、を有し、前記推定部は、取得した前記生体情報に応じて前記感情を推定することを特徴とする情報処理装置である。 An information processing apparatus according to a third aspect of the present invention, in the aspect according to the second aspect, further includes a second acquisition unit that acquires biological information of the speaker, and the estimation unit acquires the biological information acquired. The information processing apparatus is characterized in that the emotion is estimated according to.
本発明の請求項4に係る情報処理装置は、請求項2又は3に記載の態様において、前記推定部は、前記画像から前記話者の表情を抽出して、該表情に応じて前記感情を推定することを特徴とする情報処理装置である。 In the information processing apparatus according to a fourth aspect of the present invention, in the aspect according to the second or third aspect, the estimation unit extracts the expression of the speaker from the image, and the emotion is calculated according to the expression. It is an information processing apparatus characterized by estimating.
本発明の請求項5に係る情報処理装置は、請求項1から4のいずれか1項に記載の態様において、前記生成部は、前記発言から音素を選択し、該音素から前記感情に対応する表現の音声を示す前記データを生成することを特徴とする情報処理装置である。 In the information processing apparatus according to a fifth aspect of the present invention, in the aspect according to any one of the first to fourth aspects, the generation unit selects a phoneme from the utterance, and corresponds to the emotion from the phoneme. It is an information processor characterized by generating the data which show the voice of expression.
本発明の請求項6に係る情報処理装置は、請求項2から4のいずれか1項に記載の態様において、前記特定部は、前記話者の発言の速度及び音量の少なくとも一方を特定し、前記生成部は、前記発言から音素を選択し、該音素から前記感情に対応する表現であって、前記特定部により特定された前記速度又は音量の前記データを生成することを特徴とする情報処理装置である。 In the information processing apparatus according to a sixth aspect of the present invention, in the aspect according to any one of the second to fourth aspects, the identification unit identifies at least one of the speed and volume of the speaker's speech; The generation unit is configured to select a phoneme from the utterance, and to generate the data of the velocity or volume specified by the specification unit, which is an expression corresponding to the emotion from the phoneme. It is an apparatus.
本発明の請求項7に係る情報処理装置は、請求項1から6のいずれか1項に記載の態様において、前記生成部は、前記話者の音声を示す話者データを用いて前記データを生成することを特徴とする情報処理装置である。 An information processing apparatus according to a seventh aspect of the present invention is the information processing apparatus according to any one of the first to sixth aspects, wherein the generation unit uses the speaker data indicating the voice of the speaker. An information processing apparatus characterized by generating.
本発明の請求項8に係る情報処理装置は、請求項7に記載の態様において、前記生成部は、前記話者の音声のうち、推定された前記感情に対応する音声を示す前記話者データを用いて前記データを生成することを特徴とする情報処理装置である。 In the information processing apparatus according to an eighth aspect of the present invention, in the aspect according to the seventh aspect, the generation unit transmits the speaker data indicating a voice corresponding to the estimated emotion among the voices of the speaker An information processing apparatus characterized by generating the data using
本発明の請求項9に係る情報処理装置は、請求項3に記載の態様において、前記生成部は、前記話者の音声のうち、前記話者の生体情報に対応する音声を示す話者データを用いて前記データを生成することを特徴とする情報処理装置である。 An information processing apparatus according to a ninth aspect of the present invention is the information processing apparatus according to the third aspect, wherein the generation unit is speaker data indicating a voice corresponding to biological information of the speaker among voices of the speaker An information processing apparatus characterized by generating the data using
本発明の請求項10に係る情報処理装置は、請求項1から9のいずれか1項に記載の態様において、前記生成部は、前記話者から決められた操作を受付けた場合に、前記データを生成することを特徴とする情報処理装置である。 An information processing apparatus according to a tenth aspect of the present invention is the information processing apparatus according to any one of the first to ninth aspects, wherein the generation unit receives the operation determined from the speaker. An information processing apparatus characterized by generating
本発明の請求項11に係る情報処理装置は、請求項1から10のいずれか1項に記載の態様において、前記話者の発した声の音量を計測する計測部、を有し、前記生成部は、前記音量が決められた閾値未満である場合に、前記データを生成することを特徴とする情報処理装置である。 An information processing apparatus according to an eleventh aspect of the present invention, in the aspect according to any one of the first to tenth aspects, further comprising: a measurement unit that measures the volume of the voice uttered by the speaker; The information processing apparatus is characterized in that the unit generates the data when the volume is less than a predetermined threshold.
本発明の請求項12に係る情報処理装置は、請求項1から10のいずれか1項に記載の態様において、前記話者の周囲の光量を計測する計測部、を有し、前記生成部は、前記光量が決められた閾値未満である場合に、前記データの生成を停止することを特徴とする情報処理装置である。 An information processing apparatus according to a twelfth aspect of the present invention, in the aspect according to any one of the first to tenth aspects, further comprising: a measurement unit that measures a light amount around the speaker; The information processing apparatus is characterized in that generation of the data is stopped when the light amount is less than a determined threshold.
本発明の請求項13に係る情報処理装置は、請求項1から12のいずれか1項に記載の態様において、前記生成部が前記データを生成するか否かを通知する、ことを特徴とする情報処理装置である。
The information processing apparatus according to
本発明の請求項14に係るプログラムは、コンピュータを、話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部、として機能させるためのプログラムである。 A program according to a fourteenth aspect of the present invention is a computer comprising: a first acquisition unit for acquiring an image obtained by imaging a speaker's face a plurality of times; and a change in the shape of the speaker's mouth from the image. It is a program for functioning as a generation part which generates data corresponding to a talk of the speaker specified, and an emotion of the speaker presumed.
請求項1、2、14に係る発明によれば、話者の口の動きからその話者の発言に対応するデータを生成して表現する際に、そのデータをその話者の感情に沿った態様で表現することができる。
請求項3に係る発明によれば、表現に用いられる話者の感情は、その話者の生体情報に応じて推定される。
請求項4に係る発明によれば、話者の表情から話者の感情が推定される。
請求項5に係る発明によれば、音素を合成して音声を示すデータが合成される。
請求項6に係る発明によれば、発言の速度及び音量の少なくとも一方が合成されるデータに反映される。
請求項7に係る発明によれば、話者の音声に応じたデータが合成される。
請求項8に係る発明によれば、話者の感情に対応する音声を用いてデータが合成される。
請求項9に係る発明によれば、話者の生体情報に対応する音声を用いてデータが合成される。
請求項10に係る発明によれば、話者が決められた操作を行うことでデータが合成される。
請求項11に係る発明によれば、話者の発した声の音量が閾値未満である場合にデータが合成される。
請求項12に係る発明によれば、話者の周囲の光量が閾値未満である場合にデータの合成が停止される。
請求項13に係る発明によれば、話者の発言及び感情に応じたデータが合成されるか否かを知ることができる。
According to the inventions of
According to the third aspect of the present invention, the emotion of the speaker used for expression is estimated according to the biological information of the speaker.
According to the invention of
According to the fifth aspect of the present invention, data indicative of speech is synthesized by synthesizing phonemes.
According to the invention of
According to the seventh aspect of the invention, data corresponding to the voice of the speaker is synthesized.
According to the invention of claim 8, the data is synthesized using the voice corresponding to the emotion of the speaker.
According to the invention of claim 9, the data is synthesized by using the voice corresponding to the biometric information of the speaker.
According to the invention of claim 10, the data is synthesized by the speaker performing the determined operation.
According to the invention of
According to the invention of
According to the invention as set forth in
1.実施形態
1−1.通話システムの全体構成
図1は、本実施形態に係る通話システム9の構成の例を示す図である。通話システム9は、話者が利用する端末1a、話者の通話の相手が利用する端末1b(以下、端末1a、1bを区別しない場合に、単に「端末1」と表記する)、及び、これらの端末1を互いに接続する通信回線3を有する。また、図1に示す通話システム9は、話者の手首等、身体のいずれかの部位に装着され、話者の生体の情報(以下、「生体情報」という)を測定する測定装置2を有している。生体情報とは、例えば、血圧、体温、発汗量、脈拍数、心拍のパターン等で示される情報である。
1. Embodiment 1-1. Overall Configuration of Call System FIG. 1 is a diagram showing an example of a configuration of a call system 9 according to the present embodiment. The call system 9 includes a
1−2.測定装置の構成
図2は、測定装置2の構成の例を示す図である。測定装置2は、制御部21、記憶部22、通信部23、及び測定部28を有する。
1-2. Configuration of Measuring Device FIG. 2 is a view showing an example of the configuration of the
制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有し、CPUがROM及び記憶部22に記憶されているコンピュータプログラム(以下、単にプログラムという)を読み出して実行することにより測定装置2の各部を制御する。
The
記憶部22は、ソリッドステートドライブ等の記憶手段であり、制御部21のCPUに読み込まれる各種のプログラムを記憶する。
The
測定部28は、端末1を利用する話者の生体情報を測定するデバイスである。測定部28は、例えば、LED(Light Emitting Diode)等、照射装置により、決められた波長の光を話者の手首の組織へ照射し、血管中を流れる血液に含まれるヘモグロビンに吸収されずに反射された反射光を受光素子によって受光して、その反射光の経時変化の周期から脈拍数を測定する脈拍計である。また、測定部28は、話者の血圧、体温、発汗量、心拍のパターン等を測定してもよい。
The
通信部23は、無線又は有線により端末1に接続する通信回路である。測定装置2は、通信部23により端末1に測定部28が測定した結果を示す生体情報を供給する。
The
1−3.端末の構成
図3は、端末1の構成の例を示す図である。端末1は、制御部11、記憶部12、通信部13、表示部14、操作部15、収音部16、放音部17、及び撮像部18を有する。
1-3. Terminal Configuration FIG. 3 is a diagram showing an example of the configuration of the
制御部11は、CPU、ROM、RAMを有し、CPUがROM及び記憶部12に記憶されているプログラムを読み出して実行することにより端末1の各部を制御する。
The
操作部15は、各種の指示をするための操作ボタン、キーボード等の操作子を備えており、利用者による操作を受付けてその操作内容に応じた信号を制御部11に供給する。操作部15は、利用者の指又はスタイラスペン等の操作体を検知するタッチパネルを有してもよい。
The
表示部14は、液晶ディスプレイ等の表示画面を有しており、制御部11の制御の下、画像を表示する。表示画面の上には、操作部15の透明のタッチパネルが重ねて配置されてもよい。
The
収音部16は、話者の音声を収録して音声信号に変換するマイクロフォン等である。
放音部17は、制御部11から供給される音声信号を音に変換して放出するスピーカ等である。
撮像部18は、CMOS(Complementary Metal Oxide Semiconductor)又はCCD(Charge Coupled Device)等の撮像素子と、これら撮像素子に像を結像する光学系を備える。撮像部18は、いわゆるインカメラであり、撮像素子で得られた画像を示す画像データを生成する。端末1を話者が利用するとき、撮像部18は、話者の顔を複数回にわたって撮像する。
The
The
The
なお、この撮像部18は、話者の顔を複数回にわたって撮像することに代えて、その話者の顔を示す動画像を1回撮影することで、複数の静止画像を示す画像データを得てもよい。
In addition, this
通信部13は、第1通信部131及び第2通信部132を有する。第1通信部131は、無線又は有線により通信回線3と接続する通信回路である。第2通信部132は、無線又は有線により測定装置2と接続する通信回路である。第2通信部132による通信には、例えば、IEEE802.15に準拠した近接無線通信方式等が適用される。
The
記憶部12は、ソリッドステートドライブ、ハードディスクドライブ等の大容量の記憶手段であり、制御部11のCPUに読み込まれる各種のプログラムを記憶する。また、記憶部12は、感情DB121、発言DB122、表現DB123、及び音素DB124を記憶する。
The
図4は、記憶部12に記憶される各種のデータベースを示す図である。図4(a)に示す感情DB121は、話者の表情に関する条件(「表情条件」という)と、話者の生体情報に関する条件(「生体条件」という)と、これら表情条件及び生体条件の少なくとも一方を満たすときの話者の感情を識別するための識別情報(「感情ID」という)とを対応付けて記憶する。感情とは、例えば「喜び」「怒り」「悲しみ」「驚き」「興奮」「困惑」「疑問」「焦り」等である。
FIG. 4 is a diagram showing various databases stored in the
表情条件は、例えば、話者の顔を撮像した画像から、その話者の口角、眉、瞳等、表情を構成する各部位の位置や動きの範囲を定めた条件である。生体条件は、第2通信部132を介して測定装置2から取得した話者の生体情報から、その話者の血圧、体温、発汗量、脈拍数、心拍のパターン等の範囲を定めた条件である。
The expression condition is, for example, a condition in which the position and the range of movement of each part constituting the expression, such as the mouth angle, eyebrow and pupil of the speaker, are defined from the image obtained by imaging the speaker's face. The living condition is a condition that defines the range of the speaker's blood pressure, body temperature, amount of sweating, pulse rate, heart rate pattern, etc. from the speaker's biological information acquired from the measuring
この感情DB121を参照することにより、制御部11は、例えば、話者の口角が決められた基準を超えて上がっているという表情条件を満たしていると判定し、かつ、脈拍数が決められた範囲にあるという生体条件を満たしていると判定するとき、この話者がこの表情条件及び生体条件に対応付けられた「喜び」の感情を有している、と特定する。なお、制御部11は、表情条件及び生体条件のいずれか一方を満たしていると判定するときに、その条件に対応付けられた感情を有していると特定してもよい。
By referring to the
図4(b)に示す発言DB122は、話者の口又は唇の形状に関する条件(「口唇条件」という)と、その口唇条件を満たすときに話者の発言を示す情報(「発言情報」という)とを対応付けて記憶する。この発言DB122を参照することにより、制御部11は、話者の口又は唇の形状から話者の発言を特定する。
The
発言情報により示される発言は、話者が用いる言語において区別される音の単位である音声素片(「音素」という)であってもよいが、いくつかの音素の組合せで構成される単語であってもよい。 The utterance indicated by the utterance information may be a speech segment (referred to as a "phoneme") which is a unit of sound distinguished in the language used by the speaker, but is a word composed of a combination of several phonemes. It may be.
図4(c)に示す表現DB123は、感情IDと、音声の表現の態様を示す情報(「表現情報」という)とを対応付けて記憶する。表現DB123を参照することにより、制御部11は、指定された感情IDで示される感情を話者が有しているときに、その話者の音声が表現される態様を特定する。
The
音声が表現される態様とは、具体的には、例えば、音声の強勢、抑揚、音程、リズム等の韻律で示される態様である。表現DB123には、例えば、「喜び」の感情に対して、「全体的に高めの音程で、語頭と語尾とが閾値以上の高い音程になる抑揚」が、「怒り」の感情に対して、「全体的に低めの音程で、音程の変化が閾値未満になる抑揚」が、それぞれ表現情報として対応付けられている。
Specifically, the aspect in which the speech is expressed is, for example, an aspect indicated by prosody such as stress, intonation, pitch, or rhythm of speech. In the
感情と、音声が表現される態様との対応関係は、複数の人の標本を統計的に処理して決定されてもよいし、端末1を利用する話者の標本を統計的に処理して決定されてもよい。なお、統計的に処理するとは、例えば、閾値との比較による異常値の除去や、相加平均・相乗平均の算出、最頻値・中央値等の代表値の特定等である。
The correspondence between the emotion and the manner in which the voice is expressed may be determined by statistically processing a plurality of human samples, or by statistically processing a sample of a speaker using the
図4(d)に示す音素DB124は、発言情報と、その発言情報により示される発言を人が発声したときの音素を示す音素データとを対応付けて記憶する。
The
音素データは、複数の人が音素を発声したときの波形データを統計的に処理して生成された音声信号であってもよいし、端末1を利用する話者が過去に録音した音声を示すデータ(「話者データ」という)を統計的に処理して生成された音声信号であってもよい。
The phoneme data may be a voice signal generated by statistically processing waveform data when a plurality of persons utter a phoneme, or indicates a voice recorded by a speaker using the
1−4.端末の機能的構成
図5は、端末1の機能的構成を示す図である。図5に示す端末1の制御部11は、図1に示す記憶部12に記憶されたプログラムを実行することにより、特定部111、推定部112、選択部113、生成部114、第1取得部117、及び第2取得部118として機能する。また、図5に示す制御部11は、上述したプログラムを実行することにより、計測部119、及び受付部110として機能する。
1-4. Functional Configuration of Terminal FIG. 5 is a diagram showing a functional configuration of the
第1取得部117は、撮像部18が話者の顔を複数回にわたって撮像した画像を取得する。特定部111は、画像から話者の口の形状の変化を抽出して、話者の発言を特定する。
The
また、特定部111は、取得した画像から抽出された話者の口唇情報を用いて、例えば、開いた口の大きさや形状、それらの変化の速度を解析することにより、話者の発言の速度及び音量の少なくとも一方を特定してもよい。
In addition, the
第2取得部118は、第2通信部132を介して測定装置2と通信し、測定装置2を装着した話者の生体情報を取得する。推定部112は、第1取得部117が取得した話者の画像からその話者の表情を抽出する。そして推定部112は、抽出したその表情と第2取得部118が取得した生体情報とをそれぞれ感情DB121に定められた表情条件及び生体条件に照合してこの話者の感情を推定する。
The
選択部113は、特定された話者の発言を示す発言情報に基づいて音素DB124を検索し、この発言情報に対応する音素データを選択する。選択部113が選択する音素データは、1つの発言情報に対して1つであってもよいし、複数であってもよい。
The
生成部114は、特定された話者の発言、及び推定された話者の感情に応じた音声データを生成する。生成部114は、例えば、選択された音素データを、推定された感情に応じて変形し、発言に沿った配列に並べて互いに接続することで音声データを生成する。つまり、選択部113及び生成部114の機能を合わせると、特定部111で特定された話者の発言から音素を選択し、選択されたその音素から話者の感情に対応する表現の音声を示す音声データを生成する機能となる。
The
生成部114は、音声データを生成すると、通信部13の第1通信部131を介して、通話の相手が利用する端末1にこの音声データを送信する。なお、送信先の端末1bは、音声データを生成した端末1aの機能を全て有していなくてもよく、端末1aから受信した音声データを例えば放音部17から出力する機能を有していればよい。
After generating the voice data, the
上述した機能を制御部11が実現することで、端末1は、話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、画像から話者の口の形状の変化を抽出して、話者の発言を特定する特定部と、話者の感情を推定する推定部と、発言、及び感情に応じたデータを生成する生成部と、を有する情報処理装置として機能する。
By the
なお、音素DB124に記憶されている音素データが、話者データに基づいて生成された音声信号である場合、生成部114は、話者データに基づいて生成された音声信号を用いて上述した音声データを生成する。この場合、生成された音声データには、端末1を利用する話者の音声に固有の特徴が含まれる可能性が高い。
When the phoneme data stored in the
計測部119は、話者の発した声の音量を計測する。生成部114は、計測された音量が決められた閾値未満である場合に、音声データを生成する。この構成によれば、話者の発した声の音量が決められた程度に満たないときに、端末1は、話者の口唇の形状と動きから発言の内容(「発言内容」という)を特定して、その発言内容に応じた音声データを生成して相手の端末1に送信する。したがって、声が小さくて聞き取れない場合に、端末1は、発言内容に応じた音声データを生成して相手に送信する。
The measuring
また、計測部119は、話者の周囲の光量を計測する。例えば、計測部119は、第1取得部が取得した画像から上述した光量を計測してもよい。また、端末1は、話者の周囲の光量を測定する照度計等を有していてもよい。この場合、計測部119は、この照度計から上述した光量の情報を取得すればよい。
The measuring
生成部114は、計測された光量が決められた閾値未満である場合に、音声データの生成を停止する。この構成によれば、話者の周囲に決められた程度の明るさがないときに、話者の口唇の形状と動きから特定される発言内容に応じた音声データは生成されない。したがって、撮像した画像が暗すぎて話者の口唇の動きを特定することが困難になり、特定される発言内容が不正確になる可能性がある場合に、端末1は音声データを生成せず、相手に送信しない。
The
受付部110は、操作部15を介して話者の操作を受付ける。生成部114は、受付部110が話者から決められた操作を受付けた場合に、上述した音声データを生成する。例えば、生成部114は、受付部110が操作部15の決められたボタンを押してから離すまでの期間、すなわち、そのボタンを押下し続けている期間に、上述した音声データを生成する。
The
1−5.端末の動作
図6は、端末1の代表色及び配色候補を抽出する動作の流れを示すフロー図である。図6(a)に示すフロー図に沿って、端末1の制御部11は、第1通信部131を監視して他の端末1から着信があるか否かを判断する(ステップS101)。着信がないと判断する間(ステップS101;NO)、制御部11は、この判断を続ける。着信があると判断した場合(ステップS101;YES)、制御部11は、話者が着信を受けるモードを選択するための操作を受付けて、話者がモードを選択したか否かを判断する(ステップS102)。
1-5. Operation of Terminal FIG. 6 is a flowchart showing a flow of an operation of extracting a representative color and color arrangement candidate of the
話者が選択をしていないと判断する場合(ステップS102;NO)、制御部11は、この判断を続ける。話者が選択をしたと判断する場合(ステップS102;YES)、制御部11は、その選択したモードが、音声無しで通話を行うモード(「無音声モード」という)であるか否かを判断する(ステップS103)。
If it is determined that the speaker has not made a selection (step S102; NO), the
無音声モードが選択されていないと判断する場合(ステップS103;NO)、制御部11は、音声を介した通常の通話を行う(ステップS104)。無音声モードが選択されたと判断する場合(ステップS103;YES)、制御部11は、撮像部18を駆動して話者の顔を撮像させ(ステップS105)、撮像部18からそれらの画像を取得し、また、測定装置2から生体情報を取得する(ステップS106)。
When it is determined that the silent mode is not selected (step S103; NO), the
制御部11は、話者から発言するための操作(「発言操作」という)があったか否かを判断する(ステップS107)。発言操作は、例えば、操作部15の決められたボタンを押下し続けるといった操作である。発言操作がないと判断する間(ステップS107;NO)、制御部11は、この判断を続ける。
The
発言操作があると判断した場合(ステップS107;YES)、制御部11は、取得した画像から話者の口唇情報を抽出して話者の発言を特定する(ステップS108)。
If it is determined that there is a speaking operation (step S107; YES), the
また、制御部11は、取得した画像から抽出された話者の口唇情報を用いて、話者のしゃべり方の速度や、発しているはずの声の大きさ等を特定してもよい(ステップS109)。
In addition, the
制御部11は、取得した生体情報又は話者の顔の画像から、話者の感情を推定する(ステップS110)。制御部11は、特定した話者の発言に対応付けられた1つ又は複数の音素を示す音素データを選択し(ステップS111)、それらの音素データを推定した感情に沿って変形、接続して、その感情に応じた表現の音声データを生成する(ステップS112)。ステップS109で話者の発言の速度や音量を特定した場合に、これらの情報がこの音声データの生成に反映されてもよい。制御部11は、生成したこの音声を相手の端末1に送信する(ステップS113)。
The
以上の動作により、端末1は、話者の顔を複数回にわたって撮像した画像を取得して、その画像から話者の口の形状の変化を抽出してその発言を特定する。そして、端末1は、話者の感情を上述した画像又は生体情報から推定し、特定した発言と推定した感情とに応じた音声データを生成する。
By the above-described operation, the
図7は、話者の感情ごとに変化する音声の表現を説明するための図である。図7に示す表には左から右に向かって順に発音される音素が並んでおり、縦にはそれぞれ「喜び」「怒り」「悲しみ」等の話者の感情が並んでいる。そして図7には、それぞれの感情ごとに、各音素が発音されるときの音程が、対応する位置の棒グラフの高さで表されている。 FIG. 7 is a diagram for explaining the expression of voice that changes for each speaker's emotion. In the table shown in FIG. 7, the phonemes pronounced in order from left to right are arranged, and the emotions of the speaker such as "joy", "anger", "sadness" are arranged vertically. And in FIG. 7, the pitch when each phoneme is pronounced is represented by the height of the bar graph of the corresponding position for each emotion.
図7に示す通り、例えば、「ありがとうございました」という発言は11個の音素の並びで表される。話者が「喜び」の感情を抱いているときに、この発言は、話者が他の感情を抱いているときと比較して全体的に高めな音程になり、語頭と語尾とが閾値以上の高い音程になる。 As shown in FIG. 7, for example, the statement "thank you" is represented by a sequence of 11 phonemes. When the speaker has a feeling of "joy", this statement has an overall higher pitch compared to when the speaker has another feeling, and the beginning and end are above the threshold It becomes a high pitch.
一方、話者が「怒り」の感情を抱いているときに、この発言は、「喜び」の感情を抱いているときと比べて全体的に低めな音程になり、抑揚が比較的少ない。また、話者が「悲しみ」の感情を抱いているときには、この発言は、他の感情を抱いているときと比較して全体的に低めな音程になり、3つ目の音素から音程が下がり続ける。 On the other hand, when the speaker is feeling anger, this statement has an overall lower pitch than when feeling the joy, and there is relatively little intonation. In addition, when the speaker is feeling "sorrow", this statement has a pitch that is generally lower compared to when feeling the other feeling, and the pitch drops from the third phoneme. to continue.
この端末1の上述した動作によれば、話者の口の形状の変化から発言を特定し、特定した発言だけに基づいて生成された音声データを送信する端末に比べて、話者の感情に応じた表現で音声データが相手の端末に伝わる。
According to the above-described operation of the
2.変形例
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の変形例を組合せてもよい。
2. Although the embodiment has been described above, the contents of this embodiment can be modified as follows. Also, the following modifications may be combined.
2−1.変形例1
上述した実施形態において、推定部112は、第1取得部117が取得した画像から抽出した話者の表情と第2取得部118が取得した生体情報とを用いてこの話者の感情を推定していたが、表情及び生体情報のいずれか一方に基づいて推定してもよい。
2-1.
In the embodiment described above, the
例えば、推定部112は、第1取得部117が取得した画像から抽出した話者の表情からその話者の感情を推定してもよい。この場合、図4(a)に示した感情DB121に、生体条件の欄はなくてもよい。また、この場合、話者は測定装置2を自分の身体の部位に装着しなくてもよく、制御部11は、第2取得部118として機能しなくてもよい。
For example, the
2−2.変形例2
また、推定部112は、第2取得部118が取得した生体情報からその話者の感情を推定してもよい。この場合、図4(a)に示した感情DB121に、表情条件の欄はなくてもよい。また、この場合、推定部112は、第1取得部117が取得した画像から話者の表情を抽出しなくてもよい。
2-2.
Further, the
また、推定部112は、表情及び生体情報のそれぞれの条件のいずれか一方が満たされるときに、話者の感情を推定してもよい。
また、推定部112は、表情及び生体情報とは異なる条件に基づいて話者の感情を推定してもよい。例えば、推定部112は、収音部16により収録された話者の音声の特徴、韻律を特定して、これらに基づいて話者の感情を推定してもよい。
In addition, the
Further, the
2−3.変形例3
上述した実施形態において、生成部114及び選択部113は、特定部111で特定された話者の発言から音素を選択し、選択されたその音素から話者の感情に対応する表現の音声を示す音声データを生成する機能を有していたが、生成部114は、話者の発言の内容を示すデータを生成してもよい。
2-3.
In the embodiment described above, the
生成部114は、例えば、話者の発言の内容を文字で表したテキストデータを生成してもよい。この場合、生成部114は、推定部112によって推定された話者の感情を、注釈や、文字色、書体、下線付与等の文字修飾、フォントの選択等、テキストやテキストの表示態様を用いて表現してもよい。要するに、生成部114は、特定した発言、及び推定した感情に応じたデータを生成すればよい。
The
2−4.変形例4
上述した実施形態において、特定部111は、口唇情報を用いて、話者の発言の速度又は音量を特定していたが、これらを特定しなくてもよい。この場合にも、特定部111は口唇情報から話者の発言を特定し、生成部114がこの発言に応じたデータを生成する。
2-4.
In the embodiment described above, the
2−5.変形例5
上述した実施形態において、音素DB124は、発言情報と、その発言情報により示される発言を人が発声したときの音素を示す音素データとを対応付けて記憶していたが、この発言情報及び話者の発した音素を示す音素データの組を、話者の感情ごとに記憶してもよい。
2-5.
In the embodiment described above, the
例えば、同じ「あ」という発言を話者が発声するときであっても、話者が「喜び」の感情を有しているときと、「怒り」の感情を有しているときとでは、韻律が異なる場合がある。この変形例において音素DB124は、話者の感情ごとに、発言情報とこれに対応する音素データとの組を記憶する。
For example, even when the speaker utters the same utterance "A", when the speaker has an emotion of "joy" and an emotion of "anger", The prosody may be different. In this modification, the
この構成において、選択部113は、例えば、特定された話者の発言を示す発言情報と、推定された話者の感情を示す感情IDとに基づいて音素DB124を検索し、これらに対応する音素データを選択する。生成部114は、選択された音素データを接続して、上述した音声データを生成する。
In this configuration, the
2−6.変形例6
また、音素DB124は、発言情報及び話者の音素データの組を、話者の生体情報ごとに記憶してもよい。例えば、同じ「あ」という発言を話者が発声するときであっても、話者の血圧、体温、発汗量、脈拍数、心拍のパターン等の生体の状態が話者の音声に影響する場合がある。この変形例において音素DB124は、話者の生体情報ごとに、発言情報とこれに対応する音素データとの組を記憶する。
2-6.
Further, the
この構成において、選択部113は、例えば、特定された話者の発言を示す発言情報と、測定装置2において測定された話者の生体情報とに基づいて音素DB124を検索し、これら発言情報及び生体情報のそれぞれに対応する音素データを選択する。生成部114は、選択された音素データを接続して、上述した音声データを生成する。
In this configuration, the
2−7.変形例7
上述した実施形態において、受付部110は、操作部15を介して話者の操作を受付け、生成部114は、受付部110が話者から決められた操作を受付けた場合に、上述した音声データを生成していたが、生成部114は、話者からの操作に依らずに音声データを生成してもよい。
2-7. Modification 7
In the embodiment described above, the
2−8.変形例8
上述した実施形態において、生成部114は、計測された音量が決められた閾値未満である場合に、音声データを生成していたが、この音量が決められた条件を満たす場合に、音声データの生成を開始又は停止してもよい。また、生成部114は、話者の発した声の音量と関係なく、例えば決められた操作を受付けたとき等に、音声データの生成を開始又は停止してもよい。この場合、計測部119は、話者の発した声の音量を計測しなくてもよく、端末1に設けられなくてもよい。
2-8. Modification 8
In the embodiment described above, the
また、端末1は、例えば赤外線センサ等の人感センサを備え、この人感センサにより端末1の決められた部位から決められた距離内に話者が存在しているか否かを検知してもよい。
Also, the
例えば無音声モードが選択されているときに、この人感センサが、撮像部18により撮像し得ない範囲等を示す決められた距離内に話者の顔の一部等が存在していることを検知すると、生成部114による音声データの生成を止めてもよい。また、このとき制御部11は放音部17を用いて話者に対し「無音声モードによる音声データの生成を行いますので、端末を顔から離し、インカメラに顔を写しながら話をして下さい」というアナウンスをしてもよい。
For example, when the voiceless mode is selected, a part of the speaker's face or the like is present within a determined distance that indicates the range in which the human sensor can not perform imaging by the
2−9.変形例9
また、生成部114は、計測された光量が決められた閾値未満である場合に、音声データの生成を停止していたが、この光量が決められた条件を満たす場合に、音声データの生成を開始又は停止してもよい。また、生成部114は、話者の周囲の光量と関係なく、例えば、決められた操作を受付けた場合に、音声データの生成を開始又は停止してもよい。この場合、計測部119は、話者の周囲の光量を計測しなくてもよく、端末1に設けられなくてもよい。
2-9. Modification 9
In addition, although the
なお、計測部119は、話者の発した声の音量や話者の周囲の光量の他に、物理量を計測してもよい。生成部114は、計測された物理量が決められた条件を満たす場合に、音声データの生成を開始又は停止してもよい。
The measuring
2−10.変形例10
端末1は、相手の端末1と通信をする際に、生成部114が上述した音声データを生成するか否かを通知してもよい。これにより、通信先の端末1bの利用者は、送られてくる音声データが無音声モードにおいて生成されたものであるか否かを把握する。
2-10. Modification 10
When communicating with the
2−11.変形例11
上述した端末1の制御部11は、特定部111、推定部112、選択部113、生成部114、第1取得部117、及び第2取得部118として機能したが、これらの機能を、通信回線3に接続されたサーバ装置4が行ってもよい。
2-11.
The
図8は、図1において破線で示したサーバ装置4の構成を示す図である。サーバ装置4は、通信回線3に接続しており、端末1a及び端末1bの通話を仲介する。
FIG. 8 is a diagram showing the configuration of the
図8に示す通り、サーバ装置4は、制御部41、記憶部42、及び通信部43を有する。
As illustrated in FIG. 8, the
制御部41は、CPU、ROM、RAMを有し、CPUがROM及び記憶部42に記憶されているプログラムを読み出して実行することによりサーバ装置4の各部を制御する。
通信部43は、無線又は有線により通信回線3と接続する通信回路である。
The
The
記憶部42は、ソリッドステートドライブ、ハードディスクドライブ等の大容量の記憶手段であり、制御部41のCPUに読み込まれる各種のプログラムを記憶する。また、記憶部42は、感情DB421、発言DB422、表現DB423、及び音素DB424を記憶する。これらのデータベースは、記憶部12に記憶された感情DB121、発言DB122、表現DB123、及び音素DB124に相当するものである。
The
図9は、サーバ装置4の機能的構成を示す図である。図9に示す端末1の制御部41は、記憶部42に記憶されたプログラムを実行することにより、特定部411、推定部412、選択部413、生成部414、及び取得部417として機能する。
FIG. 9 is a diagram showing a functional configuration of the
端末1aの制御部11は、撮像部18が話者の顔を複数回にわたって撮像した画像を取得すると、通信部13及び通信回線3を介してこの画像をサーバ装置4に送信する。また、端末1aの制御部11は、測定装置2から話者の生体情報を取得すると、通信部13及び通信回線3を介してこの生体情報をサーバ装置4に送信する。
The
取得部417は、端末1aから画像及び生体情報を取得する。特定部411は、画像から話者の口の形状の変化を抽出して、話者の発言を特定する。推定部412は、画像から抽出したその表情と生体情報とを用いて話者の感情を推定する。
The
選択部413は、特定された話者の発言を示す発言情報に対応する音素データを選択する。生成部414は、特定された話者の発言、及び推定された話者の感情に応じた音声データを生成する。そして、生成部414は、音声データを生成すると、通信部43を介して、通話の相手が利用する端末1bにこの音声データを送信する。
The
上述した機能を制御部41が実現することで、サーバ装置4は、話者の顔を複数回にわたって撮像した画像を取得する取得部と、画像から話者の口の形状の変化を抽出して、話者の発言を特定する特定部と、話者の感情を推定する推定部と、発言、及び感情に応じたデータを生成する生成部と、を有する情報処理装置として機能する。
When the
2−12.変形例12
上述した端末1の制御部11は、特定部111、推定部112、選択部113、生成部114、第1取得部117、及び第2取得部118として機能したが、音声データの送信元である端末1aと、送信先である端末1bとで、これらの機能を分担してもよい。
2-12.
The
図10は、端末1a及び端末1bが機能を分担する例を示す図である。図10に示す端末1aの制御部11は、特定部111、推定部112、第1取得部117、及び第2取得部118として機能する。図10に示す特定部111、推定部112、第1取得部117及び第2取得部118の機能は図5に示す機能と共通である。
FIG. 10 is a diagram showing an example in which the
端末1aの制御部11は、特定部111で特定した話者の発言情報と、推定部112で推定した話者の感情を示す情報を、通信部13の第1通信部131、及び通信回線3を介して、端末1bに送信する。
The
図10に示す端末1bの制御部11は、選択部113、生成部114、及び放音制御部115として機能する。また、図10に示す端末1bの制御部11は、表示制御部116として機能してもよい。
The
選択部113は、端末1aから送信された発言情報に基づいて、話者の発言を示す発言情報のそれぞれに対応する音素データを選択する。生成部114は、端末1aから送信された話者の感情を示す情報を受取り、選択部113で選択された音素データを、話者の感情に応じて変形・接続して音声データを生成する。
The
放音制御部115は、生成部114で生成された音声データを放音部17に出力(放音)させる。表示制御部116は、生成部114において、例えば変形例3で示したテキストデータが生成される場合に、生成されたそのテキストデータを表示部14に表示させる。
The sound
図10に示す構成では、話者の発言情報と、話者の感情を示す情報とが通信回線3を介してやり取りされるので、音声データをやり取りする場合に比べて通信負荷が抑制される可能性がある。
In the configuration shown in FIG. 10, since the speech information of the speaker and the information indicating the emotion of the speaker are exchanged via the
図11は、端末1a及び端末1bが機能を分担する例を示す図である。図11に示す端末1aの制御部11は、第1取得部117、及び第2取得部118として機能する。
端末1aの制御部11は、第1取得部117が取得した画像と、第2取得部118が取得した生体情報とを、それぞれ通信部13の第1通信部131、及び通信回線3を介して、端末1bに送信する。
FIG. 11 is a diagram showing an example in which the
The
図11に示す端末1bの制御部11は、特定部111、推定部112、選択部113、生成部114、及び放音制御部115として機能する。また、図11に示す端末1bの制御部11は、表示制御部116として機能してもよい。特定部111は、端末1aから送信された画像を解析して話者の口の形状の変化を抽出し、話者の発言を特定する。推定部112は、端末1aから送信された画像を解析して抽出した話者の表情と、端末1aから送信された生体情報とをそれぞれ感情DB121に定められた表情条件及び生体条件に照合してこの話者の感情を推定する。
The
選択部113は、特定された話者の発言を示す発言情報に基づいて音素DB124を検索し、この発言情報に対応する音素データを選択する。生成部114は、特定された話者の発言、及び推定された話者の感情に応じた音声データを生成する。放音制御部115は、生成された音声データを放音部17に出力させ、表示制御部116は、生成されたそのテキストデータを表示部14に表示させる。
The
図11に示す構成では、第1取得部117が取得した画像と、第2取得部118が取得した生体情報とが通信回線3を介してやり取りされるので、音声データをやり取りする場合に比べて通信負荷が抑制される可能性がある。
In the configuration shown in FIG. 11, the image acquired by the
なお、端末1a及び端末1bは、上述した通りに機能を分担してもよいが、端末1の制御部11は、特定部111及び推定部112の機能を他の装置に委託して実行させてもよい。要するに、端末1の制御部11は、話者の顔を複数回にわたって撮像した画像を取得する第1取得部117と、取得したその画像から話者の口の形状の変化を抽出して、いずれかの装置に委託して特定される話者の発言と、いずれかの装置に委託して推定される話者の感情と、に対応するデータを生成する生成部114として機能すればよい。
The terminal 1a and the terminal 1b may share the functions as described above, but the
2−13.変形例13
上述した音素DB124は、発言情報と、その発言情報により示される発言を人が発声したときの音素を示す音素データとを対応付けて記憶していたが、1つの音素ごとに1つの音素データを記憶しなくてもよい。例えば、音素DB124は、ひとまとまりの音素(音素群)に対して、その音素群を構成する音素を示す音素データが順に並べられたデータ列(音素データ列という)を記憶してもよい。
2-13.
Although the
図12は、変形例における音素DB124の一例を示す図である。図12に示す音素DB124は、複数の音素をひとまとまりとした音素群を、ひとまとまりの発言情報と予め対応付けた音素群表1241と、その音素群をそれぞれ示す音素データ列1242とを有する。例えば、図12に示す音素群表1241には、「ありがとう」という音素群や、「ございました」という音素群等が発言情報に対応付けられている。そしてそれぞれの音素群には、音素データ列1242が対応付けられている。
FIG. 12 is a diagram showing an example of the
この場合、制御部11により実現される選択部113は、特定された話者の発言を示す発言情報に基づいて音素DB124を検索し、この発言情報に対応する音素データ列1242を選択すればよい。
In this case, the
例えば、特定部111で特定された発言を示す発言情報が、音素DB124の音素群表1241に記述されているいずれかの発言情報と、決められた誤差の範囲で一致する場合、選択部113は、音素群表1241において、その発言情報に対応付けられている音素群を特定し、特定した音素群に対応付けられている音素データ列1242を選択する。このとき、選択部113は、発言情報に応じた音素データ列1242を選択するため、音素ごとに音素データを選択する必要はない。
For example, when the utterance information indicating the utterance identified by the identifying
そして、この場合、制御部11により実現される生成部114は、選択された音素データ列1242を、推定された感情に応じて変形することで音声データを生成すればよい。この生成部114は、選択部113が音素データ列1242を選択しているため、1つの音素をそれぞれ示す複数の音素データを接続して音声データを生成する必要がない。
Then, in this case, the
つまり、この変形例に示す選択部113及び生成部114の機能を合わせると、特定部111で特定された話者の発言から音素群を選択し、選択されたその音素群から話者の感情に対応する表現の音声を示す音声データを生成する機能となる。
That is, when the functions of the
2−14.変形例14
端末1の制御部11によって実行されるプログラムは、磁気テープ及び磁気ディスク等の磁気記録媒体、光ディスク等の光記録媒体、光磁気記録媒体、半導体メモリ等の、コンピュータ装置が読取り可能な記録媒体に記憶された状態で提供し得る。また、このプログラムを、インターネット等の通信回線経由でダウンロードさせることも可能である。なお、上述した制御部11によって例示した制御手段としてはCPU以外にも種々の装置が適用される場合があり、例えば、専用のプロセッサ等が用いられる。
2-14.
The program executed by the
1,1a,1b…端末、11…制御部、110…受付部、111…特定部、112…推定部、113…選択部、114…生成部、117…第1取得部、118…第2取得部、119…計測部、12…記憶部、121…感情DB、122…発言DB、123…表現DB、124…音素DB、13…通信部、131…第1通信部、132…第2通信部、14…表示部、15…操作部、16…収音部、17…放音部、18…撮像部、2…測定装置、21…制御部、22…記憶部、23…通信部、28…測定部、3…通信回線、9…通話システム。
1, 1a, 1b: terminal, 11: control unit, 110: reception unit, 111: identification unit, 112: estimation unit, 113: selection unit, 114: generation unit, 117: first acquisition unit, 118:
Claims (14)
前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部と、
を有する情報処理装置。 A first acquisition unit that acquires an image obtained by imaging the face of the speaker a plurality of times;
A generation unit that extracts a change in the shape of the speaker's mouth from the image and generates data corresponding to the identified speaker's utterance and the speaker's estimated emotion;
An information processing apparatus having
前記感情を推定する推定部と、を有し、
前記生成部は、前記特定部により特定された前記発言と、前記推定部により推定された前記感情と、に対応する前記データを生成する
ことを特徴とする請求項1に記載の情報処理装置。 An identifying unit that identifies the utterance from the extracted change;
And an estimation unit for estimating the emotion.
The information processing apparatus according to claim 1, wherein the generation unit generates the data corresponding to the utterance specified by the identification unit and the emotion estimated by the estimation unit.
前記推定部は、取得した前記生体情報に応じて前記感情を推定する
ことを特徴とする請求項2に記載の情報処理装置。 A second acquisition unit configured to acquire biological information of the speaker;
The information processing apparatus according to claim 2, wherein the estimation unit estimates the emotion according to the acquired biological information.
ことを特徴とする請求項2又は3に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the estimation unit extracts an expression of the speaker from the image, and estimates the emotion according to the expression.
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。 The information according to any one of claims 1 to 4, wherein the generation unit selects a phoneme from the utterance, and generates the data indicating a voice of an expression corresponding to the emotion from the phoneme. Processing unit.
前記生成部は、前記発言から音素を選択し、該音素から前記感情に対応する表現であって、前記特定部により特定された前記速度又は音量の前記データを生成する
ことを特徴とする請求項2から4のいずれか1項に記載の情報処理装置。 The identification unit identifies at least one of the speaking speed and volume of the speaker,
The generation unit is configured to select a phoneme from the speech, and to generate the data of the velocity or volume specified by the specification unit, which is an expression corresponding to the emotion from the phoneme. The information processing apparatus according to any one of 2 to 4.
ことを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 6, wherein the generation unit generates the data using speaker data indicating a voice of the speaker.
ことを特徴とする請求項7に記載の情報処理装置。 The information processing apparatus according to claim 7, wherein the generation unit generates the data using the speaker data indicating a voice corresponding to the estimated emotion among the voices of the speaker. .
ことを特徴とする請求項3に記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the generation unit generates the data using speaker data indicating a voice corresponding to biological information of the speaker among voices of the speaker. .
ことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 9, wherein the generation unit generates the data when receiving a predetermined operation from the speaker.
前記生成部は、前記音量が決められた閾値未満である場合に、前記データを生成する
ことを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。 A measurement unit that measures the volume of the voice of the speaker;
The information processing apparatus according to any one of claims 1 to 10, wherein the generation unit generates the data when the volume is less than a determined threshold.
前記生成部は、前記光量が決められた閾値未満である場合に、前記データの生成を停止する
ことを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。 A measurement unit that measures the amount of light around the speaker;
The information processing apparatus according to any one of claims 1 to 10, wherein the generation unit stops generation of the data when the light amount is less than a determined threshold.
ことを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。 Notifying whether the generation unit generates the data;
The information processing apparatus according to any one of claims 1 to 12, characterized in that:
話者の顔を複数回にわたって撮像した画像を取得する第1取得部と、
前記画像から前記話者の口の形状の変化を抽出して、特定される前記話者の発言と、推定される前記話者の感情と、に対応するデータを生成する生成部、
として機能させるためのプログラム。 Computer,
A first acquisition unit that acquires an image obtained by imaging the face of the speaker a plurality of times;
A generation unit that extracts a change in the shape of the speaker's mouth from the image, and generates data corresponding to the identified speaker's utterance and the speaker's estimated emotion;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017183342A JP7021488B2 (en) | 2017-09-25 | 2017-09-25 | Information processing equipment and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017183342A JP7021488B2 (en) | 2017-09-25 | 2017-09-25 | Information processing equipment and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019060921A true JP2019060921A (en) | 2019-04-18 |
JP7021488B2 JP7021488B2 (en) | 2022-02-17 |
Family
ID=66177277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017183342A Active JP7021488B2 (en) | 2017-09-25 | 2017-09-25 | Information processing equipment and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7021488B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019208138A (en) * | 2018-05-29 | 2019-12-05 | 住友電気工業株式会社 | Utterance recognition device and computer program |
JP2021107873A (en) * | 2019-12-27 | 2021-07-29 | パナソニックIpマネジメント株式会社 | Voice characteristic change system and voice characteristic change method |
JP2021149664A (en) * | 2020-03-19 | 2021-09-27 | ヤフー株式会社 | Output apparatus, output method, and output program |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11219421A (en) * | 1998-01-30 | 1999-08-10 | Toshiba Corp | Image recognizing device and method therefor |
JPH11353468A (en) * | 1998-06-11 | 1999-12-24 | Nippon Hoso Kyokai <Nhk> | System, method, and recording medium for speaking speed measurement |
JP2000057325A (en) * | 1998-08-17 | 2000-02-25 | Fuji Xerox Co Ltd | Voice detector |
JP2000068882A (en) * | 1998-08-17 | 2000-03-03 | Matsushita Electric Ind Co Ltd | Radio communication equipment |
JP2002169582A (en) * | 2000-11-29 | 2002-06-14 | Canon Inc | Voice synthesizing device and its control method, and computer-readable memory |
JP2002244688A (en) * | 2001-02-15 | 2002-08-30 | Sony Computer Entertainment Inc | Information processor, information processing method, information transmission system, medium for making information processor run information processing program, and information processing program |
JP2003150194A (en) * | 2001-11-14 | 2003-05-23 | Seiko Epson Corp | Voice interactive device, input voice optimizing method in the device and input voice optimizing processing program in the device |
JP2006323769A (en) * | 2005-05-20 | 2006-11-30 | Tokai Univ | Facing input device |
JP2008009695A (en) * | 2006-06-29 | 2008-01-17 | Nikon Corp | User recognition device, reproduction device, reproduction system, and television set |
WO2009125710A1 (en) * | 2008-04-08 | 2009-10-15 | 株式会社エヌ・ティ・ティ・ドコモ | Medium processing server device and medium processing method |
JP3173022U (en) * | 2011-11-01 | 2012-01-19 | サイバークローン株式会社 | Moving image system with speech synthesis |
JP2012133477A (en) * | 2010-12-20 | 2012-07-12 | Nec Corp | Authentication card, authentication system, guidance method and program |
JP2015220684A (en) * | 2014-05-20 | 2015-12-07 | 株式会社ニコン | Portable terminal equipment and lip reading processing program |
-
2017
- 2017-09-25 JP JP2017183342A patent/JP7021488B2/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11219421A (en) * | 1998-01-30 | 1999-08-10 | Toshiba Corp | Image recognizing device and method therefor |
JPH11353468A (en) * | 1998-06-11 | 1999-12-24 | Nippon Hoso Kyokai <Nhk> | System, method, and recording medium for speaking speed measurement |
JP2000057325A (en) * | 1998-08-17 | 2000-02-25 | Fuji Xerox Co Ltd | Voice detector |
JP2000068882A (en) * | 1998-08-17 | 2000-03-03 | Matsushita Electric Ind Co Ltd | Radio communication equipment |
JP2002169582A (en) * | 2000-11-29 | 2002-06-14 | Canon Inc | Voice synthesizing device and its control method, and computer-readable memory |
JP2002244688A (en) * | 2001-02-15 | 2002-08-30 | Sony Computer Entertainment Inc | Information processor, information processing method, information transmission system, medium for making information processor run information processing program, and information processing program |
JP2003150194A (en) * | 2001-11-14 | 2003-05-23 | Seiko Epson Corp | Voice interactive device, input voice optimizing method in the device and input voice optimizing processing program in the device |
JP2006323769A (en) * | 2005-05-20 | 2006-11-30 | Tokai Univ | Facing input device |
JP2008009695A (en) * | 2006-06-29 | 2008-01-17 | Nikon Corp | User recognition device, reproduction device, reproduction system, and television set |
WO2009125710A1 (en) * | 2008-04-08 | 2009-10-15 | 株式会社エヌ・ティ・ティ・ドコモ | Medium processing server device and medium processing method |
JP2012133477A (en) * | 2010-12-20 | 2012-07-12 | Nec Corp | Authentication card, authentication system, guidance method and program |
JP3173022U (en) * | 2011-11-01 | 2012-01-19 | サイバークローン株式会社 | Moving image system with speech synthesis |
JP2015220684A (en) * | 2014-05-20 | 2015-12-07 | 株式会社ニコン | Portable terminal equipment and lip reading processing program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019208138A (en) * | 2018-05-29 | 2019-12-05 | 住友電気工業株式会社 | Utterance recognition device and computer program |
JP2021107873A (en) * | 2019-12-27 | 2021-07-29 | パナソニックIpマネジメント株式会社 | Voice characteristic change system and voice characteristic change method |
JP2021149664A (en) * | 2020-03-19 | 2021-09-27 | ヤフー株式会社 | Output apparatus, output method, and output program |
JP7248615B2 (en) | 2020-03-19 | 2023-03-29 | ヤフー株式会社 | Output device, output method and output program |
US11749270B2 (en) | 2020-03-19 | 2023-09-05 | Yahoo Japan Corporation | Output apparatus, output method and non-transitory computer-readable recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP7021488B2 (en) | 2022-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103561652B (en) | Method and system for assisting patients | |
CN109460752B (en) | Emotion analysis method and device, electronic equipment and storage medium | |
JP6268193B2 (en) | Pulse wave measuring device, portable device, medical device system, and biological information communication system | |
JP2004310034A (en) | Interactive agent system | |
US20120116186A1 (en) | Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data | |
US20180018300A1 (en) | System and method for visually presenting auditory information | |
JP5714411B2 (en) | Behavior analysis method and behavior analysis device | |
US20050163302A1 (en) | Customer service system and method using physiological data | |
JP2018068618A (en) | Emotion estimating device, emotion estimating method, emotion estimating program, and emotion counting system | |
US20170007126A1 (en) | System for conducting a remote physical examination | |
JP2006071936A (en) | Dialogue agent | |
KR20060052837A (en) | Information processing terminal and communication system | |
US20170344713A1 (en) | Device, system and method for assessing information needs of a person | |
CN113454710A (en) | System for evaluating sound presentation | |
JP2012059107A (en) | Emotion estimation device, emotion estimation method and program | |
JP7021488B2 (en) | Information processing equipment and programs | |
WO2018084157A1 (en) | Biometric information measuring device, method for controlling biometric information measuring device, control device, and control program | |
JP7390268B2 (en) | Cognitive function prediction device, cognitive function prediction method, program and system | |
CN113838544A (en) | System, method and computer program product for providing feedback relating to medical examinations | |
JP2018206055A (en) | Conversation recording system, conversation recording method, and care support system | |
JP2012230535A (en) | Electronic apparatus and control program for electronic apparatus | |
KR20080040803A (en) | Method, apparatus, and system for diagnosing health status of mobile terminal users | |
JP2015103183A (en) | Medical examination support system | |
WO2016047494A1 (en) | Device and system for measuring biological information | |
CN114821962B (en) | Triggering method, triggering device, triggering terminal and storage medium for emergency help function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7021488 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |