[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6841167B2 - コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム - Google Patents

コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム Download PDF

Info

Publication number
JP6841167B2
JP6841167B2 JP2017116912A JP2017116912A JP6841167B2 JP 6841167 B2 JP6841167 B2 JP 6841167B2 JP 2017116912 A JP2017116912 A JP 2017116912A JP 2017116912 A JP2017116912 A JP 2017116912A JP 6841167 B2 JP6841167 B2 JP 6841167B2
Authority
JP
Japan
Prior art keywords
emotion
facial expression
utterance
response
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017116912A
Other languages
English (en)
Other versions
JP2019000937A (ja
Inventor
美奈 舩造
美奈 舩造
真太郎 吉澤
真太郎 吉澤
加来 航
航 加来
整 山田
整 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017116912A priority Critical patent/JP6841167B2/ja
Priority to US16/002,506 priority patent/US10733992B2/en
Priority to CN201810582297.5A priority patent/CN109079805A/zh
Priority to BR102018011528-6A priority patent/BR102018011528A2/pt
Priority to KR1020180066259A priority patent/KR20180136387A/ko
Priority to EP18177184.1A priority patent/EP3418008A1/en
Priority to RU2018121658A priority patent/RU2696307C1/ru
Publication of JP2019000937A publication Critical patent/JP2019000937A/ja
Priority to KR1020200091537A priority patent/KR102355911B1/ko
Application granted granted Critical
Publication of JP6841167B2 publication Critical patent/JP6841167B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Quality & Reliability (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)

Description

本発明は、コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラムに関する。
ユーザの音声の内容に応じて、応答文の出力を行うと共に、表情の表出を行うコミュニケーション装置が知られている(例えば、特許文献1参照)。
特開2016−193466号公報
従来のコミュニケーション装置によると、ユーザから同じ音声内容が入力された場合には、同じ応答文と同じ表情が出力されるので、コミュニケーション装置としては変化に乏しく、ユーザが当該装置に対して愛着を持つまでには至らないことが多かった。
本発明は、このような問題を解決するためになされたものであり、キャラクターが示す表情に多様なバリエーションを持たせ、同じ話しかけに対しても、状況に応じて様々な表情を示すコミュニケーション装置等を提供するものである。
本発明の第1の態様におけるコミュニケーション装置は、キャラクターとユーザが対話するためのコミュニケーション装置であって、キャラクターに対するユーザの発話を取得する発話取得部と、発話とは異なる情報を取得する情報取得部と、発話取得部が取得した発話の内容に基づいてキャラクターが発する応答音声を生成する音声生成部と、発話取得部が取得した発話の内容に基づいてキャラクターの顔部で表現する応答表情を生成する表情生成部とを備え、表情生成部は、情報取得部から情報を取得した場合には、取得しない場合に対して生成する応答表情が異なり得るように、発話の内容と共に当該情報を用いて応答表情を生成する。
このように構成することで、例えばユーザの表情から読み取れる感情を考慮した場合とそうでない場合とで、キャラクターが顔部で表現する表情を異ならせることができる。したがって、ユーザの発話が同じであっても、キャラクターの顔部が示す表情はバリエーションに富み、ユーザは、対話に飽きることなく、キャラクターへの愛着も増大することが期待できる。
また、上記のコミュニケーション装置は、複数の感情にそれぞれ対応付けられた応答表情のデータベースを備え、表情生成部は、発話の内容に基づいて推定する第1感情と情報取得部で取得した情報に基づいて推定する第2感情との組み合わせに応じて決定する第3感情に対応付けられた応答表情を、データベースから選択するように構成しても良い。このように、それぞれで推定された感情を組み合わせることにより、ユーザの感情を精度良く推定することができる。
この場合、データベースは、ラッセルの円環図に基づいて複数の感情とそれぞれの応答表情とが対応付けられており、表情生成部は、円環図において第1感情に対応する第1ベクトルと第2感情に対応する第2ベクトルの和に基づいて第3感情を決定するように構成することができる。このような構成により、ユーザの感情をより定量的に演算することが可能となる。
また、表情生成部は、第3感情に予め定められた範囲で近似する第4感情に対応する応答表情をデータベースから選択しても良い。決定される感情に若干の揺らぎを持たせることにより、顔部の表情の変化をより豊かにすることができる。
さらに、表情生成部は、応答表情を連続して生成する場合には、前回生成した応答表情と今回生成する応答表情の間に、両者を補間する応答表情を併せて生成しても良い。例えば、表示しようとする表情が大きく変化するときに、中間の表情を挿入して表示すれば、ユーザは、その変化に違和感を覚えることがない。
上記のコミュニケーション装置において、情報取得部は、ユーザを撮像する撮像部を含むことができ、また、ユーザの生体情報を取得する生体センサを含むことができ、さらには、周辺環境の環境情報を取得する環境センサを含むことができる。様々なセンサを利用することで、ユーザの感情をより精度良く推定することができる。
また、上記コミュニケーション装置は、キャラクターを具現化するキャラクター装置の内部状態を取得する状態取得部を備え、表情生成部は、発話の内容と情報に加え、状態取得部が取得した内部状態に基づいて応答表情を生成するようにしても良い。このように構成すれば、ユーザの感情に合わせて顔部が示す表情が決まるばかりでなく、キャラクターが自らの感情を示すような表情も現れるので、ユーザはキャラクターに対してより愛着を持てるようになる。
本発明の第2の態様におけるコミュニケーションロボットは、上記のコミュニケーション装置と、表情生成部が生成した応答表情を表現する顔部とを備えるキャラクターを具現化したロボットである。コミュニケーション装置を、例えば動物に模したロボットとして具現化すれば、ユーザは、ペットのように感じることができ、より愛着を持てるようになる。
本発明の第3の態様におけるコミュニケーション制御プログラムは、キャラクターとユーザが対話するためのコミュニケーション装置のコンピュータで実行されるコミュニケーション制御プログラムあって、キャラクターに対するユーザの発話を取得する発話取得ステップと、発話とは異なる情報を取得する情報取得ステップと、発話取得ステップで取得した発話の内容に基づいてキャラクターが発する応答音声を生成する音声生成ステップと、発話取得ステップで取得した発話の内容に基づいてキャラクターの顔部で表現する応答表情を生成する表情生成ステップとを有し、表情生成ステップは、情報を取得した場合には、取得しない場合に対して生成する応答表情が異なり得るように、発話の内容と共に当該情報を用いて応答表情を生成するプログラムである。
このように構成することで、例えばユーザの表情から読み取れる感情を考慮した場合とそうでない場合とで、キャラクターが顔部で表現する表情を異ならせることができる。したがって、ユーザの発話が同じであっても、キャラクターの顔部が示す表情はバリエーションに富み、ユーザは、対話に飽きることなく、キャラクターへの愛着も増大することが期待できる。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本発明により、同じ話しかけに対しても、状況に応じて様々な表情を示すコミュニケーション装置等を提供することができる。
第1の実施例に係るロボットの概観図である。 ロボットのシステム構成図である。 右眼の構造を示す斜視図である。 ロボットの表情とラッセルの円環図との関係を示す図である。 共感感情の決定手法に関する説明図である。 他の例の共感感情の決定手法に関する説明図である。 更に他の例の共感感情の決定手法に関する説明図である。 主体感情を組み合わせる場合における感情の決定手法に関する説明図である。 感情の切り替えに伴う表示の推移を説明する図である。 動作処理の手順を示すフローチャートである。 第2の実施例に係るコミュニケーションシステムの概観図である。 サーバのシステム構成図である。 ロボットのシステム構成図である。 第3の実施例に係るタブレット端末の概観図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。
図1は、本実施形態の第1の実施例に係るロボット100の概観図である。ロボット100は、ユーザである人間と音声対話を行うコミュニケーション装置としてのロボットである。ロボット100は、キャラクターを具現化したキャラクター装置であり、対話に合わせて眼の表情が変化する。
ロボット100は、外観として動物を模しており、顔部120を有する。顔部120には、ユーザが眼と認識できる位置に、眼部122(右眼122a、左眼122b)が設けられている。眼部122の構造については後に詳述するが、右眼122a、左眼122bのそれぞれの背後には、例えば液晶パネルや有機ELパネルである表示パネル106が設置されている。
ロボット100の鼻の位置には、カメラ102が眼立たないように配置されている。カメラ102は、例えばCMOSセンサを含み、外部環境を認識するための画像を取得する撮像部として機能する。ロボット100の口の位置には、スピーカ109が隠されて配置されている。スピーカ109は、ロボット100が生成した音声を発する発話出力部として機能する。ユーザは、口の位置から出力される音声に、ロボット100が喋っているような感覚を覚える。また、顔部120のいずれかの位置には、マイク101が隠されて配置されている。マイク101は、ユーザの発話音声等を集音する機能を担う。
ロボット100は、バッテリ111から供給される電力により作動する。バッテリ111は、例えばリチウムイオン電池である。バッテリ監視部112は、例えばインピーダンス・トラック方式によりバッテリ111の残容量を監視する回路ユニットである。
図2は、ロボット100のシステム構成図である。ロボット100は、主なシステム構成として、マイク101、カメラ102、表示パネル106、スピーカ109、バッテリ監視部112、制御部200、応答音声DB310および応答表情DB320を備えている。制御部200は、例えばCPUによって構成され、機能ごとの実行を担う機能実行部としても動作し、主に、発話認識部201、表情認識部202、第1感情推定部203、第2感情推定部204、共感感情決定部205、主体感情決定部206、表情選択部207、眼制御部208、音声選択部209および発話制御部210として動作する。
マイク101は、主な機能として、ロボット100が対話する相手であるユーザの発話音声を集音する。マイク101は、集音したユーザの発話音声を音声信号に変換して、発話認識部201へ引き渡す。カメラ102は、主な機能として、ロボット100に対峙するユーザの顔を撮影する。カメラ102は、撮像したユーザの顔画像を画像信号に変換して、表情認識部202へ引き渡す。
スピーカ109は、発話制御部210で変換された音声信号を受け取って、応答音声を音声出力する。表示パネル106は、眼制御部208で変換された映像信号を受け取って、応答表情に対応する図柄を表示する。バッテリ監視部112は、バッテリの残容量を検知して検知信号を主体感情決定部206へ引き渡す。バッテリ監視部112は、ロボット100の内部状態を取得する状態取得部の一態様である。
応答音声DB310は、音声選択部209に接続されている応答音声のデータベースであり、例えばハードディスクドライブの記録媒体によって構成されている。応答音声DB310は、例えばコーパスとして体系化されており、個々の用語は、再生可能な発話データを伴って格納されている。応答表情DB320は、表情選択部207に接続されている応答表情のデータベースであり、例えばハードディスクドライブの記録媒体によって構成されている。応答表情DB320は、例えばラッセルの円環図として体系化されており、具体的な眼の表情の映像データ、その表情が意味する感情、およびその感情の度合が互いに対応付けられて格納されている。具体的には後述する。
発話認識部201は、マイク101から受け取った音声信号を解析してユーザの発話を認識する。発話認識部201は、マイク101と協働して、ロボット100へ向かって話しかけるユーザの発話を取得する発話取得部としての機能を担う。発話認識部201は、具体的には、一般的な音声認識技術によりユーザの発話内容を認識すると共に、発話の韻律を解析する。韻律は、発話を音波として捉えた場合の、その物理的特徴を表すものであり、発話認識部201は、ユーザが発する一塊の音波において、例えば中心周波数、周波数帯域、振幅の最大値および平均値を物理的特徴として演算する。発話認識部201は、認識した発話内容を音声選択部209へ引き渡す。また、解析した韻律を第1感情推定部203へ引き渡す。
第1感情推定部203は、発話認識部201から受け取った韻律から振幅レベルの変化や語尾の抑揚などを抽出して、ユーザの感情とその度合を推定する。推定される感情の種類とその度合については、後に詳述する。ユーザの発話から推定された第1感情とその度合は、共感感情決定部205へ引き渡される。
なお、第1感情推定部203は、発話された単語の属性を考慮して、ユーザの感情とその度合を修正しても良い。単語の属性は、その単語がいずれの感情を表現するために多く用いられるものであるかを表す。例えば、「うれしい」という単語は「満足」の属性を有し、ユーザが「うれしい」と発した場合には、第1感情推定部203は、推定する感情を「満足」側に寄せる。
表情認識部202は、カメラ102から受け取った画像信号を解析してユーザの表情を認識する。表情認識部202は、カメラ102と協働して、ユーザの発話とは異なる情報としてユーザの表情を取得する情報取得部としての機能を担う。表情認識部202は、具体的には、一般的な顔認識技術によりユーザの顔画像から特徴点を抽出し、それらの位置、隣接する特徴点を結ぶ線分の傾き、特徴点の数等の表情特徴量を演算する。表情認識部202は、演算した表情特徴量を第2感情推定部204へ引き渡す。
第2感情推定部204は、表情認識部202から受け取った表情特徴量から例えば瞳孔の大きさ、目尻の下がり具合、口角の上がり具合、発汗の有無、皺の寄り具合などを抽出して、ユーザの感情とその度合を推定する。推定される感情の種類とその度合については、後に詳述する。ユーザの表情から推定された第2感情とその度合は、共感感情決定部205へ引き渡される。
なお、ユーザがカメラ102に対峙していなかったり顔画像が暗かったりすると、表情認識部202は、表情特徴量を演算することができず、第2感情推定部204は、第2感情とその度合を推定することができない。このような場合には、第2感情推定部204は、第2感情が生成できなかった旨を共感感情決定部205へ引き渡す。
共感感情決定部205は、第1感情推定部203から受け取った第1感情とその度合、および第2感情推定部204から受け取った第2感情とその度合を組み合わせて、ロボット100が示すユーザへの共感感情とその度合を決定する。共感感情とその度合の具体的な決定の手順については、後に詳述する。共感感情とその度合は、表情選択部207へ引き渡される。また、共感感情決定部205は、第2感情が生成できなかった旨を第2感情推定部204から受け取った場合には、第1感情とその度合を共感感情とその度合として決定する。
主体感情決定部206は、バッテリ監視部112から受け取った検知信号のレベルを、対応付けられたロボットの主体感情とその度合に変換し、表情選択部207へ引き渡す。主体感情は、ロボット100の状態を示すパラメータ(ここではバッテリ残容量)を擬似的にある感情に対応付けたものである。ロボット100は、主体感情とその度合によって決定される表情を表現することにより、自身の状態を間接的に外界に示すことができる。具体的なパラメータと感情の対応付けや表情の選択については後述する。
表情選択部207は、共感感情決定部205から受け取った共感感情とその度合に対応する表情の映像データを、応答表情DB320から取得する。このとき共感感情決定部205と表情選択部207は、互いに協働して、ユーザの発話内容と表情に基づいて顔部120で表現する応答表情を生成する表情生成部としての機能を担う。また、表情選択部207は、条件によっては、主体感情決定部206から受け取った主体感情とその度合を共感感情とその度合に組み合わせ、その結果に応じた表情の映像データを、応答表情DB320から取得する。また、ユーザが発話していない状況等においては、主体感情決定部206から受け取った主体感情とその度合のみに対応する表情の映像データを、応答表情DB320から取得する。表情選択部207は、応答表情DB320から取得した映像データを眼制御部208へ引き渡す。眼制御部208は、表情選択部207から受け取った映像データを表示パネル106で表示できる映像信号に変換して表示パネル106へ引き渡す。
音声選択部209は、発話認識部201で認識されたユーザの発話内容に対して会話としてふさわしいセンテンスを選択し、選択したセンテンスに応じた発話データを応答音声DB310から収集して、発話制御部210へ引き渡す。発話制御部210は、受け取った発話データを音声信号に変換してスピーカ109へ引き渡す。音声選択部209と発話制御部210は、互いに協働して、ユーザの発話内容に基づいて応答音声を生成する音声生成部としての機能を担う。なお、音声選択部209は、第1感情推定部203で推定された感情を加味して、選択するセンテンスを変更しても良い。例えば、第1感情推定部204がユーザの感情を「悲しい」と推定した場合は、励ます内容のセンテンスに変更する。このようにユーザが発話に込めた感情も考慮すれば、より深いコミュニケーションが期待できる。ただし、第2感情推定部204が推定する感情は考慮しないことが好ましい。後述するように、ロボット100が発声する応答音声は、第2感情推定部204が推定する感情を考慮しない方が、応答表情との組み合わせにおいてバリエーションが豊富になる。
図3は、右眼122aの構造を示す斜視図である。左眼122bも右眼122aと同様の構造であり、それぞれの表示パネル106は、共に眼制御部208によって表示制御される。
右眼122aは、主に、透光カバー131、光ファイバ束132および表示パネル106から成る。透光カバー131は、例えば透明なポリカーボネイトによって成形され、顔部120の外装材としての役割を担う。動物や人を模したロボットの場合、眼の表面は曲面であることが自然であり、ユーザに受け入れられやすい。したがって、本実施形態におけるロボット100も、眼の表面に相当する透光カバー131は、外部に向かって凸状の曲面に成形されている。
右眼122aの奥側には、右眼の表情を図案化した図柄を表示するための表示パネル106が設置されている。表示パネル106の表示面は平面である。また、表示面は、透光カバー131の外縁周を包含する大きさを有する。図においては、透光カバー131の外縁周に対応する大きさの白目に偏位して重ねられた黒目から成る図柄である表示右眼映像191aが表示されている様子を示す。表示するそれぞれの図柄は、映像データとして応答表情DB320に格納されており、表情選択部207によって読み出され、眼制御部208によって映像信号に変換されて表示パネル106に表示される。
透光カバー131の内曲面と表示パネル106の表面とは、光ファイバ束132によって接続される。光ファイバ束132は、表示パネル106に表示された表示右眼映像191aを透光カバー131まで伝達する。光ファイバ束132は、表示パネル106のピクセルのそれぞれに一対一に対応する光ファイバ132aの集合体である。図では説明のために表示パネル106の表面から浮かせて示しているが、それぞれの光ファイバ132aの一端は、表示パネル106の表面に導光系の接着剤により接着されている。それぞれの光ファイバ132aは、集合体としてその外周面が被覆132bで覆われて束ねられている。このようにして、透光カバー131、光ファイバ束132および表示パネル106は、互いに接続されて一体化される。
表示パネル106に表示された表示右眼映像191aの光束は、光ファイバ132aの一端から入射し、他端から出射する。光ファイバ132aの出射面である他端の集合体は、透光カバー131の内曲面に沿う仮想的なスクリーンを形成する。したがって、表示パネル106に表示された表示右眼映像191aは、この仮想的なスクリーンに投影され、ユーザに観察される投影右眼映像192aに変換される。
なお、平面として表示される表示右眼映像191aが、曲面として投影される投影右眼映像192aに変換されるので、眼制御部105は、観察される投影右眼映像192aが正しい形状となるように、表示する表示右眼映像191aの形状を予め調整することが好ましい。この場合、眼制御部208は、例えば一つの黒目の図柄でも、仮想的なスクリーンのどの位置に投影するかにより、表示する位置と形状を調整する。
図4は、ロボット100が表現する表情とラッセルの円環図との関係を示す図である。図においては顔部120の様子を並べて示しているが、本実施例におけるロボット100は、表示パネル106に表示する右眼映像と左眼映像に変化させることにより顔部120の全体からユーザが受ける印象をコントロールするものである。したがって、以下に説明するそれぞれの感情とその度合に対応付けられて応答表情DB320に格納されている映像データは、右眼映像と左眼映像に対応する映像データのセットである。
心理学の分野で提唱されているラッセルの円環図は、全ての感情を「快−不快」と「驚き−不活性」を軸とする平面に円環状に配置するモデルである。具体的な感情がいずれの位置に配置され得るかについては諸説あるが、本実施形態においては図示するように、「驚き」から時計回りで均等に、「警戒」「興奮」「高揚」「幸福」「快」「満足」「柔和」「リラックス」「冷静」「不活性」「疲労」「無気力」「憂鬱」「悲しい」「不快」「動転」「ストレス」「緊張」「神経質」の20の感情を円周上に配置した。したがって、各感情は、「無表情」を中心に放射方向に定義され、中心からの距離は、その感情の度合を表す。図は、それぞれの感情が最も強く表現されたときの表情を示すが、点線で示す放射線上には、その度合に応じた中間的な表情が配置される。
図示するラッセルの円環図において、互いに隣接する感情は似通った感情である。したがって、その表情も相互に類似している。それぞれの感情とその度合に対応付けられた映像データの図柄は、このような関係性をもって予め作成されている。
次に共感感情を決定するまでの手法について説明する。図5は、共感感情の決定手法に関する説明図であり、図4のラッセルの円環図から顔部120の様子を取り除いた円環座標系を表している。「無表情」を表す円の中心を「0」とし、各感情の最大値を「1」とする。すなわち、ラッセルの円環図を、半径1の円で表現する。
ここで、第1感情推定部203が、ユーザの発話から推定した感情(第1感情)とその度合をベクトルVで表す。図の例においてベクトルVは、「快」の向きに約0.25の長さを有する。また、第2感情推定部204がユーザの表情から推定した感情(第2感情)とその度合をベクトルVで表す。図の例においてベクトルVは、「興奮」の向きに約0.5の長さを有する。
共感感情決定部205は、ラッセルの円環図上でベクトルVとベクトルVの和を求めることにより、共感感情を表すベクトルVを算出する。図の例においてベクトルVは、「高揚」の向きに約0.67の長さを有する。したがって、共感感情決定部205は、図において星印の座標が表す、共感感情=「高揚」、度合=0.67と決定する。
図6は、他の例の共感感情の決定手法に関する説明図である。図6も、図5と同様に円環座標系を表している。
第1感情推定部203は、ベクトルVで表すように、第1感情=「動転」、度合=1と推定し、第2感情推定部204は、ベクトルVで表すように、第2感情=「驚き」、度合=1と推定した場合を想定する。この場合、ベクトルVとベクトルVの和を求めると、向きは「緊張」であるが、その大きさは1を超えてしまう。そこで、共感感情決定部205は、ベクトルVを、図において星印の座標が表す、共感感情=「緊張」、度合=1と決定する。
このように、ベクトルVの大きさが1を超えた場合は1とする例外規定を設けることにより、ベクトルVとベクトルVがどのような向きや大きさであっても、共感感情とその度合を決定することができる。
また、本実施形態においては、第1感情推定部203および第2感情推定部204がそれぞれ感情と共に度合も推定する構成であるが、度合を推定しない構成であっても、この手法により共感感情を決定することができる。すなわち、第1感情が「動転」、第2感情が「驚き」と推定されれば、それぞれの度合を固定値「1」と仮定してベクトル演算を行い、その向きに相当する感情である「緊張」を共感感情と決定することができる。
図7は、更に他の例の共感感情の決定手法に関する説明図である。図7も、図5と同様に円環座標系を表している。
第1感情推定部203は、ベクトルVで表すように、第1感情=「幸福」、度合=0.50と推定し、第2感情推定部204は、ベクトルVで表すように、第2感情=「リラックス」、度合=0.25と推定した場合を想定する。この場合、ベクトルVとベクトルVの和を求めると、ベクトルVは、「快」と「満足」の間の向きに約0.62の長さを持つベクトルとなる。このように、算出されたベクトルVが2つの感情の間を向く場合は、その先端座標に対応する映像データが応答表情DB320に格納されていないので、共感感情決定部205は、2つの感情の放射線のうち近い方へ垂線を下ろし、その足を共感感情の座標と決定する。図の例では、「快」の放射線上に示す星印の座標が共感感情の座標となる。すなわち、共感感情決定部205は、共感感情=「快」、度合=0.61と決定する。このように、共感感情決定部205は、ベクトルVの向きがいずれかの感情の放射線上に沿っていなくても、共感感情とその度合を一意的に決定することができる。
図5から図7を用いて説明した共感感情とその度合の決定手法は、第2感情推定部204が第2感情とその度合を推定した場合、つまり、ベクトルVを算出できた場合についての決定手法である。第2感情推定部204が第2感情を推定できなかった場合には、V=Vとして共感感情とその度合を決定すれば良い。
表情選択部207は、主体感情決定部206が決定する主体感情を考慮しない場合には、ラッセルの円環図における共感感情決定部205が決定した共感感情の決定座標に対応する眼の表情の映像データを応答表情DB320から取得する。映像データを取得したら、眼制御部208へ引き渡し、眼制御部208は、受け取った映像データを映像信号に変換して表示パネル106に表示することにより、顔部120に決定した共感感情とその度合に応じた表情を創り出す。一方、主体感情決定部206が決定する主体感情を共感感情決定部205が決定した共感感情と組み合わせる場合には、まず、共感感情のベクトルと主体感情のベクトルのベクトル演算を行う。
図8は、主体感情を組み合わせる場合における、顔部120が表現する組合せ感情の決定手法に関する説明図である。図7も、図5と同様に円環座標系を表しており、共感感情決定部205が算出したベクトルVは、図5の例と同じく「高揚」の向きに約0.67の長さを有するものとする。
上述のように、主体感情は、ロボット100の状態を示すパラメータを擬似的にある感情に対応付けたものであるが、本実施形態においてはバッテリ残容量を「疲労」に対応付ける。すなわち、ロボット100が主体感情のみを表現する場合は、バッテリの残容量が減るほどより疲れた表情を示すことを意味する。具体的には、主体感情を「疲労」の放射線上に沿うベクトルVで表し、残容量をその長さに対応させる。例えば、バッテリ監視部112から受け取った検知信号が残容量=100%を示すものであれば、長さを「0」とし、50%を示すものであれば「0.5」とし、0%を示すものであれば「1」とする。図の例では、主体感情決定部206は、ベクトルVを、主体感情=「疲労」、度合=0.5と決定している。
表情選択部207は、上述の共感感情決定部と同様に、ベクトルVとベクトルVの和を求めることにより、組合せ感情を表すベクトルVを算出する。図の例においてベクトルVは、「満足」の向きに約0.40の長さを有する。したがって、表情選択部207は、図において星印の座標が表す、組合せ感情=「満足」、度合=0.40と決定する。
なお、表情選択部207は、ベクトルVとベクトルVの和の算出において、ベクトルVが1を超える場合は図6を用いて説明したように、ベクトルVが特定の感情を示す放射線上に位置しない場合は図7を用いて説明したように対処する。また、本実施形態においては、主体感情に対応付けるパラメータをバッテリ残容量に限って説明するが、他のパラメータを別の感情に対応付けても構わない。例えば、特定のユーザと過去に行った対話の回数を記録しておけば、当該回数をパラメータとして「高揚」に対応付けることができる。このように対応付ければ、そのユーザにとって対話の回数が増えれば、ロボット100は、再度対話できたことを喜んでいるかのように主体感情として「高揚」の表情をより強く示すことになる。ロボット100の状態を示す複数のパラメータをそれぞれ別の感情に対応付ける場合は、主体感情決定部206は、共感感情決定部205と同様に、それらのベクトルの和を算出して、一つの主体感情とその度合を決定する。
表情選択部207は、ベクトルVを算出して、組合せ感情とその度合を決定したら、ラッセルの円環図における決定座標に対応する眼の表情の映像データを応答表情DB320から取得する。映像データを取得したら、眼制御部208へ引き渡し、眼制御部208は、受け取った映像データを映像信号に変換して表示パネル106に表示することにより、顔部120に決定した組合せ感情とその度合に応じた表情を創り出す。
表情選択部207は、予め設定された条件に合致する場合には、共感感情を組み合わせることなく主体感情とその度合に対応する眼の表情の映像データを応答表情DB320から取得しても良い。例えば、対話すべきユーザが近くに存在しないと判断したときには、ロボット100は、「疲労」の表情を示すことにより、バッテリ111が少なくなったことを周囲にアピールできる。また、ユーザとの対話において、ロボット100の状態に関する事柄をユーザから質問されたときには、ロボット100は、より直接的に自身の状態をユーザに知覚させることができる。
次に、ユーザとの対話が進むにつれて感情が逐次変化する場合の処理について説明する。図9は、感情の切り替えに伴う表示の推移を説明する図である。図9も、図5と同様に円環座標系を表している。
ユーザとの会話が継続されている期間において、表情選択部207は、上述のベクトル演算の結果、時刻tで表現する感情とその度合としてベクトルVt1を得たとする。ベクトルVt1が示す座標Ft1は、感情=「高揚」、度合=0.67である。続いてその後の時刻tで表現する感情とその度合としてベクトルVt2を得たとする。ベクトルVt2が示す座標Ft2は、感情=「冷静」、度合=1である。このように、連続する時刻において表現する感情が大きく異なると、顔部120の表情は突然大きく変化し、ユーザは違和感を覚えることがある。
そこで、本実施形態においては、座標Fと座標Fを滑らかに曲線で接続して、その曲線が各感情の放射線と交わる点に補間座標を設定する。図の例では、座標Fから座標Fまでは、感情(「高揚」から「冷静」まで)として6つの差があり、度合の変化としては1−0.67=0.33であるので、一つ隣の感情に移るごとに0.33/6=0.055ずつ度合を増すように補間座標を設定することができる。このように、曲線が「幸福」「快」「満足」「柔和」「リラックス」の各放射線と交わる点にそれぞれ座標Ft11、座標Ft12、座標Ft13、座標Ft14、座標Ft15を設定する。そして、表情選択部207は、眼制御部208へ、座標Ft1に対応する映像データを引き渡した後、座標Ft2に対応する映像データを眼制御部208へ引き渡すまでに、座標Ft11、Ft12、Ft13、Ft14、Ft15に対応する映像データを連続的に引き渡す。眼制御部208は、時刻tで座標Ft1に対応する映像データを映像信号に変換して表示パネル106に表示した後、時刻tに至るまでの間に連続して、座標Ft11、Ft12、Ft13、Ft14、Ft15に対応する映像データを映像信号に変換して表示パネル106に表示する。そして、時刻tで座標Ft2に対応する映像データを映像信号に変換して表示パネル106に表示する。このように、時刻tで表現した表情と時刻tに連続する時刻tで表現する表情との間に両者を補間する表情を挿入すれば、ユーザは、顔部120の変化が滑らかで連続的であるとの印象を受ける。なお、補間する表情の数は、時刻tと時刻tの期間や、座標Ft1と座標Ft2の近さなどの条件によって変更しても良い。
一方で、連続する時刻において表現する感情が全く変わらないと、顔部120の表情は変化せず、この場合もユーザは違和感を覚えることがある。そこで、共感感情決定部205は、算出したベクトルVに対して、予め定められた範囲内で近似するベクトルV’に変更して出力しても良い。たとえば、算出したベクトルVが示す感情に対して、ラッセルの円環図上で隣接する感情までの範囲を予め定められた範囲とする。このように、共感感情の出力に揺らぎを与えると、ユーザは、より変化に富んだ表情を楽しむことができる。
次に、制御部200が実行する動作処理の手順を説明する。図10は、動作処理の手順を示すフローチャートである。フローは、ロボット100の電源がオンにされて開始される。
発話認識部201は、ステップS101で、ロボット100に話しかけるユーザの発話を、マイク101を介して取得する。ステップS102へ進み、音声選択部209は、取得したユーザの発話内容に対して会話としてふさわしいセンテンスを選択し、選択したセンテンスに応じた発話データを応答音声DB310から収集して、発話制御部210へ引き渡す。ステップS103へ進み、発話制御部210は、受け取った発話データを音声信号に変換し、スピーカ109から音声として発声させる。第1感情推定部203は、ステップS104で、ユーザの発話からユーザの第1感情とその度合を推定する。
表情認識部202は、ステップS105で、ロボット100に話しかけるユーザの表情を捉えたカメラ画像を、カメラ102から取得する。ステップS106へ進み、第2感情推定部204は、表情認識部202から受け取った表情特徴量を用いて、ユーザの第2感情とその度合を推定する。
共感感情決定部205は、ステップS107で、第1感情とその度合を表すベクトルVと、第2感情とその度合を表すベクトルVの和を算出することにより、共感感情とその度合を決定する。なお、ステップS106で、第2感情推定部204が第2感情とその度合を推定できなかった場合には、共感感情決定部205は、第1感情とその度合を、共感感情とその度合として決定する。
一方、主体感情決定部206は、ステップS108で、バッテリ監視部112からバッテリ111の残容量を示す検知信号を取得し、ステップS109で、当該検知信号のレベルを対応付けられたロボットの主体感情とその度合に変換する。表情選択部207は、受け取った共感感情と主体感情およびそれぞれの度合から、組合せ感情とその度合を算出し、その結果に応じた表情の映像データを、応答表情DB320から取得する。
ステップS111へ進み、表情選択部207は、前回取得した映像データが対応する組合せ感情と、今回取得した映像データが対応する組合せ感情との差が、予め定められた差以上であるか否かを判断する。予め定められた差は、ラッセルの円環図の円周に沿って配置された感情において、例えば3つである。この場合、前回の組合せ感情に対して今回の組合せ感情が円周方向に3つ以上離れる感情であれば、YES(ステップS112)へ進み、2つ以下であればNO(ステップS113)へ進む。
ステップS112へ進んだ場合には、表情選択部207は、前回の組合せ感情と今回の組合せ感情の間を補間する中間感情を設定して、その中間感情に対応する映像データを応答表情DB320から取得する。そして、眼制御部208は、これらの映像データを映像信号に変換して表示パネル106に順次表示する。中間感情に対応する映像を表示したら、ステップS113へ進む。
表情選択部207は、ステップS113で、ステップS110の処理によって取得された映像データを眼制御部208へ引き渡し、眼制御部208は、これを映像信号に変換して表示パネル106に表示する。そして、ステップS114へ進み、制御部200は、ロボット100の電源がオフにされたか否かを判断する。オフにされていなければ、ステップS101へ戻って、ユーザとのコミュニケーションを繰り返す。オフにされたら、一連の処理を終了する。
なお、ステップS103の応答発声と、ステップS113の決定表情の表示は、互いに最適なタイミングとなるように、時間を調整すると良い。また、ユーザの発話に関する処理、ユーザの表情に関する処理、バッテリに関する処理は、上述の順序でなくても良く、また、並列に処理されても良い。
以上説明したロボット100は、キャラクターとしてユーザが対話するコミュニケーション装置であり、ユーザの発話から推定される第1感情と、ユーザの発話ではない情報としてのユーザの顔画像情報から推定される第2感情とを用いて応答表情を選択、生成する。このとき、第2感情を用いる場合は、用いない場合に対して選択、生成する応答表情が異なり得る。したがって、ユーザの発話が同じであっても、ロボット100の顔部120が示す表情はバリエーションに富み、ユーザは、対話に飽きることなく、ロボット100への愛着も増大することが期待できる。
また、ユーザの発話のみならず、発話外の情報を考慮して顔部120の表情を創り出すので、ユーザの発話が同じであっても、ロボット100が発する応答音声と顔部120の応答表情の組合せは多様に変化する。したがって、ユーザは予想に反するロボット100の反応を楽しむことができる。ひいては、ロボット100に対する親近感を増すことが期待できる。
次に、第2の実施例について説明する。図11は、第2の実施例に係るコミュニケーションシステムの概観図である。第1の実施例では、ロボット100が単独でユーザとコミュニケーションが取れるように、主要な機能要素を全て本体に備える構成であったが、第2の実施例におけるロボット100’は、演算に関する機能要素をサーバ300に任せる構成を採用する。
例えばユーザがロボット100’に「やあ、元気?」と話しかけると、ロボット100’のマイクがその音声を取り込む。ロボット100’は、取り込んだ音声を音声信号に変換して、無線通信によりサーバ300へ送信する。また、ロボット100’に組み込まれたカメラは、ユーザの顔を撮影する。ロボット100’は、カメラの出力信号を画像信号に変換して、無線通信によりサーバ300へ送信する。サーバ300は、これらの情報を用いて、応答音声(図の例では「元気だよ!お話しできて嬉しいなあ。」)の音声データと、応答表情(図の例では「快」の表情)の映像データとを選択して、ロボット100’へ送信する。ロボット100’は、受け取った音声データに対応する音声をスピーカから発し、受け取った映像データに対応する図柄を表示する。
なお、本実施例では、追加的に採用可能な、ユーザの生体情報を取得するリストセンサ500についても説明する。ユーザは、リストセンサ500を腕に巻き付けて装着する。リストセンサ500は、例えばユーザの脈拍、発汗状態を検出して、検出結果をサーバ300へ送信する。
図12は、サーバ300のシステム構成図である。第1の実施例で説明した要素と原則的に同じ機能を担う要素には同じ名称を付し、特に言及しない限りその機能についての説明を省略する。本実施例においては、サーバ300が、諸々の演算等を実行するコミュニケーション装置の実体として機能する。
サーバ300は、主に、演算処理部400、通信IF490、応答音声DB310および応答表情DB320を備える。演算処理部400は、例えばCPUであり、第1の実施例で説明した、発話認識部201、表情認識部202、第1感情推定部203、第2感情推定部204、共感感情決定部205、主体感情決定部206、表情選択部207の各機能実行部としても動作する。また、演算処理部400は、機能実行部として生体情報認識部212としても動作する。
通信IF490は、ロボット100’と制御信号やデータの授受を行うための通信インタフェースであり、例えば無線LANユニットである。応答音声DB310は、第1の実施例で説明した応答音声DB310と同様の構成であり、音声選択部209と接続されている。また、応答表情DB320は、同じく第1の実施例で説明した応答表情DB320と同様の構成であり、表情選択部207と接続されている。
発話認識部201は、通信IF490を介して、ロボット100’から音声信号を受け取る。発話認識部201は、通信IF490と協働して、ロボット100へ向かって話しかけるユーザの発話を取得する発話取得部としての機能を担う。また、表情認識部202は、通信IF490を介して、ロボット100’から画像信号を受け取る。表情認識部202は、通信IF490と協働して、ユーザの発話とは異なる情報としてユーザの表情を取得する情報取得部としての機能を担う。
生体情報認識部212は、通信IF490を介して、リストセンサ500からユーザの生体情報を示す生体信号を取得する。そして、脈拍や発汗などの解析対象に合わせて、その特徴信号を取得した生体信号から抽出し、第2感情推定部204へ引き渡す。生体情報認識部212は、通信IF490と協働して、ユーザの発話とは異なる情報としてユーザの生体情報を取得する情報取得部としての機能を担う。
第2感情推定部204は、ユーザの表情から推定される感情と、生体情報から推定される感情を合成して第2感情とその度合を決定する。具体的には、図5から図7を用いて説明した手法と同様に、それぞれの感情をベクトルで表してベクトル和を算出することにより、第2感情のベクトルVを決定する。
表情選択部207は、通信IF490を介して、応答表情DB320から取得した映像データをロボット100’へ送信する。同様に、音声選択部209は、通信IF490を介して、選択したセンテンスに応じた発話データをロボット100’へ送信する。
図13は、ロボット100’のシステム構成図である。第1の実施例で説明した要素と原則的に同じ機能を担う要素には同じ名称を付し、特に言及しない限りその機能についての説明を省略する。
ロボット100’は、主に、マイク101、カメラ102、表示パネル106、スピーカ109、バッテリ監視部112、通信IF190および制御部200’を備えている。制御部200’は、例えばCPUによって構成され、機能ごとの実行を担う機能実行部としても動作し、主に、眼制御部208、発話制御部210として動作する。
通信IF190は、サーバ300と制御信号やデータの授受を行うための通信インタフェースであり、例えば無線LANユニットである。制御部200’は、マイク101から受け取った音声信号と、カメラ102から受け取った画像信号を、通信IF190を介してサーバ300へ送信する。また、眼制御部208は、通信IF190を介して表情選択部207から受け取った映像データを、表示パネル106で表示できる映像信号に変換して表示パネル106へ引き渡す。発話制御部210は、通信IF190を介して音声選択部209から受け取った発話データを、音声信号に変換してスピーカ109へ引き渡す。
このような第2の実施例のシステム構成であっても、第1の実施例と同様に、ユーザとのコミュニケーションを実現できる。また、演算に関する機能をサーバ300に集約することで、ロボット100’の構成を容易にすることができ、ロボット100’に高性能な制御チップを設けなくても、円滑なコミュニケーションを実現できる。また、サーバ300が演算に関する機能を担うのであれば、複数のロボット100’からの演算要請にシーケンシャルに応えることもできるので、システム全体としての製造コストを軽減することもできる。
次に、第3の実施例について説明する。図14は、第3の実施例に係るタブレット端末700の概観図である。第1の実施例および第2の実施例においては、キャラクターを具現化したロボット100、100’をユーザが対話する相手としたが、第3の実施例においては、タブレット端末700に表示した映像キャラクター800を対話する相手とする。キャラクターをロボットとして実体化すれば、ユーザは、ペットのように感じることができ、より愛着を持てるようになるが、タブレット端末700でより簡便にキャラクターを表現することもできる。
タブレット端末700のシステム構成は、図2を用いて説明した第1の実施例におけるロボット100のシステム構成とほぼ共通する。共通する構成についてはその説明を省略して、異なる構成について以下に説明する。
タブレット端末700は、表示パネル710、マイク711、スピーカ712、カメラ713を備える。表示パネル710は、例えば液晶パネルであり、映像キャラクター800を表示する。したがって、タブレット端末700は、第1の実施例における眼の映像のみを表示する表示パネル106を有さない。
マイク711は、第1の実施例におけるマイク101と置き換わる要素であり、ユーザの発話音声を集音する。スピーカ712は、第1の実施例におけるスピーカ109と置き換わる要素であり、発話制御部210で変換された音声信号を受け取って、応答音声を音声出力する。カメラ713は、第1の実施例におけるカメラ102と置き換わる要素であり、タブレット端末700に対峙するユーザの顔を撮影する。
タブレット端末700は、眼の表情が変わるだけでなく、顔の全体、さらには全身を以て感情を表現するようにしても良い。その場合、応答表情DB320は、顔の全体、全身に対応する映像データを各感情とその度合に対応付けて格納するように構成すれば良い。
このようにタブレット端末700をコミュニケーション装置として機能させれば、コミュニケーション装置としての専用ハードウェアを必要としないので、ユーザはより気軽にキャラクターとの対話を楽しむことができる。また、タブレット端末700の他のアプリケーションに連動させて映像キャラクター800と対話できるように構成すれば、様々な用途に応用できる。
次に、若干の変形例について説明する。第1の実施例では、実質的に全ての構成をロボット100が備え、第2の実施例では、主要な演算をサーバ300の演算処理部400が担った。しかし、ロボットとサーバが連携するシステムにおいては、それぞれが演算処理部を備え、担う機能を分担することもできる。例えば、軽微な演算はロボット側の演算処理部が担い、解析を必要とするような重い演算はサーバ側の演算処理部が担うと良い。具体的には、ロボット側の演算処理部は、頷き動作やロボット側から発する質問文選択を担い、サーバ側の演算処理部は、ユーザの個人認証や、感情推定、対話データの蓄積などを担うと良い。このように構成する場合は、ロボットとサーバが連携するシステムがコミュニケーション装置となる。
また、ロボットとサーバが連携するシステムに限らず、第3の実施例で説明したようなタブレット端末やスマートフォンとサーバが連携するシステムであっても良い。このような構成であっても、軽微な演算はタブレット端末やスマートフォン側の演算処理部が担い、解析を必要とするような重い演算はサーバ側の演算処理部が担うと良い。このように構成する場合は、ブレット端末やスマートフォンとサーバが連携するシステムがコミュニケーション装置となる。
以上説明した各実施例においては、カメラは対話するユーザの顔を撮影したが、全身を撮影するように画角を調整しても良い。例えば、飛び跳ねたり猫背であったりする全身の様子を観察できれば、第2感情をより精度良く推定することができる。また、第2感情を推定する情報源として、上記の実施例では対話するユーザの顔と生体情報の例を説明したが、これに限らない。ユーザの発話情報以外の様々な情報は、第2感情を推定する情報源になり得る。例えば、周辺環境からの集音マイクを備えれば、対話するユーザ以外の人物から不意に掛けられる声を集音することができ、第2感情推定部204は、その不意打ち具合により「驚き」の感情を推定することができる。
周辺環境の情報を取得するセンサとしては、集音マイクに限らず、他のセンサを採用することもできる。例えば、温度センサや湿度センサを周辺環境の情報を取得するセンサとすれば、第2感情推定部204は、これらの出力信号をユーザの不快度合を推定する情報として利用できる。
また、以上説明した各実施例においては、共感感情等の演算について、ラッセルの円環図を利用した。ラッセルの円環図を利用することにより、ユーザの感情をより定量的に演算することが可能となる。しかし、共感感情等の演算においては、他の様々な公知技術を採用しても構わない。
100、100’ ロボット、101 マイク、102 カメラ、106 表示パネル、109 スピーカ、111 バッテリ、112 バッテリ監視部、120 顔部、122 眼部、122a 右眼、122b 左眼、131 透光カバー、132 光ファイバ束、132a 光ファイバ、132b 被覆、190 通信IF、191a 表示右眼映像、192a 投影右眼映像、200、200’ 制御部、201 発話認識部、202 表情認識部、203 第1感情推定部、204 第2感情推定部、205 共感感情決定部、206 主体感情決定部、207 表情選択部、208 眼制御部、209 音声選択部、210 発話制御部、212 生体情報認識部、300 サーバ、310 応答音声DB、320 応答表情DB、400 演算処理部、490 通信IF、500 リストセンサ、700 タブレット端末、710 表示パネル、711 マイク、712 スピーカ、713 カメラ、800 映像キャラクター

Claims (9)

  1. キャラクターとユーザが対話するためのコミュニケーション装置であって、
    前記キャラクターに対するユーザの発話を取得する発話取得部と、
    前記発話とは異なる情報を取得する情報取得部と、
    前記発話取得部が取得した前記発話の内容に基づいて前記キャラクターが発する応答音声を生成する音声生成部と、
    前記発話取得部が取得した前記発話の内容に基づいて前記キャラクターの顔部で表現する応答表情を生成する表情生成部と
    複数の感情にそれぞれ対応付けられた前記応答表情のデータベースと
    を備え、
    前記表情生成部は、前記発話の内容に基づいて推定する第1感情と前記情報取得部で取得した前記情報に基づいて推定する第2感情との組み合わせに応じて決定する第3感情に対応付けられた前記応答表情を、前記データベースから選択し、
    前記データベースは、ラッセルの円環図に基づいて前記複数の感情とそれぞれの前記応答表情とが対応付けられており、
    前記表情生成部は、前記円環図において前記第1感情に対応する第1ベクトルと前記第2感情に対応する第2ベクトルの和に基づいて前記第3感情を決定する
    コミュニケーション装置。
  2. 前記表情生成部は、前記第3感情に予め定められた範囲で近似する第4感情に対応する前記応答表情を前記データベースから選択する請求項に記載のコミュニケーション装置。
  3. 前記表情生成部は、前記応答表情を連続して生成する場合には、前回生成した前記応答表情と今回生成する前記応答表情の間に、両者を補間する前記応答表情を併せて生成する請求項1又は2に記載のコミュニケーション装置。
  4. 前記情報取得部は、前記ユーザを撮像する撮像部を含む請求項1からのいずれか1項に記載のコミュニケーション装置。
  5. 前記情報取得部は、前記ユーザの生体情報を取得する生体センサを含む請求項1からのいずれか1項に記載のコミュニケーション装置。
  6. 前記情報取得部は、周辺環境の環境情報を取得する環境センサを含む請求項1からのいずれか1項に記載のコミュニケーション装置。
  7. 前記キャラクターを具現化するキャラクター装置の内部状態を取得する状態取得部を備え、
    前記表情生成部は、前記発話の内容と前記情報に加え、前記状態取得部が取得した前記内部状態に基づいて前記応答表情を生成する請求項1からのいずれか1項に記載のコミュニケーション装置。
  8. 請求項1からのいずれか1項に記載のコミュニケーション装置と、
    前記表情生成部が生成した前記応答表情を表現する前記顔部と
    を備える前記キャラクターを具現化したコミュニケーションロボット。
  9. キャラクターとユーザが対話するためのコミュニケーション装置のコンピュータで実行されるコミュニケーション制御プログラムあって、
    キャラクターに対するユーザの発話を取得する発話取得ステップと、
    前記発話とは異なる情報を取得する情報取得ステップと、
    前記発話取得ステップで取得した前記発話の内容に基づいて前記キャラクターが発する応答音声を生成する音声生成ステップと、
    前記発話取得ステップで取得した前記発話の内容に基づいて前記キャラクターの顔部で表現する応答表情を生成する表情生成ステップと
    を有し、
    前記表情生成ステップでは、前記発話の内容に基づいて推定する第1感情と前記情報取得ステップで取得した前記情報に基づいて推定する第2感情との組み合わせに応じて決定する第3感情に対応付けられた前記応答表情を、データベースから選択し、
    前記データベースは、複数の感情にそれぞれ対応付けられた前記応答表情のデータベースであり、ラッセルの円環図に基づいて前記複数の感情とそれぞれの前記応答表情とが対応付けられており、
    前記表情生成ステップでは、前記円環図において前記第1感情に対応する第1ベクトルと前記第2感情に対応する第2ベクトルの和に基づいて前記第3感情を決定する
    コミュニケーション制御プログラム。
JP2017116912A 2017-06-14 2017-06-14 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム Active JP6841167B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2017116912A JP6841167B2 (ja) 2017-06-14 2017-06-14 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
CN201810582297.5A CN109079805A (zh) 2017-06-14 2018-06-07 通信装置、通信机器人以及计算机可读存储介质
BR102018011528-6A BR102018011528A2 (pt) 2017-06-14 2018-06-07 dispositivo de comunicação, robô de comunicação e meio de armazenamento legível por computador
US16/002,506 US10733992B2 (en) 2017-06-14 2018-06-07 Communication device, communication robot and computer-readable storage medium
KR1020180066259A KR20180136387A (ko) 2017-06-14 2018-06-08 커뮤니케이션 장치, 커뮤니케이션 로봇 및 컴퓨터가 판독 가능한 기록 매체
EP18177184.1A EP3418008A1 (en) 2017-06-14 2018-06-12 Communication device, communication robot and computer-readable storage medium
RU2018121658A RU2696307C1 (ru) 2017-06-14 2018-06-14 Коммуникационное устройство, коммуникационный робот и машиночитаемый носитель данных
KR1020200091537A KR102355911B1 (ko) 2017-06-14 2020-07-23 커뮤니케이션 장치, 커뮤니케이션 로봇 및 컴퓨터가 판독 가능한 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017116912A JP6841167B2 (ja) 2017-06-14 2017-06-14 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム

Publications (2)

Publication Number Publication Date
JP2019000937A JP2019000937A (ja) 2019-01-10
JP6841167B2 true JP6841167B2 (ja) 2021-03-10

Family

ID=62783979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017116912A Active JP6841167B2 (ja) 2017-06-14 2017-06-14 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム

Country Status (7)

Country Link
US (1) US10733992B2 (ja)
EP (1) EP3418008A1 (ja)
JP (1) JP6841167B2 (ja)
KR (2) KR20180136387A (ja)
CN (1) CN109079805A (ja)
BR (1) BR102018011528A2 (ja)
RU (1) RU2696307C1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117666867A (zh) * 2016-11-24 2024-03-08 Groove X 株式会社 机器人
JP2019101492A (ja) 2017-11-28 2019-06-24 トヨタ自動車株式会社 コミュニケーション装置
KR102570279B1 (ko) * 2018-01-05 2023-08-24 삼성전자주식회사 감정 인식을 위한 학습 방법, 감정을 인식하는 방법 및 장치
WO2019200584A1 (en) * 2018-04-19 2019-10-24 Microsoft Technology Licensing, Llc Generating response in conversation
KR20190141303A (ko) * 2018-06-14 2019-12-24 엘지전자 주식회사 이동 로봇의 동작 방법
JP7010193B2 (ja) * 2018-10-25 2022-01-26 トヨタ自動車株式会社 対話装置および対話装置の制御プログラム
JP6993314B2 (ja) * 2018-11-09 2022-01-13 株式会社日立製作所 対話システム、装置、及びプログラム
CN111383642B (zh) * 2018-12-27 2024-01-02 Tcl科技集团股份有限公司 基于神经网络的语音应答方法、存储介质以终端设备
JP2022051982A (ja) 2019-02-15 2022-04-04 ソニーグループ株式会社 情報処理装置および情報処理方法
CN109920422A (zh) * 2019-03-15 2019-06-21 百度国际科技(深圳)有限公司 语音交互方法及装置、车载语音交互设备及存储介质
JP7385892B2 (ja) * 2019-05-14 2023-11-24 学校法人 芝浦工業大学 感情推定システム、および感情推定装置
JP2020188824A (ja) * 2019-05-17 2020-11-26 株式会社東海理化電機製作所 制御装置および提示システム
JP7300335B2 (ja) * 2019-07-17 2023-06-29 日本信号株式会社 案内ロボット及び案内ロボット用のプログラム
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
KR20210023367A (ko) * 2019-08-23 2021-03-04 엘지전자 주식회사 로봇 및 그의 제어 방법
KR102045761B1 (ko) * 2019-09-26 2019-11-18 미디어젠(주) 캐릭터 발화 맥락에 따른 음성합성 모델 변경장치
CN110737335B (zh) * 2019-10-11 2021-03-23 深圳追一科技有限公司 机器人的交互方法、装置、电子设备及存储介质
CN111128190B (zh) * 2019-12-31 2023-03-21 恒信东方文化股份有限公司 一种表情匹配的方法及系统
US11386888B2 (en) * 2020-07-17 2022-07-12 Blue Ocean Robotics Aps Method of adjusting volume of audio output by a mobile robot device
WO2022114263A1 (ko) * 2020-11-26 2022-06-02 주식회사 제페토로보틱스 교육용 로봇의 동작보정 시스템 및 동작보정 방법
US20240095310A1 (en) * 2020-12-07 2024-03-21 Sony Group Corporation Information processing device, data generation method, grouping model generation method, grouping model learning method, emotion estimation model generation method, and grouping user information generation method
CN112706177A (zh) * 2020-12-28 2021-04-27 浙江合众新能源汽车有限公司 一种语音触发机器人表情系统
CN112847369B (zh) * 2021-01-08 2023-04-07 深圳市注能科技有限公司 机器人情绪转变的方法、装置、机器人及存储介质
WO2023000310A1 (en) * 2021-07-23 2023-01-26 Huawei Technologies Co., Ltd. Methods, devices, and media for customizing and expressing personality of robot
KR102598435B1 (ko) * 2021-11-29 2023-11-07 한국과학기술연구원 사람의 감정 변화 패턴을 반영한 로봇의 감정 상태 결정 장치 및 방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS534232A (en) 1975-12-27 1978-01-14 Katsumi Miyake Heating device for fuel oil
US6570555B1 (en) * 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
US6975970B2 (en) 2000-12-15 2005-12-13 Soliloquy, Inc. Method for designing an interactive system
FR2874724A1 (fr) * 2004-12-03 2006-03-03 France Telecom Procede d'animation temporelle d'un avatar tridimensionnel, dispositif, programme d'ordinateur, produit programme d'ordinateur et support d'enregistrement correspondants
DE602006009191D1 (de) * 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
US20080119959A1 (en) 2006-11-21 2008-05-22 Park Cheonshu Expression of emotions in robot
TWI332179B (en) 2007-04-13 2010-10-21 Univ Nat Taiwan Science Tech Robotic system and method for controlling the same
CN101298141A (zh) 2007-04-30 2008-11-05 林其禹 机器人系统及机器人系统的控制方法
US8046220B2 (en) * 2007-11-28 2011-10-25 Nuance Communications, Inc. Systems and methods to index and search voice sites
US20100020837A1 (en) * 2008-07-22 2010-01-28 Avago Technologies Fiber Ip (Singapore) Pte. Ltd. Semiconductor light emission device having an improved current confinement structure, and method for confining current in a semiconductor light emission device
CN101888439A (zh) * 2009-05-11 2010-11-17 北京三星通信技术研究有限公司 一种基于卡通形象整体化显示的手机装置及其方法
JP5499924B2 (ja) 2010-06-14 2014-05-21 富士通株式会社 ロボットの制御方法、ロボットの制御プログラムおよびロボット
JP2013239914A (ja) 2012-05-15 2013-11-28 Nikon Corp 撮像装置
JP5624100B2 (ja) 2012-10-03 2014-11-12 コリア インスティチュートオブ インダストリアル テクノロジー 人工感情学習装置及び方法
US9199122B2 (en) 2012-10-09 2015-12-01 Kc Holdings I Personalized avatar responsive to user physical state and context
US20150314454A1 (en) 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
EP2933067B1 (en) 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
JP6359478B2 (ja) * 2015-03-31 2018-07-18 シャープ株式会社 ロボット
CN106325112B (zh) 2015-06-25 2020-03-24 联想(北京)有限公司 一种信息处理方法及电子设备
RU2598050C1 (ru) * 2015-07-29 2016-09-20 Военный Институт (Физической Культуры) Военно-Медицинской Академии Им. С.М. Кирова Способ видео-компьютерной диагностики эмоционального состояния обучаемых и выработки решений на рациональное деление учебных групп
JP6436030B2 (ja) * 2015-09-17 2018-12-12 トヨタ自動車株式会社 ライフログ記録システム
JP6985005B2 (ja) * 2015-10-14 2021-12-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体
KR101864142B1 (ko) 2015-11-10 2018-06-05 (주)이산로봇 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템
CN105739688A (zh) * 2016-01-21 2016-07-06 北京光年无限科技有限公司 一种基于情感体系的人机交互方法、装置和交互系统
US20190095775A1 (en) * 2017-09-25 2019-03-28 Ventana 3D, Llc Artificial intelligence (ai) character system capable of natural verbal and visual interactions with a human

Also Published As

Publication number Publication date
KR20200091839A (ko) 2020-07-31
JP2019000937A (ja) 2019-01-10
CN109079805A (zh) 2018-12-25
EP3418008A1 (en) 2018-12-26
RU2696307C1 (ru) 2019-08-01
US20180366121A1 (en) 2018-12-20
US10733992B2 (en) 2020-08-04
BR102018011528A2 (pt) 2019-01-15
KR102355911B1 (ko) 2022-02-07
KR20180136387A (ko) 2018-12-24

Similar Documents

Publication Publication Date Title
JP6841167B2 (ja) コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
US11636652B2 (en) Periocular and audio synthesis of a full face image
US11568643B2 (en) Automatic control of wearable display device based on external conditions
US11740474B2 (en) Face model capture by a wearable device
JP7344894B2 (ja) 眼追跡カメラからの顔の表情
US20220269346A1 (en) Methods and apparatuses for low latency body state prediction based on neuromuscular data
KR102196380B1 (ko) 사용자의 감정 상태들을 사용하여 가상 이미지 생성 시스템을 제어하기 위한 기술
JP2023520463A (ja) 最適視線弁別のためのアバタカスタマイズ
JP7020159B2 (ja) コミュニケーション装置およびその制御プログラム
JP2005237561A (ja) 情報処理装置及び方法
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
US20240212388A1 (en) Wearable devices to determine facial outputs using acoustic sensing
JP7204984B1 (ja) プログラム、方法、情報処理装置
JP2019130610A (ja) コミュニケーションロボットおよびその制御プログラム
JP2020126195A (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
JP7194371B1 (ja) プログラム、方法、情報処理装置
JP7339420B1 (ja) プログラム、方法、情報処理装置
JP2022092558A (ja) 手話補助システム、装着具、手話補助方法、及び手話補助プログラム。

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R151 Written notification of patent or utility model registration

Ref document number: 6841167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151