[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPWO2016092924A1 - 情報処理装置、制御方法、およびプログラム - Google Patents

情報処理装置、制御方法、およびプログラム Download PDF

Info

Publication number
JPWO2016092924A1
JPWO2016092924A1 JP2016563553A JP2016563553A JPWO2016092924A1 JP WO2016092924 A1 JPWO2016092924 A1 JP WO2016092924A1 JP 2016563553 A JP2016563553 A JP 2016563553A JP 2016563553 A JP2016563553 A JP 2016563553A JP WO2016092924 A1 JPWO2016092924 A1 JP WO2016092924A1
Authority
JP
Japan
Prior art keywords
response
behavior
information
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016563553A
Other languages
English (en)
Inventor
松山 科子
科子 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016092924A1 publication Critical patent/JPWO2016092924A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Human Computer Interaction (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Human Resources & Organizations (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザの行動情報に基づき、普段と異なる行動に対して応答することで、ユーザが欲しいであろう情報を適切なタイミングで提示することが可能な情報処理装置、制御方法、およびプログラムを提供する。【解決手段】蓄積された行動情報に基づいて、所定期間内における行動パターンを解析する行動解析部と、前記行動パターンと異なる行動が検知された際に、当該異なる行動に対する応答を生成する生成部と、前記生成された応答の出力タイミングを決定する決定部と、を備える、情報処理装置。【選択図】図3

Description

本開示は、情報処理装置、制御方法、およびプログラムに関する。
近年、音声を認識して意味解析を行い、ユーザの発話に対して自動的に回答を行う対話システムが提案されている。このような対話システムは発話に対して必要な情報が返されるのみであって、ユーザが使い続けたいと思うような付加価値は無かった。
これに対し、下記特許文献1では、音楽データや映像データのコンテンツ配信サービスにおいて、ユーザの嗜好や操作の癖に合った、現在のユーザにとって最適なコンテンツを選択するシステムが提案されている。音楽等のコンテンツをユーザの嗜好に基づいて選択することで、選択結果に意外性を持たせている。
特開2008−97313号公報
しかしながら、特許文献1に記載のシステムでは、ユーザの行動を検知して行動特徴に応じた応答を自動的に行うことについては考慮されていない。また、特許文献1に記載システムは、ユーザから発話を行った時に選択結果が返信されるものであって、自動的に情報提供は行われない。
また、ユーザから発話を行った時以外に情報提供を行うサービスは多々提供されているが、適切なタイミングで役に立つ情報が提示されなければ、ユーザにとっては邪魔で煩わしいものであった。例えば一度検索したキーワードに基づいて広告やお勧めの店等の情報がその後頻繁に提示されても、提示された時やその日に店に行けなければ役に立たない情報であるため、ユーザにとっては不要であった。
したがって、ユーザが発話をしなくても、ユーザが欲しいであろう情報が適切なタイミングで提示されれば、ユーザにとって利便性の高いシステムとなる。例えば、毎朝コーヒーショップに行くことが日課のユーザが、旅行や出張等で普段と異なる場所を訪れた際に、朝、近くにあるコーヒーショップの場所が自動的に提示されると、ユーザにとって役に立つ情報が適切なタイミングで提示されたと言える。また、毎日同じような行動をしている時には不要であるが、珍しくよく歩いた日には、「今日は疲れたね」「運動になったね」「今日の消費カロリーはいつもより○○○カロリーも多かったよ」といった、労りや同調の言葉、普段とどう違ったかを示す情報が、ユーザにとって欲しい情報となる。
このように、ユーザが欲しいであろう情報や情報提示の適切なタイミングは、ユーザの行動に応じて判断することが可能である。
そこで、本開示では、ユーザの行動情報に基づき、普段と異なる行動に対して応答することで、ユーザが欲しいであろう情報を適切なタイミングで提示することが可能な情報処理装置、制御方法、およびプログラムを提案する。
本開示によれば、蓄積された行動情報に基づいて、所定期間内における行動パターンを解析する行動解析部と、前記行動パターンと異なる行動が検知された際に、当該異なる行動に対する応答を生成する生成部と、前記生成された応答の出力タイミングを決定する決定部と、を備える情報処理装置を提案する。
本開示によれば、蓄積された行動情報に基づいて、所定期間内における行動パターンを解析することと、前記行動パターンと異なる行動が検知された際に、当該異なる行動に対する応答を生成することと、前記生成された応答の出力タイミングを決定することと、を含む、制御方法を提案する。
本開示によれば、コンピュータを、蓄積された行動情報に基づいて、所定期間内における行動パターンを解析する行動解析部と、前記行動パターンと異なる行動が検知された際に、当該異なる行動に対する応答を生成する生成部と、前記生成された応答の出力タイミングを決定する決定部と、として機能させるためのプログラムを提案する。
以上説明したように本開示によれば、ユーザの行動情報に基づき、普段と異なる行動に対して応答することで、ユーザが欲しいであろう情報を適切なタイミングで提示することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要を説明する図である。 本実施形態によるユーザ端末の構成の一例を示すブロック図である。 本実施形態によるサーバの構成の一例を示すブロック図である。 本実施形態による習慣解析処理を示すフローチャートである。 本実施形態による応答処理を示すフローチャートである。 本実施形態による応答蓄積処理を示すフローチャートである。 本実施形態による再応答処理を示すフローチャートである。 本実施形態によるスマートアイグラスの場合における応答表示例を示す図である。 本実施形態によるスマートフォンの場合における応答表示例を示す図である。 本実施形態による部屋での応答表示例を示す図である。 本実施形態による複数のユーザ端末で連携する応答表示例を示す図である。 本実施形態によるメッセージに応じたキャラクタ様相例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成
2−1.ユーザ端末の構成
2−2.サーバの構成
3.動作処理
3−1.習慣解析処理
3−2.応答処理
3−3.応答蓄積処理および再応答処理
4.応答提示例
5.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
まず、本開示の一実施形態による情報処理システムの概要を図1に示して説明する。図1に示すように、本実施形態による情報処理システムは、ユーザが所持するユーザ端末1と、応答生成および提示タイミングの制御を行うサーバ2とを含む。ユーザ端末1とサーバ2は、例えばネットワーク3を介して接続する。
ユーザ端末1は、図1に示すように、例えばスマートアイグラス1a、スマートフォン1b、スマートウォッチ1c等により実現される。ユーザ端末1は、ユーザの行動情報を継続的にセンシングし、検知した行動情報を、ネットワーク3を介してサーバ2に送信する。具体的には、例えばユーザ端末1には、GPS(Global Positioning System)、加速度センサ、地磁気センサ等が搭載され、位置情報や動き情報(活動量)がセンシングされる。
サーバ2は、ユーザ端末1から送信された行動情報を蓄積し、行動情報からユーザの行動パターンを解析する。また、サーバ2は、ユーザの行動が行動パターンと異なる場合、すなわち普段と異なる行動が検知された場合、当該異なる行動に対して自動的に応答を生成し、ユーザ端末1からユーザに提示する。また、サーバ2は、応答の提示タイミングを応答内容に応じて制御することが可能である。例えば、サーバ2は、ユーザの現在地近くに存在する店の情報等、位置情報に基づく情報であれば即時提示するよう制御し、ユーザの活動量(歩数、走った距離、立っていた時間等)に基づくものであれば一日の活動終了後、例えば帰宅時に提示するよう制御する。また、サーバ2は、ユーザの行動や行動パターン(習慣)に応じた所定のタイミングで提示するよう制御することも可能である。
これにより、普段同じような行動を取っている場合には提示される情報も常態化してきて面白味に欠けるが、普段と異なる行動に基づいて応答を自動生成し、応答タイミングを制御することで、ユーザが欲しいであろう情報を適切なタイミングで提示することができる。
以上、本開示の一実施形態による情報処理システムの概要について説明した。なお、ユーザ端末1は、図1に示すような形態に限定されず、例えばタブレット端末、携帯電話端末、PDA(Personal Digital Assistant)、PC(Personal Computer)、携帯用音楽プレーヤー、携帯用ゲーム機、またはウェアラブル端末(HMD(ヘッドマウントディスプレイ)、スマートバンド)であってもよい。また、図1に示す例では、ユーザ端末1が、ユーザの行動をセンシングする機能と、サーバ2の制御に従って応答を提示する機能とを兼ねているが、センシング機能と提示機能を別々の情報処理端末で行ってもよいし、また、センシング機能を複数の情報処理端末に設けてもよい。
続いて、本実施形態の情報処理システムに含まれるユーザ端末1およびサーバ2の構成について説明する。
<<2.構成>>
<2−1.ユーザ端末の構成>
図2は、本実施形態によるユーザ端末1の構成の一例を示すブロック図である。図2に示すように、ユーザ端末1は、制御部10、通信部11、入力部12、現在位置計測部13、動き検知部14、表示部15、スピーカ16、および記憶部17を有する。
(制御部10)
制御部10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、ユーザ端末1の各構成を制御する。具体的には、本実施形態による制御部10は、現在位置計測部13により計測された現在位置情報や、動き検知部14により検知された動き情報(すなわち活動量情報)を、通信部11からサーバ2に送信するよう制御する。なお制御部10は、現在位置情報および動き情報をリアルタイムで送信するよう制御してもよい。また、制御部10は、通信部11を介してサーバ2から送信された応答を表示部15またはスピーカ16から出力するよう制御する。
(通信部11)
通信部11は、無線/有線により外部装置と接続し、データの送受信を行う機能を有する。本実施形態による通信部11は、例えばサーバ2と接続し、制御部10の制御に従って、現在位置情報および動き情報を送信したり、サーバ2で生成された応答を受信したりする。
(入力部12)
入力部12は、ユーザによる情報入力操作を検出し、検出した入力情報を制御部10に送信する。例えば入力部12は、タッチパネル、キーボード、テンキー、ボタン、スイッチ等により実現される。また、入力部12をカメラにより実現することで、ジェスチャー入力が可能となる。また、入力部12をマイクロフォンにより実現することで、音声入力が可能となる。また、入力部12は、複数種類の入力デバイスにより実現されてもよい。
(現在位置計測部13)
現在位置計測部13は、外部からの取得信号に基づいてユーザ端末1の現在位置を検知する機能を有する。具体的には、例えば現在位置計測部13は、GPS測位部により実現され、GPS衛星からの電波を受信して、ユーザ端末1が存在している位置を検知し、検知した位置情報を制御部10に出力する。また、現在位置計測部13は、GPSの他、例えばWi−Fi(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
(動き検知部14)
動き検知部14は、ユーザ端末1の動きを検知する機能を有する。具体的には、例えば動き検知部14は、3軸加速度センサおよび地磁気センサ等により実現され、これらで検知されるデータを利用して、ユーザの活動量(停止時間、歩行時間、歩数、走行時間、座っていた時間、立っていた時間、乗り物に乗っていた時間等)を検知する。動き検知部14は、検知した動き情報を制御部10に出力する。
(表示部15)
表示部15は、制御部10の指示に従って、画面に文字や画像その他の情報を表示する機能を有する。
(スピーカ16)
スピーカ16は、制御部10の指示に従って、音声信号を再生する機能を有する。
(記憶部17)
記憶部17は、様々なデータを記憶し、例えば制御部10の各処理を実行するためのプログラムを記憶する。また、記憶部17は、ユーザのスケジュール情報を記憶していてもよい。
以上、本実施形態によるユーザ端末1の構成について具体的に説明した。なおユーザ端末1の構成は図2に示す例に限定されず、例えばスピーカ16を有さない構成であってもよい。また、ユーザ端末1は、現在位置計測部13や動き検知部14が別体に設けられ、別体から近距離無線通信(例えば赤外線通信、Wi−Fi(登録商標)、Bluetooth(登録商標))により現在位置情報および動き情報を取得する構成であってもよい。
<2−2.サーバの構成>
図3は、本実施形態によるサーバ2の構成の一例を示すブロック図である。図3に示すように、サーバ2は、制御部20、通信部21、行動情報記憶部22、習慣記憶部23、および応答記憶部24を有する。
(制御部20)
制御部20は、例えばCPU、ROM、RAM、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、サーバ2の各構成を制御する。具体的には、本実施形態による制御部20は、図3に示すように、行動情報記憶制御部20a、習慣解析部20b、応答生成部20c、タイミング決定部20d、応答出力制御部20e、音声認識部20f、意味解析部20g、天候情報取得部20h、およびフィードバック部20iとして機能する。
行動情報記憶制御部20aは、通信部21を介してユーザ端末1から送信された現在位置情報および動き情報等を行動情報として行動情報記憶部22に記憶する。動き情報とは、歩数、歩いた時間、走った時間、乗車時間、立っていた時間、または座っていた時間等を示す活動量情報である。
習慣解析部20bは、行動情報記憶部22に記憶された行動情報に基づいて、ユーザの行動パターン、すなわち習慣を解析する。具体的には、習慣解析部20bは、所定期間の行動情報に基づいて、ユーザの習慣を解析する。例えば習慣解析部20bは、過去Nカ月の行動情報に基づいて、訪問場所のカテゴリ(飲食店、コンビニ、本屋等)を抽出し、訪問回数が多いカテゴリまたは店名を、ユーザがいつも行く場所として検出する。訪問回数の多さは、ユーザのカテゴリ別の訪問回数の中で判断してもよいし、他ユーザの統計と比べて判断してもよい。また、習慣解析部20bは、訪問回数が多い訪問場所に行った日時も併せて抽出することで、ユーザが平日朝または夜、若しくは休日朝または夜等にいつも行く場所を検出することができる。また、習慣解析部20bは、過去Nカ月の行動情報に基づいて、いつもの歩数(平日、休日別)、いつも電車に乗っている時間・場所(立っている/座っている率)等を解析してもよい。さらに、習慣解析部20bは、過去一週間の行動情報に基づいて、出社時間、帰社時間、帰宅時間等の平均や分散を解析し、出社時間、帰社時間、帰宅時間等の習慣を検出することもできる。習慣解析部20bにより解析された習慣情報は、習慣記憶部23に記憶される。
応答生成部20cは、通信部21を介してユーザ端末1から受信したユーザの行動情報に対する応答を生成する。具体的には、応答生成部20cは、習慣記憶部23に記憶されたユーザの習慣を参照し、習慣と異なる行動が検知された際に、当該異なる行動に対する応答を生成する。例えば応答生成部20cは、位置情報に基づいて、ユーザが普段訪れない場所に訪れたことが分かった場合、「楽しかったかな?」「いつもと違うことができたかな」といった呼びかけを生成する。また、応答生成部20cは、毎朝コーヒーショップに行くといったユーザの習慣に基づいて、ユーザが普段訪れない場所を訪れた際には、近くに存在する同カテゴリまたは同名称のコーヒーショップに関する情報(場所情報)を生成する。なお、応答生成部20cは、ユーザの習慣の他、ユーザの嗜好情報に基づいて、ユーザが普段訪れない場所を訪れた際に、近くに存在するユーザが好む飲食店等に関する情報(場所情報)を生成してもよい。
また、応答生成部20cは、活動量に関する習慣と動き情報(歩数、歩いている時間、立っている時間等)に基づいて、普段より活動量が多い/少ないことが分かった場合、「運動になったね」「今日はよく歩いたね」といった呼びかけを生成する。また、応答生成部20cは、「今日はいつもよりn歩も歩いたよ」「今日の消費カロリーはいつもより多いよ」といった通常の行動との違いを伝える情報を生成する。
また、応答生成部20cは、生活に関する習慣と動き情報に基づいて、いつも座れている電車で座れなかったことが分かった場合、「今日は残念だったね」「今日は疲れたね」といった、労りや同調の言葉を生成する。また、応答生成部20cは、普段よりも帰社や帰宅時間が遅いことが分かった場合、「遅くまで頑張ったね、お疲れさま」といった、労りや同調の言葉を生成する。また、応答生成部20cは、帰社や帰宅時間が遅いことが一週間続いた場合、「今週は忙しかったね」といった、所定期間に対する労りや同調の言葉を生成する。
以上、普段の習慣と異なる行動に対する応答生成について説明したが、本実施形態による応答生成部20cによる応答生成はこれに限定されない。例えば、応答生成部20cは、ユーザが通勤/通学時、買い物時、子供の送迎時等に歩きや自転車で移動する習慣の場合、天候情報取得部20hにより取得された天候情報が特殊な場合や天候に基づく不快指数が所定値より高い場合には、天候を知らせる応答、特殊な天候に応じた助言、特殊な天候に応じた労りや同調の言葉を生成する。具体的には、応答生成部20cは、「夜から急に冷え込んだね。自転車寒かったよね」「蒸し暑いね、水分補給を忘れずに」「雪大丈夫?」といった同調、労り、呼びかけ、助言等の応答を生成する。天候情報取得部20hは、外部の所定サーバから天候に関する情報を取得し、応答生成部20cに出力する。
なお特殊な天候であるか否かの判断や不快指数の算出は一般的な方法を用いて行われ得る。例えば、不快指数は、温度(Td)および湿度(H)を用いて、式1:0.81Td+0.01H(0.99Td-14.3)+46.3により求められる。不快指数55以下の場合は寒さによる不快を感じ、85以上の場合は暑さによる不快を感じるため、このような場合に、応答生成部20cは応答を生成する。また、応答生成部20cは、大雨や大雪といった特殊な天候は、地域によって定められた基準(例えば一時間あたり20mm以上の雨であれば大雨、24時間降雪の深さ20cmであれば大雪等)に基づいて判断してもよい。
また、応答生成部20cは、ユーザが通勤/通学時に電車で移動する習慣の場合、鉄道情報に基づいて事故、遅延、見合わせ等の普段と異なる状況が発生している場合には、事故等を知らせる応答、助言、労りや同調の言葉を生成する。
また、応答生成部20cは、ユーザからの発話(音声による問い合わせ)に応じた応答を生成することも可能である。具体的には、例えばユーザ端末1においてユーザが発話を行った場合、入力部12により収音された音声がサーバ2に送信され、サーバ2は、音声認識部20fにより音声認識を行って文字データに変換する。次いで、意味解析部20gにより、音声認識部20fから出力された文字データの意味を解析する。例えば「週末の天気は?」といった文字列が音声認識により出力された場合、意味解析部20gは、現在日時から「週末」の日付を判断する。また、意味解析部20gは、ユーザの現在位置または住所、勤務地、若しくはスケジュール情報から週末に出掛ける予定が入っている場合には外出先の場所に基づいて、「どこの天気」を聞いているかを推定する。これにより、意味解析部20gは、「○月×日における△△(場所)の天候情報」の発話であると解析することができる。そして、応答生成部20cは、意味解析部20gから出力された解析結果(ユーザの発話の意味)に応じた応答を生成する。例えば、「○月×日における△△(場所)の天候情報」といった発話の場合、応答生成部20cは、天候情報取得部20hにより取得された天候情報に基づいて、応答を生成する。また、このようにユーザの発話に応じて生成した応答内容は、応答記憶部24に記憶される。
また、応答生成部20cは、応答記憶部24に記憶された、既に回答した応答に変化があった場合、変化を通知するための応答を生成してもよい。例えばユーザからの発話に応じて一週間後の天候情報を応答した数日後に天気予報が変わった場合、応答生成部20cは、最新の天候情報に基づいた応答を生成する。以上、発話に応じた応答生成部20cによる応答の生成について説明したが、本実施形態はこれに限定されず、音声以外の、例えば文字入力やジェスチャー等によるユーザからの問い合わせに対して応答を生成することも可能である。
タイミング決定部20dは、応答生成部20cで生成された応答のユーザへの提示タイミングを決定する。具体的には、タイミング決定部20dは、応答を即時提示するか、朝・外出時・降車時・帰宅時・就寝前・週末等の特定のタイミング(ユーザの行動または行動パターンに応じた所定のタイミング)で提示するかを決定する。例えば、タイミング決定部20dは、場所に関する情報であれば即時提示するようタイミングを決定してもよい。具体的には、例えばユーザが普段行かない場所を訪れた際に、ユーザがいつも行く店と同カテゴリまたは同名称の店が近くにある場合、当該店の情報を即時提示するよう決定する。また、タイミング決定部20dは、ユーザが朝にいつも行く店と同カテゴリの店であれば、朝に提示するよう決定し、夜にいつも行く店と同カテゴリの店であれば夜に提示するよう決定するよう、習慣に基づいて決定してもよい。
また、タイミング決定部20dは、一日の活動量が普段と異なる場合の呼びかけ等の応答の場合、一日の活動終了時すなわち帰宅時に提示するよう決定してもよい。
また、タイミング決定部20dは、普段の生活習慣と異なる場合の労りや同調の言葉の応答の場合、一日の生活終了時すなわち帰宅時や就寝時に提示するよう決定してもよい。また、タイミング決定部20dは、乗車時の状態が普段と異なる場合の労りや同調の言葉の応答の場合、降車時に提示するよう決定してもよい。
また、タイミング決定部20dは、特殊な天候や鉄道事故等を知らせる応答や助言であれば出発前、特殊な天候や鉄道事故等に応じた労りや同調の言葉の場合は帰宅時に提示するよう決定してもよい。
また、タイミング決定部20dは、ユーザからの発話に応じて生成した応答は即時提示するよう決定する。
また、タイミング決定部20dは、既に回答した応答に変化があった場合に応答生成部20cにより生成された、変化を通知するための応答の場合、変化があった場合に即時提示するよう決定してもよいし、帰宅後のユーザが自宅で過ごしている時間に通知するよう決定してもよい。
応答出力制御部20eは、タイミング決定部20dにより決定されたタイミングで、応答生成部20cにより生成された応答をユーザ端末1からユーザに提示するよう制御する。例えば、応答出力制御部20eは、タイミング決定部20dにより決定されたタイミングになった際に、ユーザ端末1に応答を送信して、当該応答を提示するよう指示する。または、応答出力制御部20eは、通信部21からユーザ端末1に応答を送信すると共に、当該応答の提示タイミングを指示してもよい。ユーザ端末1では、例えばスピーカ16または表示部15から応答が出力(音声出力、表示出力)される。
さらに、応答出力制御部20eは、ユーザ端末1のデバイス種別に応じて応答の出力態様を制御することも可能である。例えば、ユーザ端末1がスマートバンドやスマートウォッチといった比較的表示領域が小さいデバイスの場合、応答出力制御部20eは、情報の粒度を粗く、すなわち応答の概要を提示するよう制御する。一方、ユーザ端末1がスマートフォンやタブレット端末といった比較的表示領域が大きいデバイスの場合、応答出力制御部20eは、情報の粒度を細かく、すなわち応答の詳細情報を提示するよう制御する。また、応答出力制御部20eは、スマートバンドやスマートウォッチに概要を表示させると共に、スマートフォンやタブレット端末に詳細情報を表示させるといった複数のデバイスに異なる粒度で応答を提示するよう制御してもよい。
フィードバック部20iは、自動生成した応答に対するユーザの行動をフィードバックとして応答生成部20cやタイミング決定部20d、習慣記憶部23に反映させることで、より適切な応答の生成や、タイミングの決定、習慣情報の蓄積を実現することができる。また、フィードバック部20iは、ユーザが好きと回答したものを嗜好情報としてサーバ2が有する嗜好情報記憶部(不図示)に反映させてもよい。
(通信部21)
通信部21は、無線/有線により外部装置と接続し、データの送受信を行う機能を有する。本実施形態による通信部21は、例えばユーザ端末1と接続し、ユーザの行動情報を受信したり、応答出力制御部20eの制御に従って応答情報をユーザ端末1に送信したりする。
(行動情報記憶部22)
行動情報記憶部22は、ユーザ端末1から送信されたユーザの行動情報(位置情報および動き情報等)を記憶する。
(習慣記憶部23)
習慣記憶部23は、習慣解析部20bにより解析されたユーザの習慣情報(行動パターン)を記憶する。
(応答記憶部24)
応答記憶部24は、応答生成部20cにより生成されたユーザからの発話に対する応答を記憶する。
以上、本実施形態によるサーバ2の構成について具体的に説明した。なおサーバ2の構成は図3に示す例に限定されず、例えば行動情報記憶部22、習慣記憶部23、および応答記憶部24が外部サーバに設けられていてもよい。
<<3.動作処理>>
続いて、本実施形態による情報処理システムの動作処理について、図4〜図7を参照して具体的に説明する。
<3−1.習慣解析処理>
図4は、本実施形態による習慣解析処理を示すフローチャートである。図4に示すように、まず、ステップS103において、ユーザ端末1はユーザの行動情報を検知する。上述したように、ユーザの行動情報は、現在位置計測部13による位置情報、動き検知部14による動き情報が含まれる。また、ユーザ端末1は、検知したユーザの行動情報をサーバ2に送信する。行動情報の送信は継続的にリアルタイムで行われ得る。
次に、ステップS106において、サーバ2の行動情報記憶制御部20aは、ユーザ端末1から送信された行動情報を行動情報記憶部22に記憶する。
次いで、ステップS109において、サーバ2の習慣解析部20bは、行動情報記憶部22に蓄積された行動情報に基づいて、習慣(すなわち行動パターン)を解析する。例えば習慣解析部20bは、過去1カ月や1週間の行動情報に基づいて、平日・休日における時間帯別の行動パターンを解析する。
そして、ステップS112において、サーバ2の習慣記憶部23は、習慣解析部20bによる解析結果である習慣情報(例えば時間軸に場所・事柄を対応付けた情報)を記憶する。
<3−2.応答処理>
図5は、本実施形態による応答処理を示すフローチャートである。図5に示すように、まず、ステップS123において、ユーザ端末1はユーザの行動情報を検知し、サーバ2に送信する。
次に、ステップS126において、サーバ2の行動情報記憶制御部20aは、ユーザ端末1から送信された行動情報を行動情報記憶部22に記憶する。
次いで、ステップS129において、サーバ2の応答生成部20cは、習慣記憶部23からユーザの習慣情報の読み出しを行う。
次に、ステップS132において、応答生成部20cは、ユーザ端末1から送信されたユーザの行動情報と、習慣記憶部23から読み出した習慣情報とを比較して、ユーザの行動が習慣と異なるか否かを判断する。具体的には、例えば応答生成部20cは、ユーザがいつも行く場所と異なる場所に居るか、また、ユーザの動き(活動量)がいつもと異なるかを判断する。
次いで、習慣と異なる場合(ステップS132で「Yes」)、ステップS135において、応答生成部20cは、異なる行動に対する応答を生成する。この際、応答生成部20cは、必要に応じて習慣記憶部23から読み出した習慣情報を用いて、いつも行く店と同カテゴリの店の情報を生成してもよい。また、応答生成部20cは、いつもより活動量が多い場合や、いつも座れる電車で座れなかった場合、いつもより帰宅時間が遅かった場合等は、呼びかけや、労り・同調の言葉を応答として生成してもよい。
次に、ステップS138において、タイミング決定部20dは、応答生成部20cで生成された応答のユーザへの出力タイミングを決定する。
次いで、決定されたタイミングになった場合(S141で「Yes」)、ステップS144において、応答出力制御部20eは、応答をユーザ端末1からユーザへ出力するよう制御する。応答の出力は、音声出力や表示出力により行われ得る。
<3−3.応答蓄積処理および再応答処理>
図6は、本実施形態による応答蓄積処理を示すフローチャートである。図6に示すように、まず、ステップS203において、ユーザ端末1の入力部12によりユーザからの発話(音声入力)が検知され、サーバ2に送信される。
次いで、ステップS206において、サーバ2の音声認識部20fは、ユーザ端末1から送信された音声の認識を行い、音声を文字データへ変換する。
次に、ステップS209において、意味解析部20gは、音声認識部20fにより変換された文字データの意味(発話の内容)を抽出する。
次いで、ステップS212において、応答生成部20cは、意味解析部20gにより抽出されたユーザによる発話の意味、すなわち発話内容に対する応答を生成する。例えば応答生成部20cは、ユーザからの発話が天候情報の発話である場合、意味解析部20gにより抽出した日時および場所の天候情報を応答として生成する。
次に、ステップS215において、応答出力制御部20eは、応答生成部20cにより生成された応答をユーザ端末1からユーザに出力するよう制御する。
次いで、ステップS218において、制御部20は、応答内容を応答記憶部24に記憶する。この際、制御部20は、応答内容が未来の天候情報等の今後変化する可能性がある応答内容の場合、○日までに天候変化時は要回答といった付加情報を付けて応答記憶部24に記憶する。
なお、制御部20は、ユーザからの発話がユーザの好みに関するものである場合、サーバ2が有する嗜好情報記憶部(不図示)にユーザの嗜好情報として記憶してもよいし、習慣記憶部23に習慣として反映させてもよい。例えば「毎朝コーヒーショップに行くのが楽しいな」といった好みの発話の場合、制御部20は、習慣として習慣記憶部23に反映させることができる。
図7は、本実施形態による再応答処理を示すフローチャートである。図6を参照して上述したように、一度行った応答が応答記憶部24に記憶されているため、サーバ2は、その後応答内容に変化があった場合には再度応答を行うことが可能である。
具体的には、まず、ステップS223において、応答生成部20cは、応答記憶部24に記憶した応答内容に変化があったか否かを判断する。例えば応答生成部20cは、週末の天候情報について応答した後、週末が到来する前に天候情報に変化が生じた場合、応答内容に変化ありと判断する。
次いで、応答内容に変化があった場合(S223で「Yes」)、ステップS226において、応答生成部20cは、新たな応答を生成する。
次に、ステップS229において、タイミング決定部20dは、再度生成した応答の出力タイミングを決定する。
次いで、決定されたタイミングになった場合(S232で「Yes」)、ステップS229において、応答出力制御部20eは、応答生成部20cにより再度生成された応答をユーザ端末1からユーザに出力するよう制御する。
そして、ステップS232において、制御部20は、応答記憶部24に記憶された応答情報を更新する。
以上、本実施形態による動作処理について具体的に説明した。続いて、本実施形態による応答の提示例について説明する。本実施形態によるユーザ端末1での応答の提示は、スピーカ16からの音声出力であってもよいし、表示部15からの表示出力であってもよい。以下では、表示出力の場合における応答表示画面の具体例について図8〜図12を参照して説明する。
<<4.応答提示例>>
図8は、スマートアイグラス1aの場合における応答表示例を示す図である。図8に示すように、ユーザ端末1がスマートアイグラス1aにより実現されている場合、スマートアイグラス1aをユーザが装着した場合にユーザの眼前に位置するレンズ部が表示部15aに相当する。表示部15aは透過性を有し、ユーザは表示部15aを介して現実空間を視認しつつ、表示部15aに表示された画像も見ることができる。
スマートアイグラス1aは、サーバ2から送信された応答データに基づいて、図8に示すように、ユーザの視界を邪魔しないよう表示部15aの端に応答画像32を表示する。応答画像32は、ユーザが通勤/通学時に電車移動の習慣がある場合に、鉄道事故が生じたこと(「おはよう!○○線でトラブルだって!」)及び労り・同調の言葉(「大丈夫?影響ないといいけど」)を出発前のタイミングで提示するものである。また、図8に示す応答画像32はキャラクタを含み、キャラクタから応答が発せられるように見せてもよい。当該キャラクタはユーザの好みに応じて変更可能である。
図9は、スマートフォン1bの場合における応答表示例を示す図である。図9に示すように、ユーザ端末1がスマートフォン1bにより実現されている場合、スマートフォン1bは、サーバ2から送信された応答データに基づいて、表示部15bに応答画像34を表示する。また、併せて戻るボタン36が表示されてもよい。
応答画像34は、ユーザが通勤/通学時に徒歩や自転車移動の習慣がある場合に、雨が降っていることに応じた労り・同調の言葉(「おはよう!雨で通勤大変だね。あんまり濡れずにすみますように」)を出発前のタイミングで提示するものである。また、図9に示す応答画像34はキャラクタを含み、キャラクタから応答が発せられるように見せてもよい。当該キャラクタはユーザの好みに応じて変更可能である。
図10は、部屋での応答表示例を示す図である。上述した実施形態では、ユーザ端末1の表示部15で応答画像が表示される場合について説明したが、本実施形態はこれに限定されず、出力部の一例として、部屋の壁や天井に埋め込まれたディスプレイ、または部屋の壁や天井に画像投影するプロジェクタ15’を用いてもよい。図10に示す例では、部屋の壁にプロジェクタ15’により応答画像38が投影されている様子を示す。プロジェクタ15’は、例えばユーザ端末1がスマートフォン1bにより実現されている場合に、スマートフォン1bとWi−Fi(登録商標)やBluetooth(登録商標)で無線接続し、スマートフォン1bの出力部として機能し得る。
図11は、複数のユーザ端末1で連携する応答表示例を示す図である。例えばユーザがスマートウォッチ1c(またはスマートバンド等)を腕に装着し、かつ、鞄やポケットにスマートフォン1bを入れて所持している場合、サーバ2は複数のデバイスに各デバイスに応じた粒度で応答データを表示するよう制御してもよい。若しくは、スマートフォン1bとスマートウォッチ1cがWi−Fi(登録商標)やBluetooth(登録商標)で無線接続して連携している場合、スマートフォン1bはサーバ2から送信された応答データの粒度を調整してスマートウォッチ1cの表示部15cに応答概要を表示するよう制御してもよい。スマートウォッチ1cの表示部15cは比較的表示領域が小さく、一方のスマートフォン1bの表示部15bは比較的表示領域が大きいため、スマートウォッチ1cでは応答の概要を表示し、スマートフォン1bに応答の詳細を表示することでデバイスに応じた適切な表示態様を実現できる。
これによりユーザは、図11に示すように、スマートウォッチ1cの表示部15cでは応答画像40により応答の概要を確認し、詳しい情報はスマートフォン1bの表示部15bに表示された応答画像42で確認することができる。
応答画像40および応答画像42は、ユーザがいつも行く場所とは異なる場所を訪れた際に、普段は毎朝コーヒーショップに行く習慣があることに基づいて、近くに存在するコーヒーショップの情報を朝に提示するものである。応答画像40は、比較的表示領域が小さいスマートウォッチ1cの表示部15cに表示されるため、「いつも行くSコーヒーがあるよ」といった、コーヒーショップの存在有無のみを示す。一方、応答画像42は、比較的表示領域が大きいスマートフォン1bの表示部15bに表示されるため、コーヒーショップの場所を示す地図画像や店の営業時間等の詳細情報を示すことが可能である。
なお、上述した各応答提示例では、メッセージと共にキャラクタを表示しているが、当該キャラクタの表情をメッセージ内容に応じて変化させることも可能である。図12は、メッセージに応じたキャラクタ様相例を示す図である。図12に示すように、例えばメッセージに「悲しい」「残念」「大変」といった言葉が含まれる場合には、キャラクタの様相を残念な表情に変化させ、「楽しい」「嬉しい」「良かった」といった言葉が含まれる場合には、キャラクタの様相を楽しい表情に変化させる。このように、キャラクタの様相をメッセージに応じた感情(喜び、悲しみ、怒り、諦め、驚き、嫌悪、恐怖など)を示す表情に変化させることで、癒しや労りの効果を高めることができる。
<<5.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、ユーザの行動情報に基づき、普段と異なる行動に対して応答することで、ユーザが欲しいであろう情報を適切なタイミングで提示することを可能とする。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述したユーザ端末1、サーバ2に内蔵されるCPU、ROM、およびRAM等のハードウェアに、ユーザ端末1、サーバ2の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、図1に示すように、本実施形態による情報処理システムはユーザ端末1とサーバ2を含む構成として説明したが、本実施形態はこれに限定されず、情報処理システムがユーザ端末1で実現されてもよい。すなわち、図3に示すサーバ2の構成をユーザ端末1が備え、ユーザ端末1において、ユーザの行動情報に基づいて普段と異なる行動に対して応答を生成し、提示することが可能となる。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
蓄積された行動情報に基づいて、所定期間内における行動パターンを解析する行動解析部と、
前記行動パターンと異なる行動が検知された際に、当該異なる行動に対する応答を生成する生成部と、
前記生成された応答の出力タイミングを決定する決定部と、
を備える、情報処理装置。
(2)
前記生成部は、前記異なる行動に対して、ユーザの前記行動パターンまたは嗜好情報に基づいてユーザに提示する場所情報を生成する、前記(1)に記載の情報処理装置。
(3)
前記生成部は、前記異なる行動に対する呼びかけを生成する、前記(1)または(2)に記載の情報処理装置。
(4)
前記生成部は、前記異なる行動に対する同調または労りのコメントを生成する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記生成部は、特殊な天候に応じた助言、通知、呼びかけ、同調、または労りのコメントを生成する、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記行動情報は、ユーザの位置情報または動き情報である、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記動き情報は、歩数、歩いた時間、走った時間、乗車時間、立っていた時間、または座っていた時間を示す活動量情報である、前記(6)に記載の情報処理装置。
(8)
前記決定部は、前記異なる行動が検知された際に、前記異なる行動に対する応答を即時出力するよう出力タイミングを決定する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記決定部は、前記異なる行動に対する応答を、ユーザの行動または行動パターンに応じた所定のタイミングに決定する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記応答は、音声出力または表示出力される、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記応答は、出力デバイスの表示領域の大きさに対応した情報粒度で出力される、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
前記情報処理装置は、ユーザからの問い合わせに対して行った応答を記憶する応答記憶部をさらに備え、
前記生成部は、前記記憶した応答の内容に変化が生じた場合、再度応答を生成する、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)
蓄積された行動情報に基づいて、所定期間内における行動パターンを解析することと、
前記行動パターンと異なる行動が検知された際に、当該異なる行動に対する応答を生成することと、
前記生成された応答の出力タイミングを決定することと、
を含む、制御方法。
(14)
コンピュータを、
蓄積された行動情報に基づいて、所定期間内における行動パターンを解析する行動解析部と、
前記行動パターンと異なる行動が検知された際に、当該異なる行動に対する応答を生成する生成部と、
前記生成された応答の出力タイミングを決定する決定部と、
として機能させるための、プログラム。
1 ユーザ端末
10 制御部
11 通信部
12 入力部
13 現在位置計測部
14 動き検知部
15 表示部
16 スピーカ
17 記憶部
2 サーバ
20 制御部
20a 行動情報記憶制御部
20b 習慣解析部
20c 応答生成部
20d タイミング決定部
20e 応答出力制御部
20f 音声認識部
20g 意味解析部
20h 天候情報取得部
20i フィードバック部
21 通信部
22 行動情報記憶部
23 習慣記憶部
24 応答記憶部

Claims (14)

  1. 蓄積された行動情報に基づいて、所定期間内における行動パターンを解析する行動解析部と、
    前記行動パターンと異なる行動が検知された際に、当該異なる行動に対する応答を生成する生成部と、
    前記生成された応答の出力タイミングを決定する決定部と、
    を備える、情報処理装置。
  2. 前記生成部は、前記異なる行動に対して、ユーザの前記行動パターンまたは嗜好情報に基づいてユーザに提示する場所情報を生成する、請求項1に記載の情報処理装置。
  3. 前記生成部は、前記異なる行動に対する呼びかけを生成する、請求項1に記載の情報処理装置。
  4. 前記生成部は、前記異なる行動に対する同調または労りのコメントを生成する、請求項1に記載の情報処理装置。
  5. 前記生成部は、特殊な天候に応じた助言、通知、呼びかけ、同調、または労りのコメントを生成する、請求項1に記載の情報処理装置。
  6. 前記行動情報は、ユーザの位置情報または動き情報である、請求項1に記載の情報処理装置。
  7. 前記動き情報は、歩数、歩いた時間、走った時間、乗車時間、立っていた時間、または座っていた時間を示す活動量情報である、請求項6に記載の情報処理装置。
  8. 前記決定部は、前記異なる行動が検知された際に、前記異なる行動に対する応答を即時出力するよう出力タイミングを決定する、請求項1に記載の情報処理装置。
  9. 前記決定部は、前記異なる行動に対する応答を、ユーザの行動または行動パターンに応じた所定のタイミングに決定する、請求項1に記載の情報処理装置。
  10. 前記応答は、音声出力または表示出力される、請求項1に記載の情報処理装置。
  11. 前記応答は、出力デバイスの表示領域の大きさに対応した情報粒度で出力される、請求項1に記載の情報処理装置。
  12. 前記情報処理装置は、ユーザからの問い合わせに対して行った応答を記憶する応答記憶部をさらに備え、
    前記生成部は、前記記憶した応答の内容に変化が生じた場合、再度応答を生成する、請求項1に記載の情報処理装置。
  13. 蓄積された行動情報に基づいて、所定期間内における行動パターンを解析することと、
    前記行動パターンと異なる行動が検知された際に、当該異なる行動に対する応答を生成することと、
    前記生成された応答の出力タイミングを決定することと、
    を含む、制御方法。
  14. コンピュータを、
    蓄積された行動情報に基づいて、所定期間内における行動パターンを解析する行動解析部と、
    前記行動パターンと異なる行動が検知された際に、当該異なる行動に対する応答を生成する生成部と、
    前記生成された応答の出力タイミングを決定する決定部と、
    として機能させるための、プログラム。
JP2016563553A 2014-12-09 2015-09-10 情報処理装置、制御方法、およびプログラム Pending JPWO2016092924A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014248568 2014-12-09
JP2014248568 2014-12-09
PCT/JP2015/075698 WO2016092924A1 (ja) 2014-12-09 2015-09-10 情報処理装置、制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
JPWO2016092924A1 true JPWO2016092924A1 (ja) 2017-09-14

Family

ID=56107120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016563553A Pending JPWO2016092924A1 (ja) 2014-12-09 2015-09-10 情報処理装置、制御方法、およびプログラム

Country Status (4)

Country Link
US (1) US20170329766A1 (ja)
EP (1) EP3232395A4 (ja)
JP (1) JPWO2016092924A1 (ja)
WO (1) WO2016092924A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD822716S1 (en) 2016-05-13 2018-07-10 Google Llc Voice interface device
CN106463110A (zh) * 2014-06-03 2017-02-22 索尼公司 信息处理设备、信息处理方法和程序
JP6784044B2 (ja) * 2016-03-24 2020-11-11 カシオ計算機株式会社 行動解析装置、行動解析方法及びプログラム
US10535343B2 (en) 2016-05-10 2020-01-14 Google Llc Implementations for voice assistant on devices
CN108604254B (zh) 2016-05-13 2022-04-12 谷歌有限责任公司 语音控制的隐藏字幕显示
US10446144B2 (en) * 2016-11-21 2019-10-15 Google Llc Providing prompt in an automated dialog session based on selected content of prior automated dialog session
JP6415618B2 (ja) * 2017-03-13 2018-10-31 ヤフー株式会社 抽出装置、抽出方法、及び抽出プログラム
WO2018186178A1 (ja) * 2017-04-04 2018-10-11 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
JP6946857B2 (ja) * 2017-08-24 2021-10-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP6818717B2 (ja) * 2018-06-04 2021-01-20 ヤフー株式会社 抽出装置、抽出方法、及び抽出プログラム
US10705789B2 (en) * 2018-07-25 2020-07-07 Sensory, Incorporated Dynamic volume adjustment for virtual assistants
CN114600112A (zh) * 2020-09-29 2022-06-07 谷歌有限责任公司 使用自然语言处理的文档标记和导航
JP7325595B1 (ja) 2022-09-30 2023-08-14 Kddi株式会社 コンテンツ提供システム、コンテンツ提供装置及び携帯端末

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293506A (ja) * 1999-04-09 2000-10-20 Sony Corp 行動予測方法及びその装置
JP2003216752A (ja) * 2002-01-23 2003-07-31 Fujitsu Ltd 行動指示プログラムおよび行動指示方法
JP2005062963A (ja) * 2003-08-18 2005-03-10 Toshiba Corp 時系列行動パターンを表示する装置、方法、およびプログラム
JP2007018350A (ja) * 2005-07-08 2007-01-25 Hokkaido Univ 情報検索装置、情報検索方法および情報検索プログラム
JP2007072835A (ja) * 2005-09-08 2007-03-22 Aos Technologies Kk サービス利用者サポートシステム
JP2013206139A (ja) * 2012-03-28 2013-10-07 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム。

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030028377A1 (en) * 2001-07-31 2003-02-06 Noyes Albert W. Method and device for synthesizing and distributing voice types for voice-enabled devices
US20030167167A1 (en) * 2002-02-26 2003-09-04 Li Gong Intelligent personal assistants
NO318991B1 (no) * 2002-09-05 2005-05-30 Opera Software Asa Presentasjon av HTML-innhold på en liten terminalskjerm
US20040215453A1 (en) * 2003-04-25 2004-10-28 Orbach Julian J. Method and apparatus for tailoring an interactive voice response experience based on speech characteristics
US20060122840A1 (en) * 2004-12-07 2006-06-08 David Anderson Tailoring communication from interactive speech enabled and multimodal services
US8972268B2 (en) * 2008-04-15 2015-03-03 Facebook, Inc. Enhanced speech-to-speech translation system and methods for adding a new word
US8566098B2 (en) * 2007-10-30 2013-10-22 At&T Intellectual Property I, L.P. System and method for improving synthesized speech interactions of a spoken dialog system
CN101727904B (zh) * 2008-10-31 2013-04-24 国际商业机器公司 语音翻译方法和装置
KR20110002757A (ko) * 2009-07-02 2011-01-10 삼성전자주식회사 감성 모델 장치, 감성 모델의 성향 학습 장치 및 방법
JP5440080B2 (ja) * 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
KR101622111B1 (ko) * 2009-12-11 2016-05-18 삼성전자 주식회사 대화 시스템 및 그의 대화 방법
JP6031735B2 (ja) * 2011-06-13 2016-11-24 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US9711064B2 (en) * 2013-02-15 2017-07-18 Voxy, Inc. Systems and methods for calculating text difficulty
US9640173B2 (en) * 2013-09-10 2017-05-02 At&T Intellectual Property I, L.P. System and method for intelligent language switching in automated text-to-speech systems
US9804820B2 (en) * 2013-12-16 2017-10-31 Nuance Communications, Inc. Systems and methods for providing a virtual assistant

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293506A (ja) * 1999-04-09 2000-10-20 Sony Corp 行動予測方法及びその装置
JP2003216752A (ja) * 2002-01-23 2003-07-31 Fujitsu Ltd 行動指示プログラムおよび行動指示方法
JP2005062963A (ja) * 2003-08-18 2005-03-10 Toshiba Corp 時系列行動パターンを表示する装置、方法、およびプログラム
JP2007018350A (ja) * 2005-07-08 2007-01-25 Hokkaido Univ 情報検索装置、情報検索方法および情報検索プログラム
JP2007072835A (ja) * 2005-09-08 2007-03-22 Aos Technologies Kk サービス利用者サポートシステム
JP2013206139A (ja) * 2012-03-28 2013-10-07 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム。

Also Published As

Publication number Publication date
US20170329766A1 (en) 2017-11-16
EP3232395A4 (en) 2018-07-11
EP3232395A1 (en) 2017-10-18
WO2016092924A1 (ja) 2016-06-16

Similar Documents

Publication Publication Date Title
WO2016092924A1 (ja) 情報処理装置、制御方法、およびプログラム
US8438127B2 (en) Behaviour pattern analysis system, mobile terminal, behaviour pattern analysis method, and program
JP7214237B2 (ja) プログラム、情報処理方法および情報処理装置
JP6558364B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5071536B2 (ja) 情報提供装置、及び、情報提供システム
CN102986201B (zh) 用户接口
EP3232158B1 (en) Information processing device, control method, and program
US10324588B2 (en) Organizing application icon based on user history information
CN104303539B (zh) 经由上下文感知移动装置估计媒体观众的人口统计数据
CN108351870A (zh) 根据活动模式的计算机语音识别和语义理解
CN110870322B (zh) 信息处理设备、信息处理方法
US10585954B2 (en) Real-time data input relevance ranking and resulting data output
CN103780965A (zh) 显示设备、控制所述显示设备的方法和信息处理器
KR20180015586A (ko) 상황별 음악 추천 방법 및 이를 이용하는 장치
EP3640824A1 (en) Information processing device, information processing method, and program
US20200037094A1 (en) Information Processing Apparatus, Information Processing Method, And Program
CN110996796A (zh) 信息处理设备、方法和程序
KR20150110319A (ko) 영상을 디스플레이 하는 방법 및 디바이스
CN110073395A (zh) 利用推断洞察的可穿戴设备控制
KR102169609B1 (ko) 객체 표시 방법, 객체 제공 방법 및 이를 위한 시스템
US20200264907A1 (en) Method for providing routine and electronic device supporting same
KR20150066714A (ko) 일과 관리 방법 및 장치
CN109074240A (zh) 信息处理设备、信息处理方法和程序
US20240176818A1 (en) Content playback system, information processing apparatus, and content playback controlling application
US20240200947A1 (en) Information processing apparatus, information processing method, information processing program, and information processing system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180725

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200218