JPWO2019026360A1 - 情報処理装置および情報処理方法 - Google Patents
情報処理装置および情報処理方法 Download PDFInfo
- Publication number
- JPWO2019026360A1 JPWO2019026360A1 JP2019533897A JP2019533897A JPWO2019026360A1 JP WO2019026360 A1 JPWO2019026360 A1 JP WO2019026360A1 JP 2019533897 A JP2019533897 A JP 2019533897A JP 2019533897 A JP2019533897 A JP 2019533897A JP WO2019026360 A1 JPWO2019026360 A1 JP WO2019026360A1
- Authority
- JP
- Japan
- Prior art keywords
- content
- information processing
- control unit
- output control
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 247
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 230000008447 perception Effects 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 15
- 239000000725 suspension Substances 0.000 claims description 10
- 238000010586 diagram Methods 0.000 abstract description 18
- 230000006870 function Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 23
- 230000006399 behavior Effects 0.000 description 14
- 230000000694 effects Effects 0.000 description 10
- 239000003795 chemical substances by application Substances 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 206010011469 Crying Diseases 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/686—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Social Psychology (AREA)
- Quality & Reliability (AREA)
- Computer Networks & Wireless Communication (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
1.本開示に係る技術思想の概要
2.第1の実施形態
2.1.システム構成例
2.2.情報処理端末10の機能構成例
2.3.情報処理サーバ20の機能構成例
2.4.出力制御の詳細
2.5.制御の流れ
3.第2の実施形態
3.1.第2の実施形態の概要
3.2.出力制御の詳細
3.3.制御の流れ
4.変形例
5.ハードウェア構成例
6.まとめ
近年、ユーザに対し情報提示を行う種々の装置が普及している。上記のような装置には、例えば、音声発話や視覚情報を用いてユーザに情報を提示するエージェント装置が挙げられる。エージェント装置は、例えば、ユーザに対するニュースやメッセージの読み上げや、ユーザの問い合わせに対する応答を、音声発話や視覚情報を用いて出力することができる。
<<2.1.システム構成例>>
まず、本開示の第1の実施形態について説明する。本開示の第1の実施形態では、情報処理サーバ20が情報処理端末10によるコンテンツ提示に係る中断期間に基づいて、要旨の情報量を決定する場合について述べる。
本実施形態に係る情報処理端末10は、情報処理サーバ20による制御に基づいて、ユーザにコンテンツを提示する情報処理装置である。また、本実施形態に係る情報処理端末10は、コンテンツの中断後に当該コンテンツを再開する場合、コンテンツの後続情報と共に情報処理端末10により生成された要旨を出力することを特徴の一つとする。
本実施形態に係る情報処理サーバ20は、情報処理端末10によるユーザに対するコンテンツの提示を制御する情報処理装置である。なお、本実施形態に係る情報処理サーバ20は、コンテンツに対応するユーザの視聴行動において非視聴期間が検出された場合、当該コンテンツに係る要旨を情報処理端末10に出力させることを特徴とする。
ネットワーク30は、情報処理端末10と情報処理サーバ20とを接続する機能を有する。ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi−Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
次に、本実施形態に係る情報処理端末10の機能構成例について説明する。図3は、本実施形態に係る情報処理端末10の機能構成例を示すブロック図である。図3を参照すると、本実施形態に係る情報処理端末10は、表示部110、音声出力部120、音声入力部130、撮像部140、センサ部150、制御部160、およびサーバ通信部170を備える。
本実施形態に係る表示部110は、画像やテキストなどの視覚情報を出力する機能を有する。本実施形態に係る表示部110は、例えば、情報処理サーバ20による制御に基づいて、コンテンツの内容や要旨を表示することができる。
本実施形態に係る音声出力部120は、音声発話を含む種々の音を出力する機能を有する。本実施形態に係る音声出力部120は、例えば、情報処理サーバ20による制御に基づいて、コンテンツの内容や要旨などを音声発話により出力することができる。このために、本実施形態に係る音声出力部120は、スピーカやアンプなどの音声出力装置を備える。
本実施形態に係る音声入力部130は、ユーザによる発話や、情報処理端末10の周囲で発生する周囲音などの音情報を収集する機能を有する。音声入力部130が収集する音情報は、情報処理サーバ20による音声認識や周囲環境の認識などに用いられる。本実施形態に係る音声入力部130は、音情報を収集するためのマイクロフォンを備える。
本実施形態に係る撮像部140は、ユーザや周囲環境の画像を撮像する機能を有する。撮像部140が撮像した画像は、情報処理サーバ20によるユーザ認識や周囲環境の認識に用いられる。本実施形態に係る撮像部140は、画像を撮像することが可能な撮像装置を備える。なお、上記の画像には、静止画像のほか動画像が含まれる。
(センサ部150)
本実施形態に係るセンサ部150は、周囲環境やユーザの行動、状態に関する種々のセンサ情報を収集する機能を有する。センサ部150が収集したセンサ情報は、情報処理サーバ20による周囲環境の錦やユーザの行動認識、状態認識に用いられる。センサ部150は、例えば、赤外線センサを含む光センサ、加速度センサ、ジャイロセンサ、地磁気センサ、熱センサ、振動センサ、GNSS(Global Navigation Satellite System)信号受信装置などを備える。
本実施形態に係る制御部160は、情報処理端末10が備える各構成を制御する機能を有する。制御部160は、例えば、各構成の起動や停止を制御する。また、制御部160は、情報処理サーバ20により生成される制御信号を表示部110や音声出力部120に入力することができる。また、本実施形態に係る制御部160は、後述する情報処理サーバ20の出力制御部230と同等の機能を有してもよい。
本実施形態に係るサーバ通信部170は、ネットワーク30を介して情報処理サーバ20との情報通信を行う機能を有する。具体的には、サーバ通信部170は、音声入力部130が収集した音情報や、撮像部140が撮像した画像情報、センサ部150が収集したセンサ情報を情報処理サーバ20に送信する。また、サーバ通信部170は、情報処理サーバ20からコンテンツおよび要旨の出力に係る制御信号や人工音声を受信する。
次に、本実施形態に係る情報処理サーバ20の機能構成例について説明する。図4は、本実施形態に係る情報処理サーバ20の機能構成例を示すブロック図である。図4を参照すると、本実施形態に係る情報処理サーバ20は、認識部210、要旨生成部220、出力制御部230、音声合成部240、記憶部250、および端末通信部260を備える。また、記憶部250は、ユーザDB252、視聴記録DB254、およびコンテンツDB256を備える。
本実施形態に係る認識部210は、ユーザに係る種々の認識を行う機能を有する。例えば、認識部210は、情報処理端末10が収集したユーザの発話や画像と、ユーザDB252に予め記憶されるユーザの音声特徴や画像とを比較することでユーザの認識を行うことができる。
本実施形態に係る要旨生成部220は、出力制御部230による制御に基づいて、コンテンツから要旨を生成する機能を有する。要旨生成部220は、例えば、出力制御部230により指示された情報量(長さ)や内容に基づいて、コンテンツの要旨を生成する。このために、本実施形態に係る要旨生成部220は、例えば、自然言語処理によりコンテンツの内容を解析する機能などを有してよい。
本実施形態に係る出力制御部230は、ユーザに対するコンテンツの提示を制御し、当該コンテンツに対応するユーザの視聴行動において非視聴期間が検出された場合、コンテンツに係る要旨を情報処理端末10に出力させる機能を有する。この際、本実施形態に係る出力制御部230は、非視聴期間の長さや検出回数、発生要因に基づいて、コンテンツに係る要旨の情報量を決定する。なお、コンテンツが音声発話により出力される場合、上記の情報量は、要旨の発話に係る発話長であるといえる。
本実施形態に係る音声合成部240は、出力制御部230による制御に基づいて、情報処理端末10により出力される人工音声を合成する機能を有する。
本実施形態に係る記憶部250は、ユーザDB252、視聴記録DB254、およびコンテンツDB256を備える。
本実施形態に係るユーザDB252は、ユーザに関する種々の情報を記憶する。ユーザDB252は、例えば、ユーザの顔画像や音声特徴などを記憶する。また、ユーザDB252は、ユーザの性別、年齢、嗜好、傾向などの情報を記憶してもよい。
本実施形態に係る視聴記録DB254は、コンテンツの中断や再開に係る状態を記憶する。視聴記録DB254は、例えば、出力制御部230により制御に基づいて、コンテンツが中断された時間や、再開された時間を記憶する。また、視聴記録DB254は、コンテンツの中断回数などを記憶してよい。
本実施形態に係るコンテンツDB256は、情報処理端末10により提示されるコンテンツを記憶する。本実施形態に係るコンテンツDB256は、例えば、ニュースや広告、動画などのコンテンツを記憶する。なお、本実施形態に係るコンテンツは、必ずしもコンテンツDB256に記憶されなくてもよい。本実施形態に係る出力制御部230は、ネットワーク30を介して別の装置からコンテンツを取得してもよい。また、本実施形態に係る出力制御部230は、例えば、ユーザの問い合わせに基づいて生成された回答をコンテンツして取得してもよい。
本実施形態に係る端末通信部260は、ネットワーク30を介して、情報処理端末10との情報通信を行う機能を有する。具体的には、端末通信部260は、情報処理端末10から発話などの音情報、画像情報、センサ情報を受信する。また、端末通信部260は、出力制御部230が生成した制御信号や、音声合成部240が合成した人工音声を情報処理端末10に送信する。
次に、本実施形態に係る出力制御部230による出力制御の詳細について説明する。上述したように、本実施形態に係る出力制御部230は、種々の状況に基づいてコンテンツの中断および再開を制御することができる。また、出力制御部230は、中断期間の長さや回数に基づいて要旨の情報量や内容を決定し要旨生成部220に要旨を生成させる。また、本実施形態に係る出力制御部230は、コンテンツの再開時にコンテンツの後続情報と共に要旨生成部220が生成した要旨を出力させる。
次に、本実施形態に係る情報処理サーバ20による制御の流れについて説明する。図9は、本実施形態に係る情報処理サーバ20による制御の流れを示すフローチャートである。
<<3.1.第2の実施形態の概要>>
次に、本開示の第2の実施形態について説明する。第1の実施形態では、情報処理サーバ20がコンテンツの中断期間に基づいて要旨の生成および出力を制御する場合の例を述べた。一方、上述したように、本開示における非視聴期間は、中断期間に限定されない。本開示に係る非視聴期間は、コンテンツをユーザが知覚していない非知覚期間を含んでよい。
続いて、本実施形態に係る出力制御部230による出力制御の詳細について説明する。まず、本実施形態に係る出力制御部230による不在期間に基づく要旨の出力制御について述べる。上述したように、本実施形態に係る非知覚期間はユーザの不在期間を含む。この際、本実施形態に係る上記の不在期間の長さまたは検出回数に基づいて、要旨の情報量を決定することができる。
次に、本実施形態に係る情報処理サーバ20による制御の流れについて説明する。図13は、本実施形態に係る情報処理サーバ20による制御の流れを示すフローチャートである。
次に、情報処理サーバ20による出力制御の変形例について説明する。上記の第1の実施形態および第2の実施形態では、出力制御部230が、非視聴期間の長さや検出回数に基づいて要旨の生成と出力を制御する場合を述べたが、本開示の技術思想は、ユーザの状況に対応した適切な要旨を提示することで、ユーザの利便性を高めることを根本とする。このため、本開示の変形例に係る情報処理サーバ20は、ユーザコンテキストに重きをおいて要旨を生成し、当該要旨を情報処理端末10に出力させてもよい。
次に、本開示の一実施形態に係る情報処理端末10および情報処理サーバ20に共通するハードウェア構成例について説明する。図15は、本開示の一実施形態に係る情報処理端末10および情報処理サーバ20のハードウェア構成例を示すブロック図である。図15を参照すると、情報処理端末10および情報処理サーバ20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
以上説明したように、本開示の一実施形態に係る情報処理サーバ20は、コンテンツに対応するユーザの視聴行動において非視聴期間が検出された場合、当該コンテンツに係る要旨を出力させること、を特徴の一つとする。また、本開示の一実施形態に係る情報処理サーバ20は、非視聴期間の長さに基づいてコンテンツに係る要旨の情報量を決定する機能を有する。係る構成によれば、ユーザにコンテンツの流れを効果的に知覚させることが可能となる。
(1)
ユーザに対するコンテンツの提示を制御し、前記コンテンツに対応する前記ユーザの視聴行動において非視聴期間が検出された場合、前記コンテンツに係る要旨を出力させる出力制御部、
を備え、
前記出力制御部は、前記非視聴期間の長さに基づいて前記コンテンツに係る要旨の情報量を決定する、
情報処理装置。
(2)
前記出力制御部は、前記非視聴期間の検出回数に基づいて、前記要旨の情報量を決定する、
前記(1)に記載の情報処理装置。
(3)
前記出力制御部は、前記非視聴期間の発生要因に基づいて、前記要旨の情報量を決定する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記出力制御部は、前記ユーザに係るユーザコンテキストに基づいて、前記要旨の情報量または内容を決定する、
前記(1)〜(3)のいずれかに記載の情報処理装置。
(5)
前記非視聴期間は、前記コンテンツの中断期間を含み、
前記出力制御部は、前記中断期間の長さまたは検出回数に基づいて、前記要旨の情報量を決定する、
前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記出力制御部は、前記コンテンツの提示に係る中断と再開を制御し、前記コンテンツの再開時に前記要旨を出力させる、
前記(5)に記載の情報処理装置。
(7)
前記出力制御部は、前記コンテンツの再開時に、前記中断期間よりも前に提示された前記コンテンツの内容に係る前記要旨を出力させる、
前記(6)に記載の情報処理装置。
(8)
前記出力制御部は、前記コンテンツの中断期間に基づいて、前記コンテンツの再開位置を決定する、
前記(6)または(7)に記載の情報処理装置。
(9)
前記出力制御部は、前記コンテンツの提示時における周囲環境に基づいて前記コンテンツを中断させる、
前記(5)〜(8)のいずれかに記載の情報処理装置。
(10)
前記出力制御部は、前記コンテンツの提示時における周囲音に基づいて前記コンテンツを中断させる、
前記(5)〜(9)のいずれかに記載の情報処理装置。
(11)
前記出力制御部は、前記コンテンツの提示時における前記ユーザの状態に基づいて前記コンテンツを中断させる、
前記(5)〜(10)のいずれかに記載の情報処理装置。
(12)
前記非視聴期間は、提示された前記コンテンツを前記ユーザが知覚していない非知覚期間を含み、
前記出力制御部は、前記非知覚期間の長さまたは検出回数に基づいて、前記要旨の情報量を決定する、
前記(1)〜(11)のいずれかに記載の情報処理装置。
(13)
前記非知覚期間は、前記コンテンツの提示中に前記ユーザが前記コンテンツの享受範囲から逸脱した不在期間を含み、
前記出力制御部は、前記不在期間の長さまたは検出回数に基づいて、前記要旨の情報量を決定する、
前記(12)に記載の情報処理装置。
(14)
前記非知覚期間は、前記コンテンツの提示中に前記ユーザが前記コンテンツに係る情報に集中していない非集中期間を含み、
前記出力制御部は、前記非集中期間の長さまたは検出回数に基づいて、前記要旨の情報量を決定する、
前記(12)または(13)に記載の情報処理装置。
(15)
前記出力制御部は、前記非知覚期間が終了した場合、前記要旨を出力させる、
前記(12)〜(14)のいずれかに記載の情報処理装置。
(16)
前記出力制御部は、前記非知覚期間の間に提示された情報を含む前記要旨の出力を制御する、
前記(12)〜(15)のいずれかに記載の情報処理装置。
(17)
前記出力制御部は、複数の前記ユーザのそれぞれに係る前記非知覚期間に基づいて、複数の前記ユーザごとに異なる前記要旨を出力させる、
前記(12)〜(16)のいずれかに記載の情報処理装置。
(18)
前記出力制御部は、前記コンテンツに係る音声発話を制御し、前記非視聴期間の長さまたは検出回数に基づいて、前記要旨の発話長を決定する、
前記(1)〜(17)のいずれかに記載の情報処理装置。
(19)
前記出力制御部による制御に基づいて、前記コンテンツおよび前記要旨に係る音声発話を出力する音声出力部、
をさらに備える、
前記(1)〜(18)のいずれかに記載の情報処理装置。
(20)
プロセッサが、ユーザに対するコンテンツの提示を制御し、前記コンテンツに対応する前記ユーザの視聴行動において非視聴期間が検出された場合、前記コンテンツに係る要旨を出力させること、
を含み、
前記出力させることは、前記非視聴期間の長さに基づいて前記コンテンツに係る要旨の情報量を決定すること、
をさらに含む、
情報処理方法。
110 表示部
120 音声出力部
130 音声入力部
140 撮像部
150 センサ部
160 制御部
170 サーバ通信部
20 情報処理サーバ
210 認識部
220 要旨生成部
230 出力制御部
240 音声合成部
250 記憶部
252 ユーザDB
254 視聴記録DB
256 コンテンツDB
260 端末通信部
Claims (20)
- ユーザに対するコンテンツの提示を制御し、前記コンテンツに対応する前記ユーザの視聴行動において非視聴期間が検出された場合、前記コンテンツに係る要旨を出力させる出力制御部、
を備え、
前記出力制御部は、前記非視聴期間の長さに基づいて前記コンテンツに係る要旨の情報量を決定する、
情報処理装置。 - 前記出力制御部は、前記非視聴期間の検出回数に基づいて、前記要旨の情報量を決定する、
請求項1に記載の情報処理装置。 - 前記出力制御部は、前記非視聴期間の発生要因に基づいて、前記要旨の情報量を決定する、
請求項1に記載の情報処理装置。 - 前記出力制御部は、前記ユーザに係るユーザコンテキストに基づいて、前記要旨の情報量または内容を決定する、
請求項1に記載の情報処理装置。 - 前記非視聴期間は、前記コンテンツの中断期間を含み、
前記出力制御部は、前記中断期間の長さまたは検出回数に基づいて、前記要旨の情報量を決定する、
請求項1に記載の情報処理装置。 - 前記出力制御部は、前記コンテンツの提示に係る中断と再開を制御し、前記コンテンツの再開時に前記要旨を出力させる、
請求項5に記載の情報処理装置。 - 前記出力制御部は、前記コンテンツの再開時に、前記中断期間よりも前に提示された前記コンテンツの内容に係る前記要旨を出力させる、
請求項6に記載の情報処理装置。 - 前記出力制御部は、前記コンテンツの中断期間に基づいて、前記コンテンツの再開位置を決定する、
請求項6に記載の情報処理装置。 - 前記出力制御部は、前記コンテンツの提示時における周囲環境に基づいて前記コンテンツを中断させる、
請求項5に記載の情報処理装置。 - 前記出力制御部は、前記コンテンツの提示時における周囲音に基づいて前記コンテンツを中断させる、
請求項5に記載の情報処理装置。 - 前記出力制御部は、前記コンテンツの提示時における前記ユーザの状態に基づいて前記コンテンツを中断させる、
請求項5に記載の情報処理装置。 - 前記非視聴期間は、提示された前記コンテンツを前記ユーザが知覚していない非知覚期間を含み、
前記出力制御部は、前記非知覚期間の長さまたは検出回数に基づいて、前記要旨の情報量を決定する、
請求項1に記載の情報処理装置。 - 前記非知覚期間は、前記コンテンツの提示中に前記ユーザが前記コンテンツの享受範囲から逸脱した不在期間を含み、
前記出力制御部は、前記不在期間の長さまたは検出回数に基づいて、前記要旨の情報量を決定する、
請求項12に記載の情報処理装置。 - 前記非知覚期間は、前記コンテンツの提示中に前記ユーザが前記コンテンツに係る情報に集中していない非集中期間を含み、
前記出力制御部は、前記非集中期間の長さまたは検出回数に基づいて、前記要旨の情報量を決定する、
請求項12に記載の情報処理装置。 - 前記出力制御部は、前記非知覚期間が終了した場合、前記要旨を出力させる、
請求項12に記載の情報処理装置。 - 前記出力制御部は、前記非知覚期間の間に提示された情報を含む前記要旨の出力を制御する、
請求項12に記載の情報処理装置。 - 前記出力制御部は、複数の前記ユーザのそれぞれに係る前記非知覚期間に基づいて、複数の前記ユーザごとに異なる前記要旨を出力させる、
請求項12に記載の情報処理装置。 - 前記出力制御部は、前記コンテンツに係る音声発話を制御し、前記非視聴期間の長さまたは検出回数に基づいて、前記要旨の発話長を決定する、
請求項1に記載の情報処理装置。 - 前記出力制御部による制御に基づいて、前記コンテンツおよび前記要旨に係る音声発話を出力する音声出力部、
をさらに備える、
請求項1に記載の情報処理装置。 - プロセッサが、ユーザに対するコンテンツの提示を制御し、前記コンテンツに対応する前記ユーザの視聴行動において非視聴期間が検出された場合、前記コンテンツに係る要旨を出力させること、
を含み、
前記出力させることは、前記非視聴期間の長さに基づいて前記コンテンツに係る要旨の情報量を決定すること、
をさらに含む、
情報処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017148167 | 2017-07-31 | ||
JP2017148167 | 2017-07-31 | ||
PCT/JP2018/016513 WO2019026360A1 (ja) | 2017-07-31 | 2018-04-24 | 情報処理装置および情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2019026360A1 true JPWO2019026360A1 (ja) | 2020-05-28 |
Family
ID=65232515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019533897A Ceased JPWO2019026360A1 (ja) | 2017-07-31 | 2018-04-24 | 情報処理装置および情報処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11250873B2 (ja) |
EP (1) | EP3663933A1 (ja) |
JP (1) | JPWO2019026360A1 (ja) |
CN (1) | CN110945473A (ja) |
WO (1) | WO2019026360A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7407047B2 (ja) * | 2020-03-26 | 2023-12-28 | 本田技研工業株式会社 | 音声出力の制御方法および音声出力制御装置 |
JP7407046B2 (ja) * | 2020-03-26 | 2023-12-28 | 本田技研工業株式会社 | 音声出力の制御方法および音声出力制御装置 |
US11558664B1 (en) * | 2021-08-24 | 2023-01-17 | Motorola Mobility Llc | Electronic device that pauses media playback based on interruption context |
US11837062B2 (en) | 2021-08-24 | 2023-12-05 | Motorola Mobility Llc | Electronic device that pauses media playback based on external interruption context |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10214268A (ja) * | 1997-01-29 | 1998-08-11 | Omron Corp | 文書検索方法および装置 |
JP2003259311A (ja) * | 2002-03-06 | 2003-09-12 | Nippon Telegr & Teleph Corp <Ntt> | 映像再生方法、映像再生装置、映像再生プログラム |
JP2004088384A (ja) * | 2002-08-27 | 2004-03-18 | Sony Corp | 情報処理装置および方法、プログラム格納媒体、並びにプログラム |
JP2005295343A (ja) * | 2004-04-01 | 2005-10-20 | Matsushita Electric Ind Co Ltd | テレビ放送補完システム、端末、テレビ放送補完方法およびコンピュータプログラム |
JP2006155125A (ja) * | 2004-11-29 | 2006-06-15 | Oki Electric Ind Co Ltd | 書籍要約情報閲覧システム |
JP2006333451A (ja) * | 2005-04-27 | 2006-12-07 | Matsushita Electric Ind Co Ltd | 映像要約装置および映像要約方法 |
WO2007113580A1 (en) * | 2006-04-05 | 2007-10-11 | British Telecommunications Public Limited Company | Intelligent media content playing device with user attention detection, corresponding method and carrier medium |
JP2011061733A (ja) * | 2009-09-14 | 2011-03-24 | Kddi Corp | 遠隔操作装置の起動状態に応じて要約コンテンツを生成するシステム及び方法 |
JP2011227236A (ja) * | 2010-04-19 | 2011-11-10 | Honda Motor Co Ltd | 音声対話装置 |
US20140075309A1 (en) * | 2012-09-11 | 2014-03-13 | International Business Machines Corproation | Considering user needs when presenting context-sensitive information |
WO2015045158A1 (ja) * | 2013-09-30 | 2015-04-02 | 楽天株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP2016504836A (ja) * | 2012-11-29 | 2016-02-12 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | コンテンツ提示を提供するためにユーザエンゲージメントを使用するための方法および装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3886037B2 (ja) * | 2002-02-14 | 2007-02-28 | 株式会社ライセンス&プロパティコントロール | 地下構造物用丸型蓋 |
US20130275899A1 (en) * | 2010-01-18 | 2013-10-17 | Apple Inc. | Application Gateway for Providing Different User Interfaces for Limited Distraction and Non-Limited Distraction Contexts |
US9274673B2 (en) * | 2013-12-31 | 2016-03-01 | Google Inc. | Methods, systems, and media for rewinding media content based on detected audio events |
KR102217186B1 (ko) * | 2014-04-11 | 2021-02-19 | 삼성전자주식회사 | 요약 컨텐츠 서비스를 위한 방송 수신 장치 및 방법 |
US9875734B2 (en) * | 2016-01-05 | 2018-01-23 | Motorola Mobility, Llc | Method and apparatus for managing audio readouts |
US20170257669A1 (en) * | 2016-03-02 | 2017-09-07 | At&T Intellectual Property I, L.P. | Enhanced Content Viewing Experience Based on User Engagement |
US10218760B2 (en) * | 2016-06-22 | 2019-02-26 | JBF Interlude 2009 LTD | Dynamic summary generation for real-time switchable videos |
-
2018
- 2018-04-24 CN CN201880049120.7A patent/CN110945473A/zh not_active Withdrawn
- 2018-04-24 EP EP18840593.0A patent/EP3663933A1/en not_active Ceased
- 2018-04-24 JP JP2019533897A patent/JPWO2019026360A1/ja not_active Ceased
- 2018-04-24 WO PCT/JP2018/016513 patent/WO2019026360A1/ja unknown
- 2018-04-24 US US16/633,161 patent/US11250873B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10214268A (ja) * | 1997-01-29 | 1998-08-11 | Omron Corp | 文書検索方法および装置 |
JP2003259311A (ja) * | 2002-03-06 | 2003-09-12 | Nippon Telegr & Teleph Corp <Ntt> | 映像再生方法、映像再生装置、映像再生プログラム |
JP2004088384A (ja) * | 2002-08-27 | 2004-03-18 | Sony Corp | 情報処理装置および方法、プログラム格納媒体、並びにプログラム |
JP2005295343A (ja) * | 2004-04-01 | 2005-10-20 | Matsushita Electric Ind Co Ltd | テレビ放送補完システム、端末、テレビ放送補完方法およびコンピュータプログラム |
JP2006155125A (ja) * | 2004-11-29 | 2006-06-15 | Oki Electric Ind Co Ltd | 書籍要約情報閲覧システム |
JP2006333451A (ja) * | 2005-04-27 | 2006-12-07 | Matsushita Electric Ind Co Ltd | 映像要約装置および映像要約方法 |
WO2007113580A1 (en) * | 2006-04-05 | 2007-10-11 | British Telecommunications Public Limited Company | Intelligent media content playing device with user attention detection, corresponding method and carrier medium |
JP2011061733A (ja) * | 2009-09-14 | 2011-03-24 | Kddi Corp | 遠隔操作装置の起動状態に応じて要約コンテンツを生成するシステム及び方法 |
JP2011227236A (ja) * | 2010-04-19 | 2011-11-10 | Honda Motor Co Ltd | 音声対話装置 |
US20140075309A1 (en) * | 2012-09-11 | 2014-03-13 | International Business Machines Corproation | Considering user needs when presenting context-sensitive information |
JP2016504836A (ja) * | 2012-11-29 | 2016-02-12 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | コンテンツ提示を提供するためにユーザエンゲージメントを使用するための方法および装置 |
WO2015045158A1 (ja) * | 2013-09-30 | 2015-04-02 | 楽天株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210158836A1 (en) | 2021-05-27 |
EP3663933A4 (en) | 2020-06-10 |
WO2019026360A1 (ja) | 2019-02-07 |
CN110945473A (zh) | 2020-03-31 |
EP3663933A1 (en) | 2020-06-10 |
US11250873B2 (en) | 2022-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9691296B2 (en) | Methods and apparatus for conversation coach | |
US20180018373A1 (en) | Context-based digital assistant | |
KR20210008521A (ko) | 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트-특정 핫 워드 | |
JPWO2019026360A1 (ja) | 情報処理装置および情報処理方法 | |
JP7283384B2 (ja) | 情報処理端末、情報処理装置、および情報処理方法 | |
WO2019138651A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
WO2019107145A1 (ja) | 情報処理装置、及び情報処理方法 | |
WO2020026850A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20240012839A1 (en) | Apparatus, systems and methods for providing conversational assistance | |
KR20220123576A (ko) | 3차원(3d) 환경에 대한 통합된 입/출력 | |
KR102488285B1 (ko) | 디지털 어시스턴트를 이용한 오디오 정보 제공 | |
US20200143813A1 (en) | Information processing device, information processing method, and computer program | |
US11606465B2 (en) | Systems and methods to automatically perform actions based on media content | |
US11595278B2 (en) | Systems and methods to automatically perform actions based on media content | |
JPWO2018034077A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2015104883A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US11544968B2 (en) | Information processing system, information processingmethod, and recording medium | |
WO2022215361A1 (ja) | 情報処理装置及び情報処理方法 | |
WO2019026395A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20230367960A1 (en) | Summarization based on timing data | |
WO2016157678A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11302317B2 (en) | Information processing apparatus and information processing method to attract interest of targets using voice utterance | |
US11749079B2 (en) | Systems and methods to automatically perform actions based on media content | |
WO2019017033A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2020194828A1 (ja) | 情報処理システム、情報処理装置、および情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220512 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20230131 |