JPWO2016052501A1 - ユーザインタフェース装置、プログラム及びコンテンツの通知方法 - Google Patents
ユーザインタフェース装置、プログラム及びコンテンツの通知方法 Download PDFInfo
- Publication number
- JPWO2016052501A1 JPWO2016052501A1 JP2016552060A JP2016552060A JPWO2016052501A1 JP WO2016052501 A1 JPWO2016052501 A1 JP WO2016052501A1 JP 2016552060 A JP2016552060 A JP 2016552060A JP 2016552060 A JP2016552060 A JP 2016552060A JP WO2016052501 A1 JPWO2016052501 A1 JP WO2016052501A1
- Authority
- JP
- Japan
- Prior art keywords
- content
- character
- user
- specific
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 11
- 230000009471 action Effects 0.000 claims abstract description 23
- 230000008859 change Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 239000003795 chemical substances by application Substances 0.000 description 6
- 230000003993 interaction Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M19/00—Current supply arrangements for telephone systems
- H04M19/02—Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
- H04M19/04—Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
本発明のユーザインタフェース装置は、画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得する取得部111と、取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行うキャラクタを画面に表示させる表示制御部112と、キャラクタが特定の動作を行っているときにユーザから入力を受け付けると、特定の種別のコンテンツをキャラクタを介してユーザに通知する通知部113とを備える。
Description
本発明は、キャラクタを用いたユーザインタフェースに関する。
ユーザインタフェースにおいて、アバターなどのキャラクタを介在させる技術が知られている。このようなユーザインタフェースは、ゲーム機、スマートフォン、パーソナルコンピュータなどにおいて周知の技術である。また、特許文献1には、情報を検索及び提示する場合において、提案アイテムに対する自信や熱意といった感情を伴わせてキャラクタの動作や表情を生成することが記載されている。
しかし、従来の技術においては、情報の通知が画一的であり、キャラクタを用いたとしてもユーザにとっては機械的に感じられることが多かった。
本発明の目的は、人間とのやり取りにより近い自然なユーザインタフェースを提供することにある。
本発明の目的は、人間とのやり取りにより近い自然なユーザインタフェースを提供することにある。
本発明は、画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得する取得部と、前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示させる表示制御部と、前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して前記ユーザに通知する通知部とを備えるユーザインタフェース装置を提供する。
前記表示制御部は、前記キャラクタ又は当該キャラクタに付随して表示されるオブジェクトの外観を、前記コンテンツの種別に応じて変化させてもよい。
前記表示制御部は、前記特定の動作の態様を、前記取得された前記特定の種別のコンテンツに応じて変化させてもよい。
前記表示制御部は、前記取得されたコンテンツが前記特定の種別のコンテンツでない場合に、当該特定の種別のコンテンツが取得された場合と異なる表示態様で前記キャラクタを表示させてもよい。
前記ユーザインタフェース装置は、自装置の位置を特定する位置特定部を備え、前記特定の種別のコンテンツは、特定の位置に関連付けられたコンテンツであり、前記表示制御部は、前記特定の種別のコンテンツが取得され、当該コンテンツが特定の位置に関連付けられている場合において、前記位置特定部により特定された位置と前記特定の位置とが所定の条件を満たすとき、前記特定の動作を行うキャラクタを表示させてもよい。
前記入力は、操作による入力と音声による入力とを含み、前記通知部は、前記入力が操作による場合に、通知するコンテンツを制限してもよい。
前記取得部は、前記特定の種別のコンテンツを複数取得し、前記入力は、操作による入力と音声による入力とを含み、前記通知部は、前記入力が操作又は音声のいずれによるかに応じて、コンテンツの通知態様を異ならせてもよい。
前記表示制御部は、前記入力が受け付けられた位置若しくは日時又は当該入力により通知されたコンテンツに応じて、以降に前記特定の動作を行うキャラクタを表示するタイミングを制御してもよい。
前記表示制御部は、前記特定の動作の態様を、前記取得された前記特定の種別のコンテンツに応じて変化させてもよい。
前記表示制御部は、前記取得されたコンテンツが前記特定の種別のコンテンツでない場合に、当該特定の種別のコンテンツが取得された場合と異なる表示態様で前記キャラクタを表示させてもよい。
前記ユーザインタフェース装置は、自装置の位置を特定する位置特定部を備え、前記特定の種別のコンテンツは、特定の位置に関連付けられたコンテンツであり、前記表示制御部は、前記特定の種別のコンテンツが取得され、当該コンテンツが特定の位置に関連付けられている場合において、前記位置特定部により特定された位置と前記特定の位置とが所定の条件を満たすとき、前記特定の動作を行うキャラクタを表示させてもよい。
前記入力は、操作による入力と音声による入力とを含み、前記通知部は、前記入力が操作による場合に、通知するコンテンツを制限してもよい。
前記取得部は、前記特定の種別のコンテンツを複数取得し、前記入力は、操作による入力と音声による入力とを含み、前記通知部は、前記入力が操作又は音声のいずれによるかに応じて、コンテンツの通知態様を異ならせてもよい。
前記表示制御部は、前記入力が受け付けられた位置若しくは日時又は当該入力により通知されたコンテンツに応じて、以降に前記特定の動作を行うキャラクタを表示するタイミングを制御してもよい。
また、本発明は、コンピュータに、画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得するステップと、前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示させるステップと、前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して通知するステップとを実行させるためのプログラムを提供する。
また、本発明は、画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得し、前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示し、前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して通知するコンテンツの通知方法を提供する。
本発明によれば、人間とのやり取りにより近い自然なユーザインタフェースを提供することが可能である。
[実施例]
図1は、本発明の一実施例に係る情報配信システム10の構成を示すブロック図である。情報配信システム10は、ユーザ端末100にコンテンツを配信するためのコンピュータシステムである。情報配信システム10は、複数のユーザ端末100と配信装置200とを備え、これらをネットワーク300によって接続した構成である。ネットワーク300は、例えばインターネットや移動体通信網である。
図1は、本発明の一実施例に係る情報配信システム10の構成を示すブロック図である。情報配信システム10は、ユーザ端末100にコンテンツを配信するためのコンピュータシステムである。情報配信システム10は、複数のユーザ端末100と配信装置200とを備え、これらをネットワーク300によって接続した構成である。ネットワーク300は、例えばインターネットや移動体通信網である。
ここにおいて、コンテンツとは、文字、画像、音声などによって表された情報をいい、デジタルコンテンツともいう。本実施例におけるコンテンツは、例えば、気象情報(天気予報、注意報など)、飲食店などの施設に関する情報、コンサート、展覧会などのイベント(催事)に関する情報、といったものである。また、コンテンツには、所定の位置に関連付けられたものがあってもよい。なお、コンテンツは、Webページであってもよいが、ユーザ端末100において利用可能なフォーマットのデータであればどのようなものであってもよい。また、本実施例におけるコンテンツには、ユーザとの対話を実現するためのコンテンツが含まれる。
ユーザ端末100は、ユーザが所持及び携帯する電子機器であり、本発明に係るユーザインタフェース装置の一例である。ユーザ端末100は、典型的には、いわゆるスマートフォンやタブレット端末であるが、必ずしもこれらに限定されない。本実施例において、ユーザ端末100は、音声エージェント機能を有する。ここにおいて、音声エージェント機能とは、ユーザ端末100に対する入力を音声によって受け付け、ユーザ端末100の操作や設定を補助する機能をいう。この音声エージェント機能によって、ユーザ端末100は、Webページなどを合成音声によって読み上げることや、合成音声によってユーザに問いかけ、ユーザの入力を促すことが可能である。
本実施例の音声エージェント機能は、ユーザ端末100に表示されるキャラクタを介して行われる。ここでいうキャラクタは、例えばアバターであり、漫画等の登場人物、著名人、動物などを模した画像である。キャラクタは、ポリゴンによって表現された3次元形状を有するものであってもよい。ユーザは、キャラクタを介することによって、あたかも実際の人間を相手にするように会話することでユーザ端末100に情報を入力することが可能である。なお、このキャラクタは、本実施例においてはユーザ端末100の待ち受け画面(又はホーム画面)に表示される。
図2は、ユーザ端末100のハードウェア構成を示すブロック図である。ユーザ端末100は、制御部110と、記憶部120と、通信部130と、入力部140と、出力部150と、センサ部160とを備える。
制御部110は、ユーザ端末100の各部の動作を制御する手段である。制御部110は、CPU(Central Processing Unit)、アプリケーションプロセッサなどの演算処理装置とメモリ(主記憶装置)とを備え、プログラムを実行することによりユーザ端末100の各部の動作を制御する。制御部110が実行するプログラムには、上述した音声エージェント機能を実現するためのアプリケーションプログラムが含まれる。このアプリケーションプログラムの機能には、キャラクタの表示制御も含まれる。
記憶部120は、データを記憶する手段である。記憶部120は、フラッシュメモリなどの記憶媒体を備える。この記憶媒体は、ユーザ端末100に対して着脱可能であってもよい。記憶部120は、制御部110の動作に必要なデータや、配信装置から受信したコンテンツなどを記憶することができる。
通信部130は、ネットワーク300を介してデータを送受信する手段である。通信部130は、ベースバンドプロセッサやアンテナを備え、ネットワーク300に応じた変調及び復調を行ってデータを送受信する。通信部130は、ネットワーク300を介して、配信装置200からコンテンツを受信する。
入力部140は、データの入力を受け付ける手段である。入力部140は、キーパッドやマイクロホンを備える。また、入力部140は、表示部がタッチスクリーンディスプレイによって構成される場合には、タッチスクリーンディスプレイのセンサ部分を含んでもよい。以下においては、入力部140が受け付ける入力のうちキーパッドやタッチスクリーンディスプレイの操作によるものを「操作入力」といい、マイクロホンによるものを「音声入力」という。
出力部150は、データを出力する手段である。出力部150は、液晶ディスプレイなどにより構成された表示部やスピーカを備える。この表示部は、上述したようにタッチスクリーンディスプレイによって構成されてもよい。
センサ部160は、ユーザ端末100及びユーザの状態変化を検知する手段であり、複数のセンサを備える。センサ部160は、例えば、ユーザ端末100の位置を検知するGPS(Global Positioning System)モジュールを含む。また、センサ部160は、ユーザ端末100の移動によって生じる加速度を検知する加速度センサ、ユーザ端末100の傾きを検知するジャイロスコープを含んでもよい。さらに、センサ部160は、温度、気圧、湿度、照度(明るさ)といったユーザ端末100の周囲の環境を検知可能であってもよいし、心拍センサによってユーザの心拍数を計測してもよい。
配信装置200は、コンテンツを配信するためのサーバ装置である。配信装置200は、複数のコンテンツを記憶し、それぞれのユーザに応じたコンテンツをユーザ端末100に送信する。配信装置200に記憶されるコンテンツは、他の事業者(コンテンツプロバイダ)によって制作され、当該事業者から提供されたものであってもよい。
図3は、配信装置200のハードウェア構成を示すブロック図である。配信装置200は、制御部210と、記憶部220と、通信部230とを備える。なお、配信装置200は、単体の装置として構成されるのではなく、複数のサーバ装置の協働によって実現されてもよい。
制御部210は、配信装置200の各部の動作を制御する手段である。制御部210は、CPUなどの演算処理装置とメモリとを備える。制御部210は、各ユーザに対するコンテンツの配信を制御するプログラムを実行することにより、それぞれのユーザに応じたコンテンツを所定のタイミングで配信することが可能である。
記憶部220は、データを記憶する手段である。記憶部220は、ハードディスクなどの記憶媒体を備え、制御部210の動作に必要なデータや、ユーザ端末100に配信するコンテンツなどを記憶する。
通信部230は、ネットワーク300を介してデータを送受信する手段である。通信部230は、ユーザ端末100にコンテンツを送信するほか、必要に応じて、外部のサーバ装置などからコンテンツを受信することが可能である。
情報配信システム10の構成は、以上のとおりである。ユーザ端末100は、音声エージェント機能により、ユーザの各種操作(情報の検索、ユーザ端末100の機能に関する設定など)を補助したり、各種の通知を音声で行ったりすることが可能である。ユーザは、ユーザ端末100に話しかけることによって操作を行うことが可能である。
また、ユーザ端末100は、コンテンツを出力(表示等)することが可能である。ユーザ端末100は、例えば、利用可能なコンテンツを所定の画面(待ち受け画面以外の画面)に一覧表示し、その中からユーザが選択したコンテンツを出力する。この場合、ユーザは、コンテンツを閲覧等するためには所定の画面を表示させる操作を行う必要がある。このようなコンテンツの出力形式のことを、以下においては「第1形式」という。
また、ユーザ端末100は、第1形式のほかに、ユーザに推薦するコンテンツをキャラクタの表示によって報知する出力形式によってもコンテンツを出力することができる。以下においては、この出力形式のことを「第2形式」という。第2形式の場合、通知対象のコンテンツの有無が待ち受け画面を表示したときにわかるようになっており、この点において第1形式の場合と異なる。すなわち、第1形式の場合には、ユーザはコンテンツを閲覧等する明示的な意思及び操作を要する一方で、第2形式の場合には、ユーザ端末100を手に取り、最初に表示される画面を見るだけで、通知対象のコンテンツがあるかどうかがわかるようになっている。
なお、本実施例において、コンテンツは、複数の種別のいずれかに分類される。ここでは、コンテンツの種別は、「リコメンド」、「質問」、「雑談」及び「その他」の4種類であるとするが、もちろん他の種別によって分類されてもよい。これらの種別には、第1形式又は第2形式のいずれかの出力形式においてのみ出力されるものがあってもよい。
ここにおいて、「リコメンド」に分類されるコンテンツは、ユーザの属性(年齢、性別、よく行く場所、趣味・嗜好など)に応じたコンテンツ(すなわち、当該ユーザが興味を持つ可能性が高いと予想されるコンテンツ)である。例えば、ユーザが音楽に関心がある場合、コンサートの開催を告知するコンテンツは、当該ユーザのユーザ端末100において「リコメンド」に分類され得るコンテンツである。
次に、「質問」又は「雑談」に分類されるコンテンツは、ユーザとの対話を実現するためのコンテンツである。このうち、「質問」に分類されるコンテンツは、ユーザ端末100がユーザから情報(例えば、当該ユーザの属性)を取得するために行う質問を表すものである。具体的には、「質問」に分類されるコンテンツは、ユーザに対して、「スポーツはお好きですか?」、「誕生日はいつですか?」などといった質問を行い、ユーザに回答を求めるものである。ユーザ端末100は、このような質問によって得られた情報をコンテンツの抽出や分類に反映させることができる。
一方、「雑談」に分類されるコンテンツは、「質問」に分類されるコンテンツとは異なり、情報の取得を目的としないものである。具体的には、「おはようございます」、「今日は天気が良い(悪い)ですね」などの挨拶程度の会話を行うためのコンテンツが「雑談」に分類される。ユーザは、ユーザ端末100からの発話に対して回答することを必ずしも要しないが、「そうですね」などの一般的な受け答えをしてもよい。
なお、「その他」に分類されるコンテンツは、他のいずれの種別にも分類されないコンテンツである。あるコンテンツが「リコメンド」と「その他」のいずれに分類されるかは、ユーザの属性に応じて異なり得る。例えば、コンサートの開催を告知するコンテンツは、音楽に関心があるユーザにとっては「リコメンド」に分類されるが、そうでないユーザにとっては「その他」に分類される、といった相違が生じる。
図4、5は、キャラクタの表示画面の一例を示す図である。ユーザ端末100は、ユーザに推薦するコンテンツがあるとき、キャラクタC1に特定の動作を行わせる。図4に示す例において、特定の動作とは、キャラクタC1が(ユーザに伝えたいことがあるかのように)もぞもぞと動く、というものである。以下においては、キャラクタに特定の動作を行わせる表示のことを「特定表示」という。なお、特定表示の具体例は、この動作に限定されず、キャラクタが所定の2点間を行ったり来たりする動作であってもよいし、キャラクタの表情を小刻みに変える動作であってもよい。あるいは、特定表示は、キャラクタを特定の表情で表示させてもよいし、キャラクタが(何か伝えたいことがあるかのように)口を動かしたりさせてもよい。
本実施例において、特定表示は、ユーザに推薦するコンテンツがある場合のみに行われる。ユーザに推薦するコンテンツがない場合、ユーザ端末100は、例えば、キャラクタを静止させた状態で表示する、といったように、特定表示とは異なる態様でキャラクタを表示する。あるいは、ユーザ端末100は、ユーザに推薦するコンテンツがない場合にはキャラクタ自体を表示しなくてもよい。
また、特定表示時において、ユーザ端末100は、キャラクタC1の近傍に吹き出しB1を表示する。吹き出しB1は、キャラクタに付随して表示されるオブジェクトの一例である。吹き出しB1の内部は、コンテンツの一部やコンテンツの概要を示す文字又は画像などが表示されてもよい。なお、特定表示は、図5に示すように、吹き出しB1を特定の動作で動かすものであってもよいし、キャラクタC1と吹き出しB1の双方を特定の動作で動かすものであってもよい。
ユーザ端末100は、特定の種別のコンテンツについて特定表示を行う一方、その他の種別のコンテンツについては特定表示を行わない。本実施例においては、ユーザ端末100は、コンテンツの種別が「リコメンド」である場合に特定表示を行い、それ以外の種別のコンテンツについては特定表示を行わない。なお、ここでいう特定の種別(すなわち特定表示を行う種別)は、ユーザにより設定されてもよい。
図6は、ユーザ端末100の表示制御に関する機能的構成を示す機能ブロック図である。ユーザ端末100の制御部110は、所定のプログラムを実行することにより、以下に説明する取得部111、表示制御部112、通知部113及び位置特定部114に相当する機能を実現する。
取得部111は、コンテンツを取得する手段である。取得部111は、ネットワーク300を介して配信装置200からコンテンツを取得するほか、ユーザ端末100において生成され、又はユーザ端末100に記憶されているコンテンツを表示対象として取得することも可能である。例えば、「質問」又は「雑談」に分類されるコンテンツは、ユーザ端末100にあらかじめ記憶されていてもよいし、ユーザの位置や日時に基づいてユーザ端末100において生成されてもよい。なお、取得部111は、コンテンツを周期的に繰り返し取得してもよいし、複数のコンテンツを同時に(すなわち一括して)取得してもよい。
表示制御部112は、キャラクタの表示を制御する手段である。また、表示制御部112は、キャラクタに付随して表示されるオブジェクトがある場合、当該オブジェクトの表示もあわせて制御する。表示制御部112は、取得部111により取得されたコンテンツに基づいてキャラクタの表示を制御する。具体的には、表示制御部112は、取得部111により取得されたコンテンツが特定の種別(ここでは「リコメンド」)である場合に、キャラクタを特定表示させる。
通知部113は、コンテンツを通知する手段である。具体的には、通知部113は、キャラクタが特定表示を行っているときにユーザから所定の入力を受け付けると、取得部111により取得された特定の種別のコンテンツを通知する。ここでいう所定の入力は、操作入力(例えば、キャラクタをタップする操作)であってもよいが、音声入力であってもよい。例えば、キャラクタが特定表示されているときにユーザが所定の言葉(「どうしたの?」など)を発した場合に、通知部113がこれを認識してコンテンツを通知するように動作してもよい。
また、通知部113は、特定の種別のコンテンツを通知するとき、キャラクタを介して通知を行う。例えば、通知部113は、コンテンツが文字によって構成される場合であれば、キャラクタの合成音声によってコンテンツを読み上げてもよい。あるいは、通知部113は、吹き出しの中にコンテンツを表示し、あたかもキャラクタが言葉を発しているように表示してもよい。あるいは、通知部113は、キャラクタの声で「コンテンツを再生しますか?」といった音声を再生し、ユーザの入力(応答)を促してもよい。
位置特定部114は、自装置の位置を特定する手段である。本実施例において、ユーザ端末100は、ユーザに携帯されるものである。よって、ユーザ端末100の位置は、ユーザの位置と同一視できる。位置特定部114は、センサ部160のGPSモジュールから位置情報(緯度及び経度)を取得し、これにより位置を特定する。なお、本発明における位置の特定方法は、必ずしもGPSに限定されない。
なお、表示制御部112は、キャラクタの特定表示を行うタイミングを位置特定部114により特定された位置に応じて制御してもよい。例えば、表示制御部112は、所定の位置(例えば、自宅付近などのユーザがあらかじめ設定された場所)においてのみキャラクタの特定表示を行うようにしてもよい。また、通知対象のコンテンツが特定の位置に関連付けられている場合、表示制御部112は、位置特定部114により特定された位置と当該コンテンツに関連付けられた位置とが所定の条件を満たすときに特定表示を行うようにしてもよい。例えば、ある飲食店に関するコンテンツが通知対象である場合、表示制御部112は、ユーザが当該飲食店の近くにいるとき(すなわち、コンテンツに関連付けられた位置とユーザの位置の距離が所定の閾値以内になったとき)に特定表示を行うようにしてもよい。
図7は、キャラクタによる通知処理の一例を示すフローチャートである。ユーザ端末100の制御部110は、コンテンツを取得すると(ステップS1)、その種別を特定し(ステップS2)、その種別が特定の種別(ここでは「リコメンド」)であるか否かを判断する(ステップS3)。
制御部110は、取得したコンテンツが特定の種別である場合、キャラクタを特定表示により表示させる(ステップS4)。すなわち、このとき制御部110は、特定の動作をさせた上でキャラクタを表示させる。また、制御部110は、取得したコンテンツが特定の種別でない場合、キャラクタを特定表示させることなく通知処理を終了する。すなわち、このとき制御部110は、キャラクタを介したコンテンツの通知を行わない。
なお、取得したコンテンツが特定の種別でない場合、制御部110は、キャラクタを介して通知を行わないものの、キャラクタ自体は待ち受け画面に表示させてもよい。また、制御部110は、取得したコンテンツが特定の種別でない場合であっても、上述した第1形式によるコンテンツの出力を妨げない。
キャラクタを特定の動作により表示させた場合、制御部110は、ユーザからの入力を待機する。すなわち、制御部110は、所定の入力を受け付けたか否かを判断し(ステップS5)、当該入力を受け付けたらコンテンツを通知する(ステップS6)。また、制御部110は、所定の入力を受け付けるまでの間、特定表示を開始してからの経過時間が所定の閾値以上になったか否かを判断する(ステップS7)。この閾値は、例えば5〜10分程度であってもよいが、これより長くても短くてもよく、また、通知対象のコンテンツに応じて変化してもよい。制御部110は、所定時間が経過するまでステップS5の判断を繰り返し、所定時間が経過してもユーザからの入力がなかった場合には、コンテンツの通知を行うことなく通知処理を終了する。
なお、この通知処理を実行する間、制御部110は、画面を常に表示し続けていなくてもよい。制御部110は、ユーザの操作に応じて、あるいはユーザが一定期間操作を行わないことにより、画面表示を一時的にオフにしてもよい。この場合において、制御部110は、画面表示がオンであるかオフであるかによらずに上述した経過時間の計測を続ける。また、制御部110は、コンテンツの取得(ステップS1)からキャラクタの表示(ステップS4)までにタイムラグを設けてもよい。
以上説明したように、本実施例によれば、特定の種別のコンテンツのみについて特定表示が行われる。したがって、ユーザは、(全部ではなく)一部のコンテンツのみについてその有無をキャラクタの外観によって知ることが可能になる。また、本実施例によれば、ユーザに対して無条件に、いわば一方的にコンテンツを通知することがないため、コンテンツが一方的に通知される場合のような煩雑さがなくなる。本実施例によれば、ユーザの状況に応じて、すなわちユーザが所望するタイミングのみでコンテンツを通知することが可能である。
また、本実施例において、ユーザ端末100の動作は、特定の種別のコンテンツの通知の可否をキャラクタの外観によりユーザに問いかける形となっている。このような報知は、ユーザが待ち受け画面を見るという行為を行うことによって実現されるため、音声や振動による報知に比べ、ユーザの意に反して行われることがない。また、このような形でユーザと対話することで、(機械的ではなく)人間とのやり取りにより近い双方向的で自然なインターフェイスによってコミュニケーションを行うことが可能である。
[変形例]
本発明の実施の態様は、上述した実施例のみに限定されない。以下に示すのは、本発明の他の実施形態の一例である。なお、本発明は、上述した実施例と1又は複数の変形例とを適宜に組み合わせた態様でも実施可能である。
本発明の実施の態様は、上述した実施例のみに限定されない。以下に示すのは、本発明の他の実施形態の一例である。なお、本発明は、上述した実施例と1又は複数の変形例とを適宜に組み合わせた態様でも実施可能である。
(1)コンテンツの種別
本発明において、特定の種別、すなわち特定表示の対象となるコンテンツの種別は、複数あってもよい。この場合において、ユーザ端末100は、キャラクタや吹き出しの外観をコンテンツの種別に応じて変化させてもよい。このようにすれば、ユーザがキャラクタを見ただけでコンテンツの種別がわかるようになり、閲覧等の要否を事前に判断することが可能になる。また、ユーザ端末100は、キャラクタによる通知対象のコンテンツが時間経過に伴って変化する場合には、コンテンツの変化に応じてキャラクタや吹き出しの外観も変化させてもよい。
本発明において、特定の種別、すなわち特定表示の対象となるコンテンツの種別は、複数あってもよい。この場合において、ユーザ端末100は、キャラクタや吹き出しの外観をコンテンツの種別に応じて変化させてもよい。このようにすれば、ユーザがキャラクタを見ただけでコンテンツの種別がわかるようになり、閲覧等の要否を事前に判断することが可能になる。また、ユーザ端末100は、キャラクタによる通知対象のコンテンツが時間経過に伴って変化する場合には、コンテンツの変化に応じてキャラクタや吹き出しの外観も変化させてもよい。
また、ユーザ端末100は、特定表示の対象となったコンテンツのうち実際に通知を行ったコンテンツの種別を記録し、以降の表示に反映させてもよい。例えば、ユーザ端末100は、ユーザが実際に閲覧等した回数がより多い種別のコンテンツを優先的に通知するようにしてもよい。
(2)特定表示のバリエーション
ユーザ端末100は、特定表示の態様をコンテンツに応じて変化させてもよい。例えば、ユーザ端末100は、コンテンツのデータ容量に応じてキャラクタの動きを変え、コンテンツのデータ容量が大きいほどキャラクタが激しく動くようにしてもよい。また、ユーザ端末100は、コンテンツから文字列を抽出することによってその内容を解析し、解析結果に応じたキャラクタを表示させてもよい。あるいは、ユーザ端末100は、通知対象のコンテンツが飲食店に関する情報である場合には、フォークやナイフなどのオブジェクトをキャラクタとともに表示させる、といったように、コンテンツの内容を推測できるようなオブジェクトを表示させてもよい。
ユーザ端末100は、特定表示の態様をコンテンツに応じて変化させてもよい。例えば、ユーザ端末100は、コンテンツのデータ容量に応じてキャラクタの動きを変え、コンテンツのデータ容量が大きいほどキャラクタが激しく動くようにしてもよい。また、ユーザ端末100は、コンテンツから文字列を抽出することによってその内容を解析し、解析結果に応じたキャラクタを表示させてもよい。あるいは、ユーザ端末100は、通知対象のコンテンツが飲食店に関する情報である場合には、フォークやナイフなどのオブジェクトをキャラクタとともに表示させる、といったように、コンテンツの内容を推測できるようなオブジェクトを表示させてもよい。
(3)推薦度の利用
ユーザ端末100は、通知対象となるコンテンツについて、ユーザへの推薦の度合い(以下「推薦度」という。)を算出してもよい。推薦度は、例えば、ユーザの属性、日時、位置などに基づいて算出される。ユーザ端末100は、この推薦度に応じて特定表示のタイミングや態様を変化させてもよい。あるいは、ユーザ端末100は、推薦度が高いものほど上述したステップS7における閾値を大きくする、といったように、当該閾値を推薦度に応じて変化させてもよい。
ユーザ端末100は、通知対象となるコンテンツについて、ユーザへの推薦の度合い(以下「推薦度」という。)を算出してもよい。推薦度は、例えば、ユーザの属性、日時、位置などに基づいて算出される。ユーザ端末100は、この推薦度に応じて特定表示のタイミングや態様を変化させてもよい。あるいは、ユーザ端末100は、推薦度が高いものほど上述したステップS7における閾値を大きくする、といったように、当該閾値を推薦度に応じて変化させてもよい。
(4)スケジュール情報の活用
ユーザ端末100は、ユーザの予定に関する情報を取得してもよい。ユーザ端末100は、例えば、スケジューラと呼ばれるアプリケーションプログラムからユーザの予定に関する情報を取得することが可能である。ユーザ端末100は、ユーザの予定に関する情報に基づいて特定表示のタイミングを制御してもよい。例えば、ユーザ端末100は、ユーザが予定を登録していない時間帯(すなわち、時間的な余裕があると推測される時間帯)に特定表示を行うようにしてもよい。
ユーザ端末100は、ユーザの予定に関する情報を取得してもよい。ユーザ端末100は、例えば、スケジューラと呼ばれるアプリケーションプログラムからユーザの予定に関する情報を取得することが可能である。ユーザ端末100は、ユーザの予定に関する情報に基づいて特定表示のタイミングを制御してもよい。例えば、ユーザ端末100は、ユーザが予定を登録していない時間帯(すなわち、時間的な余裕があると推測される時間帯)に特定表示を行うようにしてもよい。
(5)入力方法
ユーザ端末100は、特定表示時において、ユーザの入力が操作入力であるか音声入力であるかによってその後の動作を異ならせてもよい。例えば、ユーザ端末100は、ユーザの入力が操作入力であった場合にはコンテンツを表示する一方、ユーザの入力が音声入力であった場合にはコンテンツを音声により再生してもよい。このようにすれば、例えば、声を出すことが憚られる状況においてユーザ端末100が音声を再生する、といったことを防ぐことが可能である。また、ユーザ端末100は、通知対象のコンテンツが複数ある場合には、ユーザの入力が操作入力であるか音声入力であるかによって通知するコンテンツを異ならせてもよい。
ユーザ端末100は、特定表示時において、ユーザの入力が操作入力であるか音声入力であるかによってその後の動作を異ならせてもよい。例えば、ユーザ端末100は、ユーザの入力が操作入力であった場合にはコンテンツを表示する一方、ユーザの入力が音声入力であった場合にはコンテンツを音声により再生してもよい。このようにすれば、例えば、声を出すことが憚られる状況においてユーザ端末100が音声を再生する、といったことを防ぐことが可能である。また、ユーザ端末100は、通知対象のコンテンツが複数ある場合には、ユーザの入力が操作入力であるか音声入力であるかによって通知するコンテンツを異ならせてもよい。
また、ユーザ端末100は、ユーザの入力が操作入力であった場合には、周りに他人がいる場合であると推測して、通知するコンテンツを制限してもよい。このような場合、ユーザ端末100は、例えばユーザのプライバシーに関する情報など、所定のコンテンツについては、ユーザの入力が音声入力である場合のみに通知し、ユーザの操作入力である場合には通知しないようにしてもよい。
(6)入力が行われた日時および場所についての情報の活用
ユーザ端末100は、特定表示時において、ユーザの入力が受け付けられた位置又は日時に基づいて、以降の特定表示のタイミングを制御してもよい。例えば、ユーザ端末100は、ユーザの入力が受け付けられた位置又は日時に一定の傾向があり、コンテンツの通知がよく行われる場所又は時間帯が存在すると判断した場合、その場所や時間帯において特定表示を行うようにしてもよい。あるいは、ユーザ端末100は、複数の種別のコンテンツが通知対象である場合に、実際に閲覧等が行われた回数が多い種別とそれ以外の種別とで特定表示のタイミングを異ならせてもよい。
ユーザ端末100は、特定表示時において、ユーザの入力が受け付けられた位置又は日時に基づいて、以降の特定表示のタイミングを制御してもよい。例えば、ユーザ端末100は、ユーザの入力が受け付けられた位置又は日時に一定の傾向があり、コンテンツの通知がよく行われる場所又は時間帯が存在すると判断した場合、その場所や時間帯において特定表示を行うようにしてもよい。あるいは、ユーザ端末100は、複数の種別のコンテンツが通知対象である場合に、実際に閲覧等が行われた回数が多い種別とそれ以外の種別とで特定表示のタイミングを異ならせてもよい。
本発明に係るユーザインタフェース装置は、上述したユーザ端末100、すなわちスマートフォンやタブレット端末に限定されない。本発明に係る表示制御装置は、例えば、携帯用のゲーム機やミュージックプレイヤであってもよいし、いわゆるパーソナルコンピュータであってもよい。
また、本発明は、ユーザインタフェース装置(又はこれを備える電子機器)のほか、ユーザインタフェース装置と配信装置とを含む情報配信システム、コンピュータ(CPU等)をユーザインタフェース装置として機能させるためのプログラム、コンテンツの通知方法などを提供することが可能である。また、このプログラムは、光ディスクなどの記録媒体に記録した形態や、インターネットなどのネットワークを介して所定の装置にダウンロードされ、これをインストールすることで利用可能になる形態などでも提供され得る。
10…情報配信システム、100…ユーザ端末、110…制御部、120…記憶部、130…通信部、140…入力部、150…出力部、160…センサ部、111…取得部、112…表示制御部、113…通知部、114…位置特定部、200…配信装置、300…ネットワーク
Claims (10)
- 画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得する取得部と、
前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示させる表示制御部と、
前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して当該ユーザに通知する通知部と
を備えるユーザインタフェース装置。 - 前記表示制御部は、前記キャラクタ又は当該キャラクタに付随して表示されるオブジェクトの外観を、前記コンテンツの種別に応じて変化させる
請求項1に記載のユーザインタフェース装置。 - 前記表示制御部は、前記特定の動作の態様を、前記取得された前記特定の種別のコンテンツに応じて変化させる
請求項1又は2に記載のユーザインタフェース装置。 - 前記表示制御部は、前記取得されたコンテンツが前記特定の種別のコンテンツでない場合に、当該特定の種別のコンテンツが取得された場合と異なる表示態様で前記キャラクタを表示させる
請求項1ないし3のいずれか1項に記載のユーザインタフェース装置。 - 自装置の位置を特定する位置特定部を備え、
前記特定の種別のコンテンツは、特定の位置に関連付けられたコンテンツであり、
前記表示制御部は、前記特定の種別のコンテンツが取得され、当該コンテンツが特定の位置に関連付けられている場合において、前記位置特定部により特定された位置と前記特定の位置とが所定の条件を満たすとき、前記特定の動作を行うキャラクタを表示させる
請求項1ないし4のいずれか1項に記載のユーザインタフェース装置。 - 前記入力は、操作による入力と音声による入力とを含み、
前記通知部は、前記入力が操作による場合に、通知するコンテンツを制限する
請求項1ないし5のいずれか1項に記載のユーザインタフェース装置。 - 前記取得部は、前記特定の種別のコンテンツを複数取得し、
前記入力は、操作による入力と音声による入力とを含み、
前記通知部は、前記入力が操作又は音声のいずれによるかに応じて、通知するコンテンツを異ならせる
請求項1ないし5のいずれか1項に記載のユーザインタフェース装置。 - 前記表示制御部は、前記入力が受け付けられた位置若しくは日時又は当該入力により通知されたコンテンツに応じて、以降に前記特定の動作を行うキャラクタを表示するタイミングを制御する
請求項1ないし7のいずれか1項に記載のユーザインタフェース装置。 - コンピュータに、
画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得するステップと、
前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示させるステップと、
前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して前記ユーザに通知するステップと
を実行させるためのプログラム。 - 画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得し、
前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示し、
前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して前記ユーザに通知する
コンテンツの通知方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014198907 | 2014-09-29 | ||
JP2014198907 | 2014-09-29 | ||
PCT/JP2015/077512 WO2016052501A1 (ja) | 2014-09-29 | 2015-09-29 | ユーザインタフェース装置、プログラム及びコンテンツの通知方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2016052501A1 true JPWO2016052501A1 (ja) | 2017-04-27 |
Family
ID=55630528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016552060A Pending JPWO2016052501A1 (ja) | 2014-09-29 | 2015-09-29 | ユーザインタフェース装置、プログラム及びコンテンツの通知方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20170263036A1 (ja) |
EP (1) | EP3203362A1 (ja) |
JP (1) | JPWO2016052501A1 (ja) |
WO (1) | WO2016052501A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10834217B2 (en) * | 2017-08-16 | 2020-11-10 | T-Mobile Usa, Inc. | Managing mobile notifications received via a wireless communication network |
JP2019050018A (ja) * | 2018-11-09 | 2019-03-28 | 富士ゼロックス株式会社 | 表示制御方法、情報処理装置及びプログラム |
JP7326805B2 (ja) | 2019-03-26 | 2023-08-16 | 株式会社ニコン | データ処理装置、データ処理方法、プログラム、及び、データ処理システム |
JP7484377B2 (ja) * | 2020-04-22 | 2024-05-16 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置およびプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301675A (ja) * | 1997-02-28 | 1998-11-13 | Toshiba Corp | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
JP2000175117A (ja) * | 1998-12-10 | 2000-06-23 | Matsushita Electric Ind Co Ltd | テレビジョン受像機 |
JP2003233616A (ja) * | 2002-02-13 | 2003-08-22 | Matsushita Electric Ind Co Ltd | 提供情報提示装置、および情報提供装置 |
JP2004021521A (ja) * | 2002-06-14 | 2004-01-22 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2004280667A (ja) * | 2003-03-18 | 2004-10-07 | Victor Co Of Japan Ltd | 画像信号生成装置 |
JP2006031379A (ja) * | 2004-07-15 | 2006-02-02 | Sony Corp | 情報提示装置及び情報提示方法 |
JP2009116451A (ja) * | 2007-11-02 | 2009-05-28 | Ntt Docomo Inc | 情報提供システム及び情報提供方法 |
-
2015
- 2015-09-29 US US15/323,881 patent/US20170263036A1/en not_active Abandoned
- 2015-09-29 JP JP2016552060A patent/JPWO2016052501A1/ja active Pending
- 2015-09-29 EP EP15847887.5A patent/EP3203362A1/en not_active Withdrawn
- 2015-09-29 WO PCT/JP2015/077512 patent/WO2016052501A1/ja active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301675A (ja) * | 1997-02-28 | 1998-11-13 | Toshiba Corp | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
JP2000175117A (ja) * | 1998-12-10 | 2000-06-23 | Matsushita Electric Ind Co Ltd | テレビジョン受像機 |
JP2003233616A (ja) * | 2002-02-13 | 2003-08-22 | Matsushita Electric Ind Co Ltd | 提供情報提示装置、および情報提供装置 |
JP2004021521A (ja) * | 2002-06-14 | 2004-01-22 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2004280667A (ja) * | 2003-03-18 | 2004-10-07 | Victor Co Of Japan Ltd | 画像信号生成装置 |
JP2006031379A (ja) * | 2004-07-15 | 2006-02-02 | Sony Corp | 情報提示装置及び情報提示方法 |
JP2009116451A (ja) * | 2007-11-02 | 2009-05-28 | Ntt Docomo Inc | 情報提供システム及び情報提供方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3203362A1 (en) | 2017-08-09 |
WO2016052501A1 (ja) | 2016-04-07 |
US20170263036A1 (en) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11102624B2 (en) | Automated messaging | |
CN113632497B (zh) | 生成具有增强图标的个性化地图界面 | |
US10515655B2 (en) | Emotion type classification for interactive dialog system | |
US10498673B2 (en) | Device and method for providing user-customized content | |
US9794355B2 (en) | Systems and methods for adaptive notification networks | |
CN107211198B (zh) | 用于编辑内容的装置和方法 | |
US20170031575A1 (en) | Tailored computing experience based on contextual signals | |
US20170013106A1 (en) | System and method of providing voice-message call service | |
CN114205324B (zh) | 消息显示方法、装置、终端、服务器及存储介质 | |
CN110334352A (zh) | 引导信息显示方法、装置、终端及存储介质 | |
US12047660B2 (en) | Information processing apparatus, information processing method, and program | |
EP3121688A1 (en) | Method and device for displaying image | |
US11244682B2 (en) | Information processing device and information processing method | |
US20180357306A1 (en) | Increasing use and trust in intelligent systems | |
WO2016052501A1 (ja) | ユーザインタフェース装置、プログラム及びコンテンツの通知方法 | |
US10965888B1 (en) | Subtitle presentation based on volume control | |
KR20160065670A (ko) | 컨텐트를 제공하는 방법 및 디바이스 | |
US11908489B2 (en) | Tap to advance by subtitles | |
JP2019036201A (ja) | 出力制御装置、出力制御方法及び出力制御プログラム | |
RU2603532C2 (ru) | Интеллектуальная среда | |
JP6482703B1 (ja) | 推定装置、推定方法および推定プログラム | |
KR20220081090A (ko) | 감정 기반 멀티미디어 컨텐츠 생성 방법 및 시스템 | |
US20240244298A1 (en) | Video sound control | |
WO2019054009A1 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170626 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170815 |