JP7211367B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7211367B2 JP7211367B2 JP2019537977A JP2019537977A JP7211367B2 JP 7211367 B2 JP7211367 B2 JP 7211367B2 JP 2019537977 A JP2019537977 A JP 2019537977A JP 2019537977 A JP2019537977 A JP 2019537977A JP 7211367 B2 JP7211367 B2 JP 7211367B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- output
- recognition
- space
- information related
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 73
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000000034 method Methods 0.000 claims description 99
- 238000004458 analytical method Methods 0.000 claims description 60
- 238000012545 processing Methods 0.000 description 57
- 238000001514 detection method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 239000011521 glass Substances 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000009194 climbing Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000003739 neck Anatomy 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0227—Cooperation and interconnection of the input arrangement with other functional units of a computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Selective Calling Equipment (AREA)
- Position Input By Displaying (AREA)
Description
1.本開示の一実施形態による情報処理システムの概要
2.情報処理装置10の構成
3.動作処理
3-1.全体の流れ
3-2.認識処理
(3-2-1.人認識処理)
(3-2-2.環境認識処理)
(3-2-3.機器認識処理)
3-3.コンテンツ解析処理
3-4.要素処理
(3-4-1.要素算出)
(3-4-2.要素のスコア化)
(3-4-3.特定要素の重み付け)
3-5.出力方式決定処理
4.応用例
5.まとめ
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システム1は、情報処理装置10、センサ11、および出力装置12を含む。以下、本実施形態による情報処理システム1に含まれる各装置について説明する。
センサ11は、周辺の環境情報を検知し、情報処理装置10に出力する。センサ11は、主に人関連の情報と、環境関連の情報を取得する。人関連の情報とは、空間内における1以上のユーザの位置、姿勢、視界エリア、視線方向、顔の向き等が挙げられる。また、環境関連の情報とは、投影面の形状、凹凸、色検出、障害物や遮蔽物、照度情報や音量等が挙げられる。センサ11は、単一若しくは複数であってもよい。また、センサ11は、出力装置12に設けられていてもよい。
情報処理装置10は、センサ11から取得した情報の解析と、コンテンツ属性(コンテンツに関連する何らかの情報)の解析を行った上で、空間内の環境に応じた情報出力の最適化を行う。センサデータの解析では、例えばプロジェクタ12aのような投射表示装置と投影面の3次元位置関係等を算出し、投影面に出力される映像がユーザにどのように認識されるか等、出力された情報をユーザによりどのように認識されるかを解析し、情報出力の最適化に用いる。
出力装置12は、情報処理装置10の制御に従ってユーザに情報提示を行う各種デバイスである。例えば出力装置12は、図1に示すように、例えばプロジェクタ12a、表示装置12b、スピーカ12c、またはウェアラブルデバイス12d等により実現される。なお出力装置12の具体例は図1に図示したものに限定されず、他にも例えば振動装置や風出力装置、空調装置、照明装置、各種アクチュエータ等、何らかの情報をユーザに提示し得る装置は全て想定し得る。また、空間内には、1以上の種類の出力装置が1以上存在することを想定する。
図2は、本実施形態による情報処理装置10の構成の一例を示すブロック図である。図2に示すように、情報処理装置10は、制御部100、通信部110、入力部120、および記憶部130を有する。
通信部110は、有線または無線により外部装置と直接若しくはネットワークを介してデータの送受信を行う。例えば通信部110は、有線/無線LAN(Local Area Network)、Wi-Fi(登録商標)、Bluetooth(登録商標)、近距離無線通信等を用いてセンサ11や出力装置12と通信接続する。例えば、通信部110は、出力制御部105の制御に従って、決定された出力方式で出力するよう所定の出力装置12を制御する制御信号やコンテンツデータを出力装置12に送信する。
入力部120は、情報処理装置10への入力情報を受け付ける。例えば入力部120は、ユーザによる操作指示を受け付ける操作入力部であってもよい。操作入力部は、タッチセンサ、圧力センサ、若しくは近接センサであってもよい。あるいは、操作入力部は、ボタン、スイッチ、およびレバーなど、物理的構成であってもよい。また、入力部120は、音声入力部(マイクロホン)であってもよい。
記憶部140は、制御部100の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
続いて、本実施形態による情報処理システムの動作処理について図面を用いて具体的に説明する。
まず、図3を参照して本実施形態による出力制御処理について説明する。図3は、本実施形態による出力制御処理を示すフローチャートである。
(3-2-1.人認識処理)
人認識処理では、センサデータに基づいて、空間内に存在する1以上のユーザの位置や視線方向、個人の特定、姿勢認識、行動認識等を行う。図4は、本実施形態による人認識処理について説明する図である。認識部101は、図4に示すように、空間S内に複数のユーザ(ユーザA、ユーザB)がいる場合に、各ユーザの位置や視界ベクトルV(視線方向)を3次元座標位置(x,y,z)で取得し得る。また、認識部101は、各ユーザの状態(姿勢、行動)も取得し得る。
環境認識処理では、ユーザがおかれている環境を認識することで、情報を伝達する際の最適な環境を把握することを可能とする。
機器認識処理では、空間内に存在する出力装置12の状態を把握する。ここで、図11に、出力装置12の検出結果の一例を示す。図11に示すように、例えば出力装置12の名称およびID毎に、出力装置12の形態(固定/駆動/ウェアラブル)、出力可能位置(出力可能な位置の数)、応答性(起動時間、情報提示に掛かる時間)、状態(スタンバイ/起動中/使用中)、出力種類(表示/音声/振動)といった情報が取得される。これらの情報は、出力装置12と通信接続して受信してもよいし、空間S内のカメラセンサやマイクロセンサ等から取得したセンサデータを解析して取得してもよい。
コンテンツ解析処理では、コンテンツがどのようなフォーマットか(動画、文章、音声、静止画等)、コンテンツを利用する対象者は誰か、ユーザの作業有無(目視確認のみのコンテンツか否か、表示されたコンテンツに対する所定のユーザ操作(例えば画像コンテンツに対する画像編集操作が発生するか否かや、当該コンテンツに対して直接的なタッチ操作やコンテンツから離れた地点における動作によるジェスチャ操作等どのような種類の操作が発生するか等)、重要度(緊急通知、通知、(常時)表示)等を解析する。これらはシステム側で属性が予め決められてもよいし、コンテンツに予め関連付けられたメタデータ(例えばコンテンツのフォーマットや対象、当該コンテンツに対する所定のユーザ操作、重要度に関するメタデータ)を特定することにより解析しても良いし、動画/静止画の場合に画像情報を学習して、重要度を自動で検出してもよい。
続いて、出力方式を決定するための要素処理について説明する。
要素処理部103は、認識部101による認識結果に基づいて、複数のユーザや出力装置12毎の要素を算出する。図13および図14は、要素算出の一例を示す図である。
次に、上記算出した各要素に基づいて、最適な出力位置(出力装置12、投影面の位置)が決定されるが、各要素の単位は各々異なるため比較し辛い。そこで、本実施形態では、各要素のスコア化を行い、出力装置12や投影面毎に1つのスコアを算出する。スコア化は、各要素を4~5段階にカテゴライズしたり、特定の変換式を作成して行ってもよい。以下、スコア化に用いる変換式の具体例について説明する。
以上説明したように、投影面および出力装置12(すなわち出力位置)毎に1つのスコアが算出され、その中で一番得点の高いスコアを選択することで、出力位置を決定することができるが、さらにコンテンツの特性を踏まえることで最適なスコア化を実現することが可能となる。
続いて、出力方式決定部104による出力方式の決定処理について図16~図17を参照して説明する。出力方式決定部104は、重み付けされた各要素のスコアを統合し、各出力位置(例えば空間内における各投影面(平面領域P1~P7)や、表示装置12b、スピーカ12c、ウェアラブルデバイス12dの位置)に1つのスコアを算出する。また、複数の出力装置12と出力種類(例えば、表示、音声、振動等)の組み合わせから最適な出力方式を選択する。
本実施形態による情報処理システムは屋内の生活環境だけでなく、公共施設や、スポーツ観戦等にも応用することが可能である。例えば、大型施設であるクライミング競技大会の例について図18を参照して説明する。
上述したように、本開示の実施形態による情報処理システムでは、空間内の環境に応じて情報出力の最適化を行うことが可能となる。
(1)
コンテンツを出力する空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
を備える、情報処理装置。
(2)
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含む、前記(1)に記載の情報処理装置。
(3)
前記認識部は、空間内の状況として、空間内に存在するユーザに関する認識処理を行う、前記(2)に記載の情報処理装置。
(4)
前記ユーザに関する認識処理として、ユーザの位置座標、視界方向、および状態を認識する、前記(3)に記載の情報処理装置。
(5)
前記認識部は、空間内の状況として、空間内におけるユーザ周辺の環境に関する認識処理を行う、前記(2)~(4)のいずれか1項に記載の情報処理装置。
(6)
前記環境に関する認識処理として、空間内から平面領域の検出、照度Mapの生成、および音場認識の少なくともいずれかを行う、前記(5)に記載の情報処理装置。
(7)
前記認識部は、空間内の状況として、空間内に存在する出力装置に関する認識処理を行う、前記(2)~(6)のいずれか1項に記載の情報処理装置。
(8)
前記決定部は、前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定する、前記(2)~(7)のいずれか1項に記載の情報処理装置。
(9)
前記出力位置は、投影表示装置からの投影出力の場合、空間内における平面領域の位置である、前記(8)に記載の情報処理装置。
(10)
前記出力位置は、出力装置の設置位置である、前記(8)に記載の情報処理装置。
(11)
前記出力位置は、出力装置がウェアラブルデバイスの場合、当該ウェアラブルデバイスを装着しているユーザの位置が相当する、前記(8)に記載の情報処理装置。
(12)
前記決定部は、
前記認識部による環境およびユーザに関する認識結果に基づいて算出され、前記コンテンツの関連情報の解析結果に応じて重み付けされた各要素のスコアに基づいて算出された出力位置毎のスコアに基づき、前記出力位置を決定する、前記(8)~(11)のいずれか1項に記載の情報処理装置。
(13)
前記決定部は、
前記コンテンツの解析結果に基づき、前記コンテンツがビデオの場合、画面サイズを優先して前記出力方式を決定する、前記(8)~(12)のいずれか1項に記載の情報処理装置。
(14)
前記決定部は、
前記コンテンツがタッチUIの場合、出力位置とユーザとの距離の近さを優先して前記出力方式を決定する、前記(8)~(13)のいずれか1項に記載の情報処理装置。
(15)
前記決定部は、
前記コンテンツが文字主体の場合、出力解像度を優先して前記出力方式を決定する、前記(8)~(14)のいずれか1項に記載の情報処理装置。
(16)
前記決定部は、
前記コンテンツが音声の場合、出力位置における音場の状況を優先して前記出力方式を決定する、前記(8)~(15)のいずれか1項に記載の情報処理装置。
(17)
前記決定部は、
前記コンテンツが画像であって、かつユーザが移動中の場合、当該ユーザの視線方向を優先して前記出力方式を決定する、前記(8)~(16)のいずれか1項に記載の情報処理装置。
(18)
前記情報処理装置は、
前記決定した出力方式で出力装置に出力させる情報を送信する送信部をさらに備える、前記(1)~(17)のいずれか1項に記載の情報処理装置。
(19)
プロセッサが、
コンテンツを出力する空間をセンシングしたセンサデータに基づいて空間内の状況を認識することと、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定することと、
を含む、情報処理方法。
(20)
コンピュータを、
コンテンツを出力する空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
として機能させるための、プログラム。
10 情報処理装置
11 センサ
11a カメラ
11b 距離センサ
11c 照度センサ
11d マイクロホン
12 出力装置
12a プロジェクタ
12b 表示装置
12c スピーカ
12d ウェアラブルデバイス
100 制御部100
101 認識部
102 コンテンツ解析部
103 要素処理部
104 出力方式決定部
105 出力制御部
110 通信部
120 入力部
130 記憶部
Claims (15)
- コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
を備え、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記決定部は、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定し、
前記認識部による環境およびユーザに関する認識結果に基づいて算出され、前記コンテンツの関連情報の解析結果に応じて重み付けされた各要素のスコアに基づいて算出された出力位置毎のスコアに基づき、前記出力位置を決定する、
情報処理装置。 - コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
を備え、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記決定部は、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定し、
前記コンテンツの解析結果に基づき、前記コンテンツがビデオの場合、画面サイズを優先して前記出力方式を決定する、
情報処理装置。 - コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
を備え、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記決定部は、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定し、
前記コンテンツが文字主体の場合、出力解像度を優先して前記出力方式を決定する、
情報処理装置。 - コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
を備え、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記決定部は、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定し、
前記コンテンツが音声の場合、出力位置における音場の状況を優先して前記出力方式を決定する、
情報処理装置。 - コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
を備え、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記決定部は、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定し、
前記コンテンツが画像であって、かつユーザが移動中の場合、当該ユーザの視線方向を優先して前記出力方式を決定する、
情報処理装置。 - プロセッサが、
コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識することと、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定することと、
を含み、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記プロセッサが、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定することと、
前記状況の認識によって得られた環境およびユーザに関する認識結果に基づいて算出され、前記コンテンツの関連情報の解析結果に応じて重み付けされた各要素のスコアに基づいて算出された出力位置毎のスコアに基づき、前記出力位置を決定することと、
を含む、
情報処理方法。 - プロセッサが、
コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識することと、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定することと、
を含み、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記プロセッサが、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定することと、
前記コンテンツの解析結果に基づき、前記コンテンツがビデオの場合、画面サイズを優先して前記出力方式を決定することと、
を含む、
情報処理方法。 - プロセッサが、
コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識することと、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定することと、
を含み、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記プロセッサが、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定することと、
前記コンテンツが文字主体の場合、出力解像度を優先して前記出力方式を決定することと、
を含む、
情報処理方法。 - プロセッサが、
コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識することと、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定することと、
を含み、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記プロセッサが、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定することと、
前記コンテンツが音声の場合、出力位置における音場の状況を優先して前記出力方式を決定することと、
を含む、
情報処理方法。 - プロセッサが、
コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識することと、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定することと、
を含み、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記プロセッサが、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定することと、
前記コンテンツが画像であって、かつユーザが移動中の場合、当該ユーザの視線方向を優先して前記出力方式を決定することと、
を含む、
情報処理方法。 - コンピュータを、
コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
として機能させるためのプログラムであって、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記決定部は、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定し、
前記認識部による環境およびユーザに関する認識結果に基づいて算出され、前記コンテンツの関連情報の解析結果に応じて重み付けされた各要素のスコアに基づいて算出された出力位置毎のスコアに基づき、前記出力位置を決定する、
プログラム。 - コンピュータを、
コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
として機能させるためのプログラムであって、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記決定部は、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定し、
前記コンテンツの解析結果に基づき、前記コンテンツがビデオの場合、画面サイズを優先して前記出力方式を決定する、
プログラム。 - コンピュータを、
コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
として機能させるためのプログラムであって、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記決定部は、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定し、
前記コンテンツが文字主体の場合、出力解像度を優先して前記出力方式を決定する、
プログラム。 - コンピュータを、
コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
として機能させるためのプログラムであって、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記決定部は、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定し、
前記コンテンツが音声の場合、出力位置における音場の状況を優先して前記出力方式を決定する、
プログラム。 - コンピュータを、
コンテンツの出力先の空間をセンシングしたセンサデータに基づいて空間内の状況を認識する認識部と、
前記認識の結果と、前記コンテンツの関連情報の解析結果に基づき、当該コンテンツの出力方式を決定する決定部と、
として機能させるためのプログラムであって、
前記コンテンツの関連情報の解析結果は、前記コンテンツのフォーマット、前記コンテンツを利用する対象者、前記コンテンツに対する作業、または前記コンテンツの重要度を含み、
前記決定部は、
前記出力方式として、前記コンテンツの出力位置、出力装置、および出力パラメータを決定し、
前記コンテンツが画像であって、かつユーザが移動中の場合、当該ユーザの視線方向を優先して前記出力方式を決定する、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017160080 | 2017-08-23 | ||
JP2017160080 | 2017-08-23 | ||
PCT/JP2018/026110 WO2019039119A1 (ja) | 2017-08-23 | 2018-07-11 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019039119A1 JPWO2019039119A1 (ja) | 2020-07-30 |
JP7211367B2 true JP7211367B2 (ja) | 2023-01-24 |
Family
ID=65438803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019537977A Active JP7211367B2 (ja) | 2017-08-23 | 2018-07-11 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11417135B2 (ja) |
EP (1) | EP3674854A4 (ja) |
JP (1) | JP7211367B2 (ja) |
CN (1) | CN111052044B (ja) |
WO (1) | WO2019039119A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111052044B (zh) * | 2017-08-23 | 2022-08-02 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
US11234051B2 (en) | 2019-01-04 | 2022-01-25 | Apple Inc. | Predictive media routing |
US11295541B2 (en) * | 2019-02-13 | 2022-04-05 | Tencent America LLC | Method and apparatus of 360 degree camera video processing with targeted view |
JP2020140598A (ja) * | 2019-03-01 | 2020-09-03 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN110568931A (zh) * | 2019-09-11 | 2019-12-13 | 百度在线网络技术(北京)有限公司 | 交互方法、设备、系统、电子设备及存储介质 |
CN115751593A (zh) * | 2022-11-28 | 2023-03-07 | 青岛海尔空调器有限总公司 | 空调器与投影设备的互联控制方法、装置及空调器 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005313291A (ja) | 2004-04-30 | 2005-11-10 | Mitsubishi Heavy Ind Ltd | ロボット行動とリンクした映像表示方法とその装置 |
JP2007210460A (ja) | 2006-02-09 | 2007-08-23 | Nissan Motor Co Ltd | 車両用表示装置および車両用映像表示制御方法 |
JP2009223061A (ja) | 2008-03-17 | 2009-10-01 | Ricoh Co Ltd | 表示制御システム、表示制御方法及び表示制御プログラム |
JP2015052980A (ja) | 2013-09-09 | 2015-03-19 | 株式会社デンソー | コンテンツ提供システム |
WO2016075967A1 (ja) | 2014-11-11 | 2016-05-19 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
US20160182613A1 (en) | 2014-12-18 | 2016-06-23 | Google Inc. | Methods, systems, and media for controlling information used to present content on a public display device |
JP2017049474A (ja) | 2015-09-03 | 2017-03-09 | シャープ株式会社 | 制御装置、出力装置、および出力方法 |
WO2017043145A1 (ja) | 2015-09-07 | 2017-03-16 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2017122363A1 (ja) | 2016-01-15 | 2017-07-20 | 楽天株式会社 | コンテンツ投影制御装置、コンテンツ投影制御方法及びプログラム |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR0163077B1 (ko) * | 1993-12-27 | 1999-01-15 | 사또오 후미오 | 표시장치 |
US8089423B1 (en) * | 2000-05-12 | 2012-01-03 | Harris Scott C | Automatic configuration of multiple monitor systems |
TW557069U (en) * | 2001-07-13 | 2003-10-01 | Winbond Electronics Corp | Multi-media display device suitable for digital TV and capable of showing many kinds of program |
JP4323742B2 (ja) * | 2001-12-28 | 2009-09-02 | キヤノン株式会社 | 画像処理装置および画像処理装置の制御方法およびプログラム |
JP4011949B2 (ja) * | 2002-04-01 | 2007-11-21 | キヤノン株式会社 | マルチ画面合成装置及びデジタルテレビ受信装置 |
US20040004599A1 (en) * | 2002-07-03 | 2004-01-08 | Scott Shepard | Systems and methods for facilitating playback of media |
CN1268122C (zh) * | 2002-07-23 | 2006-08-02 | 精工爱普生株式会社 | 显示方法及投影机 |
JP3880561B2 (ja) * | 2002-09-05 | 2007-02-14 | 株式会社ソニー・コンピュータエンタテインメント | 表示システム |
WO2006046357A1 (ja) | 2004-10-26 | 2006-05-04 | Matsushita Electric Industrial Co., Ltd. | 情報出力装置、情報出力制御方法、情報出力制御プログラム |
JP4111190B2 (ja) * | 2004-12-24 | 2008-07-02 | コニカミノルタビジネステクノロジーズ株式会社 | 画像処理装置 |
US20110258049A1 (en) * | 2005-09-14 | 2011-10-20 | Jorey Ramer | Integrated Advertising System |
US20070100653A1 (en) * | 2005-11-01 | 2007-05-03 | Jorey Ramer | Mobile website analyzer |
JP2007114594A (ja) * | 2005-10-21 | 2007-05-10 | Seiko Epson Corp | 画像形成装置およびトナー消費量算出方法 |
US7835079B2 (en) * | 2007-03-06 | 2010-11-16 | Ostendo Technologies, Inc. | Micro-structure based screen system for use in rear projection array display systems |
AU2014200913A1 (en) * | 2008-06-09 | 2014-03-13 | Vidyo, Inc. | Improved view layout management in scalable video and audio communication systems |
US8820939B2 (en) * | 2008-06-17 | 2014-09-02 | The Invention Science Fund I, Llc | Projection associated methods and systems |
IT1399695B1 (it) * | 2010-04-14 | 2013-04-26 | Sisvel Technology Srl | Metodo per visualizzare un flusso video secondo un formato personalizzato. |
US9723293B1 (en) * | 2011-06-21 | 2017-08-01 | Amazon Technologies, Inc. | Identifying projection surfaces in augmented reality environments |
JP6068357B2 (ja) * | 2012-03-14 | 2017-01-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | コンテンツ表示処理装置、コンテンツ表示処理方法、プログラム、及び集積回路 |
JP5682585B2 (ja) | 2012-03-16 | 2015-03-11 | 株式会社リコー | 情報処理装置、情報処理システム、および情報処理方法 |
US20130304587A1 (en) * | 2012-05-01 | 2013-11-14 | Yosot, Inc. | System and method for interactive communications with animation, game dynamics, and integrated brand advertising |
US10649613B2 (en) * | 2012-06-07 | 2020-05-12 | Wormhole Labs, Inc. | Remote experience interfaces, systems and methods |
KR101989893B1 (ko) * | 2012-10-29 | 2019-09-30 | 엘지전자 주식회사 | 헤드 마운트 디스플레이 및 이를 이용한 오디오 신호 출력 방법 |
EP3007455B1 (en) * | 2013-05-31 | 2020-07-29 | Sony Corporation | Information processing device and information processing method |
KR20150008733A (ko) * | 2013-07-15 | 2015-01-23 | 엘지전자 주식회사 | 안경형 휴대기기 및 그의 정보 투사면 탐색방법 |
US9535578B2 (en) * | 2013-10-18 | 2017-01-03 | Apple Inc. | Automatic configuration of displays for slide presentation |
US9524139B2 (en) * | 2013-10-29 | 2016-12-20 | Dell Products, Lp | System and method for positioning an application window based on usage context for dual screen display device |
US9727134B2 (en) * | 2013-10-29 | 2017-08-08 | Dell Products, Lp | System and method for display power management for dual screen display device |
US20150149585A1 (en) * | 2013-11-26 | 2015-05-28 | Jack Ke Zhang | Channel-content management system for controlling dynamic-content transmissions for passive display on computing devices |
BR112016014515A2 (pt) * | 2013-12-27 | 2017-08-08 | Sony Corp | Dispositivo de controle de exibição, método de controle de exibição, e, programa |
KR102135367B1 (ko) * | 2014-01-23 | 2020-07-17 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
JP2015145894A (ja) | 2014-01-31 | 2015-08-13 | キヤノン株式会社 | 投射型表示装置 |
US10469428B2 (en) * | 2014-02-21 | 2019-11-05 | Samsung Electronics Co., Ltd. | Apparatus and method for transmitting message |
US10264211B2 (en) * | 2014-03-14 | 2019-04-16 | Comcast Cable Communications, Llc | Adaptive resolution in software applications based on dynamic eye tracking |
US9710772B1 (en) * | 2014-06-06 | 2017-07-18 | Amazon Technologies, Inc. | Using sensor data to modify attributes of information presented to a user |
US10297179B2 (en) * | 2015-02-03 | 2019-05-21 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10575008B2 (en) * | 2015-06-01 | 2020-02-25 | Apple Inc. | Bandwidth management in devices with simultaneous download of multiple data streams |
US9953443B2 (en) * | 2016-02-03 | 2018-04-24 | Daniel Limberger | Interactive, adaptive level-of-detail in 2.5D treemaps |
US20170289596A1 (en) * | 2016-03-31 | 2017-10-05 | Microsoft Technology Licensing, Llc | Networked public multi-screen content delivery |
JP6788996B2 (ja) * | 2016-04-27 | 2020-11-25 | ラピスセミコンダクタ株式会社 | 半導体装置、映像表示システムおよび映像信号出力方法 |
WO2017201670A1 (en) * | 2016-05-24 | 2017-11-30 | Motorola Solutions, Inc. | Guardian camera in a network to improve a user's situational awareness |
US10963044B2 (en) * | 2016-09-30 | 2021-03-30 | Intel Corporation | Apparatus, system and method for dynamic modification of a graphical user interface |
US11385930B2 (en) * | 2017-06-21 | 2022-07-12 | Citrix Systems, Inc. | Automatic workflow-based device switching |
CN111052044B (zh) * | 2017-08-23 | 2022-08-02 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
US10904615B2 (en) * | 2017-09-07 | 2021-01-26 | International Business Machines Corporation | Accessing and analyzing data to select an optimal line-of-sight and determine how media content is distributed and displayed |
-
2018
- 2018-07-11 CN CN201880053147.3A patent/CN111052044B/zh not_active Expired - Fee Related
- 2018-07-11 JP JP2019537977A patent/JP7211367B2/ja active Active
- 2018-07-11 WO PCT/JP2018/026110 patent/WO2019039119A1/ja unknown
- 2018-07-11 US US16/639,358 patent/US11417135B2/en active Active
- 2018-07-11 EP EP18848772.2A patent/EP3674854A4/en not_active Withdrawn
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005313291A (ja) | 2004-04-30 | 2005-11-10 | Mitsubishi Heavy Ind Ltd | ロボット行動とリンクした映像表示方法とその装置 |
JP2007210460A (ja) | 2006-02-09 | 2007-08-23 | Nissan Motor Co Ltd | 車両用表示装置および車両用映像表示制御方法 |
JP2009223061A (ja) | 2008-03-17 | 2009-10-01 | Ricoh Co Ltd | 表示制御システム、表示制御方法及び表示制御プログラム |
JP2015052980A (ja) | 2013-09-09 | 2015-03-19 | 株式会社デンソー | コンテンツ提供システム |
WO2016075967A1 (ja) | 2014-11-11 | 2016-05-19 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
US20160182613A1 (en) | 2014-12-18 | 2016-06-23 | Google Inc. | Methods, systems, and media for controlling information used to present content on a public display device |
JP2017049474A (ja) | 2015-09-03 | 2017-03-09 | シャープ株式会社 | 制御装置、出力装置、および出力方法 |
WO2017043145A1 (ja) | 2015-09-07 | 2017-03-16 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2017122363A1 (ja) | 2016-01-15 | 2017-07-20 | 楽天株式会社 | コンテンツ投影制御装置、コンテンツ投影制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN111052044A (zh) | 2020-04-21 |
US11417135B2 (en) | 2022-08-16 |
WO2019039119A1 (ja) | 2019-02-28 |
JPWO2019039119A1 (ja) | 2020-07-30 |
CN111052044B (zh) | 2022-08-02 |
EP3674854A1 (en) | 2020-07-01 |
EP3674854A4 (en) | 2020-08-12 |
US20200250412A1 (en) | 2020-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7211367B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11748056B2 (en) | Tying a virtual speaker to a physical space | |
US11150738B2 (en) | Wearable glasses and method of providing content using the same | |
US10930249B2 (en) | Information processor, information processing method, and recording medium | |
US7963652B2 (en) | Method and apparatus for calibration-free eye tracking | |
JP6705124B2 (ja) | 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
US11284047B2 (en) | Information processing device and information processing method | |
US11016558B2 (en) | Information processing apparatus, and information processing method to determine a user intention | |
US20200125398A1 (en) | Information processing apparatus, method for processing information, and program | |
US20210110790A1 (en) | Information processing device, information processing method, and recording medium | |
US12107904B2 (en) | Information processing apparatus, information processing system, communication support system, information processing method, and non-transitory recording medium | |
JP2004289779A (ja) | 移動体撮像方法、移動体撮像システム | |
WO2019138682A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11386870B2 (en) | Information processing apparatus and information processing method | |
JP2018120390A (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN116997886A (zh) | 扩展现实中的数字助理交互 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221226 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7211367 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |