JP6028351B2 - 制御装置、電子機器、制御方法、及びプログラム - Google Patents
制御装置、電子機器、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP6028351B2 JP6028351B2 JP2012060671A JP2012060671A JP6028351B2 JP 6028351 B2 JP6028351 B2 JP 6028351B2 JP 2012060671 A JP2012060671 A JP 2012060671A JP 2012060671 A JP2012060671 A JP 2012060671A JP 6028351 B2 JP6028351 B2 JP 6028351B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- display screen
- display
- displayed
- positional relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 192
- 238000001514 detection method Methods 0.000 claims description 45
- 230000006870 function Effects 0.000 description 58
- 210000003128 head Anatomy 0.000 description 46
- 230000033001 locomotion Effects 0.000 description 46
- 238000005516 engineering process Methods 0.000 description 39
- 238000003384 imaging method Methods 0.000 description 38
- 230000007246 mechanism Effects 0.000 description 34
- 238000001914 filtration Methods 0.000 description 26
- 238000010187 selection method Methods 0.000 description 25
- 238000004891 communication Methods 0.000 description 23
- 238000004458 analytical method Methods 0.000 description 21
- 230000014509 gene expression Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 19
- 230000008859 change Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000004397 blinking Effects 0.000 description 7
- 230000010365 information processing Effects 0.000 description 7
- 208000008918 voyeurism Diseases 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004888 barrier function Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 235000013305 food Nutrition 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000000047 product Substances 0.000 description 4
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 229910052710 silicon Inorganic materials 0.000 description 3
- 239000010703 silicon Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 101150012579 ADSL gene Proteins 0.000 description 2
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 2
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 244000144985 peep Species 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- FHKPLLOSJHHKNU-INIZCTEOSA-N [(3S)-3-[8-(1-ethyl-5-methylpyrazol-4-yl)-9-methylpurin-6-yl]oxypyrrolidin-1-yl]-(oxan-4-yl)methanone Chemical compound C(C)N1N=CC(=C1C)C=1N(C2=NC=NC(=C2N=1)O[C@@H]1CN(CC1)C(=O)C1CCOCC1)C FHKPLLOSJHHKNU-INIZCTEOSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 235000021168 barbecue Nutrition 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
ここで、以下に記載する説明の流れについて簡単に述べる。
1:はじめに
1−1:基本技術の紹介
1−1−1:多視差表示について
1−1−2:ヘッドトラッキングについて
1−2:一般的なUIの例及び改善案の検討
1−2−1:オブジェクトの表示方法について
1−2−2:オブジェクトの操作方法について
1−3:第1実施例(情報のフィルタリングなど)の概要
1−4:第2実施例(情報の選択など)の概要
1−5:環境揺れの検出及び対策の検討
1−6:システム構成例
1−6−1:構成例#1(クラウド環境を利用する構成)
1−6−2:構成例#2(機器の機能を利用する構成)
2:第1実施例(情報のフィルタリングなど)の詳細
2−1:構成例#1の場合
2−1−1:電子機器の機能構成
2−1−2:サーバの機能構成
2−1−3:システムの基本的な動作
2−2:構成例#2の場合
2−2−1:電子機器の機能構成
2−2−2:システムの基本的な動作
2−3:(応用例)アプリケーションの制御
2−3−1:視線方向に応じたアプリケーションの切り替え動作
2−3−2:視線方向に応じたツールの切り替え動作
2−3−3:視線方向に応じた再生速度の切り替え動作
2−4:(応用例)フィルタの構成
2−4−1:重畳情報のフィルタリング
2−4−2:操作オブジェクトのフィルタリング
2−4−3:コンテンツのフィルタリング
2−5:(応用例)覗き込み操作
2−5−1:注視点に関連する情報の表示
2−5−2:注視角度に応じたフィルタリング
2−5−3:覗き込みによる拡大/縮小
2−6:(応用例)表示内容の固定
2−6−1:ジェスチャーによる表示内容の固定
2−6−2:所定領域への視線移動による表示内容の固定
2−6−3:静止時間に基づく表示内容の固定
2−6−4:瞬き(表情変化)による表示内容の固定
2−7:適用例
2−8:効果
3:第2実施例(情報の選択など)の詳細
3−1:構成例#1の場合
3−1−1:電子機器の機能構成
3−1−2:サーバの機能構成
3−1−3:システムの基本的な動作
3−2:構成例#2の場合
3−2−1:電子機器の機能構成
3−2−2:システムの基本的な動作
3−3:(補足)奥行き表現
3−3−1:3D表示
3−3−2:2D表示+奥行き情報
3−4:オブジェクト選択方法#1(単ユーザ)
3−4−1:視線交差数に基づく選択方法
3−4−2:オブジェクトの領域分割
3−4−3:注視時間に基づく選択判定
3−4−4:視線の移動速度に基づく選択判定
3−4−5:ジェスチャーによる確定操作
3−4−6:瞬き(表情変化)による確定操作
3−4−7:オブジェクトの移動による絞り込み操作の補助
3−4−8:選択オブジェクトの変更
3−5:オブジェクト選択方法#2(複数ユーザ)
3−5−1:視線交差数に基づく選択方法
3−5−2:物体識別結果に基づく個人化(年齢/性別/登録者など)
3−5−3:選択結果の順位付け表示
3−6:注視状況の表示
3−6−1:視線交差数に応じた強調表示(色/動き/透過など)
3−6−2:ヒートマップ表示
3−6−3:数値又は文字による視線交差数の表示
3−6−4:インジケータによる視線交差数の表示
3−7:キャンセル方法
3−8:注目しやすい領域を考慮する方法
3−9:適用例
3−10:効果
4:応用例(組み合わせ)
4−1:視線方向に応じたオブジェクトの表示+視線による選択
4−1−1:オブジェクト表示の固定+視線移動による選択
4−1−2:上下移動による表示制御+左右移動による選択操作
4−2:複数機器の組み合わせ
4−2−1:携帯機器(フィルタ)+テレビジョン受像機(視線操作)
4−2−2:携帯機器(フィルタ)+デジタルサイネージ端末(視線操作)
5:ハードウェア構成例
6:まとめ
はじめに、本実施形態に係る技術について詳細に説明するに先立ち、当該技術に関係する基本技術及び後段で詳述する実施例の概要について述べる。
まず、多視差表示技術及びヘッドトラッキング技術について紹介する。
先に述べたように、多視差表示技術は、3D表示の基本技術として広く利用されている。多視差表示は、図1に示すように、視界制限デバイスを利用して視界を制限し、視点の位置に応じて異なる表示領域が見えるようにすることで実現される。視界制限デバイスとしては、例えば、パララックスバリアやレンチキュラレンズなどがある。もちろん、レンチキュラレンズは、遮光により視界を制限するものではないが、導光路を制御して見える領域を制限するという点でパララックスバリアと同等の機能を実現可能である。
上記のように、多視差表示は、視界制限デバイスを利用して視界を制限することにより、視点位置毎に異なる情報を見せる仕組みである。なお、この仕組み以外にも、視点位置毎に異なる情報を見せる仕組みとして、例えば、ヘッドトラッキング技術を利用した仕組みが考えられる。そこで、ヘッドトラッキング技術について簡単に紹介する。
次に、一般的なユーザインターフェース(以下、UI)の例を示し、改善すべき点について検討してみたい。
図4に示すように、現在普及している電子機器のうち、一部の電子機器には立体視オブジェクトを表示する機能が搭載されている。既に述べたように、左右の目に見える表示領域を制限し、視差を考慮してオブジェクトの画像を表示することにより、オブジェクトが立体的に見えるように表示可能である。この場合、ちょうど、表示画面からオブジェクトが飛び出しているように見える。このような表示方法は、例えば、携帯端末、携帯ゲーム機、携帯電話、テレビジョン受像機、デジタルサイネージ端末、その他ディスプレイ装置などの電子機器に広く適用可能である。
さらに、重畳情報の表示機能を搭載した電子機器の多くでは、図6に示すように、重畳情報の種類や量をボタン操作で切り替える操作体系が用いられている。図6に例示した電子機器の場合、ボタンAを押下した場合に重畳情報A1、A2が表示され、ボタンBを押下した場合に重畳情報B1、B2が表示される。
まず、第1実施例の概要について述べる。第1実施例は、視点の移動により表示情報を切り替える操作手法に関する。この操作手法は、上述した多視差表示又はヘッドトラッキングなどを利用した視点検出技術に基づくものである。
次に、第2実施例の概要について述べる。第2実施例は、視線方向を利用してオブジェクトを選択する操作手法に関する。この操作手法は、上述した多視差表示又はヘッドトラッキングなどを利用した視線検出技術に基づくものである。なお、ここでは3D表示を例に挙げて説明するが、深度情報を持ったオブジェクトについては2D表示の場合も同様にして同実施例の技術を適用可能である。
ところで、見る方向又は視線を向ける方向によって表示を切り替えるユーザインターフェースの場合、ユーザが意図しない揺れによって表示が切り替わり、視認性が低下してしまう可能性がある。例えば、電車やバスなどの揺れ(以下、環境揺れ)によって表示が頻繁に切り替わってしまうと、視認性の低下はもちろんのこと、体調悪化につながる恐れが懸念される。
ここで、第1及び第2実施例の技術を適用可能なシステム構成例について述べる。第1及び第2実施例に係る技術を適用可能なシステム構成としては、例えば、主にクラウド環境を利用する構成(構成例#1)と、主に機器の機能を利用する構成(構成例#2)とが考えられる。そこで、各システム構成例について紹介する。
まず、構成例#1について述べる。図11に示すように、構成例#1に係るシステムは、ネットワークを介して互いに接続された電子機器(電子機器10、20)及びサーバ(サーバ30)により構成される。また、電子機器10、20としては、例えば、表示装置、情報処理装置、端末装置などが考えられる。そして、サーバ30としては、単体のサーバ装置、又は複数のサーバ装置で構成されるサーバ群などが考えられる。さらに、サーバ群の形態としては、データセンタなどに設置される分散型並列演算システムや、所謂クラウドシステムなどが考えられる。しかし、第1及び第2実施例の技術を適用する上で、こうした形態の違いは重要ではなく、任意の形態に対して適用可能である。
次に、構成例#2について述べる。図12に示すように、構成例#2に係るシステムは、電子機器(電子機器10、20)単体により構成される。但し、電子機器10、20が一切ネットワークから独立しているわけではなく、ここでは第1及び第2実施例の技術を適用するにあたって主要な処理を機器自身が実行する構成を意図している。なお、電子機器10、20としては、例えば、表示装置、情報処理装置、端末装置などが考えられる。
以下、第1実施例について詳細に説明する。
構成例#1の場合、第1実施例に係る電子機器10の機能構成及びサーバ30の機能構成は、例えば、以下のように表現される。
まず、図13及び図14を参照しながら、電子機器10の機能構成について説明する。図13は、多視差表示を利用した操作手法を実現可能な電子機器10の機能構成を示した説明図である。図14は、ヘッドトラッキングを利用した操作手法を実現可能な電子機器10の機能構成を示した説明図である。なお、ここでは説明の都合上、第1実施例に係る操作手法により重畳情報を切り替える構成(図7を参照)について説明するが、例えば、オブジェクトを切り替える構成(図8を参照)などについても同様である。
図13に示すように、電子機器10は、主に、多視差表示部101と、表示制御部102と、重畳情報取得部103とにより構成される。多視差表示部101は、図1又は図2のようにして多視差表示を実現可能な多視差表示デバイスである。表示制御部102は、多視差表示部101に情報を表示させる機能を有する。重畳情報取得部103は、ネットワークを介してサーバ30から重畳情報を取得する機能を有する。なお、電子機器10は、被写体を撮像する撮像部(非図示)、情報を記憶しておく記憶部(非図示)、GPS、ジャイロセンサ、加速度センサなどを有していてもよい。
図14に示すように、電子機器10は、主に、表示部111と、表示制御部112と、重畳情報取得部113と、撮像部114と、ヘッドトラッキング部115とにより構成される。なお、電子機器10は、被写体を撮像する撮像部(非図示)、情報を記憶しておく記憶部(非図示)、GPS、ジャイロセンサ、加速度センサなどを有していてもよい。
図15に示すように、サーバ30は、主に、重畳情報提供部301と、重畳情報選択部302と、被写体情報取得部303とにより構成される。まず、被写体情報取得部303は、電子機器10から被写体に含まれる対象物を特定するための情報(以下、被写体情報)を取得する。被写体情報としては、例えば、GPSなどで検出された位置情報、各種センサなどで検出された撮像方向の情報などがある。被写体情報取得部303により取得された被写体情報は、重畳情報選択部302に入力される。
次に、図16を参照しながら、第1実施例に係るシステムの基本的な動作について説明する。図16は、第1実施例に係るシステムの基本的な動作について説明するための説明図である。
構成例#2の場合、第1実施例に係る電子機器10の機能構成は、例えば、以下のように表現される。
まず、図17及び図18を参照しながら、電子機器10の機能構成について説明する。図17は、多視差表示を利用した操作手法を実現可能な電子機器10の機能構成を示した説明図である。図18は、ヘッドトラッキングを利用した操作手法を実現可能な電子機器10の機能構成を示した説明図である。なお、ここでは説明の都合上、第1実施例に係る操作手法により重畳情報を切り替える構成(図7を参照)について説明するが、例えば、オブジェクトを切り替える構成(図8を参照)などについても同様である。
図17に示すように、電子機器10は、主に、多視差表示部121と、表示制御部122と、重畳情報保持部123とにより構成される。多視差表示部121は、図1又は図2のようにして多視差表示を実現可能な多視差表示デバイスである。表示制御部122は、多視差表示部121に情報を表示させる機能を有する。重畳情報保持部123は、情報を記憶しておく機能を有する。なお、電子機器10は、被写体を撮像する撮像部(非図示)、重畳情報以外の情報を記憶しておく記憶部(非図示)、GPS、ジャイロセンサ、加速度センサなどを有していてもよい。
図18に示すように、電子機器10は、主に、表示部131と、表示制御部132と、重畳情報保持部133と、撮像部134と、ヘッドトラッキング部135とにより構成される。なお、電子機器10は、被写体を撮像する撮像部(非図示)、重畳情報以外の情報を記憶しておく記憶部(非図示)、GPS、ジャイロセンサ、加速度センサなどを有していてもよい。
次に、図19を参照しながら、第1実施例に係るシステムの基本的な動作について説明する。図19は、第1実施例に係るシステムの基本的な動作について説明するための説明図である。
これまで、視線方向に応じて重畳情報が切り替わるように、視線方向毎にフィルタを変更して表示する仕組みについて説明してきた。ここでは、この仕組みを応用して様々な表示制御を実現する方法について紹介する。
まず、1つの応用例として、図20に示すような視線方向の移動によるアプリケーションの切り替え動作が考えられる。図20の例では、電子機器10を左側へと傾けた場合(右側から見た場合)に音楽プレーヤアプリケーションの画面が表示され、電子機器10を右側へと傾けた場合(左側から見た場合)にカメラアプリケーションの画面が表示されている。このように、第1実施例の技術を応用すると、異なる種類のアプリケーションを見る向きによって切り替えるユーザインターフェースが実現される。なお、多視差表示を利用する場合、表示内容を切り替えるわけではないため、アクティブな複数のアプリケーションにおいて操作ボタンなどのオブジェクトが同じ又は近い位置とならないように配置を工夫することが望まれる。
また、他の1つの応用例として、図21に示すような視線方向の移動によるツールの切り替え動作が考えられる。図21の例では、電子機器10を左側へと傾けた場合(右側から見た場合)に第1のツールリスト(#1)が画面に表示され、電子機器10を右側へと傾けた場合(左側から見た場合)に第2のツールリスト(#2)が画面に表示される。このように、第1実施例の技術を応用すると、同じ種類のアプリケーションの中で、見る向きによってツール群を切り替えられるユーザインターフェースが実現される。なお、多視差表示を利用する場合、表示内容を切り替えるわけではないため、複数のツールリストにおいて各ツールのアイコンなどが同じ又は近い位置とならないように配置を工夫することが望まれる。
また、他の1つの応用例として、図22に示すような視線方向の移動による再生速度の切り替え動作が考えられる。図22の例では、電子機器10を左側へと傾けた場合(右側から見た場合)に再生速度が減少し、電子機器10を右側へと傾けた場合(左側から見た場合)に再生速度が増加する。なお、速度の増減は、傾き量に応じて変化するようにしてもよいし、所定量だけ変化するようにしてもよいし、或いは、傾けている時間に応じて変化するようにしてもよい。このように、第1実施例の技術を応用すると、見る向きによって再生速度を切り替えられるユーザインターフェースが実現される。なお、この動作は、多視差表示を単体で利用する場合には向かず、ヘッドトラッキングなどの技術と組み合わせる必要がある。
次に、フィルタの構成に関する応用例を紹介する。
重畳情報をフィルタリングするフィルタとしては、例えば、図23に示すように、ATMフィルタ、食事フィルタ、交通機関フィルタなどが挙げられる。ATMフィルタを適用すると、例えば、「銀行」「郵便局」の重畳情報はパスするが、「焼肉店」「駅」「バス亭」は除外される。同様に、食事フィルタを適用すると、例えば、「焼肉店」の重畳情報はパスするが、「銀行」「駅」「バス亭」「郵便局」は除外される。また、交通機関フィルタを適用すると、例えば、「駅」「バス停」の重畳情報はパスするが、「銀行」「焼肉店」「郵便局」は除外される。このようにして重畳情報のフィルタリングを実行することができる。
重畳情報の他にも、例えば、操作オブジェクトをフィルタリングする構成も考えられる。操作オブジェクトをフィルタリングするフィルタとしては、例えば、図24に示すように、写真フィルタ、MUSICフィルタ、MOVIEフィルタなどが挙げられる。写真フィルタを適用すると、例えば、「シャッター」「ズーム」の各オブジェクトはパスするが、「再生」「停止」「送信」の各オブジェクトは除外される。同様に、MUSICフィルタ又はMOVIEフィルタを適用すると、例えば、「再生」「停止」の各オブジェクトはパスするが、「シャッター」「ズーム」「送信」の各オブジェクトは除外される。このようにして操作オブジェクトのフィルタリングを実行することができる。
重畳情報や操作オブジェクトの他にも、例えば、コンテンツをフィルタリングする構成も考えられる。音楽コンテンツをフィルタリングするフィルタとしては、例えば、図25に示すように、balladeフィルタ、waltzフィルタ、Etudeフィルタなど、音楽の特徴で分類するフィルタが挙げられる。また、映像コンテンツをフィルタリングするフィルタとしては、図26に示すように、ホラーフィルタ、アクションフィルタ、恋愛物語フィルタなど、映像の特徴で分類するフィルタが挙げられる。また、アーティストやジャンルなどでコンテンツを絞り込むフィルタなども考えられる。このようなフィルタを用いると、コンテンツのフィルタリングを実行することができる。
次に、覗き込み操作に関する応用例を紹介する。ここで言う覗き込みとは、画面に表示されている対象物を見ているユーザが、その対象物をより深い角度で見る動作を言う。このとき、ユーザの頭部と表示画面との距離などが考慮されてもよい。
例えば、図27に示すように、ユーザが注視している点(以下、注視点)について関連情報を表示している場面で、ほぼ正面から見ている場合(視点E2)には概要を表示し、覗き込んだ場合(視点E1)には詳細を表示するなどの応用例が考えられる。多くのユーザは、注視点にある対象物に対して興味が深くなり、その対象物を良く見ようとする場合に、その対象物を覗き込むような動作をしたり、顔を近づけたりする傾向にある。そこで、このような動作に連動して情報の詳細度を変えることにより、より直感的なユーザインターフェースが実現される。なお、ヘッドトラッキングを利用する場合であれば、ユーザの頭部と表示画面との距離も推測できるため、その推測結果に応じて詳細度を徐々に高めるような構成にしてもよい。
また、覗き込み動作をユーザインターフェースとして考える上で、ユーザが覗き込む角度(以下、注視角度)も考慮に入れることが望ましい。例えば、図28に示すように、注視角度に応じてフィルタの種類を切り替えるように構成することが可能である。図28の例では、注視角度0°〜10°の場合に店名フィルタが適用され、注視角度が11°〜20°の場合に職種フィルタが適用され、注視角度が21°〜30°の場合に価格帯フィルタが適用される。さらに、注視角度が31°〜の場合、全てのフィルタが適用される。なお、注視角度が大きくなるにつれて適用対象のフィルタ数が多くなるようにすれば、注視角度に応じて絞り込み度合いが大きくなる。逆に、注視角度が大きくなるにつれて適用対象のフィルタ数が少なくなるようにすれば、注視角度に応じて絞り込み度合いが小さくなる。また、適用するフィルタの組み合わせを工夫することで、注視角度に応じて徐々にユーザの嗜好に適した絞り込みができるようにすることも可能である。
また、覗き込み動作に応じて表示の拡大/縮小を制御できるようにする仕組みも考えられる。例えば、図29に示すように、注視角度が大きくなるにつれて表示倍率が大きくなるように構成することが可能である。また、図30に示すように、表示画面とユーザの頭部との間の距離に応じて表示倍率が変化するように構成することも可能である。さらに、これらを組み合わせ、頭部の2次元又は3次元的な動作により表示倍率を自由に変更できるように構成することも可能である。この場合、図29に示した表示倍率と、図30に示した表示倍率との積などに基づいて最終的な表示倍率を決めればよい。
次に、表示内容を固定する操作の例を紹介する。見る方向に応じて表示内容を切り替えられる仕組みは有用であるが、ある方向に対応する表示内容で固定し、その表示内容を正面から見たい場合などもある。そこで、このような場合に対応するための仕組みについて紹介する。
例えば、図31に示すように、ジェスチャーにより表示内容を固定する方法が考えられる。ジェスチャーとしては、例えば、電子機器10を左右に揺さぶるなどの方法が考えられる。また、大きく揺さぶったり、素早く揺さぶったりすることで表示内容が固定されるようにする方法も考えられる。こうしたジェスチャーの検出は、電子機器10に搭載された加速度センサやジャイロセンサなどを利用して実現可能である。また、撮像画像の変化からジェスチャーを検出する方法も考えられる。この方法を用いると、見る方向を変えず、手軽に固定操作が行える。
また、図32に示すように、視線方向を所定の領域へ移動した場合(視線方向Q2)、或いは、視線方向を素早く画面外に移動した場合に表示内容を固定する方法が考えられる。この場合、視線方向の変化に応じて表示内容が切り替わってしまう可能性もあるため、視線方向の変化時間や変化量に応じて表示内容の固定操作なのか、表示内容の切り替え操作なのかを判定する仕組みが設けられている方が好ましい。また、所定領域へ視線方向が移動した場合に、例えば、視線方向の移動前に表示されていた表示内容に戻す機能などを追加することで、表示内容の固定操作をユーザが安心して行えるようになると期待される。このような追加も必要に応じて行われることが好ましい。
また、図33に示すように、視線が静止した時間に基づいて表示内容を固定する方法も考えられる。多くの場合、長い時間、同じ注視点に視線方向を向けておくことは難しい。そのため、ユーザが故意にそのような動作を行わない限り、長い時間、視線が静止した状態を保つことはほとんどない。そこで、ユーザの故意を判定するために、視線の静止時間を利用する方法は有効である。図33に示すように、短い時間の視線停止は表示内容の固定とみなさず、長い時間の視線停止を表示内容の固定と判定する仕組みとすればよい。視点の長時間静止動作は人が凝視する動作と通じるため、この仕組みにより、より直感的なユーザインターフェースが実現される。
また、図33に示すように、表示内容の固定を解除する仕組みも設けることが望ましい。その方法として、図33に示すように、視線の微細動や瞬きなどが考えられる。また、偶然の瞬きで固定が解除されないよう、所定回数の瞬きや、瞬きのパターンなどにより固定解除が行われるようにすることが好ましい。
これまで説明してきた第1実施例に係る技術は、様々な機器に適用可能である。例えば、携帯電話、携帯情報端末、携帯ゲーム機、携帯音楽プレーヤ、携帯映像プレーヤなどの携帯機器に適用可能である。また、デジタルサイネージ端末など、街角に設置された大型のディスプレイ装置に適用することも可能である。さらに、テレビジョン受像機や撮像装置などの映像機器に対して適用することもできる。また、テレビジョン受像機と組み合わせて、セットトップボックス、録画再生装置、或いは、ゲーム機などに適用することもできる。その他にも、例えば、カーナビゲーションシステムに適用したり、ATM、自動券売機、自動販売機などの装置に対しても適用可能である。但し、少なくとも表示機能を有するか、表示機能を搭載した機器に接続された装置であることが必要である。
第1実施例の構成を適用すると、ユーザは、所定部位を移動させるか、或いは、機器を傾けるだけで表示情報を切り替えることが可能になり、物理的なインターフェースデバイスに接触しない方法で快適に操作を行うことができるようになる。例えば、表示画面を有するデバイスを片手で把持し、そのデバイスを傾けたり、自身の所定部位を傾けたりするだけで、表示情報の切り替えが可能になる。その結果、片手に荷物を抱えている場合など、自由に両手が使えない場面においても快適に操作を行うことができるようになる。また、携帯ゲーム機など、両手で操作する機器において、両手の操作とは異なる追加的な操作を行うことが可能になる。
以下、第2実施例について詳細に説明する。
構成例#1の場合、第2実施例に係る電子機器20の機能構成及びサーバ30の機能構成は、例えば、以下のように表現される。
まず、図34を参照しながら、電子機器20の機能構成について説明する。図34は、視線方向を利用してオブジェクトを選択する操作手法を実現可能な電子機器20の機能構成を示した説明図である。なお、ここでは説明の都合上、第2実施例に係る操作手法によって、3D表示されたオブジェクトを選択する構成(図9を参照)について説明するが、例えば、深度情報を有する2D表示されたオブジェクトを選択する構成などについても同様である。
次に、図35を参照しながら、サーバ30の機能構成について説明する。図35に示すように、サーバ30は、主に、通信部311と、視線解析部312とにより構成される。通信部311は、電子機器20と通信するための通信デバイスである。視線解析部312は、通信部311を介して電子機器20から取得した視線情報及び表示情報に基づいてオブジェクトを選択する機能を有する。例えば、視線解析部312は、視線情報で特定される視線と、表示情報で特定される各オブジェクトの表示範囲とが交差するか否かを判定する。さらに、視線解析部312は、各オブジェクトに対する視線の交差数が所定数を越えたか否かを判定する。そして、視線解析部312は、交差数が所定数を越えたオブジェクトを選択し、通信部311を介して選択結果を電子機器20に送信する。
ここで、図36及び図37を参照しながら、第2実施例に係るシステムの基本的な動作について説明する。図36及び図37は、第2実施例に係るシステムの基本的な動作について説明するための説明図である。
構成例#2の場合、第2実施例に係る電子機器20の機能構成は、例えば、以下のように表現される。
まず、図38を参照しながら、電子機器20の機能構成について説明する。図38は、視線方向を利用してオブジェクトを選択する操作手法を実現可能な電子機器20の機能構成を示した説明図である。なお、ここでは説明の都合上、第2実施例に係る操作手法によって、3D表示されたオブジェクトを選択する構成(図9を参照)について説明するが、例えば、深度情報を有する2D表示されたオブジェクトを選択する構成などについても同様である。
ここで、図39を参照しながら、第2実施例に係るシステムの基本的な動作について説明する。図39は、第2実施例に係るシステムの基本的な動作について説明するための説明図である。
ここで、奥行き表現の扱い方について説明を補足する。
左目と右目とで見える画素群が異なるようにし、視差を考慮した2種類の画像をそれら画素群に表示させることで3D表示が実現されることについては既に述べた。3D表示の場合、視差が変化するように2種類の画像を調整することで、図40に示すように、奥行き方向にオブジェクトの表示位置を制御することができる。実際、2種類の画像は表示画面上に表示されているのであるが、ユーザには、視差でおおよそ規定される奥行きだけオブジェクトが飛び出して見えるのである。この飛び出し量は、視差などのパラメータから容易に算出することができる。従って、電子機器20は、ユーザが認識するであろう3次元空間内におけるオブジェクトの位置を把握できる。
一方、2D表示の場合、ユーザは、表示画面上に表示された画像をそのまま認識することになる。従って、表示画面からオブジェクトが飛び出すことはない。しかし、2D表示であっても、図41に示すように、奥行き感のある画像は存在する。例えば、同じ身長の人であっても、手前に映っている人は大きく、奥側に映っている人が小さくなる。そのため、2D表示であっても、画像から奥行きを検出することが可能である。
以下、オブジェクトの選択方法について、より詳細に説明する。また、具体例を挙げながら、その応用例について紹介する。なお、ここでは1人のユーザが視線を移動させつつ、オブジェクトを選択する操作手法について述べる。
まず、これまでも説明した視線交差数に基づく選択方法について、より詳細に説明する。図42に示すように、視線が検出されると、その視線と交差するオブジェクト(以下、交差オブジェクト)が検出される。図42の例では、視線Q1に対し、オブジェクトOBJ1〜OBJ3が交差オブジェクトとして選択される。これらの交差オブジェクトは、最終的に選択されるオブジェクト(以下、注視オブジェクト)の候補として選択される。注視オブジェクトの候補は、図42に示すように、所定の表現方法(例えば、色彩、明度、点滅、透明化/不透明化、ぼかしなど)で強調表示されてもよい。
複数のオブジェクトの中から注視オブジェクトを選択する方法について述べたが、対象とするオブジェクトの数が1つの場合や、視線の交差が検出されたオブジェクトの周囲に他のオブジェクトが存在しない場合などは、視線の交差が検出されたオブジェクトを即座に選択する仕組みとする方法も考えられる。例えば、視線交差数が所定の閾値を越えなくても、即座にオブジェクトが選択されるため、選択の遅延によりユーザに与えるストレスを格段に軽減することが可能になる。
さて、これまではほぼ同じ大きさのオブジェクトの中から1つのオブジェクトを注視オブジェクトとして選択する方法について述べてきた。しかし、オブジェクトのサイズは、多くの場合、図45に示すように様々である。そのため、大きなサイズのオブジェクトがあると、そのオブジェクトに視線が集中してしまい、大きなオブジェクトの裏側にあるオブジェクトや小さなサイズのオブジェクトが選択されにくくなってしまう。図45の例では、オブジェクトOBJ1の影にあるオブジェクトOBJ2は選択されにくい。
さて、視線を小さな領域に正確に向け続けることは比較的難しい。しかし、この性質を逆に利用して選択精度を高める方法が考えられる。例えば、図47に示すように、視点が所定時間より長く静止した状態になった場合に、そのオブジェクトを選択するか、視線交差数に大きな重みを付けるなどの方法が考えられる。あるオブジェクトに視線が交差した状態で長い時間静止しているということは、ユーザが強い意志を持って、そのオブジェクトを選択しようとしていると考えられる。そのため、視線の静止が所定時間以上続いた場合に、そのオブジェクトを選択すれば、ユーザの強い意志を反映した選択結果が得られる。
また、視線を静止させることに加え、視線の移動速度を考慮することで、さらにオブジェクトの選択精度を高めたり、操作性を高めたりすることが可能になる。先に述べたように、大きなサイズのオブジェクトよりも奥に位置する小さなサイズのオブジェクトは選択しづらい。これに対し、オブジェクトを領域分割する方法については既に述べた通りであるが、図48に示すように、視線の移動速度を考慮してオブジェクトが選択されるようにしても、同様の効果が期待できる。
これまでは、あるタイミングで自動的にオブジェクトの選択状態が確定されていたが、ユーザが自分の意志で任意に選択状態を確定できるようにすることが望まれるケースもある。例えば、交差オブジェクトが1つに絞り込まれていないが、現在選択されている複数の交差オブジェクトを即座に注視オブジェクトとして選択したい場合などが該当する。
また、視線を移動するのではなく、視線を消失させる方法が考えられる。つまり、ユーザの瞬きを検出して、その瞬きに応じてオブジェクトの選択状態を確定させるのである。また、類似の考え方で、表情変化によりオブジェクトの選択状態を確定させるユーザインターフェースも考えられる。表情変化は、リアルタイムで撮像された顔画像の特徴量変化から検出することができる。また、特定の表情に変化した場合にオブジェクトの選択状態が確定されるように構成することも可能である。いずれの方法も、視線移動に基づく操作手法の範囲内で確定操作を実現することができる。
これまで紹介した方法を適用することで、多くの場合、ユーザは快適にオブジェクトの選択操作を行うことができると期待される。しかしながら、どのようなユーザであっても熟練を要せずに利用できるようなユーザインターフェースを実現することが究極的には求められる。そこで、注視オブジェクトの候補を識別しやすくすると同時に、次の絞り込み操作を行いやすくすることを目的として、図50のように、候補以外のオブジェクトを移動させる構成を提案する。
これまではオブジェクトの選択が確定するまでの操作手法について説明してきた。しかし、注視オブジェクトを変更したい場合もある。そこで、時間の経過と共に、各オブジェクトに対する視線交差数が漸減する仕組みを提案する。また、この仕組みと共に、視線交差数に最大数を設ける仕組みを提案する。例えば、オブジェクトOBJ1を注視すると、図52の区間1に示すように、オブジェクトOBJ1に対する視線交差数が増加する。しかし、視線交差数が最大数に達すると、視線が向いていても視線交差数が最大数に固定される(区間2を参照)。また、オブジェクトOBJ1から視線が逸れると、時間の経過とともに視線交差数が減少する(区間3〜区間5を参照)。
次に、複数のユーザが向ける視線に基づいてオブジェクトを選択する方法について述べる。なお、上記のオブジェクト選択方法#1をそのまま複数ユーザのケースに適用することも可能である。そのため、ここでは複数ユーザのケースに対して適用すべき特有の工夫について紹介する。
上記のオブジェクト選択方法#1の場合、ある期間に検出された視線とオブジェクトとの交差数に基づいてオブジェクトの選択を行っていた。しかし、複数のユーザが視線を向けている場合、図53に示すように、ある瞬間の視線交差数をカウントすることが可能になる。また、視線交差数の分布が時間的に変化する様子を検出したり、その検出結果を統計的に処理してマーケティングなどに利用する方法も考えられる。この場合、あるタイミングで検出された複数の視線のそれぞれについて、各オブジェクトとの交差を判定し、各オブジェクトに対する視線交差数が多い1つ又は所定数のオブジェクトを注目オブジェクトとして選択することになる。
また、顔認識技術などを組み合わせると、各ユーザを識別することができるため、図54に示すように、各ユーザがそれぞれ注視オブジェクトを選択することが可能になる。この場合、どのユーザがどのオブジェクトを選択したかが判別できるように、注視オブジェクト又はその候補として選択されたオブジェクトに、ユーザを識別できる何らかの表示(例えば、ユーザに割り当てた色、ユーザ名、ID、顔写真、アバターなど)を付与することが望ましい。また、ユーザ単位ではなく、グループ単位でオブジェクトの選択ができるようにしてもよい。この場合、グループと各ユーザとを対応付けるグループ情報を用意しておき、顔識別結果とグループ情報とを利用して、各視線とグループとの対応関係を認識できるようにすればよい。
第2実施例に係る技術を適用すると、複数ユーザによる各オブジェクトへの注視状況が視線交差数として得られる。そのため、視線交差数に基づいてオブジェクトを順位付けることも可能になる。また、顔認識技術などを利用すると、各ユーザの年齢や性別などを判別できるため、図55に示すように、年齢層毎や性別毎にオブジェクトの注視度ランキングを生成することが可能になる。このような注視度ランキングの情報は、リアルタイムに表示画面に表示してもよいし、その情報を統計的に処理してマーケティングなどに利用してもよい。
次に、注視状況の表示方法について説明する。
これまでも簡単に紹介してきたが、オブジェクトの選択過程において、ユーザに選択状況を知らせることは有意義である。例えば、図56に示すように、視線交差数に応じて各オブジェクトの色を変化させたり、各オブジェクトを動かしたり、各オブジェクトの透明度を変化させたりする方法などが考えられる。ぼかし表現や点滅表現なども考えられる。さらに、立体音響機能を搭載した音声出力デバイスが接続されている場合には、そのオブジェクトの位置から、視線交差数に応じた所定の音声を出力するような構成にしてもよい。
また、これまでは各オブジェクトの表現を変化させる構成について説明してきたが、図57に示すように、視線交差数に基づいて空間全体をヒートマップで表示する方法なども考えられる。ここで言うヒートマップとは、例えば、視線交差数が多い部分を濃く、視線交差数が少ない部分を薄く表示する表現方法である。なお、適用可能な表現方法としては、濃淡変化の他、赤みや青みを変化させる方法などがある。また、空間全体をヒートマップ表示するのではなく、各オブジェクトの内部をヒートマップ表示する方法も考えられる。特に、先に説明した領域分割を利用するオブジェクトの選択手法を適用する場合には、各オブジェクトのヒートマップ表示が有効であろう。
また、図58に示すように、視線交差数を直に画面表示する方法が考えられる。図58の例では、視線交差数が数値表示されていたり、視線交差数に基づく順位が文字で表示されていたりする。その他にも、文字や数字を利用して様々な表現方法が考えられるが、図58と同様にして任意の表現方法で視線交差数の情報を表示する方法が適用可能である。
また、図59に示すように、インジケータを利用して視線交差数を表示する方法も考えられる。インジケータ表示を用いると、視線交差数の多寡が一目で把握できる。なお、オブジェクトの選択判定用閾値を設けている場合には、その閾値の目盛りをインジケータに表示することで、あとどのくらいの視線を送れば、そのオブジェクトが選択されるのかをユーザが容易に認識できるようになる。
ここで、注視オブジェクトのキャンセル方法について簡単に述べる。既に示唆しているが、注視オブジェクトをキャンセルする方法として、例えば、瞬き、欄外への視線の移動、表情変化、視線によるジェスチャーなどが考えられる。また、電子機器20自体を揺さぶるなどの物理的作用を与えてキャンセルする方法なども考えられる。
ところで、1つのオブジェクトの中には、ユーザが注目しやすい部分と、そうでない部分とが存在する。例えば、図60に示すような瓶のラベルなどは、ユーザに注目されやすい部分の代表例である。ユーザは、あるオブジェクトに興味を惹かれた場合、そのオブジェクトについて、より詳細な情報を得ようとする。図60に示した瓶を例に挙げると、その瓶に注目しようとするユーザは、その瓶の中身や出自に関する情報などをより詳細に知りたいと考え、瓶のラベルに注目するだろう。仮に、この瓶が店頭に並んでいた場合、ラベルと共に、値札なども注目される部分となり得る。
これまで説明してきた第2実施例に係る技術は、様々な機器に適用可能である。例えば、携帯電話、携帯情報端末、携帯ゲーム機、携帯音楽プレーヤ、携帯映像プレーヤなどの携帯機器に適用可能である。また、デジタルサイネージ端末など、街角に設置された大型のディスプレイ装置に適用することも可能である。さらに、テレビジョン受像機や撮像装置などの映像機器に対して適用することもできる。また、テレビジョン受像機と組み合わせて、セットトップボックス、録画再生装置、或いは、ゲーム機などに適用することもできる。その他にも、例えば、カーナビゲーションシステムに適用したり、ATM、自動券売機、自動販売機などの装置に対しても適用可能である。但し、少なくとも表示機能を有するか、表示機能を搭載した機器に接続された装置であることが必要である。
第2実施例の構成を適用すると、ユーザは、視線を移動させるか、或いは、機器を傾けるだけでオブジェクトを選択することが可能になり、物理的なインターフェースデバイスに接触しない方法で快適に操作を行うことができるようになる。例えば、表示画面を有するデバイスを片手で把持し、そのデバイスを傾けたり、自身の所定部位を傾けたりするだけで、オブジェクトの選択が可能になる。その結果、片手に荷物を抱えている場合など、自由に両手が使えない場面においても快適に操作を行うことができるようになる。また、携帯ゲーム機など、両手で操作する機器において、両手の操作とは異なる追加的な操作を行うことが可能になる。さらに、ユーザから離れた位置にあるデジタルサイネージ端末など、遠くにあるデバイスを操作することが可能になる。
ここで、応用例として第1及び第2実施例を組み合わせる構成について紹介する。
第1実施例によるオブジェクトの表示と、第2実施例によるオブジェクトの選択とを組み合わせたユーザインターフェースについて述べる。
まず、第1実施例による操作手法によりオブジェクトの表示を切り替える。次いで、第1実施例による操作手法により表示内容を固定する。次いで、第2実施例による操作手法により表示されているオブジェクトを選択する。このような操作工程とすることで、第1及び第2実施例を組み合わせることができる。
また、第1実施例による操作手法を視点の上下移動に限り、第2実施例による操作手法を視線の左右移動に限ると、上下左右の視点移動によりオブジェクト表示の切り替えと、オブジェクトの選択操作を組み合わせることができる。
次に、複数の機器を組み合わせる構成について紹介する。
例えば、第1実施例の操作手法を携帯機器に適用し、第2実施例の操作手法をテレビジョン受像機に適用する構成について紹介する。携帯機器においてテレビジョン受像機の操作用アプリケーションと録画再生装置の操作用アプリケーションとを第1実施例の操作手法により切り替え、その切り替え結果がテレビジョン受像機に送信されるようにし、その切り替え結果に応じて各機器に対応するチャンネル切り替えインターフェースが表示されるようにする。そして、そのインターフェースが表示されたところで、第2実施例の操作手法が有効になり、その操作手法を利用してチャンネルを選択できるようにする構成などが考えられる。
また、第1実施例の操作手法を携帯機器に適用し、第2実施例の操作手法をデジタルサイネージ端末に適用する構成も考えられる。例えば、携帯機器の撮像部をデジタルサイネージ端末に向けて表示内容を撮像し、その撮像画像に重畳する重畳情報を第1実施例の操作手法で切り替えるようにする。その切り替え結果がデジタルサイネージ端末の表示に反映され、反映後の表示内容に含まれるオブジェクトに対して第2実施例に係る視線交差数の検出処理が行われるようにする。このような構成にすることで、単にデジタルサイネージ端末に表示された一般的な情報に対する統計データではなく、ユーザによる情報の選択を考慮した情報に対する統計データが得られるようになる。
上記の電子機器10、20及びサーバ30が有する各構成要素の機能は、例えば、図61に示す情報処理装置のハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図61に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。なお、これらの情報処理装置は、後述する制御装置又は電子機器として機能する。さらに、当該情報処理装置は、後述する制御方法を実現することが可能である。また、後述するプログラムにより、当該情報処理装置を動作させることも可能である。
表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御部を備え、
前記制御部による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
制御装置。
前記ユーザが前記表示画面を見る角度に応じて前記ユーザが視認可能な前記表示画面の画素群を異ならしめる視認制限部が前記表示画面に設けられている場合、前記制御部は、前記見る角度に対応する画素群毎に前記抽出された情報が表示されるように制御する、
上記(1)に記載の制御装置。
前記位置関係の検出結果を取得する検出結果取得部をさらに備え、
前記制御部は、前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する、
上記(1)に記載の制御装置。
撮像されている撮像画像がリアルタイムに前記表示画面に表示されている場合、前記制御部による制御を受けて前記表示画面に表示される情報は、当該撮像画像に重畳して表示される重畳情報である、
上記(1)〜(3)のいずれか1項に記載の制御装置。
前記制御部による制御を受けて前記表示画面に表示される情報を取得する情報取得部をさらに備え、
前記情報取得部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対である場合に対応する前記表示画面に表示される情報を最初に取得する、
上記(1)〜(4)のいずれか1項に記載の制御装置。
前記情報取得部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対以外である場合に対応する前記表示画面に表示される情報を複数取得する際、当該位置関係が略正対に近い順に、当該表示画面に表示される情報を取得する、
上記(5)に記載の制御装置。
前記制御部は、前記位置関係に応じて前記表示画面に表示される情報の量を制御する、
上記(1)〜(6)のいずれか1項に記載の制御装置。
前記制御部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対から遠ざかるにつれて前記表示画面に表示される情報の量が増加するように制御する、
上記(7)に記載の制御装置。
前記情報の量は、前記表示画面に表示される情報表示用オブジェクトの数である、
上記(7)又は(8)に記載の制御装置。
前記情報の量は、前記表示画面に表示される情報の詳細度合いである、
上記(7)又は(8)に記載の制御装置。
前記制御部は、情報を表示する表示部と、前記表示部に情報を表示させる表示制御部と、を有する電子機器に対して前記表示画面に表示される情報を提供する機能を含み、提供した情報を前記表示画面に表示するように前記電子機器を制御する、
上記(1)〜(10)のいずれか1項に記載の制御装置。
情報を表示する表示部と、
前記表示部の表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御部と、
を備え、
前記制御部による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
電子機器。
表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する工程を含み、
前記制御する工程における制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
制御方法。
情報を表示する表示部を有する電子機器が、前記表示部の表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する工程を含み、
前記制御する工程における制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
制御方法。
表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能をコンピュータに実現させるためのプログラムであり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
プログラム。
情報を表示する表示機能と、
前記情報が表示される表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能と、
をコンピュータに実現させるためのプログラムであり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
プログラム。
表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能をコンピュータに実現させるためのプログラムが記録された、コンピュータにより読み取り可能な記録媒体であり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
記録媒体。
情報を表示する表示機能と、
前記情報が表示される表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能と、
をコンピュータに実現させるためのプログラムが記録された、コンピュータにより読み取り可能な記録媒体であり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
記録媒体。
上記の電子機器10、20、サーバ30は、制御装置の一例である。上記の表示制御部102、112、122、132、202、212、重畳情報選択部302、視線解析部312は、制御部の一例である。上記の多視差表示部101、121は、視認制御部が設けられた表示画面の一例である。上記の撮像部114、134、204、214、ヘッドトラッキング部115、135、被写体情報取得部303、視線解析部312は、検出結果取得部の一例である。上記の重畳情報取得部103、113、通信部203、311は、情報取得部の一例である。
30 サーバ
101、121 多視差表示部
102、122 表示制御部
103 重畳情報取得部
111、131 表示部
112、132 表示制御部
113 重畳情報取得部
114、134 撮像部
115、135 ヘッドトラッキング部
116、136 フィルタ選択部
123、133 重畳情報保持部
201、211 表示部
202、212 表示制御部
203 通信部
204、214 撮像部
205、215 視線方向検出部
213 視線解析部
301 重畳情報提供部
302 重畳情報選択部
303 被写体情報取得部
311 通信部
312 視線解析部
Claims (17)
- 表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御部を備え、
前記制御部による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
前記制御部は、前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する、
制御装置。 - 前記ユーザが前記表示画面を見る角度に応じて前記ユーザが視認可能な前記表示画面の画素群を異ならしめる視認制限部が前記表示画面に設けられている場合、前記制御部は、前記見る角度に対応する画素群毎に前記抽出された情報が表示されるように制御する、
請求項1に記載の制御装置。 - 前記位置関係の検出結果を取得する検出結果取得部をさらに備える、請求項1に記載の制御装置。
- 撮像されている撮像画像がリアルタイムに前記表示画面に表示されている場合、前記制御部による制御を受けて前記表示画面に表示される情報は、当該撮像画像に重畳して表示される重畳情報である、
請求項1〜3のいずれか一項に記載の制御装置。 - 前記制御部による制御を受けて前記表示画面に表示される情報を取得する情報取得部をさらに備え、
前記情報取得部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対である場合に対応する前記表示画面に表示される情報を最初に取得する、
請求項1〜4のいずれか一項に記載の制御装置。 - 前記情報取得部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対以外である場合に対応する前記表示画面に表示される情報を複数取得する際、当該位置関係が略正対に近い順に、当該表示画面に表示される情報を取得する、
請求項5に記載の制御装置。 - 前記制御部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対から遠ざかるにつれて前記表示画面に表示される情報の量が増加するように制御する、
請求項1〜6のいずれか一項に記載の制御装置。 - 前記情報の量は、前記表示画面に表示される情報表示用オブジェクトの数である、
請求項1〜7のいずれか一項に記載の制御装置。 - 前記情報の量は、前記表示画面に表示される情報の詳細度合いである、
請求項1〜7のいずれか一項に記載の制御装置。 - 前記制御部は、情報を表示する表示部と、前記表示部に情報を表示させる表示制御部と、を有する電子機器に対して前記表示画面に表示される情報を提供する機能を含み、提供した情報を前記表示画面に表示するように前記電子機器を制御する、
請求項1〜9のいずれか一項に記載の制御装置。 - 情報を表示する表示部と、
前記表示部の表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御部と、
を備え、
前記制御部による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
前記制御部は、前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する、
電子機器。 - 表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する工程を含み、
前記制御する工程における制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する工程を含む、
制御方法。 - 情報を表示する表示部を有する電子機器が、表示部の表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する工程を含み、
前記制御する工程における制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する工程を含む、
制御方法。 - 表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能をコンピュータに実現させるためのプログラムであり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する機能を前記コンピュータに実現させる、
プログラム。 - 情報を表示する表示機能と、
前記情報が表示される表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能と、
をコンピュータに実現させるためのプログラムであり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する機能を前記コンピュータに実現させる、
プログラム。 - 表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能をコンピュータに実現させるためのプログラムが記録された、コンピュータにより読み取り可能な記録媒体であり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
前記プログラムは、前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する機能を前記コンピュータに実現させる、
記録媒体。 - 情報を表示する表示機能と、
前記情報が表示される表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能と、
をコンピュータに実現させるためのプログラムが記録された、コンピュータにより読み取り可能な記録媒体であり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
前記プログラムは、前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する機能を前記コンピュータに実現させる、
記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012060671A JP6028351B2 (ja) | 2012-03-16 | 2012-03-16 | 制御装置、電子機器、制御方法、及びプログラム |
US13/788,127 US9342921B2 (en) | 2012-03-16 | 2013-03-07 | Control apparatus, electronic device, control method, and program |
CN2013100748889A CN103313080A (zh) | 2012-03-16 | 2013-03-08 | 控制设备、电子装置、控制方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012060671A JP6028351B2 (ja) | 2012-03-16 | 2012-03-16 | 制御装置、電子機器、制御方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013196157A JP2013196157A (ja) | 2013-09-30 |
JP2013196157A5 JP2013196157A5 (ja) | 2015-04-02 |
JP6028351B2 true JP6028351B2 (ja) | 2016-11-16 |
Family
ID=49137792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012060671A Expired - Fee Related JP6028351B2 (ja) | 2012-03-16 | 2012-03-16 | 制御装置、電子機器、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9342921B2 (ja) |
JP (1) | JP6028351B2 (ja) |
CN (1) | CN103313080A (ja) |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9778829B2 (en) * | 2012-02-17 | 2017-10-03 | Lenovo (Singapore) Pte. Ltd. | Magnification based on eye input |
EP2685329B1 (en) * | 2012-07-11 | 2015-09-23 | ABB Research Ltd. | Presenting process data of a process control object on a mobile terminal |
US20160139762A1 (en) * | 2013-07-01 | 2016-05-19 | Inuitive Ltd. | Aligning gaze and pointing directions |
KR101503159B1 (ko) * | 2013-10-15 | 2015-03-16 | (주)이스트소프트 | 시선의 위치를 감지하여 터치스크린을 제어하는 방법 |
USD742896S1 (en) * | 2013-10-25 | 2015-11-10 | Microsoft Corporation | Display screen with graphical user interface |
WO2015098188A1 (ja) * | 2013-12-27 | 2015-07-02 | ソニー株式会社 | 表示制御装置、表示制御方法及びプログラム |
US9865033B1 (en) | 2014-01-17 | 2018-01-09 | Amazon Technologies, Inc. | Motion-based image views |
US9294670B2 (en) * | 2014-01-24 | 2016-03-22 | Amazon Technologies, Inc. | Lenticular image capture |
JP5932858B2 (ja) * | 2014-01-30 | 2016-06-08 | 京セラドキュメントソリューションズ株式会社 | 電子機器及び操作画面表示プログラム |
KR20150101915A (ko) * | 2014-02-27 | 2015-09-04 | 삼성전자주식회사 | 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스 |
US20170140457A1 (en) * | 2014-03-24 | 2017-05-18 | Pioneer Corporation | Display control device, control method, program and storage medium |
CN103956128A (zh) * | 2014-05-09 | 2014-07-30 | 东华大学 | 基于体感技术的智能主动广告平台 |
US9846522B2 (en) * | 2014-07-23 | 2017-12-19 | Microsoft Technology Licensing, Llc | Alignable user interface |
JP6241505B2 (ja) * | 2015-06-30 | 2017-12-06 | キヤノンマーケティングジャパン株式会社 | 管理サーバ、情報処理端末、制御方法、及びプログラム |
EP3156879A1 (en) * | 2015-10-14 | 2017-04-19 | Ecole Nationale de l'Aviation Civile | Historical representation in gaze tracking interface |
US10963063B2 (en) * | 2015-12-18 | 2021-03-30 | Sony Corporation | Information processing apparatus, information processing method, and program |
WO2017146991A1 (en) * | 2016-02-26 | 2017-08-31 | The Coca-Cola Company | Touchless control graphical user interface |
JP6729054B2 (ja) * | 2016-06-23 | 2020-07-22 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システムおよび画像形成装置 |
WO2018008225A1 (ja) * | 2016-07-05 | 2018-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN106228060A (zh) * | 2016-07-27 | 2016-12-14 | 广东欧珀移动通信有限公司 | 控制方法及控制装置 |
CN106295273A (zh) * | 2016-07-27 | 2017-01-04 | 广东欧珀移动通信有限公司 | 控制方法及控制装置 |
CN106228061A (zh) * | 2016-07-27 | 2016-12-14 | 广东欧珀移动通信有限公司 | 控制方法及移动终端 |
US20180310066A1 (en) * | 2016-08-09 | 2018-10-25 | Paronym Inc. | Moving image reproduction device, moving image reproduction method, moving image distribution system, storage medium with moving image reproduction program stored therein |
WO2018035133A1 (en) | 2016-08-17 | 2018-02-22 | Vid Scale, Inc. | Secondary content insertion in 360-degree video |
JP6694637B2 (ja) * | 2016-08-30 | 2020-05-20 | 株式会社アルファコード | 注目対象物に関する情報提供システムおよび情報提供方法 |
CN109845277A (zh) * | 2016-10-26 | 2019-06-04 | 索尼公司 | 信息处理装置、信息处理系统、信息处理方法和程序 |
CN108073594B (zh) * | 2016-11-10 | 2021-12-24 | 北京国双科技有限公司 | 一种生成热力图的方法及装置 |
CN108124167A (zh) * | 2016-11-30 | 2018-06-05 | 阿里巴巴集团控股有限公司 | 一种播放处理方法、装置和设备 |
WO2018203453A1 (ja) * | 2017-05-01 | 2018-11-08 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR20200041877A (ko) | 2017-08-31 | 2020-04-22 | 소니 주식회사 | 정보 처리 장치, 정보 처리 방법 및 프로그램 |
EP3695297B1 (en) * | 2017-10-10 | 2022-08-17 | Razer (Asia-Pacific) Pte. Ltd. | Method and apparatus for analyzing mouse gliding performance |
JP7013786B2 (ja) * | 2017-10-16 | 2022-02-01 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、プログラム及び制御方法 |
JP6463826B1 (ja) * | 2017-11-27 | 2019-02-06 | 株式会社ドワンゴ | 動画配信サーバ、動画配信方法及び動画配信プログラム |
US20190253751A1 (en) * | 2018-02-13 | 2019-08-15 | Perfect Corp. | Systems and Methods for Providing Product Information During a Live Broadcast |
CN108737872A (zh) * | 2018-06-08 | 2018-11-02 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
JP2020005038A (ja) * | 2018-06-25 | 2020-01-09 | キヤノン株式会社 | 送信装置、送信方法、受信装置、受信方法、及び、プログラム |
JP2020009306A (ja) * | 2018-07-11 | 2020-01-16 | 東芝プラントシステム株式会社 | 設備作業支援装置 |
CN109034097B (zh) * | 2018-08-10 | 2021-09-21 | 国网上海市电力公司 | 一种基于图像的开关设备巡检定位方法 |
US20200288204A1 (en) * | 2019-03-05 | 2020-09-10 | Adobe Inc. | Generating and providing personalized digital content in real time based on live user context |
WO2020189254A1 (ja) * | 2019-03-15 | 2020-09-24 | ソニー株式会社 | 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体 |
CN110161721A (zh) * | 2019-04-24 | 2019-08-23 | 苏州佳世达光电有限公司 | 镜片焦距调整方法及液态变焦眼镜设备 |
CN110913250A (zh) * | 2019-12-13 | 2020-03-24 | 上海邸客网络科技有限公司 | 目的地体验社区架构方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1107637A1 (en) | 1999-12-07 | 2001-06-13 | Motorola Semiconducteurs S.A. | Cellular radio communications system with frequency hopping on the control channel |
JP2002183150A (ja) * | 2000-12-13 | 2002-06-28 | Nec Corp | 位置関連情報提示システム及び位置関連情報提示方法並びにその制御プログラムを記録した記録媒体 |
JP4114720B2 (ja) * | 2002-10-25 | 2008-07-09 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成方法および画像生成装置 |
JP4671591B2 (ja) * | 2003-09-12 | 2011-04-20 | シャープ株式会社 | 情報処理装置 |
JP2006235116A (ja) | 2005-02-23 | 2006-09-07 | Sony Corp | 立体表示装置 |
CN101189643A (zh) * | 2005-04-25 | 2008-05-28 | 株式会社亚派 | 3d图像生成和显示系统 |
JP2006343419A (ja) * | 2005-06-07 | 2006-12-21 | Sharp Corp | 表示装置、プログラムおよび記録媒体 |
JP5006587B2 (ja) * | 2006-07-05 | 2012-08-22 | 株式会社エヌ・ティ・ティ・ドコモ | 画像提示装置および画像提示方法 |
JP5158902B2 (ja) * | 2006-09-14 | 2013-03-06 | シャープ株式会社 | 電子機器、有効な機能の選択方法およびプログラム |
JP2008129775A (ja) * | 2006-11-20 | 2008-06-05 | Ntt Docomo Inc | 表示制御装置、表示装置、表示制御方法 |
JP2008256904A (ja) * | 2007-04-04 | 2008-10-23 | Sharp Corp | 視野角切り替え装置連動の広画面表示装置 |
KR101602363B1 (ko) * | 2008-09-11 | 2016-03-10 | 엘지전자 주식회사 | 3차원 사용자 인터페이스의 제어방법과 이를 이용한 이동 단말기 |
WO2010073616A1 (ja) * | 2008-12-25 | 2010-07-01 | パナソニック株式会社 | 情報表示装置および情報表示方法 |
US8854531B2 (en) * | 2009-12-31 | 2014-10-07 | Broadcom Corporation | Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display |
JP2011197537A (ja) * | 2010-03-23 | 2011-10-06 | Nec Casio Mobile Communications Ltd | 端末装置及びプログラム |
US9183560B2 (en) * | 2010-05-28 | 2015-11-10 | Daniel H. Abelow | Reality alternate |
US20110310227A1 (en) * | 2010-06-17 | 2011-12-22 | Qualcomm Incorporated | Mobile device based content mapping for augmented reality environment |
-
2012
- 2012-03-16 JP JP2012060671A patent/JP6028351B2/ja not_active Expired - Fee Related
-
2013
- 2013-03-07 US US13/788,127 patent/US9342921B2/en not_active Expired - Fee Related
- 2013-03-08 CN CN2013100748889A patent/CN103313080A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20130241925A1 (en) | 2013-09-19 |
CN103313080A (zh) | 2013-09-18 |
JP2013196157A (ja) | 2013-09-30 |
US9342921B2 (en) | 2016-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6028351B2 (ja) | 制御装置、電子機器、制御方法、及びプログラム | |
JP2013196158A (ja) | 制御装置、電子機器、制御方法、及びプログラム | |
US20220382379A1 (en) | Touch Free User Interface | |
US11017603B2 (en) | Method and system for user interaction | |
CN104321730B (zh) | 3d图形用户接口 | |
US20120139907A1 (en) | 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system | |
US20130135295A1 (en) | Method and system for a augmented reality | |
US20120092368A1 (en) | Apparatus and method for providing augmented reality (ar) information | |
CN103201710A (zh) | 图像处理系统、图像处理方法以及存储图像处理程序的存储介质 | |
US20210345017A1 (en) | Methods, systems, and media for presenting interactive elements within video content | |
Fujimura et al. | Driver queries using wheel-constrained finger pointing and 3-D head-up display visual feedback | |
CN103176605A (zh) | 一种手势识别控制装置及控制方法 | |
CN115668104A (zh) | 广告显示系统 | |
CN103608761A (zh) | 输入设备、输入方法以及记录介质 | |
CN108885801A (zh) | 信息处理设备、信息处理方法和程序 | |
Alt et al. | Using eye-tracking to support interaction with layered 3D interfaces on stereoscopic displays | |
CN111857461B (zh) | 图像显示方法、装置、电子设备及可读存储介质 | |
JP2012216095A (ja) | 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体 | |
CN102799378A (zh) | 一种立体碰撞检测物体拾取方法及装置 | |
Cho et al. | Multi-scale 7DOF view adjustment | |
EP3088991B1 (en) | Wearable device and method for enabling user interaction | |
CN111918114A (zh) | 图像显示方法、装置、显示设备及计算机可读存储介质 | |
Zhang et al. | Three‐dimensional interaction and autostereoscopic display system using gesture recognition | |
US9218104B2 (en) | Image processing device, image processing method, and computer program product | |
TW201239673A (en) | Method, manipulating system and processing apparatus for manipulating three-dimensional virtual object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161003 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6028351 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |