[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6028351B2 - 制御装置、電子機器、制御方法、及びプログラム - Google Patents

制御装置、電子機器、制御方法、及びプログラム Download PDF

Info

Publication number
JP6028351B2
JP6028351B2 JP2012060671A JP2012060671A JP6028351B2 JP 6028351 B2 JP6028351 B2 JP 6028351B2 JP 2012060671 A JP2012060671 A JP 2012060671A JP 2012060671 A JP2012060671 A JP 2012060671A JP 6028351 B2 JP6028351 B2 JP 6028351B2
Authority
JP
Japan
Prior art keywords
information
display screen
display
displayed
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012060671A
Other languages
English (en)
Other versions
JP2013196157A5 (ja
JP2013196157A (ja
Inventor
宗一 小波
宗一 小波
統 大場
統 大場
陽方 川名
陽方 川名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012060671A priority Critical patent/JP6028351B2/ja
Priority to US13/788,127 priority patent/US9342921B2/en
Priority to CN2013100748889A priority patent/CN103313080A/zh
Publication of JP2013196157A publication Critical patent/JP2013196157A/ja
Publication of JP2013196157A5 publication Critical patent/JP2013196157A5/ja
Application granted granted Critical
Publication of JP6028351B2 publication Critical patent/JP6028351B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本技術は、制御装置、電子機器、制御方法、及びプログラムに関する。
近年、視差を考慮した映像を表示することで視聴者に映像の立体感を認識させる立体視表示技術が注目されている。立体視表示技術は、視差を考慮して左目用映像と右目用映像とを用意しておき、左目用映像が視聴者の左目に投影され、右目用映像が視聴者の右目に投影されるようにして映像の立体感を認識させる技術である。この技術には、専用のメガネを利用して左右の目に異なる映像を投影する方式(偏光などを利用する方式)と、レンチキュラレンズやパララックスバリアなどを利用して左右の目に入る光を分離する方式(所謂、裸眼3D方式)とがある(下記の特許文献1を参照)。
これらの技術は立体視表示技術として広く知られているが、レンチキュラレンズやパララックスバリアなどを利用して異なる視点に異なる映像や画像を表示する技術は、より一般化することができる。例えば、レンチキュラレンズやパララックスバリアなどを利用すれば、2つの視点(つまり、左右の目)に限定されず、3つ以上の視点に対しても異なる画像を投影することが可能である。また、立体視表示に拘らなければ、3つ以上の異なる視点に対して、それぞれ全く関係のない画像を投影することもできる。このような技術を多視差表示技術と呼ぶことにする。
特開2006−235116号公報
本件発明者は、上記のような多視差表示技術及びそれに準ずる技術をユーザインターフェースへと応用する方法について検討を進めてきた。その過程で、現在普及している多くの電子機器が採用しているユーザインターフェースの構成について様々な疑問を抱くようになった。その1つは、タッチパネルをはじめとして様々な入力デバイスが存在し、それらを利用して多くの場合はユーザが快適に操作をしているが、ある種の操作については、そうした操作デバイスに触れずに操作できたら更に高い操作性が得られるのではないか、という疑問である。また、そうした操作デバイスに触れずに操作できるようなユーザインターフェースが実現されれば、これまでは想到し得なかった新たなサービスが実現できる可能性もあることに気づいた。
そこで、本技術は、上記のような事情を受けて考案されたものであり、より快適な操作性を実現することが可能な、新規かつ改良された制御装置、電子機器、制御方法、及びプログラムを提供することを意図している。
本技術のある観点によれば、表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御部を備え、前記制御部による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、制御装置が提供される。
また、本技術の別の観点によれば、情報を表示する表示部と、前記表示部の表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御部と、を備え、前記制御部による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、電子機器が提供される。
また、本技術の別の観点によれば、表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する工程を含み、前記制御する工程における制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、制御方法が提供される。
また、本技術の別の観点によれば、情報を表示する表示部を有する電子機器が、前記表示部の表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する工程を含み、前記制御する工程における制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、制御方法が提供される。
また、本技術の別の観点によれば、表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能をコンピュータに実現させるためのプログラムであり、前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、プログラムが提供される。
また、本技術の別の観点によれば、情報を表示する表示機能と、前記情報が表示される表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能と、をコンピュータに実現させるためのプログラムであり、前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、プログラムが提供される。
また、本技術の別の観点によれば、上記のプログラムが記録された、コンピュータにより読み取り可能な記録媒体が提供される。
以上説明したように本技術によれば、より快適な操作性を実現することが可能になる。
多視差表示について説明するための説明図である。 多視差表示について説明するための説明図である。 多視差表示について説明するための説明図である。 オブジェクトの表示方法について説明するための説明図である。 オブジェクトの表示方法について説明するための説明図である。 オブジェクトの表示方法について説明するための説明図である。 第1実施例の概要について説明するための説明図である。 第1実施例の概要について説明するための説明図である。 第2実施例の概要について説明するための説明図である。 環境揺れの検出及び対策の検討について説明するための説明図である。 実施例に係る技術を適用可能なシステム構成例について説明するための説明図である。 実施例に係る技術を適用可能なシステム構成例について説明するための説明図である。 第1実施例に係る電子機器の機能構成について説明するための説明図である。 第1実施例に係る電子機器の機能構成について説明するための説明図である。 第1実施例に係るサーバの機能構成について説明するための説明図である。 第1実施例に係るシステムの動作について説明するための説明図である。 第1実施例に係る電子機器の機能構成について説明するための説明図である。 第1実施例に係る電子機器の機能構成について説明するための説明図である。 第1実施例に係るシステムの動作について説明するための説明図である。 視線方向に応じたアプリケーションの切り替え動作について説明するための説明図である。 視線方向に応じたツールの切り替え動作について説明するための説明図である。 視線方向に応じた再生速度の切り替え動作について説明するための説明図である。 重畳情報のフィルタリングについて説明するための説明図である。 操作オブジェクトのフィルタリングについて説明するための説明図である。 コンテンツのフィルタリングについて説明するための説明図である。 コンテンツのフィルタリングについて説明するための説明図である。 注視点に関連する情報の表示方法について説明するための説明図である。 注視角度に応じたフィルタリングについて説明するための説明図である。 覗き込みによる拡大/縮小動作について説明するための説明図である。 覗き込みによる拡大/縮小動作について説明するための説明図である。 ジェスチャーによる表示内容の固定動作について説明するための説明図である。 所定領域への視線移動による表示内容の固定動作について説明するための説明図である。 静止時間又は瞬きに基づく表示内容の固定動作について説明するための説明図である。 第2実施例に係る電子機器の機能構成について説明するための説明図である。 第2実施例に係るサーバの機能構成について説明するための説明図である。 第2実施例に係るシステムの動作について説明するための説明図である。 第2実施例に係るシステムの動作について説明するための説明図である。 第2実施例に係る電子機器の機能構成について説明するための説明図である。 第2実施例に係るシステムの動作について説明するための説明図である。 3D表示について説明するための説明図である。 2D表示における奥行き情報について説明するための説明図である。 視線交差数に基づくオブジェクトの選択方法について説明するための説明図である。 視線交差数に基づくオブジェクトの選択方法について説明するための説明図である。 視線交差数に基づくオブジェクトの選択方法について説明するための説明図である。 オブジェクトの領域分割を適用した視線交差数に基づくオブジェクトの選択方法について説明するための説明図である。 オブジェクトの領域分割を適用した視線交差数に基づくオブジェクトの選択方法について説明するための説明図である。 注視時間に基づくオブジェクトの選択判定方法について説明するための説明図である。 視線の移動速度に基づくオブジェクトの選択判定方法について説明するための説明図である。 ジェスチャー又は瞬きによる確定操作について説明するための説明図である。 オブジェクトの移動による絞り込み操作の補助について説明するための説明図である。 オブジェクトの移動による絞り込み操作の補助について説明するための説明図である。 選択オブジェクトの変更方法について説明するための説明図である。 視線交差数に基づくオブジェクトの選択方法について説明するための説明図である。 物体識別結果に基づく個人化を適用した視線交差数に基づくオブジェクトの選択方法について説明するための説明図である。 選択結果の順位付け表示について説明するための説明図である。 視線交差数に応じたオブジェクトの強調表示方法について説明するための説明図である。 ヒートマップ表示について説明するための説明図である。 数値又は文字による視線交差数の表示について説明するための説明図である。 インジケータによる視線交差数の表示について説明するための説明するための説明図である。 注目しやすい部分の視線交差数に重み付けする方法について説明するための説明図である。 本実施形態に係る電子機器及びサーバの機能を実現可能なハードウェア構成について説明するための説明図である。
以下に添付図面を参照しながら、本技術に係る好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する説明の流れについて簡単に述べる。
まず、図1〜図12を参照しながら、本実施形態に係る技術の概要について述べる。次いで、図13〜図33を参照しながら、本実施形態の第1実施例について説明する。次いで、図34〜図59を参照しながら、本実施形態の第2実施例について説明する。次いで、図60を参照しながら、ユーザが注目しやすいオブジェクトの部分を意識したオブジェクトの選択方法について説明する。次いで、本実施形態の第1及び第2実施例を組み合わせる方法の一例を紹介する。次いで、図61を参照しながら、本実施形態に係る技術を実現することが可能なハードウェア構成例について述べる。最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。
(説明項目)
1:はじめに
1−1:基本技術の紹介
1−1−1:多視差表示について
1−1−2:ヘッドトラッキングについて
1−2:一般的なUIの例及び改善案の検討
1−2−1:オブジェクトの表示方法について
1−2−2:オブジェクトの操作方法について
1−3:第1実施例(情報のフィルタリングなど)の概要
1−4:第2実施例(情報の選択など)の概要
1−5:環境揺れの検出及び対策の検討
1−6:システム構成例
1−6−1:構成例#1(クラウド環境を利用する構成)
1−6−2:構成例#2(機器の機能を利用する構成)
2:第1実施例(情報のフィルタリングなど)の詳細
2−1:構成例#1の場合
2−1−1:電子機器の機能構成
2−1−2:サーバの機能構成
2−1−3:システムの基本的な動作
2−2:構成例#2の場合
2−2−1:電子機器の機能構成
2−2−2:システムの基本的な動作
2−3:(応用例)アプリケーションの制御
2−3−1:視線方向に応じたアプリケーションの切り替え動作
2−3−2:視線方向に応じたツールの切り替え動作
2−3−3:視線方向に応じた再生速度の切り替え動作
2−4:(応用例)フィルタの構成
2−4−1:重畳情報のフィルタリング
2−4−2:操作オブジェクトのフィルタリング
2−4−3:コンテンツのフィルタリング
2−5:(応用例)覗き込み操作
2−5−1:注視点に関連する情報の表示
2−5−2:注視角度に応じたフィルタリング
2−5−3:覗き込みによる拡大/縮小
2−6:(応用例)表示内容の固定
2−6−1:ジェスチャーによる表示内容の固定
2−6−2:所定領域への視線移動による表示内容の固定
2−6−3:静止時間に基づく表示内容の固定
2−6−4:瞬き(表情変化)による表示内容の固定
2−7:適用例
2−8:効果
3:第2実施例(情報の選択など)の詳細
3−1:構成例#1の場合
3−1−1:電子機器の機能構成
3−1−2:サーバの機能構成
3−1−3:システムの基本的な動作
3−2:構成例#2の場合
3−2−1:電子機器の機能構成
3−2−2:システムの基本的な動作
3−3:(補足)奥行き表現
3−3−1:3D表示
3−3−2:2D表示+奥行き情報
3−4:オブジェクト選択方法#1(単ユーザ)
3−4−1:視線交差数に基づく選択方法
3−4−2:オブジェクトの領域分割
3−4−3:注視時間に基づく選択判定
3−4−4:視線の移動速度に基づく選択判定
3−4−5:ジェスチャーによる確定操作
3−4−6:瞬き(表情変化)による確定操作
3−4−7:オブジェクトの移動による絞り込み操作の補助
3−4−8:選択オブジェクトの変更
3−5:オブジェクト選択方法#2(複数ユーザ)
3−5−1:視線交差数に基づく選択方法
3−5−2:物体識別結果に基づく個人化(年齢/性別/登録者など)
3−5−3:選択結果の順位付け表示
3−6:注視状況の表示
3−6−1:視線交差数に応じた強調表示(色/動き/透過など)
3−6−2:ヒートマップ表示
3−6−3:数値又は文字による視線交差数の表示
3−6−4:インジケータによる視線交差数の表示
3−7:キャンセル方法
3−8:注目しやすい領域を考慮する方法
3−9:適用例
3−10:効果
4:応用例(組み合わせ)
4−1:視線方向に応じたオブジェクトの表示+視線による選択
4−1−1:オブジェクト表示の固定+視線移動による選択
4−1−2:上下移動による表示制御+左右移動による選択操作
4−2:複数機器の組み合わせ
4−2−1:携帯機器(フィルタ)+テレビジョン受像機(視線操作)
4−2−2:携帯機器(フィルタ)+デジタルサイネージ端末(視線操作)
5:ハードウェア構成例
6:まとめ
<1:はじめに>
はじめに、本実施形態に係る技術について詳細に説明するに先立ち、当該技術に関係する基本技術及び後段で詳述する実施例の概要について述べる。
[1−1:基本技術の紹介]
まず、多視差表示技術及びヘッドトラッキング技術について紹介する。
(1−1−1:多視差表示について(図1〜図3))
先に述べたように、多視差表示技術は、3D表示の基本技術として広く利用されている。多視差表示は、図1に示すように、視界制限デバイスを利用して視界を制限し、視点の位置に応じて異なる表示領域が見えるようにすることで実現される。視界制限デバイスとしては、例えば、パララックスバリアやレンチキュラレンズなどがある。もちろん、レンチキュラレンズは、遮光により視界を制限するものではないが、導光路を制御して見える領域を制限するという点でパララックスバリアと同等の機能を実現可能である。
図1の例では、視点E1から表示領域R1、R2、R3、R4が見えない。同様に、視点E2から表示領域L1、L2、L3、L4が見えない。なお、本稿においては、見る位置(例えば、目の位置)を「視点」と呼ぶことにする。図1の例において、表示領域R1、R2、R3、R4に右目用画像を表示し、表示領域L1、L2、L3、L4に左目用画像を表示すると、視点E1がユーザの左目、視点E2がユーザの右目である場合、そのユーザには画像が立体的に認識される。
3D表示の場合、2つの視点に対して異なる画像を見せれば足りるが、同様の方法で3つ以上の視点に対して異なる画像を見せることも可能である。具体的には、図2に示すように、視界制限デバイスを制御して視界制限範囲を調整することにより、3つ以上の視点から見える範囲をそれぞれ所定の表示領域に制限することが可能である。図2の例では、視点E1から見える範囲は表示領域#1に制限され、視点E2から見える範囲は表示領域#2に制限され、視点E3から見える範囲は表示領域#3に制限されている。
3D表示の場合は左右の目を意識し、2つの視点に対応する2種類の表示領域に視差を考慮して2種類の画像を表示したが、同じ画像を表示すれば2D表示となる。従って、多視差表示は、3D表示に限らず、2D表示にも適用可能である。そのため、以下の説明では、説明の都合上、3D表示又は2D表示のいずれか一方を例に説明を進めることがあるが、いずれの表示方式においても後述する技術は適用可能である点に注意されたい。また、図3に示すように、表示画面の一部だけを多視差表示とすることも可能である。
以上、多視差表示について簡単に説明した。
(1−1−2:ヘッドトラッキングについて)
上記のように、多視差表示は、視界制限デバイスを利用して視界を制限することにより、視点位置毎に異なる情報を見せる仕組みである。なお、この仕組み以外にも、視点位置毎に異なる情報を見せる仕組みとして、例えば、ヘッドトラッキング技術を利用した仕組みが考えられる。そこで、ヘッドトラッキング技術について簡単に紹介する。
ヘッドトラッキング技術とは、所定部位(例えば、頭部)の動きを追尾する技術である。例えば、撮像装置に関し、シャッター操作前にユーザに提示されるプレビュー画像を撮像する場合など、複数の画像が連続して撮像される場合に、連続して撮像された画像から被写体を追尾する技術が知られている。具体的には、シリコン網膜を利用して被写体を追尾する技術(例えば、特開2004−240591号公報を参照)や、深度感知撮像技術を利用して被写体を追尾する技術(例えば、特表2007−514211号公報を参照)が知られている。
また、Jean−Yves Bouguet「Pyramidal Implementation of the Lucas KanadeFeature Tracker Description of the algorithm」Intel Corporation Microprocessor Research Labs (2000) OpenCV Documentsには、Lucas−Kanadeアルゴリズムを利用して被写体を追尾する仕組みが提案されている。
また、シリコン網膜や深度感知撮像技術を利用する技術の場合、シリコン網膜や深度カメラといった特殊な器具が必要となる。また、Lucas−Kanadeアルゴリズムを利用する仕組みの場合、特徴点の検出や被写体の追尾に要する処理負荷が高く、処理に時間がかかってしまう。さらに、Lucas−Kanadeアルゴリズムの欠点として、被写体の形状変化が激しい場合などに、安定して被写体の追尾が行えない点が指摘されている。こうした点を踏まえ、最近、改良されたトラッキング技術が開発された(例えば、特開2011−150594号公報を参照)。この技術を適用すると、特殊な器具を搭載していない撮像装置で安定して被写体(例えば、頭部など)の追尾が可能になる。
上記のトラッキング技術を利用すると、顔の向き、目の位置、視線方向などを検出することができる。そのため、視点位置の検出結果に応じて表示内容を切り替えることにより、多視差表示の場合と同様に、視点位置毎に異なる情報を見せる仕組みを実現することが可能になる。
以上、ヘッドトラッキングについて簡単に説明した。
[1−2:一般的なUIの例及び改善案の検討]
次に、一般的なユーザインターフェース(以下、UI)の例を示し、改善すべき点について検討してみたい。
(1−2−1:オブジェクトの表示方法について(図4、図5))
図4に示すように、現在普及している電子機器のうち、一部の電子機器には立体視オブジェクトを表示する機能が搭載されている。既に述べたように、左右の目に見える表示領域を制限し、視差を考慮してオブジェクトの画像を表示することにより、オブジェクトが立体的に見えるように表示可能である。この場合、ちょうど、表示画面からオブジェクトが飛び出しているように見える。このような表示方法は、例えば、携帯端末、携帯ゲーム機、携帯電話、テレビジョン受像機、デジタルサイネージ端末、その他ディスプレイ装置などの電子機器に広く適用可能である。
また、図5に示すように、電子機器の撮像機能を利用して撮像した被写体をリアルタイムに表示する技術が知られている。さらに、一部の電子機器には、表示した被写体に情報(以下、重畳情報)を重畳して表示する機能が搭載されている。重畳情報としては、例えば、建造物の名前、店舗の名前、取り扱い商品、ジャンル、人気度など、被写体に関連する様々な情報がある。また、こうした関連情報の存在を明示するためのオブジェクトが重畳情報として表示される場合もある。さらに、そのオブジェクトを操作体で接触することにより、詳細な重畳情報が得られるようなアプリケーションも存在する。
(1−2−2:オブジェクトの操作方法について(図6))
さらに、重畳情報の表示機能を搭載した電子機器の多くでは、図6に示すように、重畳情報の種類や量をボタン操作で切り替える操作体系が用いられている。図6に例示した電子機器の場合、ボタンAを押下した場合に重畳情報A1、A2が表示され、ボタンBを押下した場合に重畳情報B1、B2が表示される。
確かに、多くのユーザにとって、こうした操作体系で極端に不自由を感じる機会は少ないであろう。しかし、大きな荷物を抱えて電子機器を操作しているユーザなど、手がふさがっている場合ではどうであろうか。少なくとも一方の手で電子機器を把持する必要があるため、もう一方の手がふさがっていると、ユーザは、電子機器を把持している手でボタン操作を行うことになる。図6の例では、簡単のために、2つの大きなボタンを操作する状況が示されているが、実際には、多数の小さいボタンが配置されていることであろう。また、ボタンを大きくすれば情報の表示領域が狭くなるし、ボタンの数を減らせば、それだけ情報の切り替えや絞り込みが難しくなる。
ボタン操作の例を挙げたが、図5に示した例のように画面内の所定領域をタッチ操作する場合についても同様の事が言える。さらに、図4に示した例のように、立体視表示を適用する場合、そもそも操作体でオブジェクトを操作することに熟練を要する。こうした状況に鑑みると、操作体が電子機器の表示画面に対して物理的に触れたり、操作体が立体視オブジェクトに対して現実的又は仮想的に触れたりする必要のあるユーザインターフェース自体に操作性を低下させる要素が含まれていると考えられよう。もちろん、操作体で触れることを要する操作体系を完全に排除することはやはり操作性を低下させる要因となることが予想されるため、必要に応じて新たな操作手法を組み合わせることが得策であると考えられる。
では、新たな操作手法として、どのような仕組みが考えられるであろうか。また、どのような場面で新たな操作手法が有効に機能するのか。本件発明者は、このような思考のもと、鋭意検討を重ね、「見る」というユーザの動作を新たな操作手法として利用する仕組みを考案した。以下では、その具体的な実施例について紹介する。
[1−3:第1実施例(情報のフィルタリングなど)の概要(図7、図8)]
まず、第1実施例の概要について述べる。第1実施例は、視点の移動により表示情報を切り替える操作手法に関する。この操作手法は、上述した多視差表示又はヘッドトラッキングなどを利用した視点検出技術に基づくものである。
例えば、電子機器10は、ユーザが表示画面を見る角度θに応じて見える情報の種類を切り替える(フィルタリングする)機能を有する。そのため、図7に示すように、電子機器10は、例えば、表示画面に向かって右側から見た場合(つまり、電子機器10を左向きに傾けた場合)に重畳情報A1、A2が見えるようにする。同様に、電子機器10は、例えば、表示画面に向かって左側から見た場合(つまり、電子機器10を右向きに傾けた場合)に重畳情報B1、B2が見えるようにする。このような機能を有することで、ユーザは、電子機器10を把持した状態で電子機器10の向きを左右に傾けるだけで表示情報を切り替えることが可能になる。なお、図7では、左右に電子機器10を傾ける例を示しているが、上下など、他の方向についても同様の機能を設けることができる。
また、図7の例では重畳情報を切り替える手法が示されたが、図8に示すように、操作オブジェクトOBJ1、OBJ2を切り替えるように変形することもできる。さらに、角度θの領域を複数の範囲に分け、範囲毎に表示内容が変化する構成としてもよい。例えば、正面を0°として、−15°〜15°を第1範囲、16°〜30°を第2範囲、31°〜を第3範囲、−16°〜−30°を第4範囲、−31°〜を第5範囲などと設定することが可能である。そして、角度θの絶対値が大きくなるほど、情報の量や内容の詳細さが大きく(又は小さく)なるように設定することができる。
このような情報の段階的な表示をボタンなどのオブジェクトで実現しようとすると、多数のボタンが必要になったり、或いは、ダイヤルや操作バーなどの特殊なユーザインターフェースが必要になったりする。さらに、そうした操作オブジェクトを操作するために、機器を把持している手とは反対の手が必要になったり、操作工程が増えてしまったりする。しかし、図7及び図8に示すような新たな操作手法を適用すると、操作工程の少ない直感的な操作で情報の段階的な表示を実現することが可能になる。
また、多視差表示を利用する場合、角度領域毎にユーザが見る画素群に対して、予め表示すべき情報を表示しておくことで、画像の切り替えによる遅延が一切発生せずに、表示情報の切り替えが素早く実現される。なお、この場合、ユーザから見える情報が切り替わるだけで、電子機器10は画像を切り替えていない点に注意されたい。一方、ヘッドトラッキングを利用する場合、電子機器10は、角度領域毎に画像を切り替える必要がある。この場合、電子機器10は、正面付近(角度0°付近)に対応する画像を先に取得しておき、角度が小さい角度領域に対応する画像から順に取得するようにするとよい。
多くの場合、ユーザは、電子機器10を正面から見て表示内容を確認し、その後に角度を変化させるからである。このように、ユーザの操作を想定して画像を取得するタイミングを調整することにより、画像取得に要するトラフィックが低減し、スループットの向上に寄与する。また、正面付近に対応する画像から順に取得するため、画像の取得待ちで表示遅延が発生する可能性は低い。従って、ユーザには、スムーズな操作感を提供することができる。なお、この構成はネットワークを介して接続されたサーバ(クラウドシステムなどを含む)から画像を取得する場合に高い効果が期待できるが、機器内のストレージデバイスから画像を取得する場合であっても効果が得られる。
以上、第1実施例の概要について述べた。
[1−4:第2実施例(情報の選択など)の概要(図9)]
次に、第2実施例の概要について述べる。第2実施例は、視線方向を利用してオブジェクトを選択する操作手法に関する。この操作手法は、上述した多視差表示又はヘッドトラッキングなどを利用した視線検出技術に基づくものである。なお、ここでは3D表示を例に挙げて説明するが、深度情報を持ったオブジェクトについては2D表示の場合も同様にして同実施例の技術を適用可能である。
図9に示すように、電子機器20は、オブジェクトを立体的に表示する機能を有する。また、電子機器20は、ユーザの視線を検出する。そして、電子機器20は、視線とオブジェクトとの交差を判定する。さらに、電子機器20は、オブジェクト毎に交差数をカウントする。例えば、視線Q1が検出された場合、電子機器20は、視線Q1とオブジェクトOBJ1との交差を検出し、オブジェクトOBJ1に対する交差数を1とする。なお、簡単のため、視線Q1、Q2はオブジェクトOBJ2〜OBJ4とは交差していないものとする。次いで、視線Q2が検出された場合、電子機器20は、視線Q2とオブジェクトOBJ1との交差を検出し、オブジェクトOBJ1に対する交差数を2に更新する。
同様に、視線Q3が検出された場合、電子機器20は、視線Q3とオブジェクトOBJ1との交差を検出し、オブジェクトOBJ1に対する交差数を3に更新する。また、図9の例において、視線Q3がオブジェクトOBJ2と交差しているため、電子機器20は、視線Q3とオブジェクトOBJ2との交差を検出し、オブジェクトOBJ2に対する交差数を1とする。ここで、オブジェクトOBJ1に対する交差数が3、オブジェクトOBJ2に対する交差数が1、オブジェクトOBJ3、OBJ4に対する交差数が0であるから、電子機器20は、交差数が最大となったオブジェクトOBJ1を選択する。
なお、視線Q1〜Q3は、単一ユーザの視線であってもよいし、複数ユーザの視線であってもよい。例えば、電子機器20が所定周期で視線を検出するものとし、所定期間に検出された各オブジェクトに対する交差数に基づいてオブジェクトの選択が行われるようにしてもよい(単一又は複数ユーザの場合)。また、あるタイミングで電子機器20が視線を検出するものとし、その瞬間に検出された各オブジェクトに対する交差数に基づいてオブジェクトの選択が行われるようにしてもよい(複数ユーザの場合)。また、交差数が最大となるオブジェクトだけでなく、交差数が所定数以上となったオブジェクトが選択されるように構成されていてもよい。
このような第2実施例の操作手法を適用すると、注目するだけでオブジェクトを選択することができるため、立体感のあるオブジェクトを容易に選択することが可能になる。特に、見えているけれど触覚を得られないオブジェクトの操作手法として好適である。また、複数ユーザが同時に注目しているオブジェクトを検出することが可能になるため、その統計データをマーケティングに利用したり、効果的な広告の表示に利用したりするなど、様々なサービスに応用できる可能性を秘めている。
以上、第2実施例の概要について述べた。
[1−5:環境揺れの検出及び対策の検討(図10)]
ところで、見る方向又は視線を向ける方向によって表示を切り替えるユーザインターフェースの場合、ユーザが意図しない揺れによって表示が切り替わり、視認性が低下してしまう可能性がある。例えば、電車やバスなどの揺れ(以下、環境揺れ)によって表示が頻繁に切り替わってしまうと、視認性の低下はもちろんのこと、体調悪化につながる恐れが懸念される。
そこで、図10に示すように、環境揺れによる傾き程度では表示が切り替わらないように、傾き角度が所定の閾値を越えるまでは表示を固定する。また、乗り物モードなどを用意し、乗り物モードの場合に閾値を大きく、それ以外の場合に閾値を小さくするなどのモード切り替え機能を搭載する仕組みも考えられる。さらに、ジャイロセンサや加速度センサなどと連携し、瞬間的に大きな環境揺れが生じた場合に、表示内容を固定する仕組みなども考えられる。こうした仕組みを設けることにより、第1及び第2実施例に係る操作手法を適用しても、環境揺れがもたらすユーザへの悪影響を回避することができる。
[1−6:システム構成例]
ここで、第1及び第2実施例の技術を適用可能なシステム構成例について述べる。第1及び第2実施例に係る技術を適用可能なシステム構成としては、例えば、主にクラウド環境を利用する構成(構成例#1)と、主に機器の機能を利用する構成(構成例#2)とが考えられる。そこで、各システム構成例について紹介する。
(1−6−1:構成例#1(クラウド環境を利用する構成)(図11))
まず、構成例#1について述べる。図11に示すように、構成例#1に係るシステムは、ネットワークを介して互いに接続された電子機器(電子機器10、20)及びサーバ(サーバ30)により構成される。また、電子機器10、20としては、例えば、表示装置、情報処理装置、端末装置などが考えられる。そして、サーバ30としては、単体のサーバ装置、又は複数のサーバ装置で構成されるサーバ群などが考えられる。さらに、サーバ群の形態としては、データセンタなどに設置される分散型並列演算システムや、所謂クラウドシステムなどが考えられる。しかし、第1及び第2実施例の技術を適用する上で、こうした形態の違いは重要ではなく、任意の形態に対して適用可能である。
(1−6−2:構成例#2(機器の機能を利用する構成)(図12))
次に、構成例#2について述べる。図12に示すように、構成例#2に係るシステムは、電子機器(電子機器10、20)単体により構成される。但し、電子機器10、20が一切ネットワークから独立しているわけではなく、ここでは第1及び第2実施例の技術を適用するにあたって主要な処理を機器自身が実行する構成を意図している。なお、電子機器10、20としては、例えば、表示装置、情報処理装置、端末装置などが考えられる。
以上、システム構成例について述べた。以下では、これら2種類のシステム構成例を念頭において説明を進める。もちろん、現在又は将来における技術動向に鑑みて適宜システム構成を変形することは可能であり、そうした変形を施したシステムに対して第1及び第2実施例に係る技術を適用することは当然に可能である。
<2:第1実施例(情報のフィルタリングなど)の詳細>
以下、第1実施例について詳細に説明する。
[2−1:構成例#1の場合]
構成例#1の場合、第1実施例に係る電子機器10の機能構成及びサーバ30の機能構成は、例えば、以下のように表現される。
(2−1−1:電子機器の機能構成(図13、図14))
まず、図13及び図14を参照しながら、電子機器10の機能構成について説明する。図13は、多視差表示を利用した操作手法を実現可能な電子機器10の機能構成を示した説明図である。図14は、ヘッドトラッキングを利用した操作手法を実現可能な電子機器10の機能構成を示した説明図である。なお、ここでは説明の都合上、第1実施例に係る操作手法により重畳情報を切り替える構成(図7を参照)について説明するが、例えば、オブジェクトを切り替える構成(図8を参照)などについても同様である。
(多視差表示デバイスを利用する場合(図13))
図13に示すように、電子機器10は、主に、多視差表示部101と、表示制御部102と、重畳情報取得部103とにより構成される。多視差表示部101は、図1又は図2のようにして多視差表示を実現可能な多視差表示デバイスである。表示制御部102は、多視差表示部101に情報を表示させる機能を有する。重畳情報取得部103は、ネットワークを介してサーバ30から重畳情報を取得する機能を有する。なお、電子機器10は、被写体を撮像する撮像部(非図示)、情報を記憶しておく記憶部(非図示)、GPS、ジャイロセンサ、加速度センサなどを有していてもよい。
例えば、図7に例示したケースについて考えてみよう。この場合、まず、表示制御部102は、被写体を撮像した撮像画像を多視差表示部101にリアルタイムに表示させる。次いで、重畳情報取得部103は、現在位置や撮像方向の情報など、被写体に含まれる対象物を特定するために利用可能な情報をサーバ30に送信し、対象物に関する関連情報を取得する。関連情報を取得した重畳情報取得部103は、撮像画像に重畳して表示する重畳情報として、サーバ30から取得した関連情報を表示制御部102に入力する。重畳情報を取得した表示制御部102は、撮像画像の対象物に対応する位置又は関連情報を表示すべき表示領域に重畳情報を表示する。
このとき、表示制御部102は、ユーザが見る方向に応じて見える画素群が異なることを考慮し、各方向に対応する画素群に対して異なる重畳情報を表示する。例えば、表示制御部102は、重畳情報を属性毎に仕分けるフィルタを利用し、各方向に予め対応付けられたフィルタを用いて重畳情報を仕分け、対応する画素群に仕分け後の重畳情報を表示させる。この場合、ユーザには、見る方向に応じて属性の異なる重畳情報が見えることになる。また、各方向に予め重畳情報の数が対応付けられている場合、表示制御部102は、各方向に対応する画素群に対し、ランダム又は所定のルールで数を絞り込んだ重畳情報を表示させる。この場合、ユーザには、見る方向に応じて異なる数の重畳情報が見えることになる。
表示制御部102による表示方法は、上記の例に限定されず、様々な変形が可能である。上記の例では、方向による属性の制御、方向による数の制御が実現されるが、例えば、重畳情報の詳細度合いや、対象物を含む表示領域の制御などについても同様にして実現可能である。なお、属性の識別には、例えば、「飲食」「ランチ」「雑貨」「銀行」「銀行ATM」「銀行窓口」「郵便局」「駅」「バス亭」など、対象物の特性を表すメタデータが利用可能である。このようなメタデータは、サーバ30から取得してもよいし、予め用意して記憶部に保持していてもよい。
さて、多視差表示を利用する場合、表示制御部102は、重畳情報が用意できた段階で、全ての画素群に対して対応する重畳情報を表示させる。このように、ユーザが見る角度を変えたか否かにかかわらず事前に重畳情報を表示しておくことで、重畳情報の切り替えに要する待ち時間が発生しない。その結果、高速に表示内容の切り替えが可能になる。また、事前に重畳情報を表示しない場合、重畳情報取得部103は、正面向けの重畳情報をサーバ30から先に取得し、その後、正面に近い方向向けの重畳情報から順に重畳情報を取得する。このような構成にすることで、重畳情報の取得レイテンシを低減することが可能になる。
以上、多視差表示を利用した操作手法を実現可能な電子機器10の機能構成について説明した。次に、ヘッドトラッキングを利用した操作手法を実現可能な電子機器10の機能構成について説明する。
(ヘッドトラッキングを利用する場合(図14))
図14に示すように、電子機器10は、主に、表示部111と、表示制御部112と、重畳情報取得部113と、撮像部114と、ヘッドトラッキング部115とにより構成される。なお、電子機器10は、被写体を撮像する撮像部(非図示)、情報を記憶しておく記憶部(非図示)、GPS、ジャイロセンサ、加速度センサなどを有していてもよい。
ここでも、図7に例示したケースについて考えてみたい。この場合、まず、表示制御部112は、被写体を撮像した撮像画像を表示部111にリアルタイムに表示させる。次いで、重畳情報取得部113は、現在位置や撮像方向の情報など、被写体に含まれる対象物を特定するために利用可能な情報をサーバ30に送信し、対象物に関する関連情報を取得する。関連情報を取得した重畳情報取得部113は、撮像画像に重畳して表示する重畳情報として、サーバ30から取得した関連情報を表示制御部112に入力する。重畳情報を取得した表示制御部112は、撮像画像の対象物に対応する位置又は関連情報を表示すべき表示領域に重畳情報を表示する。
このとき、撮像部114は、ユーザを撮像する。ユーザを撮像した撮像画像は、逐次、撮像部114からヘッドトラッキング部115に入力される。ヘッドトラッキング部115は、ヘッドトラッキング技術を利用して撮像画像からユーザの所定部位を追跡し、その追跡結果から視点の位置を検出する。ヘッドトラッキング部115による検出結果は、フィルタ選択部116に入力される。検出結果が入力されると、フィルタ選択部116は、入力された検出結果が示す方向に基づいて当該方向に対応するフィルタを選択する。このフィルタは、例えば、属性により重畳情報を仕分けするものであってもよいし、重畳情報の数を制限するものであってもよい。フィルタ選択部116により選択されたフィルタの情報は、表示制御部112に入力される。
フィルタが入力された表示制御部112は、入力されたフィルタを用いて重畳情報を仕分け、表示部111に仕分け後の重畳情報を表示させる。この場合、ユーザには、仕分け後の重畳情報が見えることになる。また、ユーザが見る方向を変えると、フィルタ選択部116によりフィルタが変更され、表示制御部112により変更後のフィルタで仕分けされた重畳情報が表示部111に表示される。そのため、多視差表示を利用した場合と同様、ユーザは、見る方向を変えるだけで異なる重畳情報を見ることができる。
なお、表示制御部112による表示方法は、上記の例に限定されず、様々な変形が可能である。上記の例では、方向による属性の制御、方向による数の制御が実現されるが、例えば、重畳情報の詳細度合いや、対象物を含む表示領域の制御などについても同様にして実現可能である。なお、属性の識別には、例えば、「飲食」「ランチ」「雑貨」「銀行」「銀行ATM」「銀行窓口」「郵便局」「駅」「バス亭」など、対象物の特性を表すメタデータが利用可能である。このようなメタデータは、サーバ30から取得してもよいし、予め用意して記憶部に保持していてもよい。
また、重畳情報取得部113は、正面向けの重畳情報をサーバ30から先に取得し、その後、正面に近い方向向けの重畳情報から順に重畳情報を取得するように構成されていてもよい。このような構成にすることで、重畳情報の取得レイテンシを低減することが可能になる。
以上、ヘッドトラッキングを利用した操作手法を実現可能な電子機器10の機能構成について説明した。次に、サーバ30の機能構成について説明する。
(2−1−2:サーバの機能構成(図15))
図15に示すように、サーバ30は、主に、重畳情報提供部301と、重畳情報選択部302と、被写体情報取得部303とにより構成される。まず、被写体情報取得部303は、電子機器10から被写体に含まれる対象物を特定するための情報(以下、被写体情報)を取得する。被写体情報としては、例えば、GPSなどで検出された位置情報、各種センサなどで検出された撮像方向の情報などがある。被写体情報取得部303により取得された被写体情報は、重畳情報選択部302に入力される。
被写体情報が入力されると、重畳情報選択部302は、入力された被写体情報に基づいて対象物に関する重畳情報を選択する。このとき、重畳情報選択部302は、必要に応じて外部のシステムから重畳情報を取得してもよい。重畳情報選択部302により選択された重畳情報は、重畳情報提供部301に入力される。重畳情報が入力された重畳情報提供部301は、被写体情報を送信した電子機器10に対して、入力された重畳情報を提供する。なお、サーバ30は、電子機器10に対して予め用意したフィルタの情報を提供するように構成されていてもよい。
以上、サーバ30の機能構成について説明した。
(2−1−3:システムの基本的な動作(図16))
次に、図16を参照しながら、第1実施例に係るシステムの基本的な動作について説明する。図16は、第1実施例に係るシステムの基本的な動作について説明するための説明図である。
図16に示すように、まず、電子機器10は、ユーザが見ている方向(視線方向)を検出する(S101)。但し、多視差表示を利用する場合、視線方向の検出は不要である。次いで、電子機器10は、視線方向の検出結果に応じてフィルタを選択する(S102)。但し、多視差表示を利用する場合、電子機器10は、このステップにおいて、各視線方向に対応するフィルタを準備する。次いで、電子機器10は、重畳情報をサーバ30から取得する(S103)。次いで、電子機器10は、サーバ30から取得した重畳情報をステップS102で選択したフィルタに基づいてフィルタリングする(S104)。次いで、電子機器10は、フィルタリングした重畳情報を表示する(S105)。
以上、第1実施例に係るシステムの基本的な動作について説明した。
以上説明したように、構成例#1の場合、電子機器10とサーバ30との間で重畳情報などのやり取りが発生する。次に、構成例#2の場合について述べる。
[2−2:構成例#2の場合]
構成例#2の場合、第1実施例に係る電子機器10の機能構成は、例えば、以下のように表現される。
(2−2−1:電子機器の機能構成(図17、図18))
まず、図17及び図18を参照しながら、電子機器10の機能構成について説明する。図17は、多視差表示を利用した操作手法を実現可能な電子機器10の機能構成を示した説明図である。図18は、ヘッドトラッキングを利用した操作手法を実現可能な電子機器10の機能構成を示した説明図である。なお、ここでは説明の都合上、第1実施例に係る操作手法により重畳情報を切り替える構成(図7を参照)について説明するが、例えば、オブジェクトを切り替える構成(図8を参照)などについても同様である。
(多視差表示デバイスを利用する場合(図17))
図17に示すように、電子機器10は、主に、多視差表示部121と、表示制御部122と、重畳情報保持部123とにより構成される。多視差表示部121は、図1又は図2のようにして多視差表示を実現可能な多視差表示デバイスである。表示制御部122は、多視差表示部121に情報を表示させる機能を有する。重畳情報保持部123は、情報を記憶しておく機能を有する。なお、電子機器10は、被写体を撮像する撮像部(非図示)、重畳情報以外の情報を記憶しておく記憶部(非図示)、GPS、ジャイロセンサ、加速度センサなどを有していてもよい。
例えば、図7に例示したケースについて考えてみよう。この場合、まず、表示制御部122は、被写体を撮像した撮像画像を多視差表示部121にリアルタイムに表示させる。次いで、重畳情報保持部123は、現在位置や撮像方向の情報など、被写体に含まれる対象物を特定するために利用可能な情報に基づき、対象物に関する関連情報を選択する。関連情報を選択した重畳情報保持部123は、撮像画像に重畳して表示する重畳情報として関連情報を表示制御部122に入力する。重畳情報を取得した表示制御部122は、撮像画像の対象物に対応する位置又は関連情報を表示すべき表示領域に重畳情報を表示する。
このとき、表示制御部122は、ユーザが見る方向に応じて見える画素群が異なることを考慮し、各方向に対応する画素群に対して異なる重畳情報を表示する。例えば、表示制御部122は、重畳情報を属性毎に仕分けるフィルタを利用し、各方向に予め対応付けられたフィルタを用いて重畳情報を仕分け、対応する画素群に仕分け後の重畳情報を表示させる。この場合、ユーザには、見る方向に応じて属性の異なる重畳情報が見えることになる。また、各方向に予め重畳情報の数が対応付けられている場合、表示制御部122は、各方向に対応する画素群に対し、ランダム又は所定のルールで数を絞り込んだ重畳情報を表示させる。この場合、ユーザには、見る方向に応じて異なる数の重畳情報が見えることになる。
表示制御部122による表示方法は、上記の例に限定されず、様々な変形が可能である。上記の例では、方向による属性の制御、方向による数の制御が実現されるが、例えば、重畳情報の詳細度合いや、対象物を含む表示領域の制御などについても同様にして実現可能である。なお、属性の識別には、例えば、「飲食」「ランチ」「雑貨」「銀行」「銀行ATM」「銀行窓口」「郵便局」「駅」「バス亭」など、対象物の特性を表すメタデータが利用可能である。このようなメタデータは、外部のシステムから取得してもよいし、予め用意して記憶部に保持していてもよい。
さて、多視差表示を利用する場合、表示制御部122は、重畳情報が用意できた段階で、全ての画素群に対して対応する重畳情報を表示させる。このように、ユーザが見る角度を変えたか否かにかかわらず事前に重畳情報を表示しておくことで、重畳情報の切り替えに要する待ち時間が発生しない。その結果、高速に表示内容の切り替えが可能になる。
以上、多視差表示を利用した操作手法を実現可能な電子機器10の機能構成について説明した。次に、ヘッドトラッキングを利用した操作手法を実現可能な電子機器10の機能構成について説明する。
(ヘッドトラッキングを利用する場合(図18))
図18に示すように、電子機器10は、主に、表示部131と、表示制御部132と、重畳情報保持部133と、撮像部134と、ヘッドトラッキング部135とにより構成される。なお、電子機器10は、被写体を撮像する撮像部(非図示)、重畳情報以外の情報を記憶しておく記憶部(非図示)、GPS、ジャイロセンサ、加速度センサなどを有していてもよい。
ここでも、図7に例示したケースについて考えてみたい。この場合、まず、表示制御部132は、被写体を撮像した撮像画像を表示部131にリアルタイムに表示させる。次いで、重畳情報保持部133は、現在位置や撮像方向の情報など、被写体に含まれる対象物を特定するために利用可能な情報に基づいて、対象物に関する関連情報を選択する。関連情報を選択した重畳情報保持部133は、撮像画像に重畳して表示する重畳情報として関連情報を表示制御部132に入力する。重畳情報を取得した表示制御部132は、撮像画像の対象物に対応する位置又は関連情報を表示すべき表示領域に重畳情報を表示する。
このとき、撮像部134は、ユーザを撮像する。ユーザを撮像した撮像画像は、逐次、撮像部134からヘッドトラッキング部135に入力される。ヘッドトラッキング部135は、ヘッドトラッキング技術を利用して撮像画像からユーザの所定部位を追跡し、その追跡結果から視点の位置を検出する。ヘッドトラッキング部135による検出結果は、フィルタ選択部136に入力される。検出結果が入力されると、フィルタ選択部136は、入力された検出結果が示す方向に基づいて当該方向に対応するフィルタを選択する。このフィルタは、例えば、属性により重畳情報を仕分けするものであってもよいし、重畳情報の数を制限するものであってもよい。フィルタ選択部136により選択されたフィルタの情報は、表示制御部132に入力される。
フィルタが入力された表示制御部132は、入力されたフィルタを用いて重畳情報を仕分け、表示部131に仕分け後の重畳情報を表示させる。この場合、ユーザには、仕分け後の重畳情報が見えることになる。また、ユーザが見る方向を変えると、フィルタ選択部136によりフィルタが変更され、表示制御部132により変更後のフィルタで仕分けされた重畳情報が表示部131に表示される。そのため、多視差表示を利用した場合と同様、ユーザは、見る方向を変えるだけで異なる重畳情報を見ることができる。
なお、表示制御部132による表示方法は、上記の例に限定されず、様々な変形が可能である。上記の例では、方向による属性の制御、方向による数の制御が実現されるが、例えば、重畳情報の詳細度合いや、対象物を含む表示領域の制御などについても同様にして実現可能である。なお、属性の識別には、例えば、「飲食」「ランチ」「雑貨」「銀行」「銀行ATM」「銀行窓口」「郵便局」「駅」「バス亭」など、対象物の特性を表すメタデータが利用可能である。このようなメタデータは、外部のシステムから取得してもよいし、予め用意して記憶部に保持していてもよい。
以上、ヘッドトラッキングを利用した操作手法を実現可能な電子機器10の機能構成について説明した。
(2−2−2:システムの基本的な動作(図19))
次に、図19を参照しながら、第1実施例に係るシステムの基本的な動作について説明する。図19は、第1実施例に係るシステムの基本的な動作について説明するための説明図である。
図19に示すように、まず、電子機器10は、ユーザが見ている方向(視線方向)を検出する(S111)。但し、多視差表示を利用する場合、視線方向の検出は不要である。次いで、電子機器10は、視線方向の検出結果に応じてフィルタを選択する(S112)。但し、多視差表示を利用する場合、電子機器10は、このステップにおいて、各視線方向に対応するフィルタを準備する。次いで、電子機器10は、重畳情報をステップS112で選択したフィルタに基づいてフィルタリングする(S113)。次いで、電子機器10は、フィルタリングした重畳情報を表示する(S114)。
以上、第1実施例に係るシステムの基本的な動作について説明した。
[2−3:(応用例)アプリケーションの制御]
これまで、視線方向に応じて重畳情報が切り替わるように、視線方向毎にフィルタを変更して表示する仕組みについて説明してきた。ここでは、この仕組みを応用して様々な表示制御を実現する方法について紹介する。
(2−3−1:視線方向に応じたアプリケーションの切り替え動作(図20))
まず、1つの応用例として、図20に示すような視線方向の移動によるアプリケーションの切り替え動作が考えられる。図20の例では、電子機器10を左側へと傾けた場合(右側から見た場合)に音楽プレーヤアプリケーションの画面が表示され、電子機器10を右側へと傾けた場合(左側から見た場合)にカメラアプリケーションの画面が表示されている。このように、第1実施例の技術を応用すると、異なる種類のアプリケーションを見る向きによって切り替えるユーザインターフェースが実現される。なお、多視差表示を利用する場合、表示内容を切り替えるわけではないため、アクティブな複数のアプリケーションにおいて操作ボタンなどのオブジェクトが同じ又は近い位置とならないように配置を工夫することが望まれる。
(2−3−2:視線方向に応じたツールの切り替え動作(図21))
また、他の1つの応用例として、図21に示すような視線方向の移動によるツールの切り替え動作が考えられる。図21の例では、電子機器10を左側へと傾けた場合(右側から見た場合)に第1のツールリスト(#1)が画面に表示され、電子機器10を右側へと傾けた場合(左側から見た場合)に第2のツールリスト(#2)が画面に表示される。このように、第1実施例の技術を応用すると、同じ種類のアプリケーションの中で、見る向きによってツール群を切り替えられるユーザインターフェースが実現される。なお、多視差表示を利用する場合、表示内容を切り替えるわけではないため、複数のツールリストにおいて各ツールのアイコンなどが同じ又は近い位置とならないように配置を工夫することが望まれる。
(2−3−3:視線方向に応じた再生速度の切り替え動作(図22))
また、他の1つの応用例として、図22に示すような視線方向の移動による再生速度の切り替え動作が考えられる。図22の例では、電子機器10を左側へと傾けた場合(右側から見た場合)に再生速度が減少し、電子機器10を右側へと傾けた場合(左側から見た場合)に再生速度が増加する。なお、速度の増減は、傾き量に応じて変化するようにしてもよいし、所定量だけ変化するようにしてもよいし、或いは、傾けている時間に応じて変化するようにしてもよい。このように、第1実施例の技術を応用すると、見る向きによって再生速度を切り替えられるユーザインターフェースが実現される。なお、この動作は、多視差表示を単体で利用する場合には向かず、ヘッドトラッキングなどの技術と組み合わせる必要がある。
以上、アプリケーションの制御に関する応用例を紹介した。
[2−4:(応用例)フィルタの構成]
次に、フィルタの構成に関する応用例を紹介する。
(2−4−1:重畳情報のフィルタリング(図23;具体例))
重畳情報をフィルタリングするフィルタとしては、例えば、図23に示すように、ATMフィルタ、食事フィルタ、交通機関フィルタなどが挙げられる。ATMフィルタを適用すると、例えば、「銀行」「郵便局」の重畳情報はパスするが、「焼肉店」「駅」「バス亭」は除外される。同様に、食事フィルタを適用すると、例えば、「焼肉店」の重畳情報はパスするが、「銀行」「駅」「バス亭」「郵便局」は除外される。また、交通機関フィルタを適用すると、例えば、「駅」「バス停」の重畳情報はパスするが、「銀行」「焼肉店」「郵便局」は除外される。このようにして重畳情報のフィルタリングを実行することができる。
(2−4−2:操作オブジェクトのフィルタリング(図24))
重畳情報の他にも、例えば、操作オブジェクトをフィルタリングする構成も考えられる。操作オブジェクトをフィルタリングするフィルタとしては、例えば、図24に示すように、写真フィルタ、MUSICフィルタ、MOVIEフィルタなどが挙げられる。写真フィルタを適用すると、例えば、「シャッター」「ズーム」の各オブジェクトはパスするが、「再生」「停止」「送信」の各オブジェクトは除外される。同様に、MUSICフィルタ又はMOVIEフィルタを適用すると、例えば、「再生」「停止」の各オブジェクトはパスするが、「シャッター」「ズーム」「送信」の各オブジェクトは除外される。このようにして操作オブジェクトのフィルタリングを実行することができる。
(2−4−3:コンテンツのフィルタリング(図25、図26))
重畳情報や操作オブジェクトの他にも、例えば、コンテンツをフィルタリングする構成も考えられる。音楽コンテンツをフィルタリングするフィルタとしては、例えば、図25に示すように、balladeフィルタ、waltzフィルタ、Etudeフィルタなど、音楽の特徴で分類するフィルタが挙げられる。また、映像コンテンツをフィルタリングするフィルタとしては、図26に示すように、ホラーフィルタ、アクションフィルタ、恋愛物語フィルタなど、映像の特徴で分類するフィルタが挙げられる。また、アーティストやジャンルなどでコンテンツを絞り込むフィルタなども考えられる。このようなフィルタを用いると、コンテンツのフィルタリングを実行することができる。

以上、フィルタの構成に関する応用例を紹介した。
[2−5:(応用例)覗き込み操作]
次に、覗き込み操作に関する応用例を紹介する。ここで言う覗き込みとは、画面に表示されている対象物を見ているユーザが、その対象物をより深い角度で見る動作を言う。このとき、ユーザの頭部と表示画面との距離などが考慮されてもよい。
(2−5−1:注視点に関連する情報の表示(図27))
例えば、図27に示すように、ユーザが注視している点(以下、注視点)について関連情報を表示している場面で、ほぼ正面から見ている場合(視点E2)には概要を表示し、覗き込んだ場合(視点E1)には詳細を表示するなどの応用例が考えられる。多くのユーザは、注視点にある対象物に対して興味が深くなり、その対象物を良く見ようとする場合に、その対象物を覗き込むような動作をしたり、顔を近づけたりする傾向にある。そこで、このような動作に連動して情報の詳細度を変えることにより、より直感的なユーザインターフェースが実現される。なお、ヘッドトラッキングを利用する場合であれば、ユーザの頭部と表示画面との距離も推測できるため、その推測結果に応じて詳細度を徐々に高めるような構成にしてもよい。
(2−5−2:注視角度に応じたフィルタリング(図28))
また、覗き込み動作をユーザインターフェースとして考える上で、ユーザが覗き込む角度(以下、注視角度)も考慮に入れることが望ましい。例えば、図28に示すように、注視角度に応じてフィルタの種類を切り替えるように構成することが可能である。図28の例では、注視角度0°〜10°の場合に店名フィルタが適用され、注視角度が11°〜20°の場合に職種フィルタが適用され、注視角度が21°〜30°の場合に価格帯フィルタが適用される。さらに、注視角度が31°〜の場合、全てのフィルタが適用される。なお、注視角度が大きくなるにつれて適用対象のフィルタ数が多くなるようにすれば、注視角度に応じて絞り込み度合いが大きくなる。逆に、注視角度が大きくなるにつれて適用対象のフィルタ数が少なくなるようにすれば、注視角度に応じて絞り込み度合いが小さくなる。また、適用するフィルタの組み合わせを工夫することで、注視角度に応じて徐々にユーザの嗜好に適した絞り込みができるようにすることも可能である。
(2−5−3:覗き込みによる拡大/縮小(図29、図30))
また、覗き込み動作に応じて表示の拡大/縮小を制御できるようにする仕組みも考えられる。例えば、図29に示すように、注視角度が大きくなるにつれて表示倍率が大きくなるように構成することが可能である。また、図30に示すように、表示画面とユーザの頭部との間の距離に応じて表示倍率が変化するように構成することも可能である。さらに、これらを組み合わせ、頭部の2次元又は3次元的な動作により表示倍率を自由に変更できるように構成することも可能である。この場合、図29に示した表示倍率と、図30に示した表示倍率との積などに基づいて最終的な表示倍率を決めればよい。
以上、覗き込み操作に関する応用例を紹介した。
[2−6:(応用例)表示内容の固定]
次に、表示内容を固定する操作の例を紹介する。見る方向に応じて表示内容を切り替えられる仕組みは有用であるが、ある方向に対応する表示内容で固定し、その表示内容を正面から見たい場合などもある。そこで、このような場合に対応するための仕組みについて紹介する。
(2−6−1:ジェスチャーによる表示内容の固定(図31))
例えば、図31に示すように、ジェスチャーにより表示内容を固定する方法が考えられる。ジェスチャーとしては、例えば、電子機器10を左右に揺さぶるなどの方法が考えられる。また、大きく揺さぶったり、素早く揺さぶったりすることで表示内容が固定されるようにする方法も考えられる。こうしたジェスチャーの検出は、電子機器10に搭載された加速度センサやジャイロセンサなどを利用して実現可能である。また、撮像画像の変化からジェスチャーを検出する方法も考えられる。この方法を用いると、見る方向を変えず、手軽に固定操作が行える。
(2−6−2:所定領域への視線移動による表示内容の固定(図32))
また、図32に示すように、視線方向を所定の領域へ移動した場合(視線方向Q2)、或いは、視線方向を素早く画面外に移動した場合に表示内容を固定する方法が考えられる。この場合、視線方向の変化に応じて表示内容が切り替わってしまう可能性もあるため、視線方向の変化時間や変化量に応じて表示内容の固定操作なのか、表示内容の切り替え操作なのかを判定する仕組みが設けられている方が好ましい。また、所定領域へ視線方向が移動した場合に、例えば、視線方向の移動前に表示されていた表示内容に戻す機能などを追加することで、表示内容の固定操作をユーザが安心して行えるようになると期待される。このような追加も必要に応じて行われることが好ましい。
(2−6−3:静止時間に基づく表示内容の固定(図33))
また、図33に示すように、視線が静止した時間に基づいて表示内容を固定する方法も考えられる。多くの場合、長い時間、同じ注視点に視線方向を向けておくことは難しい。そのため、ユーザが故意にそのような動作を行わない限り、長い時間、視線が静止した状態を保つことはほとんどない。そこで、ユーザの故意を判定するために、視線の静止時間を利用する方法は有効である。図33に示すように、短い時間の視線停止は表示内容の固定とみなさず、長い時間の視線停止を表示内容の固定と判定する仕組みとすればよい。視点の長時間静止動作は人が凝視する動作と通じるため、この仕組みにより、より直感的なユーザインターフェースが実現される。
(2−6−4:瞬き(表情変化)による表示内容の固定(図33))
また、図33に示すように、表示内容の固定を解除する仕組みも設けることが望ましい。その方法として、図33に示すように、視線の微細動や瞬きなどが考えられる。また、偶然の瞬きで固定が解除されないよう、所定回数の瞬きや、瞬きのパターンなどにより固定解除が行われるようにすることが好ましい。
以上、表示内容の固定操作について紹介した。
[2−7:適用例]
これまで説明してきた第1実施例に係る技術は、様々な機器に適用可能である。例えば、携帯電話、携帯情報端末、携帯ゲーム機、携帯音楽プレーヤ、携帯映像プレーヤなどの携帯機器に適用可能である。また、デジタルサイネージ端末など、街角に設置された大型のディスプレイ装置に適用することも可能である。さらに、テレビジョン受像機や撮像装置などの映像機器に対して適用することもできる。また、テレビジョン受像機と組み合わせて、セットトップボックス、録画再生装置、或いは、ゲーム機などに適用することもできる。その他にも、例えば、カーナビゲーションシステムに適用したり、ATM、自動券売機、自動販売機などの装置に対しても適用可能である。但し、少なくとも表示機能を有するか、表示機能を搭載した機器に接続された装置であることが必要である。
[2−8:効果]
第1実施例の構成を適用すると、ユーザは、所定部位を移動させるか、或いは、機器を傾けるだけで表示情報を切り替えることが可能になり、物理的なインターフェースデバイスに接触しない方法で快適に操作を行うことができるようになる。例えば、表示画面を有するデバイスを片手で把持し、そのデバイスを傾けたり、自身の所定部位を傾けたりするだけで、表示情報の切り替えが可能になる。その結果、片手に荷物を抱えている場合など、自由に両手が使えない場面においても快適に操作を行うことができるようになる。また、携帯ゲーム機など、両手で操作する機器において、両手の操作とは異なる追加的な操作を行うことが可能になる。
以上、第1実施例について説明した。
<3:第2実施例(情報の選択など)の詳細>
以下、第2実施例について詳細に説明する。
[3−1:構成例#1の場合]
構成例#1の場合、第2実施例に係る電子機器20の機能構成及びサーバ30の機能構成は、例えば、以下のように表現される。
(3−1−1:電子機器の機能構成(図34))
まず、図34を参照しながら、電子機器20の機能構成について説明する。図34は、視線方向を利用してオブジェクトを選択する操作手法を実現可能な電子機器20の機能構成を示した説明図である。なお、ここでは説明の都合上、第2実施例に係る操作手法によって、3D表示されたオブジェクトを選択する構成(図9を参照)について説明するが、例えば、深度情報を有する2D表示されたオブジェクトを選択する構成などについても同様である。
図34に示すように、電子機器20は、主に、表示部201と、表示制御部202と、通信部203と、撮像部204と、視線方向検出部205とにより構成される。なお、電子機器20は、被写体を撮像する撮像部(非図示)、情報を記憶しておく記憶部(非図示)、GPS、ジャイロセンサ、加速度センサなどを有していてもよい。
表示部201は、3D表示又は2D表示の方式でオブジェクトを表示する機能を有する。表示制御部202は、表示部201にオブジェクトを表示させる。また、表示制御部202は、オブジェクトを強調表示させたり、追加情報を表示させたり、或いは、オブジェクトの表示位置を移動させたりする。通信部203は、サーバ30と通信する。また、撮像部204は、ユーザを撮像する。
撮像部204により撮像された撮像画像は、視線方向検出部205に入力される。撮像画像が入力されると、視線方向検出部205は、撮像画像からユーザの視線方向を検出する。例えば、視線方向検出部205は、上述したヘッドトラッキング技術や他の画像解析手法を利用して頭部の向きや目の位置などを検出し、ユーザの視線方向を検出する。視線方向検出部205により検出された視線方向の情報(以下、視線情報)は、通信部203を介してサーバ30に送信される。このとき、通信部203は、視線情報と共に、オブジェクトの表示位置を示す情報(以下、表示情報)をサーバ30へと送信する。
また、後述するように、サーバ30は、表示情報及び視線情報に基づいてオブジェクトを選択し、その選択結果を電子機器20に送信する。この選択結果は、通信部203により受信され、表示制御部202に入力される。選択結果が入力されると、表示制御部202は、入力された選択結果に基づいてオブジェクトの表示を変化させたり、選択されたオブジェクトに対応する処理を実行したりする。
以上、電子機器20の機能構成について説明した。
(3−1−2:サーバの機能構成(図35))
次に、図35を参照しながら、サーバ30の機能構成について説明する。図35に示すように、サーバ30は、主に、通信部311と、視線解析部312とにより構成される。通信部311は、電子機器20と通信するための通信デバイスである。視線解析部312は、通信部311を介して電子機器20から取得した視線情報及び表示情報に基づいてオブジェクトを選択する機能を有する。例えば、視線解析部312は、視線情報で特定される視線と、表示情報で特定される各オブジェクトの表示範囲とが交差するか否かを判定する。さらに、視線解析部312は、各オブジェクトに対する視線の交差数が所定数を越えたか否かを判定する。そして、視線解析部312は、交差数が所定数を越えたオブジェクトを選択し、通信部311を介して選択結果を電子機器20に送信する。
以上、サーバ30の機能構成について説明した。なお、オブジェクトの選択方法については、具体例を交えて後段で詳述する。
(3−1−3:システムの基本的な動作(図36、図37))
ここで、図36及び図37を参照しながら、第2実施例に係るシステムの基本的な動作について説明する。図36及び図37は、第2実施例に係るシステムの基本的な動作について説明するための説明図である。
図36に示すように、まず、電子機器20は、ユーザの視線方向を検出し(S201)、視線情報及び表示情報をサーバ30へと送信する。次いで、サーバ30は、視線情報及び表示情報に基づいて解析処理を実行し(S202)、オブジェクトに交差する視線の数(以下、視線交差数)を算出する。図37の例では、視線Q1〜Q3がオブジェクトOBJ1と交差しており、視線Q3がオブジェクトOBJ2と交差している。そのため、サーバ30は、オブジェクトOBJ1の視線交差数w1をw1=3、オブジェクトOBJ2の視線交差数w2をw2=1と算出する。
次いで、サーバ30は、視線交差数の多いオブジェクトを選択し(S203)、選択結果を電子機器20に送信する。このとき、サーバ30は、視線交差数が最大となるオブジェクト又は視線交差数が所定の閾値Wthを越えたオブジェクトを選択する。図37の例では、例えば、視線交差数が最大のオブジェクトOBJ1が選択される。次いで、電子機器20は、サーバ30により選択されたオブジェクトを強調表示する(S204)。
例えば、電子機器20は、図37に示すように、選択されたオブジェクトの色を変化させる。なお、視線交差数が更新される度に、オブジェクトの色が変化するように構成されていてもよい。また、選択結果を電子機器20に送信したサーバ30は、解析処理の過程で得られた結果(例えば、選択されたオブジェクトの情報や視点交差数の分布など)の履歴を更新する(S206)。また、ここではオブジェクトを選択するタイミングについて言及しなかったが、所定のタイミングで選択処理が実行されるようにしてもよいし、オブジェクトに対する視線交差数が閾値Wthを越えたタイミングで選択処理が実行されるようにしてもよい。
以上、第2実施例に係るシステムの基本的な動作について説明した。
[3−2:構成例#2の場合]
構成例#2の場合、第2実施例に係る電子機器20の機能構成は、例えば、以下のように表現される。
(3−2−1:電子機器の機能構成(図38))
まず、図38を参照しながら、電子機器20の機能構成について説明する。図38は、視線方向を利用してオブジェクトを選択する操作手法を実現可能な電子機器20の機能構成を示した説明図である。なお、ここでは説明の都合上、第2実施例に係る操作手法によって、3D表示されたオブジェクトを選択する構成(図9を参照)について説明するが、例えば、深度情報を有する2D表示されたオブジェクトを選択する構成などについても同様である。
図38に示すように、電子機器20は、主に、表示部211と、表示制御部212と、視線解析部213と、撮像部214と、視線方向検出部215とにより構成される。なお、電子機器20は、被写体を撮像する撮像部(非図示)、情報を記憶しておく記憶部(非図示)、GPS、ジャイロセンサ、加速度センサなどを有していてもよい。
表示部211は、3D表示又は2D表示の方式でオブジェクトを表示する機能を有する。表示制御部212は、表示部211にオブジェクトを表示させる。また、表示制御部212は、オブジェクトを強調表示させたり、追加情報を表示させたり、或いは、オブジェクトの表示位置を移動させたりする。視線解析部213は、視線方向の検出結果に基づいて各オブジェクトの視線交差数を算出し、その算出結果に基づいてオブジェクトを選択する。また、撮像部214は、ユーザを撮像する。
撮像部214により撮像された撮像画像は、視線方向検出部215に入力される。撮像画像が入力されると、視線方向検出部215は、撮像画像からユーザの視線方向を検出する。例えば、視線方向検出部215は、上述したヘッドトラッキング技術や他の画像解析手法を利用して頭部の向きや目の位置などを検出し、ユーザの視線方向を検出する。視線方向検出部215により検出された視線方向の情報(視線情報)は、視線解析部213に入力される。また、視線解析部213には、表示制御部212から各オブジェクトの表示位置を示す表示情報が入力される。
視線情報及び表示情報が入力されると、視線解析部212は、入力された表示情報及び視線情報に基づいてオブジェクトを選択し、その選択結果を表示制御部212に入力する。例えば、視線解析部213は、視線情報で特定される視線と、表示情報で特定される各オブジェクトの表示範囲とが交差するか否かを判定する。さらに、視線解析部213は、各オブジェクトに対する視線の交差数が所定数を越えたか否かを判定する。そして、視線解析部213は、交差数が所定数を越えたオブジェクトを選択する。選択結果が入力されると、表示制御部212は、入力された選択結果に基づいてオブジェクトの表示を変化させたり、選択されたオブジェクトに対応する処理を実行したりする。
以上、電子機器20の機能構成について説明した。
(3−2−2:システムの基本的な動作(図39))
ここで、図39を参照しながら、第2実施例に係るシステムの基本的な動作について説明する。図39は、第2実施例に係るシステムの基本的な動作について説明するための説明図である。
図39に示すように、まず、電子機器20は、ユーザの視線方向を検出する。(S211)。次いで、電子機器20は、視線情報及び表示情報に基づいて解析処理を実行し(S212)、オブジェクトに交差する視線の数(視線交差数)を算出する。前出の図37の例では、視線Q1〜Q3がオブジェクトOBJ1と交差しており、視線Q3がオブジェクトOBJ2と交差している。そのため、電子機器20は、オブジェクトOBJ1の視線交差数w1をw1=3、オブジェクトOBJ2の視線交差数w2をw2=1と算出する。
次いで、電子機器20は、視線交差数の多いオブジェクトを選択する(S213)。このとき、電子機器20は、視線交差数が最大となるオブジェクト又は視線交差数が所定の閾値Wthを越えたオブジェクトを選択する。前出の図37の例では、例えば、視線交差数が最大のオブジェクトOBJ1が選択される。次いで、電子機器20は、選択したオブジェクトを強調表示する(S214)。
例えば、電子機器20は、前出の図37に示すように、選択されたオブジェクトの色を変化させる。なお、視線交差数が更新される度に、オブジェクトの色が変化するように構成されていてもよい。また、電子機器20は、解析処理の過程で得られた結果(例えば、選択されたオブジェクトの情報や視点交差数の分布など)の履歴を更新する(S215)。また、ここではオブジェクトを選択するタイミングについて言及しなかったが、所定のタイミングで選択処理が実行されるようにしてもよいし、オブジェクトに対する視線交差数が閾値Wthを越えたタイミングで選択処理が実行されるようにしてもよい。
以上、第2実施例に係るシステムの基本的な動作について説明した。
[3−3:(補足)奥行き表現]
ここで、奥行き表現の扱い方について説明を補足する。
(3−3−1:3D表示(図40))
左目と右目とで見える画素群が異なるようにし、視差を考慮した2種類の画像をそれら画素群に表示させることで3D表示が実現されることについては既に述べた。3D表示の場合、視差が変化するように2種類の画像を調整することで、図40に示すように、奥行き方向にオブジェクトの表示位置を制御することができる。実際、2種類の画像は表示画面上に表示されているのであるが、ユーザには、視差でおおよそ規定される奥行きだけオブジェクトが飛び出して見えるのである。この飛び出し量は、視差などのパラメータから容易に算出することができる。従って、電子機器20は、ユーザが認識するであろう3次元空間内におけるオブジェクトの位置を把握できる。
3D表示されたオブジェクトを視線で追うユーザは、3次元空間内に視線を走らせるであろう。しかし、上記のように画像は表示画面上に表示されている。そこで、3D表示の場合、電子機器20は、ユーザが認識するであろう3次元空間内におけるオブジェクトの位置を把握しておき、その位置と実際にユーザが向ける視線とが交差するか否かを判定する。そして、電子機器20は、その判定結果に基づいてオブジェクトを選択する。このように、3D表示の場合、オブジェクトの仮想的な飛び出し量を考慮して視線の交差判定を実施する必要がある。
(3−3−2:2D表示+奥行き情報(図41))
一方、2D表示の場合、ユーザは、表示画面上に表示された画像をそのまま認識することになる。従って、表示画面からオブジェクトが飛び出すことはない。しかし、2D表示であっても、図41に示すように、奥行き感のある画像は存在する。例えば、同じ身長の人であっても、手前に映っている人は大きく、奥側に映っている人が小さくなる。そのため、2D表示であっても、画像から奥行きを検出することが可能である。
また、動画などの場合、一定速度で移動しながら撮影した映像を見ると、手前の物体は移動速度に近い速度で後方に過ぎ去るが、遠くにある山や雲は画角から外れるまでの時間がとても長い。このような原理から映像内の奥行きを検出することも可能である。このような奥行き感は、ユーザも同様に感じる。そのため、奥行き感のある2D表示の画像や映像に対しても、ユーザは奥行きを意識して視線を向けることができる。従って、2D表示であっても、奥行き情報を考慮することで、3D表示の場合と同様のアルゴリズムで第2実施例に係るオブジェクトの選択手法を適用することができる。
以上、奥行き表現の扱い方について説明した。
[3−4:オブジェクト選択方法#1(単ユーザ)]
以下、オブジェクトの選択方法について、より詳細に説明する。また、具体例を挙げながら、その応用例について紹介する。なお、ここでは1人のユーザが視線を移動させつつ、オブジェクトを選択する操作手法について述べる。
(3−4−1:視線交差数に基づく選択方法(図42〜図44))
まず、これまでも説明した視線交差数に基づく選択方法について、より詳細に説明する。図42に示すように、視線が検出されると、その視線と交差するオブジェクト(以下、交差オブジェクト)が検出される。図42の例では、視線Q1に対し、オブジェクトOBJ1〜OBJ3が交差オブジェクトとして選択される。これらの交差オブジェクトは、最終的に選択されるオブジェクト(以下、注視オブジェクト)の候補として選択される。注視オブジェクトの候補は、図42に示すように、所定の表現方法(例えば、色彩、明度、点滅、透明化/不透明化、ぼかしなど)で強調表示されてもよい。
次に、図43に示すように、視点が移動して新たな視線Q2が検出されると、視線Q2に対し、交差オブジェクトが検出される。図43の例では、オブジェクトOBJ1及びOBJ2が交差オブジェクトとして検出される。このとき、電子機器20は、オブジェクトOBJ1及びOBJ2の視線交差数を2に更新する。また、オブジェクトOBJ1及びOBJ2はさらに強調表示されてもよい。例えば、絞り込みが進むにつれて強調度合いが強くなるように(例えば、色を濃くするなど)表現を変更する構成などが考えられる。
次に、図44に示すように、視点が移動して新たな視線Q3が検出されると、視線Q3に対し、交差オブジェクトが検出される。図44の例では、オブジェクトOBJ2が交差オブジェクトとして検出される。このとき、交差オブジェクトの数が1つに絞られたため、電子機器20は、オブジェクトOBJ2を注視オブジェクトとして選択する。なお、ここでは一例として、1つに絞り込まれるまで視線の検出及び交差オブジェクトの選択を繰り返す方法を紹介したが、あるタイミングで視線交差数が最大のオブジェクトを注視オブジェクトして選択する方法なども考えられる。
また、あるタイミングで視線交差数が多い所定数又は所定数以下のオブジェクトを注視オブジェクトとして選択する方法も考えられる。なお、視線の検出は、所定の時間間隔で周期的に実施されてもよいし、所定のパターンで検出されるようにしてもよい。また、注視オブジェクトの選択処理は、ユーザが手動で開始及び終了の操作をしてもよいし、タイマーやプログラムなどを利用して自動的に開始及び終了の操作が行われるようにしてもよい。このような視線交差数に基づいてオブジェクトを選択する仕組みを利用すると、ユーザは、視線を動かすだけで所望のオブジェクトを選択することが可能になる。例えば、遠くにあるディスプレイに映ったオブジェクトを操作することなどが可能になる。
なお、オブジェクトの選択という操作について説明しているが、注視オブジェクトが選択されたタイミングで所定の処理が実行されるようにすれば、視線だけで電子機器20を複雑に制御することも可能である。その場合、各処理に対応する操作オブジェクトを表示しておくなどの工夫をしておくことが望まれる。例えば、音楽プレーヤの再生ボタンや停止ボタン、コンテンツの切り替え操作オブジェクトなどを表示し、各オブジェクトに対応する処理が実行されるようにする構成などが考えられる。また、早送りボタンを表示し、そのボタンに対する視線交差数に応じて再生速度が段階的に大きくなるような構成も考えられる。このような変形についても、当然に第2実施例の技術的範囲に属する。
(注視オブジェクトが明らかな場合の選択処理について)
複数のオブジェクトの中から注視オブジェクトを選択する方法について述べたが、対象とするオブジェクトの数が1つの場合や、視線の交差が検出されたオブジェクトの周囲に他のオブジェクトが存在しない場合などは、視線の交差が検出されたオブジェクトを即座に選択する仕組みとする方法も考えられる。例えば、視線交差数が所定の閾値を越えなくても、即座にオブジェクトが選択されるため、選択の遅延によりユーザに与えるストレスを格段に軽減することが可能になる。
(3−4−2:オブジェクトの領域分割(図45、図46))
さて、これまではほぼ同じ大きさのオブジェクトの中から1つのオブジェクトを注視オブジェクトとして選択する方法について述べてきた。しかし、オブジェクトのサイズは、多くの場合、図45に示すように様々である。そのため、大きなサイズのオブジェクトがあると、そのオブジェクトに視線が集中してしまい、大きなオブジェクトの裏側にあるオブジェクトや小さなサイズのオブジェクトが選択されにくくなってしまう。図45の例では、オブジェクトOBJ1の影にあるオブジェクトOBJ2は選択されにくい。
そこで、図46に示すように、各オブジェクトを所定サイズのブロックに分け、各ブロックの視線交差数をカウントする方法を提案する。この方法は、各ブロックの視線交差数をカウントした後、その各ブロックを含むオブジェクト全体における1ブロック当たりの平均視線交差数を求め、その平均視線交差数に基づいてオブジェクトを選択するというものである。所定サイズよりも小さなオブジェクトの場合には、サイズの比率分だけ視線交差数に重み付けすればよい。このような構成にすると、小さなサイズのオブジェクトが選択されにくい状況を改善することが可能になる。
なお、平均視線交差数をそのままオブジェクトの選択に用いる構成を紹介したが、平均視線交差数に基づく重み値を用いて実際の視線交差数に重み付けし、重み付け後の視線交差数に基づいてオブジェクトを選択する構成も考えられる。このように重み値で調整することにより、小さなサイズのオブジェクトが選択されやすくなる度合いと、大きなサイズのオブジェクトが選択されやすくなる度合いとをバランス良く調整することが可能になる。
上記のように、大きなオブジェクトを複数ブロックに領域分割し、そのサイズに応じた重みを付けて選択されやすさを調整する方法を用いると、小さなサイズのオブジェクトはすぐに選択されるが、大きなサイズのオブジェクトはなかなか選択されないといった状況が生じるかもしれない。しかし、このような状況は、ちょうど、小さな物体には熱が全体に素早く伝わるが、大きな物体には熱が全体になかなか伝わらない様子に似ている。従って、ユーザは、大きなサイズのオブジェクトにはじっくりと視線を送る必要があることを直感的に認識し、直感に従って違和感なく操作できるようになるだろう。
このように、領域分割する構成を適用すると、直感的なユーザインターフェースの実現にも寄与する。
(3−4−3:注視時間に基づく選択判定(図47))
さて、視線を小さな領域に正確に向け続けることは比較的難しい。しかし、この性質を逆に利用して選択精度を高める方法が考えられる。例えば、図47に示すように、視点が所定時間より長く静止した状態になった場合に、そのオブジェクトを選択するか、視線交差数に大きな重みを付けるなどの方法が考えられる。あるオブジェクトに視線が交差した状態で長い時間静止しているということは、ユーザが強い意志を持って、そのオブジェクトを選択しようとしていると考えられる。そのため、視線の静止が所定時間以上続いた場合に、そのオブジェクトを選択すれば、ユーザの強い意志を反映した選択結果が得られる。
また、重なって表示されている複数のオブジェクトと交差する視線が静止した場合に、奥側に位置するオブジェクトが選択されるような構成にしてもよい。奥にある物体を透かしてみようとする場合、或いは、一部分だけがはみ出した物体を見ようとする場合、ユーザは、その物体を凝視する。つまり、ユーザは、ある程度の高い集中力を持って視線を静止させようとする。上記の構成は、このような自然な動作をユーザインターフェースとして実現したものと言える。従って、かかる構成により、ユーザは、より直感的な操作を行うことが可能になるのである。
(3−4−4:視線の移動速度に基づく選択判定(図48))
また、視線を静止させることに加え、視線の移動速度を考慮することで、さらにオブジェクトの選択精度を高めたり、操作性を高めたりすることが可能になる。先に述べたように、大きなサイズのオブジェクトよりも奥に位置する小さなサイズのオブジェクトは選択しづらい。これに対し、オブジェクトを領域分割する方法については既に述べた通りであるが、図48に示すように、視線の移動速度を考慮してオブジェクトが選択されるようにしても、同様の効果が期待できる。
図48に示すように、奥側にあるオブジェクトに視線を向けたまま、ゆっくりと視線を移動させると、オブジェクトOBJ2に対する視線交差数が大きく上昇する。従って、オブジェクトOBJ2が選択される確率は高まる。しかし、奥側にあるオブジェクトが大きく隠れてしまっている場合、ゆっくりと視線を移動させても十分に選択される確率が高まらない可能性がある。そこで、視線の移動速度に応じて視線交差数に重み付けする構成が考えられる。例えば、視線の移動速度が半分になった場合、その速度で移動中に視線が交差したオブジェクトに対し、1.5倍の視線交差数を付与するなどの仕組みが考えられる。
また、視線の移動速度に応じて、視線交差を検出する際の分解能を変化させる仕組みも考えられる。ここで言う分解能とは、例えば、(分解能)=(基準速度V0)/(実際の速度V)で定義される。この分解能を乗じた頻度で視線交差数を検出することにより、実際の速度Vが小さい場合には高頻度で視線交差数の検出が行われるようになる。その結果、ユーザが視線をゆっくりと移動させている際に視線が交差したオブジェクトに対する視線交差数がより大きくなり、ユーザの意図をより正確に反映したオブジェクトの選択が行われるようになる。このような仕組みを用いると、小さなサイズのオブジェクトや奥側にあるオブジェクトが選択しやすくなる。
(3−4−5:ジェスチャーによる確定操作(図49))
これまでは、あるタイミングで自動的にオブジェクトの選択状態が確定されていたが、ユーザが自分の意志で任意に選択状態を確定できるようにすることが望まれるケースもある。例えば、交差オブジェクトが1つに絞り込まれていないが、現在選択されている複数の交差オブジェクトを即座に注視オブジェクトとして選択したい場合などが該当する。
そこで、図49を参照しながら、ジェスチャーを利用して選択状態を確定させる仕組みについて紹介する。ジェスチャーとしては、例えば、小刻みに視線方向を移動させたり、所定のパターンで視線方向を変化させたり、視線の移動速度を所定のパターンで変化させたりする方法などが考えられる。また、表情認識技術を活用し、ユーザの表情が所定の表情(例えば、笑顔やしかめっ面など)になった場合に選択状態を確定させるといった方法も考えられる。こうした方法であれば、あくまでも視線の移動を含む頭部の動きによる操作手法の範囲内で確定操作を実現することができる。
もちろん、ポインティングデバイスを併用したり、頭部以外の部位(例えば、手など)を動かすジェスチャーを併用したりする方法も考えられる。こうした方法の場合、頭部以外の部位を動かす動作が必要になるが、細かい操作や、より正確な操作が求められる場面では、頭部の動きで操作するよりも、より精度良く容易な操作が可能になる。従って、利用形態やオブジェクトの種類などに応じて、これらの仕組みを組み合わせて利用することが望まれる。
(3−4−6:瞬き(表情変化)による確定操作(図49))
また、視線を移動するのではなく、視線を消失させる方法が考えられる。つまり、ユーザの瞬きを検出して、その瞬きに応じてオブジェクトの選択状態を確定させるのである。また、類似の考え方で、表情変化によりオブジェクトの選択状態を確定させるユーザインターフェースも考えられる。表情変化は、リアルタイムで撮像された顔画像の特徴量変化から検出することができる。また、特定の表情に変化した場合にオブジェクトの選択状態が確定されるように構成することも可能である。いずれの方法も、視線移動に基づく操作手法の範囲内で確定操作を実現することができる。
(3−4−7:オブジェクトの移動による絞り込み操作の補助(図50、図51))
これまで紹介した方法を適用することで、多くの場合、ユーザは快適にオブジェクトの選択操作を行うことができると期待される。しかしながら、どのようなユーザであっても熟練を要せずに利用できるようなユーザインターフェースを実現することが究極的には求められる。そこで、注視オブジェクトの候補を識別しやすくすると同時に、次の絞り込み操作を行いやすくすることを目的として、図50のように、候補以外のオブジェクトを移動させる構成を提案する。
また、候補以外のオブジェクトを移動させる代わりに、候補以外のオブジェクトの表示を一時的又は永続的に抑制する方法も考えられる。表示を抑制する方法としては、例えば、表示を消したり、半透明な表示にしたりする方法などが考えられる。このような構成を適用すると、絞り込み過程が一目で把握できるようになる上、次の絞り込み操作を格段に容易ならしめることができる。
また、視線によるオブジェクトの絞り込み操作が難しくなる場面として、複数のオブジェクトが近隣に位置する状況が考えられる。このような状況において、これら複数のオブジェクトに対して、ほぼ同数の視線交差数が維持され、いつまでも絞り込みが進まないといった事態になる可能性がある。そこで、図51に示すように、注視オブジェクトの候補として選択されたオブジェクトをそれぞれ異なる方向に移動させ、移動中に視線の追従を検出したオブジェクトを注視オブジェクトとして選択する仕組みを提案する。
具体的には、移動中のオブジェクトに対する視線交差数が増加した場合には、そのオブジェクトに視線が追従しているものと判定し、そのオブジェクトを注視オブジェクトとして選択する仕組みなどが考えられる。このような仕組みを設けることで、選択判定の精度向上と操作性の向上が期待できる。
(3−4−8:選択オブジェクトの変更(図52))
これまではオブジェクトの選択が確定するまでの操作手法について説明してきた。しかし、注視オブジェクトを変更したい場合もある。そこで、時間の経過と共に、各オブジェクトに対する視線交差数が漸減する仕組みを提案する。また、この仕組みと共に、視線交差数に最大数を設ける仕組みを提案する。例えば、オブジェクトOBJ1を注視すると、図52の区間1に示すように、オブジェクトOBJ1に対する視線交差数が増加する。しかし、視線交差数が最大数に達すると、視線が向いていても視線交差数が最大数に固定される(区間2を参照)。また、オブジェクトOBJ1から視線が逸れると、時間の経過とともに視線交差数が減少する(区間3〜区間5を参照)。
また、オブジェクトOBJ1から視線を逸らし、一方でオブジェクトOBJ2に視線を向けると、オブジェクトOBJ2に対する視線交差数が増加する(区間2〜区間5)。そして、区間4においてオブジェクトOBJ2の視線交差数がオブジェクトOBJ1の視線交差数を越え、区間5の始点においてオブジェクトOBJ1の視線交差数が所定の閾値(選択確定用閾値)を越える。この時点でオブジェクトOBJ2が注視オブジェクトとして選択される。一方、オブジェクトOBJ1は、区間3の終点で所定の閾値を下回り、注視オブジェクトとして選択された状態が解除される。このように、上記の仕組みを適用すると、視線の移動だけで注視オブジェクトの選択状態を切り替えることが可能になる。
以上、オブジェクトの選択手法などについて説明した。
[3−5:オブジェクト選択方法#2(複数ユーザ)]
次に、複数のユーザが向ける視線に基づいてオブジェクトを選択する方法について述べる。なお、上記のオブジェクト選択方法#1をそのまま複数ユーザのケースに適用することも可能である。そのため、ここでは複数ユーザのケースに対して適用すべき特有の工夫について紹介する。
(3−5−1:視線交差数に基づく選択方法(図53))
上記のオブジェクト選択方法#1の場合、ある期間に検出された視線とオブジェクトとの交差数に基づいてオブジェクトの選択を行っていた。しかし、複数のユーザが視線を向けている場合、図53に示すように、ある瞬間の視線交差数をカウントすることが可能になる。また、視線交差数の分布が時間的に変化する様子を検出したり、その検出結果を統計的に処理してマーケティングなどに利用する方法も考えられる。この場合、あるタイミングで検出された複数の視線のそれぞれについて、各オブジェクトとの交差を判定し、各オブジェクトに対する視線交差数が多い1つ又は所定数のオブジェクトを注目オブジェクトとして選択することになる。
(3−5−2:物体識別結果に基づく個人化(年齢/性別/登録者など)(図54))
また、顔認識技術などを組み合わせると、各ユーザを識別することができるため、図54に示すように、各ユーザがそれぞれ注視オブジェクトを選択することが可能になる。この場合、どのユーザがどのオブジェクトを選択したかが判別できるように、注視オブジェクト又はその候補として選択されたオブジェクトに、ユーザを識別できる何らかの表示(例えば、ユーザに割り当てた色、ユーザ名、ID、顔写真、アバターなど)を付与することが望ましい。また、ユーザ単位ではなく、グループ単位でオブジェクトの選択ができるようにしてもよい。この場合、グループと各ユーザとを対応付けるグループ情報を用意しておき、顔識別結果とグループ情報とを利用して、各視線とグループとの対応関係を認識できるようにすればよい。
(3−5−3:選択結果の順位付け表示(図55))
第2実施例に係る技術を適用すると、複数ユーザによる各オブジェクトへの注視状況が視線交差数として得られる。そのため、視線交差数に基づいてオブジェクトを順位付けることも可能になる。また、顔認識技術などを利用すると、各ユーザの年齢や性別などを判別できるため、図55に示すように、年齢層毎や性別毎にオブジェクトの注視度ランキングを生成することが可能になる。このような注視度ランキングの情報は、リアルタイムに表示画面に表示してもよいし、その情報を統計的に処理してマーケティングなどに利用してもよい。
例えば、第2実施例に係る技術をデジタルサイネージ端末で実施した場合、街角で新商品の人気投票を簡単に行うことが可能になる。また、各家庭のテレビジョン受像機に第2実施例に係る技術を適用すれば、性別毎や年代毎に人気のある番組出演者を抽出したり、家族構成毎に人気のあるCM中の商品を検出したりすることなども可能になる。このように、第2実施例に係る技術は、操作性の高い優れたユーザインターフェースを実現するだけでなく、様々な統計データの収集に利用することが可能である。
以上、オブジェクトの選択手法などについて説明した。
[3−6:注視状況の表示]
次に、注視状況の表示方法について説明する。
(3−6−1:視線交差数に応じた強調表示(色/動き/透過など)(図56))
これまでも簡単に紹介してきたが、オブジェクトの選択過程において、ユーザに選択状況を知らせることは有意義である。例えば、図56に示すように、視線交差数に応じて各オブジェクトの色を変化させたり、各オブジェクトを動かしたり、各オブジェクトの透明度を変化させたりする方法などが考えられる。ぼかし表現や点滅表現なども考えられる。さらに、立体音響機能を搭載した音声出力デバイスが接続されている場合には、そのオブジェクトの位置から、視線交差数に応じた所定の音声を出力するような構成にしてもよい。
(3−6−2:ヒートマップ表示(図57))
また、これまでは各オブジェクトの表現を変化させる構成について説明してきたが、図57に示すように、視線交差数に基づいて空間全体をヒートマップで表示する方法なども考えられる。ここで言うヒートマップとは、例えば、視線交差数が多い部分を濃く、視線交差数が少ない部分を薄く表示する表現方法である。なお、適用可能な表現方法としては、濃淡変化の他、赤みや青みを変化させる方法などがある。また、空間全体をヒートマップ表示するのではなく、各オブジェクトの内部をヒートマップ表示する方法も考えられる。特に、先に説明した領域分割を利用するオブジェクトの選択手法を適用する場合には、各オブジェクトのヒートマップ表示が有効であろう。
(3−6−3:数値又は文字による視線交差数の表示(図58))
また、図58に示すように、視線交差数を直に画面表示する方法が考えられる。図58の例では、視線交差数が数値表示されていたり、視線交差数に基づく順位が文字で表示されていたりする。その他にも、文字や数字を利用して様々な表現方法が考えられるが、図58と同様にして任意の表現方法で視線交差数の情報を表示する方法が適用可能である。
(3−6−4:インジケータによる視線交差数の表示(図59))
また、図59に示すように、インジケータを利用して視線交差数を表示する方法も考えられる。インジケータ表示を用いると、視線交差数の多寡が一目で把握できる。なお、オブジェクトの選択判定用閾値を設けている場合には、その閾値の目盛りをインジケータに表示することで、あとどのくらいの視線を送れば、そのオブジェクトが選択されるのかをユーザが容易に認識できるようになる。
[3−7:キャンセル方法]
ここで、注視オブジェクトのキャンセル方法について簡単に述べる。既に示唆しているが、注視オブジェクトをキャンセルする方法として、例えば、瞬き、欄外への視線の移動、表情変化、視線によるジェスチャーなどが考えられる。また、電子機器20自体を揺さぶるなどの物理的作用を与えてキャンセルする方法なども考えられる。
[3−8:注目しやすい領域を考慮する方法]
ところで、1つのオブジェクトの中には、ユーザが注目しやすい部分と、そうでない部分とが存在する。例えば、図60に示すような瓶のラベルなどは、ユーザに注目されやすい部分の代表例である。ユーザは、あるオブジェクトに興味を惹かれた場合、そのオブジェクトについて、より詳細な情報を得ようとする。図60に示した瓶を例に挙げると、その瓶に注目しようとするユーザは、その瓶の中身や出自に関する情報などをより詳細に知りたいと考え、瓶のラベルに注目するだろう。仮に、この瓶が店頭に並んでいた場合、ラベルと共に、値札なども注目される部分となり得る。
そこで、こうしたユーザの心理や行動パターンなどを考慮に入れ、より精度良く注視オブジェクトを選択できるようにする仕組みを提案する。例えば、注目度の高い部分に対してユーザの視線が交差した場合に、そのオブジェクトに対する視線交差数に重みを付ける方法が考えられる。具体的には、図60に例示したオブジェクトOBJに対する視線交差数がWaであった場合、ラベルに交差した視線数に応じた重み値ω(ω>1)をWaに乗じた値Wb=Wa×ωをオブジェクトOBJに対する視線交差数として用いる方法などが実現可能であろう。
閾値Wthを越えたオブジェクトを注視オブジェクトとして選択する仕組みを採用している場合、上記の方法を適用すると、ユーザは、ラベルなどの注目部分に視線を向けることで素早く注視オブジェクトを選択することが可能になる。また、あるタイミングで視線交差数の大きいオブジェクトを注視オブジェクトとして選択する仕組みを採用している場合、注目部分に視線を向けたオブジェクトが選択されやすくなり、ユーザの意図をより精度良く反映した注視オブジェクトの選択が実現される。このように、ユーザが注目しやすい領域を考慮してオブジェクトの選択を行うことで、選択精度や操作のスムーズさが向上し、操作性を格段に高めることが可能になる。
[3−9:適用例]
これまで説明してきた第2実施例に係る技術は、様々な機器に適用可能である。例えば、携帯電話、携帯情報端末、携帯ゲーム機、携帯音楽プレーヤ、携帯映像プレーヤなどの携帯機器に適用可能である。また、デジタルサイネージ端末など、街角に設置された大型のディスプレイ装置に適用することも可能である。さらに、テレビジョン受像機や撮像装置などの映像機器に対して適用することもできる。また、テレビジョン受像機と組み合わせて、セットトップボックス、録画再生装置、或いは、ゲーム機などに適用することもできる。その他にも、例えば、カーナビゲーションシステムに適用したり、ATM、自動券売機、自動販売機などの装置に対しても適用可能である。但し、少なくとも表示機能を有するか、表示機能を搭載した機器に接続された装置であることが必要である。
[3−10:効果]
第2実施例の構成を適用すると、ユーザは、視線を移動させるか、或いは、機器を傾けるだけでオブジェクトを選択することが可能になり、物理的なインターフェースデバイスに接触しない方法で快適に操作を行うことができるようになる。例えば、表示画面を有するデバイスを片手で把持し、そのデバイスを傾けたり、自身の所定部位を傾けたりするだけで、オブジェクトの選択が可能になる。その結果、片手に荷物を抱えている場合など、自由に両手が使えない場面においても快適に操作を行うことができるようになる。また、携帯ゲーム機など、両手で操作する機器において、両手の操作とは異なる追加的な操作を行うことが可能になる。さらに、ユーザから離れた位置にあるデジタルサイネージ端末など、遠くにあるデバイスを操作することが可能になる。
<4:応用例(組み合わせ)>
ここで、応用例として第1及び第2実施例を組み合わせる構成について紹介する。
[4−1:視線方向に応じたオブジェクトの表示+視線による選択]
第1実施例によるオブジェクトの表示と、第2実施例によるオブジェクトの選択とを組み合わせたユーザインターフェースについて述べる。
(4−1−1:オブジェクト表示の固定+視線移動による選択)
まず、第1実施例による操作手法によりオブジェクトの表示を切り替える。次いで、第1実施例による操作手法により表示内容を固定する。次いで、第2実施例による操作手法により表示されているオブジェクトを選択する。このような操作工程とすることで、第1及び第2実施例を組み合わせることができる。
(4−1−2:上下移動による表示制御+左右移動による選択操作)
また、第1実施例による操作手法を視点の上下移動に限り、第2実施例による操作手法を視線の左右移動に限ると、上下左右の視点移動によりオブジェクト表示の切り替えと、オブジェクトの選択操作を組み合わせることができる。
[4−2:複数機器の組み合わせ]
次に、複数の機器を組み合わせる構成について紹介する。
(4−2−1:携帯機器(フィルタ)+テレビジョン受像機(視線操作))
例えば、第1実施例の操作手法を携帯機器に適用し、第2実施例の操作手法をテレビジョン受像機に適用する構成について紹介する。携帯機器においてテレビジョン受像機の操作用アプリケーションと録画再生装置の操作用アプリケーションとを第1実施例の操作手法により切り替え、その切り替え結果がテレビジョン受像機に送信されるようにし、その切り替え結果に応じて各機器に対応するチャンネル切り替えインターフェースが表示されるようにする。そして、そのインターフェースが表示されたところで、第2実施例の操作手法が有効になり、その操作手法を利用してチャンネルを選択できるようにする構成などが考えられる。
(4−2−2:携帯機器(フィルタ)+デジタルサイネージ端末(視線操作))
また、第1実施例の操作手法を携帯機器に適用し、第2実施例の操作手法をデジタルサイネージ端末に適用する構成も考えられる。例えば、携帯機器の撮像部をデジタルサイネージ端末に向けて表示内容を撮像し、その撮像画像に重畳する重畳情報を第1実施例の操作手法で切り替えるようにする。その切り替え結果がデジタルサイネージ端末の表示に反映され、反映後の表示内容に含まれるオブジェクトに対して第2実施例に係る視線交差数の検出処理が行われるようにする。このような構成にすることで、単にデジタルサイネージ端末に表示された一般的な情報に対する統計データではなく、ユーザによる情報の選択を考慮した情報に対する統計データが得られるようになる。
以上、第2実施例について説明した。
<5:ハードウェア構成例(図61)>
上記の電子機器10、20及びサーバ30が有する各構成要素の機能は、例えば、図61に示す情報処理装置のハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図61に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図61に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<6:まとめ>
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。なお、これらの情報処理装置は、後述する制御装置又は電子機器として機能する。さらに、当該情報処理装置は、後述する制御方法を実現することが可能である。また、後述するプログラムにより、当該情報処理装置を動作させることも可能である。
(1)
表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御部を備え、
前記制御部による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
制御装置。
上記(1)の構成を適用すると、ユーザは、所定部位を移動させるか、或いは、機器を傾けるだけで表示情報を切り替えることが可能になり、物理的なインターフェースデバイスに接触しない方法で快適に操作を行うことができるようになる。例えば、表示画面を有するデバイスを片手で把持し、そのデバイスを傾けたり、自身の所定部位を傾けたりするだけで、表示情報の切り替えが可能になる。その結果、片手に荷物を抱えている場合など、自由に両手が使えない場面においても快適に操作を行うことができるようになる。また、携帯ゲーム機など、両手で操作する機器において、両手の操作とは異なる追加的な操作を行うことが可能になる。
(2)
前記ユーザが前記表示画面を見る角度に応じて前記ユーザが視認可能な前記表示画面の画素群を異ならしめる視認制限部が前記表示画面に設けられている場合、前記制御部は、前記見る角度に対応する画素群毎に前記抽出された情報が表示されるように制御する、
上記(1)に記載の制御装置。
(3)
前記位置関係の検出結果を取得する検出結果取得部をさらに備え、
前記制御部は、前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する、
上記(1)に記載の制御装置。
(4)
撮像されている撮像画像がリアルタイムに前記表示画面に表示されている場合、前記制御部による制御を受けて前記表示画面に表示される情報は、当該撮像画像に重畳して表示される重畳情報である、
上記(1)〜(3)のいずれか1項に記載の制御装置。
(5)
前記制御部による制御を受けて前記表示画面に表示される情報を取得する情報取得部をさらに備え、
前記情報取得部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対である場合に対応する前記表示画面に表示される情報を最初に取得する、
上記(1)〜(4)のいずれか1項に記載の制御装置。
(6)
前記情報取得部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対以外である場合に対応する前記表示画面に表示される情報を複数取得する際、当該位置関係が略正対に近い順に、当該表示画面に表示される情報を取得する、
上記(5)に記載の制御装置。
(7)
前記制御部は、前記位置関係に応じて前記表示画面に表示される情報の量を制御する、
上記(1)〜(6)のいずれか1項に記載の制御装置。
(8)
前記制御部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対から遠ざかるにつれて前記表示画面に表示される情報の量が増加するように制御する、
上記(7)に記載の制御装置。
(9)
前記情報の量は、前記表示画面に表示される情報表示用オブジェクトの数である、
上記(7)又は(8)に記載の制御装置。
(10)
前記情報の量は、前記表示画面に表示される情報の詳細度合いである、
上記(7)又は(8)に記載の制御装置。
(11)
前記制御部は、情報を表示する表示部と、前記表示部に情報を表示させる表示制御部と、を有する電子機器に対して前記表示画面に表示される情報を提供する機能を含み、提供した情報を前記表示画面に表示するように前記電子機器を制御する、
上記(1)〜(10)のいずれか1項に記載の制御装置。
(12)
情報を表示する表示部と、
前記表示部の表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御部と、
を備え、
前記制御部による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
電子機器。
(13)
表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する工程を含み、
前記制御する工程における制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
制御方法。
(14)
情報を表示する表示部を有する電子機器が、前記表示部の表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する工程を含み、
前記制御する工程における制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
制御方法。
(15)
表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能をコンピュータに実現させるためのプログラムであり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
プログラム。
(16)
情報を表示する表示機能と、
前記情報が表示される表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能と、
をコンピュータに実現させるためのプログラムであり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
プログラム。
(17)
表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能をコンピュータに実現させるためのプログラムが記録された、コンピュータにより読み取り可能な記録媒体であり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
記録媒体。
(18)
情報を表示する表示機能と、
前記情報が表示される表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能と、
をコンピュータに実現させるためのプログラムが記録された、コンピュータにより読み取り可能な記録媒体であり、
前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報である、
記録媒体。
(備考)
上記の電子機器10、20、サーバ30は、制御装置の一例である。上記の表示制御部102、112、122、132、202、212、重畳情報選択部302、視線解析部312は、制御部の一例である。上記の多視差表示部101、121は、視認制御部が設けられた表示画面の一例である。上記の撮像部114、134、204、214、ヘッドトラッキング部115、135、被写体情報取得部303、視線解析部312は、検出結果取得部の一例である。上記の重畳情報取得部103、113、通信部203、311は、情報取得部の一例である。
以上、添付図面を参照しながら本技術に係る好適な実施形態について説明したが、本技術はここで開示した構成例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本技術の技術的範囲に属するものと了解される。
10、20 電子機器
30 サーバ
101、121 多視差表示部
102、122 表示制御部
103 重畳情報取得部
111、131 表示部
112、132 表示制御部
113 重畳情報取得部
114、134 撮像部
115、135 ヘッドトラッキング部
116、136 フィルタ選択部
123、133 重畳情報保持部
201、211 表示部
202、212 表示制御部
203 通信部
204、214 撮像部
205、215 視線方向検出部
213 視線解析部
301 重畳情報提供部
302 重畳情報選択部
303 被写体情報取得部
311 通信部
312 視線解析部

Claims (17)

  1. 表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御部を備え、
    前記制御部による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
    前記制御部は、前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する、
    制御装置。
  2. 前記ユーザが前記表示画面を見る角度に応じて前記ユーザが視認可能な前記表示画面の画素群を異ならしめる視認制限部が前記表示画面に設けられている場合、前記制御部は、前記見る角度に対応する画素群毎に前記抽出された情報が表示されるように制御する、
    請求項1に記載の制御装置。
  3. 前記位置関係の検出結果を取得する検出結果取得部をさらに備える、請求項1に記載の制御装置。
  4. 撮像されている撮像画像がリアルタイムに前記表示画面に表示されている場合、前記制御部による制御を受けて前記表示画面に表示される情報は、当該撮像画像に重畳して表示される重畳情報である、
    請求項1〜3のいずれか一項に記載の制御装置。
  5. 前記制御部による制御を受けて前記表示画面に表示される情報を取得する情報取得部をさらに備え、
    前記情報取得部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対である場合に対応する前記表示画面に表示される情報を最初に取得する、
    請求項1〜4のいずれか一項に記載の制御装置。
  6. 前記情報取得部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対以外である場合に対応する前記表示画面に表示される情報を複数取得する際、当該位置関係が略正対に近い順に、当該表示画面に表示される情報を取得する、
    請求項5に記載の制御装置。
  7. 前記制御部は、前記ユーザの所定部位と前記表示画面との位置関係が略正対から遠ざかるにつれて前記表示画面に表示される情報の量が増加するように制御する、
    請求項1〜6のいずれか一項に記載の制御装置。
  8. 前記情報の量は、前記表示画面に表示される情報表示用オブジェクトの数である、
    請求項1〜7のいずれか一項に記載の制御装置。
  9. 前記情報の量は、前記表示画面に表示される情報の詳細度合いである、
    請求項1〜7のいずれか一項に記載の制御装置。
  10. 前記制御部は、情報を表示する表示部と、前記表示部に情報を表示させる表示制御部と、を有する電子機器に対して前記表示画面に表示される情報を提供する機能を含み、提供した情報を前記表示画面に表示するように前記電子機器を制御する、
    請求項1〜9のいずれか一項に記載の制御装置。
  11. 情報を表示する表示部と、
    前記表示部の表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御部と、
    を備え、
    前記制御部による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
    前記制御部は、前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する、
    電子機器。
  12. 表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する工程を含み、
    前記制御する工程における制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
    前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する工程を含む、
    制御方法。
  13. 情報を表示する表示部を有する電子機器が、表示部の表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する工程を含み、
    前記制御する工程における制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
    前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する工程を含む、
    制御方法。
  14. 表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能をコンピュータに実現させるためのプログラムであり、
    前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
    前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する機能を前記コンピュータに実現させる、
    プログラム。
  15. 情報を表示する表示機能と、
    前記情報が表示される表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能と、
    をコンピュータに実現させるためのプログラムであり、
    前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
    前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する機能を前記コンピュータに実現させる、
    プログラム。
  16. 表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能をコンピュータに実現させるためのプログラムが記録された、コンピュータにより読み取り可能な記録媒体であり、
    前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
    前記プログラムは、前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する機能を前記コンピュータに実現させる、
    記録媒体。
  17. 情報を表示する表示機能と、
    前記情報が表示される表示画面と当該表示画面を見ているユーザの所定部位との位置関係に応じて異なる種類の情報が視認されるように前記表示画面に表示される情報を制御する制御機能と、
    をコンピュータに実現させるためのプログラムが記録された、コンピュータにより読み取り可能な記録媒体であり、
    前記制御機能による制御を受けて前記表示画面に表示される情報は、前記位置関係毎に設定された所定の条件を満たす属性を有する情報として、前記表示画面に表示されうる情報の中から抽出された情報であり、
    前記プログラムは、前記位置関係の検出結果に基づき、当該位置関係に対応する前記抽出された情報が前記表示画面に表示されるように制御する機能を前記コンピュータに実現させる、
    記録媒体。
JP2012060671A 2012-03-16 2012-03-16 制御装置、電子機器、制御方法、及びプログラム Expired - Fee Related JP6028351B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012060671A JP6028351B2 (ja) 2012-03-16 2012-03-16 制御装置、電子機器、制御方法、及びプログラム
US13/788,127 US9342921B2 (en) 2012-03-16 2013-03-07 Control apparatus, electronic device, control method, and program
CN2013100748889A CN103313080A (zh) 2012-03-16 2013-03-08 控制设备、电子装置、控制方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012060671A JP6028351B2 (ja) 2012-03-16 2012-03-16 制御装置、電子機器、制御方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2013196157A JP2013196157A (ja) 2013-09-30
JP2013196157A5 JP2013196157A5 (ja) 2015-04-02
JP6028351B2 true JP6028351B2 (ja) 2016-11-16

Family

ID=49137792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012060671A Expired - Fee Related JP6028351B2 (ja) 2012-03-16 2012-03-16 制御装置、電子機器、制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US9342921B2 (ja)
JP (1) JP6028351B2 (ja)
CN (1) CN103313080A (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9778829B2 (en) * 2012-02-17 2017-10-03 Lenovo (Singapore) Pte. Ltd. Magnification based on eye input
EP2685329B1 (en) * 2012-07-11 2015-09-23 ABB Research Ltd. Presenting process data of a process control object on a mobile terminal
US20160139762A1 (en) * 2013-07-01 2016-05-19 Inuitive Ltd. Aligning gaze and pointing directions
KR101503159B1 (ko) * 2013-10-15 2015-03-16 (주)이스트소프트 시선의 위치를 감지하여 터치스크린을 제어하는 방법
USD742896S1 (en) * 2013-10-25 2015-11-10 Microsoft Corporation Display screen with graphical user interface
WO2015098188A1 (ja) * 2013-12-27 2015-07-02 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
US9865033B1 (en) 2014-01-17 2018-01-09 Amazon Technologies, Inc. Motion-based image views
US9294670B2 (en) * 2014-01-24 2016-03-22 Amazon Technologies, Inc. Lenticular image capture
JP5932858B2 (ja) * 2014-01-30 2016-06-08 京セラドキュメントソリューションズ株式会社 電子機器及び操作画面表示プログラム
KR20150101915A (ko) * 2014-02-27 2015-09-04 삼성전자주식회사 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스
US20170140457A1 (en) * 2014-03-24 2017-05-18 Pioneer Corporation Display control device, control method, program and storage medium
CN103956128A (zh) * 2014-05-09 2014-07-30 东华大学 基于体感技术的智能主动广告平台
US9846522B2 (en) * 2014-07-23 2017-12-19 Microsoft Technology Licensing, Llc Alignable user interface
JP6241505B2 (ja) * 2015-06-30 2017-12-06 キヤノンマーケティングジャパン株式会社 管理サーバ、情報処理端末、制御方法、及びプログラム
EP3156879A1 (en) * 2015-10-14 2017-04-19 Ecole Nationale de l'Aviation Civile Historical representation in gaze tracking interface
US10963063B2 (en) * 2015-12-18 2021-03-30 Sony Corporation Information processing apparatus, information processing method, and program
WO2017146991A1 (en) * 2016-02-26 2017-08-31 The Coca-Cola Company Touchless control graphical user interface
JP6729054B2 (ja) * 2016-06-23 2020-07-22 富士ゼロックス株式会社 情報処理装置、情報処理システムおよび画像形成装置
WO2018008225A1 (ja) * 2016-07-05 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN106228060A (zh) * 2016-07-27 2016-12-14 广东欧珀移动通信有限公司 控制方法及控制装置
CN106295273A (zh) * 2016-07-27 2017-01-04 广东欧珀移动通信有限公司 控制方法及控制装置
CN106228061A (zh) * 2016-07-27 2016-12-14 广东欧珀移动通信有限公司 控制方法及移动终端
US20180310066A1 (en) * 2016-08-09 2018-10-25 Paronym Inc. Moving image reproduction device, moving image reproduction method, moving image distribution system, storage medium with moving image reproduction program stored therein
WO2018035133A1 (en) 2016-08-17 2018-02-22 Vid Scale, Inc. Secondary content insertion in 360-degree video
JP6694637B2 (ja) * 2016-08-30 2020-05-20 株式会社アルファコード 注目対象物に関する情報提供システムおよび情報提供方法
CN109845277A (zh) * 2016-10-26 2019-06-04 索尼公司 信息处理装置、信息处理系统、信息处理方法和程序
CN108073594B (zh) * 2016-11-10 2021-12-24 北京国双科技有限公司 一种生成热力图的方法及装置
CN108124167A (zh) * 2016-11-30 2018-06-05 阿里巴巴集团控股有限公司 一种播放处理方法、装置和设备
WO2018203453A1 (ja) * 2017-05-01 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR20200041877A (ko) 2017-08-31 2020-04-22 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
EP3695297B1 (en) * 2017-10-10 2022-08-17 Razer (Asia-Pacific) Pte. Ltd. Method and apparatus for analyzing mouse gliding performance
JP7013786B2 (ja) * 2017-10-16 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置、プログラム及び制御方法
JP6463826B1 (ja) * 2017-11-27 2019-02-06 株式会社ドワンゴ 動画配信サーバ、動画配信方法及び動画配信プログラム
US20190253751A1 (en) * 2018-02-13 2019-08-15 Perfect Corp. Systems and Methods for Providing Product Information During a Live Broadcast
CN108737872A (zh) * 2018-06-08 2018-11-02 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
JP2020005038A (ja) * 2018-06-25 2020-01-09 キヤノン株式会社 送信装置、送信方法、受信装置、受信方法、及び、プログラム
JP2020009306A (ja) * 2018-07-11 2020-01-16 東芝プラントシステム株式会社 設備作業支援装置
CN109034097B (zh) * 2018-08-10 2021-09-21 国网上海市电力公司 一种基于图像的开关设备巡检定位方法
US20200288204A1 (en) * 2019-03-05 2020-09-10 Adobe Inc. Generating and providing personalized digital content in real time based on live user context
WO2020189254A1 (ja) * 2019-03-15 2020-09-24 ソニー株式会社 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体
CN110161721A (zh) * 2019-04-24 2019-08-23 苏州佳世达光电有限公司 镜片焦距调整方法及液态变焦眼镜设备
CN110913250A (zh) * 2019-12-13 2020-03-24 上海邸客网络科技有限公司 目的地体验社区架构方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1107637A1 (en) 1999-12-07 2001-06-13 Motorola Semiconducteurs S.A. Cellular radio communications system with frequency hopping on the control channel
JP2002183150A (ja) * 2000-12-13 2002-06-28 Nec Corp 位置関連情報提示システム及び位置関連情報提示方法並びにその制御プログラムを記録した記録媒体
JP4114720B2 (ja) * 2002-10-25 2008-07-09 株式会社ソニー・コンピュータエンタテインメント 画像生成方法および画像生成装置
JP4671591B2 (ja) * 2003-09-12 2011-04-20 シャープ株式会社 情報処理装置
JP2006235116A (ja) 2005-02-23 2006-09-07 Sony Corp 立体表示装置
CN101189643A (zh) * 2005-04-25 2008-05-28 株式会社亚派 3d图像生成和显示系统
JP2006343419A (ja) * 2005-06-07 2006-12-21 Sharp Corp 表示装置、プログラムおよび記録媒体
JP5006587B2 (ja) * 2006-07-05 2012-08-22 株式会社エヌ・ティ・ティ・ドコモ 画像提示装置および画像提示方法
JP5158902B2 (ja) * 2006-09-14 2013-03-06 シャープ株式会社 電子機器、有効な機能の選択方法およびプログラム
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法
JP2008256904A (ja) * 2007-04-04 2008-10-23 Sharp Corp 視野角切り替え装置連動の広画面表示装置
KR101602363B1 (ko) * 2008-09-11 2016-03-10 엘지전자 주식회사 3차원 사용자 인터페이스의 제어방법과 이를 이용한 이동 단말기
WO2010073616A1 (ja) * 2008-12-25 2010-07-01 パナソニック株式会社 情報表示装置および情報表示方法
US8854531B2 (en) * 2009-12-31 2014-10-07 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
JP2011197537A (ja) * 2010-03-23 2011-10-06 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
US9183560B2 (en) * 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
US20110310227A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Mobile device based content mapping for augmented reality environment

Also Published As

Publication number Publication date
US20130241925A1 (en) 2013-09-19
CN103313080A (zh) 2013-09-18
JP2013196157A (ja) 2013-09-30
US9342921B2 (en) 2016-05-17

Similar Documents

Publication Publication Date Title
JP6028351B2 (ja) 制御装置、電子機器、制御方法、及びプログラム
JP2013196158A (ja) 制御装置、電子機器、制御方法、及びプログラム
US20220382379A1 (en) Touch Free User Interface
US11017603B2 (en) Method and system for user interaction
CN104321730B (zh) 3d图形用户接口
US20120139907A1 (en) 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system
US20130135295A1 (en) Method and system for a augmented reality
US20120092368A1 (en) Apparatus and method for providing augmented reality (ar) information
CN103201710A (zh) 图像处理系统、图像处理方法以及存储图像处理程序的存储介质
US20210345017A1 (en) Methods, systems, and media for presenting interactive elements within video content
Fujimura et al. Driver queries using wheel-constrained finger pointing and 3-D head-up display visual feedback
CN103176605A (zh) 一种手势识别控制装置及控制方法
CN115668104A (zh) 广告显示系统
CN103608761A (zh) 输入设备、输入方法以及记录介质
CN108885801A (zh) 信息处理设备、信息处理方法和程序
Alt et al. Using eye-tracking to support interaction with layered 3D interfaces on stereoscopic displays
CN111857461B (zh) 图像显示方法、装置、电子设备及可读存储介质
JP2012216095A (ja) 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体
CN102799378A (zh) 一种立体碰撞检测物体拾取方法及装置
Cho et al. Multi-scale 7DOF view adjustment
EP3088991B1 (en) Wearable device and method for enabling user interaction
CN111918114A (zh) 图像显示方法、装置、显示设备及计算机可读存储介质
Zhang et al. Three‐dimensional interaction and autostereoscopic display system using gesture recognition
US9218104B2 (en) Image processing device, image processing method, and computer program product
TW201239673A (en) Method, manipulating system and processing apparatus for manipulating three-dimensional virtual object

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161003

R151 Written notification of patent or utility model registration

Ref document number: 6028351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees