[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5661808B2 - 携帯端末及び携帯端末の制御方法 - Google Patents

携帯端末及び携帯端末の制御方法 Download PDF

Info

Publication number
JP5661808B2
JP5661808B2 JP2012553622A JP2012553622A JP5661808B2 JP 5661808 B2 JP5661808 B2 JP 5661808B2 JP 2012553622 A JP2012553622 A JP 2012553622A JP 2012553622 A JP2012553622 A JP 2012553622A JP 5661808 B2 JP5661808 B2 JP 5661808B2
Authority
JP
Japan
Prior art keywords
unit
virtual information
display
control unit
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012553622A
Other languages
English (en)
Other versions
JPWO2012098872A1 (ja
Inventor
須藤 智浩
智浩 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012553622A priority Critical patent/JP5661808B2/ja
Publication of JPWO2012098872A1 publication Critical patent/JPWO2012098872A1/ja
Application granted granted Critical
Publication of JP5661808B2 publication Critical patent/JP5661808B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Description

関連出願へのクロスリファレンス
本出願は、日本国特許出願2011−8109号(2011年1月18日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
この発明は、携帯端末及び携帯端末の制御方法に関し、特に、実画像に仮想情報を重畳して表示するAR技術に対応した携帯端末及び携帯端末の制御方法に関する。
現実の環境に仮想的な画像を合成して表示させる、AR(Augmented Reality:拡張現実)と呼ばれる技術が存在する。AR技術では、カメラが撮影する画像中にバーコード等の仮想情報マーカー(ARマーカー)がある場合、当該仮想情報マーカーに対応する仮想情報(ARオブジェクト)が画面上に表示される。このため、ユーザは、あたかもカメラの捉えている空間上にARオブジェクトが実在しているかのような錯覚を覚えることになる。また、ARオブジェクトとしてテキスト情報を画像上に表示することによって、ユーザは、例えばカメラ画像に含まれる店舗等の詳細を確認することができる。
ARオブジェクトは、バーコード等の画像内に含まれるARマーカーから取得するものの他に、携帯端末の位置情報を用いて外部のサーバから取得することができる。例えば、特許文献1記載の方法では、位置情報と対応付けられたエアタグがサーバに保存されている。携帯端末側でARアプリケーションを起動すると、携帯端末はGPSによって現在の位置情報を取得し、現在位置情報をサーバに送信する。サーバは、受信した位置情報近傍のエアタグを取得し、携帯端末に送信する。携帯端末は、エアタグを取得すると、カメラによって撮影された画像に重ねてエアタグを表示する。
特許第3700021号公報
従来技術では、端末からの距離が近いものから順にARオブジェクトが表示されるため、背後に位置するARオブジェクトは前面に位置するARオブジェクトの背面に隠れて表示されないという問題があった。
したがって、かかる点に鑑みてなされた本発明の目的は、重なり合うARオブジェクトを切替えて表示可能な携帯端末を提供することにある。
上述した諸課題を解決すべく、第1の観点に係る携帯端末は、
撮像部と、
前記撮像部によって撮像した画像に、当該画像に対応する仮想情報を重畳させて表示する表示部と、
制御部と、を備え、
前記制御部は、第1の仮想情報に第2の仮想情報が重畳して表示されている場合に、ユーザによる所定の入力があると、前記画像内における前記第1の仮想情報及び前記第2の仮想情報の平面上の表示位置を維持しつつ、前記第2の仮想情報の後ろに表示されていた前記第1の仮想情報を前記第2の仮想情報より前に表示し、
タッチセンサのタッチ面に対して触感を呈示する触感呈示部を更に備え、
前記制御部は、前面の仮想情報により背面の仮想情報が隠れている場合に、前記前面の仮想情報に対する前記入力が検出されると、前記入力に対して触感を呈示するように前記触感呈示部を制御する
ものである。
上述したように本発明の解決手段を装置として説明してきたが、本発明はこれらに実質的に相当する方法、プログラム、プログラムを記録した記憶媒体としても実現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。
た、第の観点に係る発明は、
タッチセンサと、
撮像部と、
前記撮像部によって撮像された画像を表示する表示部と、
前記画像に含まれる仮想情報を前記画像に重畳して表示するように前記表示部を制御するとともに、前記仮想情報を階層化し、力に応じて前記仮想情報の表示階層を切替える制御部と、
触感を呈示する触感呈示部と、を備え、
前記制御部は、一の仮想情報により他の仮想情報が隠れて表示されている場合に、前記一の仮想情報に対する前記タッチセンサによる入力が検出されると、触感を呈示するように前記触感呈示部を制御する
ものである。
本発明に係る携帯端末は、重なり合うARオブジェクトを切替えて表示することができる。
図1は、本発明の一実施形態に係る携帯端末の機能ブロック図である。 図2は、図1に示す携帯端末の正面図及び背面図である。 図3は、ARオブジェクトの階層化の一例を示す図である。 図4は、図1に示す携帯端末の動作フローチャートである。 図5は、ARオブジェクトの表示例を示す図である。 図6は、図1に示す携帯端末の動作フローチャートである。 図7は、ARオブジェクトの切替えの一例を示す図である。 図8は、ARオブジェクトの切替えの一例を示す図である。 図9は、ARオブジェクトの切替えの一例を示す図である。 図10は、隠しARオブジェクトに対する触感呈示の一例を示す図である。
以降、諸図面を参照しながら、本発明の実施態様を詳細に説明する。以下の実施形態においては、本発明の携帯端末の一例として、携帯電話やPDAなどのような携帯端末であってタッチパネルを備えているものを想定して説明する。しかしながら、本発明の携帯端末は、これらの端末に限定されるものではなく、例えば、ゲーム機、デジタルカメラ、ポータブルオーディオプレーヤ、ノートPC、ミニノートPCなどの種々の端末とすることができる。
図1は、本発明の一実施形態に係る携帯端末10の内部構成を概略的に示す機能ブロック図である。図1に示すように、携帯端末10は、タッチパネル101と、触感呈示部104と、荷重検出部105と、撮像部106と、位置情報取得部107と、通信部108と、記憶部109と、制御部110とを備えている。
本実施形態では、タッチパネル101は、表示部102と、タッチセンサ103とを備えている。このタッチパネル101は、ユーザの入力を受け付けるタッチセンサ103を、表示部102の前面に重畳させて配設することにより構成する。図2(a)は、携帯端末10の正面図であり、図2(b)は、携帯端末10の背面図である。図2の通り、携帯端末10の正面にはタッチパネル101(表示部102及びタッチセンサ103)が設けられ、携帯端末10の背面には撮像部106が設けられている。
タッチパネル101の表示部102は、例えば液晶ディスプレイ(LCD)または有機ELディスプレイなどで構成される。表示部102は、撮像部106が取得した画像を表示するものであり、AR表示がONに設定されている場合、仮想情報であるARオブジェクトが重畳された画像を表示するものである。表示部102の前面には、ユーザの指などによるタッチ面への入力を検出するタッチセンサ103が配設される。このタッチセンサ103は、例えば抵抗膜方式、静電容量方式、光学式等の公知の方式のもので構成される。タッチセンサ103は、ユーザの指などの入力を検知すると、入力位置の情報を制御部110に供給する。なお、タッチセンサ103が入力を検出する上で、ユーザの指等がタッチセンサ103を物理的に押下することは必須ではない。例えば、タッチセンサ103が光学式である場合には、タッチセンサ103は、赤外線が指等により遮られた位置を検出するため、物理的な押下がない場合でも入力を検出することができる。
触感呈示部104は、タッチセンサ103のタッチ面に振動を伝えるもので、例えば、圧電素子または超音波振動子などを用いて構成する。この触感呈示部104が振動することにより、タッチセンサ103を押圧しているユーザの指などに対して触感を呈示することができる。また、触感呈示部104は、振動モータ(偏心モータ)により携帯端末10を振動させることにより、タッチセンサ103のタッチ面を間接的に振動させるように構成することもできる。
荷重検出部105は、タッチセンサ103のタッチ面に対する押圧荷重を検出するもので、例えば圧電素子、歪みゲージセンサなどを用いて構成する。荷重検出部105は、検出した押圧荷重を制御部110に供給する。なお、例えば、触感呈示部104及び荷重検出部105を共に圧電素子を用いて構成する場合は、触感呈示部104及び荷重検出部105を共通の圧電素子により一体化して構成することができる。圧電素子は、圧力が加えられると電力を発生し、電力が加えられると変形するという性質を有するためである。
撮像部106は、実環境を撮像して画像を取得するもので、例えば、撮像レンズ、撮像素子などから構成される。AR処理のため、撮像部106によって取得された画像は制御部110に供給される。また、撮像部106によって、撮像が確定されていない状態(プレビュー状態)において取得された画像も、制御部110に供給される。
位置情報取得部107は、携帯端末10の現在位置(位置情報)を取得するものであり、例えば、GPS(Global Positioning System)装置等によって構成される。位置情報取得部107は、さらに方位センサを備え、携帯端末10が向いている方向(方位情報)を取得することもできる。位置情報取得部107は、取得した位置情報及び方位情報を制御部110に供給する。
通信部108は、外部のARサーバ(図示せず)との間で通信を行うものであり、例えば、無線通信に対応したインタフェース機器等によって構成される。通信部108は、位置情報取得部107が取得した位置情報及び方位情報をARサーバに送信し、ARサーバから、送信した情報に対応するARオブジェクトのデータを受信する。なお、ARサーバは、例えば位置情報と関連付けてARオブジェクトの情報を記憶しているものとする。ARサーバは、携帯端末10の位置情報及び方位情報に基づき、撮像部106が取得した画像内に含まれうるARオブジェクトを選択し、当該選択したARオブジェクトのデータを携帯端末10に送信する。なお、携帯端末10は、位置情報に基づき予めARサーバから送信されたARオブジェクトの中から、方位情報に基づいて、撮像部106によって取得された画像内に含まれるARオブジェクトを選択して表示するようにしても良い。
記憶部109は、触感呈示部104が呈示する触感パターンなどを記憶するとともに、ワークメモリなどとしても機能する。ここで、触感パターンとは、振動の仕方(周波数、位相、振動間隔、振動回数など)や振動の強さ(振幅など)等により規定されるものである。また、記憶部109は、撮像部106が取得した画像を記憶することができる。
制御部110は、携帯端末10の各機能部をはじめとして携帯端末10の全体を制御および管理するものであり、CPU等の好適なプロセッサによって構成される。特に、制御部110は、取得したARオブジェクトを画像に重畳して表示部102に表示させる。ARオブジェクトの取得に関し、制御部110は、撮像部106が取得した画像内の仮想情報マーカー(仮想情報が対応付けられた対象物。以降ARマーカーと称する。)を検出し、当該ARマーカーに対応するARオブジェクトを取得することができる。また、制御部110は、位置情報取得部107が取得した位置情報及び方位情報を通信部108よりARサーバに送信し、ARサーバから画像内に含まれるARオブジェクトの情報を取得することができる。なお、制御部110は、任意の外部記憶媒体に記憶されているARオブジェクトのデータを読み込み、ARオブジェクトを取得しても良い。
制御部110は、ARマーカーの検出やARサーバとの通信などによって画像内のARオブジェクトを取得すると、各ARオブジェクトの位置やARオブジェクトの大きさを解析し、ARオブジェクトの階層化を行う。図3は、ARオブジェクトの階層化の一例である。撮像部106が取得した画像に複数のARオブジェクト(AR1〜7)が含まれているとする。この場合、制御部110は、各ARオブジェクトの位置や、各ARオブジェクトの大きさなどから、AR2はAR4及びAR7と、AR1はAR6と、AR3はAR5とそれぞれ重なり合うことを検出する。次いで、制御部110は、図3(a)の通り、撮像部106の光軸方向に沿って、AR1〜3を第1レイヤ、AR4〜6を第2レイヤ、AR7を第3レイヤに階層化する。制御部110は、タッチセンサ103への入力に応じてARオブジェクトの表示階層(レイヤ)を切替えることによって、他のARオブジェクトの背面に隠れたARオブジェクトを表示部102に表示させることができる。なお、制御部110は、図3(b)の通り、AR7に加え、AR5及びAR6を含むように第3レイヤを設定することもできる。すなわち、制御部110は、ARオブジェクトの重なり合いが少ない箇所に関しては、その中で最も後方に位置するARオブジェクトを、より深い階層を表示する際に表示させておいても良い。また、制御部110は、ARオブジェクトの位置やARオブジェクトの大きさだけではなく、ARオブジェクトの情報の種類によってARオブジェクトを階層化することができる。例えば、制御部110は、店舗に関するARオブジェクトとして、店舗の名称、店舗の評判、店舗の口コミ情報などが存在する場合、店舗の名称、店舗の評判、店舗の口コミ情報をそれぞれ独立のレイヤへと階層化することができる。
制御部110は、ARオブジェクトの階層化を行うと、ARオブジェクトの表示階層の切替えに関する条件設定を行う。ここで、制御部110は、ARオブジェクトの表示階層の切替え条件として、荷重検出部105が検出する押圧荷重を用いることができる。即ち、制御部110は、第1の荷重基準(一段押下)を満たす押圧荷重を検出した場合に第1レイヤのARオブジェクトを表示し、第2の荷重基準(二段押下)を満たす押圧荷重を検出した場合に第2レイヤのARオブジェクトを表示するように切替え条件を設定することができる。また、制御部110は、ARオブジェクトの表示階層の切替え条件として、タッチセンサ103への指等の入力位置を用いることができる。即ち、制御部110は、ARオブジェクトが重なり合う位置に入力が行われた場合に、ARオブジェクトの表示階層を切替えるように切替え条件を設定することができる。なお、制御部110は、ARオブジェクトの表示階層を切替える場合に、入力に対して触感を呈示するように触感呈示部104の駆動を制御することが出来る。また、制御部110は、ARオブジェクトの表示階層の切替え条件として、押圧荷重の代わりに、荷重検出部105が押圧荷重を検出したことにより出力するデータを用いることもできる。なお、荷重検出部105が出力するデータとは、電力であっても良い。
図4は、携帯端末10の動作フローチャートである。まず、携帯端末10のAR表示がONになる(ステップS101)。ここで、AR表示がONになるとは、具体的にはARオブジェクトを表示可能なアプリケーションが起動された場合、又は、ARオブジェクトの表示、非表示の切替え可能なカメラモードにおいてARオブジェクト表示に切替えられたときなどである。次に、制御部110は、撮像部106が取得する画像内のARマーカーを検出し(ステップS102)、検出したARマーカーに対応するARオブジェクトを取得する(ステップS103)。また、制御部110は、位置情報取得部107から位置情報及び方位情報を取得し(ステップS104、S105)、通信部108を通じてARサーバに当該位置情報及び方位情報を送信する(ステップS106)。このとき、ARサーバは、携帯端末10から受信した位置情報及び方位情報から、携帯端末10の撮像部106が取得した画像内に含まれるARオブジェクトを選択し、当該選択したARオブジェクトをARデータとして携帯端末10に送信する。なお、前述したように、携帯端末10はARサーバに対して位置情報のみを送信し、ARサーバより送信されたARオブジェクトのうち、方位情報に基づいて選択されたARオブジェクトのみを表示することもできる。制御部110は、ARサーバからARデータを取得すると(ステップS107)、画像内のARマーカーから取得したARオブジェクトと、ARサーバから取得したARオブジェクトとの階層化処理を行う(ステップS108)。次に、制御部110は、ARオブジェクトの表示階層の切替え条件を設定し(ステップS109)、ARオブジェクトを撮像部106が取得した画像に重畳して表示部102に表示させる(ステップS110)。なお、図4におけるS102〜S103の処理と、S104〜S107の処理とは、順序を入れ替えても良い。また、画像内のARマーカーが検出されない場合には、S102〜S103の処理は行わなくても良い。
図5は、ARオブジェクトの表示例を示す図である。携帯端末10のAR表示がONになると、制御部110は、画像内のARマーカーに対応するARオブジェクトを取得すると共に、ARサーバからARオブジェクトを取得する。ARマーカーの検出及びARサーバとの通信によってARオブジェクトを取得すると、制御部110は、ARオブジェクトの階層化や表示階層の切替え条件の設定を行い、ARオブジェクトを表示部102に表示させる。
図6は、ARオブジェクトの表示階層の切替え処理のフローチャートである。制御部110は、タッチセンサ103からの信号によりタッチパネル101への入力を検出すると(ステップS201)、当該入力が表示階層の切替え条件を満たすかどうかを判定する(ステップS202)。入力が表示階層の切替え条件を満たす場合(ステップS202のYes)、制御部110はARオブジェクトの表示階層を切替える(ステップS203)。
図7〜9は、階層化されたARオブジェクトの切替え例を示す図である。図7は、制御部110が表示階層の切替え条件として押圧荷重を用いた場合の切替え例である。図7の例では、制御部110は、第1の荷重基準(一段押下)を満たす押圧荷重を検出した場合に第1レイヤのARオブジェクトを表示し、第2の荷重基準(二段押下)を満たす押圧荷重を検出した場合に第2レイヤのARオブジェクトを表示する。
図8は、制御部110が表示階層の切替え条件としてタッチセンサ103への入力位置を用いた場合の切替え例である。図8の例では、制御部110は、ARオブジェクトが重なり合う位置に入力が行われた場合に、ARオブジェクトの表示階層を切替える。なお、この場合、制御部110は、入力位置に表示されているARオブジェクトに関する表示階層のみを切替えることができる。即ち、制御部110は、入力位置に表示されているARオブジェクトに関してのみ表示階層を切替えるが、入力が行われていないARオブジェクトに関しては表示階層の切替えは行わなくても良い。また、制御部110は、ARオブジェクトが重なり合う位置から所定範囲内への入力が行われた場合に、ARオブジェクトの表示階層を切替えても良い。さらに、制御部110は、表示階層の切替え条件として、押圧荷重及び入力位置を共に用いることができる。この場合、制御部110は、ユーザの入力の力や入力位置に応じてARオブジェクトの表示階層を切替えるため、ユーザはより直感的な操作でARオブジェクトの表示階層を切替えることができる。
図9は、制御部110がARオブジェクトの種類に応じて階層化を行った場合の表示階層の切替え例である。図9の例では、制御部110は、店舗名称を第1レイヤに、店舗の評判を第2レイヤに、店舗への口コミを第3レイヤに設定している。制御部110は、第1の荷重基準(一段押下)を満たす押圧荷重を検出した場合に第1レイヤである店舗名称を表示し、第2の荷重基準(二段押下)を満たす押圧荷重を検出した場合に第2レイヤである店舗の評判を表示し、第3の荷重基準(三段押下)を満たす押圧荷重を検出した場合に第3レイヤである店舗の口コミを表示する。
このように、本実施形態によれば、制御部110は、ARオブジェクト(仮想情報)を階層化し、タッチセンサ103への入力に応じてARオブジェクトの表示階層を切替える。これにより、本実施形態に係る携帯端末10は、重なり合って背面に隠れたARオブジェクトを切替えることにより前面に表示することが可能になる。
また、制御部110は、携帯端末10の位置情報に基づきARオブジェクトを撮像部106が取得した画像に重畳して表示することができる。これにより、本実施形態に係る携帯端末10は、撮像部106が取得した画像内に含まれるARオブジェクトを表示することが可能になる。
また、制御部110は、撮像部106が取得した画像に含まれ、ARオブジェクト(仮想情報)が対応付けられた対象物(ARマーカー)に関連するARオブジェクトを、画像に重畳して表示することができる。これにより、本実施形態に係る携帯端末10は、撮像部106が取得した画像内に含まれるARオブジェクトを表示することが可能になる。
また、制御部110は、指等の押圧荷重に応じてARオブジェクトの表示階層を切替えることができる。これにより、本実施形態に係る携帯端末10は、ユーザの入力の力に応じて表示階層を切替えることができ、ユーザは、直感的な操作でARオブジェクトの表示を切替えることが可能になる。
また、制御部110は、ARオブジェクトが重なり合う位置に入力が検出された場合に、ARオブジェクトの表示階層を切替えることができる。これにより、本実施形態に係る携帯端末10は、ユーザの入力位置に応じて表示階層を切替えることができ、ユーザは、より直感的な操作でARオブジェクトの表示を切替えることが可能になる。
また、制御部110は、入力位置に表示されているARオブジェクトに関する表示階層のみを切替えることができる。これにより、本実施形態に係る携帯端末10は、ユーザが希望するARオブジェクトのみ表示階層を切替えることが可能になり、ユーザは、より直感的な操作でARオブジェクトの表示を切替えることが可能になる。
また、制御部110は、ARオブジェクトの種類に応じて階層化を行うことができる。これにより、本実施形態に係る携帯端末10は、ARオブジェクトに対してより多様な階層化を行うことが可能になる。
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部に含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部を1つに組み合わせたり、或いは分割したりすることが可能である。
例えば、制御部110は、前面のARオブジェクトにより背面のARオブジェクトが隠れている場合に、前面のARオブジェクトに対する入力が検出されると、当該入力に対して触感を呈示するように触感呈示部104を制御することができる。図10は、隠しARオブジェクトに対する触感呈示の一例を示す図である。図10(a)に示すように、画像内に3つのARオブジェクト(AR1〜3)が存在し、図10(b)に示すように、前面のAR1により背面のAR2が隠れているものとする。この場合、制御部110は、AR1に対する入力を検出した場合、当該入力に対して触感を呈示することにより、AR2の存在をユーザに対して報知することが可能となる。
また、記憶部109は、撮像部106が取得した画像にARオブジェクトが含まれる場合、取得した画像と共に、当該ARオブジェクトの情報も合わせて記憶することができる。これにより、ユーザは、過去に取得した画像に関するARオブジェクトを任意のタイミングで確認することが可能となり、ユーザの利便性を向上させることができる。なお、例えば、取得した画像に関するARオブジェクトの記憶には、JPEG形式のコメント欄を利用しても良い。
また、制御部110は、ARオブジェクトの表示階層の切替え条件として、押圧荷重や入力の他に、入力の回数を用いることができる。即ち、制御部110は、1回目の入力に対して第1レイヤのARオブジェクトを表示し、2回目の入力に対して第2レイヤのARオブジェクトを表示するように切替え条件を設定することができる。
また、制御部110は、ARオブジェクトの表示階層の切替えに関し、表示するARオブジェクトがなくなった場合や、表示階層の切替えが一巡した場合などに、最前面のARオブジェクトを表示するように、表示階層の初期化を行うことができる。これにより、ユーザは初期化後に改めて表示階層の切替えを行うことができるため、ユーザに対する利便性を向上させることができる。
また、上記実施形態における表示部102及びタッチセンサ103は、これら両機能を共通の基板に持たせる等により、一体化した装置によって構成されるようにしてもよい。このように表示部102とタッチセンサ103との両機能を一体化した装置の構成の一例としては、液晶パネルが有するマトリクス状配列の画素電極群に、フォトダイオード等の複数の光電変換素子を規則的に混在させたものを挙げることができる。この装置は、液晶パネル構造によって画像を表示する一方で、パネル表面の所望位置を接触するペンの先端で液晶表示用のバックライトの光を反射し、この反射光を周辺の光電変換素子が受光することによって、接触位置を検出することができる。
また、上記実施形態における制御部110は、荷重検出部105により検出される押圧荷重が、所定の基準を満たした際に表示階層を切替える。この場合において、荷重検出部105により検出される押圧荷重が所定の基準を満たしたとは、荷重検出部105により検出される押圧荷重が所定値に達したことであってもよいし、荷重検出部105により検出される押圧荷重が所定値を超えたことでもよいし、荷重検出部105により所定値が検出されたことでもよい。さらに制御部110は、荷重検出部105が押圧荷重を検出することにより出力するデータが所定の基準を満たした際には表示階層を切替えてもよい。なお、荷重検出部が出力するデータとは、電力であっても良い。
また、上述の説明において、例えば、所定値「以上」または所定値「以下」のような表現の技術的思想が意味する内容は必ずしも厳密な意味ではなく、携帯端末の仕様に応じて、基準となる値を含む場合または含まない場合の意味を包含するものとする。例えば、所定値「以上」とは、増大する値が所定値に達した場合のみならず、所定値を超えた場合も含意し得るものとする。また、例えば所定値「以下」とは、減少する値が所定値に達した場合のみならず、所定値を下回った場合、つまり所定値未満になった場合も含意し得るものとする。
10 携帯端末
101 タッチパネル
102 表示部
103 タッチセンサ
104 触感呈示部
105 荷重検出部
106 撮像部
107 位置情報取得部
108 通信部
109 記憶部
110 制御部

Claims (2)

  1. 撮像部と、
    前記撮像部によって撮像した画像に、当該画像に対応する仮想情報を重畳させて表示する表示部と、
    制御部と、を備え、
    前記制御部は、第1の仮想情報に第2の仮想情報が重畳して表示されている場合に、ユーザによる所定の入力があると、前記画像内における前記第1の仮想情報及び前記第2の仮想情報の平面上の表示位置を維持しつつ、前記第2の仮想情報の後ろに表示されていた前記第1の仮想情報を前記第2の仮想情報より前に表示し、
    ッチセンサのタッチ面に対して触感を呈示する触感呈示部を更に備え、
    前記制御部は、前面の仮想情報により背面の仮想情報が隠れている場合に、前記前面の仮想情報に対する前記入力が検出されると、前記入力に対して触感を呈示するように前記触感呈示部を制御する携帯端末。
  2. タッチセンサと、
    撮像部と、
    前記撮像部によって撮像された画像を表示する表示部と、
    前記画像に含まれる仮想情報を前記画像に重畳して表示するように前記表示部を制御するとともに、前記仮想情報を階層化し、力に応じて前記仮想情報の表示階層を切替える制御部と、
    触感を呈示する触感呈示部と、を備え、
    前記制御部は、一の仮想情報により他の仮想情報が隠れて表示されている場合に、前記一の仮想情報に対する前記タッチセンサによる入力が検出されると、触感を呈示するように前記触感呈示部を制御する携帯端末。
JP2012553622A 2011-01-18 2012-01-18 携帯端末及び携帯端末の制御方法 Active JP5661808B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012553622A JP5661808B2 (ja) 2011-01-18 2012-01-18 携帯端末及び携帯端末の制御方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011008109 2011-01-18
JP2011008109 2011-01-18
PCT/JP2012/000272 WO2012098872A1 (ja) 2011-01-18 2012-01-18 携帯端末及び携帯端末の制御方法
JP2012553622A JP5661808B2 (ja) 2011-01-18 2012-01-18 携帯端末及び携帯端末の制御方法

Publications (2)

Publication Number Publication Date
JPWO2012098872A1 JPWO2012098872A1 (ja) 2014-06-09
JP5661808B2 true JP5661808B2 (ja) 2015-01-28

Family

ID=46515507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012553622A Active JP5661808B2 (ja) 2011-01-18 2012-01-18 携帯端末及び携帯端末の制御方法

Country Status (3)

Country Link
US (1) US20130293585A1 (ja)
JP (1) JP5661808B2 (ja)
WO (1) WO2012098872A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6009583B2 (ja) * 2012-12-06 2016-10-19 パイオニア株式会社 電子機器
KR101905174B1 (ko) * 2012-12-29 2018-10-08 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US9336629B2 (en) 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
JP2015041126A (ja) * 2013-08-20 2015-03-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP6079895B2 (ja) * 2013-10-25 2017-02-15 株式会社村田製作所 タッチ式入力装置
JP6299234B2 (ja) * 2014-01-23 2018-03-28 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
US9613448B1 (en) * 2014-03-14 2017-04-04 Google Inc. Augmented display of information in a device view of a display screen
WO2015143121A1 (en) * 2014-03-21 2015-09-24 Immersion Corporation System, method and computer-readable medium for force-based object manipulation and haptic sensations
JP6573755B2 (ja) * 2014-07-10 2019-09-11 富士通株式会社 表示制御方法、情報処理プログラム、及び情報処理装置
US10025099B2 (en) * 2015-06-10 2018-07-17 Microsoft Technology Licensing, Llc Adjusted location hologram display
JP6523449B2 (ja) * 2015-06-12 2019-05-29 パイオニア株式会社 電子機器
EP3364637B1 (en) 2015-12-22 2020-08-26 Huawei Technologies Co., Ltd. Method and apparatus for filtering object by means of pressure
WO2017201568A1 (en) 2016-05-23 2017-11-30 tagSpace Pty Ltd Media tags location-anchored digital media for augmented reality and virtual reality environments
US10403044B2 (en) 2016-07-26 2019-09-03 tagSpace Pty Ltd Telelocation: location sharing for users in augmented and virtual reality environments
US10831334B2 (en) 2016-08-26 2020-11-10 tagSpace Pty Ltd Teleportation links for mixed reality environments
JP6805057B2 (ja) * 2017-04-07 2020-12-23 トヨタホーム株式会社 情報表示システム
JP2019145157A (ja) * 2019-04-24 2019-08-29 パイオニア株式会社 電子機器
US11107291B2 (en) * 2019-07-11 2021-08-31 Google Llc Traversing photo-augmented information through depth using gesture and UI controlled occlusion planes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152356A (ja) * 1993-11-26 1995-06-16 Toppan Printing Co Ltd 表示制御装置
JP2000259315A (ja) * 1999-03-08 2000-09-22 Sharp Corp 表示データ切替え装置およびその制御方法
JP2010231432A (ja) * 2009-03-26 2010-10-14 Yamaha Corp ミキサ装置のウィンドウ制御方法、ミキサ装置、およびミキサ装置のウィンドウ制御プログラム
JP2010238098A (ja) * 2009-03-31 2010-10-21 Ntt Docomo Inc 端末装置、情報提示システム及び端末画面表示方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10340188A1 (de) * 2003-09-01 2005-04-07 Siemens Ag Bildschirm mit einer berührungsempfindlichen Bedienoberfläche zur Befehlseingabe
US20080109751A1 (en) * 2003-12-31 2008-05-08 Alias Systems Corp. Layer editor system for a pen-based computer
US7663620B2 (en) * 2005-12-05 2010-02-16 Microsoft Corporation Accessing 2D graphic content using axonometric layer views
US8745514B1 (en) * 2008-04-11 2014-06-03 Perceptive Pixel, Inc. Pressure-sensitive layering of displayed objects
JP5100556B2 (ja) * 2008-07-30 2012-12-19 キヤノン株式会社 情報処理方法及び装置
US8972879B2 (en) * 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
US20120038668A1 (en) * 2010-08-16 2012-02-16 Lg Electronics Inc. Method for display information and mobile terminal using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152356A (ja) * 1993-11-26 1995-06-16 Toppan Printing Co Ltd 表示制御装置
JP2000259315A (ja) * 1999-03-08 2000-09-22 Sharp Corp 表示データ切替え装置およびその制御方法
JP2010231432A (ja) * 2009-03-26 2010-10-14 Yamaha Corp ミキサ装置のウィンドウ制御方法、ミキサ装置、およびミキサ装置のウィンドウ制御プログラム
JP2010238098A (ja) * 2009-03-31 2010-10-21 Ntt Docomo Inc 端末装置、情報提示システム及び端末画面表示方法

Also Published As

Publication number Publication date
JPWO2012098872A1 (ja) 2014-06-09
WO2012098872A1 (ja) 2012-07-26
US20130293585A1 (en) 2013-11-07

Similar Documents

Publication Publication Date Title
JP5661808B2 (ja) 携帯端末及び携帯端末の制御方法
KR102262962B1 (ko) 어플리케이션과 관련된 기능 또는 콘텐트를 제공하는 방법 및 이를 수행하는 전자 장치
US11257401B2 (en) Electronic apparatus for displaying content associated with application and control method thereof
US9977539B2 (en) Mobile terminal and method for controlling the same
JP5705243B2 (ja) 電子機器及び電子機器の制御方法
JP6049990B2 (ja) 携帯電子機器、画面制御方法および画面制御プログラム
KR20140036846A (ko) 국부적인 피드백을 제공하는 사용자 단말 장치 및 그 방법
KR20180138004A (ko) 이동 단말기
KR20190021142A (ko) 전자 장치 및 어플리케이션 실행 방법
KR20180090589A (ko) 이동 단말기 및 이의 제어방법
WO2017090449A1 (ja) 触感呈示装置及び触感呈示方法
JP5555612B2 (ja) 触感呈示装置
JP2013045173A (ja) 電子機器
KR102405666B1 (ko) 터치 감지 신호를 제어하는 전자 장치, 방법 및 저장 매체
CN110998497A (zh) 包含力传感器的电子装置及其电子装置控制方法
JP5543618B2 (ja) 触感呈示装置
KR20190091126A (ko) 이동 단말기 및 그 제어 방법
JP5587759B2 (ja) 触感呈示装置、当該装置に用いるプログラムおよび触感呈示方法
JP5792553B2 (ja) 電子機器および制御方法
JP5697525B2 (ja) 通信端末、サーバ、触覚フィードバック生成方法および通信システム
KR102266191B1 (ko) 스크린을 제어하는 휴대 단말 및 방법
US20180335866A1 (en) Display apparatus and method for implementing touch feedback
US11003293B2 (en) Electronic device that executes assigned operation in response to touch pressure, and method therefor
JP5801689B2 (ja) 電子機器
KR20210016875A (ko) 터치 입력에 기반한 동작 방법 및 그 전자 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141105

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20141112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141203

R150 Certificate of patent or registration of utility model

Ref document number: 5661808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150