[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6226574B2 - ハプティックフィードバックコントロールシステム - Google Patents

ハプティックフィードバックコントロールシステム Download PDF

Info

Publication number
JP6226574B2
JP6226574B2 JP2013121243A JP2013121243A JP6226574B2 JP 6226574 B2 JP6226574 B2 JP 6226574B2 JP 2013121243 A JP2013121243 A JP 2013121243A JP 2013121243 A JP2013121243 A JP 2013121243A JP 6226574 B2 JP6226574 B2 JP 6226574B2
Authority
JP
Japan
Prior art keywords
haptic
control
feedback
user
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013121243A
Other languages
English (en)
Other versions
JP2014010831A (ja
Inventor
アマヤ ベクバー ウェドル
アマヤ ベクバー ウェドル
デイヴィッド バーンバウム
デイヴィッド バーンバウム
サトヴィール シン バティア
サトヴィール シン バティア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2014010831A publication Critical patent/JP2014010831A/ja
Application granted granted Critical
Publication of JP6226574B2 publication Critical patent/JP6226574B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

関連出願の相互参照
本出願は、2012年6月27日に出願された米国仮特許出願第61/664,918号の優先権を主張し、その開示は本明細書に参照により援用される。
分野
一実施形態は、概して、フィードバック、より具体的にはハプティックフィードバックに関する。
電子デバイスの製造者はユーザにとって豊かなインターフェースを製造することに注力している。従来のデバイスは、ユーザにフィードバックを提供するために、視覚的及び聴覚的合図を用いている。一部のインターフェースデバイスにおいて、より一般的には総括して「ハプティックフィードバック(触覚フィードバック)」または「ハプティック効果(触覚的効果)」として知られる、運動感覚フィードバック(作用力および抵抗力フィードバック等)および/またはタクタイル(触知的)フィードバック(振動、触感、及び熱等)もまた、ユーザに提供される。ハプティックフィードバックは、ユーザインターフェースを強化および単純化するきっかけを提供し得る。具体的に、振動効果、すなわち振動ハプティック効果は、ユーザに特定のイベントを通知するために、電子デバイスのユーザへの合図を提供するのに有用であり得るか、またはシミュレート環境もしくは仮想環境内でより大きく感覚を集中させるために、現実的なフィードバックを提供し得る。
ハプティックフィードバックはまた、携帯電話、携帯情報端末(「PDA」)、タブレット、スマートフォン、およびポータブルゲーム機器などの「携帯用デバイス」または「ポータブルデバイス」と称される、携帯用電子機器に次第に組み込まれている。例えば、一部のポータブルゲームアプリケーションは、ハプティックフィードバックを提供するように構成される、より大きなスケールのゲームシステムと共に使用されるコントロールデバイス(例えばジョイスティックなど)と同じように振動できる。さらに、携帯電話およびスマートフォンなどのデバイスは、振動により種々のアラートをユーザに提供できる。例えば、携帯電話は、振動により、かかってきた電話の呼び出しをユーザにアラートできる。同様に、スマートフォンは、予定したカレンダーアイテムをユーザにアラートできるか、または「to do」リストのアイテムもしくはカレンダーアポイントメントについてのリマインダーをユーザに提供できる。
さらに、このようなデバイスは、より実体験のように感じる経験を提供するために、デバイスがユーザに出力できるオーディオおよび/またはビデオ効果を補完するためにハプティックフィードバックを提供できる。例えば、ユーザがスマートフォンにより出力されるビデオを見ている場合、またはスマートフォンにより出力される音楽を聴いている場合、そのスマートフォンはまた、オーディオおよび/またはビデオを補完するハプティックフィードバックも出力できる。
一実施形態は、ユーザに対してフィードバック出力をコントロールするシステムである。そのシステムはユーザ入力を受信する。そのシステムはコンテキストを決定する。そのシステムはユーザ入力に応答して、かつ、コンテキストに基づいてコントロールを表示する。そのシステムはコントロールに従ってフィードバックパラメータを調整し、そのコントロールは、調整したフィードバックパラメータに基づいてユーザに対してフィードバック出力を調節するように構成される。
さらなる実施形態、詳細、利点、および修飾は、添付の図面を参照して、好ましい実施形態の以下の詳細な説明から明らかになるであろう。
本発明の一実施形態に係る触覚的に使用可能なシステムのブロック図を示す。 本発明の別の実施形態に係るハプティックフィードバックシステムのブロック図を示す。 本発明の一実施形態に係るデバイスのユーザインターフェース内に表示される例示的なハプティックコントロールを示す。 本発明の一実施形態に係るデバイスのユーザインターフェース内に表示されるハプティックコントロールの例示的な設定を示す。 本発明の一実施形態に係るユーザインターフェース内に表示される例示的なオーディオコントロールを示す。 本発明の一実施形態に係るユーザインターフェース内の例示的なオーディオコントロールと同時に表示される例示的なハプティックコントロールを示す。 本発明の一実施形態に係るハプティックフィードバックコントロールモジュールの機能のフローチャートを示す。 本発明の一実施形態に係るユーザインターフェース内の例示的なオーディオコントロールと同時に表示される例示的な仮想キーボードハプティックコントロールを示す。
一実施形態は、デバイスの物理的ボタンまたはスイッチにより提供される入力に基づいて、かつデバイスのコンテキストに基づいてユーザに出力されるハプティックフィードバックをコントロールするハプティックフィードバックコントロールシステムである。ハプティックフィードバックコントロールシステムは、物理的ボタンまたはスイッチにより提供される入力に応答して、かつデバイスのコンテキストがユーザに出力されるハプティックフィードバックをコントロールするのに適した決定に応答してハプティックコントロールユーザインターフェースを表示できる。ユーザは、例えば、デバイスにより提供され、ユーザに出力されるハプティックフィードバックをコントロールするために、ハプティックコントロールユーザインタフェースをタッチすることによって、ハプティックコントロールユーザインタフェースと相互作用できる。
本明細書に記載される場合、「ジェスチャ」は、意味またはユーザの意図を伝える身体の任意の動作である。簡単なジェスチャが組み合わされてより複雑なジェスチャが生成できる。例えば、指をタッチセンサ面に触れることは、「フィンガオン」ジェスチャと称され得るのに対して、タッチセンサ面から指をはなすことは、別の「フィンガオフ」ジェスチャと称され得る。「フィンガオン」と「フィンガオフ」ジェスチャとの間の時間が比較的短い場合、組み合わされたジェスチャは「タップ」または「プレス」と称され得る。「フィンガオン」と「フィンガオフ」ジェスチャとの間の時間が比較的長い場合、組み合わされたジェスチャは「長いタップ」または「長いプレス」と称され得る。「フィンガオン」と「フィンガオフ」ジェスチャの2次元(x,y)位置の間の距離が比較的長い場合、組み合わされたジェスチャは、「スワイプ」と称され得る。「フィンガオン」と「フィンガオフ」ジェスチャの2次元(x,y)位置の間の距離が比較的短い場合、組み合わされたジェスチャは「スメア」、「スマッジ」または「フリック」と称され得る。任意の数の2次元または3次元の簡単または複雑なジェスチャが、限定されないが、複数の指接触、掌または拳の接触、あるいはデバイスへの近接を含む、任意の数の他のジェスチャを形成するために任意の方式で組み合わされてもよい。ジェスチャはまた、加速度計、ジャイロスコープ、または他のモーションセンサを有するデバイスにより認識され、電気信号に変換される手の動作の任意の形態であってもよい。このような電気信号は振動などのハプティック効果を起動でき、センサは ハプティック効果を生成するユーザの意図をキャプチャする。さらに、「コントロールユーザインターフェース」または「コントロール」は、ユーザがユーザインターフェース内でジェスチャする場合、ユーザがデバイスによるフィードバック出力をコントロールできるデバイスにより表示できるユーザインターフェースである。
図1は、本発明の一実施形態に係る触覚的に可能なシステム110のブロック図を示す。システム110は、ハウジング115内に取り付けられるタッチセンサ面111または他の種類のユーザインターフェースを備え、物理的ボタン/スイッチ113を備えてもよい。システム110の内部は、システム110において振動などのハプティック効果を生成するハプティックフィードバックシステムである。一実施形態において、ハプティック効果はタッチ面111で生成される。
ハプティックフィードバックシステムは、プロセッサ112を備える。プロセッサ112にメモリ120および出力デバイス駆動回路116が接続され、その出力デバイス駆動回路116は出力デバイス118(例えばアクチュエータ)に接続される。プロセッサ112は、任意の種類の汎用プロセッサであってもよいか、またはハプティック効果を提供するように特定に設計されるプロセッサ、例えば特定用途向け集積回路(「ASIC」)であってもよい。プロセッサ112は、システム110全体を作動する同じプロセッサであってもよく、または別個のプロセッサであってもよい。プロセッサ112は、どのようなハプティック効果を起用するか、および高レベルのパラメータに基づいて効果が起用される順序を決定できる。通常、特定のハプティック効果を規定する高レベルのパラメータとしては、大きさ、周波数および持続時間が挙げられる。ストリーミングモータコマンドなどの低レベルのパラメータもまた、特定のハプティック効果を決定するために使用されてもよい。ハプティック効果が生成されるときのこれらのパラメータの一部の変化、またはユーザの相互作用に基づいたこれらのパラメータの変化を含む場合、ハプティック効果は「ダイナミック(動的)」と見なされてもよい。
プロセッサ112は制御信号を駆動回路116に出力し、その駆動回路116は、所望のハプティック効果を生じさせるために必要な電流および電圧を出力デバイス118に供給するために使用される電子部品および電気回路を含む。システム110は1つより多い出力デバイス118を備えてもよく、各出力デバイスは、共通のプロセッサ112に全て接続される、別個の駆動回路116を備えてもよい。メモリデバイス120は、任意の種類の記憶デバイスまたはコンピュータ可読媒体、例えばランダムアクセスメモリ(「RAM」)またはリードオンリメモリ(「ROM」)であってもよい。メモリ120はプロセッサ112により実行された命令を保存する。命令のうち、メモリ120は出力デバイスドライブモジュール122を含み、その出力デバイスドライブモジュール122は、プロセッサ112により実行された場合、出力デバイス118からフィードバックを決定し、それに応じてドライブ信号を調節もしながら、出力デバイス118についてのドライブ信号を生成する、命令である。モジュール122の機能を以下により詳細に説明する。メモリ120はまた、プロセッサ112の内部に配置されてもよいか、または内部および外部メモリの任意の組み合わせであってもよい。
タッチ面111は、タッチ(触覚)を認識し、表面上のタッチの位置および大きさまたは圧力も認識できる。タッチに対応するデータは、プロセッサ112またはシステム110内の別のプロセッサに送られ、プロセッサ112は、タッチを解釈し、それに応じてハプティック効果信号を生成する。タッチ面111は、容量検出、抵抗検出、表面音響波検出、圧力検出、光検出などを含む、任意の検出技術を用いてタッチを検出できる。タッチ面111は、マルチタッチ接触を検出でき、同時に生じる複数のタッチを識別できる。タッチ面111は、キー、ダイアルなどと相互作用するユーザのための画像を生成し、表示するタッチスクリーンであってもよく、または最小の画像を有するか、または画像を有さないタッチパッドであってもよい。
システム110は、携帯電話、携帯情報端末(「PDA」)、コンピュータタブレット、ゲーム機などの携帯端末であってもよく、またはユーザインターフェースを提供し、1つ以上の偏心回転質量モータ(「ERM」)、線形共鳴アクチュエータ(「LRAs」)、静電気アクチュエータまたは他の種類のアクチュエータを備える任意の他の種類のデバイスであってもよい。ユーザインターフェースは、タッチセンサ面であってもよく、またはマウス、タッチパッド、ミニジョイスティック、スクロールホイール、トラックボール、ゲームパッドまたはゲームコントローラなどの任意の他の種類のユーザインターフェースであってもよい。1つより多いアクチュエータに関する実施形態において、各アクチュエータはデバイスに対して広範囲のハプティック効果を生成するために異なる出力能力を有してもよい。各アクチュエータは、任意の種類のハプティックアクチュエータまたは単一もしくは多次元アレイのアクチュエータであってもよい。
図2は、本発明の別の実施形態に係るハプティックフィードバックシステム210のブロック図を示す。一実施形態において、ハプティックフィードバックシステム210はデバイス(例えば図1のデバイス110)の一部であり、ハプティックフィードバックシステム210はデバイスのためのハプティックフィードバックコントロール機能を提供する。単一のシステムとして示されるが、ハプティックフィードバックシステム210の機能は分散システムとして実装されてもよい。ハプティックフィードバックシステム210は、情報を通信するためのバス212または他の通信機構、および情報を処理するためのバス212に連結されるプロセッサ222を含む。プロセッサ222は汎用または特定目的のプロセッサのいずれの種類であってもよい。ハプティックフィードバックシステム210はさらに、情報を記憶するためのメモリ214およびプロセッサ222により実行される命令を含む。メモリ214は、RAM、ROM、磁気ディスクもしくは光ディスクなどの静的記憶デバイス、または任意の他の種類のコンピュータ可読媒体の任意の組み合わせから構成されてもよい。
コンピュータ可読媒体は、プロセッサ222によりアクセスされ得る任意の利用可能な媒体であってもよく、揮発性媒体および非揮発性媒体の両方、リムーバルおよびノンリムーバル媒体、通信媒体、ならびに記憶媒体を含んでもよい。通信媒体は、搬送波または他の搬送機構などの変調データ信号内にコンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータを含んでもよく、当該技術分野において公知の任意の他の形態の情報送信媒体を含んでもよい。記憶媒体は、RAM、フラッシュメモリ、ROM、消去可能プログラマブルリードオンリメモリ(「EPROM」)、電気的消去可能プログラマブルリードオンリメモリ(「EEPROM」)、レジスタ、ハードディスク、リムーバルディスク、コンパクトディスクリードオンリメモリ(「CD−ROM」)、または当該技術分野において公知の任意の他の形態の記憶媒体を含んでもよい。
一実施形態において、メモリ214は、プロセッサ222により実行される場合、機能を提供するソフトウェアモジュールを記憶する。モジュールは、ハプティックフィードバックシステム210のためのオペレーティングシステム機能を提供するオペレーティングシステム215、ならびに一実施形態におけるモバイルデバイスの残りを含む。モジュールはさらに、以下により詳細に開示されるようにハプティックフィードバックをコントロールするハプティックフィードバックコントロールモジュール216を含む。特定の実施形態において、ハプティックフィードバックコントロールモジュール216は複数のモジュールを含んでもよく、各個々のモジュールはハプティックフィードバックをコントロールするための特定の個々の機能を提供する。ハプティックフィードバックシステム210は典型的に、Immersion CorporationによるIntegrator(商標)などの追加の機能を含むように1つ以上の追加のアプリケーションモジュール218を含む。
リモートソースからデータを送信および/または受信する実施形態において、ハプティックフィードバックシステム210はさらに、赤外線、無線、Wi−Fi、またはセルラーネットワーク通信などの移動無線ネットワーク通信を提供するために、ネットワークインターフェースカードなどの通信デバイス220を含む。他の実施形態において、通信デバイス220は、イーサネット(登録商標)接続またはモデムなどの有線ネットワーク接続を提供する。
プロセッサ222はさらに、バス212を介して、グラフィック描写を表示するための液晶ディスプレイ(「LCD」)などのディスプレイ224またはユーザに対するユーザインターフェースに接続される。ディスプレイ224は、プロセッサ222から信号を送信し、受信するように構成される、タッチスクリーンなどのタッチセンサ入力デバイスであってもよく、マルチタッチのタッチスクリーンであってもよい。プロセッサ222はさらに、マウスまたはタッチペンなどのユーザがハプティックフィードバックシステム210と相互作用できるキーボードまたはカーソルコントロール228に接続されてもよい。
一実施形態において、システム210はさらに、アクチュエータ226を含む。プロセッサ222は、生成されたハプティック効果に関連するハプティック信号をアクチュエータ226に送信してもよく、次いで振動触覚ハプティック効果などのハプティック効果を出力する。アクチュエータ226はアクチュエータ駆動回路を含む。アクチュエータ226は、例えば、電気モータ、電磁気アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマー、ソレノイド、ERM、LRA、圧電アクチュエータ、高帯域アクチュエータ、電気活性ポリマー(「EAP」)アクチュエータ、静電摩擦ディスプレイ、または超音波振動発生器であってもよい。代替の実施形態において、ハプティックフィードバックシステム210は、アクチュエータ226に加えて1つ以上の追加のアクチュエータを含んでもよい(図2に示さず)。他の実施形態において、ハプティックフィードバックシステム210とは別個のデバイスが、ハプティック効果を生成するアクチュエータを含み、ハプティックフィードバックシステム210は、生成されたハプティック効果信号を、通信デバイス220を介して、そのデバイスに送信する。
ハプティックフィードバックシステム210はさらにデータベース230に作動可能に接続されてもよく、そのデータベース230は、モジュール216および218により使用されるデータを記憶するように構成されてもよい。データベース230は、操作可能なデータベース、分析的データベース、データウェアハウス、分散データベース、エンドユーザデータベース、外部データベース、ナビゲーションデータベース、インメモリデータベース、ドキュメント指向性データベース、リアルタイムデータベース、リレーショナルデータベース、オブジェクト指向性データベース、または当該技術分野において公知の任意の他のデータベースであってもよい。
図3は、本発明の一実施形態に係るデバイス310のユーザインターフェース内に表示される例示的なハプティックコントロール320を示す。デバイス310は、携帯電話、PDA、コンピュータタブレット、ゲーム機などの携帯端末であってもよいか、またはユーザインターフェースを提供し、1つ以上のERM、LRA、電気アクチュエータもしくは他の種類のアクチュエータを含むハプティック効果システムを備える任意の他の種類のデバイスであってもよい。上記のように、デバイス310は、分離して、またはオーディオおよび/もしくはビデオと併せてのいずれかでユーザにハプティックフィードバックを提供してもよい。例えば、デバイス310は、オーディオをユーザに提供してもよく(例えばミュージックをプレイする)、オーディオをハプティックフィードバックに変換するために1つ以上のアルゴリズムを使用してもよく、オーディオと併せてハプティックフィードバックを提供してもよい。通常、ユーザは、このようなハプティックフィードバックの厳格なコントロールを望み、ユーザは、ハプティックフィードバックを調節するために、オーディオおよび/またはビデオを出力するアプリケーションを終了する(それにより、ユーザのエンターテーメントを中断する)ことが面倒になり得る。さらに、ユーザは、デバイス310により提供されるハプティックフィードバックの厳格なコントロールを望むので、ユーザは、デバイス310がどのようにユーザにハプティックフィードバックを提供するかを調節するために、デバイス310により提供されるフィードバックを中断することが非常に面倒になり得る。例えば、ユーザが、ユーザに提供されるハプティックフィードバックを調節するために、デバイス310の「設定」ユーザインターフェースにアクセスするために、デバイス310によるオーディオの提供を一時停止できるが、設定ユーザインターフェースのアクセスは時間集約的なプロセスであり得るので、デバイス310により提供されるオーディオの楽しみを中断し得る。
実施形態によれば、デバイス310はハプティックコントロール320を表示でき、そのハプティックコントロール320は、デバイス310により提供され得るハプティックフィードバックをコントロールするように構成される。より具体的には、ハプティックコントロール320は、デバイス310により提供され得るハプティックフィードバックの1つ以上のハプティックパラメータを調節するように構成されてもよく、1つ以上のハプティックパラメータの調節により、ハプティックフィードバックが調節される。例示的なハプティックフィードバックパラメータはハプティックフィードバックの強度をコントロールする強度パラメータである。別の例示的なハプティックフィードバックパラメータは、ハプティックフィードバックの密度をコントロールする密度パラメータである。さらに別の例示的なハプティックフィードバックパラメータは、ハプティックフィードバックの精度(シャープネス)をコントロールする精度(シャープネス)パラメータである。
さらなる例示的なハプティックフィードバックパラメータは、ハプティックフィードバックの「モード」をコントロールするモードパラメータである。より具体的には、特定のハプティックフィードバックパラメータ構成は、「モード」として分類されてもよく、そのハプティックフィードバックパラメータ構成は、複数のハプティックパラメータおよび対応する複数の規定値を含む。一例において、強度、密度、および精度パラメータが特定の大きな値と関連するハプティックフィードバック構成が、「強」モードとして分類されてもよい。対照的に、強度、密度、および精度パラメータが特定の小さな値と関連するハプティックフィードバック構成が、「弱」モードとして分類されてもよい。「弱」モードから「強」モードまでモードパラメータを調節することによって、ハプティックフィードバックが調節されてもよく、ハプティックフィードバックの強度、密度、および精度は、それらのそれぞれの小さな値からそれらのそれぞれの大きな値まで全て増加する。特定の実施形態において、モードは、ハプティックフィードバックが補完できるコンテキストに基づいて定義されてもよい。例えば、「オーディオ」モードは、オーディオを補完するハプティックフィードバックを生成する複数のハプティックパラメータおよび対応する複数の規定値を含むように定義されてもよい。別の例として、「ビデオ」モードが、ビデオを補完するハプティックフィードバックを生成する複数のハプティックパラメータおよび対応する複数の規定値を含むように定義されてもよい。
示した実施形態において、ハプティックコントロール320は、アイコン、タイトル、スライダ、ラベル、OKボタン、およびキャンセルボタンを含む。しかしながら、示した実施形態は単なる例示的な実施形態であり、代替の実施形態において、ハプティックコントロール320が代替の外観を有してもよい。
一実施形態によれば、デバイス310によるハプティックコントロール320の表示は、デバイス310に関連する「コンテキスト」に基づいてコントロールされてもよい。「コンテキスト」はデバイス310により実施される機能の分類である。非限定的な例として、デバイス310は、音声電話またはオーディオ通知などの通信ベースのコンテンツを出力する機能を実施してもよい。この機能は「通信」コンテキストとして分類されてもよく、それは、ハプティックフィードバックがこのコンテキストに適していないと決定されてもよい。別の非限定的な例として、デバイス310は、オーディオソングまたはビデオムービーを出力することなどのメディアコンテンツを出力する機能を実施してもよい。この機能は、「メディア」コンテキストとして分類されてもよく、それは、ハプティックフィードバックがこのコンテキストに適していると決定されてもよい。これらはデバイス310のコンテキストの単なる非限定的な例であり、デバイス310により実施される他の種類の機能に基づいて他の種類のコンテキストが存在してもよい。実施形態によれば、デバイス310に関連するコンテキストが、ハプティックフィードバックをコントロールするのに適したコンテキストである場合、ハプティックコントロール320はデバイス310により表示されるだけであってもよい。上記の非限定的な例において、デバイス310が通信コンテキスト中である場合、デバイス310は、ハプティックコントロール320が表示されることを防いでもよい。対照的に、デバイス310がメディアコンテキスト中である場合、デバイス310は、ハプティックコントロールを表示させてもよい。特定の実施形態において、デバイス310は、デバイス310に関連するコンテキストを識別するコンテキストメタデータを生成してもよい。さらに、特定の実施形態において、たとえコンテキストがデバイス310と関連しようと、デバイス310は、ハプティックコントロール320が表示されることを防いでもよい。
別の非限定的な例として、デバイス310は、1つ以上の予め生成されたまたは予め加えられたハプティック効果を含むメディアコンテンツを出力する機能を実施してもよい。この機能は、「ハプティックメディア」コンテキストとして分類されてもよく、それは、ハプティックフィードバックがこのコンテキストに適していないと決定されてもよい。例えば、ムービーまたはゲームが、そのコンテンツのプロデューサまたはプログラマが挿入した1つ以上の予め生成されたまたは予め加えられたハプティック効果を含む場合、オーディオにより生成されたハプティック効果をエンドユーザが使用できることは望ましくない場合がある。なぜなら、それらのハプティック効果は、予め生成されたまたは予め加えられたハプティック効果とコンフリクトする場合があるからである。この非限定的な例において、一貫性および明確性のために、ユーザが、デバイス310の物理的スイッチ(または一部の他の入力)と相互作用する場合、ハプティックコントロールがさらに出現してもよいが、ハプティックコントロールは無効にされてもよく、それ故、エンドユーザがハプティックコントロールと相互作用することは可能ではない。
一実施形態において、デバイス310は、出力されるオーディオをハプティックフィードバックに自動的に変換する機能を実施してもよい。この実施形態において、デバイス310は、出力されるオーディオをハプティックフィードバックに自動的に変換し、オーディオおよびハプティックフィードバックの両方を出力するために1つ以上のアルゴリズムを使用してもよい。この機能は、「オーディオ−ハプティック」コンテキストとして分類されてもよく、それは、ハプティックフィードバックがこのコンテキストに適していると決定されてもよい。したがって、デバイス310が、オーディオ−ハプティックコンテキストと関連する場合、デバイス310は、ハプティックコントロール320を表示させてもよく、ハプティックコントロール320は、デバイス310によりまた生成されるオーディオをハプティックフィードバックに自動的に変換することにより生成されるハプティックフィードバックの1つ以上のパラメータをコントロールするために使用されてもよい。
一実施形態によれば、デバイス310は、1つ以上の物理的ボタンまたは物理的スイッチなどの1つ以上の物理的入力デバイスを含んでもよい。通常、携帯端末は、プッシュボタンなどの1つ以上の物理的ボタン、またはロッカスイッチ、トグルスイッチ、インラインスイッチ、もしくはプッシュボタンスイッチなどの1つ以上の物理的スイッチを含む。実施形態によれば、デバイス310の物理的ボタンまたは物理的スイッチをタッチすることによって、ユーザは、デバイス310にハプティックコントロール320を表示させることができる。さらに、デバイス310の物理的ボタンまたは物理的スイッチをタッチすることによって、ユーザは、デバイス310にハプティックコントロール320の1つ以上の設定を調節させることができる。例えば、デバイス310の物理的ボタンまたは物理的スイッチをタッチすることによって、ユーザは、デバイス310により提供され得るハプティックフィードバックの1つ以上のハプティックパラメータをデバイス310に調節させることができ、1つ以上のハプティックパラメータの調節により、ハプティックフィードバックが調節される。特定の実施形態において、ユーザがデバイス310の物理的ボタンまたは物理的スイッチをタッチする場合、デバイス310に関連するコンテキストが、ハプティックフィードバックをコントロールするのに適したコンテキストである場合、デバイス310は、ハプティックコントロール320を表示するだけである。特定の実施形態において、デバイス310の物理的ボタンまたは物理的スイッチは、ハプティックコントロール320の表示専用およびハプティックコントロール320の1つ以上の設定の調節専用であり、他の機能を実施しない。他の実施形態において、デバイス310の物理的ボタンまたは物理的スイッチはまた、デバイス310により出力されるオーディオの1つ以上の特性をコントロールすることなどのデバイス310の他の機能をコントロールする。
特定の実施形態において、ユーザがデバイス310の複数の物理的ボタンまたは物理的スイッチをタッチする場合、デバイス310は、ハプティックコントロール320を表示する。複数のタッチはタッチの任意の組み合わせであってもよい。他の実施形態において、ユーザが特定の期間、デバイス310の物理的ボタンまたは物理的スイッチをタッチする場合、デバイス310は、ハプティックコントロール320を表示する。これは、「ロングタッチ」または「ロングプレス」として識別されてもよい。したがって、ユーザが310の物理的ボタンまたは物理的スイッチをロングタッチまたはロングプレスする場合、ハプティックコントロール320は、デバイス310内に表示されるだけである。
特定の実施形態において、ユーザがデバイス310により表示され得る仮想ボタンまたはスイッチをタッチする場合、デバイス310はハプティックコントロール320を表示する。例えば、一実施形態において、ユーザが設定アプリケーションにアクセスし、デバイス310により表示され得る設定アプリケーションの仮想ボタンまたはスイッチにタッチする場合、デバイス310は、ハプティックコントロール320を表示する。他の実施形態において、ユーザがデバイス310の表面内でジェスチャする場合、デバイス310は、ハプティックコントロール320を表示する。他の実施形態において、ユーザがデバイス310のセンサの近距離内でジェスチャする場合、デバイス310は、ハプティックコントロール320を表示する。
特定の実施形態において、ハプティックコントロール320はスライダを含んでもよい。これらの実施形態において、ハプティックコントロール320のスライダは、ハプティックフィードバックパラメータをコントロールするために使用される1つ以上の値と関連してもよい。ハプティックコントロール320のスライダを左または右に動かすことによって、ユーザはハプティックコントロール320と関連する値をコントロールでき、それにより、ハプティックコントロール320と関連するハプティックパラメータをコントロールできる(すなわち、ハプティックパラメータと関連する値を増加または低下させる)。したがって、ハプティックコントロール320のスライダを左または右に動かすことによって、ユーザはデバイス310により出力されるハプティックフィードバックをコントロールできる。ハプティックコントロール320のスライダをさらに図4に関して詳細に記載する。
特定の実施形態において、デバイス310は、オーディオコントロールと共にハプティックコントロール320を同時に表示し、そのオーディオコントロールは、デバイス310により提供され得るオーディオをコントロールするように構成される。オーディオコントロールと共にハプティックコントロール320の同時ディスプレイをさらに図5および6に関してより詳細に記載する。
特定の実施形態において、デバイス310により提供され得るハプティックフィードバックをコントロールするように構成されるハプティックコントロール320を表示する以外に、デバイス310は、デバイス310により提供され得、ユーザに出力され得る他のコンテンツまたはフィードバックをコントロールするように構成されるコントロールを表示できる。そのようなフィードバックまたはコンテンツはオーディオまたはビデオを含んでもよい。代替の実施形態において、デバイス310は、仮想キーボードにおける1つ以上のキーストロークによりトリガされるハプティックフィードバックなどのメディアコンテンツに関連していないハプティックフィードバックをコントロールするように構成されるコントロールを表示できる。そのような実施形態を図8に関して以下により詳細に記載する。別の代替の実施形態において、デバイス310は、上記のように、予め生成されたまたは予め設計されたハプティック効果が存在するハプティックフィードバックをコントロールするように構成されるコントロールを表示できる。この代替の実施形態において、コントロールが存在してもよいが、無効にされてもよい。予め生成されたまたは予め設計されたハプティック効果が存在する別の実施形態において、コントロールは、予め生成されたまたは予め設計されたハプティック効果の1つ以上のハプティックフィードバックパラメータを調節してもよい。例えば、ビデオまたは他のメディアコンテンツのプロデューサは、ビデオもデバイス310により出力される場合、デバイス310により出力され得る1つ以上のハプティック効果を設計または生成してもよい。次いでユーザは、例えば、コントロールを用いてこれらの生成されたまたは設計されたハプティック効果の強度をコントロールできる。加えて、コントロールにより調節され得る1つ以上のハプティックフィードバックパラメータ、および1つ以上のハプティックフィードバックがコントロールにより調節され得る方法は、プロデューサにより決定されてもよい。例えば、プロデューサは強度のみを決定してもよく、ハプティック効果の密度はユーザによりコントロールされなくてもよい。したがって、メディアコンテンツ内に埋め込まれ得るハプティックコンテンツは、ハプティックフィードバックパラメータがユーザによりコントロールされ得ることについての情報を含んでもよい。別の代替の実施形態において、ユーザインターフェースイベントは特定のコンテンツ内に関連したコントロールを含んでもよい。例えば、デバイス310がミュージックアプリケーションを実行する場合、オーディオはプレイされないが、ユーザは、ミュージックアプリケーションのユーザインターフェース内でプレイするためにソングまたはトラックを検索し、次いでユーザは、その時にユーザインターフェースイベントのためのハプティックコントロールを(例えば、強度ハプティックフィードバックパラメータ、密度ハプティックフィードバックパラメータ、または精度ハプティックフィードバックパラメータなどの1つ以上のハプティックフィードバックパラメータをコントロールするために)トリガできる。しかしながら、一旦ソングまたはトラックが選択され、ミュージックアプリケーションによりプレイされる場合、コンテキストが、メディアコンテキストなどの別のコンテキストにスイッチしてもよく、ユーザは、ユーザインターフェースイベントのためのハプティックコントロールをもはやトリガできない。さらに別の代替の実施形態において、デバイス310は、別のデバイス(有線または無線周辺デバイスなど)からデバイス310により受信される1つ以上の信号により生成されるハプティックフィードバックをコントロールするように構成されるコントロールを表示してもよい。別の実施形態において、デバイス310は、デバイス310の表示の輝度をコントロールするように構成されるコントロールを表示してもよい。
図4は、本発明の一実施形態に係る、デバイス400のユーザインターフェース内に表示されるハプティックコントロール(すなわち、ハプティックコントロール420、430、440、および450)の例示的な設定を示す。特定の実施形態において、上記のように、ハプティックコントロールはスライダを含んでもよく、そのスライダは、ハプティックフィードバックパラメータをコントロールするために使用される1つ以上の値と関連してもよい。図4の例示した実施形態において、ハプティックコントロールのスライダは4つの位置と関連し、その各々の位置はハプティックフィードバックパラメータをコントロールするために使用される値に対応し、そのハプティックコントロール420は第1の位置と関連するスライダを示し、ハプティックコントロール430は第2の位置と関連するスライダを示し、ハプティックコントロール440は第3の位置と関連するスライダを示し、ハプティックコントロール450は第4の位置と関連するスライダを示す。しかしながら、図4の例示した実施形態は単なる例示的な実施形態であり、代替の実施形態において、ハプティックコントロールのスライダは任意の数の位置と関連してもよい。さらに、特定の実施形態において、スライダは無限数の位置と関連するように認識されてもよい。
別の実施形態において、ハプティックコントロールは、キーフレーム(すなわち補間点)を使用する1つ以上のダイナミック(動的)ハプティック効果をコントロールできる。例えば、「有限」および「無限」位置を含むスライダは、ダイナミックハプティック効果のコンテキスト内に表示されてもよく、キーレフームはそれに応じてリアルタイムで移動され、調節されてもよい。
上記のように、ハプティックコントロールのスライダを左または右に移動させることによって、ユーザはハプティックコントロールに関連する値をコントロールでき、それにより、ハプティックコントロールに関連するハプティックパラメータをコントロールできる(すなわちハプティックパラメータに関連する値を増加または低下できる)。したがって、ハプティックコントロールのスライダを左または右に移動させることによって、ユーザは、デバイス410により出力されるハプティックフィードバックをコントロールできる。図4の示した実施形態において、スライダは、「オフ」のラベルに関連するハプティックパラメータの第1の値を有する、(ハプティックコントロール420により示される)第1の位置を有する。スライダはまた、「弱」のラベルに関連するハプティックパラメータの第2の値を有する、(ハプティックコントロール430により示される)第2の位置を有する。スライダはまた、「中」のラベルに関連するハプティックパラメータの第3の値を有する、(ハプティックコントロール440により示される)第3の位置を有する。スライダはまた、「強」のラベルに関連するハプティックパラメータの第4の値を有する、(ハプティックコントロール450により示される)第4の位置を有する。示した実施形態によれば、ユーザがデバイス410のハプティックコントロール内でジェスチャをする場合、スライダは、ハプティックコントロール420、430、440、および450により示される位置の1つまで移動してもよい。さらに、ハプティックコントロール420、430、440、および450により示されるように、ハプティックコントロール内に表示されるラベルは、スライダが移動すると、ダイナミック(動的)に変化してもよい。代替の実施形態において、デバイスのハプティックコントロール内でジェスチャする以外に、ユーザは、デバイス410の物理的ボタンまたはスイッチをタッチすることによってスライダを移動させてもよい。特定の実施形態において、ユーザがリアルタイムでスライダを異なる位置に移動させると、ハプティックコントロールはハプティックパラメータを調節する。他の実施形態において、ハプティックコントロールは、(例えば、ユーザが、OKボタンを押すことなどのジェスチャすることを待機することによって、またはデバイス410がハプティックコントロールを表示させないことを待機することによって)ハプティックパラメータを調節するために待機する。特定の実施形態において、ハプティックコントロールは、以前の値と新たな値との間でハプティックパラメータを補間することによって、ハプティックパラメータを調節する。
図5は、本発明の一実施形態に係る、ユーザインターフェース510内に表示される例示的なオーディオコントロール520を示す。特定の実施形態において、上記のように、デバイスは、オーディオコントロールと共にハプティックコントロールを同時に表示し、そのオーディオコントロールは、デバイスにより与えられ得るオーディオをコントロールするように構成される。特定の実施形態において、デバイスに関連するコンテキストがハプティックフィードバックをコントロールするのに適したコンテキストである場合、そのデバイスは、オーディオコントロールと共にハプティックコントロールのみを同時に表示する。そうでなければ、デバイスはオーディオコントロールを表示するだけであり、ハプティックコントロールを表示しない。また、特定の実施形態において、デバイスは、ユーザがデバイスの物理的ボタンまたはスイッチをタッチすることに応答して、ハプティックコントロールおよびオーディオコントロールを同時に表示するか、またはオーディオコントロールのみを表示する。
示した実施形態によれば、オーディオコントロール520は、ユーザインターフェース510を表示するデバイスの物理的ボタンまたはスイッチをユーザがタッチすることに応答してユーザインターフェース510内で表示される。また、実施形態によれば、(例えば、デバイスが「着信音」などの出力オーディオである場合)デバイスがハプティックフィードバックのコントロールに適していない関連するコンテキストを有することをデバイスは決定する。デバイスはハプティックフィードバックのコントロールに適していない関連するコンテキストを有するので、デバイスは、ユーザインターフェース510内にオーディオコントロール520を表示し、ユーザインターフェース510内にハプティックコントロールを表示しない。
図6は、本発明の一実施形態に係る、ユーザインターフェース610内に例示的なオーディオコントロール620と共に同時に表示される例示的なハプティックコントロール630を示す。示した実施形態によれば、オーディオコントロール620は、ユーザがユーザインターフェース610を表示するデバイスの物理的ボタンまたはスイッチをタッチすることに応答してユーザインターフェース610内に表示される。また、実施形態によれば、(例えば、デバイスが出力オーディオであり、オーディオを、同様に出力されるハプティックフィードバックに自動的に変換する場合)デバイスがハプティックフィードバックのコントロールに適した関連するコンテキストを有することをデバイスは決定する。デバイスはハプティックフィードバックのコントロールに適した関連するコンテキストを有するので、デバイスは、ユーザインターフェース610内にオーディオコントロール620およびハプティックコントロール630を同時に表示する。ハプティックコントロール630は、図3のハプティックコントロール320、ならびに図4のハプティックコントロール420、430、440、および450と機能的に同様に実施できる。特定の実施形態において、ユーザは、オーディオコントロール620またはハプティックコントロール630のいずれか内でジェスチャでき、その後、ユーザがユーザインターフェース610を表示するデバイスの物理的ボタンまたはスイッチをタッチする場合、ユーザは、オーディオコントロール620またはハプティックコントロール630のいずれかのスライダをコントロールできる。代替の実施形態において、ユーザがユーザインターフェース610を表示するデバイスの物理的ボタンまたはスイッチをタッチする場合、ユーザはオーディオコントロール620のスライダをコントロールでき、ユーザがハプティックコントロール630内でジェスチャする場合、ユーザはハプティックコントロール630のスライダをコントロールできる。代替の実施形態において、ユーザがユーザインターフェース610を表示するデバイスの物理的ボタンまたはスイッチをタッチする場合、ユーザは最初にオーディオコントロール620をコントロールする。オーディオコントロール620のスライダが「0」の値を表わす位置にある場合、ユーザインターフェース610を表示するデバイスの物理的ボタンまたはスイッチの後のタッチはハプティックコントロール630をコントロールする。
特定の実施形態において、ユーザインターフェース610内に単一のオーディオコントロール(例えばオーディオコントロール620)を表示する以外に、デバイスはユーザインターフェース610内に複数のオーディオコントロールを表示してもよい。これらの実施形態において、デバイスは複数のオーディオコントロールと共にハプティックコントロール630を同時に表示してもよい。
図7は、本発明の一実施形態に係る、ハプティックフィードバックコントロールモジュール(図1の出力デバイス駆動モジュール122、または図2のハプティックフィードバックコントロールモジュール216)の機能のフローチャートを示す。一実施形態において、図7の機能は、メモリまたは別のコンピュータ可読媒体もしくは有形的表現媒体に記憶され、プロセッサにより実行されるソフトウェアにより実装される。他の実施形態において、機能は、ハードウェアにより(例えば、ASIC、プログラマブルゲートアレイ(「PGA」)、フィールドプログラマブルゲートアレイ(「FPGA」)などの使用により)、またはハードウェアおよびソフトウェアの任意の組み合わせにより実施されてもよい。さらに、代替の実施形態において、機能は同様のコンポーネントを使用してハードウェアにより実施されてもよい。
フローは開始し、710に進む。710において、ユーザ入力はデバイスの1つ以上のハードウェアボタンまたはスイッチから受信される。特定の実施形態において、ユーザ入力は、デバイスの1つ以上のハードウェアボタンまたはスイッチの1つ以上のタッチに応答して生成される信号を含んでもよい。これらの実施形態の一部において、ユーザ入力は、デバイスの単一のハードウェアボタンまたはスイッチの単一のタッチに応答して生成される信号を含んでもよい。これらの実施形態の他のものにおいて、ユーザ入力は、デバイスの複数のハードウェアボタンまたはスイッチのタッチの組み合わせに応答して生成される1つ以上の信号を含んでもよい。これらの実施形態の他のものにおいて、ユーザ入力は、デバイスの単一のハードウェアボタンまたはスイッチのロングタッチに応答して生成される信号を含んでもよい。他の実施形態において、ユーザ入力は、1つ以上のハードウェアボタンまたはスイッチ以外のデバイスの1つ以上の仮想ボタンまたはスイッチから受信されてもよい。他の実施形態において、ユーザ入力は、1つ以上のハードウェアボタンまたはスイッチ以外のデバイスのセンサから受信されてもよい。さらに、他の実施形態において、ユーザ入力は、ユーザがデバイスで実施するジェスチャに応答して生成される信号を含んでもよい。フローは720に進む。
720において、デバイスの現在のコンテキストが決定される。現在のコンテキストはデバイスにより現在実施される機能の分類を含んでもよい。現在のコンテキストの決定は、現在のコンテキストがハプティックフィードバックをコントロールするのに適しているかどうかを決定することを含んでもよい。フローは730に進む。
730において、ハプティックコントロールユーザインターフェース(または「ハプティックコントロール」)は、ユーザ入力に応答して、かつ現在のコンテキストに基づいて表示される。特定の実施形態において、ハプティックコントロールは、ユーザ入力に応答してオーディオコントロールユーザインターフェース(または「オーディオコントロール」)と共に表示されてもよく、そのオーディオコントロールはオーディオを調節するように構成される。これらの実施形態の一部において、ハプティックコントロールおよびオーディオコントロールはデバイスのユーザインターフェース内に同時に表示されてもよい。特定の実施形態において、ハプティックコントロールはスライダを含んでもよい。他の実施形態において、ハプティックコントロール以外に、別のタイプのコントロールが、ユーザ入力に応答して、かつ現在のコンテキストに基づいて表示されてもよい。特定の実施形態において、コントロールは、仮想キーボードにより生成されるハプティックフィードバックを調節するように構成される仮想キーボードハプティックコントロールであってもよい。他の実施形態において、コントロールは、1つ以上の予め設計されたハプティック効果により生成されるハプティックフィードバックを調節するように構成されるハプティックコントロールであってもよい。他の代替の実施形態において、コントロールは、ユーザインターフェース要素により生成されるハプティックフィードバックを調節するように構成されるハプティックコントロールであってもよい。さらに他の実施形態において、コントロールは、1つ以上のキーフレームを使用する1つ以上のダイナミックハプティック効果により生成されるハプティックフィードバックを調節するように構成されるハプティックコントロールであってもよい。さらに他の代替の実施形態において、コントロールは、受信される1つ以上の信号により生成されるハプティックフィードバックを調節するように構成されるハプティックコントロールであってもよい。さらに他の実施形態において、コントロールは、ディスプレイの輝度を調節するように構成されるコントロールであってもよい。フローは740に進む。
740において、第2のユーザ入力がハプティックコントロールから受信される。特定の実施形態において、第2のユーザ入力は、デバイスの1つ以上のハードウェアボタンまたはスイッチの1つ以上のタッチに応答して生成される信号を含んでもよい。これらの実施形態の一部において、第2のユーザ入力は、デバイスの単一のハードウェアボタンまたはスイッチの単一のタッチに応答して生成される信号を含んでもよい。これらの実施形態の他のものにおいて、第2のユーザ入力は、デバイスの複数のハードウェアボタンまたはスイッチのタッチの組み合わせに応答して生成される1つ以上の信号を含んでもよい。これらの実施形態の他のものにおいて、第2のユーザ入力は、デバイスの単一のハードウェアボタンまたはスイッチのロングタッチに応答して生成される信号を含んでもよい。他の実施形態において、第2のユーザ入力は、1つ以上のハードウェアボタンまたはスイッチ以外のデバイスの1つ以上の仮想ボタンまたはスイッチから受信されてもよい。他の実施形態において、第2のユーザ入力は、1つ以上のハードウェアボタンまたはスイッチ以外のデバイスのセンサから受信されてもよい。特定の実施形態において、第2のユーザ入力は、ハプティックコントロール内のジェスチャに応答して生成される信号を含んでもよい。フローは750に進む。
750において、ハプティックフィードバックパラメータは第2のユーザ入力に基づいて調節される。ハプティックコントロールは、調節されたハプティックフィードバックパラメータに基づいてハプティックフィードバックを調節してもよい。特定の実施形態において、ハプティックフィードバックパラメータは、強度パラメータ、密度パラメータ、精度パラメータ、またはモードパラメータである。また、特定の実施形態において、ハプティックフィードバックはオーディオに基づいて生成される。別のタイプのコントロールがハプティックコントロール以外に表示される実施形態において、コントロールは別のタイプのフィードバックパラメータを調節してもよく、そのコントロールは、調節したフィードバックパラメータに基づいて別のタイプのフィードバックを調節してもよい。そのようなフィードバックの例には、仮想キーボードにより生成されるハプティックフィードバック、1つ以上の予め設計されたハプティック効果により生成されるハプティックフィードバック、ユーザインターフェース要素により生成されるハプティックフィードバック、1つ以上のキーフレームを使用する1つ以上のダイナミックハプティック効果により生成されるハプティックフィードバック、または受信される1つ以上の信号により生成されるハプティックフィードバックが含まれてもよい。ハプティックコントロール以外に別のタイプのコントロールが表示される実施形態において、そのコントロールはディスプレイの輝度などの他のコンテンツを調節してもよい。次いでフローは終了する。
図8は、本発明の一実施形態に係る、ユーザインターフェース810内に例示的なオーディオコントロール820と同時に表示される例示的な仮想キーボードハプティックコントロール830を示す。示した実施形態によれば、オーディオコントロール820は、ユーザがユーザインターフェース810を示すデバイスの物理的ボタンまたはスイッチをタッチすることに応答して、ユーザインターフェース810内に表示される。また、別の実施形態によれば、デバイスが仮想キーボード840により生成されるハプティックフィードバックのコントロールに適した関連するコンテキストを有することをデバイスは決定する。デバイスは、仮想キーボード840により生成されるハプティックフィードバックのコントロールに適した関連するコンテキストを有するので、デバイスは、ユーザインターフェース810内にオーディオコントロール820および仮想キーボードハプティックコントロール830を同時に表示する。仮想キーボードハプティックコントロール830は、仮想キーボード840により提供され得るハプティックフィードバックをコントロールするように構成される。より具体的には、仮想キーボードハプティックコントロール830は、仮想キーボード840により提供され得るハプティックフィードバックの1つ以上のハプティックパラメータを調節するように構成されてもよく、1つ以上のハプティックパラメータの調節により、ハプティックフィードバックが調節される。例示的なハプティックフィードバックパラメータはハプティックフィードバックの強度をコントロールする強度パラメータである。別の例示的なハプティックフィードバックパラメータはハプティックフィードバックの密度をコントロールする密度パラメータである。さらに別の例示的なハプティックフィードバックパラメータは、ハプティックフィードバックの精度をコントロールする精度パラメータである。
したがって、一実施形態によれば、ユーザ入力およびデバイスのコンテキストに基づいてハプティックフィードバックをコントロールするハプティックフィードバックコントロールシステムが提供され得る。ハプティックフィードバックコントロールシステムは、デバイスのユーザの視点からハプティックフィードバックコントロールを非常に簡略化できる。
本明細書全体にわたって記載した本発明の特徴、構造、または特性は、1つ以上の実施形態において任意の適切な形式で組み合わされてもよい。例えば、本明細書全体にわたって、「一実施形態」、「一部の実施形態」、「特定の実施形態」、「特定の実施形態(複数)」、または他の同様の言語の使用は、実施形態と併せた記載した特定の特徴、構造、または特性が、本発明の少なくとも1つの実施形態に含まれてもよいことを指す。したがって、本明細書全体にわたって、「一実施形態」、「一部の実施形態」、「特定の実施形態」、「特定の実施形態(複数)」という用語、または他の同様の言語の出現は、必ずしも全て実施形態の同じ群を指すわけではなく、記載した特徴、構造、または特性は、1つ以上の実施形態において任意の適切な形式で組み合わされてもよい。
当業者は、上記の本発明が、異なる順序のステップで、および/または開示されるものとは異なる構造の要素と共に実施されてもよいことを容易に理解するであろう。したがって、本発明はこれらの好ましい実施形態に基づいて記載しているが、本発明の精神および範囲内のままで、特定の修飾、変更、および代替の構造が明らかになることは当業者には明らかであろう。したがって、本発明の境界および範囲を決定するために、添付の特許請求の範囲を参照すべきである。

Claims (15)

  1. ユーザに対してフィードバック出力をコントロールするためのコンピュータにより実装された方法であって、
    ユーザ入力を受信するステップと、
    現在のコンテキストを決定するステップと、
    前記ユーザ入力に応答して、かつ、前記現在のコンテキストに基づいてコントロールを表示するステップと、
    前記コントロールに従ってフィードバックパラメータを調節するステップであって、前記コントロールは、調節した前記フィードバックパラメータに基づいて前記ユーザに対する前記フィードバック出力を調節するように構成される、ステップと、
    を含む、コンピュータにより実装された方法。
  2. 前記コントールがハプティックコントロールを含み、
    前記フィードバックがハプティックフィードバックを含み、
    前記フィードバックパラメータがハプティックフィードバックパラメータを含み、
    前記ハプティックコントロールが、調節した前記ハプティックフィードバックパラメータに基づいて前記ユーザに対する前記ハプティックフィードバック出力を調節するように構成される、
    請求項1に記載のコンピュータにより実装された方法。
  3. 前記ユーザ入力を受信するステップが、物理的ボタンまたはスイッチから信号を受信することを含む、請求項1に記載のコンピュータにより実装された方法。
  4. 前記ユーザ入力を受信するステップが、複数の物理的ボタンまたはスイッチから1つ以上の信号を受信することを含む、請求項1に記載のコンピュータにより実装された方法。
  5. 前記フィードバックパラメータが、強度パラメータ、密度パラメータ、精度パラメータ、またはモードパラメータのうちの1つを含む、請求項1に記載のコンピュータにより実装された方法。
  6. 前記ユーザ入力に応答してオーディオコントロールを表示するステップをさらに含み、前記オーディオコントロールがオーディオを調節するように構成される、請求項1に記載のコンピュータにより実装された方法。
  7. 前記フィードバックパラメータを調節するステップが、
    前記コントロールのための第2のユーザ入力を受信することと、
    前記第2のユーザ入力に基づいて前記フィードバックパラメータを調節することと、
    をさらに含む、請求項1に記載のコンピュータにより実装された方法。
  8. 前記コントロールがスライダを含む、請求項1に記載のコンピュータにより実装された方法。
  9. 前記コントロールが、1つ以上の予め設計されたハプティック効果により生成される、前記ユーザに対するハプティックフィードバック出力を調節するように構成されるハプティックコントロールを含む、請求項1に記載のコンピュータにより実装された方法。
  10. 前記コントロールが、1つ以上のキーフレームを使用する1つ以上のダイナミックハプティック効果により生成される、前記ユーザに対するハプティックフィードバック出力を調節するように構成されるハプティックコントロールを含む、請求項1に記載のコンピュータにより実装された方法。
  11. フィードバックコントロールモジュールを記憶するように構成されるメモリと、
    前記メモリに記憶された前記フィードバックコントロールモジュールを実行するように構成されるプロセッサとを含む、フィードバックコントロールシステムであって、
    前記フィードバックコントロールモジュールはユーザ入力を受信するようにさらに構成され、
    前記フィードバックコントロールモジュールは、現在のコンテキストを決定するようにさらに構成され、
    前記フィードバックコントロールモジュールは、前記ユーザ入力に応答して、かつ、前記現在のコンテキストに基づいてコントロールを表示するようにさらに構成され、
    前記フィードバックコントロールモジュールは、前記コントロールに従ってフィードバックパラメータを調節するようにさらに構成され、前記コントロールは、調節された前記フィードバックパラメータに基づいてユーザに対するフィードバック出力を調節するように構成される、フィードバックコントロールシステム。
  12. 前記コントロールがハプティックコントロールを含み、
    前記フィードバックがハプティックフィードバックを含み、
    前記フィードバックパラメータがハプティックフィードバックパラメータを含み、
    前記ハプティックコントロールが、調節した前記ハプティックフィードバックパラメータに基づいて前記ユーザに対する前記ハプティックフィードバック出力を調節するように構成される、請求項11に記載のフィードバックコントロールシステム。
  13. 前記フィードバックコントロールモジュールが、物理的ボタンまたはスイッチから信号を受信するようにさらに構成される、請求項11に記載のフィードバックコントロールシステム。
  14. 前記フィードバックコントロールモジュールが、前記ユーザ入力に応答してオーディオコントロールを表示するようにさらに構成され、前記オーディオコントロールがオーディオを調節するように構成される、請求項11に記載のフィードバックコントロールシステム。
  15. プロセッサにより実行される場合、記憶された命令を有するコンピュータ可読媒体が、前記プロセッサに請求項1〜10のいずれか一項に記載の方法を実装させる、コンピュータ可読媒体。
JP2013121243A 2012-06-27 2013-06-07 ハプティックフィードバックコントロールシステム Active JP6226574B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261664918P 2012-06-27 2012-06-27
US61/664,918 2012-06-27
US13/613,004 US9063570B2 (en) 2012-06-27 2012-09-13 Haptic feedback control system
US13/613,004 2012-09-13

Publications (2)

Publication Number Publication Date
JP2014010831A JP2014010831A (ja) 2014-01-20
JP6226574B2 true JP6226574B2 (ja) 2017-11-08

Family

ID=48699553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013121243A Active JP6226574B2 (ja) 2012-06-27 2013-06-07 ハプティックフィードバックコントロールシステム

Country Status (5)

Country Link
US (2) US9063570B2 (ja)
EP (1) EP2680107B1 (ja)
JP (1) JP6226574B2 (ja)
KR (1) KR102169206B1 (ja)
CN (1) CN103513767B (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9063570B2 (en) * 2012-06-27 2015-06-23 Immersion Corporation Haptic feedback control system
US9280206B2 (en) * 2012-08-20 2016-03-08 Samsung Electronics Co., Ltd. System and method for perceiving images with multimodal feedback
CN103869960B (zh) * 2012-12-18 2018-02-23 富泰华工业(深圳)有限公司 触感反馈系统及其提供触感反馈的方法
US9436282B2 (en) * 2013-03-14 2016-09-06 Immersion Corporation Contactor-based haptic feedback generation
US9411422B1 (en) * 2013-12-13 2016-08-09 Audible, Inc. User interaction with content markers
DE102015201177B4 (de) 2014-01-23 2016-01-28 Honda Motor Co., Ltd. Abgasreinigungssystem für einen Verbrennungsmotor
US10467401B2 (en) * 2014-04-14 2019-11-05 Sony Corporation Method and system for device authentication
KR20150118813A (ko) * 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US20160162092A1 (en) * 2014-12-08 2016-06-09 Fujitsu Ten Limited Operation device
DE102015209593A1 (de) * 2015-01-05 2016-07-07 Volkswagen Aktiengesellschaft Bedienvorrichtung mit schneller haptischer Rückmeldung
CN107407963A (zh) * 2015-02-25 2017-11-28 意美森公司 用于与弯曲显示器的用户交互的系统和方法
WO2016141306A1 (en) * 2015-03-04 2016-09-09 The Trustees Of The University Of Pennsylvania User interface input method and system for handheld and mobile devices
CN106662949B (zh) * 2015-06-26 2020-12-15 微软技术许可有限责任公司 作为主动触觉机构的参考的被动触觉机构
US9681217B2 (en) * 2015-09-08 2017-06-13 Apple Inc. Electronic device including acoustically isolated serpentine port and related methods
US9681216B2 (en) * 2015-09-08 2017-06-13 Apple Inc. Electronic device including acoustically isolated passive radiator within a baffle space and related methods
CN107735749A (zh) * 2015-09-22 2018-02-23 意美森公司 基于压力的触觉
US10282052B2 (en) 2015-10-15 2019-05-07 At&T Intellectual Property I, L.P. Apparatus and method for presenting information associated with icons on a display screen
US9990815B2 (en) * 2016-02-18 2018-06-05 Immersion Corporation Wearable haptic effects with permissions settings
JP6908053B2 (ja) * 2016-12-19 2021-07-21 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018191975A1 (en) * 2017-04-21 2018-10-25 SZ DJI Technology Co., Ltd. Wind velocity force feedback
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
US11259121B2 (en) 2017-07-21 2022-02-22 Cirrus Logic, Inc. Surface speaker
CN107506027B (zh) * 2017-07-31 2021-06-01 瑞声科技(新加坡)有限公司 一种触觉反馈控制方法、处理器、控制系统及终端
US20190041987A1 (en) 2017-08-03 2019-02-07 Immersion Corporation Haptic effect encoding and rendering system
DE102017122046A1 (de) * 2017-09-22 2019-03-28 Hamilton Medical Ag Beatmungsvorrichtung mit Bedienvorrichtung mit haptischer Rückkopplung
US10620704B2 (en) 2018-01-19 2020-04-14 Cirrus Logic, Inc. Haptic output systems
US10455339B2 (en) 2018-01-19 2019-10-22 Cirrus Logic, Inc. Always-on detection systems
US10572016B2 (en) * 2018-03-06 2020-02-25 Microsoft Technology Licensing, Llc Spatialized haptic device force feedback
US11139767B2 (en) 2018-03-22 2021-10-05 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10795443B2 (en) 2018-03-23 2020-10-06 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10820100B2 (en) 2018-03-26 2020-10-27 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10667051B2 (en) 2018-03-26 2020-05-26 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10832537B2 (en) 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11069206B2 (en) 2018-05-04 2021-07-20 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
CN108683731B (zh) * 2018-05-14 2021-09-21 浙江口碑网络技术有限公司 一种管理多屏互动的方法、装置
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US20200209967A1 (en) * 2018-12-27 2020-07-02 Immersion Corporation Haptic Effect Signal Processing
KR102273804B1 (ko) * 2019-02-19 2021-07-06 주식회사 동운아나텍 사용자 입력신호를 고려한 햅틱 모터 구동 방법
US20200313529A1 (en) 2019-03-29 2020-10-01 Cirrus Logic International Semiconductor Ltd. Methods and systems for estimating transducer parameters
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US10992297B2 (en) 2019-03-29 2021-04-27 Cirrus Logic, Inc. Device comprising force sensors
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US12035445B2 (en) 2019-03-29 2024-07-09 Cirrus Logic Inc. Resonant tracking of an electromagnetic load
US10726683B1 (en) 2019-03-29 2020-07-28 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus
US11150733B2 (en) 2019-06-07 2021-10-19 Cirrus Logic, Inc. Methods and apparatuses for providing a haptic output signal to a haptic actuator
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
KR20220024091A (ko) 2019-06-21 2022-03-03 시러스 로직 인터내셔널 세미컨덕터 리미티드 디바이스 상에 복수의 가상 버튼을 구성하기 위한 방법 및 장치
EP4046001A1 (en) * 2019-10-14 2022-08-24 Lofelt GmbH Systems and methods for authoring an audio signal and for transforming the authored audio signal into a haptic data file
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11545951B2 (en) 2019-12-06 2023-01-03 Cirrus Logic, Inc. Methods and systems for detecting and managing amplifier instability
CN111506191B (zh) * 2020-04-13 2024-04-26 维沃移动通信有限公司 控制方法及电子设备
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
US11775084B2 (en) * 2021-04-20 2023-10-03 Microsoft Technology Licensing, Llc Stylus haptic component arming and power consumption
EP4343492A1 (en) * 2021-05-19 2024-03-27 Alps Alpine Co., Ltd. Sensation control method, sensation control system, conversion model generation method, conversion model generation system, relational expression conversion method, and program
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11552649B1 (en) 2021-12-03 2023-01-10 Cirrus Logic, Inc. Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths
US12105881B2 (en) * 2022-12-29 2024-10-01 Qualcomm Incorporated On-screen keyboard user interface with context-aware haptic feedback

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6433771B1 (en) * 1992-12-02 2002-08-13 Cybernet Haptic Systems Corporation Haptic device attribute control
EP0727065B1 (en) * 1994-09-07 2002-02-06 Koninklijke Philips Electronics N.V. Virtual workspace with user-programmable tactile feedback
US6300936B1 (en) * 1997-11-14 2001-10-09 Immersion Corporation Force feedback system including multi-tasking graphical host environment and interface device
US7623114B2 (en) * 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
US6703550B2 (en) * 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
DE102006029506B4 (de) 2005-10-28 2018-10-11 Volkswagen Ag Eingabevorrichtung
JP4283282B2 (ja) * 2006-04-07 2009-06-24 株式会社エヌ・ティ・ティ・ドコモ ハンズフリー切り替え方法及び移動体端末装置
US20080005679A1 (en) * 2006-06-28 2008-01-03 Microsoft Corporation Context specific user interface
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US8621348B2 (en) * 2007-05-25 2013-12-31 Immersion Corporation Customizing haptic effects on an end user device
US7952498B2 (en) 2007-06-29 2011-05-31 Verizon Patent And Licensing Inc. Haptic computer interface
WO2009018347A1 (en) * 2007-07-30 2009-02-05 Telcordia Technologies, Inc. Method and system for presenting a mash-up, or personalized mixture, and associated contextual suggestions to mobile users
US8138896B2 (en) * 2007-12-31 2012-03-20 Apple Inc. Tactile feedback in an electronic device
US8243038B2 (en) * 2009-07-03 2012-08-14 Tactus Technologies Method for adjusting the user interface of a device
WO2009102992A1 (en) * 2008-02-15 2009-08-20 Pacinian Corporation Keyboard adaptive haptic response
US9513704B2 (en) 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US20090295739A1 (en) * 2008-05-27 2009-12-03 Wes Albert Nagara Haptic tactile precision selection
US20100033426A1 (en) 2008-08-11 2010-02-11 Immersion Corporation, A Delaware Corporation Haptic Enabled Gaming Peripheral for a Musical Game
US8749495B2 (en) 2008-09-24 2014-06-10 Immersion Corporation Multiple actuation handheld device
US8378979B2 (en) * 2009-01-27 2013-02-19 Amazon Technologies, Inc. Electronic device with haptic feedback
US20110095875A1 (en) * 2009-10-23 2011-04-28 Broadcom Corporation Adjustment of media delivery parameters based on automatically-learned user preferences
US8279052B2 (en) 2009-11-04 2012-10-02 Immersion Corporation Systems and methods for haptic confirmation of commands
US8576171B2 (en) 2010-08-13 2013-11-05 Immersion Corporation Systems and methods for providing haptic feedback to touch-sensitive input devices
JP5183790B2 (ja) * 2010-09-27 2013-04-17 京セラ株式会社 携帯端末装置
US20120113008A1 (en) 2010-11-08 2012-05-10 Ville Makinen On-screen keyboard with haptic effects
US20120268285A1 (en) * 2011-04-22 2012-10-25 Nellcor Puritan Bennett Llc Systems and methods for providing haptic feedback in a medical monitor
TWI453652B (zh) * 2011-10-05 2014-09-21 Quanta Comp Inc 虛擬觸覺回饋方法及其電子裝置
US9063570B2 (en) * 2012-06-27 2015-06-23 Immersion Corporation Haptic feedback control system
US8896524B2 (en) * 2012-08-24 2014-11-25 Immersion Corporation Context-dependent haptic confirmation system

Also Published As

Publication number Publication date
US20140002346A1 (en) 2014-01-02
EP2680107B1 (en) 2023-05-03
EP2680107A3 (en) 2015-09-02
CN103513767A (zh) 2014-01-15
US9063570B2 (en) 2015-06-23
KR102169206B1 (ko) 2020-10-22
JP2014010831A (ja) 2014-01-20
KR20140001149A (ko) 2014-01-06
US9348416B2 (en) 2016-05-24
CN103513767B (zh) 2019-02-19
EP2680107A2 (en) 2014-01-01
US20150248163A1 (en) 2015-09-03

Similar Documents

Publication Publication Date Title
JP6226574B2 (ja) ハプティックフィードバックコントロールシステム
US10338798B2 (en) Haptically enabled user interface
US10936154B2 (en) Application menu for video system
JP6546301B2 (ja) 動的な触覚効果を有するマルチタッチデバイス
US9958944B2 (en) Encoding dynamic haptic effects
KR102104910B1 (ko) 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법
US9690377B2 (en) Mobile terminal and method for controlling haptic feedback
US10942639B2 (en) Accelerated scrolling
JP6479148B2 (ja) 強化された動的ハプティック効果
CN117435095A (zh) 对另一电子设备的多功能设备控制
US12093524B2 (en) Multifunction device control of another electronic device
US10306047B2 (en) Mechanism for providing user-programmable button

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171010

R150 Certificate of patent or registration of utility model

Ref document number: 6226574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250