[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2023504590A - 非接触型タッチ入力システム - Google Patents

非接触型タッチ入力システム Download PDF

Info

Publication number
JP2023504590A
JP2023504590A JP2022560175A JP2022560175A JP2023504590A JP 2023504590 A JP2023504590 A JP 2023504590A JP 2022560175 A JP2022560175 A JP 2022560175A JP 2022560175 A JP2022560175 A JP 2022560175A JP 2023504590 A JP2023504590 A JP 2023504590A
Authority
JP
Japan
Prior art keywords
sensor
emitter
light
display
detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022560175A
Other languages
English (en)
Inventor
ステファン ヨハネス ホルムグレン
ヨーン トマス ハルトマン
トム リカルド バーリリンド
ラーシュ ベッティル スパーフ
ヨーナス ダニエル ユストュス イェルム
ヨーン エリス イェスタ カールソン
ペール カール ストゥーレ ローセングレーン
グンナル マルティン フロイズ
ジョセフ シャイン
シャタオ ワン
ザ サード クラレンス レイ キング
プラグロウスキー ド ラドヴァン オスキャル リッツェン
Original Assignee
ネオノード インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ネオノード インコーポレイテッド filed Critical ネオノード インコーポレイテッド
Publication of JP2023504590A publication Critical patent/JP2023504590A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K17/00Electronic switching or gating, i.e. not by contact-making and –breaking
    • H03K17/94Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated
    • H03K17/941Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated using an optical detector
    • H03K17/943Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated using an optical detector using a plurality of optical emitters or detectors, e.g. keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K2217/00Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00
    • H03K2217/94Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated
    • H03K2217/941Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated using an optical detector
    • H03K2217/94102Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated using an optical detector characterised by the type of activation
    • H03K2217/94104Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated using an optical detector characterised by the type of activation using a light barrier

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

回路基板の上方にある少なくとも1つのレンズを懸架する構造と、共通投射面に沿って少なくとも1つのレンズを通して光ビームを投射するように動作可能な光エミッタと、レンズを通って検出器に到達する光の量を検出するように動作可能な光検出器であって、投射面内の物体は、エミッタからの光を検出器の内の1又は2以上の検出器に反射し、エミッタの内の1つのエミッタと検出器の内の1つの検出器とを含む各エミッタ-検出器ペアは、同期して作動すると、物体が当該エミッタ-検出器ペアに対応する投射面内の特定の2D位置に位置するときに、他の検出器もエミッタの内の何れかと同期して作動したとしても、当該作動した検出器において、他の検出器よりも大きな検出信号を生成すると予期される、光検出器と、各エミッタ-検出器ペアの検出器によって検出された光の量に基づいて、物体が行うジェスチャを識別するプロセッサと、を含む近接センサ。【選択図】図1

Description

本発明の分野は、非接触入力システムを可能にするために標識又は表示画面と接続して使用される近接センサである。本発明の用途は、特に、自動販売機、対話型キオスク、セルフレジ端末、自動預け払い機(ATM)、エレベータボタンパネルを含む。また、本発明の近接センサは、車両内及びその周囲のセンサ、車両及び建物用の自動ドア、特に携帯電話、タブレット及び車室において、空中ハンドジェスチャ並びに接近する人及び物を検出するためのセンサを含めて、厳しい環境を対象とする。
特定の近接センサは、検出面内の物体の位置について高分解能検出を提供する。このような近接センサは、特に、タッチスクリーン用のセンサとして採用されている。駐車センサなど、別の近接センサは、初歩的な物体検出だけを提供する。これら両極端の間に入る用途、すなわち、検出ゾーン内での物体の正確な位置の検出を必要とするのではなく、むしろ、ゾーン内で発生する活動の検出、例えば、空中ジェスチャの検出を必要とする用途の範囲に関して、近接センサのコスト及び性能を最適化することが有利となろう。
タッチスクリーン用のセンサとして採用される特定の近接センサは、画面の縁全体に沿って拡張される必要があり、自動組立機器の制限が、センサの最大長を限定するか、さもなければ、大画面用の長尺センサを製造する際に高い製造コストをもたらす可能性がある。複数の小型センサを用いて、より大きな画面サイズのタッチ検出を提供できるようにすることが有利となろう。
2019-2020年のCOVID-19パンデミックは、特に、自動預け払い機(ATM)、スーパマーケットのセルフレジ端末、空港のセルフチェックイン端末、エレベータのボタンパネル、自動販売機などの公共端末向けに、ユーザに画面、ボタン、又はノブに触れることを要求しない、タッチスクリーン用の非接触型ユーザインタフェースに関心を引き起こした。タッチスクリーン、ボタン及びノブ用の非接触型ユーザインタフェースは、医院及び病院などの無菌環境に、また、車両修理工場など、油が付いた手又は別な方法で汚れた手になりがちな環境にも有用である。
非接触型ユーザインタフェースのもう1つの用途は、車及びエレベータのドア、並びにリフトゲート用の自動開閉機構である。これらのドア及びリフトゲートは、移動するドア又はリフトゲートパネルが、縁石、木又は近隣の駐車車両など、すぐ近くの物体と衝突しないように防ぐための監視を必要とする。移動するドア又はリフトゲートパネルに接近している物体を検出するために、今日の初歩的な駐車センサよりも高い分解能を提供することが有利となろう。
電気機械システムは、特に湿気から、システムの動作を妨げることなく保護される必要がある。
米国特許第9164625号明細書 米国特許第9921661号明細書 米国特許第10282034号明細書 米国特許第10324565号明細書 米国特許第8416217号明細書
本発明の実施形態は、その意図した用途に関して高精度であり、更にセンサの製造において低コストの組立方法を使用できるようにする近接センサ用の低コスト光学系を提供する。このセンサは、第1の次元で光をコリメートするために押出加工のプラスチックレンズを採用し、第2の次元で光をコリメートするためにフレネルレンズアレイを採用することで実現された、コスト及び製造の観点での改善品である。この新規性の一部は、ジェスチャ検出を目的とするセンサが、物体の絶対座標を検出することを目的とするセンサよりも、系統誤差に対して強いと気付くことにある。
こうして、本発明の実施形態に従って、回路基板と、少なくとも1つのレンズと、その少なくとも1つのレンズを回路基板の上方に懸架する支持構造と、回路基板上に取り付けられた複数の光エミッタであって、各エミッタは、作動すると、共通投射面に沿って少なくとも1つのレンズを通して光ビームを投射するように動作可能である複数の光エミッタと、回路基板上に取り付けられた複数の光検出器であって、各検出器は、作動すると、少なくとも1つのレンズを通って検出器に到達する光の量を検出するように動作可能であり、少なくとも1つのレンズの上方にある投射面に位置する反射物が、その反射物に投射された光をエミッタから検出器の内の1又は2以上の検出器に反射し、エミッタの内の1つのエミッタと検出器の内の1つの検出器とを含む各エミッタ-検出器ペアは、同期して作動すると、反射物が当該エミッタ-検出器ペアに対応する投射面内の特定の2D位置に位置するときに、他の検出器もエミッタの内の何れかと同期して作動したとしても、当該作動した検出器において、他の検出器よりも大きな検出信号を生成すると予期される、複数の光検出器と、エミッタ及び検出器に接続されたプロセッサであって、各エミッタを順次に作動させて検出器の内の1又は2以上の検出器を同期して同時作動させるように、並びに同期して同時作動した各エミッタ-検出器ペアの検出器によって検出された光の量に基づいて、少なくとも1つのレンズの上方で反射物によって行われるジェスチャを識別するように構成されたプロセッサと、を含む近接センサが提供される。
更に、本発明の実施形態に従って、回路基板と、少なくとも1つのレンズと、その少なくとも1つのレンズを回路基板の上方に懸架する支持構造と、回路基板上に取り付けられ、第1の平面曲線に沿って配置された複数の光エミッタであって、各エミッタは、作動すると、共通投射面に沿って少なくとも1つのレンズを通して光ビームを投射するように動作可能である複数の光エミッタと、回路基板上に取り付けられ、第2の平面曲線に沿って配置された複数の光検出器であって、各検出器は、作動すると、少なくとも1つのレンズを通って検出器に到達する光の量を検出するように動作可能であり、少なくとも1つのレンズの上方にある検出体積に位置する反射物が、その反射物に投射された光をエミッタから検出器の内の1又は2以上の検出器に反射し、エミッタの内の1つのエミッタと検出器の内の1つの検出器とを含む各エミッタ-検出器ペアは、同期して作動すると、反射物が当該エミッタ-検出器ペアに対応する検出体積内の特定の3D位置に位置するときに、他の検出器もエミッタの内の何れかと同期して作動したとしても、当該作動した検出器において、他の検出器よりも大きな検出信号を生成すると予期される、複数の光検出器と、エミッタ及び検出器に接続されたプロセッサであって、各エミッタを順次に作動させて検出器の内の1又は2以上の検出器を同期して同時作動させるように、並びに同期して同時作動した各エミッタ-検出器ペアの検出器によって検出された光の量に基づいて、少なくとも1つのレンズの上方で反射物によって行われるジェスチャを識別するように構成されたプロセッサと、を含む近接センサが提供される。
物体の絶対座標を検出するために設計された、検出区域の縁に沿って取り付けられた細長いストリップとして形成された先行技術の近接センサは、精密な組立機器を必要とする。縁が350mmより長い画面に適したこれらの近接センサを製造することは、現在のところ費用が掛かり、非効率的である。それゆえ、本発明の実施形態はまた、各センサが表示区域の一部分で物体を検出するように動作する複数のセンサを用いることによって、縁が350mmより長い画面に対して先行技術の近接センサを使用可能にすることにも向けられる。本発明の実施形態は、上述した低コストのセンサにも適用可能である。
こうして更に、本発明の実施形態に従って、ディスプレイと、ディスプレイ上にユーザインタフェースをレンダリングし、ディスプレイ上の位置で行われたと報告されたタッチジェスチャに応答するように動作可能なコンピュータと、ディスプレイの対向縁に沿って取り付けられた1対のセンサであって、各センサが、ディスプレイの上面の上方を横切る平面内に光ビームを投射するように動作可能な複数の光エミッタであって、その平面内の位置がディスプレイ内の位置に対応する複数の光エミッタと、平面内に挿入された物体によって反射された投射光ビームの量を検出するように動作可能な複数の光検出器と、を複数のエミッタ及び検出器の内の個々のエミッタ及び検出器を同時に作動させるように、並びに、検出器からの出力に基づいて平面内の物体の位置を計算するように動作可能な制御ユニットと、を含む1対のセンサと、計算された物体位置をセンサから受け取り、センサ対の内の1つから受け取った、その他のセンサ対が放出した光の検出によって生成された物体位置を取り除く、取り除かれなかった物体位置の加重和に基づいて出力位置を計算する、前の出力位置に基づいて出力位置を時間的にフィルタ処理する、並びに、時間的にフィルタ処理された出力位置をディスプレイ上のタッチ位置としてコンピュータに報告する、ように構成されたプロセッサと、を含むユーザインタフェースデバイスが提供される。
本発明の実施形態はまた、グラフィカルユーザインタフェース(GUI)が提示されるディスプレイの上方を浮遊し、ディスプレイに触れていない指による使用を意図した直感的な(GUI)を可能にすることにも向けられている。この場合、視差効果のせいで、ユーザは、浮遊している指がどのようにGUI上にマッピングされるのかよく分からない。
こうして更にまた、本発明の実施形態に従って、ディスプレイ内の位置で複数のグラフィカルユーザインタフェース(GUI)要素をレンダリングするディスプレイと、ディスプレイの上方を横切る検出面内における、検出面内に挿入された物体の座標を特定するように構成されたセンサであって、検出面内の座標がディスプレイ内の位置に対応するセンサと、ディスプレイに対して、センサによって特定された検出面内の座標が、GUI要素の何れかが位置するディスプレイ内の位置に対応しない場合に、カーソルを表示させるように、並びに、センサによって特定された検出面内の座標が、GUI要素の何れかが位置するディスプレイ内の位置に対応する場合に、レンダリングされたカーソルを消去するようにさせるプロセッサと、を含む非接触型ユーザインタフェースシステムが提供される。
本発明は、図面と併せて、以下の詳細な説明からより完全に理解され、真価が認識されよう。
本発明の一実施形態による、第1の近接センサの簡略図である。 本発明の一実施形態による、近接センサに関する幾何学的パラメータの説明図である。 本発明の一実施形態による、センサとセンサ検出区域におけるホットスポットの矩形グリッドとの説明図である。 本発明の実施形態による、近接センサにおけるエミッタ及び検出器の代替構成の説明図である。 本発明の実施形態による、近接センサにおけるエミッタ及び検出器の代替構成の説明図である。 本発明の一実施形態による、エミッタ及び検出器構成要素がそれぞれのレンズと整列する近接センサに関するエミッタ光ビーム及び最大光検出通路の説明図である。 本発明の一実施形態による、図6の近接センサによって生成されたホットスポットの分布の説明図である。 本発明の一実施形態による、エミッタ及び検出器構成要素とそれぞれのレンズとの整列にオフセットがある近接センサに対するエミッタ光ビーム及び最大光検出通路の説明図である。 本発明の一実施形態による、図8の近接センサによって生成されたホットスポットの分布の説明図である。 本発明の一実施形態による近接センサの簡略図である。 本発明の一実施形態による、図10の近接センサによって生成されたホットスポットの分布の説明図である。 本発明の一実施形態による、近接センサの出力を用いて実行される画像相関の簡略図である。 本発明の一実施形態による、ジェスチャ検出のために最適化された近接センサの簡略図である。 本発明の一実施形態による、図13の近接センサに対するPCBの簡略図である。 本発明の一実施形態による、拡張センサを形成するために接続された2つの近接センサの簡略図である。 本発明の一実施形態による、近接センサ間の通信バス接続の簡略図である。 本発明の一実施形態に従って、図13の近接センサにおいてレンズが光エミッタ及び光検出器に対してどのように構成されるかを示す簡略図である。 本発明の一実施形態に従って、図13の近接センサにおいてレンズが光エミッタ及び光検出器に対してどのように構成されるかを示す簡略図である。 本発明の一実施形態による、無線トラックパッドの簡略図である。 本発明の一実施形態による、図19の無線トラックパッドの断面図である。 本発明の一実施形態による、図19の無線トラックパッドの断面図である。 本発明の実施形態による、3D空間で物体の存在を検出するように構成された近接センサに関するエミッタビーム及び最大検出通路の簡略図である。 本発明の実施形態による、3D空間で物体の存在を検出するように構成された近接センサに関するエミッタビーム及び最大検出通路の簡略図である。 本発明の実施形態による、非接触型タッチ入力システムの簡略図である。 本発明の実施形態による、非接触型タッチ入力システムの簡略図である。 本発明の実施形態による、非接触型タッチ入力システムの簡略図である。 本発明の実施形態による、非接触型タッチ入力システムにおいて対向する反射型センサからのタッチ出力を結合するプロセスのフローチャートである。 本発明の実施形態による、非接触型タッチ入力システムにおいてタッチ入力を検証し追跡する状態機械の説明図である。 本発明の実施形態による、非接触型光学式タッチスクリーンシステム内の要素の簡略図である。 本発明の実施形態による、非接触型光学式タッチスクリーンシステム内の要素の簡略図である。 本発明の実施形態による、非接触型光学式タッチスクリーンシステム内の要素の簡略図である。 本発明の実施形態による、非接触型光学式タッチスクリーンシステム内の要素の簡略図である。 本発明の実施形態による、非接触型光学式タッチスクリーンシステム内の要素の簡略図である。 本発明の一実施形態による、非接触型光学式タッチスクリーンシステム用の第1のユーザインタフェースを説明するフローチャートである。 本発明の一実施形態による、非接触型光学式タッチスクリーンシステム用の第2のユーザインタフェースを説明するフローチャートである。
本開示及び図において、以下の番号付け構成を使用する。同様に番号付けされた要素は類似するが、必ずしも同一ではない。
Figure 2023504590000002
本明細書及び特許請求の範囲において、用語「ジェスチャ」は、タッチスクリーンユーザインタフェースのアイコンをタップすることなどの、指差しジェスチャを含む。空中ジェスチャの文脈では、用語「ジェスチャ」は、位置を指すことと位置を突くことの両方を含み、これは空中でのタップジェスチャと同様であり、すなわち、ポインタが、空中検出面内にその中の或る位置で挿入され、同じ位置で検出面から取り除かれる。
図1を参照すると、これは、本発明の一実施形態による、第1の近接センサの簡略図である。図1は近接センサ351を示し、これは、交互に並ぶ光エミッタ(150,151,152,155)と光検出器(100,101,102,105,106,107)の一次元配列と、レンズ(400,401)の配列409とを含み、各レンズをエミッタのそれぞれ1つと対向して位置決めし、エミッタからの光をビーム200としてセンサ351の外側の検出面に導く。各レンズはまた、光が第1の特定角度でレンズに入射した場合に、それぞれの第1の検出器における光検出を最大にする役割も果たす。これは、各検出器に対する第1の視野角である。図1では、3つの検出器105-107に対して、3つの視野角250-252をそれぞれに示す。最大検出は、物体が投射光ビームの経路に位置350で挿入され、光を反射して検出器の1つに検出器の視野角で戻す場合に生じる。検出面内のこの位置は、ホットスポットと呼ばれる。プロセッサ300は、エミッタ-検出器ペアの作動を制御し、検出器出力を処理して、検出面内の物体位置を特定する。
図1に示す近接センサは、タッチ検出用途に、すなわち、検出面内の物体の位置を高精度で特定するために設計されているので、全ての用途に理想的に適している訳ではない。このタッチ検出目的には、高精度な光学系と、検出された光信号をフィルタ処理して精緻化するためのプロセス集約的なソフトウェアとを必要とする。しかしながら、平面内の物体の位置ではなく、検出ゾーン内の動作ジェスチャを検出するように設計されたセンサは、ハードウェア及びソフトウェアの特性が大きく異なる。
動作ジェスチャを検出するためのセンサは、特に空中ハンドジェスチャを検出するのに適している。これは、タッチスクリーンとは異なる種類のユーザインタフェースであり、それは、ジェスチャが、タッチスクリーンで使用される絶対的位置決め、つまり物体が規定された区域内のどこに位置するかではなく、相対的位置決め、つまりジェスチャを行う間に物体がどのように動くかによって規定されるからである。別の好適な用途は、ユーザがリフトゲートに向かい合って手を振る、又は車両の下に足を入れることに応えて、車両後部のリフトゲートが開く車両リフトゲート機構である。動作ジェスチャセンサは、衝突回避システムにも有用である。例えば、自動ドアに沿うセンサは、ドアが開く際にドアに接近している物体を検出し、ドアが物体と衝突する前にドアの動きを停止させるコマンドを送信する。センサが、サイズ又は形状など、接近する物体の特徴を報告できる場合、物体の種類に応じてドアを選択的に停止させることができ、例えば、縁石又は壁を茂み又は垣根とは異なるように扱うことができ、人とは異なるように扱うことができる。
本発明の教示によれば、低コストで堅牢な、自動車に適合したハンドジェスチャセンサは、以下の特徴を組み込んでいる:
・フレネルレンズ、押出加工レンズ及び/又は射出成形レンズなどのモジュール式光学部品;
・熱可塑性かしめとして知られる熱かしめを用いた、センサハウジングへのレンズの接合;
・標準的なFR-4ガラスエポキシPCB;
・ARM(登録商標)プロセッサ(ARMはArm Limitedの登録商標である);
・標準的な表面実装デバイス(SMD)VCSEL及びPD;並びに
・標準的な半田付けプロセス。
以下の表IIは、本発明の教示によるジェスチャセンサの一実施形態について、対応する幾何学的パラメータを規定するいくつかの設計特性を列挙する。
Figure 2023504590000003
表IIのパラメータは、ハンドジェスチャを検出するように設計されたセンサに関する例示である。本発明の他の実施形態は、異なるピッチ及び他のパラメータを有することになる。例えば、より強力なレーザ及びフォトダイオードを使用する場合、断面が著しく小さくなる。同様に、検出範囲を小さくすると、センサの寸法が小さくなる。
図2を参照すると、これは、本発明の一実施形態による、近接センサに関する幾何学的パラメータの説明図である。図2は、センサにおける光学系とVCSELの間の最大横方向許容差(dx)を決定するための幾何学的配置を示す。エミッタ150が、レンズ402に対向するその正しい位置からシフトして示されている。この変位により、エミッタビーム212は、破線の水平線に沿ったその予想経路から離れるように斜行する。以下の表IIIは、タッチセンサについて、並びにジェスチャセンサについて、図2に示すパラメータを要約したものである。
Figure 2023504590000004

図2に示すように、dxは、dx=qpf/Lによって算出される。
表IIIは、手振りジェスチャセンサの最大横方向許容差(0.32mm)が、タッチセンサの許容差よりも10倍大きく、標準的な半田付けプロセスを用いて手振りジェスチャセンサのSMD部品を半田付けすることが実行可能になることを示している。表IIIの許容差は、偶然誤差を指す。しかしながら、例えば斜行する検出区域をもたらす、系統誤差の許容差は、遥かに大きい。また、手振りジェスチャセンサは、ユーザがアイコン又はボタンを作動させるユーザインタフェース用のタッチセンサとしての使用に好適であり、特にアイコン又はボタンが大きい場合、及び/又はアイコン又はボタンがそれらの間に大きな空間を備えて配置され、従って検出されるタッチ座標の誤差についてユーザインタフェースが高い許容差を有する場合に、好適である。
図3を参照すると、これは、本発明の一実施形態による、センサとセンサ検出領域におけるホットスポットの矩形グリッドとの説明図である。図3は、図1に示した設計に基づくジェスチャセンサを説明し、各検出器は、2つの隣接するレンズから最大光検出を受ける。図3の特定要素には番号を付けている。それらは、エミッタ150及び151、検出器100-102、エミッタ光ビーム200及び201、最大検出通路253-256、ホットスポット354-356、及びレンズの配列405である。上記で説明したように、ホットスポットは、エミッタビームと最大検出通路の交点にある。図3は、センサの外側の検出面における4列のホットスポット1-4と、レンズ405に隣接する付加的なホットスポット列(列0)とを示す。エミッタ間距離(ピッチ)が21.6mmで、検出区域のアスペクト比が2:3のジェスチャセンサを想定すると、焦点距離f=32.4mmとなり、センサが嵩張ることになる。センサのサイズを小さくするために、図4に示すように、各検出器は、ただ1つのレンズから最大検出を受ける。
図4及び5を参照すると、これらは、本発明の実施形態による、近接センサにおけるエミッタ及び検出器の代替構成の説明図である。図4は、エミッタ間のピッチが21.6mmで、検出区域のアスペクト比が2:3のジェスチャセンサを示すが、各検出器は、ただ1つのレンズから最大検出を受ける。これは、図3の焦点距離fを図4の焦点距離wと比較することで分かるように、図3のセンサよりも薄いセンサ幅を可能にする。図4の特定要素には番号を付けている。それらは、エミッタ150及び151、検出器100-102、エミッタ光ビーム200及び201、最大検出通路253-256、ホットスポット354-356、及びレンズの配列405である。図4は、センサの外側の検出面における4列のホットスポット1-4と、レンズ405に隣接する付加的なホットスポット列(列0)とを示す。
図3及び4のジェスチャセンサは、センサ検出区域に4×9格子のホットスポットを有する。プロセッサ300(図1に示す)は、エミッタ-検出器ペアの作動を制御し、エミッタ及び検出器に接続するために限られた数のI/Oポートを有する。図4に示すジェスチャセンサ構成は、図3に示すセンサのほぼ2倍の数の検出器を有する。このように、図3のセンサが20個の構成要素-9個のエミッタと11個の検出器を有するのに対し、図4のセンサは、27個の構成要素-9個のエミッタと18個の検出器を有する。エミッタ及び検出器の代替配置は、プロセッサ上で同様な数のI/Oポートを使用しながらも、センサ検出区域に亘って異なるホットスポットの分布を提供する。そのような配置の1つを図5に示す。
図5は、68個のホットスポットから成る6×12格子と、レンズ405に隣接するホットスポットの付加的なホットスポット列(列0)とを提供する、30個の構成要素-12個のエミッタと18個の検出器という配置を示す。図5の配置は、センサの両端部付近の各レンズと1つの検出器を対にし、センサ中央のレンズの各々と2つの検出器を対にして、ホットスポット列1及び2の外縁にある領域360及び361にホットスポットが存在しないという結果になる。ホットスポットを欠く領域360及び361は、図7及び11にも示されている。図5の特定の追加要素には番号を付けている。それらは、エミッタ150-153、検出器100-104、エミッタ光ビーム202及び203、最大検出通路253及び255、ホットスポット357-359、及びレンズの配列405である。
ジェスチャ検出とタッチスクリーンのタッチ検出との1つの違いは、タッチスクリーンが、検出された位置を対応する画面位置と相関させる際に精度を必要とするのに対し、ジェスチャ、特に空中ジェスチャは、ホットスポットを特定の位置にマッピングする必要がなく、むしろジェスチャ検出は、検出面内のホットスポット間の関係を維持することを必要とする点である。ジェスチャセンサのこの特徴は、後述するように、タッチスクリーンセンサの許容差要件の多くを緩和する。
図6を参照すると、これは、本発明の一実施形態による、エミッタ及び検出器の構成要素がそれぞれのレンズと整列する近接センサに関するエミッタ光ビーム及び最大光検出通路の説明図である。また、図7を参照すると、本発明の一実施形態に従って、図6の近接センサによって生成されたホットスポットの分布を説明している。図6に示すセンサにおいて、レンズ405は、PCB301上のそれぞれのエミッタ及び検出器構成要素と整列している。図6、8及び10において、エミッタビーム211は実線で表され、最大検出通路259は一点鎖線で表される。図7、9及び11において、ホットスポットは、アスタリスクで表されている。図7は、図6の近接センサによって生成されたホットスポット377の矩形配列を示す。配列アレイ377は、各列が近接センサから異なる距離である7列のホットスポットと、レンズ405に隣接する付加的なホットスポット列と、を含む。図5を参照して上述したように、この近接センサは、センサによって生成されるホットスポットの総数を最大化するために、ゾーン360及び361がホットスポットを欠くように構成された。
図8を参照すると、これは、本発明の一実施形態による、エミッタ及び検出器構成要素とそれぞれのレンズとの整列にオフセットがある近接センサに対するエミッタ光ビーム及び最大光検出通路の説明図である。図8に示すセンサでは、レンズ405とPCB301上のそれぞれのエミッタ及び検出器構成要素との間に位置ずれがあり、すなわち、レンズ405はPCB301上のそれぞれの構成要素の左側にシフトしている。この位置ずれの結果、エミッタビーム211が或る角度に向けられ、最大検出通路259が左側に斜行することになる。
図9を参照すると、これは、本発明の一実施形態による、図8の近接センサによって生成されたホットスポットの分布の説明図である。具体的には、ホットスポットの配列377は、非矩形の平行四辺形として斜行している。この誤差は、土台となるスクリーンが矩形であるタッチスクリーンにとって重要であるが、ホットスポットの順序配置が変わらない限り、ジェスチャセンサにとっては重要でなく、それは、ジェスチャを実行する間に物体が検出される一連のホットスポットによって、検出区域内の物体の動きが依然として正確に記述されるからである。重要なことは、ホットスポット間の関係は、それらが斜行していても維持されるということである。
本発明の実施形態による近接センサにおいて構成要素とレンズとの間の他のオフセットは、特にレンズの収縮及びPCBの収縮を生じ、台形であるホットスポットのレイアウトをもたらす可能性がある。これは、ホットスポットと画面位置の間に不整合を引き起こすので、タッチスクリーンセンサにとって重大な問題となろう。しかし、ジェスチャセンサの場合には、隣接するホットスポット間の順序関係が保たれている限り、この論点はあまり問題とならない。例えば、レンズが収縮する結果、ホットスポットはセンサから遠くに位置するほど隣り合うホットスポットに近づくことになるが、経時的な一連の検出は、依然として物体の移動方向を指し示す。また、PCBがレンズに対して収縮した場合、センサから遠くに位置するにつれて隣り合うホットスポット間の距離が増加することになり、センサから遠ざかるにつれてホットスポットの配置が扇状に広がる。しかし、この場合にも、経時的な一連の物体検出により、物体の動きが指し示される。このように、ジェスチャセンサは系統誤差に対して極めて強い。
図10を参照すると、これは、本発明の一実施形態による近接センサの簡略図である。図10は、検出面にホットスポットの扇状分布を与えるように設計されたレンズを示し、例えば、各エミッタビームは、複数のビーム211が放射状に広がって扇の支持棒に類似するように、レンズ405によって導かれ、最大検出通路259は、エミッタビームと交差するようにレンズ405によって構成される。このように、レンズ405は、複数の光エミッタからの光ビーム211を投射面に沿って非平行、非交差の方向へファンアウトする。
図11を参照すると、これは、本発明の一実施形態による、図10の近接センサによって生成されたホットスポットの分布の説明図である。図11は、ホットスポットの列がPCB301から遠くなるほど次第に幅広くなるホットスポット配列377を示す。本発明の一部の実施形態では、センサから最も遠いホットスポット列の長さは、センサの長さの3倍である。
図6及び7の近接センサと図10及び11の近接センサとの比較から、同数のエミッタ及び検出器が両方のセンサで使用される場合、図10及び11のセンサは図6及び7のセンサよりも広い区域を監視することが明らかである。具体的には、図11における外側のホットスポット列は、図7の列よりも幅広く、また、図11における外側のホットスポット列は、図7の列よりもセンサから遠く離れている。逆に、図11では、ホットスポット列間の距離は、列がセンサから遠くなるほど大きくなる。従って、図10及び11のセンサは、物体がセンサに接近するほど高い検出分解能を必要とする用途に好適である。そのような用途の例は、自動ドア開閉機用の衝突回避システムである。
本発明の特定実施形態では、センサに近い物体によってなされる反射は、これらの検出を信頼できないものにする迷光反射を伴って検出される。従って、図7及び11に示す最近接のホットスポット列は使用されず、また、図11における残りの-有効な-ホットスポット列は、図7においてその対応する列よりも幅広く、図11の有効検出区域を図7よりも幅広いものにする。
本発明による検出信号は画像としてマッピングされ、それによって、各エミッタ-検出器ペアに関する検出反射値は、センサの2D検出面内の対応するホットスポット位置にマッピングされる。従って、図3及び4に描写したセンサは、9×5格子のホットスポット用に構成され、それに応じて、これらのセンサからの出力は、9×5画像としてマッピングされる。同様に、図5に描写したセンサは、13×7格子のホットスポット用に構成され、図10に描写したセンサは、扇状配置のホットスポット用に構成される。従って、これらのセンサからの出力は、それぞれ、13×7画像として、並びに扇状の画素配置としてマッピングされる。
ジェスチャ検出用のソフトウェアは、本発明の実施形態に従って、タッチ検出とは異なる手法をとる。具体的には、タッチ検出に使用されるセンサは、物体が位置する検出区域内の正確な位置を特定しなければならないのに対して、ジェスチャを特定するためには、物体の正確な位置が必要とされない。実際、タッチ検出のアルゴリズムが、高価であると共に多くのセンサデータを破棄する、多くのノイズフィルタ処理を必要とするのに対して、マトリクスベースのアルゴリズムは、それほど費用が掛からず、元データをより多く保持する。マトリクスベースのアルゴリズムは、物体の正確な位置の計算よりも、物体の認識及び動きの検出に対して有用である。定義された形状との相関を用いて、ジェスチャを行う物体の種類又は特徴を識別し、例えば、手がジェスチャを行っていると確定させ、時間的推移との相関により、動きが識別される。
図12を参照すると、これは、本発明の一実施形態による、近接センサの出力を用いて実行される画像相関の簡略図である。図12は、センサの検出区域で手が動いている間の異なる時刻におけるジェスチャセンサからの検出信号に関する2つの画像365及び367を示す。検出された反射366及び368が示されている。画像369は、MATLAB(登録商標)ソフトウェアを用いて画像365及び367に対して実行された相関の出力である。MATLABは、The Mathworks Inc.Corporationの商標である。相関369は、物体が右に動いていることを示す。本発明の一部の実施形態では、この相関が有意な反射の位置だけを処理するように、画像がマスクされ、例えば、Landy-Szalay推定器により、マスクされた区域及び境界の処理が可能となる。
ゆっくりと動く物体の場合には、連続する画像の対だけを用いた画像相関に基づいてジェスチャが行われているかどうかを確認することが難しい可能性がある。本発明の一部の実施形態では、複数の画像が記憶され、現在の画像を古い画像と相関させて動作ジェスチャを識別する。一部の実施形態では、複数画像の記憶に関するメモリ要件を最適化するために、1つの画像が記憶され、一連の新しい画像との画像相関に使用される。例えば、画像nについて、画像n-1、n-2、n-4、n-8が記憶され、画像相関に使用される。新しいフレームごとに、画像n-1として記憶されていた画像が更新され、2フレームごとに、画像n-2として記憶されていた画像が、それまでは画像n-1として記憶されていたものに更新され、4フレームごとに、画像n-4として記憶されていた画像が、それまでは画像n-2として記憶されていたものに更新され、8フレームごとに、画像n-8として記憶されていた画像が、それまでは画像n-4として記憶されていたものに更新される。このシステムは、画像相関によって示される動きが現在の画像と古い画像との間の時間間隔によって正規化されるように、古い画像を新しい現在の画像と相関させるときに使用される、各画像に関するタイムスタンプを記憶する。
本発明の一部の実施形態では、検出信号の2D配列を1D配列、つまり、水平プロファイル及び垂直プロファイルに変換して、処理を簡略化する。例えば、各エミッタビームに沿った全てのホットスポットについて検出信号を合計して、各エミッタビームに対する単一値を与える。すなわち、図3及び4のセンサでは、このプロセスにより9個の値の水平プロファイルが作成され、図5のセンサでは、このプロセスにより12個の値の水平プロファイルが作成される。更に、各ホットスポット列の全てのホットスポットについて検出信号を合計して、各ホットスポット列に対する単一値を与える。すなわち、図3及び4のセンサでは、このプロセスによって5個の値の垂直プロファイルが作成され、図5のセンサでは、このプロセスによって7個の値の垂直プロファイルが作成される。各プロファイルは、独立して処理される。以下の表IVは、各プロファイルベクトルに対するプロセスを要約したものである。
Figure 2023504590000005
図13を参照すると、これは、本発明の実施形態による、ジェスチャ検出のために最適化された近接センサの簡略図である。図13の近接センサの外側ハウジングは取り外されており、センサの内部構成要素を見せている。この近接センサは、図14を参照して以下で論じるようにエミッタ及び検出器が配置されたPCB301の上方にある支持構造364と、2層のレンズ410及び411とを特徴とする。図1に関して上述したように、レンズは各エミッタからの光をコリメートし、光が特定の角度でレンズに入射した場合に最大光を検出器の上に導く。図13に示す近接センサでは、レンズ410は、センサの幅に沿って光をコリメートする押出加工の円柱レンズとして形成される。レンズアレイ411は、センサの長さに沿って光をコリメートする。押出加工レンズ410は、支持構造364の一部として形成される。レンズアレイ411は、センサの長さに沿って光をコリメートするフレネルレンズユニット412-414を特徴として持つ。各フレネルレンズユニットは、入射光を1又は2以上の検出器の上に向け、隣接するエミッタからの出射光をコリメートする。
図4及び5に関して上記で論じたように、各検出器が2つではなくただ1つのレンズからから最大光強度を受け、エミッタ及び検出器がそれぞれのレンズの近くに配置される場合に、センサの高さを低減することができる。
レンズ410及び411は大量生産が容易であり、本発明による近接センサを、組立コストと材料費の両方の観点で、図1のセンサ351よりも安価に製造できるものにする。レンズ410及び411は、既製の光学部品としても入手可能であり、センサ製造業者のコスト、製造及び間接費が削減される。例えば、フレネルレンズは、透明なプラスチック基板に取り付けるためのフィルムとして入手可能である。
更に図13を参照すると、レンズアレイ411は、センサ上部にある開口部の周囲に沿う出っ張りで支持され、支持構造364は、レンズ410がこの支持体の一部として形成されたH形断面を有する。支持構造364の側壁は平行である必要はない。センサハウジング(図示せず)は、特に板金ケーシングとして、いくつかの方法で製造することができる。
図14を参照すると、これは、本発明の一実施形態による、図13の近接センサに対するPCBの簡略図である。図14は、エミッタ及び検出器が取り付けられたPCB301を示す。図14のエミッタ及び検出器は正方形として示され、検出器はエミッタより大きい。図5に関して上記で論じたように、エミッタ及び検出器の不均一な分布は、多くの場合、均一な分布よりも検出面により多くのホットスポットを提供する。従って、PCB301の外縁にある3つのエミッタの各々は、単一の隣接する検出器を有するのに対して、PCB301の中央部にある6つのエミッタの各々は、2つの検出器間に挟まれる(要素130)。図14は、PCB301の左端にあるエミッタ及び左隣りの検出器の3対120と、PCB301の右端にあるエミッタと右隣りの検出器の3対121を示している。PCB301は、エミッタ-検出器ペアの同期式同時作動を制御し、ホストシステムと通信するプロセッサ300を特徴として持つ。図14はまた、PCB301の両端にある通信ポート304及び305を示している。
本発明によるセンサはモジュール式である。図15を参照すると、これは、本発明の一実施形態による、拡張センサを形成するために接続された2つの近接センサの簡略図である。図15は、長尺センサを形成するために接続されたジェスチャ検出器モジュール352及び353を示す。各センサモジュールは、そのそれぞれの検出ゾーン375、376内の物体を検出し、それによって、これらの隣接する検出ゾーンは長い検出区域を形成する。センサモジュール353はマスタに指定され、センサモジュール352はスレーブとして構成される。マスタモジュールは、スレーブから出力を受け取り、ホストシステムとインタフェースで接続する。各センサモジュールは、センサの両端、例えば図14の通信ポート304及び305にI2Cインタフェースを含み、モジュール間、並びにマスタモジュールとホストシステムの間で通信を可能にする。
図16を参照すると、これは、本発明の一実施形態による、近接センサ間の通信バス接続の簡略図である。図16は、2つのモジュール上のプロセッサ300が通信して各モジュールのエミッタ及び検出器の作動を調整し、スレーブセンサモジュールからマスタセンサモジュールに結果を出力することを可能にするI2C通信バス308を作り出すために、第1センサモジュールのPCB301上の要素305を第2センサモジュールのPCB303上の要素304に接続したところを示している。図15及び16は、僅かに2つの接続されたモジュールを示すが、付加的なモジュールを接続して、拡張された一連のセンサモジュール、並びに対応する拡張された検出ゾーンを形成することができる。センサモジュールの内の1つがマスタとして指定され、他の全てはスレーブである。
図17及び18を参照すると、これらは、本発明の一実施形態に従って、図13の近接センサにおいてレンズが光エミッタ及び光検出器に対してどのように構成されるかを示す簡略図である。図17及び18において、エミッタビーム204は点線で表されている。図17では、検出器に対する最大検出経路が一点鎖線で表される。図18では、最大検出経路257及び258が破線で表され、経路257のダッシュは経路258のダッシュよりも大きい。図17は、図13の近接センサの断面図を示す。この図において、円柱レンズ410は、エミッタビーム204をコリメートし、最大検出経路257及び258に沿って到達する入射ビームを検出器102などの検出器の上に導く。フレネルレンズ412は、この方向には光をコリメートしない。
図18は、大型センサのセグメントを示す。図18では、光ビーム経路が見えるように、図17の2つの支持壁364の内の一方が取り除かれている。図18は、どのようにしてフレネルレンズ412が、2つの最大検出通路257及び258に沿って入射光をそれぞれ検出器102及び103の上に導き、またエミッタ光ビーム204をコリメートするかを示す。
本発明の一部の実施形態では、近接センサハウジングは、環境からセンサを保護するため、特にセンサが車のドア又はリフトゲートの外装パネルなどの露出面に取り付けられる場合に、赤外光に対して透明な、気密封止されたプラスチックに更に収容される。プラスチック封止の一例は、通常はポリオレフィン製の熱収縮チューブであり、これは、加熱すると半径方向に収縮し(長手方向には収縮しない)、直径が2分の1~6分の1になる。
図19を参照すると、これは、本発明の一実施形態による、無線トラックパッドの簡略図である。図19は、バッテリなどの電源と、Bluetooth(登録商標)などの無線通信モジュールとを含み、頑丈なハウジング313に全てが収容された無線トラックパッドを示している。本発明による近接センサは、ハウジング内にタッチ面の上縁に沿って取り付けられ、センサの受発光縁部は、タッチ面310の上部に沿う隆起縁として位置決めされる。近接センサからのエミッタ光ビーム210がタッチ面310に沿って進んでいるのを示している。ハウジング、タッチ面、及びセンサの露出縁は、センサ光ビームがタッチ面310の上方を横切って進み、タッチ面上でのタッチジェスチャを検出することができるように、赤外光に対して透明なプラスチックに収容される。この気密封止システムは、病院及び手術室などの衛生的な環境と共に、厳しい環境にも有用である。例えば、ロボット支援手術では、手術室にいる技術者が、この無菌トラックパッドを用いてロボットを制御することができる。更に、手袋をはめた医師及び看護師は、この無菌トラックパッドを用いて、手術室内でコンピュータ及びコンピュータモニタと対話することができる。ハウジングの外装は、安全に洗浄する、又は殺菌剤で拭いてきれいにすることができる。本発明による一部の収容型トラックパッドは、バッテリの無線充電を特徴とし、他の実施形態では、収容型トラックパッドは、1回限りの使用、すなわち、バッテリ残量が枯渇するまでの使用を目的とする。
図20A及び20Bを参照すると、これらは、本発明の一実施形態による、図19の無線トラックパッドの断面図である。図20Aは、図19の無線トラックパッドの線A-Aに沿った断面を示している。図20Bは、タッチ面310の上縁に沿った近接センサ353、無線通信チップ312と共に、センサと無線通信の両方に電力を供給するためのバッテリ311とを示す。
上記に説明したジェスチャセンサの用途には、車の自動ドア及びリフトゲートが含まれる。車の自動ドア及びリフトゲートにおいて、移動ドア又はリフトゲートパネルに取り付けられた本発明によるセンサは、縁石、木、又は近隣の駐車車両など、ドア又はリフトゲートに接近している物体を検出する。物体とドア又はリフトゲートパネルとの距離は、ドア又はリフトゲート制御システムに報告される。定義された形状との相関を用いて、接近している物体の種類又は特徴を識別する、例えば、その物体が縁石なのか、低木なのか、又は人なのかを特定する。ドア又はリフトゲート制御システムは、物体と衝突する前に、ドア又はリフトゲートパネルの動きを停止させる。
上記に説明したジェスチャセンサの用途には、携帯電話、タブレットコンピュータ、コネクテッドホーム製品、及び車室が含まれる。これらの製品の特定実施形態は、レーダセンサと本発明の実施形態による光学式近接センサとを含む。レーダセンサと光学センサは、ジェスチャの冗長な検出を提供することによって、互いに補完し合う。特定のジェスチャについては、光学センサは、レーダセンサよりも高速且つ正確な検出を提供する。例えば、光学式ジェスチャセンサは、レーダセンサよりも高い精度で物体の位置を検出する。光学センサとレーダセンサは、例えば飛行時間型カメラなどのように、画像中の個人的特徴を捉えることができない。従って、プライバシに関する懸念が軽減される。特定の用途では、ユーザがデバイスに接近していることを検出する前に、一方のセンサをスタンバイモードで作動させて接近するユーザを検出し、他方のセンサはスリープモードにある。スリープモードのセンサは、スタンバイモードのセンサが接近するユーザを検出したときに起動される。
本発明の特定の実施形態では、円柱レンズ及びフレネルレンズを備えたジェスチャセンサにおけるエミッタ及び検出器は、平面曲線に沿って配置され、それによって、センサ上方の、2次元平面というよりむしろ、体積を通過する物体の検出を提供する。このセンサを携帯電話、タブレット端末、コネクテッドホームデバイス及び車室に組み込んで、空中ジェスチャを検出する。例えば、このセンサは、携帯電話、タブレットコンピュータ、コネクテッドホームデバイス又は車両インフォテインメントシステムにおけるディスプレイカバーガラスの後ろに取り付けられ、カバーガラスを通して光ビームを投射して、カバーガラスに向き合って行われる空中ジェスチャを検出する。
図21及び22を参照すると、これらは、本発明の一実施形態による、3D空間で物体の存在を検出するように構成された近接センサに関するエミッタビーム及び最大検出通路の簡略図である。図21は、閉じた平面曲線に沿って交互に配置されたエミッタ及び検出器を示す。エミッタの内の2つだけが番号付けされ(156,157)、検出器の内の2つだけが番号付けされている(108,109)。エミッタ光ビームはこの曲線に対して上向きに投射され、検出器は、複数のエミッタ光ビームと交差する最大検出通路を有するように構成される。1つのエミッタビームが番号付けされ(205)、1つの最大検出通路が番号付けされている(260)。この構成は、エミッタ及び検出器の上方空間にホットスポット378-382の環を作り出し、これにより、体積を通過する物体の検出を提供する。
図22は、エミッタ158-167からのビームと、検出器110-119に対する最大検出通路とを示し、エミッタ158-167と検出器110-119は、開いた平面曲線に沿って配置されている。ビームは図示するように向けられ、ここでは2つのエミッタビームが番号付けされている(206,207)。図示するように、検出器は、それぞれの最大検出通路が複数のエミッタビームと交差するように構成される。2つの最大検出通路が、図中に番号付けされている(261,262)。これにより、両切妻屋根形として知られる双曲放物面形状のホットスポット配列383が作り出される。
携帯電話、タブレットコンピュータ、コネクテッドホームデバイス及び車室では、光学センサ部品は、ディスプレイの1又は2以上の縁に沿って取り付けられる。エミッタビームは、ディスプレイガラスを通して上方に向けられる。ディスプレイカバーガラスと平行にビームを投射する光学式タッチスクリーンとは対照的に、ディスプレイガラスに向き合ったジェスチャを検出するように構成されたこのジェスチャセンサは、光ビームがディスプレイ表面と平行にというよりむしろ、ディスプレイの外に向けられるため、ディスプレイ周囲の隆起したベゼルを必要としない。
図23-25を参照すると、これらは、本発明の実施形態による、非接触型タッチ入力システムの簡略図である。図23は、ユーザ502とタッチスクリーン501の接触を減らす又は排除するように設計された非接触型タッチスクリーンシステムの側面図を示す。非接触型タッチスクリーンシステムは、ディスプレイ501と、ディスプレイ501から距離を置いて取り付けられた近接センサ384とを含み、ディスプレイ501の上面に平行で、その上方にあるタッチ検出面503を作り出す。図23は、ディスプレイ501の上面から距離dだけ離れたタッチ検出面503を示す。ユーザ502は、検出面503内の全ての座標がディスプレイ501上の対応する座標にマッピングされるため、ディスプレイに触れることなく、ディスプレイ501上に提示されたユーザインタフェースと相互作用することができる。検出面503に指又は物体を挿入することによってユーザが行うあらゆるジェスチャは、センサ384によって検出され、USBヒューマンインタフェースデバイスクラス(USB HIDクラス)などの標準プロトコルを用いてユーザインタフェースに報告される。従って、基礎を成すコンピュータシステムは、いかなる変更も必要としない。コンピュータシステムは、あたかも入力がタッチスクリーン入力であるかのように、センサ384からの入力を受け取る。
このような入力は、画面上のアイコンを選択することに限定されない。センサ384によって検出され、システムに報告される付加的な空中ジェスチャには、例えば、ディスプレイをパン又はスクロールするためのスワイプジェスチャ、並びにズームイン及びズームアウトするための2本指ピンチジェスチャが含まれる。このシステムがセルフチェックアウト・キオスクで使用される場合、ユーザは、検出面503で空中ジェスチャを行うことによって、クレジットカード決済を検証する署名を入力することができ、センサ384が署名ジェスチャ座標をシステムに報告する。
図23に示したシステムは、物理的なボタン及びノブのインタフェースにも適用される。例えば、エレベータキーパッドがディスプレイ501に取って代わり、それによって、ユーザ502は、土台となるボタンにマッピングされた位置で検出面503にプレスジェスチャを行うことによってボタンを選択する。センサ384は、キーパッド上の位置、又は対応するボタンを、ユーザが押したものとして、エレベータボタンパネル制御システムに報告する。
別の実施例では、物理的なスライダ制御部と回転自在ノブとを有するパネルが、ディスプレイ501に取って代わる。スライダ制御部に向き合う検出面503で検出されたスワイプジェスチャは、入力値を増加又は減少させるためのスライダに沿う動きとして報告される。回転自在ノブに向き合う検出面503で検出された2本指スプレッドジェスチャは、ノブを右に回転させるものとして解釈され、回転自在ノブに向き合う検出面503で検出された2本指ピンチジェスチャは、ノブを左に回転させるものとして解釈される。
ディスプレイ又はボタンパネルの寸法が大きい場合、1つの大きなセンサの代わりに複数のセンサを使用するシステムを可能にすることが有利である。本発明の実施形態では、2つのセンサが、ディスプレイ又はボタンパネルの対向する縁に沿って互いに向かい合って取り付けられ、各センサの検出ゾーンはディスプレイの一部分だけを占めるが、2つのセンサは一緒になってディスプレイ全体を網羅する。
図24は、そのようなシステムを示す。図24は、ディスプレイ504と、ディスプレイ504の対向する短縁に沿って取り付けられたセンサ385及び386とを示している。各センサの検出区域は、ディスプレイ504の上面の一部分を占める。図24において、センサ385は、ディスプレイ504を横切って左から右に距離l1だけ延びる検出区域505を有し、センサ386は、ディスプレイ504を横切って右から左に距離l2だけ延びる検出区域506を有する。ディスプレイ504の中央の区域507は、検出区域505と506の両方で覆われる。本発明の実施形態において、センサ385及び386は、図23に関して上記で論じたように、非接触相互作用を可能にするために、ディスプレイ504の上面の上方に検出面を提供するように取り付けられる。
センサ385及び386からの出力を結合してタッチスクリーン入力にするために、センサ385及び386の両方がプロセッサ520にそれぞれの出力を送信し、このプロセッサは、それらの出力を結合してから、結合された出力をタッチ入力として、ディスプレイ及びユーザインタフェースを動かしているコンピュータ521に送信する。一部の実施形態では、プロセッサ520は、Linux(登録商標)オペレーティングシステムを実行するRaspberry Pi(商標)シングルボードコンピュータ内のARM(登録商標)プロセッサである。ARMは、Arm Limitedの登録商標である。RASPBERRY Piは、RASPBERRY Pi財団の商標である。Linuxは、米国及びその他の国におけるLinus Torvaldsの登録商標である。
図25は、複数対のセンサ(385-386及び387-388)がディスプレイ504の2つの対向する縁に沿って取り付けられる、本発明の別の実施形態を示す。各センサは、それぞれ、検出領域505、506、508、509の内の1つにおいて物体を検出する。図25は、2つの検出区域が重なる区域507及び510も示している。センサ385-388は全て、結合させてタッチスクリーン入力としてコンピュータ521に送信するために、その出力をプロセッサ520に送信する。
図26を参照すると、これは、本発明の実施形態による、非接触型タッチ入力システムにおいて対向する反射型センサからのタッチ出力を結合するプロセスのフローチャートである。図26は、プロセッサ520によって実行されるソフトウェア機能のフローチャートを示している。プロセッサ520は、接続された各センサに対して別々のスレッド(1001,1002)を実行する。対向するセンサの対ごとに、そのスレッド出力をセンサグループスレッド(1003)に送り、このスレッドは、以下の関数を実行するMerge Touches関数(1004)を呼び出す:Map Coordinates(1005)、Debounce(1006)、State Arbitrator(1007)、Deghost(1008)、Weighted Position(1009)、及びCoordinate Smoother(1010)。このシステム内に2対以上の対向センサがあり、複数のグループスレッドが使用される場合には、各グループスレッドに由来するMerge Touches関数からの出力は、最終タッチ情報をコンピュータ521に送信するメインスレッド1011に送信される。1対だけの対向センサを備えた特定のシステムでは、メインスレッドが2つのセンサスレッドからのデータを結合し、Merge Touches関数を呼び出す(1004)。この場合、グループスレッド(1003)は必要とされない。以下に、関数1005-1010の説明を与える。
関数1005 Map Coordinates-センサは異なる方向を向いているので、それらの出力は同じ座標空間を扱っていない。この関数は、各センサの出力を共有座標空間にマッピングする。
関数1006 Debounce-関数1005からの出力を用いて、この関数は、「ダウン(down)」状態と「アップ(up)」状態の間の速いフリッカを検出し、そのようなフリッカを抑制しようとする。これは主に、重複区域507及び510に物体がある場合に発生し、その区域では信号が弱くて有効/無効区域の境界が揺れ動いている。
関数1007 State Arbitrator-関数1006からの出力を用いて、この関数は現在のタッチ状態を規定する。状態については、図27を参照して以下で論じる。
関数1008 Deghost-この関数は、センサが対向するセンサからのエミッタビームを検出することで発生した可能性が高い、各センサからのタッチ出力を識別する。これは、例えば、それまでのタッチ位置から離れた距離に突然現れるタッチ座標に基づく。
関数1009 Weighted Position-2つのセンサが共に有効なタッチ位置を報告した場合、この関数は、その2つの位置を、タッチ位置に近いセンサからの出力に大きな重みを割り当てる加重和に基づいて結合する。
関数1010 Smoother-この関数は、関数1009の出力に状態ベースのローリング平均フィルタを適用する。その結果が、Merge Touches関数の出力である。全てのグループスレッドがマージされてメインスレッドに単一出力を与え、このメインスレッド出力は、単一のHID(絶対座標マウス、デジタイザ、又は他のHIDプロファイルデバイス)からのタッチデータとしてシステムに送信される。
図27を参照すると、これは、本発明の実施形態による、非接触型タッチ入力システムにおいてタッチ入力を検証し追跡する状態機械の説明図である。図27は、関数1007 State Arbitratorによってタッチデータに割り当てられた状態1021-1026を示す。状態は、状態1 Idle(1021)から始まる。タッチが初めて検出されると、状態は状態2 Down Pendingに進められる。この状態で、システムはタッチが消えてなくなるかどうか様子を見るが、この場合、タッチはノイズに起因する、例えば他のセンサからのものである可能性が高く、破棄すべきである。従って、タッチが消えた場合には、状態はIdleに戻り、一定時間持続した場合には、タッチが確定される。このように確定されたタッチの状態は、状態3 Down(1023)か状態4 Move(1024)の何れかに進む。状態3 Down(1023)は、状態2からの確定されたタッチが同じ位置に留まった場合に適用される。これは、他のGUIシステムにおけるタッチダウンイベントに相当する。状態4 Move(1024)は、状態2又は状態3からの確定されたタッチが新しい位置に移動した場合に適用される。状態5 Up Pending(1025)は、状態3又は4からのタッチが解除された場合に適用される。この状態では、タッチがないままであるかどうか様子を見る。タッチが一定時間ないままであれば、状態は、タッチが終了したことを確定する状態6 Up(1026)に更新される。状態は、状態1 Idleに戻される。
本発明は、電子表示画面を特徴とするシステムと共に、例えば印刷物などの静止画像を特徴とするシステムも対象にする。特に、本発明は、本発明のセンサが印刷物中の記号に対応する位置でジェスチャを検出した場合にユーザが相互作用する印刷物を含んでいる。本発明はまた、本発明のセンサがホログラム中のシンボルに対応する位置でジェスチャを検出した場合にユーザが相互作用する、印刷又はエッチングされた画像のホログラムを含む。また、本発明は、入力GUIが空中に、又はヘッドアップディスプレイなどの反射面の上に投影される入力デバイスを含む。
本発明による非接触型インタフェースは、1又は2以上の相互作用要素と、ユーザ入力ジェスチャを検出するための1又は2以上の空中検出面とを特徴とするGUIを提供する。システムは、検出されたジェスチャをGUI要素のそれぞれにマッピングすることによって、ユーザ入力を受け取る。検出面とのユーザ相互作用は、いかなる表面にも触れることなく空中で行われるので、本発明のシステムは、複数の個人が触れるタッチ入力表面を介して生じるであろう病原体の伝染を防止する。
本発明が取り組む問題点の1つは、GUI要素のユーザ選択とその要素の作動とをシステムがどのように区別するかということである。本発明が取り組む別の問題点は、いつ、どのようにして、ユーザのジェスチャがシステムによって入力として受け取られ解釈されるかをユーザに直感的に伝える方法である。
図28-32を参照すると、これらは、本発明の実施形態による、非接触型光学式タッチスクリーンシステム内の要素の簡略図である。図28は、互いに平行に配置された2つの光学式近接センサ315及び316を示す。光ビームの検出場270がセンサ315の上方の空間に上向きに投射されるのを示している。センサ315及び316は、米国特許第9164625号、第9921661号、第10282034号及び第10324565号に記載されており、その内容は、参照によりその全体が本書に組み込まれるものとする。
図29は、センサ315が、検出場270に挿入された指512などの物体の2次元位置を検出する様子を示している。米国特許第9164625号、第9921661号、第10282034号及び第10324565号に説明されるように、投射光場270の指512による反射271を用いて、光場270内の物体位置を三角測量する。
図30は、本発明による入力システムの片側からの斜視図である。ディスプレイ514は、近接センサ315及び316の背後に、それらから離れて取り付けられる。近接センサ315及び316は、ディスプレイ514の平面の上方に、2つの平行な検出面270及び272を提供する。センサ315によって検出された、検出面270内の指512の位置は、ディスプレイ514上の対応する位置にマッピングされる。これにより、ユーザは、指512を動かして、ディスプレイ514上に表示される異なるGUI要素を選択し選択解除することができる。図31は、ディスプレイ514上のGUI要素515(「検索する」)、516(「進む」)、517(「印刷する」)及び518(「戻る」)を示している。これらのGUI要素の何れかが、センサ315と相互作用する指512によって選択されると、この選択は、例えば、選択されたGUI要素をディスプレイ514上に拡大することによって、ユーザに示される。選択されたGUI要素を作動させるために、ユーザは、指512を近接センサ316の検出面272に平行移動させる。
図32は、指512が近接センサ316の検出面272に平行移動し、それによって、選択されたGUI要素517(「チケットを印刷する」)を作動させるところを示す。この作動は、例えば、作動させたGUI要素の色を変えることによって、ユーザに指し示される。この作動は、センサ315及び316に、並びにディスプレイ514に接続されたプロセッサ520によって制御される。
ユーザへの指示は、ディスプレイ上のグラフィカルな変化に限定されない。本発明の一部の実施形態では、センサ315及び316は、ユーザへのフィードバックを提供するために選択的に作動する可視光エミッタを含む。例えば、物体が検出面270に入ると、第1の可視光エミッタが作動して、物体を第1の色で照らす。物体が近接センサ316の検出面272に平行移動すると、近接センサ315上の又は近接センサ316上の第2の可視光エミッタが作動して、物体を第2の色で照らす。指512が検出面270内で移動する際に、可視光エミッタの作動は、ディスプレイ514上の対応するカーソルがGUI要素を選択したかどうかを示す;例えば、指の低強度の照明は、カーソルがGUI要素間に位置していることを示し、高強度の照明は、カーソルがGUI要素の1つに位置し、従ってその要素が選択されたことを示す。
図33を参照すると、これは、本発明の一実施形態による、非接触光学式タッチスクリーンシステム用の第1のユーザインタフェースを説明するフローチャートである。システムが起動した(動作1030)後、センサ315は、検出面270をポーリングして、物体が検出面に入ったかどうかを確認する(動作1031)。yesの場合、プロセスは続いて、物体がディスプレイ514上のアイコンの何れかに対応する検出面270内の位置にあるかどうかを決定する(動作1032)。yesの場合、そのアイコンが、例えばアイコンを強調表示することによって、選択される(動作1033)のに対して、そうでない場合、ディスプレイは、検出面270内の物体の位置に対応する位置で、ディスプレイ上にカーソル、例えば円を表示する(動作1034)。このカーソル(動作1034)か選択されたアイコンの視覚的表示(動作1033)の何れかの出現は、検出面270との現在の相互作用、ひいては表示されたGUIとの相互作用を示す。従って、その後に指が検出面270から取り除かれると、カーソル又は選択されたアイコンのグラフィカル表示が消える(動作1035が動作1031に戻るとアイコン選択が取り消され、動作1036が動作1031に戻るとカーソルが消去される)。指が検出面270内で移動する際に、ディスプレイは、ディスプレイ上のアイコン間の対応する位置にカーソルをレンダリングするか(動作1034)、選択されたアイコンを強調表示する(動作1033)の何れかで反応する。アイコンが選択されたときに、カーソルを表す円が消え、代わりに選択されたアイコンが強調表示されるということは、ユーザにとって直感的である。これは、カーソルがアイコンに近づくにつれて、カーソルがアイコンに引き付けられるように見える、例えば、円がアイコンに引き寄せられて、強調表示されたアイコンに溶け込むというアニメーションがあると、更に強化される。このアニメーションもまた、そのアイコンを選択するためにはカーソルがアイコンに近づけばよいので、ユーザのアイコン選択を容易にする。アイコンの選択を解除するために、ユーザは、指512を検出面270の現在位置から平行移動させる。これにより、強調表示は消えるように、カーソルは選択解除されたアイコンの外側の新しい位置に再び現れるように促される。アイコンを選択する場合、指512が検出面272に入ったことをセンサ316が検出すると(動作1037)、選択されたアイコンが作動する(動作1038)。
図34を参照すると、これは、本発明の一実施形態による、非接触光学式タッチスクリーンシステム用の第2のユーザインタフェースを説明するフローチャートである。図34の方法は、ただ1つのセンサとただ1つの検出面、すなわち、センサ315と検出面270とを使用する点で、図33の方法と異なる。システムが起動した(動作1040)後、センサ315は、検出面270をポーリングして、物体が検出面に入ったかどうかを確認する(動作1041)。yesの場合、プロセスは続いて、物体がディスプレイ514上のアイコンの何れかに対応する検出面270内の位置にあるかどうかを決定する(動作1042)。yesの場合、そのアイコンが選択され(動作1043)、そうでない場合、ディスプレイは、検出面270内の物体の位置に対応する位置で、ディスプレイ上にカーソルを表示する(動作1044)。このカーソル(動作1043)か選択されたアイコンの視覚的表示(動作1044)の何れかの出現は、ユーザが検出面270と現在相互作用している、ひいては表示されたGUIと相互作用していることをユーザに示す。従って、カーソルがディスプレイに表示される場合に、その後で指が検出面270から取り除かれたならば、カーソルが消える(動作1046から動作1041に戻る)。指が検出面270内で移動する際に、ディスプレイは、ディスプレイ上のアイコン間の対応する位置にカーソルをレンダリングするか、選択されたアイコンを強調表示するかの何れかで反応する。アイコンが選択されたときにカーソルが消え、代わりに選択されたアイコンが強調表示されるということは、ユーザにとって直感的である。これは、カーソルがアイコンに近づくにつれて、カーソルがアイコンに引き付けられるように見える、例えば、円がアイコンに引き寄せられて、強調表示されたアイコンに溶け込むというアニメーションがあると、更に強化される。このアニメーションもまた、そのアイコンを選択するためにはカーソルがアイコンに近づけばよいので、ユーザのアイコン選択を容易にする。アイコンの選択を解除するために、ユーザは、指512を検出面270の現在位置から平行移動させる。これにより、強調表示は消えるように、カーソルは選択解除されたアイコンの外側の新しい位置に再び現れるように促される(動作1045から動作1042へ、動作1044へと進む)。選択されたアイコンを作動させるために、ユーザは、指512を検出面270内のアイコン位置から平行移動させる(動作1047)。
本発明の特定の実施形態では、ディスプレイ514は、ディスプレイの映り込み、例えばヘッドアップディスプレイに置き換えられ、反射面は検出面270から離して置かれる。
本発明の特定の実施形態では、検出面270は、平面270の対向する縁にエミッタ及び検出器を有する光学センサによって作り出される。本発明の他の実施形態では、2つの検出面270及び272は、平面270及び272の対向する縁にエミッタ及び検出器を有する2つの積層型センサによって作り出される。1又は2以上の検出面の対向縁にエミッタ及び検出器を有する光学センサは、米国特許第8416217号に記載されており、これにより、その内容は参照によってその全体が本明細書に組み込まれる。
本発明の特定の実施形態では、ユーザが入力しているデータを他者が見るのを阻止するフード又はボックスでディスプレイが覆われる、個人的なPIN又は他の極秘データを入力するためのインタフェースが提供される。この場合、フード又はボックスの開口部は、検出面の対向縁にエミッタ及び検出器を有する光学センサを収容するための、検出面270を囲むフレームを提供する。このフードの遠端にある傾斜した又は勾配のある反射面が、このフード付き入力システムのユーザが見るディスプレイである場合、ユーザは、遠位の傾斜したディスプレイ表面に触れる必要がないことを直感的に理解する。これにより、フード開口部付近の検出面との相互作用が、ユーザにとって直感的なものとなる。
他の実施形態では、GUI要素、例えば、階を選択するためのエレベータ内の番号付きボタン又は自動販売機の商品名を表すものを備えたホログラフが、空中で生成される。センサは、ホログラフと同一平面上にある検出面を作り出すように構成され、ユーザは、表面が触れられないことを除いて、標準的なボタンインタフェースとしてホログラフと相互作用することができる。検出面と同一平面上のホログラフを有するシステムは、米国特許第10282034号に記載され、その中で少なくとも図40に示されている。
他の実施形態では、エレベータキーパッドなどの物理的ボタンキーパッド、或いは自動販売機の商品ボタン又は印刷された選択オプションが、非接触のボタン選択を可能にするために、上記で論じた検出面270の背後に距離を置いて提供される。一部の実施形態では、検出面は、キーパッドの上方30mmの距離に位置する。選択されたボタンは、押された場合に、従来のボタンと同様に強調表示される。この事例では、ボタンの特定の1つに対応する検出面270の位置に指512を挿入するだけで、そのボタンが作動する。
前述の明細書において、本発明をその特定の例示的な実施形態に関連して説明した。しかしながら、本発明のより幅広い趣旨及び範囲から逸脱することなく、特定の例示的な実施形態に対して様々な修正及び変更が可能であることは明らかであろう。例えば、レーダ、カメラ、飛行時間型カメラ及び容量センサなどの技術を、上記に論じた光学センサの代わりに使用することができる。従って、本明細書及び図面は、限定的な意味ではなく、例示的な意味で見るべきである。
101-107 光検出器
150-155 光エミッタ
200 光ビーム
250-252 視野角
300 プロセッサ
350 ホットスポット
351 近接センサ
400-401 レンズ
409 レンズアレイ

Claims (29)

  1. 近接センサであって、
    回路基板と、
    少なくとも1つのレンズと、
    前記少なくとも1つのレンズを前記回路基板の上方に懸架する支持構造と、
    前記回路基板上に取り付けられた複数の光エミッタであって、前記各エミッタは、作動すると、共通投射面に沿って前記少なくとも1つのレンズを通して光ビームを投射するように動作可能である複数の光エミッタと、
    前記回路基板上に取り付けられた複数の光検出器であって、前記各検出器は、作動すると、前記少なくとも1つのレンズを通って前記検出器に到達する光の量を検出するように動作可能であり、前記少なくとも1つのレンズの上方にある前記投射面に位置する反射物が、前記反射物に投射された光をエミッタから前記検出器の内の1又は2以上の検出器に反射し、前記エミッタの内の1つのエミッタと前記検出器の内の1つの検出器とを備える各エミッタ-検出器ペアは、同期して作動すると、前記反射物が前記エミッタ-検出器ペアに対応する前記投射面内の特定の2D位置に位置するときに、他の検出器も前記エミッタの内の何れかと同期して作動したとしても、前記作動した検出器において前記他の検出器よりも大きな検出信号を生成すると予期される、複数の光検出器と、
    前記エミッタ及び前記検出器に接続されたプロセッサであって、前記各エミッタを順次に作動させて前記検出器の内の1又は2以上の検出器を同期して同時作動させ、並びに同期して同時作動した前記各エミッタ-検出器ペアの前記検出器によって検出された光の量に基づいて、前記少なくとも1つのレンズの上方で前記反射物によって行われるジェスチャを識別するように構成されたプロセッサと、
    を備える近接センサ。
  2. 前記少なくとも1つのレンズは、光を2次元でコリメートするように構成される、請求項1に記載の近接センサ。
  3. 前記少なくとも1つのレンズは、2枚重ねレンズを備える、請求項1に記載の近接センサ。
  4. 前記2枚重ねレンズは、押出加工の円柱レンズとフレネルレンズアレイとを備える、請求項3に記載の近接センサ。
  5. 前記押出加工の円柱レンズは、前記フレネルレンズアレイと前記回路基板との間に位置決めされる、請求項4に記載の近接センサ。
  6. 前記押出加工の円柱レンズは、センサに対する支持構造として機能する、請求項4に記載の近接センサ。
  7. 前記プロセッサは更に、同期して作動した複数のエミッタ-検出器ペアの各検出器によって検出された光の量を前記エミッタ-検出器ペアに対応する特定の2D位置に割り当てることに基づいて、画素値を有する画素像を生成し、前記生成された画素像を参照物体形状と相関させることによって、前記反射物の形状を識別するように構成される、請求項1に記載の近接センサ。
  8. 赤外光に対して透明な気密封止されたプラスチックに収容される、請求項1~7の内の何れか1項に記載の近接センサ。
  9. 前記プラスチックに収容された電源と無線通信モジュールとを更に備える、請求項8に記載の近接センサ。
  10. 前記電源を充電するために、前記プラスチックに収容された無線充電モジュールを更に備える、請求項9に記載の近接センサ。
  11. 前記プロセッサは、画素像の時系列を相関させることによって、前記反射物によって行われるジェスチャを識別するように構成され、前記各画素像は、同期して作動した前記各エミッタ-検出器ペアの前記検出器によって検出された光の量を前記エミッタ-検出器ペアに対応する特定の2D位置に割り当てることに基づいた画素値を備える、請求項1に記載の近接センサ。
  12. 前記プロセッサは、
    成分が前記エミッタに対応する第1ベクトルであって、前記成分は、各エミッタについて、当該エミッタを有する同期して作動した前記各エミッタ-検出器ペアの前記検出器によって検出された光の量に対応する値の合計を備える第1ベクトルと、
    成分が前記センサからの距離に対応する第2ベクトルであって、前記成分は、対応する特定の2D位置が前記センサから同じ距離である同期して作動した前記各エミッタ-検出器ペアの前記検出器によって検出された光の量に対応する値の合計を備える第2ベクトルと、
    を生成するように構成され、
    前記プロセッサは更に、
    前記第1ベクトルに基づいて、前記投射面の第1次元に沿う前記反射物の動き、速度、サイズ及び位置と、
    前記第2ベクトルに基づいて、前記投射面の第2次元に沿う前記反射物の動き、速度、サイズ及び位置と、
    を計算するように構成される、請求項1に記載の近接センサ。
  13. 前記少なくとも1つのレンズは、前記複数の光エミッタからの光ビームを前記共通投射面に沿って非平行、非交差の方向へファンアウトする、請求項1に記載の近接センサ。
  14. ディスプレイと、
    請求項1に記載の近接センサと、
    を備える電子デバイスであって、
    前記近接センサの前記少なくとも1つのレンズは、前記近接センサの前記光エミッタからの各光ビームを前記ディスプレイから上向きに離れる方向へ投射するように構成され、
    前記近接センサは、前記ディスプレイと対向する反射物によって行われる空中ジェスチャを検出するように構成され、
    前記デバイスが、携帯電話、タブレットコンピュータ、コネクテッドホームデバイス、並びに車両における環境制御機能、オーディオ機能、照明機能又は快適制御機能を設定するための車両搭載制御センタからなる群に属する、
    電子デバイス。
  15. 部屋又は車室内の温度を調節するサーモスタットと通信し、前記検出された空中ジェスチャに応じて前記サーモスタットの設定を変更するように構成される、請求項14に記載の電子デバイス。
  16. 近接センサであって、
    回路基板と、
    少なくとも1つのレンズと、
    前記少なくとも1つのレンズを前記回路基板の上方に懸架する支持構造と、
    前記回路基板上に取り付けられ、第1の平面曲線に沿って配置された複数の光エミッタであって、前記各エミッタは、作動すると、前記少なくとも1つのレンズを通って検出体積を通るように光ビームを投射するように動作可能である複数の光エミッタと、
    前記回路基板上に取り付けられ、第2の平面曲線に沿って配置された複数の光検出器であって、前記各検出器は、作動すると、前記少なくとも1つのレンズを通って前記検出器に到達する光の量を検出するように動作可能であり、前記少なくとも1つのレンズの上方にある前記検出体積に位置する反射物が、前記反射物に投射された光をエミッタから前記検出器の内の1又は2以上の検出器に反射し、前記エミッタの内の1つのエミッタと前記検出器の内の1つの検出器とを含む各エミッタ-検出器ペアは、同期して作動すると、前記反射物が前記エミッタ-検出器ペアに対応する前記検出体積内の特定の3D位置に位置するときに、他の検出器も前記エミッタの内の何れかと同期して作動したとしても、前記作動した検出器において、他の検出器よりも大きな検出信号を生成すると予期される、複数の光検出器と、
    前記エミッタ及び前記検出器に接続されたプロセッサであって、前記各エミッタを順次に作動させて前記検出器の内の1又は2以上の検出器を同期して同時作動させ、並びに同期して同時作動した各エミッタ-検出器ペアの前記検出器によって検出された光の量に基づいて、前記少なくとも1つのレンズの上方で前記反射物によって行われるジェスチャを識別するように構成されたプロセッサと、
    を備える近接センサ。
  17. 前記第1及び第2の平面曲線は閉じている、請求項16に記載の近接センサ。
  18. 前記第1及び第2の平面曲線は開いている、請求項16に記載の近接センサ。
  19. 前記エミッタ及び前記検出器は、単一の平面曲線に沿って交互配置される、請求項16に記載の近接センサ。
  20. 前記少なくとも1つのレンズは、第2の次元で光をコリメートするように構成された押出加工の円柱レンズの上方に、第1の次元で光をコリメートするように構成されたフレネルレンズアレイを備える、請求項16に記載の近接センサ。
  21. ユーザインタフェースデバイスであって、
    ディスプレイと、
    前記ディスプレイ上にユーザインタフェースをレンダリングし、前記ディスプレイ上の位置で行われたと報告されたタッチジェスチャに応答するように動作可能なコンピュータと、
    前記ディスプレイの対向縁に沿って取り付けられた1対のセンサであって、
    前記各センサが、
    前記ディスプレイの上面の上方を横切る平面内に光ビームを投射するように動作可能な複数の光エミッタであって、前記平面内の位置が前記ディスプレイ内の位置に対応する複数の光エミッタと、
    前記平面内に挿入された物体によって反射された前記投射光ビームの量を検出するように動作可能な複数の光検出器と、
    前記複数のエミッタ及び前記検出器の内の個々のエミッタ及び検出器を同時に作動させるように、並びに、前記検出器からの出力に基づいて前記平面内の前記物体の位置を計算するように動作可能な制御ユニットと、を備える1対のセンサと、
    前記計算された物体位置を前記センサから受け取るプロセッサであって、
    前記センサ対の内の1つから受け取った、前記センサ対の他方によって放出された光の検出によって生成された物体位置を取り除き、
    取り除かれなかった前記物体位置の加重和に基づいて、出力位置を計算し、
    前の出力位置に基づいて、前記出力位置を時間的にフィルタ処理し、
    前記時間的にフィルタ処理された出力位置を前記ディスプレイ上のタッチ位置として前記コンピュータに報告する、ように構成されたプロセッサと、
    を備えるユーザインタフェースデバイス。
  22. 前記プロセッサは、前記物体に対するデータ構造を生成し、前記データ構造は、前記物体位置座標と、DOWN PENDING、DOWN、MOVE、UP PENDING、及びUPという群に属するタッチ状態とを備え、
    前記プロセッサは、
    前記物体が最初に前記センサ対によって検出された場合に、前記DOWN PENDING状態を前記データ構造に割り当て、
    前記物体が前記最初の検出の後で前記センサ対によって更に検出され、前記位置座標が前の検出座標と同じである場合に、前記DOWN状態を前記データ構造に割り当て、
    前記物体が前記最初の検出の後で前記センサ対によって更に検出され、前記位置座標が前の検出座標と異なる場合に、前記MOVE状態を前記データ構造に割り当て、
    前記物体が初めて前記センサ対によって検出されなくなった場合に、前記UP PENDING状態を前記データ構造に割り当て、並びに
    前記物体が前記センサ対によって検出されず、前記データ構造状態がUP PENDINGである場合に、前記UP状態を前記データ構造に割り当てる、
    請求項21に記載のユーザインタフェースデバイス。
  23. 前記ディスプレイは矩形であり、前記センサ対は、前記ディスプレイの短縁に沿って取り付けられる、
    請求項21に記載のユーザインタフェースデバイス。
  24. 前記センサ対は、前記各センサについて、前記平面が前記ディスプレイの前記上面の少なくとも30mm上方にあって、前記ディスプレイの前記上面の少なくとも30mm上方で行われる空中ジェスチャに基づいて前記コンピュータに入力を与える態様で取り付けられる、請求項21に記載のユーザインタフェースデバイス。
  25. 前記センサ対を2つ備え、各センサ対が、前記ディスプレイの前記上面の異なる部分を横切って光ビームを投射する、請求項21に記載のユーザインタフェースデバイス。
  26. 非接触型ユーザインタフェースシステムであって、
    複数のグラフィカルユーザインタフェース(GUI)要素を内部位置でレンダリングするディスプレイと、
    前記ディスプレイの上方を横切る検出面内における前記検出面内に挿入された物体の座標を特定するように構成されたセンサであって、前記検出面内の座標が前記ディスプレイ内の位置に対応する、センサと、
    前記センサによって特定された前記検出面内の前記座標が、前記GUI要素の何れかが位置する前記ディスプレイ内の位置に対応しない場合に、前記ディスプレイにカーソルをレンダリングさせ、並びに前記センサによって特定された前記検出面内の前記座標が、前記GUI要素の何れかが位置する前記ディスプレイ内の位置に対応する場合に、前記レンダリングされたカーソルを消去するようにするプロセッサと、
    を備える非接触型ユーザインタフェースシステム。
  27. 前記プロセッサは更に、前記物体が前記検出面から取り除かれたことを前記センサが検出した場合に、前記ディスプレイに対して、前記レンダリングされたカーソルを消去するようにさせる、請求項26に記載の非接触型ユーザインタフェースシステム。
  28. 前記センサによって特定された前記検出面内の前記座標が、前記GUI要素の内の1つが位置する前記ディスプレイ内の位置に対応するときに、前記プロセッサは、前記物体が前記検出面から取り除かれたことを引き続き前記センサが検出したときに、前記1つのGUI要素によって表される入力を登録する、請求項27に記載の非接触型ユーザインタフェースシステム。
  29. 作動すると前記物体を照明するように構成された、前記ディスプレイから分離された可視光エミッタを更に備え、前記可視光エミッタは、前記検出面に挿入された前記物体を前記センサが検出することに応答して、前記プロセッサによって作動される、請求項26に記載の非接触型ユーザインタフェースシステム。
JP2022560175A 2019-12-31 2020-12-30 非接触型タッチ入力システム Pending JP2023504590A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201962956058P 2019-12-31 2019-12-31
US62/956,058 2019-12-31
US202063030919P 2020-05-27 2020-05-27
US63/030,919 2020-05-27
US202063080656P 2020-09-18 2020-09-18
US63/080,656 2020-09-18
PCT/US2020/067599 WO2021138516A1 (en) 2019-12-31 2020-12-30 Contactless touch input system

Publications (1)

Publication Number Publication Date
JP2023504590A true JP2023504590A (ja) 2023-02-03

Family

ID=76687566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022560175A Pending JP2023504590A (ja) 2019-12-31 2020-12-30 非接触型タッチ入力システム

Country Status (6)

Country Link
US (2) US11842014B2 (ja)
EP (1) EP4085321A4 (ja)
JP (1) JP2023504590A (ja)
KR (1) KR20220098024A (ja)
CN (1) CN115039060A (ja)
WO (1) WO2021138516A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220112574A (ko) * 2021-02-04 2022-08-11 삼성전자주식회사 터치 센서 컨트롤러, 터치 센서 컨트롤러의 동작 방법 및 터치 센서 컨트롤러를 포함하는 터치 스크린 구동 회로
FR3127309B1 (fr) * 2021-09-21 2023-11-10 Mz Tech Cadre d’interaction sans contact pour interface homme / machine
CN113810037B (zh) * 2021-09-29 2024-08-23 海拓信息技术(佛山)有限公司 一种按键的无接触控制方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015219663A (ja) * 2014-05-15 2015-12-07 アルプス電気株式会社 キーボード装置
JP2016521874A (ja) * 2013-05-30 2016-07-25 ネオノード インコーポレイテッド 光学的接近センサ
JP2019074933A (ja) * 2017-10-17 2019-05-16 コニカミノルタ株式会社 非接触入力装置

Family Cites Families (333)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL131897C (ja) 1961-02-08
US3115745A (en) 1962-06-13 1963-12-31 Chadbourn Gotham Inc Method of drawing, covering and stabilizing synthetic elastomeric yarn
US4267443A (en) 1978-04-24 1981-05-12 Carroll Manufacturing Corporation Photoelectric input apparatus
US4243879A (en) 1978-04-24 1981-01-06 Carroll Manufacturing Corporation Touch panel with ambient light sampling
US4301447A (en) 1979-12-12 1981-11-17 Sperry Corporation Scan control for light beam position indicator
US4542291A (en) 1982-09-29 1985-09-17 Vpl Research Inc. Optical flex sensor
US4593191A (en) 1982-12-29 1986-06-03 At&T Bell Laboratories Pressure and optical sensitive device with deformable protrusions
US4588258A (en) 1983-09-12 1986-05-13 Minnesota Mining And Manufacturing Company Cube-corner retroreflective articles having wide angularity in multiple viewing planes
DE3579122D1 (de) 1984-06-18 1990-09-13 Amp Inc Beruehrungsaktive eingabevorrichtung.
US4761637A (en) 1984-06-18 1988-08-02 Carroll Touch Inc. Touch input device
US4672364A (en) 1984-06-18 1987-06-09 Carroll Touch Inc Touch input device having power profiling
WO1986000447A1 (en) 1984-06-18 1986-01-16 Amp Incorporated Touch input device having digital ambient light sampling
US4703316A (en) 1984-10-18 1987-10-27 Tektronix, Inc. Touch panel input apparatus
US4641426A (en) 1985-06-21 1987-02-10 Associated Enterprises, Inc. Surface mount compatible connector system with mechanical integrity
US4988981B1 (en) 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US4928094A (en) 1988-01-25 1990-05-22 The Boeing Company Battery-operated data collection apparatus having an infrared touch screen data entry device
JPH01314324A (ja) 1988-06-14 1989-12-19 Sony Corp タッチパネル装置
US5220409A (en) 1988-12-19 1993-06-15 Amp Incorporated Light beam detection utilizing hologram
US5194863A (en) 1989-04-10 1993-03-16 International Business Machines Corporation Touch panel display
JPH081363B2 (ja) 1989-05-08 1996-01-10 同和鉱業株式会社 光学的入力検出装置
US5070411A (en) 1989-09-19 1991-12-03 Brother Kogyo Kabushiki Kaisha Color image recording apparatus using masks for forming latent images on photosensitive recording medium with detection and control of color-separated light components
US5162783A (en) 1990-07-23 1992-11-10 Akzo N.V. Infrared touch screen device for a video monitor
US5103085A (en) 1990-09-05 1992-04-07 Zimmerman Thomas G Photoelectric proximity detector and switch
US5889236A (en) 1992-06-08 1999-03-30 Synaptics Incorporated Pressure sensitive scrollbar feature
GB2268263A (en) 1992-06-30 1994-01-05 Ibm Input device for a visual display unit
EP0601651A1 (en) 1992-12-10 1994-06-15 Koninklijke Philips Electronics N.V. Optical touch tablet based on sector cross bearing
US5463725A (en) 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
DE4492865T1 (de) 1993-04-28 1996-04-25 Mcpheters Holographische Benutzer-Schnittstelle
US5603053A (en) 1993-05-10 1997-02-11 Apple Computer, Inc. System for entering data into an active application currently running in the foreground by selecting an input icon in a palette representing input utility
JP3677042B2 (ja) 1993-10-20 2005-07-27 ミネソタ マイニング アンド マニュファクチャリング カンパニー 再帰反射性コーナキューブ物品とその製作方法
US5559727A (en) 1994-02-24 1996-09-24 Quad Systems Corporation Apparatus and method for determining the position of a component prior to placement
US5577733A (en) 1994-04-08 1996-11-26 Downing; Dennis L. Targeting system
US9513744B2 (en) 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
DE69529978T2 (de) 1994-12-28 2004-01-29 Idec Izumi Corp Dünne schaltvorrichtung und anzeigevorrichtung mit schalter
US5900863A (en) 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
US5729250A (en) 1995-05-08 1998-03-17 International Business Machines Corporation Front cover assembly for a touch sensitive device
US5880462A (en) 1995-08-24 1999-03-09 Hsia; Chih-Yu Keying apparatus with thumb gap
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5748185A (en) 1996-07-03 1998-05-05 Stratos Product Development Group Touchpad with scroll and pan regions
US5943044A (en) 1996-08-05 1999-08-24 Interlink Electronics Force sensing semiconductive touchpad
US5936615A (en) 1996-09-12 1999-08-10 Digital Equipment Corporation Image-based touchscreen
JP3240941B2 (ja) 1996-11-18 2001-12-25 松下電器産業株式会社 手振り検出方法及び装置
US5914709A (en) 1997-03-14 1999-06-22 Poa Sana, Llc User input device for a computer system
US6035180A (en) 1997-10-07 2000-03-07 Ericsson Inc. Communication module having selectively programmable exterior surface
WO1999028811A1 (en) 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
KR100766627B1 (ko) 1998-01-26 2007-10-15 핑거웍스, 인크. 수동 입력 통합 방법 및 장치
JPH11232024A (ja) 1998-02-13 1999-08-27 Alpine Electron Inc 光学式位置検出装置
US6788292B1 (en) 1998-02-25 2004-09-07 Sharp Kabushiki Kaisha Display device
US6010061A (en) 1998-03-27 2000-01-04 Micron Custom Manufacturing Services Inc. Reflow soldering method
US6492978B1 (en) 1998-05-29 2002-12-10 Ncr Corporation Keyscreen
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6369803B2 (en) 1998-06-12 2002-04-09 Nortel Networks Limited Active edge user interface
US6904519B2 (en) 1998-06-12 2005-06-07 Microsoft Corporation Method and computer program product for offloading processing tasks from software to hardware
US6161005A (en) 1998-08-10 2000-12-12 Pinzon; Brian W. Door locking/unlocking system utilizing direct and network communications
US7268774B2 (en) 1998-08-18 2007-09-11 Candledragon, Inc. Tracking motion of a writing instrument
JP3827450B2 (ja) 1998-08-18 2006-09-27 富士通株式会社 光走査型タッチパネル
JP4007705B2 (ja) 1998-11-20 2007-11-14 富士通株式会社 光走査型タッチパネル
JP4043128B2 (ja) 1999-02-24 2008-02-06 富士通株式会社 光走査型タッチパネル
US6333735B1 (en) 1999-03-16 2001-12-25 International Business Machines Corporation Method and apparatus for mouse positioning device based on infrared light sources and detectors
JP3830121B2 (ja) 1999-06-10 2006-10-04 株式会社 ニューコム 物体検出用光学ユニット及びそれを用いた位置座標入力装置
US7920163B1 (en) * 1999-06-15 2011-04-05 Tessera International, Inc. Sealed, waterproof digital electronic camera system and method of fabricating same
US6874683B2 (en) 1999-10-08 2005-04-05 Canon Kabushiki Kaisha User programmable smart card interface system for an image album
US6757002B1 (en) 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
US20030174125A1 (en) 1999-11-04 2003-09-18 Ilhami Torunoglu Multiple input modes in overlapping physical space
US20050174473A1 (en) 1999-11-18 2005-08-11 Color Kinetics, Inc. Photography methods and systems
AU772853B2 (en) 1999-12-02 2004-05-06 Elo Touch Solutions, Inc. Apparatus and method to improve resolution of infrared touch systems
JP2001265516A (ja) 2000-03-16 2001-09-28 Ricoh Co Ltd 座標入力装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
WO2001078052A1 (en) * 2000-04-05 2001-10-18 Dimensional Media Associates, Inc. Methods and apparatus for virtual touchscreen computer interface controller
EP1148411A3 (en) 2000-04-21 2005-09-14 Sony Corporation Information processing apparatus and method for recognising user gesture
US6864882B2 (en) 2000-05-24 2005-03-08 Next Holdings Limited Protected touch panel display system
US6690363B2 (en) 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
GB0016089D0 (en) 2000-07-01 2000-08-23 Honeywell Control Syst Keyless access sensor system
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US8287374B2 (en) 2000-07-07 2012-10-16 Pryor Timothy R Reconfigurable control displays for games, toys, and other applications
US8120625B2 (en) 2000-07-17 2012-02-21 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US6707449B2 (en) 2000-08-30 2004-03-16 Microsoft Corporation Manual controlled scrolling
US6761632B2 (en) 2000-08-31 2004-07-13 Igt Gaming device having perceived skill
EP1342984B1 (en) 2000-12-11 2005-08-03 Mitsubishi Denki Kabushiki Kaisha Optical distance sensor
US6646633B1 (en) 2001-01-24 2003-11-11 Palm Source, Inc. Method and system for a full screen user interface and data entry using sensors to implement handwritten glyphs
US6955603B2 (en) 2001-01-31 2005-10-18 Jeffway Jr Robert W Interactive gaming device capable of perceiving user movement
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US20020109843A1 (en) 2001-02-13 2002-08-15 Applied Materials, Inc. Method and system for registering fiducials employing backlighting techniques
US6836367B2 (en) 2001-02-28 2004-12-28 Japan Aviation Electronics Industry, Limited Optical touch panel
AU2002307121A1 (en) 2001-04-04 2002-10-21 Elo Touchsystems, Inc. A touch input system
US6498970B2 (en) 2001-04-17 2002-12-24 Koninklijke Phillips Electronics N.V. Automatic access to an automobile via biometrics
US7225408B2 (en) 2001-04-27 2007-05-29 Siemens Medical Solutions Health Services Corporation System and user interface for communicating and processing patient record information
US6762077B2 (en) 2001-05-11 2004-07-13 Melexis Nv Integrated sensor packages and methods of making the same
FR2826443B1 (fr) 2001-06-21 2003-10-10 Gilles Cavallucci Procede et dispositif de detection optique de la position d'un objet
JP2003029906A (ja) 2001-07-18 2003-01-31 Noritsu Koki Co Ltd キー入力装置
US6927384B2 (en) 2001-08-13 2005-08-09 Nokia Mobile Phones Ltd. Method and device for detecting touch pad unit
US6985137B2 (en) 2001-08-13 2006-01-10 Nokia Mobile Phones Ltd. Method for preventing unintended touch pad input due to accidental touching
US6972749B2 (en) 2001-08-29 2005-12-06 Microsoft Corporation Touch-sensitive device for scrolling a document on a display
US6690365B2 (en) 2001-08-29 2004-02-10 Microsoft Corporation Automatic scrolling
DE10145248C1 (de) 2001-09-13 2003-03-20 Krohne Messtechnik Kg Verfahren zur Datenübertragung
US9052771B2 (en) 2002-11-04 2015-06-09 Neonode Inc. Touch screen calibration and update methods
US20100238139A1 (en) 2009-02-15 2010-09-23 Neonode Inc. Optical touch screen systems using wide light beams
US9213443B2 (en) 2009-02-15 2015-12-15 Neonode Inc. Optical touch screen systems using reflected light
US8674966B2 (en) 2001-11-02 2014-03-18 Neonode Inc. ASIC controller for light-based touch screen
US9052777B2 (en) 2001-11-02 2015-06-09 Neonode Inc. Optical elements with alternating reflective lens facets
US6661513B1 (en) 2001-11-21 2003-12-09 Roygbiv, Llc Refractive-diffractive spectrometer
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
CA2480182C (en) 2002-03-27 2008-02-05 Nellcor Puritan Bennett Incorporated Infrared touchframe system
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US20030234346A1 (en) 2002-06-21 2003-12-25 Chi-Lei Kao Touch panel apparatus with optical detection for location
US20040001144A1 (en) 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US6869333B2 (en) 2002-09-11 2005-03-22 National Optronics, Inc. Lens blank alignment and blocking device and method
US6812466B2 (en) 2002-09-25 2004-11-02 Prospects, Corp. Infrared obstacle detection in the presence of sunlight
AU2002344444A1 (en) 2002-11-01 2004-05-25 Kinzo Kishida Distributed optical fiber sensor system
US8587562B2 (en) 2002-11-04 2013-11-19 Neonode Inc. Light-based touch screen using elliptical and parabolic reflectors
US7796885B2 (en) 2002-11-05 2010-09-14 Lightfleet Corporation Distribution optical elements and compound collecting lenses for broadcast optical interconnect
US20040090428A1 (en) 2002-11-08 2004-05-13 Xerox Corporation Overlays with raised portions for touch-sensitive screens
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US8902196B2 (en) 2002-12-10 2014-12-02 Neonode Inc. Methods for determining a touch location on a touch screen
CN1196077C (zh) 2002-12-27 2005-04-06 贺伟 一种交互式红外线电子白板
US7042444B2 (en) 2003-01-17 2006-05-09 Eastman Kodak Company OLED display and touch screen
US6972401B2 (en) 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7176905B2 (en) 2003-02-19 2007-02-13 Agilent Technologies, Inc. Electronic device having an image-based data input system
US6947032B2 (en) 2003-03-11 2005-09-20 Smart Technologies Inc. Touch system and method for determining pointer contacts on a touch surface
US7162124B1 (en) 2003-03-14 2007-01-09 Luxtera, Inc. Fiber to chip coupler
US7786983B2 (en) 2003-04-08 2010-08-31 Poa Sana Liquidating Trust Apparatus and method for a data input device using a light lamina screen
US7133032B2 (en) 2003-04-24 2006-11-07 Eastman Kodak Company OLED display and touch screen
US7321359B2 (en) 2003-07-30 2008-01-22 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Method and device for optical navigation
JP4741488B2 (ja) 2003-07-03 2011-08-03 ホロタッチ, インコーポレイテッド ホログラフィックヒューマンマシンインタフェース
FR2859277B1 (fr) 2003-09-02 2006-01-27 H2I Technologies Procede et dispositif de detection optique de position par reflexion d'un objet sur une surface quelconque
WO2005029394A2 (en) 2003-09-22 2005-03-31 Koninklijke Philips Electronics N.V. Light guide touch screen
US7218313B2 (en) 2003-10-31 2007-05-15 Zeetoo, Inc. Human interface system
DE10359782A1 (de) 2003-12-19 2005-07-21 Sick Ag Verfahren und Vorrichtung zur Flächenüberwachung
EP1709617A2 (en) 2003-12-30 2006-10-11 Trustees Of The Stevens Institute Of Technology Three-dimensional imaging system using optical pulses, non-linear optical mixers and holographic calibration
US7232986B2 (en) 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
JP2007527997A (ja) 2004-03-06 2007-10-04 マイケル トレイナー, 粒子のサイズおよび形状を決定する方法および装置
WO2005088435A1 (en) 2004-03-11 2005-09-22 Mobisol Inc. Pointing device with an integrated optical structure
GB2424269A (en) 2004-04-01 2006-09-20 Robert Michael Lipman Control apparatus
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US7471865B2 (en) 2004-06-04 2008-12-30 Poa Sana Liquidating Trust Apparatus and method for a molded waveguide for use with touch screen displays
US20060001654A1 (en) 2004-06-30 2006-01-05 National Semiconductor Corporation Apparatus and method for performing data entry with light based touch screen displays
US7372456B2 (en) 2004-07-07 2008-05-13 Smart Technologies Inc. Method and apparatus for calibrating an interactive touch system
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
KR101018751B1 (ko) 2004-09-24 2011-03-04 삼성전자주식회사 표시 장치 및 그 구동 방법
US20060132454A1 (en) 2004-12-16 2006-06-22 Deng-Peng Chen Systems and methods for high resolution optical touch position systems
JP2008530641A (ja) 2005-02-07 2008-08-07 アールピーオー プロプライエタリー リミテッド 反射光学系を組み込んだ導波路設計
JP2008531225A (ja) 2005-03-01 2008-08-14 マシモ・ラボラトリーズ・インコーポレーテッド 多波長センサ相互接続
US20090135162A1 (en) 2005-03-10 2009-05-28 Koninklijke Philips Electronics, N.V. System and Method For Detecting the Location, Size and Shape of Multiple Objects That Interact With a Touch Screen Display
US7471284B2 (en) 2005-04-15 2008-12-30 Microsoft Corporation Tactile scroll bar with illuminated document position indicator
US20060244733A1 (en) 2005-04-28 2006-11-02 Geaghan Bernard O Touch sensitive device and method using pre-touch information
US7629968B2 (en) 2005-07-29 2009-12-08 Avago Technologies Fiber Ip (Singapore) Pte. Ltd. Methods and systems for detecting selections on a touch screen display
JP4564904B2 (ja) 2005-08-29 2010-10-20 パイオニア株式会社 座標位置検出装置及びその制御方法、制御プログラム
US7884315B2 (en) 2006-07-11 2011-02-08 Apple Inc. Invisible, light-transmissive display system
US7625287B2 (en) 2005-10-05 2009-12-01 Nintendo Co., Ltd. Driving game steering wheel simulation method and apparatus
US7659887B2 (en) 2005-10-20 2010-02-09 Microsoft Corp. Keyboard with a touchpad layer on keys
US7583258B2 (en) 2005-11-08 2009-09-01 Microsoft Corporation Optical tracker with tilt angle detection
US7812826B2 (en) 2005-12-30 2010-10-12 Apple Inc. Portable electronic device with multi-touch input
US8094136B2 (en) 2006-07-06 2012-01-10 Flatfrog Laboratories Ab Optical touchpad with three-dimensional position determination
US7333094B2 (en) 2006-07-12 2008-02-19 Lumio Inc. Optical touch screen
US9069417B2 (en) 2006-07-12 2015-06-30 N-Trig Ltd. Hover and touch detection for digitizer
US7333095B1 (en) 2006-07-12 2008-02-19 Lumio Inc Illumination for optical touch panel
WO2008010024A1 (en) 2006-07-16 2008-01-24 Cherradi I Free fingers typing technology
US8169404B1 (en) 2006-08-15 2012-05-01 Navisense Method and device for planary sensory detection
JP2008046470A (ja) 2006-08-18 2008-02-28 Olympus Corp 照明装置、照明方法、及び走査型光学顕微鏡
TWI321288B (en) 2006-08-31 2010-03-01 Egalax Empia Technology Inc Apparatus and method for detecting position, and touch panel using the same
US8316324B2 (en) 2006-09-05 2012-11-20 Navisense Method and apparatus for touchless control of a device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7940250B2 (en) 2006-09-06 2011-05-10 Apple Inc. Web-clip widgets on a portable multifunction device
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US8035621B2 (en) 2006-09-29 2011-10-11 Lg Electronics Inc. Input device and mobile communication terminal having the same
US7369724B2 (en) 2006-10-03 2008-05-06 National Semiconductor Corporation Apparatus and method for an improved lens structure for polymer wave guides which maximizes free space light coupling
KR100783552B1 (ko) 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US8022941B2 (en) 2006-10-12 2011-09-20 Disney Enterprises, Inc. Multi-user touch screen
US8046039B2 (en) 2006-10-20 2011-10-25 Lg Electronics Inc. Mobile terminal and case for mobile terminal
US7969426B2 (en) 2006-10-31 2011-06-28 Hewlett-Packard Development Company, L.P. Light sensitive display interface for computing devices
US8354997B2 (en) 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
KR100849322B1 (ko) 2006-11-20 2008-07-29 삼성전자주식회사 이미지 센서를 이용한 터치 스크린
US8269746B2 (en) 2006-11-27 2012-09-18 Microsoft Corporation Communication with a touch screen
US8094129B2 (en) 2006-11-27 2012-01-10 Microsoft Corporation Touch sensing using shadow and reflective modes
SE0602545L (en) 2006-11-29 2008-05-30 Tobii Technology Ab Eye tracking illumination
JP4689585B2 (ja) 2006-11-29 2011-05-25 任天堂株式会社 情報処理装置および情報処理プログラム
US20080134102A1 (en) 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
US8139045B2 (en) 2006-12-15 2012-03-20 Lg Display Co., Ltd. Display device having multi-touch recognizing function and driving method thereof
US8054296B2 (en) 2007-01-03 2011-11-08 Apple Inc. Storing baseline information in EEPROM
US20080297487A1 (en) 2007-01-03 2008-12-04 Apple Inc. Display integrated photodiode matrix
US8970501B2 (en) 2007-01-03 2015-03-03 Apple Inc. Proximity and multi-touch sensor detection and demodulation
EP2137717A4 (en) 2007-03-14 2012-01-25 Power2B Inc DISPLAY DEVICES AND INFORMATION INPUT DEVICES
GB2447484B (en) 2007-03-15 2012-01-18 Jaguar Cars Security system for a motor vehicle
EP2135155B1 (en) 2007-04-11 2013-09-18 Next Holdings, Inc. Touch screen system with hover and click input methods
US8243048B2 (en) 2007-04-25 2012-08-14 Elo Touch Solutions, Inc. Touchscreen for detecting multiple touches
US7809221B2 (en) 2007-05-02 2010-10-05 Poa Sana Liquidating Trust Shadow detection in optical touch sensor through the linear combination of optical beams and grey-scale determination of detected shadow edges
CN101681222A (zh) 2007-05-11 2010-03-24 Rpo私人有限公司 透射体
US8091280B2 (en) 2007-06-01 2012-01-10 GM Global Technology Operations LLC Arms full vehicle closure activation apparatus and method
DE602007003002D1 (de) 2007-06-29 2009-12-10 Barco Nv Zweifach-Touchscreen
US7929287B2 (en) 2007-07-05 2011-04-19 Sony Corporation Electronic apparatus
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
DE102007040294B4 (de) 2007-08-24 2020-07-09 Huf Hülsbeck & Fürst Gmbh & Co. Kg Griffvorrichtung
KR20100055516A (ko) 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
US8026906B2 (en) 2007-09-07 2011-09-27 F-Origin, Inc. Integrated force sensitive lens and software
US8434909B2 (en) 2007-10-09 2013-05-07 Flex Lighting Ii, Llc Light emitting display with light mixing within a film
US8282222B2 (en) 2007-10-10 2012-10-09 Gerard Dirk Smits Image projector with reflected light tracking
JP4845851B2 (ja) 2007-10-23 2011-12-28 日東電工株式会社 タッチパネル用光導波路およびそれを用いたタッチパネル
DE102007057076B4 (de) 2007-11-21 2012-03-29 E.G.O. Elektro-Gerätebau GmbH Kochfeld und Verfahren zum Betrieb eines Kochfeldes
US8432372B2 (en) 2007-11-30 2013-04-30 Microsoft Corporation User input using proximity sensing
AR064377A1 (es) 2007-12-17 2009-04-01 Rovere Victor Manuel Suarez Dispositivo para sensar multiples areas de contacto contra objetos en forma simultanea
TWI403926B (zh) 2007-12-28 2013-08-01 Ibm 光學接觸面板
US20090166098A1 (en) 2007-12-31 2009-07-02 Apple Inc. Non-visual control of multi-touch device
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US9857915B2 (en) 2008-01-25 2018-01-02 Microsoft Technology Licensing, Llc Touch sensing for curved displays
US7884734B2 (en) 2008-01-31 2011-02-08 Microsoft Corporation Unique identification of devices using color detection
WO2009099296A2 (en) 2008-02-05 2009-08-13 Lg Electronics Inc. Virtual optical input device for providing various types of interfaces and method of controlling the same
KR20090093766A (ko) 2008-02-28 2009-09-02 황재엽 모바일 가상 기타의 지판 표시 장치 및 방법
US20100149073A1 (en) 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
US20090280905A1 (en) 2008-05-12 2009-11-12 Weisman Jordan K Multiplayer handheld computer game system having tiled display and method of use
US8676007B2 (en) 2008-06-19 2014-03-18 Neonode Inc. Light-based touch surface with curved borders and sloping bezel
TW201001258A (en) 2008-06-23 2010-01-01 Flatfrog Lab Ab Determining the location of one or more objects on a touch surface
TW201007530A (en) 2008-06-23 2010-02-16 Flatfrog Lab Ab Detecting the location of an object on a touch surface
TW201013492A (en) 2008-06-23 2010-04-01 Flatfrog Lab Ab Determining the location of one or more objects on a touch surface
US20100013763A1 (en) 2008-07-15 2010-01-21 Sony Ericsson Mobile Communications Ab Method and apparatus for touchless input to an interactive user device
US9218116B2 (en) 2008-07-25 2015-12-22 Hrvoje Benko Touch interaction with a curved display
EP2327005B1 (en) 2008-07-25 2017-08-23 Qualcomm Incorporated Enhanced detection of waving gesture
US20100031202A1 (en) 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US9092092B2 (en) 2008-08-07 2015-07-28 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device using touch event templates
JP5284470B2 (ja) 2008-08-07 2013-09-11 ドラム,オウエン フィードバック制御を用いた光制御システム
US9063615B2 (en) 2008-08-07 2015-06-23 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device using line images
EP2338104B1 (en) 2008-08-07 2018-06-06 Rapt IP Limited Method and apparatus for detecting a multitouch event in an optical touch-sensitive device
EP2336859A4 (en) 2008-08-29 2011-08-31 Sharp Kk COORDINATE DETECTOR, ELECTRONIC DEVICE, DISPLAY DEVICE, AND LIGHT RECEIVING UNIT
US20110063214A1 (en) 2008-09-05 2011-03-17 Knapp David J Display and optical pointer systems and related methods
CA2639611A1 (en) 2008-09-12 2010-03-12 James Franklin Zdralek Bimanual gesture based input and device control system
WO2010028490A1 (en) 2008-09-15 2010-03-18 Smart Technologies Ulc Touch input with image sensor and signal processor
US9317159B2 (en) 2008-09-26 2016-04-19 Hewlett-Packard Development Company, L.P. Identifying actual touch points using spatial dimension information obtained from light transceivers
US20100079409A1 (en) 2008-09-29 2010-04-01 Smart Technologies Ulc Touch panel for an interactive input system, and interactive input system incorporating the touch panel
TWI402793B (zh) 2008-10-01 2013-07-21 Quanta Comp Inc 影像處理裝置之校正裝置及校正方法
KR101009278B1 (ko) 2008-10-02 2011-01-18 한국과학기술연구원 광 인식 사용자 입력 장치 및 사용자 입력 인식 방법
US20100095234A1 (en) 2008-10-07 2010-04-15 Research In Motion Limited Multi-touch motion simulation using a non-touch screen computer input device
EP2350526B1 (en) 2008-10-10 2014-12-31 Qualcomm Mems Technologies, Inc Distributed illumination system
US20120098794A1 (en) 2008-10-31 2012-04-26 Rpo Pty Limited Transmissive Body
US20100134424A1 (en) 2008-12-02 2010-06-03 At&T Mobility Ii Llc Edge hand and finger presence and motion sensor
SE533704C2 (sv) 2008-12-05 2010-12-07 Flatfrog Lab Ab Pekkänslig apparat och förfarande för drivning av densamma
KR101352264B1 (ko) 2008-12-18 2014-01-17 엘지디스플레이 주식회사 멀티 터치 감지방법 및 장치
US20100185341A1 (en) 2009-01-16 2010-07-22 Gm Global Technology Operations, Inc. Vehicle mode activation by gesture recognition
US8917239B2 (en) 2012-10-14 2014-12-23 Neonode Inc. Removable protective cover with embedded proximity sensors
US9158416B2 (en) 2009-02-15 2015-10-13 Neonode Inc. Resilient light-based touch surface
US8643628B1 (en) 2012-10-14 2014-02-04 Neonode Inc. Light-based proximity detection system and user interface
US9063614B2 (en) 2009-02-15 2015-06-23 Neonode Inc. Optical touch screens
US7999923B2 (en) 2009-02-19 2011-08-16 Northrop Grumman Systems Corporation Systems and methods for detecting and analyzing objects
US20100245289A1 (en) 2009-03-31 2010-09-30 Miroslav Svajda Apparatus and method for optical proximity sensing and touch input control
JP2010257089A (ja) 2009-04-22 2010-11-11 Xiroku:Kk 光学式位置検出装置
US20100289755A1 (en) 2009-05-15 2010-11-18 Honh Kong Applied Science and Technology Research Institute Co., Ltd. Touch-Sensing Liquid Crystal Display
US20120068973A1 (en) 2009-05-18 2012-03-22 Flatfrog Laboratories Ab Determining The Location Of An Object On A Touch Surface
US20100295821A1 (en) 2009-05-20 2010-11-25 Tom Chang Optical touch panel
US8344325B2 (en) 2009-05-22 2013-01-01 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting basic gestures
WO2010134817A2 (en) 2009-05-22 2010-11-25 Nederlandse Organisatie Voor Toegepast- Natuurwetenschappelijk Onderzoek Tno Servers for device identification services
US8624853B2 (en) 2009-06-01 2014-01-07 Perceptive Pixel Inc. Structure-augmented touch sensing with frustated total internal reflection
KR20100136649A (ko) 2009-06-19 2010-12-29 삼성전자주식회사 휴대단말기의 근접 센서를 이용한 사용자 인터페이스 구현 방법 및 장치
US10017977B2 (en) 2009-08-21 2018-07-10 Uusi, Llc Keyless entry assembly having capacitance sensor operative for detecting objects
US20110044582A1 (en) 2009-08-21 2011-02-24 Microsoft Corporation Efficient collimation of light with optical wedge
JP2011043986A (ja) 2009-08-21 2011-03-03 Seiko Epson Corp 光学式情報入力装置、光学式入力機能付き電子機器、および光学式情報入力方法
MX2012002504A (es) 2009-09-01 2012-08-03 Smart Technologies Ulc Sistema de entrada interactiva con una razon de señal-a-ruido mejorada (rsr) y metodo para capturar imagenes.
US8319751B2 (en) 2009-09-02 2012-11-27 Lenovo (Singapore) Pte. Ltd. Apparatus, method, and system for touch and gesture detection
GB2473449A (en) 2009-09-09 2011-03-16 St Microelectronics An optical touchpad
US9239678B2 (en) 2009-09-21 2016-01-19 Beijing Lenovo Software Ltd. Electronic device and method, cell phone, program to achieve preset operation command thereof
JP4966352B2 (ja) 2009-09-25 2012-07-04 シャープ株式会社 光ポインティング装置および電子機器
US8573815B2 (en) 2009-09-25 2013-11-05 CoreLed Systems, LLC Illuminating optical lens for light emitting diode (LED)
US20110087963A1 (en) 2009-10-09 2011-04-14 At&T Mobility Ii Llc User Interface Control with Edge Finger and Motion Sensing
TWI494823B (zh) 2009-11-16 2015-08-01 Pixart Imaging Inc 光學觸控裝置之定位方法及光學觸控裝置
US8502153B2 (en) 2009-11-20 2013-08-06 Avago Technologies General Ip (Singapore) Pte. Ltd. Methods, systems and devices for crosstalk measurement and cancellation in optical proximity sensors
US8545046B2 (en) 2009-11-30 2013-10-01 James K. Ng Multi-color indicator lighting
WO2011069157A2 (en) 2009-12-04 2011-06-09 Next Holdings Limited Methods and systems for position detection
US8803846B2 (en) 2009-12-17 2014-08-12 Lg Display Co., Ltd. Method for detecting touch and optical touch sensing system
US20110249309A1 (en) 2010-01-07 2011-10-13 Holotouch, Inc. Compact holograhic human-machine interface
CN102129298B (zh) 2010-01-14 2012-08-29 鸿富锦精密工业(深圳)有限公司 感应键盘
US10007393B2 (en) 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US20110179381A1 (en) 2010-01-21 2011-07-21 Research In Motion Limited Portable electronic device and method of controlling same
TWI430141B (zh) 2010-02-25 2014-03-11 Egalax Empia Technology Inc 判斷旋轉手勢的方法與裝置
US8471814B2 (en) 2010-02-26 2013-06-25 Microsoft Corporation User interface control using a keyboard
CN102194591A (zh) 2010-03-16 2011-09-21 鸿富锦精密工业(深圳)有限公司 按键及键盘
US8384559B2 (en) 2010-04-13 2013-02-26 Silicon Laboratories Inc. Sensor device with flexible interface and updatable information store
US20110310005A1 (en) 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
FR2963705B1 (fr) 2010-08-06 2012-08-17 Saint Gobain Support a couche diffusante pour dispositif a diode electroluminescente organique, dispositif electroluminescent organique comportant un tel support
US8903521B2 (en) 2010-08-26 2014-12-02 Blast Motion Inc. Motion capture element
JP2012053684A (ja) 2010-09-01 2012-03-15 Toshiba Tec Corp 表示入力装置および表示入力方法
US8754858B2 (en) 2010-09-07 2014-06-17 STMicroelectronics Aisa Pacific Pte Method to parameterize and recognize circular gestures on touch sensitive surfaces
US9513737B2 (en) 2010-09-17 2016-12-06 Blackberry Limited Touch-sensitive display with optical sensor and method
US8626324B2 (en) 2010-09-17 2014-01-07 Apple Inc. Altering sound output on a virtual music keyboard
US9223431B2 (en) 2010-09-17 2015-12-29 Blackberry Limited Touch-sensitive display with depression detection and method
TWI524239B (zh) 2010-10-08 2016-03-01 友達光電股份有限公司 判斷觸碰位置的方法
CN101984396A (zh) 2010-10-19 2011-03-09 中兴通讯股份有限公司 一种自动识别旋转手势的方法及移动终端
US8605046B2 (en) 2010-10-22 2013-12-10 Pq Labs, Inc. System and method for providing multi-dimensional touch input vector
US8579481B2 (en) 2010-10-28 2013-11-12 AISIN Technical Center of America, Inc. Lit door handle for a vehicle
KR101199970B1 (ko) 2010-10-29 2012-11-12 전남대학교산학협력단 멀티 터치 특징정보 추출방법 및 그 멀티 터치 특징정보를 이용한 멀티 터치 제스처 인식방법
US20120127317A1 (en) 2010-11-19 2012-05-24 Bea, Inc. Method and device to securely open and close a passageway or access point
GB2486000A (en) 2010-11-30 2012-06-06 St Microelectronics Res & Dev Optical proximity detectors with arrangements for reducing internal light propagation from emitter to detector
US20120162078A1 (en) 2010-12-28 2012-06-28 Bran Ferren Adaptive virtual keyboard for handheld device
FR2970096B1 (fr) 2010-12-31 2013-07-12 H2I Technologies Dispositif et procede optoelectronique de determination de position bidimensionnelle
FR2970095B1 (fr) 2010-12-31 2013-01-18 H2I Technologies Dispositif de detection d'une direction angulaire dans laquelle se trouve un objet
TWI415008B (zh) 2011-01-25 2013-11-11 Pixart Imaging Inc 影像感測模組與光學感測系統
US20120223231A1 (en) 2011-03-01 2012-09-06 Lite-On Singapore Pte. Ltd. Proximity sensor having electro-less plated shielding structure
US8604436B1 (en) 2011-03-24 2013-12-10 Maxim Integrated Products, Inc. Proximity sensor device
US20120262408A1 (en) 2011-04-15 2012-10-18 Jerome Pasquero Touch-sensitive display with optical sensor and optical method
EP2581034B1 (en) 2011-10-11 2016-02-17 Tobii AB Eye-tracker illumination
US8963886B2 (en) 2011-07-13 2015-02-24 Flatfrog Laboratories Ab Touch-sensing display panel
KR20130053363A (ko) 2011-11-15 2013-05-23 조은형 복합 휴먼 인터페이스 장치 및 방법
KR20120120097A (ko) 2011-11-15 2012-11-01 조은형 복합 휴먼 인터페이스 장치 및 방법
EP2786233A1 (en) 2011-11-28 2014-10-08 Corning Incorporated Robust optical touch-screen systems and methods using a planar transparent sheet
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
JP2013149228A (ja) 2012-01-23 2013-08-01 Yoshihiro Wada 位置検出装置、および位置検出プログラム
GB2500037A (en) 2012-03-08 2013-09-11 Tactotek Oy An integrated light guide.
US8791489B2 (en) 2012-04-05 2014-07-29 Heptagon Micro Optics Pte. Ltd. Opto-electronic module
KR20130133117A (ko) 2012-05-28 2013-12-06 조은형 텍스트 입력영역과 수직면을 포함한 포인터 위치정보 영역을 형성하는 복합 휴먼 인터페이스 장치
DE102012213020A1 (de) 2012-07-25 2014-05-22 Bayerische Motoren Werke Aktiengesellschaft Eingabevorrichtung mit versenkbarer berührungsempfindlicher Oberfläche
GB2505170A (en) 2012-08-20 2014-02-26 Tactotek Inc Touch panel with printed or deposited electronic circuits
US8922340B2 (en) 2012-09-11 2014-12-30 Ford Global Technologies, Llc Proximity switch based door latch release
GB2505878A (en) 2012-09-12 2014-03-19 Tactotek Oy Electronic device with housing-integrated functionalities
US10282034B2 (en) * 2012-10-14 2019-05-07 Neonode Inc. Touch sensitive curved and flexible displays
US9741184B2 (en) * 2012-10-14 2017-08-22 Neonode Inc. Door handle with optical proximity sensors
US9207800B1 (en) 2014-09-23 2015-12-08 Neonode Inc. Integrated light guide and touch screen frame and multi-touch determination method
US9164625B2 (en) 2012-10-14 2015-10-20 Neonode Inc. Proximity sensor for determining two-dimensional coordinates of a proximal object
US9921661B2 (en) 2012-10-14 2018-03-20 Neonode Inc. Optical proximity sensor and associated user interface
US9088282B2 (en) 2013-01-25 2015-07-21 Apple Inc. Proximity sensors with optical and electrical sensing capabilities
JP2014183396A (ja) * 2013-03-18 2014-09-29 Sharp Corp 撮像装置、および電子機器
US9244527B2 (en) 2013-03-26 2016-01-26 Volkswagen Ag System, components and methodologies for gaze dependent gesture input control
CN104281254A (zh) 2013-07-12 2015-01-14 上海硅通半导体技术有限公司 一种手势识别装置
US10281953B2 (en) * 2013-11-29 2019-05-07 Motiv Inc. Wearable device and data transmission method
US20150153777A1 (en) 2013-12-03 2015-06-04 Nvidia Corporation Electronic device with both inflexible display screen and flexible display screen
WO2015161070A2 (en) 2014-04-17 2015-10-22 Polyera Corporation Infrared touch system for flexible displays
DE202014104143U1 (de) 2014-09-04 2014-09-12 Asia Vital Components Co., Ltd. Detektionsvorrichtung eines Touchscreens
KR101984417B1 (ko) * 2015-01-26 2019-05-30 네오노드, 인크. 광학 근접 센서 및 관련된 사용자 인터페이스
KR102436320B1 (ko) 2015-03-02 2022-08-25 엘지이노텍 주식회사 근조도 센서 및 이를 포함하는 휴대용 단말기
US10690820B2 (en) 2015-09-25 2020-06-23 Asukanet Company, Ltd. Retroreflector
US9927553B2 (en) 2015-12-08 2018-03-27 Avago Technologies General Ip (Singapore) Pte. Ltd. Miniaturized optical proximity sensor
US10338688B2 (en) 2015-12-24 2019-07-02 Samsung Electronics Co., Ltd. Electronic device and method of controlling the same
JP6667677B2 (ja) 2017-01-27 2020-03-18 株式会社アスカネット 立体像結像装置の製造方法
JP6721875B2 (ja) 2017-05-26 2020-07-15 コニカミノルタ株式会社 非接触入力装置
JP2020170302A (ja) 2019-04-02 2020-10-15 船井電機株式会社 入力装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016521874A (ja) * 2013-05-30 2016-07-25 ネオノード インコーポレイテッド 光学的接近センサ
JP2015219663A (ja) * 2014-05-15 2015-12-07 アルプス電気株式会社 キーボード装置
JP2019074933A (ja) * 2017-10-17 2019-05-16 コニカミノルタ株式会社 非接触入力装置

Also Published As

Publication number Publication date
US20230037571A1 (en) 2023-02-09
KR20220098024A (ko) 2022-07-08
EP4085321A1 (en) 2022-11-09
WO2021138516A1 (en) 2021-07-08
EP4085321A4 (en) 2024-01-24
CN115039060A (zh) 2022-09-09
US20240118771A1 (en) 2024-04-11
US11842014B2 (en) 2023-12-12

Similar Documents

Publication Publication Date Title
US11379048B2 (en) Contactless control panel
US20240118771A1 (en) Contactless touch input system
EP3250989B1 (en) Optical proximity sensor and associated user interface
CN108291838B (zh) 用于显示底板上的集成的光学传感器
US8593434B2 (en) Touchscreen display with plural cameras
US8576200B2 (en) Multiple-input touch panel and method for gesture recognition
US20110205186A1 (en) Imaging Methods and Systems for Position Detection
CN102341814A (zh) 姿势识别方法和采用姿势识别方法的交互式输入系统
CN102792249A (zh) 使用光学部件在图像传感器上成像多个视场的触摸系统
EP2960772A1 (en) Electronic device for sensing 2d and 3d touch and method for controlling the same
US12159008B2 (en) Detector system
US11989376B2 (en) Detector system
US9189106B2 (en) Optical touch panel system and positioning method thereof
JP2022188689A (ja) 空間入力システム
US20120075254A1 (en) Touch System Having An Uninterrupted Light Source
JP2014092966A (ja) タッチパネル
KR20140058218A (ko) 입력 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230605

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230901

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240502

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241024

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20250117