JP2016031761A - 眼鏡型端末 - Google Patents
眼鏡型端末 Download PDFInfo
- Publication number
- JP2016031761A JP2016031761A JP2015110240A JP2015110240A JP2016031761A JP 2016031761 A JP2016031761 A JP 2016031761A JP 2015110240 A JP2015110240 A JP 2015110240A JP 2015110240 A JP2015110240 A JP 2015110240A JP 2016031761 A JP2016031761 A JP 2016031761A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- screen
- unit
- data
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 226
- 230000000007 visual effect Effects 0.000 claims abstract description 58
- 238000013075 data extraction Methods 0.000 claims description 54
- 230000003287 optical effect Effects 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 16
- 239000011521 glass Substances 0.000 claims description 10
- 238000000034 method Methods 0.000 description 150
- 230000008569 process Effects 0.000 description 122
- 238000012545 processing Methods 0.000 description 103
- 230000004048 modification Effects 0.000 description 59
- 238000012986 modification Methods 0.000 description 59
- 238000010586 diagram Methods 0.000 description 28
- 238000012937 correction Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000009467 reduction Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 244000290594 Ficus sycomorus Species 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 210000004905 finger nail Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000004304 visual acuity Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004587 chromatography analysis Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Eyeglasses (AREA)
- Input From Keyboards Or The Like (AREA)
Abstract
【解決手段】ユーザが視認画面に対して操作を行った指を撮像装置30が撮像したときに、操作判定部73は、その撮像して得られた画像データに基づいて当該指による操作の内容を判定し、位置データ生成部74は、その撮像して得られた画像データに基づいて当該指の位置データを生成する。入力制御部76は、操作判定部73で判定して得られた当該指による操作の内容に関するデータ及び位置データ生成部74で生成された当該指の位置データと、記憶部90に記憶されている当該視認画面に関する基準データとに基づいて、当該指による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、ディスプレイ装置20に表示する元画面の制御を行う。
【選択図】図3
Description
まず、本発明の第一実施形態である眼鏡型端末について説明する。図1(a)は本発明の第一実施形態である眼鏡型端末の概略平面図、同図(b)はその眼鏡型端末の概略右側面図、図2は第一実施形態の眼鏡型端末の概略斜視図、図3は第一実施形態の眼鏡型端末の概略ブロック図である。
次に、本発明の第一実施形態の変形例である眼鏡型端末について説明する。図21(a)は本発明の第一実施形態の変形例である眼鏡型端末の概略平面図、同図(b)はその眼鏡型端末の概略右側面図である。図22(a)はその眼鏡型端末の概略斜視図、同図(b)はディスプレイ装置に元画面を投影している様子を説明するための概略図である。尚、本変形例において、上述した第一実施形態のものと同一の機能を有するものには、同一の符号を付すことにより、その詳細な説明を省略する。
次に、本発明の第二実施形態である眼鏡型端末について説明する。図12は本発明の第二実施形態である眼鏡型端末の概略ブロック図である。尚、第二実施形態において、上述した第一実施形態のものと同一の機能を有するものには、同一の符号を付すことにより、その詳細な説明を省略する。
次に、本発明の第二実施形態の第一変形例である眼鏡型端末について説明する。図13は本発明の第二実施形態の第一変形例である眼鏡型端末の概略ブロック図である。尚、本変形例において、上述した第二実施形態のものと同一の機能を有するものには、同一の符号を付すことにより、その詳細な説明を省略する。
dX=W×(Z−L)/L
である。また、三角形Cc−Pd−Pと三角形Cc−pc−p1に注目すると、{(X−Xc)+dX}:(x1−xc)=Z:Lより、
X−Xc=(x1−xc)×Z/L−dX
=(x1−xc)×Z/L−W×(Z−L)/L
である。更に、三角形Ec−Pc−Pと三角形Ec−pc−p0に注目すると、(X−Xc):(x0−xc)=(Z+α):(L+α)より、
x0−xc=(X−Xc)×(L+α)/(Z+α)
={(x1−xc)×Z/L−W×(Z−L)/L}
×(L+α)/(Z+α)
である。したがって、
x0=(x0−xc)+xc
={(x1−xc)×Z/L−W×(Z−L)/L}
×(L+α)/(Z+α)+xc ・・・・(1)
となる。一方、図15において同様に考えると、y0をYで表す式は、
y0=(y0−yc)+yc
={(y1−yc)×Z/L−H×(Z−L)/L}
×(L+α)/(Z+α)+yc ・・・・(2)
となる。尚、上記(1)式、(2)式はともに、操作画面Tが基準画面Kよりも手前に位置しているとユーザが認識している場合にも成り立つ。
次に、本発明の第二実施形態の第二変形例である眼鏡型端末について説明する。図23は本発明の第二実施形態の第二変形例である眼鏡型端末の概略平面図であって、ずれ補正部が位置データのX座標を基準画面K上での位置データのX座標に換算する処理を説明するための図である。図24はその眼鏡型端末の概略右側面図であって、ずれ補正部が位置データのY座標を基準画面K上での位置データのY座標に換算する処理を説明するための図である。ここで、図23は図14に対応するものであり、図24は図15に対応するものである。尚、本変形例において、上述した第二実施形態の第一変形例のものと同一の機能を有するものには、同一の符号を付すことにより、その詳細な説明を省略する。
次に、本発明の第三実施形態である眼鏡型端末について説明する。図16は本発明の第三実施形態である眼鏡型端末の概略ブロック図である。尚、第三実施形態において、上述した第一実施形態のものと同一の機能を有するものには、同一の符号を付すことにより、その詳細な説明を省略する。
尚、本発明は上記の各実施形態及び各変形例に限定されるものではなく、その要旨の範囲内において種々の変形が可能である。
10,10d 眼鏡本体部
11,11a,11b レンズ部
20,20d ディスプレイ装置(表示装置)
21 小型プロジェクタ
22 光学系
23 ハーフミラー
30,30a,30c 撮像装置
31 カメラ部
32 画像処理部
33,33a,33c カメラ制御部
331 オートフォーカス制御部
40 タッチパッド部
50 マイク部
60 スピーカ部
70,70a,70b,70c 制御部
71 表示制御部
72,72a 画像データ抽出部
73 操作判定部
74,74b 位置データ生成部
75,75c 基準データ生成部
76,76c 入力制御部
77b ずれ補正部
78c 距離判定部
80 通信部
90 記憶部
200 文字入力画面
201 文字入力画面(基準データ設定用の元画面)
210 キーボード画像
220 表示領域
221 検索画面
2211 キーワード入力部
2212 検索結果表示部
Claims (13)
- 眼鏡本体部と、前記眼鏡本体部に設けられた、使用者に空中に浮かんでいるように見える視認画面に対応する元画面を表示する表示装置とを有し、使用者が眼鏡のように装着して使用する眼鏡型端末において、
前記眼鏡本体部に設けられた、前記視認画面に対して使用者が指又は所定の入力指示具で操作を行ったときにその操作を行った指又は入力指示具を撮像する撮像装置と、
使用者が前記視認画面に対して操作を行った指又は入力指示具を前記撮像装置が撮像したときに、その撮像して得られた画像データに基づいて当該指又は入力指示具による操作がどのような内容の操作であるのかを判定する操作判定部と、
使用者が前記視認画面に対して操作を行った指又は入力指示具を前記撮像装置が撮像したときに、その撮像して得られた画像データに基づいて前記撮像装置が撮像することができる範囲である撮像範囲における当該指又は入力指示具の位置データを生成する位置データ生成部と、
使用者が前記視認画面における一又は複数の所定位置において指又は入力指示具で操作を行ったときに、前記操作判定部で前記各所定位置における操作が所定の操作であると判定された前記画像データに基づいて前記位置データ生成部で生成された当該指又は入力指示具の位置データを用いて、当該視認画面に関するデータを生成して基準データとして記憶部に記憶する基準データ生成部と、
使用者が前記視認画面に対して指又は入力指示具で操作を行ったときに、前記操作判定部で判定して得られた当該指又は入力指示具による操作の内容に関するデータ及び前記位置データ生成部で生成された当該指又は入力指示具の位置データと、前記記憶部に記憶されている当該視認画面に関する前記基準データとに基づいて、当該指又は入力指示具による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、前記表示装置に表示する前記元画面の制御を行う入力制御部と、
を備えることを特徴とする眼鏡型端末。 - 前記撮像装置は、使用者が認識する視認画面の位置にある被写体にピントが合うように構成されており、
前記撮像装置でピントが合った被写体が撮像されたときに、その撮像して得られた画像データに基づいて当該被写体が指又は入力指示部であるかどうかを判断して指又は入力指示具が存在している画像データを抽出する画像データ抽出部が更に備えられており、
前記操作判定部は、前記画像データ抽出部で抽出された画像データに基づいて当該画像データに存在している指又は入力指示具による操作がどのような内容の操作であるのかを判定するものであり、
前記位置データ生成部は、前記操作判定部で指又は入力指示具による操作が所定の操作であると判定された画像データに基づいて、前記撮像範囲における当該指又は入力指示具の位置データを生成するものであることを特徴とする請求項1記載の眼鏡型端末。 - 前記撮像装置は、被写体に自動的にピントを合わせることができるオートフォーカス制御部を有し、前記オートフォーカス制御部により自動的にピントが合わせられた被写体を撮像したときに、その撮像した被写体までの距離データを算出し、その算出した距離データを当該撮像して得られた画像データとともに出力するものであり、
前記撮像装置で自動的にピントが合わせられた被写体が撮像されたときに、その撮像して得られた画像データに基づいて当該被写体が指又は入力指示具であるかどうかを判断し、また、当該画像データとともに送られた距離データに基づいて当該被写体が前記撮像装置から奥行き方向に沿って予め定められた略一定の距離だけ離れているかどうかを判定して、指又は入力指示具が存在している画像データであってその指又は入力指示具が前記撮像装置から奥行き方向に沿って略一定の距離だけ離れているものを抽出する画像データ抽出部が更に備えられており、
前記操作判定部は、前記画像データ抽出部で抽出された画像データに基づいて当該画像データに存在している指又は入力指示具による操作がどのような内容の操作であるのかを判定するものであり、
前記位置データ生成部は、前記操作判定部で指又は入力指示具による操作が所定の操作であると判定された画像データに基づいて、前記撮像範囲における当該指又は入力指示具の前記位置データを生成するものであることを特徴とする請求項1記載の眼鏡型端末。 - 前記基準データ生成部は、四隅のうち少なくとも一箇所に所定の目印が付された前記元画面が前記表示装置に表示されている場合に、使用者が当該元画面に対応する前記視認画面における前記目印に対して指又は入力指示具で操作を行ったときに、前記位置データ生成部で生成された指又は入力指示具の位置データを用いて、当該視認画面に関する前記基準データを生成することを特徴とする請求項1、2又は3記載の眼鏡型端末。
- 眼鏡本体部と、前記眼鏡本体部に設けられた、使用者に空中に浮かんでいるように見える視認画面に対応する元画面を表示する表示装置とを有し、使用者が眼鏡のように装着して使用する眼鏡型端末において、
前記眼鏡本体部に設けられた、被写体に自動的にピントを合わせることができるオートフォーカス制御部を有し、前記オートフォーカス制御部により自動的にピントが合わせられた被写体を撮像したときに、その撮像した被写体までの距離データを算出し、その算出した距離データを当該撮像して得られた画像データとともに出力する撮像装置と、
前記撮像装置で自動的にピントが合わせられた被写体が撮像されたときに、その撮像して得られた画像データに基づいて当該被写体が指又は入力指示具であるかどうかを判断して、指又は入力具が存在している画像データを抽出する画像データ抽出部と、
使用者が前記視認画面に対して操作を行った指又は入力指示具を前記撮像装置が撮像したときに、前記画像データ抽出部で抽出された画像データに基づいて当該指又は入力指示具による操作がどのような内容の操作であるのかを判定する操作判定部と、
使用者が前記視認画面に対して操作を行った指又は入力指示具を前記撮像装置が撮像したときに、前記操作判定部で指又は入力指示具による操作が所定の操作であると判定された画像データに基づいて、前記撮像範囲における当該指又は入力指示具の前記位置データを生成する位置データ生成部と、
使用者が前記視認画面における少なくとも三つの所定位置において指又は入力指示具で操作を行ったときに、前記操作判定部で前記各所定位置における操作が所定の操作であると判定された前記画像データに基づいて前記位置データ生成部で生成された少なくとも三つの指又は入力指示具の位置データと、それら位置データを生成した際に用いた画像データとともに送られた距離データとを用いて、三次元空間内において当該視認画面に対応する画面である基準画面を特定するデータを生成して基準データとして記憶部に記憶する基準データ生成部と、
前記基準データ生成部で前記基準データが生成された後に、使用者が前記視認画面に対して指又は入力指示具で操作を行った際に前記撮像装置で自動的にピントが合わせられた被写体を撮像したときに、前記操作判定部で指又は入力指示具による当該操作が所定の操作であると判定された画像データに基づいて前記位置データ生成部で生成された指又は入力指示具の位置データと、その指又は入力指示具の位置データを生成する際に用いた画像データと関連付けられている距離データと、前記記憶部に記憶されている当該視認画面に対応する基準画面を特定する基準データとに基づいて、当該指又は入力指示具が前記基準画面から予め定められた略一定の距離範囲以内に位置しているかどうかを判定する距離判定部と、
使用者が前記視認画面に対して指又は入力指示具で操作を行った場合であって前記距離判定部で当該指又は入力指示具が前記基準画面から略一定の距離範囲以内に位置していると判定されたときに、前記操作判定部で判定して得られた当該指又は入力指示具による操作の内容に関するデータ、その判定で用いられた画像データに基づいて前記位置データ生成部で生成された当該指又は入力指示具の位置データと、その判定で用いられた画像データと関連付けられている距離データと、前記記憶部に記憶されている当該視認画面に対応する基準画面を特定する基準データとに基づいて、当該指又は入力指示具による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、前記表示装置に表示する前記元画面の制御を行う入力制御部と、
を備えることを特徴とする眼鏡型端末。 - 前記表示装置に表示される元画面は、キーボード画像と入力した文字を表示する表示領域とを有する文字入力画面であることを特徴とする請求項1乃至5の何れか一項記載の眼鏡型端末。
- 前記表示装置に表示される元画面には遠隔制御可能な装置についてのリモートコントローラの操作部に対応する画面が含まれており、
前記リモートコントローラの操作部に対応する画面に対して操作が行われたときにその操作の内容を示す指令信号を生成し、その生成した指令信号を前記遠隔制御可能な装置に無線送信する遠隔制御部を更に備えることを特徴とする請求項1乃至5の何れか一項記載の眼鏡型端末。 - 前記撮像装置は、ピントが合う範囲を一定範囲に制限することができるものであり、ピントが合う範囲を一定範囲に制限している旨を第三者に報知する報知手段を有することを特徴とする請求項1又は5記載の眼鏡型端末。
- 前記表示装置は、表示デバイスを有するプロジェクタと、光学系と、前記表示デバイスに表示された前記元画面が前記光学系を介して投影されるハーフミラーとを備え、前記ハーフミラーは、前記眼鏡本体部のレンズ部の前に配置されたプリズムの中に埋め込まれ若しくは一体化され、又は前記眼鏡本体部のレンズ部の前に配置されたプリズムに貼り付けられていることを特徴とする請求項1乃至8の何れか一項記載の眼鏡型端末。
- 前記表示装置は、表示デバイスを有するプロジェクタと、光学系と、前記表示デバイスに表示された前記元画面が前記光学系を介して投影されるハーフミラーとを備え、前記ハーフミラーは、前記眼鏡本体部のレンズ部に貼り付けられ、又は前記眼鏡本体部のレンズ部に埋め込まれ若しくは一体化されていることを特徴とする請求項1乃至8の何れか一項記載の眼鏡型端末。
- 前記表示装置は、表示デバイスを有するプロジェクタと、光学系と、前記表示デバイスに表示された前記元画面が前記光学系を介して投影されるホログラムシート又はホログラムフィルムとを備え、前記ホログラムシート又はホログラムフィルムは、前記眼鏡本体部のレンズ部に貼り付けられ、又は前記眼鏡本体部のレンズ部に埋め込まれ若しくは一体化されていることを特徴とする請求項1乃至8の何れか一項記載の眼鏡型端末。
- 使用者の指先には所定のマークが付されており、前記操作判定部は、前記マークの動きに基づいて指による操作がどのような内容の操作であるかを判定し、前記位置データ生成部は、前記マークの位置データを指の位置データとして生成することを特徴とする請求項1乃至10の何れか一項記載の眼鏡型端末。
- 使用者が眼鏡のように装着して使用するのではなく、使用者が耳以外の頭部のいずれかの部位に装着して使用することを特徴とする請求項1乃至12の何れか一項記載の眼鏡型端末。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015110240A JP6041016B2 (ja) | 2014-07-25 | 2015-05-29 | 眼鏡型端末 |
EP15178479.0A EP2978218B1 (en) | 2014-07-25 | 2015-07-27 | Computer display device mounted on eyeglasses |
US14/809,420 US10191282B2 (en) | 2014-07-25 | 2015-07-27 | Computer display device mounted on eyeglasses |
US16/214,596 US10585288B2 (en) | 2014-07-25 | 2018-12-10 | Computer display device mounted on eyeglasses |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014152019 | 2014-07-25 | ||
JP2014152019 | 2014-07-25 | ||
JP2015110240A JP6041016B2 (ja) | 2014-07-25 | 2015-05-29 | 眼鏡型端末 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016031761A true JP2016031761A (ja) | 2016-03-07 |
JP2016031761A5 JP2016031761A5 (ja) | 2016-07-14 |
JP6041016B2 JP6041016B2 (ja) | 2016-12-07 |
Family
ID=53758097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015110240A Active JP6041016B2 (ja) | 2014-07-25 | 2015-05-29 | 眼鏡型端末 |
Country Status (3)
Country | Link |
---|---|
US (2) | US10191282B2 (ja) |
EP (1) | EP2978218B1 (ja) |
JP (1) | JP6041016B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017191546A (ja) * | 2016-04-15 | 2017-10-19 | ミラマ サービス インク | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 |
WO2018008096A1 (ja) * | 2016-07-05 | 2018-01-11 | マクセル株式会社 | 情報表示装置およびプログラム |
KR20200112085A (ko) * | 2019-03-20 | 2020-10-05 | 주식회사 이랜텍 | 스마트 안경 |
JP7031112B1 (ja) | 2020-10-13 | 2022-03-08 | 裕行 池田 | 眼鏡型端末 |
JP7080448B1 (ja) | 2021-03-08 | 2022-06-06 | 裕行 池田 | 端末装置 |
US11429200B2 (en) | 2020-10-13 | 2022-08-30 | Hiroyuki Ikeda | Glasses-type terminal |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6467039B2 (ja) * | 2015-05-21 | 2019-02-06 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
US9709807B2 (en) * | 2015-11-03 | 2017-07-18 | Motorola Solutions, Inc. | Out of focus notifications |
WO2018158818A1 (ja) * | 2017-02-28 | 2018-09-07 | 日本電気株式会社 | 点検支援装置、点検支援方法および記録媒体 |
EP3336848B1 (en) * | 2017-08-15 | 2023-09-27 | Siemens Healthcare GmbH | Method for operating a medical imaging device and medical imaging device |
JP2019164420A (ja) * | 2018-03-19 | 2019-09-26 | セイコーエプソン株式会社 | 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム |
US10798292B1 (en) * | 2019-05-31 | 2020-10-06 | Microsoft Technology Licensing, Llc | Techniques to set focus in camera in a mixed-reality environment with hand gesture interaction |
CN110989873B (zh) * | 2019-11-07 | 2023-06-27 | 浙江工业大学 | 一种用于模拟触摸屏的光学成像系统 |
KR20240028819A (ko) * | 2022-08-25 | 2024-03-05 | 한국전자통신연구원 | 스마트 안경 및 그것의 동작 방법 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH075978A (ja) * | 1993-06-18 | 1995-01-10 | Sony Corp | 入力装置 |
JPH07110735A (ja) * | 1993-10-14 | 1995-04-25 | Nippon Telegr & Teleph Corp <Ntt> | 装着型ペン入力装置 |
JPH08160340A (ja) * | 1994-12-05 | 1996-06-21 | Canon Inc | 画像観察装置 |
JP2008009490A (ja) * | 2006-06-27 | 2008-01-17 | Konica Minolta Holdings Inc | 情報入力装置 |
WO2009101960A1 (ja) * | 2008-02-12 | 2009-08-20 | Brother Kogyo Kabushiki Kaisha | 画像表示装置 |
JP2009251154A (ja) * | 2008-04-03 | 2009-10-29 | Konica Minolta Holdings Inc | 頭部装着式映像表示装置 |
WO2009133698A1 (ja) * | 2008-04-30 | 2009-11-05 | パナソニック株式会社 | 走査型画像表示装置、眼鏡型ヘッドマウントディスプレイ、及び自動車 |
JP2010145860A (ja) * | 2008-12-19 | 2010-07-01 | Brother Ind Ltd | ヘッドマウントディスプレイ |
JP2013190926A (ja) * | 2012-03-13 | 2013-09-26 | Nikon Corp | 入力装置、及び表示装置 |
JP2014056462A (ja) * | 2012-09-13 | 2014-03-27 | Toshiba Alpine Automotive Technology Corp | 操作装置 |
JP2014115457A (ja) * | 2012-12-10 | 2014-06-26 | Sony Corp | 情報処理装置および記録媒体 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8610674B2 (en) | 1995-06-29 | 2013-12-17 | Apple Inc. | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
JPH1198227A (ja) | 1997-09-22 | 1999-04-09 | Gakuichi Yanagi | 通話システムの携帯用遠隔起動端末 |
AU2011220382A1 (en) * | 2010-02-28 | 2012-10-18 | Microsoft Corporation | Local advertising content on an interactive head-mounted eyepiece |
US9069164B2 (en) | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
JP2013206412A (ja) | 2012-03-29 | 2013-10-07 | Brother Ind Ltd | ヘッドマウントディスプレイ及びコンピュータプログラム |
US10013138B2 (en) * | 2012-10-22 | 2018-07-03 | Atheer, Inc. | Method and apparatus for secure data entry using a virtual interface |
-
2015
- 2015-05-29 JP JP2015110240A patent/JP6041016B2/ja active Active
- 2015-07-27 EP EP15178479.0A patent/EP2978218B1/en active Active
- 2015-07-27 US US14/809,420 patent/US10191282B2/en active Active
-
2018
- 2018-12-10 US US16/214,596 patent/US10585288B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH075978A (ja) * | 1993-06-18 | 1995-01-10 | Sony Corp | 入力装置 |
JPH07110735A (ja) * | 1993-10-14 | 1995-04-25 | Nippon Telegr & Teleph Corp <Ntt> | 装着型ペン入力装置 |
JPH08160340A (ja) * | 1994-12-05 | 1996-06-21 | Canon Inc | 画像観察装置 |
JP2008009490A (ja) * | 2006-06-27 | 2008-01-17 | Konica Minolta Holdings Inc | 情報入力装置 |
WO2009101960A1 (ja) * | 2008-02-12 | 2009-08-20 | Brother Kogyo Kabushiki Kaisha | 画像表示装置 |
JP2009251154A (ja) * | 2008-04-03 | 2009-10-29 | Konica Minolta Holdings Inc | 頭部装着式映像表示装置 |
WO2009133698A1 (ja) * | 2008-04-30 | 2009-11-05 | パナソニック株式会社 | 走査型画像表示装置、眼鏡型ヘッドマウントディスプレイ、及び自動車 |
JP2010145860A (ja) * | 2008-12-19 | 2010-07-01 | Brother Ind Ltd | ヘッドマウントディスプレイ |
JP2013190926A (ja) * | 2012-03-13 | 2013-09-26 | Nikon Corp | 入力装置、及び表示装置 |
JP2014056462A (ja) * | 2012-09-13 | 2014-03-27 | Toshiba Alpine Automotive Technology Corp | 操作装置 |
JP2014115457A (ja) * | 2012-12-10 | 2014-06-26 | Sony Corp | 情報処理装置および記録媒体 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017191546A (ja) * | 2016-04-15 | 2017-10-19 | ミラマ サービス インク | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 |
WO2018008096A1 (ja) * | 2016-07-05 | 2018-01-11 | マクセル株式会社 | 情報表示装置およびプログラム |
KR20200112085A (ko) * | 2019-03-20 | 2020-10-05 | 주식회사 이랜텍 | 스마트 안경 |
KR102186615B1 (ko) * | 2019-03-20 | 2020-12-03 | 주식회사 이랜텍 | 스마트 안경 |
JP7031112B1 (ja) | 2020-10-13 | 2022-03-08 | 裕行 池田 | 眼鏡型端末 |
JP2022064283A (ja) * | 2020-10-13 | 2022-04-25 | 裕行 池田 | 眼鏡型端末 |
US11429200B2 (en) | 2020-10-13 | 2022-08-30 | Hiroyuki Ikeda | Glasses-type terminal |
JP7080448B1 (ja) | 2021-03-08 | 2022-06-06 | 裕行 池田 | 端末装置 |
JP2022136951A (ja) * | 2021-03-08 | 2022-09-21 | 裕行 池田 | 端末装置 |
Also Published As
Publication number | Publication date |
---|---|
EP2978218A1 (en) | 2016-01-27 |
US20160025983A1 (en) | 2016-01-28 |
US10585288B2 (en) | 2020-03-10 |
US20190107724A1 (en) | 2019-04-11 |
JP6041016B2 (ja) | 2016-12-07 |
EP2978218B1 (en) | 2023-04-19 |
US10191282B2 (en) | 2019-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6041016B2 (ja) | 眼鏡型端末 | |
JP6393367B2 (ja) | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 | |
KR102494698B1 (ko) | 카메라의 초점을 변경하는 방법 및 장치 | |
US20180136465A1 (en) | Mobile terminal and controlling method thereof | |
CN111630477A (zh) | 提供增强现实服务的设备及其操作方法 | |
JP2016031761A5 (ja) | ||
CN106067833B (zh) | 移动终端及其控制方法 | |
JP2019023767A (ja) | 情報処理装置 | |
JP2017134558A (ja) | 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP6740613B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
US11429200B2 (en) | Glasses-type terminal | |
US20210400234A1 (en) | Information processing apparatus, information processing method, and program | |
CN103713387A (zh) | 电子设备和采集方法 | |
JP2017120488A (ja) | 表示装置、表示システム、表示装置の制御方法、及び、プログラム | |
JP2017062650A (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
US11854444B2 (en) | Display device and display method | |
JP7080448B1 (ja) | 端末装置 | |
JP7031112B1 (ja) | 眼鏡型端末 | |
TW201807540A (zh) | 信息處理系統、操作方法及操作程序 | |
JP2017199085A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2018018315A (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
JP2018085595A (ja) | 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法 | |
JP2017111537A (ja) | ヘッドマウントディスプレイおよびヘッドマウントディスプレイのプログラム | |
CN112558847B (zh) | 控制界面显示的方法及头戴式显示器 | |
KR20160027813A (ko) | 글래스형 단말기 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160530 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160530 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20160530 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6041016 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |