[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPWO2018079001A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2018079001A1
JPWO2018079001A1 JP2018547139A JP2018547139A JPWO2018079001A1 JP WO2018079001 A1 JPWO2018079001 A1 JP WO2018079001A1 JP 2018547139 A JP2018547139 A JP 2018547139A JP 2018547139 A JP2018547139 A JP 2018547139A JP WO2018079001 A1 JPWO2018079001 A1 JP WO2018079001A1
Authority
JP
Japan
Prior art keywords
fingerprint
finger
fingerprint information
information
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018547139A
Other languages
English (en)
Inventor
美和 市川
美和 市川
祐平 滝
祐平 滝
耕太 相澤
耕太 相澤
紘一 作本
紘一 作本
直人 坪井
直人 坪井
直也 佐塚
直也 佐塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018079001A1 publication Critical patent/JPWO2018079001A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • G04G21/025Detectors of external physical values, e.g. temperature for measuring physiological data
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/33User authentication using certificates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2149Restricted operating environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physiology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Input (AREA)
  • User Interface Of Digital Computer (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】小型の装置であっても、操作に応じた所望の動作を行うこと。【解決手段】本開示に係る情報処理装置は、指紋情報を取得する指紋情報取得部と、前記指紋情報に基づいて指の動作を判定する判定部と、判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う処理部と、を備える。この構成により、小型の装置であっても、操作に応じた所望の動作を行うことが可能となり、ユーザーの利便性を高めることができる。【選択図】図2

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
従来、例えば下記の特許文献1には、装置本体に指紋検出照合機能を有するICカードを装着することができるようにすることで、周辺機器の接続部が少ない情報処理装置にも簡単に指紋検出照合機能を加えることができる入力装置に関して記載されている。
特許第3951920号公報
近年、ユーザの身体に装着するスマートウォッチなどのウェアラブル機器が普及している。ウェアラブル機器は、その手軽さ、携帯性、小型化などを追及していくことを考えると、ボタンなどの操作部はますます小さくなることが想定され、操作部が小さくなることによる操作性の低下が懸念される。
そこで、小型の装置であっても、操作に応じた所望の動作を行うことが求められていた。
本開示によれば、指紋情報を取得する指紋情報取得部と、前記指紋情報に基づいて指の動作を判定する判定部と、判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う処理部と、を備える情報処理装置が提供される。
また、本開示によれば、指紋情報を取得することと、前記指紋情報に基づいて指の動作を判定することと、判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行うことと、を備える、情報処理方法が提供される
また、本開示によれば、指紋情報を取得する手段、前記指紋情報に基づいて指の動作を判定する手段、判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う手段、としてコンピュータを機能させるためのプログラムが提供される。
以上説明したように本開示によれば、小型の装置であっても、操作に応じた所望の動作を行うことが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
ウェアラブル機器の一例としてのスマートウォッチを操作している様子を示す模式図である。 本実施形態に係るスマートウォッチの構成を示すブロック図である。 スマートウォッチで行われる処理を示すフローチャートである。 指紋情報取得部(指紋センサー)の配置と操作判別方法を説明するための模式図である。 指紋情報取得部(指紋センサー)の配置と操作判別方法を説明するための模式図である。 指紋情報取得部(指紋センサー)の配置と操作判別方法を説明するための模式図である。 ウェアラブル機器として、腕輪型デバイスの例を示す模式図である。 図4の例において、指の各位置を事前登録する様子を示す模式図である。 UIの操作時の方法を示す模式図である。 各指の指紋を登録する様子を示す模式図である。 指の指紋と指紋情報取得部(指紋センサー)の表面が接触している状態を拡大して示す模式図である。 図11中の領域Aを拡大した状態を示す模式図である。 図11中の領域Aを拡大した状態を示す模式図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.背景
2.スマートウォッチの構成例
3.スマートウォッチで行われる処理の例
4.指紋センサーの配置と操作判別方法
5.腕輪型デバイスの例
6.UIの操作方法、指紋情報の登録
7.指紋判定に基づく各種処理
1.背景
近年、例えばスマートウォッチなどのウェアラブル機器が用いられるようになっている。図1は、ウェアラブル機器の一例として、本実施形態に係るスマートウォッチ100を操作している様子を示す模式図である。スマートウォッチ100は、タッチパネル106、指紋センサー102を有している。スマートウォッチ100は、ユーザがタッチパネル106やボタン(不図示)を操作することで、ユーザが求める所望の動作、処理を行う。また、スマートウォッチ100は、ユーザが指紋センサー102に指紋を当てることで、認証を行い、またユーザが求める所望の動作、処理を行う。
ウェアラブル機器は、手軽さ、携帯性、小型化などを追及していくことを考えると、その操作部はますます小さくなることが想定される。また、ウェアラブル機器に生体情報など重要な情報が蓄積されていくことを考えると、ウェアラブル機器にはより高いセキュリティが求められる。更に、ウェアラブル機器においても、文字入力などの複雑な入力操作や、より複雑な様々な機能を実現したいという要望がある。
セキュリティに関しては、指紋認証が広く用いられているが、例えば1本の指の指紋による個人認証では、機器の所有者が寝ている間に他人が所有者の指を機器に当てることで認証が通ってしまうといったセキュリティ上の課題がある。また、操作性に関しては、ウェアラブル機器のような小さい画面での文字入力や様々な機能の実現は、現状では困難が伴う。
本実施形態では、操作している指の種別や指の移動方向、指の動かし方(短押し/長押し、軽く押す/強く押す)等に応じて、ウェアラブル機器のような小さい画面での文字入力や様々な機能を実現できるようにするとともに、各機能やアプリを切り替え可能とする。また、認証に関しては、指紋認証と数字や文字によるパスワード入力を組み合わせることで高いセキュリティが確保できるようにする。以下、詳細に説明する。
2.スマートウォッチの構成例
図2は、本実施形態に係るスマートウォッチ100の構成を示すブロック図である。スマートウォッチ100は、指紋センサー102、その他のセンサー部104、タッチパネル106、制御部110、記憶部120を有して構成されている。指紋センサー102は、撮像により得られた画像から指紋に関する指紋情報を検出する。指紋センサー102は、静電容量から指紋情報を検出するものであっても良い。画像から指紋情報を検出する光学式の場合、指紋情報は指紋の形状を表す画像情報である。また、静電容量から指紋情報を検出する静電式の場合、指紋情報は指紋の凹凸に応じた静電容量である。また、指紋センサー102は、感熱式、電界式、圧力式など、他の方式により指紋を検出するものであっても良い。より具体的には、光学式は、プリズムやガラス面に指を置いて、指を置いた面の逆側から指の像をCCDカメラなどで撮像することで指紋情報を検出する。静電式は、指紋センサー102に指を押し付けた際に、指紋の山(指紋の紋様を形成する皮膚の盛り上がった部分)と谷の電荷量の違いによって指紋情報を得る方法である。感熱式は、指紋センサー106の表面に接触する指紋の山の部分の温度(体温)と谷の温度(空気温度)の温度差を検知から指紋情報を得る方法である。電界式は、指の表面に流した微弱電流で生じた、指紋の山の部分と谷の部分との電界の強度の差から生ずる分布パターンを指紋情報とする方法である。タッチパネル106は、液晶表示ディスプレイ(LCD)などの表示部とタッチセンサから構成される。スマートウォッチ100は、音声により情報を出力するスピーカ等の構成要素を備えていても良い。その他のセンサー部104は、指紋センサー102以外のセンサーであって、例えばスマートウォッチ100の位置情報を検出する位置センサー(GPS)、指の温度を検出する温度センサー、指の押圧力を検出する圧力センサー等である。
制御部110は、スマートウォッチ100の各種処理を行う構成要素であって、指紋情報取得部112、指紋情報登録部113、指紋照合部114、指紋判定部116、処理部118を含む。記憶部120は、登録した指紋情報を記録する登録指紋情報記録部122を有している。また、記憶部120には、スマートウォッチ100に対応する各種アプリケーション124のプログラム、データが格納されている。なお、図2に示す制御装置110の構成要素は、回路(ハードウェア)、またはCPUなどの中央演算処理装置とこれを機能されるためのプログラム(ソフトウェア)から構成されることができる。
指紋情報取得部112は、指紋センサー102が検出した指紋情報を取得する。指紋情報登録部113は、指紋情報取得部112が取得した指紋情報を登録指紋情報記録部122に登録する。指紋情報取得部112は、ユーザ毎に指紋情報を取得する。ユーザ毎の指紋情報には、右手、左手の各指の指紋の形状を示す指紋情報、各指を傾けた際の指紋情報などが含まれる。ユーザ毎の指紋情報は、登録指紋情報記録部122に登録される。指紋照合部114は、指紋センサー102が取得した指紋情報と、登録指紋情報記録部122に登録された指紋情報を照合し、認証を行う。指紋照合部114は、指紋情報に加えて、タッチパネル106から入力されたパスワードと、記憶部120に予め登録されているパスワードを照合して認証を行うこともできる。この場合、指紋情報とパスワードによる認証を併用することで、セキュリティを高めることが可能である。
指紋判定部116は、照合部114による認証が成功した場合に、指紋情報取得部112が取得した指紋情報と、登録指紋情報記録部122に登録された情報とに基づいて、指の種類や指の動作(指の操作)を判定する。登録指紋情報記録部122は、登録された指紋情報に対応する指の種類や指の動作に対応する情報と、スマートウォッチ100が行う所定の処理とを紐付けて記録している。処理部118は、指紋判定部116の判定結果に基づいて、登録指紋情報記録部122に紐付けられた処理を参照し、アプリケーション124を起動したり、フォーカスを移動する処理など、スマートウォッチ100が実行可能な所定の処理を行う。タッチパネル106には、処理の過程や結果が表示される。
3.スマートウォッチで行われる処理の例
図3は、スマートウォッチ100で行われる処理を示すフローチャートである。先ず、ステップS10では、指紋情報取得部112が、指紋センサー102から得られた指紋情報に基づいて、指紋センサー102に指が触れているか否かを判定し、指紋センサー102に指が触れている場合は、次のステップS12で指紋情報を取得する。次のステップS14では、指紋照合部114が、取得した指紋情報に基づいて、事前に登録指紋情報記録部122に指紋情報が登録されている指であるか否かを判定し、登録されている場合はステップS16へ進む。ステップS16では、指紋判定部116が、操作する指の判定(人差し指であるか、中指であるか等の判定)、指の動作の判定(位置、動き方向、傾き等の判定)を行う。
次のステップS18では、処理部118が、ステップS16で判定された操作する指の種類、指の動作に応じて、アプリケーション124の起動や機能の実行を行う。具体的には、操作する指の種類、動作に応じてアプリケーション124を起動したり、フォーカスを移動する処理などを行う。
次のステップS20では、指紋情報取得部112が、ステップS16で判定した指から変更があったか否かを判定し、変更があった場合はステップS14に進み、以降の処理を再度行う。一方、変更がなかった場合は、ステップS18の処理を引き続き行う。
また、ステップS10で指紋センサー102に指が触れていないと判定された場合、またはステップS14で事前登録された指ではないと判定された場合は、処理を終了する。
4.指紋センサーの配置と操作判別方法
図4〜図6は、指紋センサー102の配置と操作判別方法を説明するための模式図である。図4〜図6のそれぞれでは、上から順に、「指が指紋センサーに触れている状態を横から見た図」、「指が指紋センサーに触れている状態を下から見た図」、「操作判別方法を示す図」、のそれぞれを示している。
図4は、指紋センサーとして指200の指紋202と同等の大きさの指紋センサー102aを用い、指紋センサー102aに接触した指200の種類、動作によって、操作判別を行う場合を示している。図4に示す例では、指200を傾けることで、操作判別を行う。この場合、指200を傾けた際に、指紋202の一部が浮き上がり、「操作判別方法を示す図」の図に示すように、指200の指紋202の一部分のみが検出される。そして、指200の指紋202の一部分のみが検出されることによって、指200を傾けた方向が認識される。これにより、指200を傾けた方向に応じて、アプリケーション124を起動したり、フォーカスを移動するなどの所定の処理を行うことができる。図4に示す例によれば、指200を傾けるだけで、指200を動かさなくても所定の処理を行うことができる。また、指紋センサー102aによる検出をトリガーとして、圧力センサーのような既存のセンサーと組み合わせて使うこともできる。この手法の利点として、光学式指紋センサーなど水に濡れても指紋パターンが読み取れるタイプの指紋センサーを利用すれば、例えば機器が水に濡れた状態での操作時や水中での操作時でも、通常のタッチパネルのように水と指の区別がつかないような事態は生じず、誤動作を起こすことがない点が挙げられる。
図5は、指の指紋よりも小さい指紋センサー102bを1つ用い、指紋センサー102bに接地した指、指の動きによって、操作判別を行う場合を示している。この場合、指200を移動した際に、「操作判別方法を示す図」に示すように、指紋202の形状の動きに基づいて指200がどの方向に動いたのかを判別することができる。より具体的には、制御周期毎に取得される指紋情報に基づいて、現時点で取得された指紋情報と1周期前に取得された指紋情報を比較することで、指がどの方向に動いたのかが判定される。この移動方向の判定には、同一の特徴点を追跡しその移動方向を算出することにより判定を行なってもよいし、画像全体としての相関が最大になる移動方向を算出することにより判定を行なってもよい。また前記特徴点として指紋のマニューシャ点や汗腺情報を利用してもよい。これにより、指200を動かした方向に応じて、アプリケーション124を起動したり、フォーカスを移動するなどの所定の処理を行うことができる。図5に示す例によれば、指紋センサー102bを可能な限り小さくすることができ、小さい指紋センサー102bであっても指の動きを把握することが可能である。
図6は、指200の指紋202よりも小さい指紋センサー102bを複数用い、複数の指紋センサー102bを必要な位置に配置し、指紋センサー102bに接触した指200の種類、指200の動きによって、操作判別を行う場合を示している。図6に示す例では、指紋センサー102bに触れた位置や割合によって、操作判別を行う。この場合、指200を傾けた際に、「操作判別方法を示す図」に示すように、指紋202の一部が浮き上がるため、複数の指紋センサー102bの一部のみで指紋202が検出される。「操作判別方法を示す図」では、指200を前に傾けた場合に、4つの指紋センサー102bのうち先端の指紋センサー102bのみで指紋の情報が検出される様子を示している。このように、複数の指紋センサー102bの一部のみで指紋が検出されることによって、指200を傾けた方向が認識される。これにより、指200を傾けた方向に応じて、アプリケーション124を起動したり、フォーカスを移動するなどの所定の処理を行うことができる。また、図6に示す例によれば、操作方法に合わせて複数の位置の異なる指紋センサー102bを組み合わせて使用することができる。
なお、図4及び図6に示す例においても、図5の例と同様に、指紋202の動きによって指がどの方向に動いたのかを判別することが可能である。
以上のように、図4〜図6に示す例によれば、指紋202を検出することによって、指200の動作(動き方向、傾き)を検出することができる。従って、指200の動作に応じてスマートウォッチ100が所定の処理を行うことができる。
5.腕輪型デバイスの例
図7は、ウェアラブル機器として、腕輪型デバイス100の例を示す模式図である。図7に示す例では、指紋センサー102として、複数の指紋センサー102c,102d,102eが腕輪型デバイス100の外周面に設けられている。指紋センサー102c,102d,102eを異なる位置に配置し、指紋センサー102c,102d,102eに接触した指の種類、動作、その組み合わせによって操作判別を行う。この例では、異なる位置の指紋センサー102c,102d,102eをどの指のどの位置でタッチしたかによって操作判別する。例えば、左端の指紋センサー102cを人さし指で2回、真中の指紋センサー102dを中指で1回タッチすると、腕輪型デバイスで所定の処理が行われる。図7に示す例によれば、デバイスの形状にあわせて指紋センサーを配置することが可能である。図7のような腕に装着するデバイスであれば、腕輪の異なる位置に指紋センサーを設けることで、腕輪の異なる位置をタッチすることで所望の処理を実現できる。
図8は、図4の例において、指紋情報登録部113が指200の各位置を事前登録する様子を示す模式図である。図8に示すように、指紋202の全面が指紋センサー102aのセンサー面に密着したホームポジションで指紋情報を登録する。また、指200を上に傾けた場合、右に傾けた場合、左に傾けた場合、下に傾けた場合、のそれぞれについて、指紋202の一部を登録する。登録した指紋情報は、登録指紋情報記録部122に記録される。指紋センサー102aが画像により指紋情報を検出する場合は、図8に示すような画像が指紋情報として登録される。また、指紋センサー102aが静電容量により指紋情報を検出する場合は、図8に示す指紋の形状に対応する静電容量の値が指紋情報として登録される。
6.UIの操作方法、指紋情報の登録
図9は、UIの操作時の方法を示す模式図である。先ず、ユーザがタッチパネル106にホームポジションでタッチすると、最初の文字(例:「1」)もしくは前回フォーカスした文字にフォーカスがあたる。この状態では、フォーカスした文字がタッチパネル106の中央に表示される。この状態で、図4に示したように、指紋センサー102a上に指200を載せた状態で指200を上下左右に傾けると、フォーカスが移動し、傾けた方向の文字がタッチパネル106の中央に表示される。そして、指200がホームポジションの状態でリリースされると文字が決定される。このように、本実施形態によれば、指200を傾けるだけで文字入力を行うことが可能となる。
図10は、各指の指紋を登録する様子を示す模式図である。図10に示すように、親指、人差し指、中指、薬指、小指のそれぞれの指紋202を登録する。図10では、比較的大きな指紋センサー102を用い、複数の指200の指紋情報を一度に登録する例を示している。図4〜図6に示したような小型の指紋センサー102を用いる場合は、1つの指200毎に登録を行う。図8に示したように、ホームポジション、上下左右に傾けた場合、のそれぞれについて指紋情報を登録する。図10に示すような大型の指紋センサー102を用いた場合、ウェアラブル機器とは別に指紋センサー102を備えるデバイスを用意し、当該デバイスが取得した指紋情報をウェアラブル機器100へ送信して登録するようにしても良い。以上のようにして各指の指紋情報を取得すると、各指の指紋202は相違するため、指紋センサー102が検出した指200の種類に応じて異なる処理を行うことができる。
そして、各指の指紋情報を登録することによって、各指に対応する処理、機能が設定される。例えば文字入力の場合、親指を認証した場合は大文字の全角数字を入力し、人差し指を認証した場合は小文字の半角数字を入力するなど、指の種類に応じた処理、機能が設定される。
図11は、指200と指紋センサー102の表面(接触面)が接触している状態を拡大して示す模式図である。また、図12A、図12Bは、図11中の領域Aを拡大した状態を示す模式図であって、図12Aは指紋センサー102を指200が押す際の押圧力が比較的小さい場合を示しており、図12Bは押圧力が比較的大きい場合を示している。
図12Aに示すように、指紋センサー102を指200が押す際の押圧力が比較的小さい場合は、指紋202の凸部分の先端が指紋センサー102の表面に接触する。一方、図12Bに示すように、指紋センサー102を指200が押す際の押圧力が比較的大きい場合は、指紋202の凸部分の先端が潰れて、指紋センサー102の表面に接触する。従って、指紋センサー102で取得した指紋情報に基づいて、指の押圧力を判定することができる。
従って、本実施形態によれば、指の種類、指の動き、指の傾き、指の位置のみならず、指が指紋センサー102を押す際の押圧力に応じて、アプリケーション124を起動したり、フォーカスを移動するなどの所定の処理を行うことができる。
7.指紋判定に基づく各種処理
以上のようにして、指紋情報に基づいて指の種類、動作が判定されると、これに基づいて、処理部118が、スマートウォッチ100における各種処理を行う。指紋情報に基づく処理として、上述した文字入力の他、様々な処理に適用することができる。処理部118は、代表的な処理として、文字入力、アプリケーション124の起動、表示画面の遷移(スクロール)を行う。この際、処理部118は、指紋判定部116から指の種類、指の動作等に関する情報を取得し、これに基づいて登録指紋情報記録部122に記録されている、指の種類、指の動作等に応じて行う所定の処理を取得し、アプリケーション124と情報のやり取りを行う。これにより、指の種類、指の動作等に関する情報に基づいて、アプリケーション124を起動したり、文字入力に関する処理、表示画面の遷移等の処理が行われる。なお、処理部118が行う処理はこれらに限定されるものではなく、例えば以下の処理に適用することも可能である。
(1)操作する指によって機能やアプリケーションが切り替わる
(1-1)文字の種類が変わる。例えば、文字入力の際に、親指であれば大文字、人差し指であれば小文字、小指であれば数字など、指の種類に応じて文字の種類を変える。
・指の種類に応じてログインのメールアドレス、PINコード入力などを行う。
(1-2)画面内のスクロール単位が変わる(上下方向)
・親指であれば画面切替スクロール、人差し指であれば通常の画面スクロールを行う。
(1-3)表示切替単位が変わる(左右方向)
・親指であればタブ切替、人差し指であれば画面内のスクロールを行う。
(1-4)再生コンテンツの切替え単位が変わる
・再生曲の場合、親指であればジャンル切替、人差し指だとアルバム切替、中指だと曲切替を行う。
・ラジオやTVなどの番組の場合、親指であればニュース、人差し指であればお笑い番組、中指であれば音楽番組を再生する。
(1-5)再生されているコンテンツに対する機能が切り替わる
・再生曲の場合、親指であれば前曲送り、人差し指であれば再生/一時停止、中指であれば次曲送りを行う。
・音量調整の場合、親指であれば音量アップ、人差し指であればデフォルト音量(ユーザー指定など)、中指であれば音量ダウンを行う。
・読み上げスピード調整、再生速度調整の場合、親指であればスピードアップ、人差し指であればデフォルトスピード(ユーザー指定など)、中指であればスピードダウンを行う。
(1-6)機器内の操作が切り替わる
・親指であればホーム画面(トップ画面)、人差し指であれば「決定」、中指であれば「戻る」の操作を行う。
(1-7)起動するアプリを切り替える
・親指であればメール、人差し指であればメッセンジャー、中指であればソーシャルネットワークを起動する。
(2)操作する指の動きやジェスチャから機能やアプリケーションを起動する/切り替える
・親指であればスクロール、人差指であればジェスチャ入力、中指であればポインティングなど機能を分ける。
(3)操作する指の順番から機能やアプリを起動する/切り替える
(4)操作する指の操作者を特定し(個人化)、アプリや機能の起動や設定値を切り替える。
・例えば、ウェアラブル機器が服などの身体に装着するものの場合、特定された個人の服のサイズに変わる、特定された個人の発汗量や体温にあわせて服の生地の形状が変わるなども実現可能である。
・共有デバイスの個人認証
共有デバイスとして、家族用タブレット、PC、マウス、ゲーム機のコントローラ、メガネなどが挙げられる。メガネの場合、フレームもしくはボタンなどに指紋センサーを設け、メガネをかけると認証されるようにする。
(5)短押し/長押し/連続押しに応じて機能やアプリの起動/切替を行う。
・再生コンテンツの場合、短押しで再生/一時停止、長押しで再生スピード変更、連続押しでチャプター送りを行う。
(6)押圧力に応じて機能やアプリの起動/切替を行う。
・カメラのズームであれば、軽く押した場合は1段階ズーム、強く押した場合は数段階(連続)ズームを行う。
また、更に、指紋情報に基づいて以下のような処理を行っても良い。ウェアラブル機器がペン型のデバイスの場合、ペン自体に指紋センサを搭載し、ペンを握ったら認証を行う。この際、なぞる操作だけではなくフリックのようなはじく操作でも指紋認証を行うようにしても良い。
また、その他のセンサー104として温度センサーを備える場合は、指紋認証と温度センサー(体温計測)などを組み合わせることで、擬人指(人工物等)の指から認証しようとした場合に、擬人指からは体温が測定されないため、認証が行われてしまうことを回避できる。また、擬人指を排除するため指紋から右手、左手の判定、操作指の判定を行い、GUIを指に寄せたり、操作エリアの自動変更を行っても良い。更に、操作指ごとに触った座標位置を補正したり、操作指ごとに触った位置の補正係数を変えても良い。また、認証結果に応じて画面の一部のフォルダにロックをかけたり、画面にタッチした時に指紋認証を行うようにしても良い。
また、指紋登録時に年齢登録を行い、年齢認証機能を持たせるようにしても良い。この場合に、指紋登録時にユーザがタッチパネル106を操作して、年齢を登録する。指紋情報に紐付けて年齢情報を登録しておくことで、指紋認証時に指紋情報から年齢情報が得られ、ユーザが子供であれば子供向けWebサイトのみ表示する。また、ユーザが高齢者であれば、高齢者向けの大きな文字表示の簡単なUIを表示する。
また、その他のセンサー104として位置センサー(GPS)を備える場合は、場所や時間などの状況に応じてセキュリティの度合いを変えることもできる。例えば、家や会社外ではセキュリティは強いが、家や会社の中に入るとセキュリティが弱くなるようにする。例えば、指紋センサーなど生体認証は100%成功するわけではないので、パスワードと組み合わせて認証を行うが、指紋照合部114による認証では、家や会社外ではパスワードの入力を必須とし、家や会社の中に入るとパスワードの入力を不要とする。また、VRのコントローラなどに指紋認証を付けることで、誰がどのように操作したのかが分かるので、ゲームのインタラクションや各個人の得点などに活用する。
また、その他のセンサーとして指の色を検出するセンサーを備える場合は、指による押圧力が大きくなるほど指が赤色に変色するため、指の色の変化を利用して押圧力(指圧)を取得することも可能であり、押圧力に応じて定められた所定の処理を行うことも可能である。
以上説明したように本実施形態によれば、指紋情報に基づいて指の動作を判定し、判定結果に基づいてスマートウォッチ100が実行可能な所定の処理を行うようにしたため、操作するスペースを最小限に抑えることができる。これにより、小型のウェアラブル機器であっても、操作に応じた所望の動作を行うことが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1) 指紋情報を取得する指紋情報取得部と、
前記指紋情報に基づいて指の動作を判定する判定部と、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う処理部と、
を備える、情報処理装置。
(2) 前記判定部は、予め登録された登録指紋情報と前記指紋情報を比較することで、前記動作を判定する、前記(1)に記載の情報処理装置。
(3) 前記判定部は、前記指紋情報に基づいて指の傾きを判定する、前記(1)又は(2)に記載の情報処理装置。
(4) 前記判定部は、指が傾いた状態で予め登録された登録指紋情報と前記指紋情報を比較して前記傾きを判定する、前記(3)に記載の情報処理装置。
(5) 前記指紋情報取得部は、指が接触する接触面を有する指紋センサーから前記指紋情報を取得し、
前記判定部は、前記指紋情報に基づいて前記接触面に沿った指の動きを判定する、前記(1)又は(2)に記載の情報処理装置。
(6) 前記指紋情報取得部は、前記指紋情報を検出する複数の指紋センサーから前記指紋情報を取得し、
前記判定部は、複数の前記指紋センサーから検出された前記指紋情報に基づいて、前記動作を判定する、前記(1)〜(5)のいずれかに記載の情報処理装置。
(7) 前記判定部は、複数の前記指紋センサーから検出された前記指紋情報を比較することで、指の傾きを判定する、前記(6)に記載の情報処理装置。
(8) 前記指紋情報が予め登録された登録指紋情報と一致するか否かを認証する認証部を備え、
前記判定部は、前記認証が成功した場合に、前記判定を行う、前記(1)〜(7)のいずれかに記載の情報処理装置。
(9) 前記認証部は、前記指紋情報が前記登録指紋情報と一致するか否かに加え、入力されたパスワードが登録されたパスワードと一致するか否かに応じて前記認証を行う、前記(8)に記載の情報処理装置。
(10) 前記処理部は、前記動作とともに前記指紋情報から得られる指の種類の情報に基づいて前記所定の処理を行う、前記(1)〜(9)のいずれかに記載の情報処理装置。
(11) 前記判定部は、前記指紋情報と、前記指紋情報を検出する指紋センサー以外の他のセンサーから得られたセンサー情報に基づいて前記判定を行う、前記(1)〜(10)のいずれかに記載の情報処理装置。
(12) 前記他のセンサーは、位置センサー、温度センサー、又は指圧センサーである、前記(11)に記載の情報処理装置。
(13) 前記所定の処理は、前記動作に応じて予め定められた所定のアプリケーションを起動する処理である、前記(1)〜(12)のいずれかに記載の情報処理装置。
(14) 前記所定の処理は、前記動作に応じて予め定められた文字入力機能に関する処理である、前記(1)〜(12)のいずれかに記載の情報処理装置。
(15) 前記所定の処理は、前記動作に応じて予め定められた表示画面を遷移させる処理である、前記(1)〜(12)のいずれかに記載の情報処理装置。
(16) 前記判定部は、前記指紋情報に基づいて前記動作として指の押圧力を判定する、前記(1)〜(15)のいずれかに記載の情報処理装置。
(17) 指紋情報を取得することと、
前記指紋情報に基づいて指の動作を判定することと、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行うことと、
を備える、情報処理方法。
(18) 指紋情報を取得する手段、
前記指紋情報に基づいて指の動作を判定する手段、
判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う手段、
としてコンピュータを機能させるためのプログラム。
100 スマートウォッチ
112 指紋情報取得部
114 指紋照合部
116 指紋判定部
118 処理部

Claims (18)

  1. 指紋情報を取得する指紋情報取得部と、
    前記指紋情報に基づいて指の動作を判定する判定部と、
    判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う処理部と、
    を備える、情報処理装置。
  2. 前記判定部は、予め登録された登録指紋情報と前記指紋情報を比較することで、前記動作を判定する、請求項1に記載の情報処理装置。
  3. 前記判定部は、前記指紋情報に基づいて指の傾きを判定する、請求項1に記載の情報処理装置。
  4. 前記判定部は、指が傾いた状態で予め登録された登録指紋情報と前記指紋情報を比較して前記傾きを判定する、請求項3に記載の情報処理装置。
  5. 前記指紋情報取得部は、指が接触する接触面を有する指紋センサーから前記指紋情報を取得し、
    前記判定部は、前記指紋情報に基づいて前記接触面に沿った指の動きを判定する、請求項1に記載の情報処理装置。
  6. 前記指紋情報取得部は、前記指紋情報を検出する複数の指紋センサーから前記指紋情報を取得し、
    前記判定部は、複数の前記指紋センサーから検出された前記指紋情報に基づいて、前記動作を判定する、請求項1に記載の情報処理装置。
  7. 前記判定部は、複数の前記指紋センサーから検出された前記指紋情報を比較することで、指の傾きを判定する、請求項6に記載の情報処理装置。
  8. 前記指紋情報が予め登録された登録指紋情報と一致するか否かを認証する認証部を備え、
    前記判定部は、前記認証が成功した場合に、前記判定を行う、請求項1に記載の情報処理装置。
  9. 前記認証部は、前記指紋情報が前記登録指紋情報と一致するか否かに加え、入力されたパスワードが登録されたパスワードと一致するか否かに応じて前記認証を行う、請求項8に記載の情報処理装置。
  10. 前記処理部は、前記動作とともに前記指紋情報から得られる指の種類の情報に基づいて前記所定の処理を行う、請求項1に記載の情報処理装置。
  11. 前記判定部は、前記指紋情報と、前記指紋情報を検出する指紋センサー以外の他のセンサーから得られたセンサー情報に基づいて前記判定を行う、請求項1に記載の情報処理装置。
  12. 前記他のセンサーは、位置センサー、温度センサー、又は指圧センサーである、請求項11に記載の情報処理装置。
  13. 前記所定の処理は、前記動作に応じて予め定められた所定のアプリケーションを起動する処理である、請求項1に記載の情報処理装置。
  14. 前記所定の処理は、前記動作に応じて予め定められた文字入力機能に関する処理である、請求項1に記載の情報処理装置。
  15. 前記所定の処理は、前記動作に応じて予め定められた表示画面を遷移させる処理である、請求項1に記載の情報処理装置。
  16. 前記判定部は、前記指紋情報に基づいて前記動作として指の押圧力を判定する、請求項1に記載の情報処理装置。
  17. 指紋情報を取得することと、
    前記指紋情報に基づいて指の動作を判定することと、
    判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行うことと、
    を備える、情報処理方法。
  18. 指紋情報を取得する手段、
    前記指紋情報に基づいて指の動作を判定する手段、
    判定された前記動作に基づいて、前記動作に応じて予め定められた所定の処理を行う手段、
    としてコンピュータを機能させるためのプログラム。
JP2018547139A 2016-10-24 2017-08-02 情報処理装置、情報処理方法及びプログラム Pending JPWO2018079001A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016207694 2016-10-24
JP2016207694 2016-10-24
PCT/JP2017/028066 WO2018079001A1 (ja) 2016-10-24 2017-08-02 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JPWO2018079001A1 true JPWO2018079001A1 (ja) 2019-09-12

Family

ID=62024818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018547139A Pending JPWO2018079001A1 (ja) 2016-10-24 2017-08-02 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US11494470B2 (ja)
EP (1) EP3531241A4 (ja)
JP (1) JPWO2018079001A1 (ja)
CN (1) CN109844693A (ja)
WO (1) WO2018079001A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7034856B2 (ja) * 2018-07-27 2022-03-14 京セラ株式会社 電子機器、制御プログラム及び表示制御方法
JP7244231B2 (ja) 2018-07-27 2023-03-22 京セラ株式会社 電子機器、制御プログラム及び表示制御方法
KR102063342B1 (ko) * 2018-09-13 2020-01-07 네이버 주식회사 이어셋 제어 방법 및 시스템
JP7292050B2 (ja) * 2019-02-19 2023-06-16 株式会社ジャパンディスプレイ 検出装置及び認証方法
JPWO2021054177A1 (ja) 2019-09-18 2021-03-25
EP4075378A4 (en) * 2019-12-12 2023-01-25 Panasonic Intellectual Property Management Co., Ltd. FINGERPRINT REGISTRATION PROCEDURE AND USER DEVICE
CN117311545B (zh) * 2023-11-28 2024-03-15 深茂智联(深圳)科技有限公司 智能触控面板控制方法、装置及智能触控面板

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1119069A (ja) * 1997-07-02 1999-01-26 Nippon Telegr & Teleph Corp <Ntt> 指紋認識集積回路
JP2001242952A (ja) * 2000-03-01 2001-09-07 Masahiko Okuno 個人認証装置、個人認証方法および個人認証プログラムを記録した記録媒体
JP2004259173A (ja) * 2003-02-27 2004-09-16 Foundation For Nara Institute Of Science & Technology ポインティングデバイス
JP2005235157A (ja) * 2004-01-23 2005-09-02 Sony Corp 指紋センサー、指紋照合装置および指紋読み取り方法
JP2006099230A (ja) * 2004-09-28 2006-04-13 Sharp Corp ポインティングデバイス
WO2006126310A1 (ja) * 2005-05-27 2006-11-30 Sharp Kabushiki Kaisha 表示装置
JP2011172159A (ja) * 2010-02-22 2011-09-01 Kyocera Mita Corp 画像形成装置
JP2015520456A (ja) * 2012-05-18 2015-07-16 アップル インコーポレイテッド 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース
JP2016066248A (ja) * 2014-09-25 2016-04-28 京セラドキュメントソリューションズ株式会社 操作装置、情報処理装置、操作方法
US20160260225A1 (en) * 2015-03-06 2016-09-08 Fingerprint Cards Ab Method and system for estimating finger movement

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212689A (ja) 1998-01-22 1999-08-06 Sony Corp 入力装置
CN1245680C (zh) 2001-02-09 2006-03-15 索尼公司 输入装置
DK1629624T3 (da) 2003-05-30 2013-06-24 Privaris Inc In-circuit sikkerhedssystem og fremgangsmåder til at styre adgang til og anvendelse af følsomme data
US8165355B2 (en) * 2006-09-11 2012-04-24 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US20060093192A1 (en) * 2004-11-03 2006-05-04 Bechtel J S Finger guide device
US20100020020A1 (en) * 2007-11-15 2010-01-28 Yuannan Chen System and Method for Typing Using Fingerprint Recognition System
US8724861B1 (en) * 2010-12-06 2014-05-13 University Of South Florida Fingertip force, location, and orientation sensor
US9256720B2 (en) * 2011-05-18 2016-02-09 Nextgenid, Inc. Enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems
JP6065025B2 (ja) * 2013-01-17 2017-01-25 富士通株式会社 生体認証装置、生体認証システム、及び生体認証方法
CN103315744B (zh) 2013-07-01 2014-10-08 中国科学院合肥物质科学研究院 一种手部震颤检测方法
KR102090956B1 (ko) * 2013-07-10 2020-04-14 삼성전자주식회사 지문 인식 방법 및 이를 위한 장치
WO2015020465A1 (en) * 2013-08-08 2015-02-12 Samsung Electronics Co., Ltd. Portable terminal, method of providing fingerprint input guide information of portable terminal, and nonvolatile recording medium for recording program for executing the method
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
KR102123092B1 (ko) * 2013-11-21 2020-06-15 삼성전자주식회사 지문 인식 방법 및 그 전자 장치
KR102206054B1 (ko) * 2014-05-09 2021-01-21 삼성전자주식회사 지문 처리 방법 및 그 전자 장치
KR102264808B1 (ko) * 2014-06-23 2021-06-14 삼성전자주식회사 지문 처리 방법 및 그 전자 장치
TWI530886B (zh) * 2015-01-29 2016-04-21 茂丞科技股份有限公司 具有操作於向量模式下的指紋感測器的電子設備
US20170032166A1 (en) * 2015-05-14 2017-02-02 Cross Match Technologies, Inc. Handheld biometric scanner device
DK179657B1 (en) * 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1119069A (ja) * 1997-07-02 1999-01-26 Nippon Telegr & Teleph Corp <Ntt> 指紋認識集積回路
JP2001242952A (ja) * 2000-03-01 2001-09-07 Masahiko Okuno 個人認証装置、個人認証方法および個人認証プログラムを記録した記録媒体
JP2004259173A (ja) * 2003-02-27 2004-09-16 Foundation For Nara Institute Of Science & Technology ポインティングデバイス
JP2005235157A (ja) * 2004-01-23 2005-09-02 Sony Corp 指紋センサー、指紋照合装置および指紋読み取り方法
JP2006099230A (ja) * 2004-09-28 2006-04-13 Sharp Corp ポインティングデバイス
WO2006126310A1 (ja) * 2005-05-27 2006-11-30 Sharp Kabushiki Kaisha 表示装置
JP2011172159A (ja) * 2010-02-22 2011-09-01 Kyocera Mita Corp 画像形成装置
JP2015520456A (ja) * 2012-05-18 2015-07-16 アップル インコーポレイテッド 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース
JP2016066248A (ja) * 2014-09-25 2016-04-28 京セラドキュメントソリューションズ株式会社 操作装置、情報処理装置、操作方法
US20160260225A1 (en) * 2015-03-06 2016-09-08 Fingerprint Cards Ab Method and system for estimating finger movement

Also Published As

Publication number Publication date
WO2018079001A1 (ja) 2018-05-03
US11494470B2 (en) 2022-11-08
EP3531241A1 (en) 2019-08-28
CN109844693A (zh) 2019-06-04
US20190278896A1 (en) 2019-09-12
EP3531241A4 (en) 2019-11-20

Similar Documents

Publication Publication Date Title
WO2018079001A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20210271340A1 (en) Gesture recognition devices and methods
US9285840B2 (en) Detachable sensory-interface device for a wireless personal communication device and method
EP3482345B1 (en) Implementation of biometric authentication with detection and display of an error indication
KR102437106B1 (ko) 마찰음을 이용하는 장치 및 방법
US20170270289A1 (en) User-authentication gestures
CN112699828A (zh) 生物识别认证的实现
US20150323998A1 (en) Enhanced user interface for a wearable electronic device
US20160140379A1 (en) Improvements in or relating to user authentication
KR20150128377A (ko) 지문 처리 방법 및 그 전자 장치
US10621410B2 (en) Method and system for operating a keyboard with multi functional keys, using fingerprints recognition
JP2008192092A (ja) タッチパネル装置、情報処理装置及びプログラム
WO2013163233A1 (en) Detachable sensory-interface device for a wireless personal communication device and method
US9760758B2 (en) Determining which hand is being used to operate a device using a fingerprint sensor
WO2017063763A1 (en) Secure biometric authentication
JP2015018413A (ja) 携帯端末、画像表示方法、及びプログラム
Liu et al. PrinType: Text Entry via Fingerprint Recognition
JP5104659B2 (ja) 入力装置、携帯端末装置、及び入力装置の入力方法
JP4734088B2 (ja) 本人認証装置およびその制御方法
KR20110048121A (ko) 지문인식을 이용한 사용자 인터페이스 제공단말기 및 방법
JP2018045729A (ja) 情報処理装置、情報処理方法、コンピュータプログラム、及び記録媒体
JP5029472B2 (ja) 文字入力装置、文字入力方法、プログラム及び記録媒体
JP2013246567A (ja) 情報処理装置、認証方法およびプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210831