JP6863902B2 - Augmented reality systems and methods for tracking biometric data - Google Patents
Augmented reality systems and methods for tracking biometric data Download PDFInfo
- Publication number
- JP6863902B2 JP6863902B2 JP2017558979A JP2017558979A JP6863902B2 JP 6863902 B2 JP6863902 B2 JP 6863902B2 JP 2017558979 A JP2017558979 A JP 2017558979A JP 2017558979 A JP2017558979 A JP 2017558979A JP 6863902 B2 JP6863902 B2 JP 6863902B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- eye
- biometric data
- identification
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 110
- 230000003190 augmentative effect Effects 0.000 title claims description 58
- 230000004424 eye movement Effects 0.000 claims description 43
- 238000012545 processing Methods 0.000 claims description 33
- 210000003128 head Anatomy 0.000 claims description 18
- 230000002207 retinal effect Effects 0.000 claims description 16
- 208000016339 iris pattern Diseases 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 9
- 230000005019 pattern of movement Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 20
- 238000012360 testing method Methods 0.000 description 11
- 238000013459 approach Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000009877 rendering Methods 0.000 description 9
- 210000001525 retina Anatomy 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000002596 correlated effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013095 identification testing Methods 0.000 description 4
- 230000004256 retinal image Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000737 periodic effect Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 210000000720 eyelash Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 210000002763 pyramidal cell Anatomy 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 206010072289 Eye colour change Diseases 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 206010028813 Nausea Diseases 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000037230 mobility Effects 0.000 description 1
- 210000001087 myotubule Anatomy 0.000 description 1
- 230000008693 nausea Effects 0.000 description 1
- 238000003333 near-infrared imaging Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001766 physiological effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/16—Implementing security features at a particular protocol layer
- H04L63/168—Implementing security features at a particular protocol layer above the transport layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/535—Tracking the activity of the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/30—Security of mobile devices; Security of mobile applications
- H04W12/33—Security of mobile devices; Security of mobile applications using wearable devices, e.g. using a smartwatch or smart-glasses
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Graphics (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Collating Specific Patterns (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Processing Or Creating Images (AREA)
Description
本開示は、バイオメトリックデータを利用して、拡張現実(AR)デバイスを通して実施される商取引を促進するためのシステムおよび方法に関する。 The present disclosure relates to systems and methods for using biometric data to facilitate commerce conducted through augmented reality (AR) devices.
現代のコンピューティングおよびディスプレイ技術は、デジタル的に再現された画像またはその一部が、現実であるように見える様式において、もしくはそのように知覚され得る様式においてユーザに提示される、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進している。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対して透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の視覚化の拡張として、デジタルまたは仮想画像情報の提示を伴う。 Modern computing and display technology presents digitally reproduced images or parts thereof to users in a manner that appears to be real, or in a manner that can be perceived as such, the so-called "virtual reality". Promotes the development of systems for "augmented reality" experiences. Virtual reality, or "VR" scenarios, typically involves the presentation of digital or virtual image information without transparency to other real-world visual inputs. Augmented reality, or "AR" scenarios, typically involve the presentation of digital or virtual image information as an extension of the visualization of the real world around the user.
例えば、図1を参照すると、拡張現実場面が、描写されており、AR技術のユーザは、人々、木々、建物を背景として、コンクリートのプラットフォーム1120を特徴とする実世界の公園のような設定を見る。これらのアイテムに加え、AR技術のユーザは、実世界プラットフォーム1120上に立っているロボット像1110と、飛んでいる漫画のようなアバタキャラクタ2とも知覚するが、これらの要素(2、1110)は、実世界には存在しない。ヒトの視知覚系は、非常に複雑であり、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、そのような拡張現実場面を生成することは、困難である。
For example, with reference to FIG. 1, an augmented reality scene is depicted, where users of AR technology set up a real-world park-like setting featuring
そのようなARデバイスは、あらゆるタイプの仮想コンテンツをユーザに提示するために使用され得ることが想定される。1つ以上の実施形態では、ARデバイスは、種々のゲームアプリケーションの状況において使用され、ユーザが、実在の状況を模倣する、単独プレーヤまたは複数プレーヤビデオ/拡張現実ゲームに参加することを可能にし得る。例えば、パーソナルコンピュータにおいてビデオゲームをプレーするのではなく、ARユーザは、現実世界に非常に似た条件におけるより大きなスケールでゲームをプレーし得る(例えば、「原寸」3Dモンスタが、ARユーザが公園を散歩しているとき、実際の建物の背後から現れ得る等)。実際、これは、ゲーム体験の信憑性および楽しみを著しく向上させる。 It is envisioned that such an AR device could be used to present any type of virtual content to the user. In one or more embodiments, the AR device can be used in the context of various gaming applications, allowing the user to participate in a single player or multiplayer video / augmented reality game that mimics a real situation. .. For example, rather than playing a video game on a personal computer, an AR user can play the game on a larger scale in conditions that are very similar to the real world (eg, a "full-scale" 3D monster, where the AR user parks. Can appear from behind the actual building while walking around). In fact, this significantly improves the credibility and enjoyment of the gaming experience.
図1は、ゲームアプリケーションの状況においてARデバイスの可能性を図示するが、ARデバイスは、多数の他の用途において使用され得、日常的コンピューティングデバイス(例えば、パーソナルコンピュータ、携帯電話、タブレットデバイス等)に取って代わることが予期され得る。仮想コンテンツをユーザの視野内に戦略的に置くことによって、ARデバイスは、ユーザが、同時に、ユーザの物理的環境に接続されながら、種々のコンピューティングタスク(例えば、電子メールをチェックする、用語をウェブ上で調べる、他のARユーザと電話会議する、映画を鑑賞する等)を行うことを可能にする、歩くパーソナルコンピュータと見なされ得る。例えば、机上の物理的デバイスに制約されるのではなく、ARユーザは、「移動中」(例えば、散歩しながら、日々の通勤時、そのオフィス以外の物理的場所において、そのコンピュータから離れて等)であり得、依然として、仮想電子メール画面を引き出し、例えば、電子メールをチェックすること、もしくはARデバイス上に画面を仮想的に事前設定することによって、友人とビデオ会議を行うことが可能であり、または別の例では、間に合わせの場所において仮想オフィスを構築することが可能である。多数の類似仮想現実/拡張現実シナリオが、想定され得る。 Although FIG. 1 illustrates the potential of AR devices in the context of gaming applications, AR devices can be used in many other applications, such as everyday computing devices such as personal computers, mobile phones, tablet devices, etc. ) Can be expected to replace. By strategically placing virtual content in the user's field of view, an AR device allows the user to simultaneously connect to the user's physical environment while performing various computing tasks (eg, checking email, terms). It can be considered a walking personal computer that allows you to search on the web, conference with other AR users, watch movies, etc.). For example, rather than being constrained by physical devices on the desk, AR users are "on the move" (eg, while taking a walk, on a daily commute, away from the computer in a physical location other than the office, etc. ), And it is still possible to have a video conference with a friend by pulling out a virtual email screen and, for example, checking the email or virtually presetting the screen on the AR device. , Or in another example, it is possible to build a virtual office in a makeshift location. Many similar virtual reality / augmented reality scenarios can be envisioned.
下層コンピューティング技術の性質におけるこのシフトは、それなりに利点も課題もある。ヒト視覚系の生理学的限界に配慮した、前述のもの等の拡張現実場面を提示するために、ARデバイスは、所望の仮想コンテンツをユーザの物理的環境内の1つ以上の実オブジェクトと関連して投影するために、ユーザの物理的周囲を認知しなければならない。この目的を達成するために、ARデバイスは、典型的には、種々の追跡デバイス(例えば、眼追跡デバイス、GPS等)、カメラ(例えば、視野カメラ、赤外線カメラ、深度カメラ等)、およびセンサ(例えば、加速度計、ジャイロスコープ等)を装備し、ユーザの周囲内の種々の実オブジェクトと関連して、ユーザの位置、向き、距離等を査定し、実世界のオブジェクトおよび他のそのような機能性を検出し、識別する。 This shift in the nature of lower-tier computing technology has its own advantages and challenges. To present augmented reality scenes such as those mentioned above, taking into account the physiological limitations of the human visual system, AR devices associate desired virtual content with one or more real objects within the user's physical environment. You must be aware of the user's physical surroundings in order to project. To achieve this goal, AR devices typically include various tracking devices (eg, eye tracking devices, GPS, etc.), cameras (eg, field cameras, infrared cameras, depth cameras, etc.), and sensors (eg, field cameras, infrared cameras, depth cameras, etc.). Equipped with, for example, accelerometers, gyroscopes, etc.) to assess the user's position, orientation, distance, etc. in relation to various real objects within the user's surroundings, real-world objects and other such functions. Detects and identifies sex.
ARデバイスがARユーザおよびその周囲についての種々のタイプのデータを追跡するように構成されている場合、1つ以上の実施形態では、このデータは、有利には、最小限の入力がユーザから要求されることを確実にし、かつ殆どまたは全く中断をユーザのAR体験に生じさせずに、ユーザの種々のタイプの取引を補助するために活用され得る。 If the AR device is configured to track various types of data about the AR user and its surroundings, in one or more embodiments, this data advantageously requires minimal input from the user. It can be utilized to assist various types of transactions of the user while ensuring that it is done and with little or no interruption in the user's AR experience.
詳しく説明すると、従来の取引(金融またはその他)は、商取引に参加するために、典型的には、ユーザが、ある形態の金銭トークン(例えば、現金、小切手、クレジットカード等)、ある場合には、身分証明書(例えば、運転免許証等)、および認証(例えば、署名等)を物理的に携行することを要求する。あるユーザが、百貨店の中に入って行くとする。任意の種類の購入を行うために、ユーザは、典型的には、商品を取り上げ、商品をカートの中に入れ、レジまで歩いて行き、レジ係の前で列に並び、レジ係がいくつかの商品を走査するのを待ち、クレジットカードを取り出し、身分証明書を提供し、クレジットカード領収証に署名し、商品の将来的返品のために領収証を保管する。従来の金融取引では、これらのステップは、必要ではあるが、時間がかかり、非効率的であり、ある場合には、これらのステップは、ユーザが購入を行うことを抑止または禁止する(例えば、ユーザが金銭トークンまたは身分証明書を携行していない等)。しかしながら、ARデバイスの状況では、これらのステップは、冗長かつ不必要である。1つ以上の実施形態では、ARデバイスは、ユーザが、ユーザが前述の面倒な手順を行うことを要求せずに、多くのタイプの取引をシームレスに行うことを可能にするように構成され得る。 More specifically, traditional transactions (financial or other) typically involve the user in some form of monetary token (eg, cash, check, credit card, etc.), in some cases, in order to participate in a commercial transaction. Require physical carrying of identification (eg, driver's license, etc.), and authentication (eg, signature, etc.). Suppose a user goes inside a department store. To make any kind of purchase, the user typically picks up the item, puts the item in the cart, walks to the cashier, lines up in front of the cashier, and has some cashiers. Wait for the item to be scanned, remove the credit card, provide identification, sign the credit card receipt, and keep the receipt for future returns of the item. In traditional financial transactions, these steps are necessary, but time consuming and inefficient, and in some cases these steps deter or prohibit users from making purchases (eg,). The user does not carry a financial token or ID card, etc.). However, in the context of AR devices, these steps are redundant and unnecessary. In one or more embodiments, the AR device may be configured to allow the user to seamlessly perform many types of transactions without requiring the user to perform the tedious steps described above. ..
したがって、ARユーザが日常的取引に参加することを補助するためのより優れたソリューションの必要性がある。 Therefore, there is a need for better solutions to help AR users participate in routine transactions.
本発明の実施形態は、1人以上のユーザのための仮想現実および/もしくは拡張現実相互作用を促進するためのデバイス、システム、ならびに方法を対象とする。 Embodiments of the invention cover devices, systems, and methods for facilitating virtual reality and / or augmented reality interactions for one or more users.
一側面では、拡張現実デバイスを通して取引を実施する方法は、バイオメトリックデータをユーザから捕捉することと、捕捉されたバイオメトリックデータに少なくとも部分的に基づいて、ユーザの識別を決定することと、決定された識別に基づいて、取引のためにユーザを認証することとを含む。 On the one hand, the method of conducting a transaction through an augmented reality device is to capture biometric data from the user and to determine the user's identity based at least in part on the captured biometric data. Includes authenticating the user for a transaction based on the identification made.
1つ以上の実施形態では、方法はさらに、取引に関するデータの組を金融機関に伝送することを含む。1つ以上の実施形態では、バイオメトリックデータは、虹彩パターンである。1つ以上の実施形態では、バイオメトリックデータは、ユーザの音声記録である。1つ以上の実施形態では、バイオメトリックデータは、網膜署名である。1つ以上の実施形態では、バイオメトリックデータは、ユーザの皮膚に関連付けられた特性である。 In one or more embodiments, the method further comprises transmitting a set of data about the transaction to a financial institution. In one or more embodiments, the biometric data is an iris pattern. In one or more embodiments, the biometric data is a voice recording of the user. In one or more embodiments, the biometric data is a retinal signature. In one or more embodiments, the biometric data is a property associated with the user's skin.
1つ以上の実施形態では、バイオメトリックデータは、ユーザの眼の移動を捕捉する1つ以上の眼追跡カメラを通して捕捉される。1つ以上の実施形態では、バイオメトリックデータは、ユーザの眼の移動のパターンである。1つ以上の実施形態では、バイオメトリックデータは、ユーザの眼の瞬きパターンである。 In one or more embodiments, the biometric data is captured through one or more eye tracking cameras that capture the movement of the user's eyes. In one or more embodiments, the biometric data is a pattern of movement of the user's eyes. In one or more embodiments, the biometric data is a blink pattern of the user's eyes.
1つ以上の実施形態では、拡張現実デバイスは、頭部搭載型であり、拡張現実デバイスは、ユーザのために個々に較正される。1つ以上の実施形態では、バイオメトリックデータは、ユーザに関する所定のデータと比較される。1つ以上の実施形態では、所定のデータは、ユーザの眼の既知の署名移動である。 In one or more embodiments, the augmented reality device is head-mounted and the augmented reality device is individually calibrated for the user. In one or more embodiments, the biometric data is compared to predetermined data about the user. In one or more embodiments, the predetermined data is a known signature transfer in the user's eye.
1つ以上の実施形態では、所定のデータは、既知の虹彩パターンである。1つ以上の実施形態では、所定のデータは、既知の網膜パターンである。1つ以上の実施形態では、方法はさらに、ユーザが取引を行いたいという願望を検出することと、検出された願望に少なくとも部分的に基づいて、ユーザからバイオメトリックデータを要求することと、バイオメトリックデータを所定のバイオメトリックデータと比較し、結果を生成することであって、ユーザは、結果に少なくとも部分的に基づいて認証される、こととを含む。 In one or more embodiments, the predetermined data is a known iris pattern. In one or more embodiments, the predetermined data is a known retinal pattern. In one or more embodiments, the method further detects the user's desire to make a transaction and requests biometric data from the user, at least in part, based on the detected desire. Comparing metric data with predetermined biometric data to produce a result, including that the user is authenticated based on the result, at least in part.
1つ以上の実施形態では、取引は、商取引である。1つ以上の実施形態では、方法はさらに、ユーザの認証をユーザに関連付けられた金融機関に通信することであって、金融機関は、認証に少なくとも部分的に基づいて、ユーザの代わりに支払を行う、ことを含む。1つ以上の実施形態では、金融機関は、支払をユーザによって示される1つ以上の販売業者に伝送する。 In one or more embodiments, the transaction is a commercial transaction. In one or more embodiments, the method is further to communicate the user's authentication to the financial institution associated with the user, who pays on behalf of the user, at least in part, based on the authentication. Including doing. In one or more embodiments, the financial institution transmits the payment to one or more distributors indicated by the user.
1つ以上の実施形態では、方法はさらに、拡張現実デバイスに関連付けられた中断イベントまたは取引イベントを検出することを含む。1つ以上の実施形態では、方法はさらに、検出されたイベントに少なくとも部分的に基づいて、ユーザを再認証するために、新しいバイオメトリックデータをユーザから捕捉することを含む。1つ以上の実施形態では、アクティビティの中断は、ユーザの頭部からの拡張現実デバイスの除去に少なくとも部分的に基づいて、検出される。 In one or more embodiments, the method further comprises detecting an interruption or trading event associated with an augmented reality device. In one or more embodiments, the method further comprises capturing new biometric data from the user in order to reauthenticate the user, at least in part, based on the detected event. In one or more embodiments, the interruption of activity is detected, at least in part, based on the removal of the augmented reality device from the user's head.
1つ以上の実施形態では、アクティビティの中断は、拡張現実デバイスのネットワークとの接続性の喪失に少なくとも部分的に基づいて、検出される。1つ以上の実施形態では、取引イベントは、ユーザによる取引の明示的承認に少なくとも部分的に基づいて、検出される。1つ以上の実施形態では、取引イベントは、ユーザの注視に関連付けられたヒートマップに少なくとも部分的に基づいて、検出される。 In one or more embodiments, the interruption of activity is detected, at least in part, based on the loss of connectivity of the augmented reality device to the network. In one or more embodiments, the transaction event is detected, at least in part, based on the explicit approval of the transaction by the user. In one or more embodiments, trading events are detected, at least in part, based on the heatmap associated with the user's gaze.
1つ以上の実施形態では、取引イベントは、拡張現実デバイスを通して受信されるユーザ入力に少なくとも部分的に基づいて、検出される。1つ以上の実施形態では、ユーザ入力は、眼のジェスチャを含む。1つ以上の実施形態では、ユーザ入力は、手のジェスチャを含む。 In one or more embodiments, the trading event is detected, at least in part, based on user input received through the augmented reality device. In one or more embodiments, the user input comprises an eye gesture. In one or more embodiments, the user input comprises a hand gesture.
別の側面では、拡張現実ディスプレイシステムは、バイオメトリックデータをユーザから捕捉するためのバイオメトリックデータ追跡デバイスと、バイオメトリックデータ追跡デバイスに動作可能に結合され、捕捉されたバイオメトリックデータを処理し、捕捉されたバイオメトリックデータに少なくとも部分的に基づいて、ユーザの識別を決定するためのプロセッサと、少なくとも金融機関と通信し、取引のためにユーザを認証するためのサーバとを備えている。 In another aspect, the augmented reality display system is operably coupled to a biometric data tracking device for capturing biometric data from the user and the biometric data tracking device to process the captured biometric data. It includes a processor for determining user identification, at least partially based on captured biometric data, and at least a server for communicating with financial institutions and authenticating users for transactions.
1つ以上の実施形態では、バイオメトリックデータは、眼移動データである。1つ以上の実施形態では、バイオメトリックデータは、ユーザの虹彩の画像に対応する。1つ以上の実施形態では、サーバはまた、取引に関するデータの組を金融機関に伝送する。1つ以上の実施形態では、バイオメトリックデータは、虹彩パターンである。 In one or more embodiments, the biometric data is eye movement data. In one or more embodiments, the biometric data corresponds to an image of the user's iris. In one or more embodiments, the server also transmits a set of data about the transaction to the financial institution. In one or more embodiments, the biometric data is an iris pattern.
1つ以上の実施形態では、バイオメトリックデータは、ユーザの音声記録である。1つ以上の実施形態では、バイオメトリックデータは、網膜署名である。1つ以上の実施形態では、バイオメトリックデータは、ユーザの皮膚に関連付けられた特性である。1つ以上の実施形態では、バイオメトリック追跡デバイスは、1つ以上の眼追跡カメラを備え、ユーザの眼の移動を捕捉する。1つ以上の実施形態では、バイオメトリックデータは、ユーザの眼の移動のパターンである。 In one or more embodiments, the biometric data is a voice recording of the user. In one or more embodiments, the biometric data is a retinal signature. In one or more embodiments, the biometric data is a property associated with the user's skin. In one or more embodiments, the biometric tracking device comprises one or more eye tracking cameras to capture the movement of the user's eyes. In one or more embodiments, the biometric data is a pattern of movement of the user's eyes.
1つ以上の実施形態では、バイオメトリックデータは、ユーザの眼の瞬きパターンである。1つ以上の実施形態では、拡張現実ディスプレイシステムは、頭部搭載型であり、拡張現実ディスプレイシステムは、ユーザのために個々に較正される。1つ以上の実施形態では、プロセッサはまた、バイオメトリックデータをユーザに関する所定のデータと比較する。1つ以上の実施形態では、所定のデータは、ユーザの眼の既知の署名移動である。1つ以上の実施形態では、所定のデータは、既知の虹彩パターンである。1つ以上の実施形態では、所定のデータは、既知の網膜パターンである。1つ以上の実施形態では、プロセッサは、ユーザが取引を行うことを望んでいることを検出し、プロセッサは、検出に少なくとも部分的に基づいて、バイオメトリックデータをユーザから要求するためのユーザインターフェースをさらに備え、プロセッサは、バイオメトリックデータを所定のバイオメトリックデータと比較し、比較に少なくとも部分的に基づいて、ユーザを認証する。 In one or more embodiments, the biometric data is a blink pattern of the user's eyes. In one or more embodiments, the augmented reality display system is head-mounted and the augmented reality display system is individually calibrated for the user. In one or more embodiments, the processor also compares biometric data with predetermined data about the user. In one or more embodiments, the predetermined data is a known signature transfer in the user's eye. In one or more embodiments, the predetermined data is a known iris pattern. In one or more embodiments, the predetermined data is a known retinal pattern. In one or more embodiments, the processor detects that the user wants to make a transaction, and the processor requests biometric data from the user, at least in part, based on the detection. Further, the processor compares the biometric data with the predetermined biometric data and authenticates the user based on the comparison, at least in part.
1つ以上の実施形態では、取引は、商取引である。1つ以上の実施形態では、プロセッサは、ユーザの認証をユーザに関連付けられた金融機関に通信し、金融機関は、認証に少なくとも部分的に基づいて、ユーザの代わりに支払を行う。1つ以上の実施形態では、金融機関は、支払をユーザによって示される1つ以上の販売業者に伝送する。 In one or more embodiments, the transaction is a commercial transaction. In one or more embodiments, the processor communicates the user's authentication to the financial institution associated with the user, who makes payments on behalf of the user, at least in part based on the authentication. In one or more embodiments, the financial institution transmits the payment to one or more distributors indicated by the user.
1つ以上の実施形態では、プロセッサは、拡張現実デバイスに関連付けられた中断イベントまたは取引イベントを検出し、バイオメトリック追跡デバイスは、検出されたイベントに少なくとも部分的に基づいて、ユーザを再認証するために、新しいバイオメトリックデータをユーザから捕捉する。1つ以上の実施形態では、アクティビティの中断は、ユーザの頭部からの拡張現実デバイスの除去に少なくとも部分的に基づいて、検出される。 In one or more embodiments, the processor detects interruption or trading events associated with the augmented reality device, and the biometric tracking device reauthenticates the user based at least in part on the detected events. To capture new biometric data from users. In one or more embodiments, the interruption of activity is detected, at least in part, based on the removal of the augmented reality device from the user's head.
1つ以上の実施形態では、アクティビティの中断は、拡張現実デバイスのネットワークとの接続性の喪失に少なくとも部分的に基づいて、検出される。1つ以上の実施形態では、取引イベントは、ユーザによる取引の明示的承認に少なくとも部分的に基づいて、検出される。1つ以上の実施形態では、取引イベントは、ユーザの注視に関連付けられたヒートマップに少なくとも部分的に基づいて、検出される。1つ以上の実施形態では、取引イベントは、拡張現実デバイスを通して受信されるユーザ入力に少なくとも部分的に基づいて、検出される。1つ以上の実施形態では、ユーザ入力は、眼のジェスチャを含む。1つ以上の実施形態では、ユーザ入力は、手のジェスチャを含む。 In one or more embodiments, the interruption of activity is detected, at least in part, based on the loss of connectivity of the augmented reality device to the network. In one or more embodiments, the transaction event is detected, at least in part, based on the explicit approval of the transaction by the user. In one or more embodiments, trading events are detected, at least in part, based on the heatmap associated with the user's gaze. In one or more embodiments, the trading event is detected, at least in part, based on user input received through the augmented reality device. In one or more embodiments, the user input comprises an eye gesture. In one or more embodiments, the user input comprises a hand gesture.
1つ以上の実施形態では、バイオメトリック追跡デバイスは、眼追跡システムを備えている。1つ以上の実施形態では、バイオメトリック追跡デバイスは、触知デバイスを備えている。1つ以上の実施形態では、バイオメトリック追跡デバイスは、ユーザの眼に関する生理学的データを測定するセンサを備えている。
本明細書は、例えば、以下の項目も提供する。
(項目1)
拡張現実デバイスを通して取引を実施する方法であって、前記方法は、
バイオメトリックデータをユーザから捕捉することと、
前記捕捉されたバイオメトリックデータに少なくとも部分的に基づいて、前記ユーザの識別を決定することと、
前記決定された識別に基づいて、前記取引のために前記ユーザを認証することと
を含む、方法。
(項目2)
前記取引に関するデータの組を金融機関に伝送することをさらに含む、項目1に記載の方法。
(項目3)
前記バイオメトリックデータは、虹彩パターンである、項目1に記載の方法。
(項目4)
前記バイオメトリックデータは、前記ユーザの音声記録である、項目1に記載の方法。
(項目5)
前記バイオメトリックデータは、網膜署名である、項目1に記載の方法。
(項目6)
前記バイオメトリックデータは、前記ユーザの皮膚に関連付けられた特性である、項目1に記載の方法。
(項目7)
前記バイオメトリックデータは、前記ユーザの眼の移動を捕捉する1つ以上の眼追跡カメラを通して捕捉される、項目1に記載の方法。
(項目8)
前記バイオメトリックデータは、前記ユーザの眼の移動のパターンである、項目1に記載の方法。
(項目9)
前記バイオメトリックデータは、前記ユーザの眼の瞬きパターンである、項目1に記載の方法。
(項目10)
前記拡張現実デバイスは、頭部搭載型であり、前記拡張現実デバイスは、前記ユーザのために個々に較正される、項目1に記載の方法。
(項目11)
前記バイオメトリックデータは、前記ユーザに関する所定のデータと比較される、項目1に記載の方法。
(項目12)
前記所定のデータは、前記ユーザの眼の既知の署名移動である、項目11に記載の方法。
(項目13)
前記所定のデータは、既知の虹彩パターンである、項目11に記載の方法。
(項目14)
前記所定のデータは、既知の網膜パターンである、項目11に記載の方法。
(項目15)
前記ユーザが取引を行いたいという願望を検出することと、
前記検出された願望に少なくとも部分的に基づいて、前記ユーザから前記バイオメトリックデータを要求することと、
前記バイオメトリックデータを所定のバイオメトリックデータと比較し、結果を生成することであって、前記ユーザは、前記結果に少なくとも部分的に基づいて認証される、ことと
をさらに含む、項目1に記載の方法。
(項目16)
前記取引は、商取引である、項目1に記載の方法。
(項目17)
前記ユーザの認証を前記ユーザに関連付けられた金融機関に通信することをさらに含み、前記金融機関は、前記認証に少なくとも部分的に基づいて、前記ユーザの代わりに支払を行う、項目1に記載の方法。
(項目18)
前記金融機関は、前記支払を前記ユーザによって示される1つ以上の販売業者に伝送する、項目17に記載の方法。
(項目19)
前記拡張現実デバイスに関連付けられた中断イベントまたは取引イベントを検出することと、
前記検出されたイベントに少なくとも部分的に基づいて、前記ユーザを再認証するために、新しいバイオメトリックデータを前記ユーザから捕捉することと
をさらに含む、項目1に記載の方法。
(項目20)
前記アクティビティの中断は、前記ユーザの頭部からの前記拡張現実デバイスの除去に少なくとも部分的に基づいて、検出される、項目19に記載の方法。
(項目21)
前記アクティビティの中断は、前記拡張現実デバイスのネットワークとの接続性の喪失に少なくとも部分的に基づいて、検出される、項目19に記載の方法。
(項目22)
前記取引イベントは、前記ユーザによる取引の明示的承認に少なくとも部分的に基づいて、検出される、項目19に記載の方法。
(項目23)
前記取引イベントは、前記ユーザの注視に関連付けられたヒートマップに少なくとも部分的に基づいて、検出される、項目19に記載の方法。
(項目24)
前記取引イベントは、前記拡張現実デバイスを通して受信されるユーザ入力に少なくとも部分的に基づいて、検出される、項目19に記載の方法。
(項目25)
前記ユーザ入力は、眼のジェスチャを含む、項目24に記載の方法。
(項目26)
前記ユーザ入力は、手のジェスチャを含む、項目24に記載の方法。
(項目27)
前記方法ステップを実装する手段を有するシステムとして実装される項目1−26に記載の方法。
(項目28)
前記方法ステップを実行するための実行可能コードを有するコンピュータ使用可能記憶媒体を備えているコンピュータプログラム製品として実装される項目1−26に記載の方法。
In one or more embodiments, the biometric tracking device comprises an eye tracking system. In one or more embodiments, the biometric tracking device comprises a tactile device. In one or more embodiments, the biometric tracking device comprises a sensor that measures physiological data about the user's eye.
The present specification also provides, for example, the following items.
(Item 1)
A method of conducting a transaction through an augmented reality device, said method.
Capturing biometric data from users and
Determining the identification of the user based at least in part on the captured biometric data.
To authenticate the user for the transaction based on the determined identification.
Including methods.
(Item 2)
The method of item 1, further comprising transmitting a set of data relating to the transaction to a financial institution.
(Item 3)
The method according to item 1, wherein the biometric data is an iris pattern.
(Item 4)
The method according to item 1, wherein the biometric data is a voice recording of the user.
(Item 5)
The method according to item 1, wherein the biometric data is a retinal signature.
(Item 6)
The method of item 1, wherein the biometric data is a property associated with the user's skin.
(Item 7)
The method of item 1, wherein the biometric data is captured through one or more eye tracking cameras that capture the movement of the user's eyes.
(Item 8)
The method according to item 1, wherein the biometric data is a pattern of eye movement of the user.
(Item 9)
The method according to item 1, wherein the biometric data is a blink pattern of the user's eyes.
(Item 10)
The method of item 1, wherein the augmented reality device is head-mounted and the augmented reality device is individually calibrated for the user.
(Item 11)
The method of item 1, wherein the biometric data is compared with predetermined data about the user.
(Item 12)
The method of item 11, wherein the predetermined data is a known signature movement of the user's eye.
(Item 13)
The method of item 11, wherein the predetermined data is a known iris pattern.
(Item 14)
The method of item 11, wherein the predetermined data is a known retinal pattern.
(Item 15)
To detect the user's desire to make a transaction
Requesting the biometric data from the user, at least in part, based on the detected desire.
By comparing the biometric data with predetermined biometric data and generating a result, the user is authenticated based on the result at least in part.
The method according to item 1, further comprising.
(Item 16)
The method according to item 1, wherein the transaction is a commercial transaction.
(Item 17)
The first item, wherein the user's authentication further comprises communicating the user's authentication with a financial institution associated with the user, the financial institution making payments on behalf of the user, at least in part based on the authentication. Method.
(Item 18)
17. The method of item 17, wherein the financial institution transmits the payment to one or more sellers indicated by the user.
(Item 19)
To detect interruption or trading events associated with the augmented reality device,
To capture new biometric data from the user in order to reauthenticate the user, at least in part, based on the detected event.
The method according to item 1, further comprising.
(Item 20)
19. The method of item 19, wherein the interruption of the activity is detected, at least in part, based on the removal of the augmented reality device from the user's head.
(Item 21)
19. The method of item 19, wherein the interruption in activity is detected, at least in part, based on the loss of connectivity of the augmented reality device with the network.
(Item 22)
19. The method of item 19, wherein the transaction event is detected, at least in part, based on the explicit approval of the transaction by the user.
(Item 23)
19. The method of item 19, wherein the trading event is detected, at least in part, based on a heatmap associated with the user's gaze.
(Item 24)
19. The method of item 19, wherein the trading event is detected, at least in part, based on user input received through the augmented reality device.
(Item 25)
24. The method of
(Item 26)
24. The method of
(Item 27)
The method of item 1-26, which is implemented as a system having means for implementing the method steps.
(Item 28)
The method of item 1-26, which is implemented as a computer program product comprising a computer-enabled storage medium having executable code for performing the method steps.
本発明の追加のならびに他の目的、特徴、および利点は、発明を実施するための形態、図面、および請求項に説明される。 Additional and other purposes, features, and advantages of the invention are described in the embodiments, drawings, and claims for carrying out the invention.
図面は、本発明の種々の実施形態の設計および可用性を図示する。図は、必ずしも正確な縮尺で描かれておらず、同様の構造または機能の要素は、図全体を通して同様の参照番号によって表されることに留意されたい。本発明の種々の実施形態の前述および他の利点ならびに対象を得る方法をより深く理解するために、簡単に前述された発明を実施するための形態が、付随の図面に図示されるその具体的実施形態を参照することによって与えられるであろう。これらの図面は、本発明の典型的実施形態のみを描写し、したがって、その範囲の限定として見なされないことを理解した上で、本発明は、付随の図面の使用を通して追加の具体性および詳細とともに記載ならびに説明されるであろう。
本発明の種々の実施形態は、単一実施形態または複数の実施形態における、電子回路設計のマルチシナリオ物理認知設計を実装する方法、システム、および製造品を対象とする。本発明の他の目的、特徴、および利点は、発明を実施するための形態、図面、および請求項に説明される。 Various embodiments of the present invention cover methods, systems, and manufactured products that implement a multi-scenario physical cognitive design for electronic circuit design in a single embodiment or multiple embodiments. Other objects, features, and advantages of the invention are described in embodiments, drawings, and claims for carrying out the invention.
ここで、種々の実施形態が、当業者が本発明を実践することを可能にするように、本発明の例証的実施例として提供される、図面を参照して詳細に説明されるであろう。留意すべきこととして、以下の図および実施例は、本発明の範囲を限定することを意味するものではない。本発明のある要素が、既知のコンポーネント(または方法もしくはプロセス)を使用して部分的または完全に実装され得る場合、本発明の理解のために必要なそのような既知のコンポーネント(または方法もしくはプロセス)のそれらの部分のみ、説明され、そのような既知のコンポーネント(または方法もしくはプロセス)の他の部分の詳細な説明は、本発明を曖昧にしないように、省略されるであろう。さらに、種々の実施形態は、例証として本明細書に参照されるコンポーネントの現在および将来的既知の均等物を包含する。 Here, various embodiments will be described in detail with reference to the drawings provided as exemplary embodiments of the invention to allow one of ordinary skill in the art to practice the invention. .. It should be noted that the figures and examples below do not imply limiting the scope of the invention. If some elements of the invention can be partially or fully implemented using known components (or methods or processes), such known components (or methods or processes) necessary for the understanding of the invention. ) Only those parts will be described, and detailed description of other parts of such known components (or methods or processes) will be omitted so as not to obscure the present invention. In addition, various embodiments include current and future known equivalents of the components referenced herein by way of example.
開示されるのは、ARユーザに関連付けられたバイオメトリックデータを追跡し、バイオメトリックデータを利用して、商取引を補助する方法およびシステムである。1つ以上の実施形態では、ARデバイスは、眼の識別技法(例えば、虹彩パターン、両眼離反運動、眼の運動、錐体細胞および桿体細胞のパターン、眼移動のパターン等)を利用して、購入のためにユーザを認証し得る。有利には、このタイプのユーザ認証は、商取引を実施することにおける摩擦コストを最小化し、ユーザが、最小限の努力および/または中断を伴って、シームレスに購入を行うことを可能にする(例えば、実店舗、オンラインストア、広告等に応答して)。以下の開示は、主に、眼関連バイオメトリックデータに基づく認証に焦点を当てるが、他のタイプのバイオメトリックデータも、他の実施形態では、認証目的のために同様に使用され得ることを理解されたい。種々の実施形態は、以下に説明されるであろうように、拡張現実(AR)システムの状況における売買を実施する新しい概念図式について議論するが、本明細書に開示される技法は、任意の既存および/または公知のARシステムから独立して使用され得ることを理解されたい。したがって、以下に議論される例は、例示目的のためにすぎず、本発明は、ARシステムに限定されるものとして読まれるべきではない。 Disclosed are methods and systems that track biometric data associated with AR users and utilize the biometric data to assist in commerce. In one or more embodiments, the AR device utilizes eye identification techniques (eg, iris pattern, binocular detachment movement, eye movement, pyramidal and rod cell patterns, eye movement patterns, etc.). Can authenticate the user for purchase. Advantageously, this type of user authentication minimizes the frictional cost of conducting a commercial transaction and allows the user to make a seamless purchase with minimal effort and / or interruption (eg). , In response to physical stores, online stores, advertisements, etc.). The following disclosure focuses primarily on authentication based on eye-related biometric data, but understand that other types of biometric data may also be used for authentication purposes in other embodiments. I want to be. Various embodiments discuss new conceptual schemes for conducting buying and selling in the context of augmented reality (AR) systems, as described below, but the techniques disclosed herein are optional. It should be understood that it can be used independently of existing and / or known AR systems. Therefore, the examples discussed below are for illustrative purposes only and the present invention should not be read as limited to AR systems.
図2A−2Dを参照すると、いくつかの一般的コンポーネントオプションが、図示される。図2A−2Dの議論が続く発明を実施するための形態の一部では、種々のシステム、サブシステム、およびコンポーネントは、ヒトVRならびに/またはARのための高品質かつ快適に知覚されるディスプレイシステムを提供する目的に対処するために提示される。 With reference to FIG. 2A-2D, some common component options are illustrated. FIG. 2A-2D is a display system in which various systems, subsystems, and components are perceived as high quality and comfortably for human VR and / or AR in some of the embodiments for which the discussion continues. Is presented to address the purpose of providing.
図2Aに示されるように、ARシステムユーザ60は、ユーザの眼の正面に位置付けられるARディスプレイシステム62に結合されるフレーム64構造を装着して描写される。スピーカ66が、描写される構成においてフレーム64に結合され、ユーザの外耳道に隣接して位置付けられる(一実施形態では、別のスピーカ(図示せず)が、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する)。ディスプレイ62は、有線導線または無線接続性等によって、ローカル処理およびデータモジュールに動作可能に結合され68、ローカル処理およびデータモジュールは、フレーム64に固定して取り付けられるか、図2Bの実施形態に示されるようにヘルメットまたは帽子80に固定して取り付けられるか、ヘッドホン内に埋設されるか、図2Cの実施形態に示されるようにリュック式構成においてユーザ60の胴体82に除去可能に取り付けられるか、または図2Dの実施形態に示されるようにベルト結合式構成においてユーザ60の腰84に除去可能に取り付けられる等、種々の構成において搭載され得る。
As shown in FIG. 2A, the
ローカル処理およびデータモジュール70は、電力効率的プロセッサまたはコントローラと、フラッシュメモリ等のデジタルメモリとを備え得、両方とも、データの処理、キャッシュ、および記憶を補助するために利用され得、データは、a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/または、ジャイロスコープ等のフレーム64に動作可能に結合され得る、センサから捕捉され、および/またはb)おそらく、そのような処理もしくは読み出し後、ディスプレイ62への通過のために、遠隔処理モジュール72および/または遠隔データリポジトリ74を使用して、取得ならびに/もしくは処理される。ローカル処理およびデータモジュール70は、これらの遠隔モジュール(72、74)が、互いに動作可能に結合され、ローカル処理およびデータモジュール70へのリソースとして利用可能であるように、有線または無線通信リンク等を介して、遠隔処理モジュール72および遠隔データリポジトリ74に動作可能に結合(76、78)され得る。
The local processing and
一実施形態では、遠隔処理モジュール72は、データおよび/または画像情報を分析ならびに処理するように構成される1つ以上の比較的に高度なプロセッサまたはコントローラを備え得る。一実施形態では、遠隔データリポジトリ74は、インターネットまたは「クラウド」リソース構成内の他のネットワーキング構成を通して利用可能であり得る比較的に大規模なデジタルデータ記憶設備を備え得る。一実施形態では、全てのデータが、ローカル処理およびデータモジュール内に記憶され、全ての計算が、そこで行われ、それは、任意の遠隔モジュールを伴わない完全自律的使用を可能にする。
In one embodiment, the
図2A−2Dを参照して説明されるように、ARシステムは、ARユーザおよび周囲環境についてのデータを収集する種々のデバイスから入力を継続的に受信する。ここで図3を参照すると、例示的拡張現実ディスプレイデバイスの種々のコンポーネントが、説明されるであろう。他の実施形態が、追加のコンポーネントを有し得ることを理解されたい。それにもかかわらず、図3は、種々のコンポーネントおよびARデバイスによって収集され得るデータのタイプの基本概念を提供する。 As described with reference to FIGS. 2A-2D, the AR system continuously receives input from various devices that collect data about AR users and their surroundings. With reference to FIG. 3, various components of an exemplary augmented reality display device will be described. It should be understood that other embodiments may have additional components. Nevertheless, FIG. 3 provides a basic concept of the types of data that can be collected by various components and AR devices.
ここで図3を参照すると、概略は、クラウドコンピューティングアセット46とローカル処理アセット(308、120)との間の協調を図示する。一実施形態では、クラウド46アセットは、有線または無線ネットワーキング(40、42)を介して、直接、ユーザの頭部搭載型デバイス120またはベルト308に結合されるように構成される構造内に格納され得るプロセッサおよびメモリ構成等のローカルコンピューティングアセット(120、308)の一方または両方に動作可能に結合される(無線が、移動性のために好ましく、有線は、所望され得るある高帯域幅または高データ量転送のために好ましい)。ユーザにローカルのこれらのコンピューティングアセットは、同様に、有線および/または無線接続性構成44を介して、互いにも動作可能に結合され得る。一実施形態では、低慣性および小型サイズ頭部搭載型サブシステム120を維持するために、ユーザとクラウド46との間の一次転送は、ベルトベースのサブシステム308とクラウドとの間のリンクを介し得、頭部搭載型サブシステム120は、例えば、パーソナルコンピューティング周辺接続性用途において現在採用されているように、主に、超広帯域(「UWB」)接続性等の無線接続性を使用して、ベルトベースのサブシステム308にデータテザリングされる。クラウド46を通して、ARディスプレイシステム120は、クラウド内にホストされた1つ以上のARサーバ110と相互作用し得る。種々のARサーバ110は、サーバ110が互いに通信することを可能にする、通信リンク115を有し得る。
Here, with reference to FIG. 3, the schematic illustrates the coordination between the
効率的ローカルおよび遠隔処理協調と、ユーザインターフェースまたはユーザ「ディスプレイデバイス」もしくはその変形例等のユーザのための適切なディスプレイデバイスとを用いることで、ユーザの現在の実際または仮想場所に関連するある世界の側面が、ユーザに転送もしくは「パス」され、効率的方式で更新され得る。言い換えると、世界のマップは、部分的に、ユーザのARシステム上に常駐し、部分的に、クラウドリソース上に常駐し得る記憶場所で継続的に更新される。マップ(パス可能世界モデルとも称される)は、ラスタ画像、3Dおよび2Dポイント、パラメータ情報、ならびに実世界についての他の情報を備えている大型データベースであり得る。ARユーザがその実環境(例えば、カメラ、センサ、IMU等を通して)についてのますます多くの情報を継続的に捕捉するにつれて、マップは、ますます正確になる。 A world related to the user's current real or virtual location by using efficient local and remote processing coordination and the appropriate display device for the user, such as the user interface or the user "display device" or a variant thereof. Aspects can be transferred or "passed" to the user and updated in an efficient manner. In other words, the map of the world is partly resident on the user's AR system and partly continuously updated with storage locations that can be resident on cloud resources. A map (also referred to as a passable world model) can be a large database containing raster images, 3D and 2D points, parameter information, and other information about the real world. Maps become more and more accurate as AR users continuously capture more and more information about their real environment (eg, through cameras, sensors, IMUs, etc.).
本開示により関連して、図2A−2Dに説明されるものに類似するARシステムは、有利には、ARシステムを通して追跡されたバイオメトリックデータの組に基づいて、ユーザを固有に識別するために使用され得るユーザの眼への固有のアクセスを提供する。ユーザの眼へのこの先例のないアクセスは、必然的に、種々のアプリケーションにふさわしいもにする。ARデバイスが、ユーザが3D仮想コンテンツを知覚することを可能にするために、ユーザの眼と重要な相互作用を果たし、多くの実施形態では、ユーザの眼に関連する種々のバイオメトリック(例えば、両眼離反運動、眼の運動、桿体細胞および錐体細胞のパターン、眼移動のパターン等)を追跡するならば、得られた追跡データは、有利には、以下にさらに詳細に説明されるであろうように、種々の取引のためのユーザ識別および認証において使用され得る。 In connection with the present disclosure, an AR system similar to that described in FIGS. 2A-2D is advantageously used to uniquely identify a user based on a set of biometric data tracked through the AR system. It provides unique access to the user's eyes that can be used. This unprecedented access to the user's eyes necessarily makes it suitable for a variety of applications. The AR device plays an important interaction with the user's eye to allow the user to perceive 3D virtual content, and in many embodiments, various biometrics associated with the user's eye (eg, eg). If binocular detachment movements, eye movements, rod and cone cell patterns, eye movement patterns, etc.) are tracked, the resulting tracking data are advantageously described in more detail below. As such, it can be used in user identification and authentication for various transactions.
ARデバイスは、典型的には、特定のユーザの頭部のために適合され、光学コンポーネントは、ユーザの眼と整列させられる。これらの構成ステップは、ユーザが、頭痛、吐き気、不快感等の任意の生理学的副作用を生じさせずに、最適拡張現実体験が提供されることを確実にするために、使用され得る。したがって、1つ以上の実施形態では、ARデバイスは、各個々のユーザのために構成され(物理的かつデジタルの両方で)、ユーザのために較正され得る。他のシナリオでは、ARデバイスを緩く適合させることによって、種々のユーザによって快適に使用され得る。例えば、いくつかの実施形態では、ARデバイスは、ユーザの眼間の距離、頭部装着型ディスプレイとユーザの眼との間の距離、ユーザの眼間の距離、およびユーザの額の曲率を把握する。これらの測定は全て、所与のユーザのための適切な頭部装着型ディスプレイシステムを提供するために使用され得る。他の実施形態では、そのような測定値は、本願に記載される識別および認証機能を行うために必要ではなくいこともある。 The AR device is typically adapted for a particular user's head and the optical components are aligned with the user's eyes. These configuration steps can be used to ensure that the user is provided with an optimal augmented reality experience without causing any physiological side effects such as headache, nausea, discomfort and the like. Thus, in one or more embodiments, the AR device can be configured for each individual user (both physical and digital) and calibrated for the user. In other scenarios, loosely adapting the AR device can be comfortably used by a variety of users. For example, in some embodiments, the AR device captures the distance between the user's eyes, the distance between the head-worn display and the user's eyes, the distance between the user's eyes, and the curvature of the user's forehead. To do. All of these measurements can be used to provide a suitable head-worn display system for a given user. In other embodiments, such measurements may not be necessary to perform the identification and authentication functions described herein.
例えば、図4A−4Dを参照すると、ARデバイスは、各ユーザのためにカスタマイズされ得る。ユーザの頭部形状402が、図4Aに示されるように、1つ以上の実施形態では、頭部搭載ARシステムを合わせるときに考慮され得る。同様に、眼用コンポーネント404(例えば、光学、光学のための構造等)が、図4Bに示されるように、水平および垂直の両方において、ユーザの快適性のために回転もしくは調節され得るか、またはユーザの快適性のために回転され得る。1つ以上の実施形態では、図4Cに示されるように、ユーザの頭部に対して設定された頭部の回転点406が、ユーザの頭部の構造に基づいて調節され得る。同様に、瞳孔間距離(IPD)408(すなわち、ユーザの眼間の距離)が、図4Dに示されるように、補償され得る。
For example, referring to FIGS. 4A-4D, the AR device can be customized for each user. The user's
有利には、ユーザ識別および認証の状況では、頭部装着型ARデバイスのこの側面は、システムが、ユーザの物理的特徴(例えば、眼サイズ、頭部サイズ、眼間の距離等)についての測定の組と、ユーザを容易に識別し、ユーザが1つ以上の商取引を完了することを可能するために使用され得る、他のデータとをすでに保有しているので、重要である。加えて、ARシステムは、ARシステムが、ARシステムを使用することが承認されているユーザ以外の異なるARユーザによって装着されているとき、それを容易に検出可能であり得る。これは、ARシステムが、ユーザの眼を常に監視し、したがって、必要に応じて、ユーザの識別を認知することを可能にする。 Advantageously, in the context of user identification and authentication, this aspect of the head-worn AR device allows the system to measure the user's physical characteristics (eg, eye size, head size, eye-to-eye distance, etc.). It is important because we already have a set of data and other data that can be used to easily identify the user and allow the user to complete one or more commercial transactions. In addition, the AR system may be readily detectable when the AR system is worn by a different AR user other than the user authorized to use the AR system. This allows the AR system to constantly monitor the user's eyes and therefore perceive the user's identity as needed.
ユーザ上で行われる種々の測定および較正に加え、ARデバイスは、ユーザについてのバイオメトリックデータの組を追跡するように構成され得る。例えば、システムは、眼の移動、眼移動パターン、瞬きパターン、両眼離反運動、眼色、虹彩パターン、網膜パターン、疲労パラメータ、眼色の変化、焦点距離の変化、および光学拡張現実体験をユーザに提供することにおいて使用され得る多くの他のパラメータを追跡し得る。 In addition to the various measurements and calibrations made on the user, the AR device can be configured to track a set of biometric data about the user. For example, the system provides users with eye movements, eye movement patterns, blink patterns, binocular detachment movements, eye colors, iris patterns, retinal patterns, fatigue parameters, eye color changes, focal length changes, and an augmented reality experience. Many other parameters that can be used in doing so can be tracked.
図5を参照すると、好適なユーザディスプレイデバイス62の1つの簡略化された実施形態が、筐体またはフレーム108によってユーザの頭部もしくは眼に搭載され得る、ディスプレイレンズ106を備えているように示される。ディスプレイレンズ106は、ユーザの眼20の正面において筐体108によって位置付けられ、ローカル環境からの少なくとも一部の光の透過も可能にしながら、投影された光38を眼20の中に跳ね返し、ビーム成形を促進するように構成される1つ以上の透明ミラーを備え得る。描写される実施形態では、2つの広角マシンビジョンカメラ16が、筐体108に結合され、ユーザの周囲の環境を撮像する。一実施形態では、これらのカメラ16は、デュアル捕捉可視光/赤外線光カメラである。
Referring to FIG. 5, one simplified embodiment of a suitable
描写される実施形態はまた、示されるように、光38を眼20の中に投影するように構成されるディスプレイミラーおよび光学を伴う一対の走査式レーザ成形波面(すなわち、深度のため)光プロジェクタモジュール18(例えば、DLP、ファイバ走査デバイス(FSD)、LCD等の空間光変調器)を備えている。描写される実施形態はまた、ユーザの眼20を追跡し、レンダリングおよびユーザ入力をサポートすることが可能であるように構成される、発光ダイオード「LED」等の赤外線光源26と対にされた2つの小型赤外線カメラ24を備えている。ディスプレイシステム62はさらに、X、Y、Z軸加速度計能力と、磁気コンパスおよびX、Y、Z軸ジャイロスコープ能力とを備え、好ましくは、200Hz等の比較的に高周波数でデータを提供し得るセンサアセンブリ39を特徴とする。描写されるシステム62はまた、リアルまたは近リアルタイムユーザ頭部姿勢をカメラ16からの広角画像情報出力から計算するように構成され得るASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、および/またはARMプロセッサ(高度縮小命令セットマシン)等の頭部姿勢プロセッサ36を備えている。頭部姿勢プロセッサ36は、カメラ16およびレンダリングエンジン34に動作可能に結合される(90、92、94;例えば、有線または無線接続性を介して)。
The embodiment depicted is also a pair of scanning laser-formed wave planes (ie, for depth) with display mirrors and optics configured to project light 38 into the
デジタルおよび/またはアナログ処理を実行し、姿勢をセンサアセンブリ39からのジャイロスコープ、コンパス、ならびに/もしくは加速度計データから導出するように構成される別のプロセッサ32も、示される。描写される実施形態はまた、姿勢および測位を補助するためのGPS37サブシステムを特徴とする。
Another
最後に、描写される実施形態は、ユーザの世界のビューのために、ユーザのローカルのレンダリング情報を提供し、スキャナの動作およびユーザの眼の中への結像を促進するように構成される、ソフトウェアプログラムを実行するハードウェアを特徴とし得るレンダリングエンジン34を備えている。レンダリングエンジン34は、レンダリングされた光38が、網膜走査ディスプレイに類似する様式において、走査式レーザ配列18を使用して投影されるように、センサ姿勢プロセッサ32、画像姿勢プロセッサ36、眼追跡カメラ24、および投影サブシステム18に動作可能に結合される(105、94、100/102、104、すなわち、有線または無線接続性を介して)。投影された光ビーム38の波面は、投影された光38の所望の焦点距離と一致するように曲げられ、または集中させられ得る。
Finally, the depicted embodiment is configured to provide the user's local rendering information for a view of the user's world, facilitating scanner operation and imaging into the user's eyes. It includes a rendering engine 34 that can be characterized by hardware that executes software programs. The rendering engine 34 includes a
小型赤外線眼追跡カメラ24は、眼を追跡し、レンダリングおよびユーザ入力をサポートするために利用され得る(すなわち、ユーザが見ている場所、焦点を合わせている深度等、以下に議論されるように、両眼離反運動が、ユーザの焦点深度を推定するために利用され得る)。GPS37、ジャイロスコープ、コンパス、および加速度計39が、大まかな、および/または高速の姿勢推定を提供するために利用され得る。カメラ16画像および姿勢データが、関連付けられたクラウドコンピューティングリソースからのデータと共に、ローカル世界をマップし、ユーザビューを仮想または拡張現実コミュニティと共有するために利用され得る。
The small infrared
図5に特徴とされるディスプレイシステム62内のハードウェアの多くは、ディスプレイ106およびユーザの眼20に隣接する筐体108に直接結合されて描写されるが、描写されるハードウェアコンポーネントは、例えば、図2Dに示されるように、ベルト搭載型コンポーネント70等の他のコンポーネントに搭載されるか、またはその中に格納され得る。
Much of the hardware in the
一実施形態では、図5に特徴とされるシステム62のコンポーネントは全て、画像姿勢プロセッサ36、センサ姿勢プロセッサ32、およびレンダリングエンジン34を除き、ディスプレイ筐体108に直接結合され、後者3つとシステムの残りのコンポーネントとの間の通信は、超広帯域等の無線通信または有線通信によって行われ得る。描写される筐体108は、好ましくは、頭部搭載型であり、かつユーザによって装着可能である。それは、ユーザの耳の中に挿入され、音をユーザに提供するために利用され得るもの等、スピーカも特徴とし得る。
In one embodiment, all the components of the
標準的ARデバイスの主要コンポーネントが説明されたが、ARデバイスは、データをユーザおよびその周囲から収集するように構成される多くのコンポーネントを備え得ることを理解されたい。例えば、前述のように、ARデバイスのいくつかの実施形態は、GPS情報を収集し、ユーザの場所を決定する。他の実施形態では、ARデバイスは、赤外線カメラを備え、ユーザの眼を追跡する。さらに他の実施形態では、ARデバイスは、視野カメラを備え、ユーザの環境の画像を捕捉し得、それは、次に、ユーザの物理的空間のマップ(図3に説明されるように、サーバ110のうちの1つ内に含まれる)を構成するために使用され得、それは、システムが、図3に関して簡単に説明されるように、仮想コンテンツを適切な実在のオブジェクトに関連してレンダリングすることを可能にする。 Although the main components of a standard AR device have been described, it should be understood that an AR device can have many components that are configured to collect data from the user and its surroundings. For example, as mentioned above, some embodiments of AR devices collect GPS information and determine the location of the user. In another embodiment, the AR device comprises an infrared camera to track the user's eyes. In yet another embodiment, the AR device comprises a field camera, which may capture an image of the user's environment, which then maps the user's physical space (as described in FIG. 3, server 110). Can be used to configure (contained within one of), which allows the system to render virtual content in relation to the appropriate real object, as briefly described with respect to FIG. To enable.
ユーザの眼20の中への光38の投影に関して、一実施形態では、小型カメラ24が、ユーザの眼20の中心が幾何学的に近づけられる(verged)場所を測定するために利用され得、その場所は、一般に、眼20の焦点の位置、すなわち、「焦点深度」と一致する。眼が近づく全点の3次元表面は、「単視軌跡」と呼ばれる。焦点距離は、有限数の深度をとることも、無限に変動することもある。両眼離反運動距離(vergence distance)から投影される光は、対象の眼20に集中させられて現れる一方、両眼離反運動距離の前または後ろにある光は、ぼやける。
With respect to the projection of light 38 into the user's
さらに、約0.7ミリメートル未満のビーム直径を伴う空間的にコヒーレントな光は、眼が焦点を合わせる場所にかかわらず、ヒト眼によって正しく分解されることが発見された。この理解を前提として、適切な焦点深度の錯視を生成するために、両眼離反運動が、小型カメラ24によって追記され得、レンダリングエンジン34および投影サブシステム18は、単視軌跡上またはそれに近接する全オブジェクトに焦点を合わせて、かつ全他のオブジェクトをさまざまな程度の焦点ぼけにおいて(すなわち、意図的に生成されたぼけを使用して)、レンダリングするために利用され得る。コヒーレント光を眼の中に投影するように構成されるシースルー光導波路光学要素が、Lumus,Inc.等の供給業者によって提供され得る。好ましくは、システム62は、約60フレーム/秒以上のフレームレートにおいてユーザにレンダリングする。前述のように、好ましくは、小型カメラ24は、眼追跡のために利用され得、ソフトウェアは、両眼離反運動幾何学形状だけではなく、ユーザ入力としての役割を果たすための焦点場所の手掛かりも取得するように構成され得る。好ましくは、そのようなシステムは、昼間または夜間のために好適な輝度およびコントラストで構成される。
In addition, it has been found that spatially coherent light with a beam diameter of less than about 0.7 mm is correctly decomposed by the human eye, regardless of where the eye focuses. Given this understanding, binocular divergence may be added by the
一実施形態では、そのようなシステムは、好ましくは、視対象整列のために、約20ミリ秒未満の待ち時間、約0.1度未満の角度整列、および約1分の分解能を有し、それは、ヒト眼のほぼ限界である。ディスプレイシステム62は、GPS要素、光学追跡、コンパス、加速度計、および/または他のデータ源を伴い、位置ならびに姿勢決定を補助し得る位置特定システムと統合され得る。位置特定情報は、関連世界のユーザのビュー内における正確なレンダリングを促進するために利用され得る(すなわち、そのような情報は、眼鏡がそれらが実世界に対する場所を把握することを促進するであろう)。ARデバイスの一般的コンポーネントが説明されたが、商取引を実施するためのユーザ識別および認証に具体的に関する追加の実施形態は、以下に議論されるであろう。
In one embodiment, such a system preferably has a latency of less than about 20 milliseconds, an angular alignment of less than about 0.1 degrees, and a resolution of about 1 minute for visual object alignment. It is almost the limit of the human eye. The
上である程度詳細に議論されたように、商取引を実施するための従来のモデルは、非効率的かつ煩わしい傾向にあり、多くの場合、ユーザが取引に従事することを妨げる影響を有する。例えば、あるユーザが、百貨店に居るとする。従来のモデルでは、ユーザは、百貨店に物理的に入って行き、商品を選択し、列に並び、レジ係を待ち、支払情報および/または身分証明書を提供し、支払を承認することが要求される。オンラインショッピングでさえ、おそらくあまり煩雑ではないが、それなりの短所がある。ユーザは、店舗の場所に物理的に存在する必要はなく、関心のある商品を容易に選択することができるが、支払は、依然として、多くの場合、クレジットカード情報および認証を要求する。しかしながら、ARデバイスの出現に伴って、ARデバイスが、ユーザの識別を容易に確認し、商取引を認証することができるので、支払の従来のモデル(例えば、現金、クレジットカード、金銭トークン等)は、不必要にされ得。 As discussed in some detail above, traditional models for conducting commercial transactions tend to be inefficient and cumbersome, and often have the effect of preventing users from engaging in transactions. For example, suppose a user is in a department store. In the traditional model, the user is required to physically enter the department store, select a product, line up, wait for a cashier, provide payment information and / or identification, and approve the payment. Will be done. Even online shopping is probably less complicated, but it has its drawbacks. Although users do not have to be physically present at the store location and can easily select products of interest, payments still often require credit card information and authentication. However, with the advent of AR devices, traditional models of payment (eg cash, credit cards, monetary tokens, etc.) have become possible because AR devices can easily verify user identification and authenticate commerce. , Can be unnecessary.
例えば、ARユーザは、小売店の中をのんびりとぶらつき、商品を取り上げ得る。ARデバイスは、ユーザの識別を確認し、ユーザが購入を欲するかどうかを確認し、単に、店舗から出て行かせてもよい。1つ以上の実施形態では、ARデバイスは、確認された購入に基づいて、ユーザの口座から小売店に関連付けられた口座に金額を転送するであろう金融機関とインターフェースをとり得る。または、別の例では、ARユーザは、特定のブランドの靴の広告を見ている場合がある。ユーザは、ARデバイスを通して、ユーザが靴の購入を欲することを示し得る。ARデバイスは、ユーザの識別を確認し、購入を認証し得る。バックエンドでは、注文が靴のブランドの小売業者に発注され得、小売業者は、単に、一足の所望の靴をユーザに発送し得る。前述の例によって例証されるように、ARデバイスは、ユーザの識別を「把握」しているので(およびARデバイスは、典型的には、全ての個々のユーザに対して構築およびカスタマイズされる)、金融取引は、容易に認証され、それによって、売買を実施することと典型的に関連付けられた摩擦コストを大幅に削減させる。 For example, an AR user can hang out in a retail store and pick up a product. The AR device may confirm the user's identification, confirm whether the user wants to purchase, and simply leave the store. In one or more embodiments, the AR device may interface with a financial institution that will transfer the amount from the user's account to the account associated with the retail store based on the confirmed purchase. Alternatively, in another example, an AR user may be viewing an advertisement for a particular brand of shoes. The user may indicate through the AR device that the user wants to buy shoes. The AR device can verify the user's identity and authenticate the purchase. At the back end, the order may be placed with a shoe brand retailer, who may simply ship a pair of desired shoes to the user. As illustrated by the example above, the AR device "knows" the identity of the user (and the AR device is typically built and customized for every individual user). Financial transactions are easily authenticated, thereby significantly reducing the frictional costs typically associated with conducting a sale.
より具体的には、1つ以上の実施形態では、ARデバイスは、プライバシーおよびセキュリティ目的のために、ユーザの識別試験を周期的に行い得る。上である程度詳細に議論されたように、ARデバイスは、典型的には、各ユーザのためにカスタマイズされるが、ユーザのこの周期的識別および認証は、特に商取引を実施する状況におけるセキュリティ目的のために、またはARデバイスが、未知のユーザによって使用されておらず、かつクラウド上のARユーザの口座にリンクされていることを確実にするためのプライバシー目的のために、必要である。本願は、ユーザ識別および認証が最重要事項である金融/商取引のためのセキュリティを確実にするためのシステムおよび方法を説明する。同様に、これらのステップは、ユーザプライバシーを確実にするためにも等しく重要である。実際、これらの識別ステップは、ARデバイスを通して任意のパーソナル/プライベートユーザ口座(例えば、電子メール、ソーシャルネットワーク、金融口座等)を開くことに先立って使用され得る。 More specifically, in one or more embodiments, the AR device may periodically perform user identification tests for privacy and security purposes. As discussed in some detail above, AR devices are typically customized for each user, but this periodic identification and authentication of users is for security purposes, especially in the context of conducting commercial transactions. It is necessary for this purpose, or for privacy purposes to ensure that the AR device is not being used by an unknown user and is linked to the AR user's account on the cloud. This application describes systems and methods for ensuring security for financial / commercial transactions where user identification and authentication are paramount. Similarly, these steps are equally important to ensure user privacy. In fact, these identification steps can be used prior to opening any personal / private user account (eg, email, social networks, financial accounts, etc.) through an AR device.
本願に説明される他の実施形態は、盗難防止管理の状況において使用され得る。例えば、ARデバイスは、ユーザを識別し、ARデバイスが盗まれていないことを確実にし得る。ARデバイスが未知のユーザを検出する場合、ARデバイスは、ユーザについての捕捉された情報およびARデバイスの場所をARサーバに直ちに送信し得る。または、他の実施形態では、ARデバイスが、識別されていない人物によって使用されていることが検出されている場合、ARデバイスは、完全にシャットダウンし、機密情報が漏出または悪用されないように、ARデバイスのメモリ内の全コンテンツを自動的に削除し得る。これらのセキュリティ対策は、ARデバイスがARデバイスの装着者についての多くのタイプの情報を捕捉することが可能であるので、ARデバイスの窃盗を防止し得る。 Other embodiments described herein can be used in the context of anti-theft management. For example, an AR device can identify a user and ensure that the AR device has not been stolen. If the AR device detects an unknown user, the AR device may immediately send the captured information about the user and the location of the AR device to the AR server. Or, in other embodiments, if it is detected that the AR device is being used by an unidentified person, the AR device will shut down completely and the AR will not be leaked or misused to prevent sensitive information from being leaked or misused. All content in the device's memory can be deleted automatically. These security measures can prevent the theft of the AR device because the AR device can capture many types of information about the wearer of the AR device.
1つ以上の実施形態では、以下に説明される実施形態は、ARデバイスが、ショッピングロボットを遠隔操作することを可能にし得る。例えば、ARデバイスのユーザが識別されると、ARデバイスは、特定の店舗またはフランチャイズ店のネットワークを通して、ショッピングロボットに接続し、ショッピングロボットと取引を通信し得る。したがって、ユーザは、店舗内に物理的に居ない場合でも、ARデバイスは、ユーザが認証されると、プロキシを通して取引を実施し得る。同様に、多くの他のセキュリティおよび/またはプライバシー用途も、想定され得る。 In one or more embodiments, the embodiments described below may allow the AR device to remotely control the shopping robot. For example, once a user of an AR device is identified, the AR device may connect to the shopping robot and communicate transactions with the shopping robot through a network of specific stores or franchise stores. Therefore, even if the user is not physically present in the store, the AR device can execute the transaction through the proxy when the user is authenticated. Similarly, many other security and / or privacy applications can be envisioned.
追跡されたバイオメトリックデータを通して識別を行う多くの方法がある。一実施形態では、追跡されたバイオメトリックデータは、眼移動のパターン、虹彩パターン、両眼離反運動情報等の眼関連バイオメトリックデータであり得る。要するに、ユーザがパスワードを覚えること、またはあるタイプの識別/証明を提示することを要求するのではなく、ARデバイスは、自動的に、追跡されたバイオメトリックデータの使用を通して識別を検証する。ARデバイスがユーザの眼への一定アクセスを有することを前提として、追跡されたデータは、ユーザの識別についての非常に正確かつ個人化された情報を提供するであろうことが予期され、その情報は、固有のユーザ署名と見なされ得る。バイオメトリックデータを追跡し、追跡されたバイオメトリックデータを使用して、ユーザを認証する、異なる方法についての詳細を掘り下げる前に、1つ以上の外部エンティティ(例えば、金融機関、販売業者等)と相互作用するARデバイスのシステムアーキテクチャが、提供されるであろう。 There are many ways to make an identification through tracked biometric data. In one embodiment, the tracked biometric data can be eye-related biometric data such as eye movement patterns, iris patterns, binocular detachment movement information, and the like. In short, instead of requiring the user to remember the password or present some type of identification / proof, the AR device automatically validates the identification through the use of tracked biometric data. Given that the AR device has constant access to the user's eyes, it is expected that the tracked data will provide very accurate and personalized information about the user's identity, and that information. Can be considered a unique user signature. Track biometric data and use the tracked biometric data to authenticate users with one or more external entities (eg, financial institutions, distributors, etc.) before delving into the details of different methods. A system architecture for interacting AR devices will be provided.
ここで図6を参照すると、全体的ARシステムアーキテクチャが、図示される。ARシステムアーキテクチャは、頭部装着型ARデバイス62と、ARデバイス62のローカル処理モジュール660と、ネットワーク650と、ARサーバ612と、金融機関620と、1つ以上の販売業者(622A、622B等)を含む。
Here, with reference to FIG. 6, the overall AR system architecture is illustrated. The AR system architecture includes a head-mounted
前述のように(図5参照)、頭部装着型ARデバイス62は、多くのサブコンポーネントを備え、そのうちのいくつかは、ユーザおよび/またはユーザの周囲に関連付けられた情報を捕捉ならびに/もしくは追跡するように構成される。より具体的には、1つ以上の実施形態では、頭部装着型ARデバイス62は、1つ以上の眼追跡カメラを備え得る。眼追跡カメラは、ユーザの眼の移動、両眼離反運動等を追跡し得る。別の実施形態では、眼追跡カメラは、ユーザの虹彩の写真を捕捉するように構成され得る。他の実施形態では、頭部装着型ARデバイス62は、他のバイオメトリック情報を捕捉するように構成される、他のカメラを備え得る。例えば、関連付けられたカメラは、ユーザの眼の形状の画像を捕捉するように構成され得る。または、別の例では、カメラ(もしくは他の追跡デバイス)は、ユーザの睫毛に関するデータを捕捉し得る。追跡されたバイオメトリック情報(例えば、眼のデータ、睫毛のデータ、眼形状データ、眼移動データ、頭部データ、センサデータ、音声データ、指紋データ等)は、ローカル処理モジュール660に伝送され得る。図2Dに示されるように、1つ以上の実施形態では、ローカル処理モジュール660は、ARデバイス62のベルトパックの一部であり得る。または、他の実施形態では、ローカル処理モジュールは、頭部装着型ARデバイス62の筐体の一部であり得る。
As mentioned above (see Figure 5), the head-worn
図6に示されるように、ユーザ680の頭部装着型ARデバイス62は、捕捉されたデータを提供するために、ローカル処理モジュール660とインターフェースをとる。1つ以上の実施形態では、ローカル処理モジュール660は、ARシステムが種々のコンピューティングタスクを行うことを可能にするプロセッサ664および他のコンポーネント652(例えば、メモリ、電源、テレメトリ回路等)を備えている。本開示の有意なこととして、ローカル処理モジュール660はまた、識別モジュール614を備え、頭部装着型ARデバイス62の1つ以上の追跡デバイスによって追跡された情報に基づいて、ユーザを識別し得る。
As shown in FIG. 6, the
1つ以上の実施形態では、識別モジュール614は、データベース652を備え、データの組を記憶し、それを用いて、ユーザを識別および/または認証する。例えば、図示される実施形態では、データベース652は、所定のデータの組および/または所定の認証詳細もしくはパターンを記憶し得るマッピングテーブル670を備えている。1つ以上の実施形態では、捕捉されたデータは、マッピングテーブル670に記憶される所定のデータと比較され、ユーザ680の識別を決定し得る。同様に、データベース652は、ユーザ680の識別/認証を行うことにおいて使用されることになる他のデータを備え得る。1つ以上の実施形態では、データベース652は、以下にさらに詳細に説明されるであろうように、1つ以上の眼試験を記憶し、ユーザの識別を検証し得る。
In one or more embodiments, the
1つ以上の実施形態では、ローカル処理モジュール660は、クラウドネットワーク650を通してARサーバ612と通信する。図6に図示されないが、ARサーバ612は、現実的拡張現実体験をユーザ680に提供するために重要である多くのコンポーネント/回路を備えている。概略すると、ARサーバ612は、仮想コンテンツを実世界の物理的オブジェクトと関連してレンダリングするために、ARデバイス62のローカル処理モジュール660によって頻繁に参照される、物理的世界のマップ690を備えている。したがって、ARサーバ612は、多数のユーザを通して捕捉された情報に基づいて構築され、実世界のますます成長するマップ690を構築する。他の実施形態では、ARサーバ612は、第三者によって構築および維持され得る、マップ690を単にホストし得る。
In one or more embodiments, the
1つ以上の実施形態では、ARサーバ612はまた、個々のユーザの口座をホストし得、そこに、ユーザのプライベート捕捉データが供給される。この捕捉されたデータは、1つ以上の実施形態では、データベース654内に記憶され得る。1つ以上の実施形態では、データベース654は、ユーザ情報610、ユーザ680についての履歴データ615、ユーザ選好616、および他のエンティティ認証情報618を記憶し得る。実際、ARシステムの他の実施形態は、ユーザに個人的な多くの他のタイプの情報を備え得る。ユーザ情報610は、1つ以上の実施形態では、個人の略歴の組(例えば、氏名、年齢、性別、住所、場所等)を含み得る。
In one or more embodiments, the
ユーザ680についての履歴データ615は、ユーザによって行われた以前の購入および/または取引を指し得る。1つ以上の実施形態では、ユーザ選好616は、関心事項の組(例えば、ショッピング、アクティビティ、旅行等)および/またはユーザについての購入選好(例えば、アクセサリー、関心のあるブランド、ショッピングカテゴリ等)を含み得る。1つ以上の実施形態では、ARユーザの挙動データは、システムにユーザの選好および/または購入パターンを知らせるために使用され得る。他のエンティティ認証情報618は、ユーザが外部口座へのアクセスが正常に認証されたことを証明するためのユーザの認証証明書を指し得る(例えば、銀行認証情報、種々のウェブサイトの口座認証情報等)
1つ以上の実施形態では、ARデバイス62を通して捕捉されたデータ、過去のアクティビティを通して追跡されたデータ、ユーザに関連付けられた売買データ等が、ユーザの挙動パターンを認識し、および/または理解するために分析され得る。これらの機能は、1つ以上の実施形態では、プライバシーおよびセキュリティに配慮した様式において、第三者によって行われ得る。
In one or more embodiments, the data captured through the
データベース654はまた、ARサーバ612がユーザに特定の金融機関および/または第三者エンティティと通信することを可能にする他のエンティティ認証情報618を記憶し得る。例えば、他のエンティティ認証情報618は、ユーザの銀行情報(例えば、銀行名、口座情報等)を指し得る。この情報は、次に、金融情報、第三者エンティティ、販売業者等と通信するために使用され得る。
1つ以上の実施形態では、ARサーバ612は、取引を完了するために、1つ以上の金融機関620と通信し得る。金融機関は、ユーザの金融情報を有し得る。1つ以上の実施形態では、金融機関は、セキュリティ目的のために、ユーザの認証情報の第2の検証を行い得る。ユーザが認証されると、ARサーバ612は、認証され、金融機関620と通信し得る。ユーザが商品630の特定の購入のために認証される場合、金融機関620は、ユーザが認証されると、直接、1つ以上の販売業者(622A、622B等)と通信し、直接、金額を販売業者に伝送し得る。他の実施形態では(図示せず)、ARサーバ612は、直接、販売業者と通信し、かつ1つ以上の購入に関するデータを通信し得る。
In one or more embodiments, the
いくつかの実施形態では、ユーザ680は、1つ以上の金融取引を進めるために、ARサーバ612に接続する必要がない場合があることを理解されたい。例えば、いくつかの実施形態では、ARデバイス62は、複数の電子商取引サイト等の「オフラインブラウジング」を可能にし得、ユーザ680は、オフラインIDを通して、関心のある1つ以上の商品を選択することが可能であり得る。金融機関620または販売業者622は、その特定の取引のために生成される乱数発生器を有し得、それは、ARデバイス62がネットワーク650に接続されると、後に検証され得る。言い換えると、ARデバイス62がARサーバに接続していない場合でも、システムは、取引をオフラインで確認し、次いで、追加の情報(例えば、ランダムに生成された数字)を使用して、後に購入を有効にし得る。これは、ARデバイス62が、ユーザが現時点でARサーバ612および/または金融機関もしくは販売業者に接続されていない場合でも、必要な商取引に参加することを可能にする。
It should be appreciated that in some embodiments, the
1つ以上の実施形態では、販売業者(622A、622B等)は、ARデバイス62を通して購入を行うこの新しい概念図式を可能にする、ARサーバ612および/または金融機関620と事前に確立された関係を有し得る。前述の実施形態は、例証目的のためだけに提供され、他の実施形態は、より多いまたはより少ないコンポーネントを備え得ることを理解されたい。
In one or more embodiments, the distributor (622A, 622B, etc.) has a pre-established relationship with the
ここで図7を参照すると、ARデバイス62を通して商取引を実施する例示的フローチャートが、提供される。702では、取引に関する入力が、受信され得る。例えば、ユーザは、アイテムの購入に関心があることを明示的に示し得る(例えば、コマンド、ジェスチャ等を通して)。他の実施形態では、ARシステムは、過去の購入、ユーザの関心等に基づいて、購入をARユーザに提案し、ユーザからの確認を受信し得る。さらに他の実施形態では、ARシステムは、種々の商品の「ヒートマップ」に基づいて、関心を査定し得る。詳しく説明すると、ARデバイス62は、ユーザが見ている場所および見ている時間を把握しているので、ARデバイス62は、ユーザの商品への関心を決定するために、ユーザが種々の仮想および/または実オブジェクトを見ていた時間を決定することが可能であり得る。例えば、ユーザが特定のブランドの仮想広告を見ていた場合、ARデバイス62は、ユーザが特定の製品を見ていた時間を決定することによって、ユーザの関心を計測し得る。1つ以上の実施形態では、ARシステムは、1人以上のユーザが特定の製品を見ていた時間に基づいて、ヒートマップを生成し得る。ヒートマップが特定の製品への関心を示す(例えば、特定の商品を見ていた時間量が所定の閾値時間量を超える)場合、ARデバイス62は、製品の購入についてARユーザから確認を要求し得る。
Here, with reference to FIG. 7, an exemplary flowchart for carrying out a commercial transaction through the
704では、ARデバイス62は、ユーザ識別プロトコルを行い得る。以下にさらに詳細に説明されるであろうように、多くのタイプのユーザ識別プロトコルがあり得る。1つ以上の実施形態では、ARデバイス62は、ユーザが検証されるかどうかを決定するために、単に、眼移動に基づいて、「パスワード」を要求し得る。別の実施形態では、ARデバイス62は、ユーザの虹彩の写真を捕捉し、ユーザがARデバイス62(およびARデバイス62にリンクされた口座)の有効ユーザであるかどうかを確認し得る。別の実施形態では、ARデバイス62は、ユーザの頭部に留まっていたARデバイス62の連続性を監視し得る(例えば、ユーザがARデバイス62を全く除去していない場合、ユーザが同一である可能性が高い)。1つ以上の実施形態では、ARデバイス62は、ユーザ識別プロトコルに基づいて、虹彩画像を周期的に捕捉するか、またはユーザがARデバイス62の検証されたユーザであることを確実にするために試験を周期的に行い得る。本明細書に議論されるように、バイオメトリックデータを通してユーザを識別するための多くの方法があり、いくつかの例示的方法は、以下にさらに説明されるであろう。
At 704, the
いくつかの実施形態では、識別プロトコルは、ユーザの一定の識別(例えば、眼の移動パターン、皮膚との接触等)であり得る。他の実施形態では、識別プロトコルは、単に、1回限りの識別であり得る(任意の識別方法を通して)。したがって、いくつかの実施形態では、ARシステムがユーザを1回識別すると、同一ユーザは、介入イベントが(例えば、ユーザがARデバイス62を除去する、ネットワーク接続性の中断等)生じない限り、識別される必要がないこともある。705では、ARデバイス62は、識別プロトコルがバイオメトリックデータの捕捉を要求するかどうかを決定し得る。ユーザプロトコルが、バイオメトリックデータが捕捉されることを要求する場合、ARデバイスは、バイオメトリックデータを捕捉し得る。そうでなければ、ARデバイス62は、非バイオメトリック捕捉識別方法を通してユーザの識別を進め得る。
In some embodiments, the identification protocol can be a constant identification of the user (eg, eye movement patterns, skin contact, etc.). In other embodiments, the identification protocol may simply be a one-time identification (through any identification method). Thus, in some embodiments, once the AR system identifies a user, the same user will be identified unless an intervention event occurs (eg, the user removes the
706では、ユーザ識別プロトコルに基づいて、バイオメトリックデータが、捕捉され得る。例えば、ユーザ識別プロトコルが、既知のパターンを検出するための眼の試験である場合、ARデバイス62は、1つ以上の眼追跡カメラを通して、ユーザの眼の移動を追跡し得る。捕捉された移動は、「パスワード」または署名的眼移動と相関され、ユーザが検証されるかどうかを決定し得る。または、ユーザ識別プロトコルが虹彩捕捉である場合、虹彩の画像が、捕捉され、ユーザの既知の画像と相関され得る。または、ARユーザがARデバイス62を装着する度に、虹彩捕捉もしくは眼試験が、行われ、ユーザの識別を検証し得る。バイオメトリックデータは、いくつかの実施形態では、眼関連であり得るか、または他のタイプのバイオメトリックデータであり得ることを理解されたい。例えば、バイオメトリックデータは、1つ以上の実施形態では、音声であり得る。1つ以上の実施形態では、バイオメトリックデータは、睫毛関連データもしくは眼形状データであり得る。他のユーザからユーザを固有に識別するために使用され得る任意のタイプのバイオメトリックデータが、使用され得る。
At 706, biometric data can be captured based on the user identification protocol. For example, if the user identification protocol is an eye test for detecting known patterns, the
708では、バイオメトリックデータが、所定のユーザ識別データと比較され、ユーザを識別し得る。または、ユーザ識別がバイオメトリックデータを要求しない場合、ARデバイス62は、例えば、ユーザがARデバイス62を外していないことを決定し、したがって、ユーザが以前に識別されたユーザと同一であることを示し得る。ユーザが識別される場合、ARデバイス62は、710に進み、情報を1つ以上の金融機関に伝送する。
At 708, biometric data can be compared with predetermined user identification data to identify the user. Alternatively, if the user identification does not require biometric data, the
ユーザが識別されない場合、ARデバイス62は、別のユーザ識別プロトコルを行い、またはそうでなければ、ユーザが取引を行うことを妨害し得る。ユーザが識別される場合、所望の商品に関するデータが、710において、クラウドおよび金融機関に伝送され得る。例えば、上の例に従って、所望の靴についての情報(例えば、製品番号、所望の数量、ユーザについての情報、発送先住所、ユーザ口座等)が、販売業者および/または金融機関に通信され得る。
If the user is not identified, the
712では、ARシステムは、金融機関から、支払が完了し、および/または承認されたことの確認を受信し得る。714では、確認メッセージは、購入が完了したことを確認するために、ユーザに表示され得る。 At 712, the AR system may receive confirmation from the financial institution that the payment has been completed and / or approved. At 714, a confirmation message may be displayed to the user to confirm that the purchase is complete.
前述のように、1つ以上の実施形態では、検証目的のために(金融取引および他の目的のために)ユーザを識別する1つのアプローチは、ユーザ識別試験を周期的に実施することであり得る。1つ以上の実施形態では、ユーザ識別方法は、眼関連データを利用して、ユーザ識別試験を完了し得る。ARデバイス62は、ユーザの眼の移動を継続的に追跡する眼追跡カメラを装備しているので、眼移動の既知のパターンが、眼試験として使用され、ユーザを認識および/または識別し得る。例えば、パスワードは、容易にコピーまたは窃盗され得るが、他のユーザの眼の移動もしくは他の生理学的特性を複製することは困難であり、ARデバイス62の非承認ユーザを識別することを容易にし得る。
As mentioned above, in one or more embodiments, one approach to identifying users (for financial transactions and other purposes) for verification purposes is to perform user identification tests periodically. obtain. In one or more embodiments, the user identification method may utilize eye-related data to complete the user identification test. Since the
1つ以上の実施形態では、ARデバイス62の設定中、システムは、ユーザの入力を用いて、ユーザに固有の眼移動の既知のパターン(すなわち、眼パスワードに類似する)を構成し得る。眼移動のこの既知のパターンは、ユーザ識別プロトコルが行われる度に、記憶および相関され得る。
In one or more embodiments, during the configuration of the
ここで図8Aおよび8Bの実施形態800を参照すると、ユーザの眼804の例示的眼パターン802が、提供される。図8Aに示されるように、ARデバイス806は、眼追跡カメラ(図示せず)を通して、ユーザの眼の移動を追跡し、パターンと眼移動の既知のパターン(すなわち、眼パスワード)を相関させ得る。眼移動パターンが既知のパターンに近い場合(閾値以内)、ARデバイス806は、ユーザが取引を実施することを可能にし得る。図8Aに示されるように、ユーザは、その眼を示されるパターンで移動させ得る。例証目的のために、線(802)は、眼パターンを表すために描かれる。当然ながら、実際は、線はなく、眼追跡デバイスは、単に、そのような移動を追跡し、それを所望のデータフォーマットに変換するであろう。
Here, with reference to
1つ以上の実施形態では、追跡された眼パターンが眼移動の所定の既知のパターンと相関するかどうかを決定するために、図8Bに示されるものに類似するグリッド904が、利用され得る。他のそのような技法も同様に、使用され得ることを理解されたい。グリッド904の使用を通して、利用可能な空間を離散化されたエリアに分割することによって、追跡された眼パターン802が所定のパターン902に最も似ているかどうかを決定することを容易にし得る。例えば、図8Bに示されるように、追跡された眼パターン802は、多少なりとも、所定のパターン902に従う(所定のパターンに関連付けられた各グリッド正方形の中心を接続する太線によって示されるように)。図8Bは、グリッド904のかなり簡略化されたバージョンを表すが、各グリッドのサイズは、より正確な決定のために減少させられ得ることを理解されたい。
In one or more embodiments, a
図示される実施形態では、追跡された眼移動が所定のグリッド正方形のエリアを対象とする場合、パターンが、認識され得る。他の実施形態では、グリッド正方形の大部分が、ユーザがユーザ識別試験を合格したと見なされる前に、ヒットされる必要があり得る。同様に、他のそのような閾値が、種々の眼移動追跡プロトコルのために考案され得る。1つ以上の実施形態では、前述と同様に、瞬きパターンも同様に、利用され得る。例えば、眼移動パターンを利用するのではなく、眼パスワードは、一連の瞬きまたはユーザの署名を追跡するための移動と組み合わせられた瞬きであり得る。 In the illustrated embodiment, the pattern can be recognized if the tracked eye movement targets an area of a predetermined grid square. In other embodiments, most of the grid squares may need to be hit before the user is considered to have passed the user identification test. Similarly, other such thresholds can be devised for various eye movement tracking protocols. In one or more embodiments, blink patterns can be utilized as well, as described above. For example, rather than utilizing an eye movement pattern, the eye password can be a series of blinks or blinks combined with a movement to track a user's signature.
ここで図9を参照すると、眼移動署名を検出する例示的プロセスが、説明される。902では、眼移動試験が、開始され得る。例えば、ARユーザは、商品を購入することを欲することを示し得るか、またはARユーザは、ARデバイス62、806を取り外し得、ARデバイス62、806の装着を再開し得る。別の実施形態では、眼移動試験は、セキュリティ目的のために、周期的に実施され得る。
Here, with reference to FIG. 9, an exemplary process for detecting an eye movement signature is described. At 902, an eye movement test can be initiated. For example, the AR user may indicate that he wants to purchase the goods, or the AR user may remove the
904では、眼移動パターンが、追跡および受信され得る。例えば、仮想ディスプレイ画面は、「パスワード入力」命令を表示し得、それは、ユーザがその眼による既知のパターンを形成することをトリガし得る。 At 904, eye movement patterns can be tracked and received. For example, a virtual display screen may display a "password entry" command, which may trigger the user to form a known pattern with his eyes.
906では、追跡された眼移動は、特定のデータフォーマットに変換され得る。例えば、グリッドアプローチに戻って参照すると、データは、眼移動によってヒットされたグリッドの座標を示し得る。多くの他のアプローチも同様に、使用され得る。 At 906, the tracked eye movements can be transformed into a particular data format. For example, returning to the grid approach and referencing, the data may indicate the coordinates of the grid hit by eye movement. Many other approaches can be used as well.
908では、変換されたデータは、既知の署名的眼移動パターンの所定のデータと比較され得る。910では、ARシステムは、追跡された眼移動が閾値内で所定のパターンに一致するかどうかを決定し得る。912では、眼パターンが、閾値内で既知の眼パターンと一致しないことが決定される場合、ユーザは、試験に不合格となり、購入を行うことを妨害され得るか、または試験を再び受ける必要があり得る。914では、眼パターンが、閾値内で既知の眼パターンに一致することが決定される場合、ユーザは、試験に合格し、購入を行うことが許可され得る。 At 908, the transformed data can be compared with predetermined data of known signature eye movement patterns. At 910, the AR system can determine if the tracked eye movements match a predetermined pattern within a threshold. In 912, if it is determined that the eye pattern does not match the known eye pattern within the threshold, the user may fail the test and be prevented from making a purchase or need to take the test again. possible. At 914, the user may be allowed to pass the test and make a purchase if it is determined that the eye pattern matches a known eye pattern within a threshold.
さらに別のアプローチでは、眼試験を実施するのではなく、ARシステムは、ARユーザの眼の写真を周期的に捕捉し、ユーザの眼の捕捉された画像を既知の情報と比較することによって、眼識別を行い得る。1つ以上の実施形態では、ユーザが購入を行おうとするとき、ARデバイス62、806は、ユーザに、ユーザに提示される特定の仮想オブジェクトを凝視することを要求し得る。これは、ユーザの眼が静止することを可能にし、ユーザの眼の画像が、捕捉および比較され得る。眼の写真がユーザの眼の既知の写真と相関する場合、ARユーザは、購入を行うことを許可され得る。眼識別技法に関するさらなる詳細は、弁理士整理番号ML30028.00下で「DEVICES,METHODS AND SYSTEMS FOR BIOMETRIC USER RECOGNITION UTILIZING NEURAL NETWORKS」と題された同時係属中の出願第62/159,593号に提供される。 In yet another approach, rather than performing an eye test, the AR system periodically captures pictures of the AR user's eyes and compares the captured images of the user's eyes with known information. Can perform eye identification. In one or more embodiments, the AR devices 62,806 may require the user to stare at a particular virtual object presented to the user when the user intends to make a purchase. This allows the user's eye to rest and images of the user's eye can be captured and compared. If the photo of the eye correlates with a known photo of the user's eye, the AR user may be allowed to make a purchase. Further details regarding the eye identification technique are provided under the patent attorney reference number ML3002.80, entitled "DEVICES, METHODS AND SYSTEMS FOR BIOMETRIC USER RECOGNITION UTILIZING NEURAL NETWORKS", co-pending application No. 59/62/15. To.
ARシステムは、概して、ユーザの眼が注視している(または「見ている」)場所およびユーザの眼が集中させられている場所を把握する必要があるので、この特徴は、有利には、識別目的のために使用され得る。したがって、種々の実施形態では、頭部搭載型ディスプレイ(「HMD」)コンポーネントは、ユーザの眼に関する画像情報を捕捉するために向けられている1つ以上のカメラを特徴とする。図5に描写されるもの等の一構成では、ユーザの各眼は、それに集中させられたカメラとともに、閃光を眼の表面上に誘発するためのカメラまでの既知のオフセット距離を伴う3つ以上のLEDを(一実施形態では、示されるように、眼の直下に)有し得る。 This feature is advantageous because the AR system generally needs to know where the user's eyes are looking (or "seeing") and where the user's eyes are focused. Can be used for identification purposes. Thus, in various embodiments, the head-mounted display (“HMD”) component features one or more cameras that are directed to capture image information about the user's eyes. In one configuration, such as those depicted in FIG. 5, each user's eye has a camera focused on it, as well as three or more with a known offset distance to the camera for inducing a flash onto the surface of the eye. The LED may be (in one embodiment, just below the eye, as shown).
各カメラまでの既知のオフセットを伴う、3つ以上のLEDの存在は、三角測量によって、3D空間内のカメラから各閃光ポイントまでの距離を決定することを可能にする。少なくとも3つの閃光ポイントおよび眼の略球状モデルを使用して、システムは、眼の曲率を推測することができる。既知の3Dオフセットおよび眼に対する向きを用いて、システムは、ユーザを識別するための使用のための虹彩もしくは網膜の正確な(例えば、画像)または抽象的(例えば、勾配もしくは他の特徴)テンプレートを形成することができる。他の実施形態では、眼内およびその上の静脈のパターン等の眼の他の特性もまた、ユーザを識別するために使用され得る(例えば、虹彩または網膜テンプレートとともに)。 The presence of three or more LEDs with a known offset to each camera makes it possible to determine the distance from the camera to each flash point in 3D space by triangulation. Using at least three flash points and a substantially spherical model of the eye, the system can infer the curvature of the eye. Using known 3D offsets and eye orientations, the system provides accurate (eg, image) or abstract (eg, gradient or other features) templates for the iris or retina for use to identify the user. Can be formed. In other embodiments, other characteristics of the eye, such as patterns of veins in and above the eye, can also be used to identify the user (eg, with an iris or retinal template).
1つのアプローチでは、虹彩画像識別アプローチが、使用され得る。眼の虹彩内の筋線維のパターンは、斑点、溝、および環を含む、各個人に対して安定した固有のパターンを形成する。種々の虹彩特徴は、可視光撮像と比較して、赤外線または近赤外線撮像を使用して容易に捕捉され得る。システムは、多くの異なる方法において、捕捉された虹彩特徴を識別コードに変換することができる。目標は、眼から十分に豊富な組織構造を抽出することである。収集されたデータ内の十分な自由度を用いて、システムは、固有のユーザを理論的に識別することができる。 In one approach, the iris image identification approach can be used. The pattern of muscle fibers within the iris of the eye forms a stable and unique pattern for each individual, including spots, grooves, and rings. Various iris features can be easily captured using infrared or near-infrared imaging as compared to visible light imaging. The system can convert captured iris features into identification codes in many different ways. The goal is to extract a sufficiently abundant tissue structure from the eye. With sufficient degrees of freedom in the collected data, the system can theoretically identify a unique user.
別のアプローチでは、網膜画像識別が同様に、使用され得る。一実施形態では、HMDは、操向可能光ファイバケーブルによって操向されるレーザスキャナによって駆動される回折ディスプレイを備えている。この光ファイバケーブルはまた、眼の内部を視覚化し、視覚受容体(桿体細胞および錐体細胞)ならびに血管の固有のパターンを有する網膜を撮像するためにも利用されることができる。これらの桿体細胞および錐体細胞はまた、各個人に固有のパターンを形成し得、各個人を固有に識別するために使用されることができる。 In another approach, retinal image identification can be used as well. In one embodiment, the HMD comprises a diffractive display driven by a laser scanner steered by steerable fiber optic cables. This fiber optic cable can also be used to visualize the interior of the eye and image the retina with unique patterns of visual receptors (rod and pyramidal cells) and blood vessels. These rod and pyramidal cells can also form patterns that are unique to each individual and can be used to uniquely identify each individual.
例えば、各人の暗および明血管のパターンは、固有であり、勾配演算子を網膜画像に適用し、網膜の中心に中心を置かれた標準化されたグリッド内の高低遷移を計数する等の標準的技法によって、「暗−明」コードに変換されることができる。 For example, each person's dark and clear blood vessel patterns are unique, such as applying a gradient operator to a retinal image and counting elevation transitions within a standardized grid centered on the retina. It can be converted to a "dark-bright" code by a retinal technique.
したがって、本主題のシステムは、システムによって捕捉または検出されたユーザ特性をシステムの承認されたユーザのための既知のベースラインユーザ特性を比較することによって、高度な正確度および精度を伴って、ユーザを識別するために利用され得る。 Therefore, the system of this subject, with a high degree of accuracy and accuracy, by comparing the user characteristics captured or detected by the system with the known baseline user characteristics for the approved users of the system. Can be used to identify.
さらに他の実施形態では、眼の曲率/サイズも同様に、使用され得る。例えば、この情報は、異なるユーザの眼が、類似であるが、正確に同一ではないので、ユーザの識別を補助し得る。他の実施形態では、一時的バイオメトリック情報が、ユーザがストレスにさらされているときに収集され、既知のデータと相関され得る。例えば、ユーザの心拍数が、監視され得、ユーザの眼が水の膜を産生しているかどうか、眼が近づき、一緒に焦点に集中しているかどうか、呼吸パターン、瞬き率、脈拍数等も同様に、ユーザの識別を確認および/または無効にするために使用され得る。 In yet other embodiments, eye curvature / size can be used as well. For example, this information may aid in the identification of users because the eyes of different users are similar but not exactly the same. In other embodiments, transient biometric information can be collected when the user is under stress and correlated with known data. For example, the user's heart rate can be monitored, whether the user's eyes are producing a film of water, whether the eyes are approaching and focusing together, breathing patterns, blink rates, pulse rate, etc. Similarly, it can be used to verify and / or invalidate a user's identity.
さらに他の実施形態では、ユーザの識別を確認するために(例えば、誤識別が疑われる場合)、ARシステムは、ARデバイスを通して捕捉された情報(例えば、ARデバイス62、806の視野カメラを通して捕捉された周囲環境の画像)を相関させ、ユーザが、GPSおよび環境のマップから導出されるような場所に相関する同じ場面を見ているかどうかを決定し得る。例えば、ユーザが自宅に居ると考えられる場合、ARシステムは、ユーザの自宅の既知のオブジェクトをユーザの視野カメラを通して見ているものと相関させることによって検証し得る。 In yet another embodiment, to confirm the user's identity (eg, if misidentification is suspected), the AR system captures information through the AR device (eg, through the field camera of the AR devices 62,806). It is possible to correlate (images of the surrounding environment) and determine if the user is looking at the same scene that correlates with the location as derived from the GPS and the map of the environment. For example, if the user is considered to be at home, the AR system can verify by correlating known objects at the user's home with what they are seeing through the user's field camera.
前述のAR/ユーザ識別システムは、非常にセキュアな形態のユーザ識別を提供する。言い換えると、システムは、比較的に高度な正確度および精度を伴って、ユーザを決定するために利用され得る。システムは、非常に高度な確実性を伴って、かつ継続的ベースで(例えば、周期的監視を使用して)、ユーザを把握するために利用されることができるので、別個のログインを必要とせずに、種々の金融取引を可能にするために利用されることができる。ユーザ識別システムが非常に正確であることを確実にするための1つのアプローチは、神経ネットワークの使用を通したものであり、弁理士整理番号ML30028.00下の同時係属中の出願第62/159,593号にさらに詳細に説明されている。
The AR / user identification system described above provides a very secure form of user identification. In other words, the system can be utilized to determine the user with a relatively high degree of accuracy and accuracy. The system can be used to identify users with a very high degree of certainty and on a continuous basis (eg, using periodic monitoring), requiring a separate login. It can be used to enable various financial transactions without. One approach to ensuring that the user identification system is very accurate is through the use of neural networks,
ここで図10A−10Iを参照すると、取引を実施するためのバイオメトリックデータを使用する例示的プロセスフロー1000が、図示される。図10Aに示されるように、ARデバイス1004を装着しているユーザ1002が、店舗の中に歩いて行く。店舗に居る間、ユーザ1002は、購入に関心があり得る一足の靴1006が目に入り得る。
Here, with reference to FIGS. 10A-10I, an
ここで図10Bを参照すると、ARデバイス1004を通してユーザ1002に見える靴の例示的ビューが、示される。ユーザの注視が一足の靴1006に集中させられていることを検出すると、ARデバイス1004は、一足の靴1006についての詳細(例えば、ARデバイス1004に同期された製品カタログを通して等)をルックアップし、詳細を仮想コンテンツ1008として表示し得る。ここで図10Cを参照すると、ARデバイス1004は、仮想コンテンツ1010を表示することによって、ユーザが消費を購入することを欲するかどうかを決定し得る。ユーザ1002は、任意の形態のユーザ入力(例えば、ジェスチャ、音声、眼制御等)を通して、確認または拒否し得る。
Here, with reference to FIG. 10B, an exemplary view of the shoe visible to
ここで図10Dを参照すると、ユーザが購入を決定したと仮定すると、ARデバイス1004は、仮想コンテンツ1012を通してパスワードを要求し得る。この時点で、図10Eに示されるように、ユーザ1002は、眼署名1016を生成することを始めてもよい。1つ以上の実施形態では、仮想グリッド1014が、ユーザに提示され、特定の様式で眼を移動させることを補助し得る。
With reference to FIG. 10D here, assuming that the user decides to purchase, the
図10Fに示されるように、入力された署名1016は、ARシステム1004によって受信され、所定の署名と比較され、ユーザが認証されたユーザであるかどうかを決定し得る。ユーザが認証される場合、ARデバイス1004は、図10Gに示されるように、所望の製品に関するデータをネットワーク1018を通してARサーバ1020に、販売業者1024および金融機関1022に伝送し得る。ARサーバ1020から受信された確認に基づいて、金融機関1022は、適切な金額を販売業者1024に伝送し得る。
As shown in FIG. 10F, the
図10Hに示されるように、取引が確認されると、ARデバイス1004は、靴1006の購入を確認する仮想コンテンツ1026を表示し得る。確認が受信されると、ユーザ1002は、図10Iに示されるように、所望の靴1006とともに店舗から出て行き得る。
As shown in FIG. 10H, when the transaction is confirmed, the
図10A−10Iのプロセスフローは、例証目的のためだけに本明細書に提示され、限定として読まれるべきではない、単なる例示的実施形態を表すにすぎないことを理解されたい。多数の他の実施形態も同様に、想定され得る。例えば、1つ以上の実施形態では、「パスワード」(例えば、図10D)を要求するのではなく、ARシステムは、ユーザに、画面上の仮想ドットを凝視することを要求し、ユーザの眼(例えば、網膜、虹彩、眼形状等)の画像を捕捉し得る。この画像は、次いで、ユーザの眼の既知の画像と相関され得、ユーザの識別が、確認され得る。ユーザの識別が確認されると、ARシステムは、図10Gに示されるように、情報を販売業者1024および金融機関1022に伝送し得る。同様に、多くの他の類似実施形態も、想定され得る。
It should be understood that the process flow of FIGS. 10A-10I is presented herein for illustrative purposes only and should not be read as a limitation, but merely represents an exemplary embodiment. Many other embodiments can be envisioned as well. For example, in one or more embodiments, instead of requiring a "password" (eg, FIG. 10D), the AR system requires the user to stare at the virtual dots on the screen and the user's eyes (eg, FIG. 10D). For example, images of the retina, iris, eye shape, etc.) can be captured. This image can then be correlated with a known image of the user's eye, confirming the user's identification. Once the user's identity is confirmed, the AR system may transmit information to
前述のように、そのような認証および支払システムは、取引を行うことを従来の支払モデルよりはるかに容易にすることを理解されたい。長時間かつ骨の折れる百貨店までの往復ではなく、ショッピングは、「遊び場」的体験となり、ユーザは、単に、店舗の中に歩いて行き、任意の数の製品を取り上げ、単に、店舗から出て行き得る。ARシステムは、容易に追跡されるバイオメトリックデータに基づいて、単純であって、かつ邪魔にならない識別チェックのみを要求する一方、支払詳細の大部分を引き受ける。前述のように、識別チェックは、いくつかの実施形態によると、購入時点で、任意のユーザアクションを要求しない。 As mentioned above, it should be understood that such authentication and payment systems make trading much easier than traditional payment models. Rather than a long and painstaking round trip to a department store, shopping becomes a "playground" experience, where users simply walk into the store, pick up any number of products, and simply leave the store. I can go. The AR system undertakes most of the payment details, while requiring only simple and unobtrusive identification checks based on easily tracked biometric data. As mentioned above, the identification check does not require any user action at the time of purchase, according to some embodiments.
上で詳細に議論されたように、従来のパスワードまたはサインアップ/ログインコードは、前述のAR/ユーザ識別システムおよび方法を使用して、個々のセキュアな取引から排除され得る。本主題のシステムは、非常に高度な確実性を伴って、ユーザを事前に識別/事前に認証することができる。さらに、システムは、周期的監視を使用して、ユーザの識別を経時的に維持することができる。したがって、識別されたユーザは、そのサイトの条項についての通知(オーバーレイされたユーザインターフェースアイテムとしてユーザに表示されることができる)後、任意のサイトへの瞬間アクセスを有することができる。一実施形態では、システムは、ユーザがそのサイト上の条件を瞬時に把握するように、ユーザによって事前に決定された標準的条項の組を作成し得る。サイトが本条件(例えば、標準的条項)の組に準拠しない場合、本主題のシステムは、アクセスまたはそこでの取引を自動的に許さないこともある。 As discussed in detail above, traditional passwords or sign-up / login codes can be excluded from individual secure transactions using the AR / user identification systems and methods described above. The system of the subject can pre-identify / pre-authenticate the user with a very high degree of certainty. In addition, the system can use periodic monitoring to maintain user identification over time. Thus, the identified user can have instant access to any site after being notified about the terms of that site (which can be displayed to the user as an overlaid user interface item). In one embodiment, the system may create a set of standard provisions pre-determined by the user so that the user instantly understands the conditions on the site. If the site does not comply with a set of these Terms (eg, standard terms), the system in this subject may not automatically allow access or transactions there.
加えて、前述のAR/ユーザ識別システムは、「少額取引」を促進するために使用されることができる。非常に少額のデビットおよびクレジットのみをユーザの金融口座に生成する少額取引は、典型的には、約数セントまたは1セント未満である。所与のサイト上において、本主題のシステムは、ユーザが視聴または使用したコンテンツだけではなく、その時間(短いブラウジングは無料であり得るが、ある量を超えると、有料となるであろう)も確認するように構成され得る。種々の実施形態では、ニュース記事は、1/3セントであり得、書籍は、1ページあたり1ペニー課金され得、音楽は、1回の視聴あたり10セントである等。別の実施形態では、広告主が、バナー広告を選択すること、またはアンケートを行うことに対してユーザに0.5セントを支払い得る。システムは、取引料金のわずかなパーセンテージをサービスプロバイダに配分するように構成され得る。 In addition, the AR / user identification system described above can be used to facilitate "small amount transactions". Small transactions that generate only very small debits and credits in a user's financial account are typically about a few cents or less than a cent. On a given site, the system of the subject is not only the content viewed or used by the user, but also the time (short browsing can be free, but beyond a certain amount will be charged). Can be configured to confirm. In various embodiments, news articles can be 1/3 cents, books can be charged 1 penny per page, music can be 10 cents per viewing, and so on. In another embodiment, the advertiser may pay the user 0.5 cents for selecting a banner ad or conducting a survey. The system may be configured to allocate a small percentage of the transaction fee to the service provider.
一実施形態では、システムは、ユーザによって制御可能な専用小額取引口座を作成するために利用され得、小額取引に関連した資金は、集約され、所定の有意義な金額としてユーザのより従来の金融口座(例えば、オンライン銀行口座)へ/から分配される。小額取引口座は、定期的間隔(例えば、四半期毎)において、またはあるトリガに応答して(例えば、ユーザが特定のウェブサイトにおいて数ドルを超えて費やすと)、清算または預金され得る。 In one embodiment, the system can be used to create a dedicated small transaction account that can be controlled by the user, and the funds associated with the small transaction are aggregated and the user's more traditional financial account as a predetermined meaningful amount. Distributed to / from (eg, online bank accounts). Small trading accounts can be cleared or deposited at regular intervals (eg quarterly) or in response to certain triggers (eg when a user spends more than a few dollars on a particular website).
小額取引は、従来の支払概念図式では、典型的には、非実践的かつ煩雑であるが、本明細書に説明される支払技法に説明されるように、取引がほぼ瞬時のユーザ識別および認証を通して生じる容易性は、小額取引と典型的に関連付けられた障害の多くを除去する。これは、将来的事業のための収益化の新しい手段を開拓し得る。例えば、音楽、書籍、広告等を収益化することをより容易にし得る。ユーザは、ニュース記事に1ドルを支払うことを躊躇し得るが、数分の1セントのコストの記事についてはあまり躊躇しないこともある。同様に、これらの取引(小額および高額)を実施することが有意に容易であることを前提として、広告主および出版社等は、異なるタイプの支払スキームのためのコンテンツを開拓する可能性がより高まり得る。したがって、ARシステムは、支払およびコンテンツの配信の両方を促進し、それによって、フロントエンドおよびバックエンドプロセスの両方を比較的に簡単なものにする。 Small-value transactions are typically impractical and cumbersome in traditional payment conceptual schemes, but as described in the payment techniques described herein, transactions are near-instantaneous user identification and authentication. The ease that arises through eliminates many of the obstacles typically associated with small-value transactions. This can open up new means of monetization for future businesses. For example, it may be easier to monetize music, books, advertisements and the like. Users can hesitate to pay $ 1 for news articles, but they may not hesitate too much for articles that cost a fraction of a cent. Similarly, given that it is significantly easier to carry out these transactions (small and high), advertisers, publishers, etc. are more likely to develop content for different types of payment schemes. Can increase. Therefore, the AR system facilitates both payment and content delivery, thereby making both the front-end and back-end processes relatively simple.
本主題のシステムおよび機能性は、拡張現実に焦点を当てた企業によって提供され得るので、かつユーザのIDは、非常に確実かつセキュアに把握されるので、ユーザは、その口座への瞬時のアクセス、金額、支出、支出率、ならびにその支出のグラフィカルおよび/または地理的マップの3Dビューを提供され得る。そのようなユーザは、支出(例えば、小額取引)をオフおよびオンにすること等、支出アクセスを瞬時に調節することを可能にされ得る。 The system and functionality of the subject can be provided by companies focused on augmented reality, and the user's identity is so reliably and securely known that the user has instant access to that account. , Amounts, spending, spending rates, and 3D views of graphical and / or geographical maps of that spending may be provided. Such users may be able to instantly adjust spending access, such as turning spending (eg, small transactions) off and on.
高額支出(すなわち、数ペニーまたはペニーの割合ではなく、数ドルの金額)のために、種々の実施形態が、本主題のシステム構成を用いて促進され得る。 Due to high spending (ie, a few penny or a few dollars, not a percentage of penny), various embodiments may be facilitated using the system configuration of the subject.
ユーザは、システムを使用して、その追跡された場所またはユーザ選択されたマップ場所への配達のために、生鮮食料品を注文し得る。システムはまた、配達が到着する時間をユーザに通知することができる(例えば、ARシステム内に行われている配達のビデオを表示することによって)。ARテレプレゼンスを用いて、ユーザは、その自宅から離れたオフィスに物理的に位置するが、配達員がその自宅に入らせ、アバタテレプレゼンスによって配達員に対して出現し、配達員が製品を配達したことを見届け、次いで、配達員が退出したことを確認し、アバタテレプレゼンスによってその自宅のドアを施錠することができる。 The user may use the system to order perishables for delivery to its tracked location or user-selected map location. The system can also notify the user when a delivery will arrive (eg, by viewing a video of the delivery taking place within the AR system). With AR telepresence, a user is physically located in an office away from their home, but a courier enters the home, appears to the courier by avatar telepresence, and the courier delivers the product. You can see the delivery, then confirm that the courier has left, and lock the door of your home with avatar telepresence.
随意に、システムは、ユーザ製品選好を記憶し、ユーザに、ユーザの好ましい製品に関連するセールまたは他のプロモーションをアラートし得る。これらの高額支出実施形態に関して、ユーザは、その口座概要、その口座の全統計、および購買パターンを確認し、それによって、その注文を行う前に、買物の比較を促進することができる。 Optionally, the system may memorize the user's product preferences and alert the user to a sale or other promotion related to the user's preferred product. For these high spending embodiments, the user can review the account overview, all statistics for the account, and purchasing patterns, thereby facilitating a shopping comparison before placing the order.
システムは、眼を追跡するために利用され得るので、「一瞥」による買物を可能にすることもできる。例えば、ユーザが、オブジェクト(例えば、ホテル内のローブ)を見て、「口座の金額が$3,000を超えたらこれが欲しい」と言ったとする。システムは、特定の条件(例えば、口座残高が$3,000を上回る)が満たされると、購入を実行するであろう。 Since the system can be used to track the eyes, it can also allow "at a glance" shopping. For example, suppose a user looks at an object (for example, a robe in a hotel) and says, "I want this if the amount in my account exceeds $ 3,000." The system will make a purchase when certain conditions (eg, the account balance exceeds $ 3,000) are met.
前述のように、1つ以上の実施形態では、虹彩および/もしくは網膜署名データは、通信をセキュアにするために使用され得る。そのような実施形態では、本主題のシステムは、テキスト、画像、およびコンテンツが、ユーザが1つ以上の動的に測定された虹彩ならびに/もしくは網膜署名に基づいて認証されることができるときのみアクセスを可能にする信頼されたセキュアなハードウェアデバイスに選択的に伝送可能であり、かつその上で表示可能であることを可能にするように構成され得る。ARシステムディスプレイデバイスは、直接ユーザの網膜上に投影するので、意図される受信者(虹彩および/または網膜署名によって識別される)のみが、保護されたコンテンツを視聴可能となり得、さらに、視聴デバイスがユーザ眼を能動的に監視するので、動的に読み取られた虹彩および/または網膜署名が、コンテンツがユーザの眼に実際に提示されたことの証明として記録され得る(例えば、おそらく、眼移動の要求されるシーケンスを実行する等、検証アクションによって遂行される、デジタル受信の形態として)。 As mentioned above, in one or more embodiments, the iris and / or retinal signature data can be used to secure communication. In such embodiments, the system of the subject only allows the user to authenticate based on one or more dynamically measured iris and / or retinal signatures. It may be configured to allow it to be selectively transmittable and viewable on a trusted secure hardware device that allows access. Since the AR system display device projects directly onto the user's retina, only the intended recipient (identified by the iris and / or retina signature) may be able to view the protected content, and in addition, the viewing device. Actively monitors the user's eye, so dynamically read iris and / or retinal signatures can be recorded as proof that the content was actually presented to the user's eye (eg, perhaps eye movement). As a form of digital reception performed by verification actions, such as performing the required sequence of.
スプーフィング検出は、予期される自然変動のモデルに基づいて、網膜画像の以前の記録、静的または2D網膜画像、生成された画像等を使用した試みを排除し得る。固有の基準/ウォーターマークが、網膜上に生成および投影され、監査のための固有の網膜署名を生成し得る。 Spoofing detection can rule out attempts using previous recordings of retinal images, static or 2D retinal images, generated images, etc., based on a model of expected natural variation. Unique criteria / watermarks can be generated and projected onto the retina to generate unique retinal signatures for auditing.
前述の金融および通信システムは、より正確かつ精密なユーザ識別から利益を享受し得る、種々の一般的システムの例として提供される。故に、本明細書に説明されるAR/ユーザ識別システムの使用は、開示される金融および通信システムに限定されず、むしろ、ユーザ識別を要求する任意のシステムに適用可能である。 The financial and communication systems described above are provided as examples of various common systems that can benefit from more accurate and precise user identification. Therefore, the use of the AR / user identification system described herein is not limited to the disclosed financial and communication systems, but rather is applicable to any system that requires user identification.
本発明の種々の例示的実施形態が、本明細書で説明される。非限定的な意味で、これらの例が参照される。それらは、本発明のより広くて適用可能な側面を例証するように提供される。種々の変更が、説明される本発明に行われ得、本発明の真の精神および範囲から逸脱することなく、同等物が置換され得る。加えて、特定の状況、材料、物質組成、プロセス、プロセス行為、またはステップを本発明の目的、精神、もしくは範囲に適合させるように、多くの修正が行われ得る。さらに、当業者によって理解されるように、本明細書で説明および例証される個々の変形例のそれぞれは、本発明の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離され、またはそれらと組み合わせられ得る、個別的なコンポーネントおよび特徴を有する。全てのそのような修正は、本開示に関連付けられる請求項の範囲内にあることを目的としている。 Various exemplary embodiments of the invention are described herein. In a non-limiting sense, these examples are referenced. They are provided to illustrate the broader and applicable aspects of the invention. Various modifications can be made to the invention described and equivalents can be replaced without departing from the true spirit and scope of the invention. In addition, many modifications can be made to adapt a particular situation, material, material composition, process, process action, or step to the object, spirit, or scope of the invention. Moreover, as will be appreciated by those skilled in the art, each of the individual variants described and illustrated herein will be of some other embodiment without departing from the scope or spirit of the invention. It has individual components and features that can be easily separated from or combined with any of the features. All such amendments are intended to be within the claims associated with this disclosure.
本発明は、主題デバイスを使用して行われ得る方法を含む。方法は、そのような好適なデバイスを提供するという行為を含み得る。そのような提供は、エンドユーザによって行われ得る。換言すれば、「提供する」行為は、単に、エンドユーザが、主題方法において必須デバイスを提供するように、取得し、アクセスし、接近し、位置付けし、設定し、起動し、電源を入れ、または別様に作用することを要求する。本明細書で記載される方法は、論理的に可能である記載された事象の任意の順序で、ならびに事象の記載された順序で実行され得る。 The present invention includes methods that can be performed using the subject device. The method may include the act of providing such a suitable device. Such provision may be made by the end user. In other words, the act of "providing" simply acquires, accesses, approaches, positions, configures, launches, powers on, and provides the end user with the essential device in the subject method. Or require it to act differently. The methods described herein can be performed in any order in which the events are described, which is logically possible, and in the order in which the events are described.
本発明の例示的側面が、材料選択および製造に関する詳細とともに、上で記載されている。本発明の他の詳細に関しては、これらは、上で参照された特許および出版物と関連して理解されるとともに、概して、当業者によって公知である、または理解され得る。一般的または論理的に採用されるような追加の行為の観点から、本発明の方法ベースの側面に関して、同じことが当てはまり得る。 Illustrative aspects of the invention are described above, along with details regarding material selection and manufacture. With respect to other details of the invention, they are understood in connection with the patents and publications referenced above, and are generally known or can be understood by those skilled in the art. The same may be true with respect to the method-based aspects of the invention in terms of additional actions that are generally or logically adopted.
加えて、本発明は、種々の特徴を随意的に組み込むいくつかの例を参照して説明されているが、本発明は、本発明の各変形例に関して考慮されるような説明および指示されるものに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、同等物(本明細書に記載されようと、いくらか簡単にするために含まれていなかろうと)が置換され得る。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定または介在値が、本発明内に包含されることを理解されたい。 In addition, while the invention is described with reference to some examples that optionally incorporate various features, the invention is described and directed as considered for each variant of the invention. It is not limited to things. Various modifications may be made to the invention described and are included for some simplification, as described herein, without departing from the true spirit and scope of the invention. (Whether or not) can be replaced. In addition, if a range of values is provided, all intervening values between the upper and lower bounds of the range, and any other provisions or intervening values within that defined range, are included within the invention. Please understand that.
また、説明される本発明の変形例の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つ以上のものと組み合わせて、記載および請求され得ることが考慮される。単数形のアイテムへの参照は、複数形の同一のアイテムが存在するという可能性を含む。より具体的には、本明細書で、および本明細書に関連付けられる請求項で使用されるように、「1つの(「a」、「an」)」、「該(said)」、および「the(the)」という単数形は、特に規定がない限り、複数形の指示参照を含む。換言すれば、冠詞の使用は、上記の説明ならびに本開示に関連付けられる請求項において、主題アイテムの「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、この記述は、請求項の要素の記載と関連して、「単に」、「のみ」、および同等物等の排他的用語の使用、または「否定的」制限の使用のために、先行詞としての機能を果たすことを目的としている。 Also, any optional features of the embodiments of the invention described are described and claimed independently or in combination with any one or more of the features described herein. To get is considered. References to singular items include the possibility that the same plural item exists. More specifically, as used herein and in the claims associated with this specification, "one (" a "," an ")", "said", and " The singular form "the (the)" includes the plural directive reference unless otherwise specified. In other words, the use of articles allows for "at least one" subject item in the above description as well as in the claims associated with the present disclosure. Moreover, it should be noted that such claims may be drafted to exclude any voluntary elements. Therefore, this statement is antecedent for the use of exclusive terms such as "simply", "only", and equivalents, or the use of "negative" restrictions in connection with the description of the elements of the claim. The purpose is to fulfill the function as.
そのような排他的用語を使用することなく、本開示に関連付けられる請求項での「備えている」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加をそのような請求項に記載される要素の性質の変換として見なすことができるかにかかわらず、任意の追加の要素を含むことを可能にするものとする。本明細書で具体的に定義される場合を除いて、本明細書で使用される全ての技術および科学用語は、請求項の有効性を維持しながら、可能な限り広い一般的に理解されている意味を与えられるものである。 Without using such exclusive terms, the term "equipped" in the claims associated with this disclosure is such that a given number of elements are listed or featured in such claims. It shall be possible to include any additional elements, regardless of whether the addition of may be considered as a transformation of the nature of the elements described in such claims. Except as specifically defined herein, all technical and scientific terms used herein are generally understood as broadly as possible while maintaining the validity of the claims. It is given the meaning of being.
本発明の範疇は、提供される実施例および/または主題の明細書に限定されるものではなく、むしろ、本開示に関連付けられる請求項の言葉の範囲のみによって限定されるものである。 The scope of the present invention is not limited to the specification of the examples and / or the subject matter provided, but rather to the scope of the claims associated with the present disclosure.
Claims (19)
前記ARデバイスの少なくとも1つのカメラが、バイオメトリックデータを前記ARデバイスを装着しているユーザから捕捉することと、
前記ARデバイスと通信している前記ローカル処理モジュールが、前記ローカル処理モジュールが眼移動ベースのユーザ識別プロトコルを実行することによる前記捕捉されたバイオメトリックデータの分析に少なくとも部分的に基づいて、前記ユーザの識別を決定することであって、前記眼移動ベースのユーザ識別プロトコルは、
所定の眼署名移動パターンに従って注視を移動させることによって眼移動ベースのパスワードを入力するように前記ユーザに促すための命令を前記ARデバイス上に表示することと、
前記ローカル処理モジュールが、前記表示された命令に応答して前記ユーザによって入力された前記眼移動ベースのパスワードを追跡することであって、前記眼移動ベースのパスワードは、前記ARデバイスが前記ユーザの頭部に装着されている間に前記ARデバイスの少なくとも1つのカメラを通して捕捉される、ことと、
前記ローカル処理モジュールが、追跡された眼移動を前記所定の眼署名移動パターンと比較することであって、前記追跡された眼移動が前記所定の眼署名移動パターンと異なる場合に、前記ARデバイス内の前記捕捉されたバイオメトリックデータは削除される、ことと
を含む、ことと、
前記ローカル処理モジュールが、前記追跡された眼移動が前記所定の眼署名移動パターンに一致する場合に、オブジェクトを購入するための取引を開始するために通信を遠隔サーバに伝送することであって、前記通信は、ユーザの前記識別を含む、ことと、
第1のネットワークを通して前記ローカル処理モジュールと通信している前記遠隔サーバが、前記注視の前記追跡された眼移動が前記所定の眼署名移動パターンに対応することを決定したことに応じて前記決定された識別に基づいて前記取引のために前記ユーザを認証することと
を含む、方法。 A method of conducting a transaction through an AR system that includes a local processing module, a remote server and an augmented reality (AR) device.
At least one camera of the AR device captures biometric data from the user wearing the AR device.
The local processing module communicating with the AR device is at least partially based on the analysis of the captured biometric data by the local processing module executing an eye movement based user identification protocol. The eye movement-based user identification protocol is to determine the identification of
Displaying an instruction on the AR device to prompt the user to enter an eye movement-based password by moving the gaze according to a predetermined eye signature movement pattern.
The local processing module tracks the eye movement-based password entered by the user in response to the displayed instruction, wherein the AR device is the user of the eye movement-based password. Being captured through at least one camera of the AR device while worn on the head,
In the AR device, the local processing module compares the tracked eye movement with the predetermined eye signature movement pattern , where the tracked eye movement differs from the predetermined eye signature movement pattern. The captured biometric data of the
The local processing module is to transmit communication to a remote server to initiate a transaction to purchase an object when the tracked eye movement matches the predetermined eye signature movement pattern. That the communication includes said identification of the user.
The remote server communicating with the local processing module through the first network determines that the tracked eye movement of the gaze corresponds to the predetermined eye signature movement pattern. A method comprising authenticating the user for the transaction based on the identification.
前記ARデバイスが、新しいバイオメトリックデータを、前記検出されたイベントおよび前記新しいバイオメトリックデータに少なくとも部分的に基づいて前記ユーザを再認証するために、前記ユーザから捕捉することと
をさらに含む、請求項1に記載の方法。 When the local processing module detects an interruption event or transaction event associated with the AR device,
Claimed that the AR device captures new biometric data from the user in order to reauthenticate the user based on the detected event and the new biometric data at least in part. Item 1. The method according to item 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021063135A JP7106706B2 (en) | 2015-05-14 | 2021-04-01 | Augmented reality system and method for tracking biometric data |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562161588P | 2015-05-14 | 2015-05-14 | |
US62/161,588 | 2015-05-14 | ||
PCT/US2016/032583 WO2016183541A1 (en) | 2015-05-14 | 2016-05-14 | Augmented reality systems and methods for tracking biometric data |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021063135A Division JP7106706B2 (en) | 2015-05-14 | 2021-04-01 | Augmented reality system and method for tracking biometric data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018526701A JP2018526701A (en) | 2018-09-13 |
JP6863902B2 true JP6863902B2 (en) | 2021-04-21 |
Family
ID=57249401
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017558979A Active JP6863902B2 (en) | 2015-05-14 | 2016-05-14 | Augmented reality systems and methods for tracking biometric data |
JP2021063135A Active JP7106706B2 (en) | 2015-05-14 | 2021-04-01 | Augmented reality system and method for tracking biometric data |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021063135A Active JP7106706B2 (en) | 2015-05-14 | 2021-04-01 | Augmented reality system and method for tracking biometric data |
Country Status (8)
Country | Link |
---|---|
EP (1) | EP3295347A4 (en) |
JP (2) | JP6863902B2 (en) |
KR (1) | KR102393271B1 (en) |
CN (1) | CN107533600A (en) |
AU (1) | AU2016262579B2 (en) |
CA (1) | CA2984455C (en) |
IL (1) | IL255325B (en) |
WO (1) | WO2016183541A1 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066079A (en) * | 2016-11-29 | 2017-08-18 | 阿里巴巴集团控股有限公司 | Service implementation method and device based on virtual reality scenario |
CN206301289U (en) * | 2016-11-29 | 2017-07-04 | 阿里巴巴集团控股有限公司 | VR terminal devices |
CN108334185A (en) * | 2017-01-20 | 2018-07-27 | 深圳纬目信息技术有限公司 | A kind of eye movement data reponse system for wearing display equipment |
CN106980983A (en) * | 2017-02-23 | 2017-07-25 | 阿里巴巴集团控股有限公司 | Service authentication method and device based on virtual reality scenario |
CN107122642A (en) | 2017-03-15 | 2017-09-01 | 阿里巴巴集团控股有限公司 | Identity identifying method and device based on reality environment |
WO2019031531A1 (en) * | 2017-08-10 | 2019-02-14 | 日本電気株式会社 | Information acquisition system, information acquisition method, and storage medium |
US11050752B2 (en) | 2018-06-07 | 2021-06-29 | Ebay Inc. | Virtual reality authentication |
EP3772699A1 (en) * | 2019-08-09 | 2021-02-10 | Siemens Aktiengesellschaft | Method for user verification, communication device and computer program |
KR102628102B1 (en) * | 2019-08-16 | 2024-01-23 | 엘지전자 주식회사 | Xr device and method for controlling the same |
CN111104927B (en) * | 2019-12-31 | 2024-03-22 | 维沃移动通信有限公司 | Information acquisition method of target person and electronic equipment |
JP6839324B1 (en) * | 2020-08-06 | 2021-03-03 | 株式会社キューブシステム | Input system, input program and input method |
US12008605B2 (en) | 2022-02-16 | 2024-06-11 | International Business Machines Corporation | Peer-to-peer donation management |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL152756A0 (en) * | 2000-05-16 | 2003-06-24 | Swisscom Mobile Ag | Biometric identification and authentication method |
US9031880B2 (en) | 2001-07-10 | 2015-05-12 | Iii Holdings 1, Llc | Systems and methods for non-traditional payment using biometric data |
JP4765575B2 (en) * | 2005-11-18 | 2011-09-07 | 富士通株式会社 | Personal authentication method, personal authentication program, and personal authentication device |
JP5375481B2 (en) * | 2009-09-24 | 2013-12-25 | ブラザー工業株式会社 | Head mounted display |
US8482859B2 (en) * | 2010-02-28 | 2013-07-09 | Osterhout Group, Inc. | See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film |
CN102906623A (en) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | Local advertising content on an interactive head-mounted eyepiece |
JP5548042B2 (en) * | 2010-06-23 | 2014-07-16 | ソフトバンクモバイル株式会社 | User terminal device and shopping system |
US8438110B2 (en) * | 2011-03-08 | 2013-05-07 | Bank Of America Corporation | Conducting financial transactions based on identification of individuals in an augmented reality environment |
US20130030924A1 (en) * | 2011-07-28 | 2013-01-31 | American Express Travel Related Services Company, Inc. | Systems and methods for generating and using a digital pass |
US8988350B2 (en) * | 2011-08-20 | 2015-03-24 | Buckyball Mobile, Inc | Method and system of user authentication with bioresponse data |
US20150012426A1 (en) * | 2013-01-04 | 2015-01-08 | Visa International Service Association | Multi disparate gesture actions and transactions apparatuses, methods and systems |
US10223710B2 (en) * | 2013-01-04 | 2019-03-05 | Visa International Service Association | Wearable intelligent vision device apparatuses, methods and systems |
US20150084864A1 (en) * | 2012-01-09 | 2015-03-26 | Google Inc. | Input Method |
US9100825B2 (en) * | 2012-02-28 | 2015-08-04 | Verizon Patent And Licensing Inc. | Method and system for multi-factor biometric authentication based on different device capture modalities |
HK1160574A2 (en) * | 2012-04-13 | 2012-07-13 | King Hei Francis Kwong | Secure electronic payment system and process |
US8953850B2 (en) * | 2012-08-15 | 2015-02-10 | International Business Machines Corporation | Ocular biometric authentication with system verification |
US9164580B2 (en) * | 2012-08-24 | 2015-10-20 | Microsoft Technology Licensing, Llc | Calibration of eye tracking system |
JP2014092940A (en) * | 2012-11-02 | 2014-05-19 | Sony Corp | Image display device and image display method and computer program |
US9979547B2 (en) * | 2013-05-08 | 2018-05-22 | Google Llc | Password management |
US9336781B2 (en) * | 2013-10-17 | 2016-05-10 | Sri International | Content-aware speaker recognition |
-
2016
- 2016-05-14 CA CA2984455A patent/CA2984455C/en active Active
- 2016-05-14 AU AU2016262579A patent/AU2016262579B2/en active Active
- 2016-05-14 KR KR1020177035995A patent/KR102393271B1/en active IP Right Grant
- 2016-05-14 CN CN201680027161.7A patent/CN107533600A/en active Pending
- 2016-05-14 JP JP2017558979A patent/JP6863902B2/en active Active
- 2016-05-14 EP EP16793671.5A patent/EP3295347A4/en not_active Ceased
- 2016-05-14 WO PCT/US2016/032583 patent/WO2016183541A1/en active Application Filing
-
2017
- 2017-10-30 IL IL255325A patent/IL255325B/en active IP Right Grant
-
2021
- 2021-04-01 JP JP2021063135A patent/JP7106706B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7106706B2 (en) | 2022-07-26 |
KR20180008632A (en) | 2018-01-24 |
JP2018526701A (en) | 2018-09-13 |
IL255325A0 (en) | 2017-12-31 |
AU2016262579A1 (en) | 2017-11-23 |
CA2984455A1 (en) | 2016-11-17 |
KR102393271B1 (en) | 2022-04-29 |
CA2984455C (en) | 2022-02-08 |
CN107533600A (en) | 2018-01-02 |
WO2016183541A1 (en) | 2016-11-17 |
EP3295347A1 (en) | 2018-03-21 |
IL255325B (en) | 2021-04-29 |
EP3295347A4 (en) | 2018-05-02 |
AU2016262579B2 (en) | 2021-06-03 |
NZ736861A (en) | 2021-06-25 |
JP2021121923A (en) | 2021-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7106706B2 (en) | Augmented reality system and method for tracking biometric data | |
US20160358181A1 (en) | Augmented reality systems and methods for tracking biometric data | |
JP6879938B2 (en) | Devices, methods, and systems for biometric user recognition utilizing neural networks | |
JP7416552B2 (en) | a head-mounted display system configured to exchange biometric information; | |
US9038127B2 (en) | Physical interaction with virtual objects for DRM | |
US20180357670A1 (en) | Dynamically capturing, transmitting and displaying images based on real-time visual identification of object | |
NZ736861B2 (en) | Augmented reality systems and methods for tracking biometric data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6863902 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |