JP2022172061A - 推奨を配信する方法、デバイス、及びシステム - Google Patents
推奨を配信する方法、デバイス、及びシステム Download PDFInfo
- Publication number
- JP2022172061A JP2022172061A JP2022111950A JP2022111950A JP2022172061A JP 2022172061 A JP2022172061 A JP 2022172061A JP 2022111950 A JP2022111950 A JP 2022111950A JP 2022111950 A JP2022111950 A JP 2022111950A JP 2022172061 A JP2022172061 A JP 2022172061A
- Authority
- JP
- Japan
- Prior art keywords
- objects
- user
- image data
- pass
- cgr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 230000004044 response Effects 0.000 claims abstract description 15
- 238000009877 rendering Methods 0.000 claims description 25
- 230000009471 action Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 7
- 230000006835 compression Effects 0.000 claims description 6
- 238000007906 compression Methods 0.000 claims description 6
- 230000001052 transient effect Effects 0.000 claims 2
- 230000003993 interaction Effects 0.000 description 18
- 241000282472 Canis lupus familiaris Species 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000010422 painting Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000001953 sensory effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 239000002131 composite material Substances 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 235000020805 dietary restrictions Nutrition 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004870 electrical engineering Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 230000035764 nutrition Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000005476 soldering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】CGRデバイスは、ユーザ固有のCGRコンテンツアイテムをレンダリングする電子デバイスであって、画像センサによってキャプチャされた視野を特徴付けるパススルー画像データを取得し、パススルー画像データ内の認識された対象がユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定し、パススルー画像データ内の認識された対象が信頼スコア閾値を満たすと判定したことに応じて、認識された対象に関連付けられた1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムを生成し、パススルー画像データを、視野内の認識された対象に近接した1つ以上のCGRコンテンツアイテムと合成する。
【選択図】図6
Description
本出願は、参照によりその全体が本明細書に組み込まれる、2018年9月11日出願の米国特許仮出願第62/729,960号に対する優先権を主張するものである。
本出願は、概して、コンピュータ生成現実環境において推奨を配信することに関し、最適な推奨の配信を可能にする電子デバイスを含むが、これらに限定されない。
Claims (38)
- 1つ以上のプロセッサ及び非一時的メモリを含むデバイスにおいて、
画像センサによってキャプチャされた視野を特徴付けるパススルー画像データを取得することと、
前記パススルー画像データ内の認識された対象が、ユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定することと、
前記パススルー画像データ内の前記認識された対象が、前記信頼スコア閾値を満たすと判定したことに応じて、前記認識された対象に関連付けられた1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムを生成することと、
前記パススルー画像データを、前記視野内の前記認識された対象に近接した前記1つ以上のCGRコンテンツアイテムと合成することと、
を含む、方法。 - 前記パススルー画像データ内の前記認識された対象が、
前記視野内の領域における視線を検出することと、
前記領域に対応する前記パススルー画像データのサブセットを取得することと、
前記パススルー画像データの前記サブセット及び分類子に基づいて、前記認識された対象を識別することと、
によって認識される、請求項1に記載の方法。 - 前記視線に基づいて、それぞれが前記領域内の対象に関連付けられた分類子に重みを割り当てることと、
前記視線に対する更新に基づいて、前記分類子に対する前記重みを調整することと、
前記分類子を最も高い重みの前記分類子から選択することと、
を更に含む、請求項2に記載の方法。 - 前記領域が、前記認識された対象の少なくとも一部を含む、請求項2又は3に記載の方法。
- 前記視野内の領域に近接した視線を検出することを更に含み、前記認識された対象が、前記領域から閾値距離内にあり、かつ前記ユーザ固有の推奨プロファイルに基づいて識別され、
拡張された領域に対応する前記パススルー画像データのサブセットを取得することと、
前記パススルー画像データの前記サブセット及び分類子に基づいて前記認識された対象を識別することと、
を含む、請求項1から4のいずれか一項に記載の方法。 - 前記視野内の前記パススルー画像データを前記認識された対象に近接して表示された前記1つ以上のCGRコンテンツアイテムと共にレンダリングすることを更に含む、請求項1から5のいずれか一項に記載の方法。
- 前記1つ以上のCGRコンテンツアイテムが、前記認識された対象に関連付けられた情報、又は前記認識された対象に関連付けられたアクションを実行するオプションのうちの少なくとも1つを含む、請求項1から6のいずれか一項に記載の方法。
- 前記認識された対象が、複数の検索可能要素を含み、それぞれが、少なくとも1つの分類子に関連付けられている、請求項1から7のいずれか一項に記載の方法。
- 前記ユーザ固有の推奨プロファイルが、ユーザが前記デバイスと相互作用するコンテキスト、前記ユーザのバイオメトリクス、前記ユーザによる以前の検索、又は前記ユーザのプロファイルのうちの少なくとも1つを含む、請求項1から8のいずれか一項に記載の方法。
- 非一時的メモリと、
1つ以上のプロセッサとを備える、デバイスであって、
前記1つ以上のプロセッサが、画像センサによってキャプチャされた視野を特徴付けるパススルー画像データを取得し、
前記パススルー画像データ内の認識された対象が、ユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定し、
前記パススルー画像データ内の前記認識された対象が、前記信頼スコア閾値を満たすと判定したことに応じて、前記認識された対象に関連付けられた1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムを生成し、
前記パススルー画像データを、前記視野内の前記認識された対象に近接した前記1つ以上のCGRコンテンツアイテムと合成する、
ように構成されている、デバイス。 - 前記パススルー画像データ内の前記認識された対象が、
前記視野内の領域における視線を検出することと、
前記領域に対応する前記パススルー画像データのサブセットを取得することと、
前記パススルー画像データの前記サブセット及び分類子に基づいて、前記認識された対象を識別することと、
によって認識される、請求項10に記載のデバイス。 - 前記1つ以上のプロセッサが、
前記視線に基づいて、それぞれが前記領域内の対象に関連付けられた分類子に重みを割り当て、
前記視線に対する更新に基づいて、前記分類子に対する前記重みを調整し、
前記分類子を最も高い重みの前記分類子から選択する、
ように更に構成されている、請求項11に記載のデバイス。 - 前記領域が、前記認識された対象の少なくとも一部を含む、請求項11又は12に記載のデバイス。
- 前記1つ以上のプロセッサが、前記視野内の領域に近接した視線を検出するように更に構成されており、前記認識された対象が、前記領域から閾値距離内にあり、かつ前記ユーザ固有の推奨プロファイルに基づいて、
拡張された領域に対応する前記パススルー画像データのサブセットを取得することと、
前記パススルー画像データの前記サブセット及び分類子に基づいて、前記認識された対象を識別することと、
によって識別される、請求項10から13のいずれか一項に記載のデバイス。 - 前記1つ以上のプロセッサが、前記視野内の前記パススルー画像データを前記認識された対象に近接して表示された前記1つ以上のCGRコンテンツアイテムと共にレンダリングするように更に構成されている、請求項10から14のいずれか一項に記載のデバイス。
- 前記1つ以上のCGRコンテンツアイテムが、前記認識された対象に関連付けられた情報、又は前記認識された対象に関連付けられたアクションを実行するオプションのうちの少なくとも1つを含む、請求項10から15のいずれか一項に記載のデバイス。
- 前記認識された対象が、複数の検索可能要素を含み、それぞれが、少なくとも1つの分類子に関連付けられている、請求項10から16のいずれか一項に記載のデバイス。
- 前記ユーザ固有の推奨プロファイルが、ユーザが前記デバイスと相互作用するコンテキスト、前記ユーザのバイオメトリクス、前記ユーザによる以前の検索、又は前記ユーザのプロファイルのうちの少なくとも1つを含む、請求項10から17のいずれか一項に記載のデバイス。
- エンコードされた命令を有する非一時的コンピュータ可読媒体であって、前記命令が、デバイスの1つ以上のプロセッサによって実行されると、前記デバイスに、
画像センサによってキャプチャされた視野を特徴付けるパススルー画像データを取得させ、
前記パススルー画像データ内の認識された対象が、ユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定させ、
前記パススルー画像データ内の前記認識された対象が、前記信頼スコア閾値を満たすと判定したことに応じて、前記認識された対象に関連付けられた1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムを生成させ、
前記パススルー画像データを、前記視野内の前記認識された対象に近接した前記1つ以上のCGRコンテンツアイテムと合成させる、
非一時的コンピュータ可読媒体。 - 1つ以上のプロセッサ及び非一時的メモリを含むデバイスにおいて、
前記デバイスの第1の姿勢に関連付けられた対象の第1のセットを取得することと、
ユーザコンテキスト及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対して尤度推定値を判定することと、
前記対象の第1のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が信頼閾値を上回るかどうかを判定することと、
前記少なくとも1つの尤度推定値が前記信頼閾値を上回ると判定したことに応じて、前記少なくとも1つのそれぞれの対象に関連付けられた少なくとも1つの分類子及び前記ユーザコンテキストを使用して、前記少なくとも1つのそれぞれの対象に関連付けられた推奨されるコンテンツ又はアクションを生成することと、
を含む、方法。 - 前記対象の第1のセットが、第1の期間中に画像センサによってキャプチャされ、前記方法が、第2の期間中に、
前記ユーザコンテキストの第2の期間中に更新された値を取得することと、
前記ユーザコンテキストの前記更新された値及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対する前記尤度推定値を更新することと、
を更に含む、請求項20に記載の方法。 - 前記ユーザコンテキスト及び前記第1の姿勢に基づいて前記対象の第1のセットのそれぞれに対して前記尤度推定値を判定することが、
前記デバイスの第2の姿勢に関連付けられた対象の第2のセットであって、少なくとも1つの対象が前記対象の第1のセット及び前記対象の第2のセット内にある、対象の第2のセットを取得することと、
前記第2の姿勢、前記ユーザコンテキスト、及び前記第1の姿勢に基づいて、前記少なくとも1つの対象に対する少なくとも1つの尤度推定値を判定することと、
を含む、請求項20又は21に記載の方法。 - 前記対象の第1のセット内の前記少なくとも1つのそれぞれの対象に対する前記少なくとも1つの尤度推定値が、前記信頼閾値を上回るかどうかを判定することが、前記少なくとも1つの尤度推定値を前記対象の第1のセット内の他の対象に対する尤度推定値と比較することを含む、請求項20から22のいずれか一項に記載の方法。
- 前記対象の第1のセット内の前記少なくとも1つのそれぞれの対象に対する前記少なくとも1つの尤度推定値が、第1の対象に対する第1の尤度推定値と、第2の対象に対する第2の尤度推定値と、を含み、
前記方法が、
前記第1の対象に対する更新された第1の尤度推定値と、前記第2の対象に対する更新された第2の尤度推定値とを生成することを含めて、更新されたユーザコンテキスト及び更新された第1の姿勢情報のうちの少なくとも1つに基づいて、前記対象の第1のセットのそれぞれに対する前記尤度推定値を更新することと、
前記更新された第1の尤度推定値と前記更新された第2の尤度推定値とに基づいて、前記第1の対象と前記第2の対象との間で選択することと、
を更に含む、請求項20から23のいずれか一項に記載の方法。 - 前記ユーザコンテキスト及び前記第1の姿勢に関連付けられた前記対象の第1のセットを表す圧縮ベクトルを生成することと、
前記対象の第1のセットに関連付けられた分類子の推奨される重みを生成するために、前記圧縮ベクトルを第2のデバイスに送信することと、
前記推奨されるコンテンツ又はアクションを生成するために、前記第2のデバイスから前記推奨される重みを受信することと、
を更に含む、請求項20から24のいずれか一項に記載の方法。 - 前記対象の第1のセット内の対象に対する分類子に関連付けられた重みによって順序付けられた複数のカスケードキャッシュに、前記対象の第1のセット及び関連付けられた重みを記憶することを更に含む、請求項20から25のいずれか一項に記載の方法。
- 前記信頼閾値を上回る更新されたユーザコンテキスト及び更新された第1の姿勢情報のうちの少なくとも1つに基づいて、異なる対象を予測することと、
前記異なる対象に関連付けられた推奨されるコンテンツ又はアクションのセットを生成することと、
を更に含む、請求項20から26のいずれか一項に記載の方法。 - 前記対象の第1のセットが、
前記デバイスの視野内の第1の領域に近接した視線を検出することと、
前記第1の領域に対応する画像データを取得することと、
前記画像データ及び1つ以上の分類子に基づいて、前記対象の第1のセットを分類することと、
によって認識される、請求項20から27のいずれか一項に記載の方法。 - 非一時的メモリと、
1つ以上のプロセッサを備えるデバイスであって、前記1つ以上のプロセッサが、
前記デバイスの第1の姿勢に関連付けられた対象の第1のセットを取得し、
ユーザコンテキスト及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対して尤度推定値を判定し、
前記対象の第1のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が信頼閾値を上回るかどうかを判定し、
前記少なくとも1つの尤度推定値が前記信頼閾値を上回ると判定したことに応じて、前記少なくとも1つのそれぞれの対象に関連付けられた少なくとも1つの分類子及び前記ユーザコンテキストを使用して、前記少なくとも1つのそれぞれの対象に関連付けられた推奨されるコンテンツ又はアクションを生成する、
ように構成されている、デバイス。 - 前記対象の第1のセットが、第1の期間中に画像センサによってキャプチャされ、前記1つ以上のプロセッサが、第2の期間中に、
前記ユーザコンテキストの第2の期間中に更新された値を取得し、
前記ユーザコンテキストの前記更新された値及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対する前記尤度推定値を更新する、
ように更に構成されている、請求項29に記載のデバイス。 - 前記1つ以上のプロセッサが、
前記デバイスの第2の姿勢に関連付けられた対象の第2のセットであって、少なくとも1つの対象が前記対象の第1のセット及び前記第2のセット内にある、対象の第2のセットを取得することと、
前記第2の姿勢、前記ユーザコンテキスト、及び前記第1の姿勢に基づいて、前記少なくとも1つの対象に対する少なくとも1つの尤度推定値を判定することと、
によって、前記ユーザコンテキスト及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対する前記尤度推定値を判定するように構成されている、請求項29又は30に記載のデバイス。 - 前記1つ以上のプロセッサが、前記少なくとも1つの尤度推定値を前記対象の第1のセット内の他の対象に対する尤度推定値と比較することによって、前記対象の第1のセット内の前記少なくとも1つのそれぞれの対象に対する前記少なくとも1つの尤度推定値が前記信頼閾値を上回るかどうかを判定するように構成されている、請求項29から31のいずれか一項に記載のデバイス。
- 前記対象の第1のセット内の前記少なくとも1つのそれぞれの対象に対する前記少なくとも1つの尤度推定値が、第1の対象に対する第1の尤度推定値と、第2の対象に対する第2の尤度推定値と、を含み、
前記1つ以上のプロセッサが、
前記第1の対象に対する更新された第1の尤度推定値と、前記第2の対象に対する更新された第2の尤度推定値とを生成することを含めて、更新されたユーザコンテキスト及び更新された第1の姿勢情報のうちの少なくとも1つに基づいて、前記対象の第1のセットのそれぞれに対する前記尤度推定値を更新し、
前記更新された第1の尤度推定値と前記更新された第2の尤度推定値とに基づいて、前記第1の対象と前記第2の対象との間で選択する、
ように更に構成されている、請求項29から32のいずれか一項に記載の方法。 - 前記1つ以上のプロセッサが、
前記ユーザコンテキスト及び前記第1の姿勢に関連付けられた前記対象の第1のセットを表す圧縮ベクトルを生成し、
前記対象の第1のセットに関連付けられた分類子の推奨される重みを生成するために、前記圧縮ベクトルを第2のデバイスに送信し、
前記推奨されるコンテンツ又はアクションを生成するために、前記第2のデバイスから前記推奨される重みを受信する、
ように更に構成されている、請求項29から33のいずれか一項に記載の方法。 - 前記1つ以上のプロセッサが、前記対象の第1のセット内の対象に対する分類子に関連付けられた重みによって順序付けられた複数のカスケードキャッシュに、前記対象の第1のセット及び関連付けられた重みを記憶するように更に構成されている、請求項29から34のいずれか一項に記載のデバイス。
- 前記1つ以上のプロセッサが、
前記信頼閾値を上回る更新されたユーザコンテキスト及び更新された第1の姿勢情報のうちの少なくとも1つに基づいて、異なる対象を予測し、
前記異なる対象に関連付けられた推奨されるコンテンツ又はアクションのセットを生成する、
ように更に構成されている、請求項29から35のいずれか一項に記載のデバイス。 - 前記対象の第1のセットが、
前記デバイスの視野内の第1の領域に近接した視線を検出することと、
前記第1の領域に対応する画像データを取得することと、
前記画像データ及び1つ以上の分類子に基づいて、前記対象の第1のセットを分類することと、
によって認識される、請求項29から36のいずれか一項に記載のデバイス。 - エンコードされた命令を有する非一時的コンピュータ可読媒体であって、前記命令が、デバイスの1つ以上のプロセッサによって実行されると、前記デバイスに、
前記デバイスの第1の姿勢に関連付けられた対象の第1のセットを取得させ、
ユーザコンテキスト及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対して尤度推定値を判定させ、
前記対象の第1のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が信頼閾値を上回るかどうかを判定させ、
前記少なくとも1つの尤度推定値が前記信頼閾値を上回ると判定したことに応じて、前記少なくとも1つのそれぞれの対象に関連付けられた少なくとも1つの分類子及び前記ユーザコンテキストを使用して、前記少なくとも1つのそれぞれの対象に関連付けられた推奨されるコンテンツ又はアクションを生成させる、
非一時的コンピュータ可読媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862729960P | 2018-09-11 | 2018-09-11 | |
US62/729,960 | 2018-09-11 | ||
JP2021509849A JP2021536054A (ja) | 2018-09-11 | 2019-09-11 | 推奨を配信する方法、デバイス、及びシステム |
PCT/US2019/050498 WO2020055935A1 (en) | 2018-09-11 | 2019-09-11 | Method, device, and system for delivering recommendations |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021509849A Division JP2021536054A (ja) | 2018-09-11 | 2019-09-11 | 推奨を配信する方法、デバイス、及びシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022172061A true JP2022172061A (ja) | 2022-11-15 |
JP7379603B2 JP7379603B2 (ja) | 2023-11-14 |
Family
ID=68051973
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021509849A Pending JP2021536054A (ja) | 2018-09-11 | 2019-09-11 | 推奨を配信する方法、デバイス、及びシステム |
JP2022111950A Active JP7379603B2 (ja) | 2018-09-11 | 2022-07-12 | 推奨を配信する方法、デバイス、及びシステム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021509849A Pending JP2021536054A (ja) | 2018-09-11 | 2019-09-11 | 推奨を配信する方法、デバイス、及びシステム |
Country Status (6)
Country | Link |
---|---|
US (2) | US20200082576A1 (ja) |
EP (2) | EP3850467B1 (ja) |
JP (2) | JP2021536054A (ja) |
KR (1) | KR20210034669A (ja) |
CN (1) | CN112639684A (ja) |
WO (1) | WO2020055935A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020226832A1 (en) * | 2019-05-06 | 2020-11-12 | Apple Inc. | Device, method, and computer-readable medium for presenting computer-generated reality files |
US11315326B2 (en) * | 2019-10-15 | 2022-04-26 | At&T Intellectual Property I, L.P. | Extended reality anchor caching based on viewport prediction |
US11815679B2 (en) * | 2021-04-16 | 2023-11-14 | Industrial Technology Research Institute | Method, processing device, and display system for information display |
US11587316B2 (en) * | 2021-06-11 | 2023-02-21 | Kyndryl, Inc. | Segmenting visual surrounding to create template for user experience |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013516687A (ja) * | 2010-01-11 | 2013-05-13 | インテル・コーポレーション | ビューイングフラスタムを用いて客体に関する情報を提供するための方法、システム及びコンピュータ読み取り可能な記録媒体 |
JP2014120114A (ja) * | 2012-12-19 | 2014-06-30 | Aisin Aw Co Ltd | 走行支援システム、走行支援方法及びコンピュータプログラム |
JP2014206904A (ja) * | 2013-04-15 | 2014-10-30 | オリンパス株式会社 | ウェアラブル装置、プログラム及びウェアラブル装置の表示制御方法 |
JP2016033764A (ja) * | 2014-07-31 | 2016-03-10 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
JP2017054491A (ja) * | 2015-09-11 | 2017-03-16 | インテル・コーポレーション | モノのインターネットエッジデバイスのためのオブジェクト認識技術 |
JP2017182628A (ja) * | 2016-03-31 | 2017-10-05 | 株式会社エヌ・ティ・ティ・データ | 拡張現実ユーザインタフェース適用装置および制御方法 |
WO2018066191A1 (ja) * | 2016-10-07 | 2018-04-12 | ソニー株式会社 | サーバ、クライアント端末、制御方法、および記憶媒体 |
WO2018100877A1 (ja) * | 2016-11-29 | 2018-06-07 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP2018112753A (ja) * | 2018-03-20 | 2018-07-19 | マクセル株式会社 | 情報表示端末及び情報表示方法 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101337555B1 (ko) * | 2010-09-09 | 2013-12-16 | 주식회사 팬택 | 객체 연관성을 이용한 증강 현실 제공 장치 및 방법 |
US8670183B2 (en) * | 2011-03-07 | 2014-03-11 | Microsoft Corporation | Augmented view of advertisements |
US9547938B2 (en) * | 2011-05-27 | 2017-01-17 | A9.Com, Inc. | Augmenting a live view |
CN103105926A (zh) * | 2011-10-17 | 2013-05-15 | 微软公司 | 多传感器姿势识别 |
US9443414B2 (en) * | 2012-08-07 | 2016-09-13 | Microsoft Technology Licensing, Llc | Object tracking |
US9092600B2 (en) * | 2012-11-05 | 2015-07-28 | Microsoft Technology Licensing, Llc | User authentication on augmented reality display device |
JP6040715B2 (ja) * | 2012-11-06 | 2016-12-07 | ソニー株式会社 | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
US10359841B2 (en) * | 2013-01-13 | 2019-07-23 | Qualcomm Incorporated | Apparatus and method for controlling an augmented reality device |
US9412201B2 (en) * | 2013-01-22 | 2016-08-09 | Microsoft Technology Licensing, Llc | Mixed reality filtering |
KR102099086B1 (ko) * | 2013-02-20 | 2020-04-09 | 삼성전자주식회사 | 디지털 텔레비전 및 사용자 디바이스를 이용하여 사용자 맞춤형 인터랙션을 제공하는 방법, 그 디지털 텔레비전 및 사용자 디바이스 |
WO2014137337A1 (en) * | 2013-03-06 | 2014-09-12 | Intel Corporation | Methods and apparatus for using optical character recognition to provide augmented reality |
GB2523330A (en) * | 2014-02-20 | 2015-08-26 | Nokia Technologies Oy | Method, apparatus and computer program product for segmentation of objects in media content |
US20160055377A1 (en) * | 2014-08-19 | 2016-02-25 | International Business Machines Corporation | Real-time analytics to identify visual objects of interest |
WO2016033468A1 (en) * | 2014-08-28 | 2016-03-03 | Retailmenot, Inc. | Reducing the search space for recognition of objects in an image based on wireless signals |
US10147399B1 (en) * | 2014-09-02 | 2018-12-04 | A9.Com, Inc. | Adaptive fiducials for image match recognition and tracking |
US9554030B2 (en) * | 2014-09-29 | 2017-01-24 | Yahoo! Inc. | Mobile device image acquisition using objects of interest recognition |
US9671862B2 (en) * | 2014-10-15 | 2017-06-06 | Wipro Limited | System and method for recommending content to a user based on user's interest |
JP6488786B2 (ja) * | 2015-03-17 | 2019-03-27 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
CN107924522B (zh) * | 2015-06-24 | 2022-06-03 | 奇跃公司 | 用于购买的增强现实设备、系统和方法 |
JP6275087B2 (ja) * | 2015-08-03 | 2018-02-07 | 株式会社オプティム | ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。 |
CN113156650B (zh) * | 2016-01-19 | 2024-06-28 | 奇跃公司 | 利用映像的增强现实系统和方法 |
KR20230133940A (ko) * | 2016-07-25 | 2023-09-19 | 매직 립, 인코포레이티드 | 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화 |
US11461820B2 (en) * | 2016-08-16 | 2022-10-04 | Adobe Inc. | Navigation and rewards involving physical goods and services |
TWI617931B (zh) * | 2016-09-23 | 2018-03-11 | 李雨暹 | 適地性空間物件遠距管理方法與系統 |
CN110084089A (zh) * | 2016-10-26 | 2019-08-02 | 奥康科技有限公司 | 用于分析图像和提供反馈的可佩戴设备和方法 |
CN106650668A (zh) * | 2016-12-27 | 2017-05-10 | 上海葡萄纬度科技有限公司 | 一种实时检测可移动目标物的方法及系统 |
WO2018154933A1 (ja) * | 2017-02-23 | 2018-08-30 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10348964B2 (en) * | 2017-05-23 | 2019-07-09 | International Business Machines Corporation | Method and system for 360 degree video coverage visualization |
US10949667B2 (en) * | 2017-09-14 | 2021-03-16 | Ebay Inc. | Camera platform and object inventory control |
IL275078B2 (en) * | 2017-12-14 | 2024-08-01 | Magic Leap Inc | Context-based processing of virtual characters |
JP2021096490A (ja) * | 2018-03-28 | 2021-06-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11651589B2 (en) * | 2018-05-07 | 2023-05-16 | Google Llc | Real time object detection and tracking |
WO2020039933A1 (ja) * | 2018-08-24 | 2020-02-27 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2019
- 2019-09-10 US US16/566,742 patent/US20200082576A1/en not_active Abandoned
- 2019-09-11 KR KR1020217006264A patent/KR20210034669A/ko not_active Application Discontinuation
- 2019-09-11 EP EP19773666.3A patent/EP3850467B1/en active Active
- 2019-09-11 JP JP2021509849A patent/JP2021536054A/ja active Pending
- 2019-09-11 EP EP23156861.9A patent/EP4206871A1/en active Pending
- 2019-09-11 CN CN201980056127.6A patent/CN112639684A/zh active Pending
- 2019-09-11 WO PCT/US2019/050498 patent/WO2020055935A1/en unknown
-
2021
- 2021-01-28 US US17/161,240 patent/US20210150774A1/en not_active Abandoned
-
2022
- 2022-07-12 JP JP2022111950A patent/JP7379603B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013516687A (ja) * | 2010-01-11 | 2013-05-13 | インテル・コーポレーション | ビューイングフラスタムを用いて客体に関する情報を提供するための方法、システム及びコンピュータ読み取り可能な記録媒体 |
JP2014120114A (ja) * | 2012-12-19 | 2014-06-30 | Aisin Aw Co Ltd | 走行支援システム、走行支援方法及びコンピュータプログラム |
JP2014206904A (ja) * | 2013-04-15 | 2014-10-30 | オリンパス株式会社 | ウェアラブル装置、プログラム及びウェアラブル装置の表示制御方法 |
JP2016033764A (ja) * | 2014-07-31 | 2016-03-10 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
JP2017054491A (ja) * | 2015-09-11 | 2017-03-16 | インテル・コーポレーション | モノのインターネットエッジデバイスのためのオブジェクト認識技術 |
JP2017182628A (ja) * | 2016-03-31 | 2017-10-05 | 株式会社エヌ・ティ・ティ・データ | 拡張現実ユーザインタフェース適用装置および制御方法 |
WO2018066191A1 (ja) * | 2016-10-07 | 2018-04-12 | ソニー株式会社 | サーバ、クライアント端末、制御方法、および記憶媒体 |
WO2018100877A1 (ja) * | 2016-11-29 | 2018-06-07 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP2018112753A (ja) * | 2018-03-20 | 2018-07-19 | マクセル株式会社 | 情報表示端末及び情報表示方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20210034669A (ko) | 2021-03-30 |
JP7379603B2 (ja) | 2023-11-14 |
EP4206871A1 (en) | 2023-07-05 |
EP3850467B1 (en) | 2023-08-23 |
WO2020055935A1 (en) | 2020-03-19 |
US20200082576A1 (en) | 2020-03-12 |
CN112639684A (zh) | 2021-04-09 |
EP3850467A1 (en) | 2021-07-21 |
US20210150774A1 (en) | 2021-05-20 |
JP2021536054A (ja) | 2021-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7379603B2 (ja) | 推奨を配信する方法、デバイス、及びシステム | |
CN110888567A (zh) | 三维内容中基于位置的虚拟元件模态 | |
US11580652B2 (en) | Object detection using multiple three dimensional scans | |
US11710283B2 (en) | Visual search refinement for computer generated rendering environments | |
CN116778368A (zh) | 使用语义分割的平面检测 | |
US11727675B2 (en) | Object detection with instance detection and general scene understanding | |
CN112105983A (zh) | 增强的视觉能力 | |
US11699412B2 (en) | Application programming interface for setting the prominence of user interface elements | |
US11886625B1 (en) | Method and device for spatially designating private content | |
US11321926B2 (en) | Method and device for content placement | |
US11468611B1 (en) | Method and device for supplementing a virtual environment | |
CN113678173A (zh) | 用于虚拟对象的基于图绘的放置的方法和设备 | |
US20240112419A1 (en) | Method and Device for Dynamic Determination of Presentation and Transitional Regions | |
US11726562B2 (en) | Method and device for performance-based progression of virtual content | |
US11804014B1 (en) | Context-based application placement | |
US11282171B1 (en) | Generating a computer graphic for a video frame | |
KR102696670B1 (ko) | 인스턴스 검출 및 일반적인 장면 이해를 이용한 객체 검출 | |
US11308716B1 (en) | Tailoring a computer-generated reality experience based on a recognized object | |
US10964056B1 (en) | Dense-based object tracking using multiple reference images | |
US20240023830A1 (en) | Method and Device for Tiered Posture Awareness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220908 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7379603 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |