JP6947352B2 - グラフィックス処理システム、グラフィックスプロセッサ及び該システム又はプロセッサを動作させる方法 - Google Patents
グラフィックス処理システム、グラフィックスプロセッサ及び該システム又はプロセッサを動作させる方法 Download PDFInfo
- Publication number
- JP6947352B2 JP6947352B2 JP2017169634A JP2017169634A JP6947352B2 JP 6947352 B2 JP6947352 B2 JP 6947352B2 JP 2017169634 A JP2017169634 A JP 2017169634A JP 2017169634 A JP2017169634 A JP 2017169634A JP 6947352 B2 JP6947352 B2 JP 6947352B2
- Authority
- JP
- Japan
- Prior art keywords
- resolution
- scene
- data
- processing stage
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 549
- 238000000034 method Methods 0.000 title claims description 94
- 238000009877 rendering Methods 0.000 claims description 69
- 230000008569 process Effects 0.000 claims description 20
- 210000000873 fovea centralis Anatomy 0.000 claims description 11
- 230000003139 buffering effect Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 239000012634 fragment Substances 0.000 description 71
- 239000000872 buffer Substances 0.000 description 27
- 238000012360 testing method Methods 0.000 description 18
- 230000004044 response Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241000995051 Brenda Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/39—Control of the bit-mapped memory
- G09G5/391—Resolution modifying circuits, e.g. variable screen formats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/40—Filling a planar surface by adding surface attributes, e.g. colour or texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
- G09G5/026—Control of mixing and/or overlay of colours in general
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/363—Graphics controllers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
- G06T15/405—Hidden part removal using Z-buffer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/16—Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/36—Level of detail
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/12—Frame memory handling
- G09G2360/122—Tiling
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/18—Use of a frame buffer in a display terminal, inclusive of the display panel
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Signal Processing (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Description
初期処理ステージにおいて、第1の解像度でシーンのデータを処理するステップと、
初期処理ステージにおいて、第2の解像度でシーンのデータを処理するステップと、
初期処理ステージにおいて第1の解像度及び第2の解像度でシーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信するステップと、
受信された注視追跡データから、シーンの少なくとも1つのサブ領域を特定するステップと、
さらなる処理ステージにおいて、第1の解像度でシーンのデータを処理するステップと、
さらなる処理ステージにおいて、第2の解像度でシーンの特定された少なくとも1つのサブ領域に対応するデータのみを処理するステップと、
さらなる処理ステージにおいて第1の解像度で処理されたシーンのデータと、さらなる処理ステージにおいて第2の解像度で処理されたシーンの特定された少なくとも1つのサブ領域に対応するデータとを結合することによって、シーンをレンダリングするステップと
を含む、方法が提供される。
グラフィックス処理ワークアイテムについての入力データをグラフィックス処理パイプラインに第1の時間に提供するステップと、
グラフィックス処理パイプラインがグラフィックス処理ワークアイテムを処理している間第2のより遅い時間に、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データをグラフィックス処理パイプラインに提供するステップと
を含む、方法が提供される。
初期処理ステージにおいて、第1の解像度でシーンのデータを処理するステップと、
初期処理ステージにおいて、第2の解像度でシーンのデータを処理するステップと、
初期処理ステージにおいて第1の解像度及び第2の解像度でシーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信するステップと、
受信された注視追跡データから、シーンの少なくとも1つのサブ領域を特定するステップと、
さらなる処理ステージにおいて、第1の解像度でシーンのデータを処理するステップと、
さらなる処理ステージにおいて、第2の解像度でシーンの特定された少なくとも1つのサブ領域に対応するデータのみを処理するステップと、
さらなる処理ステージにおいて第1の解像度で処理されたシーンのデータと、さらなる処理ステージにおいて第2の解像度で処理されたシーンの特定された少なくとも1つのサブ領域に対応するデータとを結合することによって、シーンをレンダリングするステップと
を含む、方法が提供される。
初期処理ステージにおいて、第1の解像度でシーンのデータを処理し、
初期処理ステージにおいて、第2の解像度でシーンのデータを処理し、
初期処理ステージにおいて第1の解像度及び第2の解像度でシーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信し、
受信された注視追跡データから、シーンの少なくとも1つのサブ領域を特定し、
さらなる処理ステージにおいて、第1の解像度でシーンのデータを処理し、
さらなる処理ステージにおいて、第2の解像度でシーンの特定された少なくとも1つのサブ領域に対応するデータのみを処理し、
さらなる処理ステージにおいて第1の解像度で処理されたシーンのデータと、さらなる処理ステージにおいて第2の解像度で処理されたシーンの特定された少なくとも1つのサブ領域に対応するデータとを結合することによって、シーンをレンダリングする
ように構成された、グラフィックス処理システムが提供される。
グラフィックス処理ワークアイテムについての入力データをグラフィックス処理パイプラインに第1の時間に提供し、
グラフィックス処理パイプラインがグラフィックス処理ワークアイテムを処理している間第2のより遅い時間に、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データをグラフィックス処理パイプラインに提供する
ように構成された、グラフィックス処理システムが提供される。
初期処理ステージにおいて、第1の解像度でシーンのデータを処理し、
初期処理ステージにおいて、第2の解像度でシーンのデータを処理し、
初期処理ステージにおいて第1の解像度及び第2の解像度でシーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信し、
受信された注視追跡データから、シーンの少なくとも1つのサブ領域を特定し、
さらなる処理ステージにおいて、第1の解像度でシーンのデータを処理し、
さらなる処理ステージにおいて、第2の解像度でシーンの特定された少なくとも1つのサブ領域に対応するデータのみを処理し、
さらなる処理ステージにおいて第1の解像度で処理されたシーンのデータと、さらなる処理ステージにおいて第2の解像度で処理されたシーンの特定された少なくとも1つのサブ領域に対応するデータとを結合することによって、シーンをレンダリングする
ように構成された、グラフィックスプロセッサが提供される。
[発明の項目]
[項目1]
グラフィックス処理システムを動作させる方法であって、前記システムが、少なくとも初期処理ステージとさらなる処理ステージとを含むグラフィックス処理パイプラインを含み、前記方法が、
前記初期処理ステージにおいて、第1の解像度でシーンのデータを処理するステップと、
前記初期処理ステージにおいて、第2の解像度で前記シーンのデータを処理するステップと、
前記初期処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信するステップと、
受信された前記注視追跡データから、前記シーンの少なくとも1つのサブ領域を特定するステップと、
前記さらなる処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理するステップと、
前記さらなる処理ステージにおいて、前記シーンの特定された前記少なくとも1つのサブ領域に対応するデータのみを前記第2の解像度で処理するステップと、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの前記データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記少なくとも1つのサブ領域に対応する前記データと、を結合することによって、前記シーンをレンダリングするステップと、
を含む、方法。
[項目2]
前記グラフィックス処理パイプラインが、前記初期処理ステージと前記さらなる処理ステージとの間に中間処理ステージを含み、前記方法が、
前記中間処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理するステップと、
前記中間処理ステージにおいて、前記第2の解像度で前記シーンの特定された前記少なくとも1つのサブ領域に対応するデータのみを処理するステップと、
を含み、
前記注視追跡データが、前記中間処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理する前に受信され、前記中間処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理する前の前記バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在位置に関する、項目1に記載の方法。
[項目3]
前記グラフィックス処理パイプラインが、前記初期処理ステージと前記さらなる処理ステージとの間に中間処理ステージを含み、前記方法が、
前記中間処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理するステップと、
前記中間処理ステージにおいて、前記第2の解像度で前記シーンのデータを処理するステップと、
を含み、
前記注視追跡データが、前記中間処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後に受信され、前記中間処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後の前記バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する、項目1に記載の方法。
[項目4]
前記さらなる処理ステージの処理が、前記中間処理ステージの処理よりも高い計算負荷を有する、項目2又は3に記載の方法。
[項目5]
前記中間処理ステージが、1つ又は複数のジオメトリ演算を含む、項目2〜4のいずれか一項に記載の方法。
[項目6]
前記さらなる処理ステージの処理が、前記初期処理ステージの処理よりも高い計算負荷を有する、項目1〜5のいずれか一項に記載の方法。
[項目7]
前記さらなる処理ステージが、1つ又は複数のピクセル処理演算を含む、項目1〜6のいずれか一項に記載の方法。
[項目8]
前記初期処理ステージが、1つ又は複数のデータバッファリング操作を含む、項目1〜7のいずれか一項に記載の方法。
[項目9]
前記グラフィックス処理パイプラインの各ステージにおいてシーンのデータを処理するステップが、前記グラフィックス処理パイプラインの各ステージにおいて前記シーンのデータのフレームを処理するサブステップを含む、項目1〜8のいずれか一項に記載の方法。
[項目10]
前記第1の解像度が前記第2の解像度に比べて比較的高い、項目1〜9のいずれか一項に記載の方法。
[項目11]
前記第1の解像度と前記第2の解像度とが所定の関係を有する、項目1〜10のいずれか一項に記載の方法。
[項目12]
前記所定の関係が、2のべき乗を含む、項目11に記載の方法。
[項目13]
前記所定の関係が、1/4を含む、項目11又は12に記載の方法。
[項目14]
受信された前記注視追跡データが、前記バーチャルリアリティユーザデバイスのユーザの少なくとも片目の中心窩の現在の固視点に関し、
前記シーンの特定された前記少なくとも1つのサブ領域が、前記バーチャルリアリティユーザデバイスのユーザの前記少なくとも片目の前記中心窩の前記現在の固視点を中心とするサブ領域に関する、項目1〜13のいずれか一項に記載の方法。
[項目15]
前記シーンのデータが、左目ビューに関連するデータと右目ビューに関連するデータとを含み、前記グラフィックス処理パイプラインの各ステージの前記データを処理するステップが、前記左目ビューに関連するデータを処理するサブステップと、前記右目ビューに関連するデータを処理するサブステップと、を含み、
受信された前記注視追跡データが、前記バーチャルリアリティユーザデバイスのユーザの左目の中心窩の現在の位置付けと、前記バーチャルリアリティユーザデバイスのユーザの右目の中心窩の現在の位置付けと、に関する、項目1〜14のいずれか一項に記載の方法。
[項目16]
前記シーンの特定された前記少なくとも1つのサブ領域が、前記バーチャルリアリティユーザデバイスの前記ユーザの前記左目の前記中心窩の前記現在の位置付けを中心とする左目サブ領域と、前記バーチャルリアリティユーザデバイスの前記ユーザの前記右目の前記中心窩の前記現在の位置付けを中心とする右目サブ領域と、に関し、
前記シーンをレンダリングするステップが、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの左目データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記左目サブ領域に対応するデータと、を結合するサブステップと、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの右目データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記右目サブ領域に対応するデータと、を結合するサブステップと、
を含む、項目15に記載の方法。
[項目17]
特定された前記左目サブ領域のうちの少なくとも一部が、特定された前記右目サブ領域のうちの少なくとも一部と異なる、項目16に記載の方法。
[項目18]
前記初期処理ステージにおいて、第3の解像度で前記シーンのデータを処理するステップ
を含み、
前記注視追跡データが、前記初期処理ステージにおいて前記第3の解像度で前記シーンのデータを処理した後に受信され、前記初期処理ステージにおいて前記第3の解像度で前記シーンのデータを処理した後の前記バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関し、前記方法が、
前記さらなる処理ステージにおいて、前記第3の解像度で前記シーンのデータを処理するステップと、
前記さらなる処理ステージにおいて、前記第3の解像度で前記シーンのさらなるサブ領域に対応するデータのみを処理するステップと、
を含み、
前記シーンをレンダリングするステップが、前記さらなる処理ステージにおいて前記第3の解像度で処理された前記シーンの前記データをさらに結合するサブステップを含む、項目1〜17のいずれか一項に記載の方法。
[項目19]
受信された前記注視追跡データから前記シーンの前記さらなるサブ領域を特定するステップを含む、項目18に記載の方法。
[項目20]
前記シーンの特定された前記少なくとも1つのサブ領域に基づいて前記シーンの前記さらなるサブ領域を計算するステップを含む、項目18に記載の方法。
[項目21]
グラフィックス処理パイプラインを含むグラフィックス処理システムを動作させる方法であって、前記グラフィックス処理パイプラインにおいてレイトラッチの視線追跡データを用いて、シーンの1つ又は複数の領域であり、前記シーンの1つ又は複数の他の領域の解像度に比べて比較的高い解像度でレンダリングされるべき1つ又は複数の領域を特定するステップを含む、方法。
[項目22]
グラフィックス処理システムを動作させる方法であって、前記システムが、少なくとも初期処理ステージとさらなる処理ステージとを含むグラフィックス処理パイプラインを含み、前記方法が、
グラフィックス処理ワークアイテムについての入力データを前記グラフィックス処理パイプラインに第1の時間に提供するステップと、
前記グラフィックス処理パイプラインが前記グラフィックス処理ワークアイテムを処理している間第2のより遅い時間に、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを、前記グラフィックス処理パイプラインに提供するステップと、
を含む、方法。
[項目23]
グラフィックスプロセッサを動作させる方法であって、前記グラフィックスプロセッサが、少なくとも初期処理ステージとさらなる処理ステージとを含むグラフィックス処理パイプラインに関連付けられ、前記方法が、
前記初期処理ステージにおいて、第1の解像度でシーンのデータを処理するステップと、
前記初期処理ステージにおいて、第2の解像度で前記シーンのデータを処理するステップと、
前記初期処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信するステップと、
受信された前記注視追跡データから、前記シーンの少なくとも1つのサブ領域を特定するステップと、
前記さらなる処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理するステップと、
前記さらなる処理ステージにおいて、前記第2の解像度で前記シーンの特定された前記少なくとも1つのサブ領域に対応するデータのみを処理するステップと、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの前記データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記少なくとも1つのサブ領域に対応する前記データと、を結合することによって、前記シーンをレンダリングするステップと、
を含む、方法。
[項目24]
グラフィックス処理システムにおいて実行された場合に、項目1〜23のいずれか一項に記載の方法を実施するように構成されたソフトウェアコードを含む、コンピュータプログラム。
[項目25]
グラフィックス処理パイプラインを含むグラフィックス処理システムであって、前記グラフィックス処理パイプラインが、少なくとも初期処理ステージとさらなる処理ステージとを含み、前記グラフィックス処理システムが、
前記初期処理ステージにおいて、第1の解像度でシーンのデータを処理し、
前記初期処理ステージにおいて、第2の解像度で前記シーンのデータを処理し、
前記初期処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信し、
受信された前記注視追跡データから、前記シーンの少なくとも1つのサブ領域を特定し、
前記さらなる処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理し、
前記さらなる処理ステージにおいて、前記第2の解像度で前記シーンの特定された前記少なくとも1つのサブ領域に対応するデータのみを処理し、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの前記データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記少なくとも1つのサブ領域に対応する前記データと、を結合することによって、前記シーンをレンダリングする、
ように構成された、グラフィックス処理システム。
[項目26]
グラフィックス処理パイプラインを含むグラフィックス処理システムであって、前記グラフィックス処理パイプラインにおいてレイトラッチの視線追跡データを用いて、シーンの1つ又は複数の領域であり、前記シーンの1つ又は複数の他の領域の解像度に比べて比較的高い解像度でレンダリングされるべき1つ又は複数の領域を特定するように構成された、グラフィックス処理システム。
[項目27]
少なくとも初期処理ステージとさらなる処理ステージとを含むグラフィックス処理パイプラインを含むグラフィックス処理システムであって、
グラフィックス処理ワークアイテムについての入力データを前記グラフィックス処理パイプラインに第1の時間に提供し、
前記グラフィックス処理パイプラインが前記グラフィックス処理ワークアイテムを処理している間第2のより遅い時間に、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを、前記グラフィックス処理パイプラインに提供する、
ように構成された、グラフィックス処理システム。
[項目28]
項目25〜27のいずれか一項に記載のグラフィックス処理システムを備える、バーチャルリアリティユーザデバイス。
[項目29]
少なくとも初期処理ステージとさらなる処理ステージとを含むグラフィックス処理パイプラインに関連付けられたグラフィックスプロセッサであって、
前記初期処理ステージにおいて、第1の解像度でシーンのデータを処理し、
前記初期処理ステージにおいて、第2の解像度で前記シーンのデータを処理し、
前記初期処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信し、
受信された前記注視追跡データから、前記シーンの少なくとも1つのサブ領域を特定し、
前記さらなる処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理し、
前記さらなる処理ステージにおいて、前記第2の解像度で前記シーンの特定された前記少なくとも1つのサブ領域に対応するデータのみを処理し、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの前記データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記少なくとも1つのサブ領域に対応する前記データと、を結合することによって、前記シーンをレンダリングする、
ように構成された、グラフィックスプロセッサ。
[項目30]
項目29に記載のグラフィックスプロセッサを備える、バーチャルリアリティユーザデバイス。
[項目31]
添付の図面を参照して本明細書において実質的に記載された、方法。
[項目32]
添付の図面を参照して本明細書において実質的に記載された、グラフィックス処理システム。
[項目33]
添付の図面を参照して本明細書に実質的に記載された、グラフィックスプロセッサ。
[項目34]
添付の図面を参照して本明細書に実質的に記載された、グラフィックス処理パイプライン。
110 ホスト
115 GPU
120 ドライバ
205 頂点シェーダ
210 ハルシェーダ
215 テッセレータ
220 ドメインシェーダ
225 ジオメトリシェーダ
230 タイラ
235 ラスタライザ
240 早期深度及びステンシルテスト
245 フラグメントシェーダ
250 後期深度及びステンシルテスト
255 ブレンダ
260 タイルバッファ
265 書き出し
270 フレームバッファ
305 初期処理ステージ
310 さらなる処理ステージ
315 注視追跡データ
405 CPUバッファリング
410 ジオメトリフェーズ
415 ピクセルフェーズ
505 初期処理ステージ
510 さらなる処理ステージ
515 注視追跡データ
605 初期処理ステージ
610 さらなる処理ステージ
615 注視追跡データ
620 中間処理ステージ
705 初期処理ステージ
710 さらなる処理ステージ
715 注視追跡データ
720 中間処理ステージ
805 初期処理ステージ
810 さらなる処理ステージ
815 第1の注視追跡データ
820 中間処理ステージ
825 第2の注視追跡データ
Claims (26)
- グラフィックス処理システムを動作させる方法であって、前記システムが、少なくとも初期処理ステージとさらなる処理ステージとを含むグラフィックス処理パイプラインを含み、前記方法が、
前記初期処理ステージにおいて、第1の解像度でシーンのデータを処理するステップと、
前記初期処理ステージにおいて、第2の解像度で前記シーンのデータを処理するステップと、
前記初期処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信するステップと、
受信された前記注視追跡データから、前記シーンの少なくとも1つのサブ領域を特定するステップと、
前記さらなる処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理するステップと、
前記さらなる処理ステージにおいて、前記シーンの特定された前記少なくとも1つのサブ領域に対応するデータのみを前記第2の解像度で処理するステップと、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの前記データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記少なくとも1つのサブ領域に対応する前記データと、を結合することによって、前記シーンをレンダリングするステップと、
を含む、方法。 - 前記グラフィックス処理パイプラインが、前記初期処理ステージと前記さらなる処理ステージとの間に中間処理ステージを含み、前記方法が、
前記中間処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理するステップと、
前記中間処理ステージにおいて、前記第2の解像度で前記シーンの特定された前記少なくとも1つのサブ領域に対応するデータのみを処理するステップと、
を含み、
前記注視追跡データが、前記中間処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理する前に受信され、前記中間処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理する前の前記バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在位置に関する、請求項1に記載の方法。 - 前記グラフィックス処理パイプラインが、前記初期処理ステージと前記さらなる処理ステージとの間に中間処理ステージを含み、前記方法が、
前記中間処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理するステップと、
前記中間処理ステージにおいて、前記第2の解像度で前記シーンのデータを処理するステップと、
を含み、
前記注視追跡データが、前記中間処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後に受信され、前記中間処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後の前記バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する、請求項1に記載の方法。 - 前記さらなる処理ステージの処理が、前記中間処理ステージの処理よりも高い計算負荷を有する、請求項2又は3に記載の方法。
- 前記中間処理ステージが、1つ又は複数のジオメトリ演算を含む、請求項2〜4のいずれか一項に記載の方法。
- 前記さらなる処理ステージの処理が、前記初期処理ステージの処理よりも高い計算負荷を有する、請求項1〜5のいずれか一項に記載の方法。
- 前記さらなる処理ステージが、1つ又は複数のピクセル処理演算を含む、請求項1〜6のいずれか一項に記載の方法。
- 前記初期処理ステージが、1つ又は複数のデータバッファリング操作を含む、請求項1〜7のいずれか一項に記載の方法。
- 前記グラフィックス処理パイプラインの各ステージにおいてシーンのデータを処理するステップが、前記グラフィックス処理パイプラインの各ステージにおいて前記シーンのデータのフレームを処理するサブステップを含む、請求項1〜8のいずれか一項に記載の方法。
- 前記第1の解像度が前記第2の解像度より低い、請求項1〜9のいずれか一項に記載の方法。
- 前記第1の解像度と前記第2の解像度とが所定の関係を有する、請求項1〜10のいずれか一項に記載の方法。
- 前記所定の関係が、2のべき乗を含む、請求項11に記載の方法。
- 前記所定の関係は、前記第1の解像度が前記第2の解像度の1/4であることである、請求項11又は12に記載の方法。
- 受信された前記注視追跡データが、前記バーチャルリアリティユーザデバイスのユーザの少なくとも片目の中心窩の現在の固視点に関し、
前記シーンの特定された前記少なくとも1つのサブ領域が、前記バーチャルリアリティユーザデバイスのユーザの前記少なくとも片目の前記中心窩の前記現在の固視点を中心とするサブ領域に関する、請求項1〜13のいずれか一項に記載の方法。 - 前記シーンのデータが、左目ビューに関連するデータと右目ビューに関連するデータとを含み、前記グラフィックス処理パイプラインの各ステージの前記データを処理するステップが、前記左目ビューに関連するデータを処理するサブステップと、前記右目ビューに関連するデータを処理するサブステップと、を含み、
受信された前記注視追跡データが、前記バーチャルリアリティユーザデバイスのユーザの左目の中心窩の現在の位置付けと、前記バーチャルリアリティユーザデバイスのユーザの右目の中心窩の現在の位置付けと、に関する、請求項1〜14のいずれか一項に記載の方法。 - 前記シーンの特定された前記少なくとも1つのサブ領域が、前記バーチャルリアリティユーザデバイスの前記ユーザの前記左目の前記中心窩の前記現在の位置付けを中心とする左目サブ領域と、前記バーチャルリアリティユーザデバイスの前記ユーザの前記右目の前記中心窩の前記現在の位置付けを中心とする右目サブ領域と、に関し、
前記シーンをレンダリングするステップが、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの左目データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記左目サブ領域に対応するデータと、を結合するサブステップと、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの右目データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記右目サブ領域に対応するデータと、を結合するサブステップと、
を含む、請求項15に記載の方法。 - 特定された前記左目サブ領域のうちの少なくとも一部が、特定された前記右目サブ領域のうちの少なくとも一部と異なる、請求項16に記載の方法。
- 前記初期処理ステージにおいて、第3の解像度で前記シーンのデータを処理するステップ
を含み、
前記注視追跡データが、前記初期処理ステージにおいて前記第3の解像度で前記シーンのデータを処理した後に受信され、前記初期処理ステージにおいて前記第3の解像度で前記シーンのデータを処理した後の前記バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関し、前記方法が、
前記さらなる処理ステージにおいて、前記第3の解像度で前記シーンのデータを処理するステップと、
前記さらなる処理ステージにおいて、前記第3の解像度で前記シーンのさらなるサブ領域に対応するデータのみを処理するステップと、
を含み、
前記シーンをレンダリングするステップが、前記さらなる処理ステージにおいて前記第3の解像度で処理された前記シーンの前記データをさらに結合するサブステップを含む、請求項1〜17のいずれか一項に記載の方法。 - 受信された前記注視追跡データから前記シーンの前記さらなるサブ領域を特定するステップを含む、請求項18に記載の方法。
- 前記シーンの特定された前記少なくとも1つのサブ領域に基づいて前記シーンの前記さらなるサブ領域を計算するステップを含む、請求項18に記載の方法。
- グラフィックスプロセッサを動作させる方法であって、前記グラフィックスプロセッサが、少なくとも初期処理ステージとさらなる処理ステージとを含むグラフィックス処理パイプラインに関連付けられ、前記方法が、
前記初期処理ステージにおいて、第1の解像度でシーンのデータを処理するステップと、
前記初期処理ステージにおいて、第2の解像度で前記シーンのデータを処理するステップと、
前記初期処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信するステップと、
受信された前記注視追跡データから、前記シーンの少なくとも1つのサブ領域を特定するステップと、
前記さらなる処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理するステップと、
前記さらなる処理ステージにおいて、前記第2の解像度で前記シーンの特定された前記少なくとも1つのサブ領域に対応するデータのみを処理するステップと、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの前記データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記少なくとも1つのサブ領域に対応する前記データと、を結合することによって、前記シーンをレンダリングするステップと、
を含む、方法。 - グラフィックス処理システムにおいて実行された場合に、請求項1〜21のいずれか一項に記載の方法を実施するように構成されたソフトウェアコードを含む、コンピュータプログラム。
- グラフィックス処理パイプラインを含むグラフィックス処理システムであって、前記グラフィックス処理パイプラインが、少なくとも初期処理ステージとさらなる処理ステージとを含み、前記グラフィックス処理システムが、
前記初期処理ステージにおいて、第1の解像度でシーンのデータを処理し、
前記初期処理ステージにおいて、第2の解像度で前記シーンのデータを処理し、
前記初期処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信し、
受信された前記注視追跡データから、前記シーンの少なくとも1つのサブ領域を特定し、
前記さらなる処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理し、
前記さらなる処理ステージにおいて、前記第2の解像度で前記シーンの特定された前記少なくとも1つのサブ領域に対応するデータのみを処理し、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの前記データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記少なくとも1つのサブ領域に対応する前記データと、を結合することによって、前記シーンをレンダリングする、
ように構成された、グラフィックス処理システム。 - 請求項23に記載のグラフィックス処理システムを備える、バーチャルリアリティユーザデバイス。
- 少なくとも初期処理ステージとさらなる処理ステージとを含むグラフィックス処理パイプラインに関連付けられたグラフィックスプロセッサであって、
前記初期処理ステージにおいて、第1の解像度でシーンのデータを処理し、
前記初期処理ステージにおいて、第2の解像度で前記シーンのデータを処理し、
前記初期処理ステージにおいて前記第1の解像度及び前記第2の解像度で前記シーンのデータを処理した後、バーチャルリアリティユーザデバイスのユーザの少なくとも片目の現在の位置付けに関する注視追跡データを受信し、
受信された前記注視追跡データから、前記シーンの少なくとも1つのサブ領域を特定し、
前記さらなる処理ステージにおいて、前記第1の解像度で前記シーンのデータを処理し、
前記さらなる処理ステージにおいて、前記第2の解像度で前記シーンの特定された前記少なくとも1つのサブ領域に対応するデータのみを処理し、
前記さらなる処理ステージにおいて前記第1の解像度で処理された前記シーンの前記データと、前記さらなる処理ステージにおいて前記第2の解像度で処理された前記シーンの特定された前記少なくとも1つのサブ領域に対応する前記データと、を結合することによって、前記シーンをレンダリングする、
ように構成された、グラフィックスプロセッサ。 - 請求項25に記載のグラフィックスプロセッサを備える、バーチャルリアリティユーザデバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1615012.0A GB2553353B (en) | 2016-09-05 | 2016-09-05 | Graphics processing systems and graphics processors |
GB1615012.0 | 2016-09-05 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018049603A JP2018049603A (ja) | 2018-03-29 |
JP2018049603A5 JP2018049603A5 (ja) | 2020-10-01 |
JP6947352B2 true JP6947352B2 (ja) | 2021-10-13 |
Family
ID=57139771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017169634A Active JP6947352B2 (ja) | 2016-09-05 | 2017-09-04 | グラフィックス処理システム、グラフィックスプロセッサ及び該システム又はプロセッサを動作させる方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10665208B2 (ja) |
JP (1) | JP6947352B2 (ja) |
KR (1) | KR102442487B1 (ja) |
CN (1) | CN107833262B (ja) |
GB (1) | GB2553353B (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10535114B2 (en) * | 2015-08-18 | 2020-01-14 | Nvidia Corporation | Controlling multi-pass rendering sequences in a cache tiling architecture |
GB2553744B (en) | 2016-04-29 | 2018-09-05 | Advanced Risc Mach Ltd | Graphics processing systems |
US10649524B2 (en) | 2017-04-07 | 2020-05-12 | Intel Corporation | Apparatus and method for foveated rendering, bin comparison and TBIMR memory-backed storage for virtual reality implementations |
US10521881B1 (en) * | 2017-09-28 | 2019-12-31 | Apple Inc. | Error concealment for a head-mountable device |
CN110324601A (zh) * | 2018-03-27 | 2019-10-11 | 京东方科技集团股份有限公司 | 渲染方法、计算机产品及显示装置 |
US10997951B2 (en) | 2018-04-13 | 2021-05-04 | Qualcomm Incorporated | Preserving sample data in foveated rendering of graphics content |
KR20190123039A (ko) * | 2018-04-23 | 2019-10-31 | 박승민 | 확장현실 영상처리 방법 및 이를 위한 장치 |
GB2573543B (en) | 2018-05-09 | 2021-10-27 | Advanced Risc Mach Ltd | Graphics Processing |
US10748021B2 (en) * | 2018-05-11 | 2020-08-18 | Samsung Electronics Co., Ltd. | Method of analyzing objects in images recorded by a camera of a head mounted device |
US11262839B2 (en) * | 2018-05-17 | 2022-03-01 | Sony Interactive Entertainment Inc. | Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment |
US11194389B2 (en) | 2018-06-21 | 2021-12-07 | Qualcomm Incorporated | Foveated rendering of graphics content using a rendering command and subsequently received eye position data |
US11348287B2 (en) * | 2018-07-16 | 2022-05-31 | Adobe Inc. | Rendering of graphic objects with pattern paint using a graphics processing unit |
US10650568B2 (en) | 2018-09-13 | 2020-05-12 | Qualcomm Incorporated | In-flight adaptive foveated rendering |
CN109741463B (zh) * | 2019-01-02 | 2022-07-19 | 京东方科技集团股份有限公司 | 虚拟现实场景的渲染方法、装置及设备 |
WO2020152754A1 (ja) * | 2019-01-21 | 2020-07-30 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
US11284053B2 (en) | 2019-03-29 | 2022-03-22 | Razmik Ghazaryan | Head-mounted display and projection screen |
US10554940B1 (en) | 2019-03-29 | 2020-02-04 | Razmik Ghazaryan | Method and apparatus for a variable-resolution screen |
US10466489B1 (en) | 2019-03-29 | 2019-11-05 | Razmik Ghazaryan | Methods and apparatus for a variable-resolution screen |
CN112558902B (zh) * | 2019-09-26 | 2024-09-24 | 苹果公司 | 用于动态中央凹显示器的与注视无关的抖动 |
CN111131805A (zh) * | 2019-12-31 | 2020-05-08 | 歌尔股份有限公司 | 图像处理方法、装置和可读存储介质 |
US11030783B1 (en) | 2020-01-21 | 2021-06-08 | Arm Limited | Hidden surface removal in graphics processing systems |
US11049216B1 (en) * | 2020-01-21 | 2021-06-29 | Arm Limited | Graphics processing systems |
US11784906B2 (en) * | 2020-02-04 | 2023-10-10 | Nvidia Corporation | System-latency-aware display device |
GB2595872B (en) * | 2020-06-09 | 2023-09-20 | Sony Interactive Entertainment Inc | Gaze tracking apparatus and systems |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7075535B2 (en) * | 2003-03-05 | 2006-07-11 | Sand Codex | System and method for exact rendering in a zooming user interface |
KR102001950B1 (ko) * | 2012-07-26 | 2019-07-29 | 엘지이노텍 주식회사 | 시선 추적 장치 및 이의 시선 추적 방법 |
US9727991B2 (en) * | 2013-03-01 | 2017-08-08 | Microsoft Technology Licensing, Llc | Foveated image rendering |
GB2523356A (en) * | 2014-02-21 | 2015-08-26 | Tobii Technology Ab | Apparatus and method for robust eye/gaze tracking |
GB2523740B (en) * | 2014-02-26 | 2020-10-14 | Sony Interactive Entertainment Inc | Image encoding and display |
US10068311B2 (en) * | 2014-04-05 | 2018-09-04 | Sony Interacive Entertainment LLC | Varying effective resolution by screen location by changing active color sample count within multiple render targets |
WO2015154004A1 (en) | 2014-04-05 | 2015-10-08 | Sony Computer Entertainment America Llc | Method for efficient re-rendering objects to vary viewports and under varying rendering and rasterization parameters |
US9836816B2 (en) * | 2014-04-05 | 2017-12-05 | Sony Interactive Entertainment America Llc | Varying effective resolution by screen location in graphics processing by approximating projection of vertices onto curved viewport |
KR102281162B1 (ko) * | 2014-11-20 | 2021-07-23 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US9240069B1 (en) * | 2015-06-30 | 2016-01-19 | Ariadne's Thread (Usa), Inc. | Low-latency virtual reality display system |
US9607428B2 (en) * | 2015-06-30 | 2017-03-28 | Ariadne's Thread (Usa), Inc. | Variable resolution virtual reality display system |
US10643381B2 (en) * | 2016-01-12 | 2020-05-05 | Qualcomm Incorporated | Systems and methods for rendering multiple levels of detail |
-
2016
- 2016-09-05 GB GB1615012.0A patent/GB2553353B/en active Active
-
2017
- 2017-09-01 US US15/693,913 patent/US10665208B2/en active Active
- 2017-09-04 JP JP2017169634A patent/JP6947352B2/ja active Active
- 2017-09-04 KR KR1020170112643A patent/KR102442487B1/ko active IP Right Grant
- 2017-09-05 CN CN201710790958.9A patent/CN107833262B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107833262A (zh) | 2018-03-23 |
US20180068640A1 (en) | 2018-03-08 |
JP2018049603A (ja) | 2018-03-29 |
KR20180027369A (ko) | 2018-03-14 |
KR102442487B1 (ko) | 2022-09-13 |
CN107833262B (zh) | 2023-06-23 |
GB2553353A (en) | 2018-03-07 |
GB201615012D0 (en) | 2016-10-19 |
US10665208B2 (en) | 2020-05-26 |
GB2553353B (en) | 2021-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6947352B2 (ja) | グラフィックス処理システム、グラフィックスプロセッサ及び該システム又はプロセッサを動作させる方法 | |
US11010959B2 (en) | Graphics processing systems | |
US20220392154A1 (en) | Untransformed display lists in a tile based rendering system | |
KR101922482B1 (ko) | 다수의 렌더 타겟들 내에서 활성 컬러 샘플 카운트를 변경함으로써 스크린 위치에 의한 변화하는 유효 분해능 | |
US12026798B2 (en) | Variable resolution graphics processing | |
KR20230007358A (ko) | 증강 현실을 위한 멀티레이어 재투영 기법들 | |
KR102442488B1 (ko) | 그래픽 처리 시스템 및 그래픽 프로세서 | |
US10217259B2 (en) | Method of and apparatus for graphics processing | |
US20220068004A9 (en) | Varying effective resolution by screen location by changing active color sample count within multiple render targets | |
EP3504684B1 (en) | Hybrid render with preferred primitive batch binning and sorting | |
US10062140B2 (en) | Graphics processing systems | |
CN118974779A (zh) | 可变比率曲面细分 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200819 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210902 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6947352 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |