[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014508311A - 視線追跡を用いた適応的ディスプレー - Google Patents

視線追跡を用いた適応的ディスプレー Download PDF

Info

Publication number
JP2014508311A
JP2014508311A JP2013543159A JP2013543159A JP2014508311A JP 2014508311 A JP2014508311 A JP 2014508311A JP 2013543159 A JP2013543159 A JP 2013543159A JP 2013543159 A JP2013543159 A JP 2013543159A JP 2014508311 A JP2014508311 A JP 2014508311A
Authority
JP
Japan
Prior art keywords
sub
region
line
image data
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013543159A
Other languages
English (en)
Other versions
JP6034799B2 (ja
Inventor
カリンリ、オズレム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2014508311A publication Critical patent/JP2014508311A/ja
Application granted granted Critical
Publication of JP6034799B2 publication Critical patent/JP6034799B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1415Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2350/00Solving problems of bandwidth in display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/08Power processing, i.e. workload management for processors involved in display operations, such as CPUs or GPUs
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/10Display system comprising arrangements, such as a coprocessor, specific for motion video images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling
    • G09G2360/121Frame memory handling using a cache memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/025LAN communication management
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【解決手段】表示に対するユーザの注目に基づいて、表示画面の出力を適合させるための方法及びシステムである。視線方向追跡が、ユーザが注目している表示画面領域のサブ領域を決定するために使用される。注目されているサブ領域の表示は、表示画面の残りの領域に対して、例えば、注目されていない表示画面のサブ領域に表示されたオブジェクトに対して、注目されているサブ領域の内部に表示されたオブジェクトを表現するデータの量を変更することにより、変更される。
【選択図】図1

Description

本出願は、計算プラットフォームの表示画面に適応的に情報を出力するための視線追跡の使用に関する。
LCD画面、OLED画面などの表示画面における近年の技術的進歩により、プラットフォームの要求される機能だけでなく、表示画面を使用する計算プラットフォームの多様性が増し続けている。例えば、携帯型の形式の要素に典型的な限られた表示領域とバッテリ寿命により、表示画面の空間的解像度はかなり低いままである傾向があった。これにより、携帯型装置の実用性は、最も適切なデータ(例えば、画像データのフレームのサブ領域、GUIのサブ領域など)を、継続的なアクティブなユーザの介入(例えば、画面のタップ、スワイプなど)なしに、エンドユーザに示すために十分な視野を表示するための表示画面が実現できないために、しばしば限られたものであった。別の例のプラットフォームにおいて、家庭用のテレビジョンに典型的な大きな表示画面は、パーソナルコンピュータ又は携帯型装置の表示画面よりもかなり長い視聴距離のために設計されている。このように、「10フィート向けユーザインタフェース」などの独特なインタフェースを持つ家庭用テレビジョンに、グラフィカルデータオブジェクトを表示することがしばしば必要であり、ユーザは、異なる形式的要素の装置の間で複数のインタフェースを操作するための学習が必要であった。
さらに、特定の計算プラットフォームは、グラフィカルオブジェクトをレンダリングするコンピュータに統合された動画像センサにより収集された動画(すなわち、画像データフレームのストリーム)を表示するアプリケーションを提供する。例えば、ソニープレイステーション(登録商標)アイペット(登録商標)ゲームアプリケーションは、計算プラットフォームに結合された動画像センサにより収集されたアプリケーションのユーザ及びユーザの環境(例えば、リビングルーム)の動画とともに仮想ペットのグラフィカル画像をレンダリングする。ユーザは、表示上で仮想ペットと相互作用する自分を視聴することができる。このようなゲームアプリケーションに典型的な高精細の表示解像度(例えば、1080p)においては、動画像センサから計算プラットフォームへの送信のために多大な帯域が必要となる。この帯域の制限は、表示装置に表示される動画データの質を低減させ、グラフィックスをレンダリングするために利用可能なプロセッサのサイクルを低減させ、動画像センサ又はセンサと計算プラットフォームとの間のインタフェースの製造コストを増大させる。動画送信の帯域は、無線イントラネット送信モード及びインターネット送信モードの双方において、よりいっそう問題となる。
本発明の実施の形態は、明細書の最後の部分において、特に指摘され、明確にクレームされる。しかし、本発明の実施の形態は、機構及び動作の方法の双方について、その目的、特徴、効果とともに、下記の説明及び添付の図面を参照することにより、最も良く理解されうる。
表示画面に接続された計算プラットフォームを含む適応的表示システムの例を示す図である。 表示画面に表示された情報のフレームの、注目されたサブ領域を決定するための方法の2つの例を示す図である。 適応的表示システム100により実行されることが可能な、画像データフレームの注目されたサブ領域を決定するための輪郭ベースの方法201の実施の形態を示すフロー図である。 ユーザの注目に依存して化変な解像度でデータフレームの部分を表示することにより、注目されているサブ領域の1以上のオブジェクトを表現するために使用されるデータの量が、注目されていないサブ領域のオブジェクトに対して変更される、表示を適合させるための方法300を示す図である。 ユーザの注目に依存した可変な解像度で、画像データフレーム(例えば、動画像センサ120などの動画像センサにより収集される)を計算プラットフォームに送信することにより、注目されているサブ領域のオブジェクトを表現するデータの量が、注目されていないサブ領域のオブジェクトに対して変更される、表示を適合させるための方法301の例のフロー図である。 圧縮エンジンが、視線追跡情報に基づいて、収集された画像データフレームの可変ビットレート圧縮を適用する、表示を適合させるための方法350の例のフロー図である。 方法350(図3C)の手順380において実行される可変ビットレート圧縮方法377の例を更に示すフロー図である。 本発明の一つの実施の形態に関連して、マルチディスプレーグラフィクスレンダリングシステムの構成要素として、アプリケーションのカメラビューを生成し、レンダリングするために用いられうるハードウェア及びユーザインタフェースを示す図である。 本発明の一つの実施の形態における、命令の処理に利用可能な追加のハードウェアを示す図である。
本明細書では、表示画面のユーザの注目に基づいて、表示画面出力を適合させるための方法及びシステムについて説明する。実施の形態では、ユーザが注目している表示画面の領域のサブ領域を決定するために視線追跡を利用し、注目された及び注目されていない表示画面のサブ領域のために提供されるデータの量を、これらの2つのグループを別々に処理することにより、適合的に決定する。これにより、アプリケーション又はプラットフォームの機能を向上させることができ、また、収集された画像データのフレームを送信又は処理するために必要な帯域を低減させることができる。
下記の説明においては、特定の数値的な詳細が示される。しかしながら、本発明が、これらの特定の詳細なしに実施されることが可能であることは、当業者には明らかである。いくつかの例において、本発明を不明瞭にするのを避けるために、詳細よりもむしろ、既知の構造及び装置がブロック図の形で示される。下記の詳細な説明のいくつかの部分は、コンピュータメモリ内のデータビット上の演算のアルゴリズム及び記号表現の観点から示される。これらのアルゴリズムの記述及び表現は、その成果を最も効果的に他の当業者に伝えるために、データ処理の分野の当業者により用いられる手段である。
アルゴリズムは、本明細書において、及び一般的に、所望の結果を達成する自己矛盾のない一連のステップであると理解されている。ステップは、物理量の必要な物理操作である。通常、必然的ではないが、これらの量は格納可能な電気的又は磁気的信号の形式をとり、送信され、結合され、比較され、及びその他の操作を受ける。これらの信号を、ビット、値、要素、記号、文字、項、数などと呼ぶことが、主に共通の使用のために、時に便利であることが立証されている。
以下の議論から明らかであるように、とくにそうではないと断らない限り、詳細な説明の全体にわたって、「処理」「計算」「変換」「調整」「決定」「識別」などの語を用いた議論は、物理的(例えば電気的)な量としてコンピュータシステムのレジスタ及びメモリ内で表現されるデータを操作し、コンピュータシステムのメモリ又はレジスタ、又は、他の同様な情報ストレージ、通信又は表示装置の中で物理量として同様に表現される他のデータに変換するコンピュータシステム又は同様の電気的計算装置の動作及び処理のことを指すことが理解される。
コンピュータプログラムは、例えば、フロッピー(登録商標)ディスクを含む任意の種類のディスク、光ディスク(例えば、コンパクトディスクリードオンリーメモリ(CD−ROM)、ディジタルビデオディスク(DVD)、ブルーレイディスク(登録商標)など)、及び磁気光学ディスク、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気又は光学カード、又は電気的命令を格納するために適した任意の種類の媒体などのコンピュータ読み取り可能な記録媒体に格納されてもよい。
下記の説明及び特許請求の範囲において、「結合される」及び「接続される」という語が、それらの派生語とともに用いられる。これらの語は、互いに類義語として意図されるものではないことが理解されるべきである。「接続される」という語は、互いに結合された2以上の要素の間における通信の確立を示すために用いられる。「結合される」という語は、互いに物理的に直接又は電気的に接触する又はしない2以上の要素が、互いに協働又は相互作用することを示すために用いられる。
図1は、表示画面110に接続された計算プラットフォーム105を含む適応的表示システム100の例を示す。計算プラットフォーム105は、表示画面110への出力106の生成を少なくとも担当する中央処理装置を含む。中央処理装置は、更に、本明細書で説明される、視線追跡、表示サブ領域の決定、及び動画のデコード/フレームアセンブリ処理のうちの1以上を実行してもよい。計算プラットフォーム105は、要求される目的のために特別に構成されてもよいし、コンピュータに格納されたコンピュータプログラムにより選択的にアクティベート又は再構成される汎用コンピュータを備えてもよい。一つの実施の形態において、計算プラットフォーム105は、従来の任意のディスプレー(例えば、LCD、OLED、CRTなど)である表示画面110を備えたゲームコンソール(例えば、ソニープレイステーション(登録商標))である。別の実施の形態において、計算プラットフォーム105は、携帯型ゲーム装置105A(例えば、表示画面110A(例えば、LCD、OLED)が組み込まれたソニープレイステーションポータブル(登録商標)(PSP))である。別の実施の形態において、計算プラットフォーム105は、表示画面110B(例えば、LCD、OLED)が組み込まれた携帯型通信装置105B(例えば、ソニーエリクソン(登録商標)携帯電話)である。
図2A及び2Bは、表示画面に表示された情報のフレームの、注目されたサブ領域を決定するための方法の2つの例を示す。これらの方法は、描画されたグラフィックオブジェクト(例えば、CGI)にも、ストリーミングされたマルチメディア(例えば、動画)にも適用されうる。
図2Aは、適応的表示システム100により実行されることが可能な、画像データフレームの注目されたサブ領域を決定するためのグリッドベースの方法200の実施の形態を示すフロー図である。手順205において、1以上のオブジェクトが表示画面110(図1)に出力される。例えば、表示領域210のオブジェクト206が図2Aに更に示される。オブジェクト206は、ゲームのアバター、レンダリングエンジンにより既知な表示領域210のフレームに対する位置関係を有するウェブページブロックなどの、レンダリングされたオブジェクトであってもよい。例えば、オブジェクト206がウェブページのサムネール画像である場合、サムネール画像オブジェクトは表示領域210の中の既知の位置を有するだろう。または、オブジェクト206は、表示領域210の中に表示された動画フレームの一部であってもよい。この場合、オブジェクト206と、表示領域210の中の他のコンテンツとの間の論理的関係は、計算プラットフォーム105により予め決定されていなくてもよい。
手順215において、表示画面110を見ているユーザの視線パターンが追跡される。図2Aは、計算プラットフォーム105に接続された視線追跡部130(図1に示される)により決定された、表示領域210のコンテンツに対する視線パターン208の例を更に示す。一般に、視線追跡部130は、表示画面110を見ているプラットフォームのユーザ170の目の位置及び/又は目の動きを追跡することを可能とする分野において既知の任意のハードウェア及び/又はソフトウェアモジュールを含む。例示された実施の形態において、視線追跡部130は、プラットフォームのユーザ170が表示画面110を見ているときに、プラットフォームのユーザ170の一方又は双方の目をフォーカスする映像ベースのシステムである。視線追跡部130は、頭にマウントされてもよいし、プラットフォームのユーザ170から少なくとも腕の長さの位置に配置された動画像センサに依存するリモートシステムであってもよい。図1に示された実施の形態において、視線追跡部130は、視線方向分析部140に視線方向パターン131を出力する。別の実施の形態において、視線追跡部130は、頭にマウントされ、目の回転パターンを出力する。別の実施の形態において、ユーザは、目の動きの追跡のための眼電図(Electrooculogram:EOG)信号を測定するために、目の周囲の肌に配置された電極を装着してもよい。EOG信号は、視線変更に起因する断続的な目の動きの測定や瞬きの検出にとくに有用であるため、視線変更及び瞬きの判定に好適である。EOGは、異なる照明条件に対するロバスト性も有するので、着用可能なシステムとして実装することができる。
実施の形態において、視線追跡部130により使用される動画像センサは、視線追跡部130に結合された特別用途のカメラ(例えば、赤外線感受性)である。または、視線追跡部130は、計算プラットフォーム105に接続されたソニープレイステーションアイなどの汎用のディジタル動画像センサ120に接続されてもよい。実施の形態において、ディジタル動画センサ120は、少なくともプラットフォームのユーザ170及びユーザの直近の環境(例えば、リビングルームの家具、床、部屋の壁など)を撮像するのに十分な視野をもって、少なくとも1920×1080ピクセルの高精細(high definition:HD)解像度で画像データフレームを収集する。ディジタル動画センサ120は、少なくとも一人のプラットフォームの他のユーザ180、傍観者185を更に撮像するのに十分な視野をもって、画像データフレームを収集してもよい。
遠距離場視線追跡は、近距離場視線追跡よりも技術的に魅力的であるので、視線追跡の実装は、計算プラットフォーム105の形式に依存してもよい。例えば、ゲームコンソールの形式において、視線追跡部130は、目/視線の追跡のために最適化された、動画像センサ120とは異なる特別用途のカメラを使用することが好ましい。視線追跡の性能を向上させるために、ユーザの顔写真を撮ることにより、ユーザが登録されてもよい。
しかしながら、携帯型のゲーム装置105Aの場合、組み込まれた動画像センサ120Aが、プラットフォームのユーザ170の目又は顔を含む、収集された画像データフレーム125を視線追跡部130に出力可能であってもよい。このような実施の形態において、組み込まれた動画像センサ120Aにより収集された画像データは、追跡目的のため、及び、表示画面110Aに表示する一般的な目的のための双方に利用されてもよい。同様に、携帯型通信装置105Bの場合、組み込まれた動画像センサ120Bが、プラットフォームのユーザ170の目又は顔にフォーカスした、収集された画像データフレーム125を視線追跡部130に出力可能であってもよい。更に別の実施の形態において、汎用用途のディジタル動画像センサ120は設けられず、視線追跡部130に統合された特別用途のカメラのみが設けられてもよい。
図2Aに戻り、手順220において、視線方向分析部により、視線パターン(例えば、視線パターン208)が表示画面のサブ領域にマップされる。例えば、視線パターン208は、m×nのサブ領域のグリッドにマップされる。一般に、表示画面のm及びnの数は、特定の表示画面の物理的なサイズ及び解像度に依存して相当異なりうるので、例えば最も満足のいくようなユーザの体験を提供するために最適化される。グリッドサイズのパラメータの最適化は、装置のサイズとグリッドサイズのパラメータとの間の関係を調査することによりオフラインで実行することができる。こうして、グリッドサイズのパラメータは、ディスプレーの特徴に基づいて自動的に設定又はロードされる。ディスプレーの特徴は、システムにディスプレーを登録する(すなわち、ユーザは物理的な装置のサイズを入力するか、予め設定されたオプションのうちの一つを選択することができる)か、計算プラットフォームを用いてディスプレーの種別を自動的に検出する(すなわち、PSP、ソニーエリクソン電話端末、又はソニー液晶テレビジョンのいずれであるか)ことにより取得することができる。
手順230において、視線方向分析部は、視線パターン208に基づいて、よりユーザの興味をひいている1以上のサブ領域を決定する。例えば、視線パターンの計量値(メトリック)がサブ領域221に割り当てられてもよく、計量値を閾値と比較するか、サブ領域間で比較することにより、注目されているサブ領域を決定してもよい。例えば、図2Aに示した表示領域210において、115及び111は、それぞれ、注目されているサブ領域と注目されていないサブ領域である。手順230において、既知の任意の視線パターンの計量値が適用されてもよいが、本実施の形態では、それぞれのサブ領域内の注視点の数又は視線パターンの走査長が決定される。
図2Bは、適応的表示システム100により実行されることが可能な、画像データフレームの注目されたサブ領域を決定するための輪郭ベースの方法201の実施の形態を示すフロー図である。動画像センサ120から取得された画像データフレームが、論理的ブロックの階層を有しない場合、プラットフォームのユーザの注目の対象となっているオブジェクトを識別するために輪郭アルゴリズムが用いられてもよい。輪郭アルゴリズムが、プラットフォームのユーザの注目をひいているオブジェクトを識別するために利用されてもよい。特定の実施の形態において、新たな輪郭検出処理は、定期的に実行されるか、又は、ユーザが瞬きをする又は視線を移動させるなどのイベントにより実行される。
方法201は、手順205において、1以上のオブジェクトが表示画面210(例えば、動画像センサにより収集された画像データのフレーム)に出力されることにより始まる。手順215において、前述したように視線パターンが追跡され、図2Bに示した視線パターン208が生成される。手順223において、例えば視線方向分析部140により、輪郭検出アルゴリズムが実行され、画像データフレーム221内の輪郭が検出される。輪郭検出アルゴリズムは、視線パターンに基づいてフレームの特定の位置において開始されてもよいし、フレーム全体に適用されてもよい。前者の場合、閾値の量の視線パターンを取り囲む輪郭が生成され、後者の場合、視線パターンと特定の輪郭との間の重なりのレベルに基づいて、複数の輪郭から1以上の輪郭が選択される。例として、フレーム221及び視線パターン208に基づいて、輪郭251が生成される。手順232において、注目されたサブ領域が決定される。この決定は、輪郭251の選択、又は、注目されたサブ領域115に対応するフレームの第1の部分の内部の、輪郭251に近接するフレーム221のピクセルを含ませるための拡大アルゴリズムの更なる実行を含んでもよい。フレームの残りの部分は、注目されていないサブ領域111に対応するフレームの第2の部分とされる。
画像データフレームの部分とディスプレーの注目されたサブ領域を関連付けるための輪郭ベースの方法201の使用は、ディスプレーと画像データのフレームとの間のm×nグリッドの直接的なマッピングに比べて、リアリズムを向上させることができる。輪郭ベースの方法201は、例えばグリッドサイズが画像データにおけるオブジェクトのサイズに最適にマッチされていない場合に、ディスプレーと画像データのフレームとの間のm×nグリッドの直接的なマッピングにより可能となるものよりも低く、送信帯域を低減させることができる。
図3Aは、ユーザの注目に依存して化変な解像度でデータフレームの部分を表示することにより、注目されているサブ領域の1以上のオブジェクトを表現するために使用されるデータの量が、注目されていないサブ領域のオブジェクトに対して変更される、表示を適合させるための方法300を示す。手順330において、少なくとも1つの注目されたサブ領域、例えば、図2A又は図2Bに示した注目されたサブ領域115が、方法200又は201から取得される。手順340において、注目されたサブ領域の内部に表示されたオブジェクトを表現するデータの量が、サブ領域の決定の前に表示画面により提供されていたデータの量と比べて、注目された領域の内部のオブジェクトに属するデータの量を変更するように、変更される。コンテンツズームの実施の形態において、注目されているサブ領域の解像度が注目されていないサブ領域の解像度よりも高くなるように、注目されているサブ領域に適用される表示画面の解像度の割合は増加され、注目されていないサブ領域を含む表示画面の解像度の割合は低下されてもよい。例えば、手順330において取得された注目されているサブ領域115は、表示領域210の25%であるが、手順340において表示領域の約67%に増加される。手順345において、変更された出力はズームインされたオブジェクト206に表示される。このように、オブジェクト206は、高解像度でレンダリングされてもよいし、例えばオブジェクト206がサムネール画像である場合には、拡大されてもよい。
図1に更に示されるように、適応的表示システム100は、視線方向分析部140に結合された適応的表示処理部150を含む。本実施の形態において、適応的表示処理部150は、ハードウェア、ソフトウェア、又はそれらの組み合わせにより実装された信号処理部である。適応的表示方法300において、計算プラットフォーム105の処理部は、表示されたデータの変更のために適応的表示処理部150から出力151を取得する。
図3Bは、ユーザの注目に依存した可変な解像度で、画像データフレーム(例えば、動画像センサ120などの動画像センサにより収集される)を計算プラットフォームに送信することにより、注目されているサブ領域のオブジェクトを表現するデータの量が、注目されていないサブ領域のオブジェクトに対して変更される、表示を適合させるための方法301の例のフロー図である。実施の形態において、注目されたサブ領域は、より高い解像度で送信されるが、注目されていないサブ領域は、より低い解像度で送信される。画像データフレームは高いレートで送信されるので、方法301は、いったん決定され、複数のフレームに適用され、注目されているサブ領域のフレームレートよりも低い頻度で周期的に実行されてもよい。方法301は、所定の数のフレーム、視線が選択された(すなわち、注目された)サブ領域から離れたか否かを決定するための距離の計量値、視線が変更されたことが予想されるサインである可能性がある、ユーザが瞬きをしたことの示唆などのイベントに基づいて開始されてもよいが、これらに限られない。
まず、手順325において、動画像センサ120は、画像データのフレームを収集する。図1に示した実施の形態において、動画像センサ120は、プラットフォームのユーザ170、プラットフォームの第2のユーザ180、及び傍観者185を包含する視野122を有する。
手順330において、注目されたサブ領域141が視線方向分析部140から取得される。手順365において、ディスプレーの注目されたサブ領域は収集されたフレームの部分に関連付けられ、注目されたサブ領域に対応する収集されたフレームの第1の部分が、高解像度(例えば、少なくとも動画像センサ120の1920×1080のHD解像度)で計算プラットフォームに送信される。手順370において、注目されていないサブ領域に対応する収集されたフレームの第2の部分が、第1の部分の場合よりも低い低解像度で計算プラットフォームに送信される。例えば、動画像センサ120が高解像度で収集する場合、適応的表示処理部150は、既知の任意のビットレートシェーピング技術を用いて、第2の部分を表現するデータの量を低減させるために、収集されたフレームの第2の部分を低解像度処理する。このように、表示された出力に対するユーザの注目に依存して、ビットレートシェーピングアルゴリズムが実行される。一つの実施の形態において、適応的表示処理部150は、第2の部分の空間的(水平及び/又は垂直)解像度を第1の部分に対して低減することにより、必要な送信帯域を低減する。走査線ごとに1920サンプルをサンプリングするのに対応する解像度で第1の部分が送信される一つの実施の形態において、第2の部分は走査線ごとに1440又は1280サンプルをサンプリングするように低解像度処理される。別の実施の形態において、適応的表示処理部150は、第1の部分に対して第2の部分の時間的解像度を低減させることにより、必要な送信帯域を低減させる。例えば、第2の部分の内部のフレームレートが、第1の部分よりも低減されてもよい。こうして、表示領域の部分は、例えば図1に示したリンク161を介して、計算プラットフォーム105の処理部に送信される。手順375において、計算プラットフォームの処理部は、既知の任意の技術を用いて第1及び第2の部分を組み合わせ、表示画面110に出力するための再構成されたフレームを生成する。
動画像センサにより収集された画像データフレームが表示画面に出力される実施の形態において、注目されたサブ領域内のオブジェクトを表現するデータの量は、注目されていないサブ領域のデータの量に対して、可変ビットレート圧縮を介して変更される。このような実施の形態において、画像センサに特有の圧縮エンジンが、適応的表示処理部150からの出力を取得する。例えば、図1を参照して、圧縮エンジン160は、動画像センサ120から取得した画像データ125のフレームを圧縮するためのハードウェア又はソフトウェアである。圧縮エンジン160は、分野において既知の任意の圧縮アルゴリズムを実行してもよい。例えば、1以上の特許登録された又は標準規格のコーデック(例えば、MPEG4)を、フレーム内(空間的)圧縮及びフレーム間(動き)圧縮の少なくとも一方を実行するために実行してもよい。本実施の形態において、圧縮エンジン160は、収集された画像データフレーム125のフレーム内及びフレーム間の双方の圧縮を実行する。
図3Cは、圧縮エンジンが、視線追跡情報に基づいて、収集された画像データフレームの可変ビットレート圧縮を適用する、表示を適合させるための方法350の例のフロー図である。まず、手順325において、動画像センサが画像データのフレームを収集する。図1に示すように、動画像センサ120は、プラットフォームのユーザ170、プラットフォームの第2のユーザ180、及び傍観者185を包含する視野122を有する。
手順380において、収集された画像データフレームに対して、可変ビットレート圧縮アルゴリズムが適用される。一つの実施の形態において、注目されたサブ領域に対応する収集されたフレームの第1の部分は、空間的及び/又は時間的に高いビットレートに圧縮されるが、注目されていないサブ領域に対応する収集されたフレームの第2の部分は、空間的及び/又は時間的に低いビットレート、すなわち、第1の部分よりも低いビットレートに圧縮される。
手順390において、圧縮されたフレームは、例えば計算プラットフォーム105に送信される。手順395において、圧縮エンジン160と結合された計算プラットフォーム105の処理部は、送信された画像データのフレームを組み合わせて、表示領域110に表示するための再構成されたフレームを生成するために、適切なデコードアルゴリズム(例えば、それぞれの部分に適用されたものと同じもの)により、フレームの第1及び第2の部分をデコードする。
図3Dは、方法350(図3C)の手順380において実行される可変ビットレート圧縮方法377の例を更に示すフロー図である。方法377の手順330において、まず、注目されたサブ領域を取得する。注目されたサブ領域は、図2Aを参照して説明した方法200又は図2Bを参照して説明した方法201により、識別又は決定されてもよい。例えば、図2Aに示した方法200の場合、表示領域はm×nのサブ領域のグリッドに分割される。m及びnの数は、表示の知覚の質と送信帯域の低減との組み合わせを最大にするために最適化されてもよい。視線方向分析部140は、視線追跡部130からの視線方向パターン出力131をm×nのサブ領域にマップする。視線パターンの基準がサブ領域にわたって適用され、注目されたサブ領域115が識別される。
図3Dに戻り、手順378において、圧縮エンジン160は、まず標準的な圧縮アルゴリズムに基づいて、圧縮すべきピクセル又は画像の部分を決定する。例えば、フレーム間で変化している画像の部分が、フレーム間圧縮アルゴリズムにより識別される。手順382において、圧縮エンジン160は、これらの差分を有する画像の部分のうちのいずれが注目されたサブ領域115の内部に位置しているかを決定し、手順384において、これらの差分は高いビットレートで、例えば計算プラットフォーム105へ送信される。手順386において、注目されていないサブ領域111の差分は、低いビットレート(例えば、注目されたサブ領域よりも低いビットレート)で、例えば計算プラットフォーム105へ送信される。同様に、圧縮エンジン160は、視線方向分析部140により識別されたサブ領域に依存する方法で、フレーム内圧縮アルゴリズムを実行してもよい。例えば、圧縮エンジン160は、注目されたサブ領域115と注目されていないサブ領域111とを区別するような方法で、空間冗長アルゴリズムにおいて異なる閾値を適用してもよい。別の実施の形態において、手順380において実行される可変ビットレート圧縮は、ディスプレーの注目された及び注目されていないサブ領域に対応する収集されたフレームの部分の間で、Iフレームの扱いを区別してもよい。例えば、Iフレームが他のフレームからデータをコピーしないようにするルールが、注目されていないサブ領域に対応するフレームの部分については緩和されてもよい。
ある実施の形態において、少なくともプラットフォームのユーザ170を含む視野を有する動画像センサ120が設けられてもよい。しかし、他の実施の形態において、図2Bのフレーム221に示したように、収集されたフレームはプラットフォームのユーザ170を含まなくてもよい。このような実施の形態において、収集された画像データフレームは、プラットフォームのユーザの位置から離れた動画像センサ(例えば、図1において、計算プラットフォーム105にネットワーク接続された遠隔の動画像センサ128)又は以前に収集された画像データフレームのサーバ(例えば、インターネット127を介してネットワーク接続された動画アーカイブサイト129)により提供される。このような実施の形態において、適応的表示処理部150から取得された情報に応じて、本明細書において説明された視線依存圧縮アルゴリズムを実装するために、遠隔の圧縮エンジン165が用いられてもよい。動画アーカイブサイト129又は遠隔の動画像センサ128から画像データフレームを送信するために、方法301、350、及び377が同様に利用可能である。
更なる実施の形態において、視線パターンは、複数のユーザのそれぞれについて追跡される。例えば、図1に戻り、視線パターンは、プラットフォームのユーザ170及びプラットフォームのユーザ180のそれぞれについて追跡されてもよい。複数のユーザのそれぞれにより注目された表示画面のサブ領域が、例えば手順215において別々に決定されてもよい。例えば、視線171の方向が追跡され、注目されたサブ領域115が識別されるとともに、視線181の方向が追跡され、注目されたサブ領域116が識別されてもよい。表示画面出力は、注目されたサブ領域内のデータの量を注目されていないサブ領域と比較して変更するように、本明細書において説明した方法にしたがって適合される。これらの方法は、このような方法で複数のユーザに拡張されうるが、ユーザの数が増加するほど、帯域の低減レートは減退しうる。しかし、これは、表示される情報の性質に依存する。例えば、あるゲームアプリケーションにおいて、ユーザの視線は、タスクにより誘因される注意のために、かなり重なるであろう。例えば、テニスゲームにおいて、双方のユーザの視線は、ほとんどの場合、ゲーム内のテニスボールに注がれるだろう。
プラットフォームのユーザ170とプラットフォームのユーザ180の間で交互にゲームがプレーされる、別のマルチユーザの実施の形態において、視線追跡及び/又は視線方向分析は、ソニープレイステーションムーブモーションコントローラなどの入力装置に関連付けられたユーザのみについて実行されてもよい。図1に示した実施の形態において、プラットフォームのユーザ170は、例えば動画像センサ120により収集される画像フレームに基づいて、モーションコントローラ190に関連付けられており、関連付けられたモーションコントローラ190がアクティブなゲームプレーモードにある間は、視線パターン追跡はプラットフォームのユーザ170についてのみ実行される。ゲームプレーがモーションコントローラ195に変更されると、視線追跡は、そのコントローラに関連付けられたプラットフォームのユーザ180についてのみ実行される。本明細書において説明した任意の表示適応方法が、複数のユーザにわたって個別的に実行されてもよい。
図4は、本発明の一つの実施の形態に関連して、マルチディスプレーグラフィクスレンダリングシステムの構成要素として、アプリケーションのカメラビューを生成し、レンダリングするために用いられうるハードウェア及びユーザインタフェースを示す。図6は、本発明の一つの実施の形態に係るマルチディスプレーグラフィクスレンダリングシステムの実装に互換性のあるコンソールであるソニープレイステーション3(登録商標)エンタテインメント装置の全体システム構成を概略的に示す。システムユニット1400とともに、システムユニット1400に接続可能な種々の周辺装置が設けられる。システムユニット1400は、セルプロセッサ1428、ランバス(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット1426、専用のビデオランダムアクセスメモリ(VRAM)ユニット1432とともに設けられたリアリティシンセサイザーグラフィックスユニット1430、及び入出力ブリッジ1434を備える。システムユニット1400は、さらに、入出力ブリッジ1434を介してアクセス可能な、ディスク1440Aから読み出すためのブルーレイ(登録商標)ディスクBD−ROM光ディスクリーダ1440及び脱着可能なスロットインハードディスクドライブ(HDD)1436を備える。システムユニット1400は、オプションで、入出力ブリッジ1434を介して同様にアクセス可能な、コンパクトフラッシュ(登録商標)メモリカード、メモリスティック(登録商標)メモリカードなどを読み出すためのメモリカードリーダ1438をさらに備える。
入出力ブリッジ1434は、さらに、複数のユニバーサルシリアルバス(USB)2.0ポート1424、ギガビットイーサネット(登録商標)ポート1422、IEEE802.11b/g無線ネットワーク(Wi−Fi)ポート1420、7つのブルートゥース(登録商標)接続までサポート可能なブルートゥース無線リンクポート1418に接続する。
動作中、入出力ブリッジ1434は、1以上のゲームコントローラ1402〜1403からのデータを含む全ての無線、USB及びイーサネット(登録商標)データを扱う。例えば、ユーザがゲームをプレーするとき、入出力ブリッジ1434は、ブルートゥースリンクを介してゲームコントローラ1402〜1403からデータを受信し、セルプロセッサ1428に伝える。セルプロセッサ1428は、ゲームの現在の状態をそのように更新する。
無線、USB及びイーサネット(登録商標)ポートは、ゲームコントローラ1402〜1403に加えて、リモートコントローラ1404、キーボード1406、マウス1408、ソニープレイステーションポータブル(登録商標)エンタテインメント装置などの携帯型エンタテインメント装置1410、アイトイ(登録商標)ビデオカメラなどのビデオカメラ1412、マイクロフォンヘッドセット1414、及びマイクロフォン1415などの他の周辺装置との接続も提供する。これらの周辺装置は、原則として、システムユニット1400に無線で接続されてもよい。例えば、携帯型エンタテインメント装置1410は、Wi−Fiアドホック接続を介して通信してもよいし、マイクロフォンヘッドセット1414は、ブルートゥースリンクを介して通信してもよい。
これらのインタフェースの提供は、プレイステーション3装置が、ディジタルビデオレコーダ(DVR)、セットトップボックス、ディジタルカメラ、携帯型メディアプレーヤ、ボイスオーバーIP電話、携帯電話、プリンタ、及びスキャナなどの他の周辺装置との互換性をも潜在的に有することを意味する。
ゲームコントローラ1402〜1403は、ブルートゥースリンクを介してシステムユニット1400と無線通信可能であるか、USBポートを介して接続して、ゲームコントローラ1402〜1403のバッテリを充電するための電源も提供可能である。ゲームコントローラ1402〜1403は、メモリ、プロセッサ、メモリカードリーダ、フラッシュメモリなどの永続メモリ、LED又は赤外光などの光照射部、超音波通信のためのマイクロフォン及びスピーカ、音響チャンバ、ディジタルカメラ、内部クロック、ゲームコンソールに面した球などの認識可能な形状、及びブルートゥース、WiFiなどのプロトコルを用いた無線通信を含んでもよい。
ゲームコントローラ1402は両手で用いられるように設計されたコントローラであり、ゲームコントローラ1403は、ボールが設けられた、片手で扱うコントローラである。1以上のアナログジョイスティック及び従来の制御ボタンに加えて、ゲームコントローラは、三次元位置決定が可能である。したがって、ゲームコントローラのユーザのジェスチャー及び動きが、従来のボタン又はジョイスティックのコマンドに加えて、又はそれに代えて、ゲームに対する入力として翻訳されてもよい。オプションとして、プレイステーションポータブル装置などの他の無線通信可能な周辺装置がコントローラとして用いられてもよい。プレイステーションポータブル装置の場合、装置の画面に、更なるゲーム又は制御情報(例えば、制御命令又はライフの数)が提供されてもよい。ダンスマット(図示せず)、モーキャプボール(図示せず)、光線銃(図示せず)、ステアリングホイール及びペダル(図示せず)、又は早押しクイズゲームのための単一又はいくつかの大きなボタンなどの専用コントローラ(図示せず)などの他の代替又は追加の制御装置が用いられてもよい。
リモートコントローラ1404は、ブルートゥースリンクを介してシステムユニット1400と無線通信可能である。リモートコントローラ1404は、ブルーレイディスクBD−ROMリーダ1440の動作及びディスク内容のナビゲーションのために適した制御を備える。
ブルーレイディスクBD−ROMリーダ1440は、従来の記録済み及び記録可能なCD及びいわゆるスーパーオーディオCDに加えて、プレイステーション及びプレイステーション2装置に互換なCD−ROMを読み出し可能である。リーダ1440は、従来の記録済み及び記録可能なDVDに加えて、プレイステーション2及びプレイステーション3装置に互換なDVD−ROMを更に読み出し可能である。リーダ1440は、さらに、従来の記録済み及び記録可能なブルーレイディスクだけでなく、プレイステーション3装置に互換なBD−ROMを読み出し可能である。
システムユニット1400は、生成された、又は、リアリティシンセサイザーグラフィックスユニット1430を介してプレイステーション3装置によりデコードされた音声及び映像を、音声及び映像コネクタを介して、モニタ又はディスプレー1444と1以上のラウドスピーカ1446を有するテレビジョンセットなどの表示及び音声出力装置1442に対して供給可能である。音声コネクタ1450は、従来のアナログ及びディジタル出力を含んでもよく、映像コネクタ1452は、コンポーネントビデオ、S−ビデオ、コンポジットビデオ、及び1以上の高解像度マルチメディアインタフェース(HDMI(登録商標))出力などを含んでもよい。結果として、映像出力は、PAL又はNTSC、又は、720p、1080i又は1080p高解像度の形式であってもよい。
一つの実施の形態によれば、ビデオカメラ1412は、単一の電荷結合素子(CCD)、LEDインジケータ、及びハードウェアベースのリアルタイムデータ圧縮エンコード装置を備え、圧縮されたビデオデータは、システムユニット1400によりデコードするために、画像間ベースのMPEG(motion picture expert group)スタンダードなどの適当な形式で送信されてもよい。カメラLEDインジケータは、例えば逆光条件を知らせるなどのシステムユニット1400からの適切な制御データに応答して光るようにされてもよい。ビデオカメラ1412の実施の形態は、USB、ブルートゥース、又はWi−Fiの通信ポートを介してシステムユニット1400に接続してもよい。ビデオカメラの実施の形態は、1以上の結合されたマイクロフォンを含み、音声データを送信可能であってもよい。ビデオカメラの実施の形態において、CCDは、高精細ビデオキャプチャに適した解像度を有してもよい。使用中、ビデオカメラにより撮像された画像は、例えば、ゲーム内に組み込まれてもよいし、ゲーム制御入力として解釈されてもよい。カメラの別の実施の形態において、カメラは、赤外光を検出するのに適した赤外線カメラである。
図5は、本発明の一つの実施の形態における、命令の処理に利用可能な追加のハードウェアを示す。図7は、セルプロセッサ1500の構成要素を示す。図7のセルプロセッサ1500は、メモリコントローラ1560及びデュアルバスインタフェースコントローラ1570A、1570Bを備える外部入出力構成、パワープロセッシングエレメント(PPE)1550と呼ばれるメインプロセッサ、シナジスティックプロセッシングエレメント(SPE)1510A〜Hと呼ばれる8個のコプロセッサ、要素相互接続バス1580と呼ばれる、上記の要素を接続する環状データバスの4つの基本要素を備えた構成を有する。セルプロセッサの全体の浮動小数点演算は、プレイステーション2装置のエモーションエンジンの6.2Gフロップスであるのに対して、218Gフロップスである。
パワープロセッシングエレメント(PPE)1550は、3.2GHzの内部クロックで動作するパワーPC(PowerPC)コア(PPU)1555に互換な、双方向平行マルチスレッドパワー1470に基づいている。これは、512kBのレベル2(L2)キャッシュ及び32kBのレベル1(L1)キャッシュを備える。PPE1550は、クロックサイクルごとに8つの単精度演算を行うことができ、これは3.2GHzにおいて25.6ギガフロップスにあたる。PPE1550の主要な役割は、ほとんどの計算作業負荷を扱うSPE1510A〜Hのためのコントローラとして機能することである。動作において、PPE1550は、ジョブのキューを保持し、SPE1510A〜Hのジョブをスケジューリングし、それらの進行を監視する。それぞれのSPE1510A〜Hは、ジョブを取ってきて実行するのが役割であるカーネルを実行し、それをPPE1550に同期させる。
それぞれのSPE1510A〜Hは、シナジスティックプロセッシングユニット(SPU)1520A〜Hを備え、それぞれのメモリフローコントローラ(MFC:Memory Flow Controller)1540A〜Hは、ダイナミックメモリアクセスコントローラ(DMAC:Dynamic Memory Access Controller)1542A〜H、メモリ管理ユニット(MMU)1544A〜H、及びバスインタフェース(図示せず)を備える。それぞれのSPU1520A〜Hは、クロックが3.2GHzで、原則として4GBまで拡張可能な256kBのローカルRAM1530A〜Hを備える、RISCプロセッサである。それぞれのSPEは、理論上、25.6GFLOPSの単精度性能を与える。SPUは、4つの単精度浮動小数演算、4つの32ビット演算、8つの16ビット整数演算、又は16の8ビット整数演算を、1つのクロックサイクルで実行可能である。同じクロックサイクルにて、メモリ命令を実行することもできる。SPU1520A〜Hは、システムメモリXDRAM1426に直接アクセスしない。SPU1520A〜Hにより生成される64ビットのアドレスは、MFC1540A〜Hに渡され、要素相互接続バス1580及びメモリコントローラ1560を介してメモリにアクセスするためのDMAコントローラ1542A〜Hに命令される。
要素相互接続バス(EIB)1580は、セルプロセッサ1500の内部の論理的に巡回した通信バスである。EIBは、上述のプロセッサエレメント、すなわち、PPE1550、メモリコントローラ1560、デュアルバスインタフェース1570A、B、及び8つのSPE1510A〜Hの、合計12の要素を接続する。要素は、クロックサイクルごとに8バイトの速度でバスを同時に読み、及び書き込むことができる。前述したように、それぞれのSPE1510A〜Hは、より長いリード又はライトシーケンスをスケジュールするためのDMAC1542A〜Hを備える。EIBは4つのチャンネルを備え、2つは時計回りで、2つは反時計回りの方向である。12の要素の間で、任意の2つの要素の間のうち最も長いデータフローは、適切な方向に6ステップとなる。EIBの12スロットの帯域の理論上のピークの瞬間は、要素間の調停を通じて全てが利用されたとき、クロックごとに96バイトである。これは、クロックレートが3.2GHzのときの理論上のピークバンド幅の307.2GB/s(ギガバイト毎秒)と同じである。
メモリコントローラ1560は、ランバス社により開発されたXDRAMインタフェース1562を備える。メモリコントローラは、理論上はピークバンド幅毎秒25.6ギガバイトで、ランバスXDRAMと接続する。
デュアルバスインタフェース1570A、Bは、ランバスフレックスIO(登録商標)システムインタフェース1572A、Bを備える。インタフェースは、それぞれが8ビット幅である、入力5経路、出力7経路の12チャンネルに組織化される。
上述の説明は、例示を意図しており、制限を意図していないことが理解されるべきである。上述の説明を読み、理解した当業者には、多数の別の実施の形態が明らかとなろう。本発明が、いくつかの特定の実施の形態に関して説明されたが、本発明は説明された実施の形態に限られず、添付された特許請求の範囲の精神及び範囲内で変更及び代替が可能であることは、当業者に認識されるところである。したがって、詳細な説明は、限定ではなく例示であるとみなされるべきである。本発明の範囲は、特許請求の範囲に与えられる全ての範囲の均等物とともに、特許請求の範囲を参照して決定されるべきである。

Claims (24)

  1. 表示画面に出力を表示するステップと、
    前記表示画面の出力を見ているユーザの視線パターンを追跡するステップと、
    前記視線パターンを前記表示画面の物理的位置にマッピングするステップと、
    そのマップに基づいて、前記ユーザにより注目されている前記表示画面のサブ領域を決定するステップと、
    前記注目されているサブ領域の内部に表示されるオブジェクトを表現するデータの量を、前記表示領域の注目されていないサブ領域に表示されるオブジェクトに対して変更することにより、前記表示画面の出力を変更するステップと、
    を備えることを特徴とする表示を適合させる方法。
  2. 前記表示画面の出力は、前記注目されていないサブ領域の解像度を、前記注目されているサブ領域の解像度よりも低くなるように変更することにより変更されるか、又は、前記注目されているサブ領域の解像度を、前記注目されていないサブ領域の解像度よりも高くなるように変更することにより変更されることを特徴とする請求項1に記載の方法。
  3. 前記視線パターンをマッピングするステップは、
    前記表示画面をm×nのサブ領域のグリッドに分割するステップと、
    1以上の前記サブ領域に視線パターンの計量値を割り当てるステップと、を更に含み、
    前記注目されているサブ領域を決定するステップは、
    前記サブ領域間で前記視線パターンの計量値を比較するステップを更に含む
    ことを特徴とする請求項1に記載の方法。
  4. 動画像センサにより画像データのフレームを収集するステップと、
    収集された前記画像データのフレームを、前記注目されているサブ領域に対応する収集された画像データフレームの第1の部分については、前記注目されていないサブ領域に対応する収集された画像データフレームの第2の部分よりも高いビットレートで、計算プラットフォームに送信するステップと、
    前記計算プラットフォームにより、前記収集された画像データフレームの第1及び第2の部分を、再構成された画像データフレームに組み立てるステップと、
    前記再構成された画像データフレームを前記表示画面に表示するステップと、
    を更に備えることを特徴とする請求項1に記載の方法。
  5. 前記収集された画像データフレームの第1の部分について、前記収集された画像データフレームの第2の部分よりも低いフレーム間又はフレーム内圧縮を適用するステップ、又は、前記収集された画像データフレームの第2の部分をサブサンプリングするステップを更に備えることを特徴とする請求項4に記載の方法。
  6. 前記画像データのフレームは、少なくとも1920×1080ピクセルの高精細解像度で収集され、前記注目されているサブ領域に対応する再構成された画像データフレームは高精細解像度で表示され、前記注目されていないサブ領域は高精細解像度よりも低い解像度で表示されることを特徴とする請求項4に記載の方法。
  7. 前記ユーザの視線パターンは、前記収集された画像データフレームに基づいて追跡されることを特徴とする請求項4に記載の方法。
  8. 前記注目されているサブ領域に対応する記録された画像データのフレームの部分は、収集された画像フレームに対して輪郭検出アルゴリズムを実行することにより決定されることを特徴とする請求項4に記載の方法。
  9. 新たな輪郭検出アルゴリズムは、定期的に、又は、前記ユーザの瞬き又は視線変更が閾値を越えたことの示唆を取得したときに開始されることを特徴とする請求項8に記載の方法。
  10. 前記視線パターンは、複数のユーザのそれぞれについて追跡され、前記複数のユーザのそれぞれにより注目されている前記表示画面のサブ領域が決定され、それぞれの注目されている領域について前記表示画面の出力が変更されることを特徴とする請求項1に記載の方法。
  11. 前記複数のユーザを前記収集された画像フレームに基づいて入力装置に関連付けるステップを更に備え、
    前記視線パターンの追跡は、前記入力装置に関連付けられたユーザについてのみ実行されることを特徴とする請求項10に記載の方法。
  12. 処理システムにより実行されたときに、請求項1に記載の方法を前記処理システムに実行させる命令を格納したコンピュータ読み取り可能な記録媒体。
  13. 表示画面を有する計算プラットフォームと、
    前記表示画面の出力を見ているユーザの視線パターンを追跡する視線追跡部と、
    前記視線パターンを前記表示画面の物理的位置にマッピングし、そのマップに基づいて、前記ユーザにより注目されている前記表示画面のサブ領域を決定する視線方向分析部と、
    前記注目されているサブ領域の内部に表示されるオブジェクトを表現するデータの量を、前記表示領域の注目されていないサブ領域に表示されるオブジェクトに対して変更することにより、前記表示画面の出力を変更する適応的表示処理部と、
    を備えることを特徴とする適応的表示システム。
  14. 前記適応的表示処理部は、前記注目されていないサブ領域の解像度を、前記注目されているサブ領域の解像度よりも低くなるように変更することにより、又は、前記注目されているサブ領域の解像度を、前記注目されていないサブ領域の解像度よりも高くなるように変更することにより、前記表示画面の出力を変更することを特徴とする請求項13に記載のシステム。
  15. 前記視線方向分析部は、前記表示画面をm×nのサブ領域のグリッドに分割し、1以上の前記サブ領域に視線パターンの計量値を割り当てることにより、前記視線パターンをマッピングし、
    前記視線方向分析部は、前記サブ領域間での前記視線パターンの計量値の比較に基づいて、前記注目されているサブ領域を決定する
    ことを特徴とする請求項13に記載のシステム。
  16. 前記視線パターンの計量値は、注視点の数、視線パターンの走査長、及び視線パターンの走査領域のうちのいずれかであることを特徴とする請求項15に記載のシステム。
  17. 画像データのフレームを収集する動画像センサを更に備え、
    前記適応的表示処理部は、収集された前記画像データのフレームを、前記注目されているサブ領域に対応する収集された画像データフレームの第1の部分については、前記注目されていないサブ領域に対応する収集された画像データフレームの第2の部分よりも高いビットレートで、前記計算プラットフォームに送信し、
    前記計算プラットフォームは、前記収集された画像データフレームの第1及び第2の部分を、再構成された画像データフレームに組み立て、
    前記表示画面は、前記再構成された画像データフレームを表示する
    ことを特徴とする請求項13に記載のシステム。
  18. 前記収集された画像データフレームの第1の部分について、前記収集された画像データフレームの第2の部分よりも低いフレーム間又はフレーム内圧縮を適用する圧縮エンジンを更に備えるか、又は、前記適応的表示処理部は、前記収集された画像データフレームの第2の部分をサブサンプリングすることを特徴とする請求項17に記載のシステム。
  19. 前記動画像センサは、少なくとも1920×1080ピクセルの高精細解像度で前記画像データのフレームを収集し、
    前記表示画面は、前記注目されているサブ領域に対応する再構成された画像データフレームを高精細解像度で表示し、前記注目されていないサブ領域を高精細解像度よりも低い解像度で表示する
    ことを特徴とする請求項17に記載のシステム。
  20. 前記視線追跡部は、前記収集された画像データフレームに基づいて前記ユーザの視線パターンを追跡することを特徴とする請求項13に記載のシステム。
  21. 前記視線方向分析部は、収集された画像フレームに対して輪郭検出アルゴリズムを実行することにより、前記注目されているサブ領域に対応する記録された画像データのフレームの部分を決定することを特徴とする請求項13に記載のシステム。
  22. 前記視線方向分析部は、定期的に、又は、前記ユーザの瞬き又は視線変更が閾値を越えたことの示唆を取得したときに新たな輪郭検出アルゴリズムを開始することを特徴とする請求項21に記載のシステム。
  23. 前記視線追跡部は、複数のユーザのそれぞれについて前記視線パターンを追跡し、
    前記視線方向分析部は、前記複数のユーザのそれぞれにより注目されている前記表示画面のサブ領域を決定する
    ことを特徴とする請求項13に記載のシステム。
  24. 前記計算プラットフォームにより認識可能なユーザの入力装置を更に備え、
    前記視線追跡部は、前記収集された画像フレームに基づいて前記入力装置に関連付けられたユーザのみの視線パターンを追跡することを特徴とする請求項23に記載のシステム。
JP2013543159A 2010-12-08 2011-06-15 視線追跡を用いた適応的ディスプレー Active JP6034799B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/963,100 US8493390B2 (en) 2010-12-08 2010-12-08 Adaptive displays using gaze tracking
US12/963,100 2010-12-08
PCT/US2011/040574 WO2012078207A1 (en) 2010-12-08 2011-06-15 Adaptive displays using gaze tracking

Publications (2)

Publication Number Publication Date
JP2014508311A true JP2014508311A (ja) 2014-04-03
JP6034799B2 JP6034799B2 (ja) 2016-11-30

Family

ID=46198842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013543159A Active JP6034799B2 (ja) 2010-12-08 2011-06-15 視線追跡を用いた適応的ディスプレー

Country Status (5)

Country Link
US (1) US8493390B2 (ja)
EP (1) EP2648604B1 (ja)
JP (1) JP6034799B2 (ja)
CN (2) CN103249352B (ja)
WO (1) WO2012078207A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015226766A (ja) * 2014-05-23 2015-12-17 ジーエヌ オトメトリックス エー/エスGN Otometrics A/S 眼球運動を測定する頭部装着可能装置
JP2017518557A (ja) * 2014-04-05 2017-07-06 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 様々なレンダリング及びラスタライゼーション・パラメータ下でビューポートを変化させるための、オブジェクトの効率的再レンダリング方法
JP2017208073A (ja) * 2016-03-14 2017-11-24 ロバート エル リッチモンド、 デジタル媒体と観察者の相互作用の構成及び実現
WO2017221509A1 (ja) * 2016-06-20 2017-12-28 シャープ株式会社 画像処理装置、表示装置、画像処理装置の制御方法、および制御プログラム
JP2018110397A (ja) * 2016-12-30 2018-07-12 アクシス アーベー 方法、およびコンピュータ装置
JP2018110398A (ja) * 2016-12-30 2018-07-12 アクシス アーベー 方法、およびコンピュータシステム
JP2018110399A (ja) * 2016-12-30 2018-07-12 アクシス アーベー 方法、装置、およびカメラ
KR20190026030A (ko) * 2016-08-01 2019-03-12 페이스북 테크놀로지스, 엘엘씨 눈 추적 정보에 기반하는 이미지 영역에서의 적응형 파라미터
JP2019512750A (ja) * 2016-04-01 2019-05-16 リニア アルジェブラ テクノロジーズ リミテッド 人間の視覚的なメカニズムに適合したヘッドマウント型ディスプレイのためのシステム及び方法
JP2019197224A (ja) * 2016-02-09 2019-11-14 株式会社ソニー・インタラクティブエンタテインメント 映像表示システム
JP2020513253A (ja) * 2016-11-10 2020-05-14 ニューロトラック テクノロジーズ,インク. 認識能力の分析のために、画像取得デバイスを人間のユーザーに関連付けるための方法およびシステム
US10949947B2 (en) 2017-12-29 2021-03-16 Intel Corporation Foveated image rendering for head-mounted display devices
JP2021131414A (ja) * 2020-02-18 2021-09-09 株式会社デンソー 表示制御装置および表示装置
KR20220145044A (ko) * 2021-04-21 2022-10-28 충남대학교산학협력단 가상현실 기반의 양방향 척추 내시경 수술 트레이닝 시스템

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK1607840T3 (da) 2004-06-18 2015-02-16 Tobii Technology Ab Øjenstyring af et computerapparat
KR20120058763A (ko) * 2010-11-30 2012-06-08 삼성전자주식회사 영상 장치에서 영상 데이터를 송신하기 위한 장치 및 방법
US8888287B2 (en) 2010-12-13 2014-11-18 Microsoft Corporation Human-computer interface system having a 3D gaze tracker
US9454765B1 (en) * 2011-03-28 2016-09-27 Imdb.Com, Inc. Determining the effects of modifying a network page based upon implicit behaviors
US9442565B2 (en) 2011-08-24 2016-09-13 The United States Of America, As Represented By The Secretary Of The Navy System and method for determining distracting features in a visual display
US9142182B2 (en) * 2011-10-07 2015-09-22 Lg Electronics Inc. Device and control method thereof
US9098069B2 (en) 2011-11-16 2015-08-04 Google Technology Holdings LLC Display device, corresponding systems, and methods for orienting output on a display
US20130201305A1 (en) * 2012-02-06 2013-08-08 Research In Motion Corporation Division of a graphical display into regions
US9423994B2 (en) * 2012-02-22 2016-08-23 Citrix Systems, Inc. Hierarchical display
KR101180119B1 (ko) * 2012-02-23 2012-09-05 (주)올라웍스 카메라 모듈을 통해 사용자의 머리를 트래킹하여 화면을 제어하는 방법, 제어장치 및 컴퓨터 판독 가능한 기록 매체
US8988349B2 (en) * 2012-02-28 2015-03-24 Google Technology Holdings LLC Methods and apparatuses for operating a display in an electronic device
US8947382B2 (en) 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
KR101919010B1 (ko) * 2012-03-08 2018-11-16 삼성전자주식회사 안구 동작에 기초한 디바이스의 제어 방법 및 이를 위한 디바이스
US9239956B2 (en) * 2012-06-28 2016-01-19 Oliver Hein Method and apparatus for coding of eye and eye movement data
US9253524B2 (en) * 2012-07-20 2016-02-02 Intel Corporation Selective post-processing of decoded video frames based on focus point determination
US9131266B2 (en) 2012-08-10 2015-09-08 Qualcomm Incorporated Ad-hoc media presentation based upon dynamic discovery of media output devices that are proximate to one or more users
US9245497B2 (en) 2012-11-01 2016-01-26 Google Technology Holdings LLC Systems and methods for configuring the display resolution of an electronic device based on distance and user presbyopia
US9842511B2 (en) * 2012-12-20 2017-12-12 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for facilitating attention to a task
WO2014115387A1 (ja) * 2013-01-28 2014-07-31 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10895908B2 (en) 2013-03-04 2021-01-19 Tobii Ab Targeting saccade landing prediction using visual history
US9898081B2 (en) 2013-03-04 2018-02-20 Tobii Ab Gaze and saccade based graphical manipulation
US11714487B2 (en) 2013-03-04 2023-08-01 Tobii Ab Gaze and smooth pursuit based continuous foveal adjustment
JP5962547B2 (ja) * 2013-03-08 2016-08-03 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9912930B2 (en) * 2013-03-11 2018-03-06 Sony Corporation Processing video signals based on user focus on a particular portion of a video display
US9418617B1 (en) * 2013-03-13 2016-08-16 Google Inc. Methods and systems for receiving input controls
US9131989B2 (en) * 2013-03-23 2015-09-15 Controlrad Systems, Inc. Operating room environment
US20140313103A1 (en) * 2013-04-19 2014-10-23 Qualcomm Incorporated Coordinating a display function between a plurality of proximate client devices
EP2804093A1 (en) 2013-05-13 2014-11-19 Sony Corporation A method for stabilization and a system thereto
WO2014188727A1 (ja) 2013-05-22 2014-11-27 国立大学法人神戸大学 視線計測装置、視線計測方法および視線計測プログラム
KR20160016826A (ko) 2013-06-05 2016-02-15 톰슨 라이센싱 멀티스크린 감상을 위한 콘텐츠 분배를 위한 방법 및 장치
KR102170069B1 (ko) 2013-06-05 2020-10-26 인터디지털 씨이 페턴트 홀딩스 멀티스크린 시청을 위한 컨텐츠 분배를 위한 방법 및 장치
KR20160016827A (ko) 2013-06-05 2016-02-15 톰슨 라이센싱 멀티스크린 뷰잉을 위해 콘텐츠를 분배하기 위한 방법 및 장치
US9544682B2 (en) * 2013-06-05 2017-01-10 Echostar Technologies L.L.C. Apparatus, method and article for providing audio of different programs
US8988344B2 (en) 2013-06-25 2015-03-24 Microsoft Technology Licensing, Llc User interface navigation
US9143880B2 (en) * 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
US10430150B2 (en) 2013-08-23 2019-10-01 Tobii Ab Systems and methods for changing behavior of computer program elements based on gaze input
CN103440038B (zh) * 2013-08-28 2016-06-15 中国人民大学 一种基于眼部识别的信息采集系统及其应用
TWI524211B (zh) * 2013-09-11 2016-03-01 萬國商業機器公司 電子裝置及其顯示角度調整方法
KR102081935B1 (ko) 2013-09-30 2020-02-26 엘지전자 주식회사 멀티 시선 인식 장치 및 방법
EP3063602B1 (en) * 2013-11-01 2019-10-23 Intel Corporation Gaze-assisted touchscreen inputs
KR20150054413A (ko) * 2013-11-12 2015-05-20 삼성전자주식회사 시선 데이터에 따라 컨텐츠의 위치를 결정하는 전자 장치 및 방법
US9219967B2 (en) 2013-11-25 2015-12-22 EchoStar Technologies, L.L.C. Multiuser audiovisual control
US20150169048A1 (en) * 2013-12-18 2015-06-18 Lenovo (Singapore) Pte. Ltd. Systems and methods to present information on device based on eye tracking
US10180716B2 (en) 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
US9633252B2 (en) 2013-12-20 2017-04-25 Lenovo (Singapore) Pte. Ltd. Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data
US9746941B2 (en) 2013-12-26 2017-08-29 Intel Corporation Sensors-based automatic reconfiguration of multiple screens in wearable devices and flexible displays
US10264211B2 (en) 2014-03-14 2019-04-16 Comcast Cable Communications, Llc Adaptive resolution in software applications based on dynamic eye tracking
US9804753B2 (en) * 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
CN104932668A (zh) * 2014-03-20 2015-09-23 冠捷投资有限公司 显示系统的播放内容驱动装置及方法
GB2525170A (en) 2014-04-07 2015-10-21 Nokia Technologies Oy Stereo viewing
CN103974115B (zh) * 2014-04-23 2017-07-11 京东方科技集团股份有限公司 一种高分辨率显示方法和系统
US10424103B2 (en) 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
JP6561988B2 (ja) * 2014-06-10 2019-08-21 株式会社ソシオネクスト 半導体集積回路およびそれを備えた表示装置並びに制御方法
US9958947B2 (en) 2014-06-25 2018-05-01 Comcast Cable Communications, Llc Ocular focus sharing for digital content
US10204658B2 (en) 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
CN104238751B (zh) 2014-09-17 2017-06-27 联想(北京)有限公司 一种显示方法及电子设备
US9977495B2 (en) * 2014-09-19 2018-05-22 Utherverse Digital Inc. Immersive displays
WO2016058847A1 (en) * 2014-10-13 2016-04-21 Thomson Licensing Method for controlling the displaying of text for aiding reading on a display device, and apparatus adapted for carrying out the method, computer program, and computer readable storage medium
CN105635624B (zh) * 2014-10-27 2019-05-03 华为技术有限公司 视频图像的处理方法、设备及系统
US9535497B2 (en) 2014-11-20 2017-01-03 Lenovo (Singapore) Pte. Ltd. Presentation of data on an at least partially transparent display based on user focus
CN104461432B (zh) * 2014-12-19 2017-09-15 南京奥拓电子科技有限公司 一种增加led显示屏同步显示区间的方法
KR101724555B1 (ko) * 2014-12-22 2017-04-18 삼성전자주식회사 부호화 방법 및 장치와 복호화 방법 및 장치
EP3040893B1 (en) * 2014-12-30 2019-01-30 Nokia Technologies OY Display of private content
CN104901939B (zh) * 2014-12-30 2019-01-08 腾讯科技(北京)有限公司 多媒体文件播放方法和终端及服务器
US10303247B2 (en) * 2015-01-16 2019-05-28 Hewlett-Packard Development Company, L.P. User gaze detection
CN105812777B (zh) * 2015-01-21 2018-02-09 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
WO2016139532A1 (en) * 2015-03-03 2016-09-09 Alcatel Lucent Method and apparatus for transmitting a video
CN106162363B (zh) * 2015-03-03 2019-07-02 上海诺基亚贝尔股份有限公司 传输视频的方法和装置
CN104767992A (zh) * 2015-04-13 2015-07-08 北京集创北方科技有限公司 头戴式显示系统及影像低频宽传输方法
US9704217B2 (en) 2015-04-20 2017-07-11 Intel Corporation Apparatus and method for non-uniform frame buffer rasterization
KR102313485B1 (ko) * 2015-04-22 2021-10-15 삼성전자주식회사 가상현실 스트리밍 서비스를 위한 영상 데이터를 송수신하는 방법 및 장치
US11269403B2 (en) * 2015-05-04 2022-03-08 Disney Enterprises, Inc. Adaptive multi-window configuration based upon gaze tracking
IN2015CH02866A (ja) * 2015-06-09 2015-07-17 Wipro Ltd
EP3104621B1 (en) * 2015-06-09 2019-04-24 Wipro Limited Method and device for dynamically controlling quality of a video
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
US9900602B2 (en) 2015-08-20 2018-02-20 Citrix Systems, Inc. Optimizing remote graphics delivery and presentation
US10542315B2 (en) * 2015-11-11 2020-01-21 At&T Intellectual Property I, L.P. Method and apparatus for content adaptation based on audience monitoring
US9841813B2 (en) * 2015-12-22 2017-12-12 Delphi Technologies, Inc. Automated vehicle human-machine interface system based on glance-direction
US10643381B2 (en) * 2016-01-12 2020-05-05 Qualcomm Incorporated Systems and methods for rendering multiple levels of detail
US10643296B2 (en) 2016-01-12 2020-05-05 Qualcomm Incorporated Systems and methods for rendering multiple levels of detail
US10225546B2 (en) * 2016-02-26 2019-03-05 Qualcomm Incorporated Independent multi-resolution coding
GB2548151B (en) * 2016-03-11 2020-02-19 Sony Interactive Entertainment Europe Ltd Head-mountable display
US9965899B2 (en) 2016-04-28 2018-05-08 Verizon Patent And Licensing Inc. Methods and systems for minimizing pixel data transmission in a network-based virtual reality media delivery configuration
US11184624B2 (en) * 2016-05-19 2021-11-23 Qualcomm Incorporated Regional random access in pictures
CN109313900A (zh) * 2016-06-15 2019-02-05 索尼公司 信息处理设备和信息处理方法
US11089280B2 (en) * 2016-06-30 2021-08-10 Sony Interactive Entertainment Inc. Apparatus and method for capturing and displaying segmented content
US10440366B2 (en) 2016-07-01 2019-10-08 Intel Corporation Method and system of video coding using content based metadata
CN105979286A (zh) * 2016-07-05 2016-09-28 张程 一种复合分辨率的视频传输播放系统及方法
CN106095118B (zh) * 2016-08-18 2019-06-04 青岛海信医疗设备股份有限公司 一种用于医疗显示的光标移动方法、装置和医疗设备
CN106131693A (zh) * 2016-08-23 2016-11-16 张程 一种模块化的视频传输播放系统及方法
WO2018057450A1 (en) * 2016-09-20 2018-03-29 Tobii Ab Gaze and saccade based graphical manipulation
WO2018057910A1 (en) 2016-09-22 2018-03-29 Apple, Inc. Postponing the state change of an information affecting the graphical user interface until during the conditon of inattentiveness
KR102650215B1 (ko) 2016-10-18 2024-03-21 삼성전자주식회사 영상 처리 방법 및 장치
CN110023881B (zh) * 2016-12-01 2022-07-08 昆山云英谷电子科技有限公司 基于区域的显示数据处理和传输
CN106802714A (zh) * 2016-12-08 2017-06-06 珠海格力电器股份有限公司 终端及其控制方法和装置
US11290699B2 (en) 2016-12-19 2022-03-29 Dolby Laboratories Licensing Corporation View direction based multilevel low bandwidth techniques to support individual user experiences of omnidirectional video
CN107342047B (zh) * 2017-01-03 2020-06-23 京东方科技集团股份有限公司 像素电路及其驱动方法、以及显示面板
US11187909B2 (en) 2017-01-31 2021-11-30 Microsoft Technology Licensing, Llc Text rendering by microshifting the display in a head mounted display
US10298840B2 (en) 2017-01-31 2019-05-21 Microsoft Technology Licensing, Llc Foveated camera for video augmented reality and head mounted display
US10354140B2 (en) 2017-01-31 2019-07-16 Microsoft Technology Licensing, Llc Video noise reduction for video augmented reality system
US10504397B2 (en) 2017-01-31 2019-12-10 Microsoft Technology Licensing, Llc Curved narrowband illuminant display for head mounted display
JP6862202B2 (ja) * 2017-02-08 2021-04-21 キヤノン株式会社 画像処理装置、撮像装置および制御方法
CN106899766A (zh) * 2017-03-13 2017-06-27 宇龙计算机通信科技(深圳)有限公司 一种安全提示方法及其装置及移动终端
US9986215B1 (en) 2017-03-23 2018-05-29 Microsoft Technology Licensing, Llc Laser scan beam foveated display
US11054886B2 (en) * 2017-04-01 2021-07-06 Intel Corporation Supporting multiple refresh rates in different regions of panel display
US10764552B2 (en) 2017-05-26 2020-09-01 Google Llc Near-eye display with sparse sampling super-resolution
CN107203270A (zh) * 2017-06-06 2017-09-26 歌尔科技有限公司 Vr图像处理方法及装置
CN107018386A (zh) * 2017-06-08 2017-08-04 柳州智视科技有限公司 一种视频流多分辨率观测系统
CN107333119A (zh) 2017-06-09 2017-11-07 歌尔股份有限公司 一种显示数据的处理方法和设备
CN107065197B (zh) * 2017-06-20 2020-02-18 合肥工业大学 面向vr眼镜的人眼跟踪远程渲染实时显示方法及系统
CN107277474B (zh) * 2017-06-26 2019-06-25 深圳看到科技有限公司 全景画面生成方法及生成装置
CN107277419A (zh) * 2017-07-28 2017-10-20 京东方科技集团股份有限公司 一种显示装置及其显示方法
TWI642030B (zh) * 2017-08-09 2018-11-21 宏碁股份有限公司 視覺效用分析方法及相關眼球追蹤裝置與系統
CN116774961A (zh) 2017-08-25 2023-09-19 微软技术许可有限责任公司 无线可编程媒体处理系统
CN107870671B (zh) * 2017-10-26 2021-04-16 Oppo广东移动通信有限公司 显示处理方法及相关产品
US10395624B2 (en) 2017-11-21 2019-08-27 Nvidia Corporation Adjusting an angular sampling rate during rendering utilizing gaze information
CN107977560B (zh) * 2017-11-23 2021-04-13 北京航空航天大学 基于视线追踪的身份认证方法及装置
US11221669B2 (en) * 2017-12-20 2022-01-11 Microsoft Technology Licensing, Llc Non-verbal engagement of a virtual assistant
US11166080B2 (en) 2017-12-21 2021-11-02 Facebook, Inc. Systems and methods for presenting content
CN108665521B (zh) * 2018-05-16 2020-06-02 京东方科技集团股份有限公司 图像渲染方法、装置、系统、计算机可读存储介质及设备
CN110545430A (zh) * 2018-05-28 2019-12-06 北京松果电子有限公司 视频传输方法和装置
US11684305B2 (en) 2018-06-02 2023-06-27 Seyedhesam Sadeghian-Motahar Electrode array configuration on a flexible substrate for electro-oculogram recording
EP3804347B1 (en) * 2018-06-04 2023-10-25 Boe Technology Group Co., Ltd. A method for processing image data with reduced transmission bandwidth for display
US11949943B2 (en) * 2018-07-16 2024-04-02 Arris Enterprises Llc Gaze-responsive advertisement
FR3090256B1 (fr) * 2018-12-12 2021-07-02 Orange Procédé de reproduction sur un terminal d’un contenu principal en restituant un contenu secondaire associé à un objet affiché, terminal, serveur, et programme d’ordinateur correspondants
CN109587344A (zh) * 2018-12-28 2019-04-05 北京七鑫易维信息技术有限公司 基于移动终端的通话控制方法、装置、移动终端及介质
US12003846B2 (en) 2019-02-12 2024-06-04 Telefonaktiebolaget Lm Ericsson (Publ) Method, computer program, and devices for image acquisition
US11145844B2 (en) * 2019-02-27 2021-10-12 Int Tech Co., Ltd. Method for manufacturing electroluminescent device
CN118400584A (zh) * 2019-04-11 2024-07-26 华为技术有限公司 跟随用户运动控制播放视频内容的方法和装置
DE112020002591T5 (de) * 2019-05-27 2022-03-31 Sony Group Corporation Informationsverarbeitungsvorrichtung für künstliche Intelligenz und Informationsverarbeitungsverfahren für künstliche Intelligenz
US11216065B2 (en) * 2019-09-26 2022-01-04 Lenovo (Singapore) Pte. Ltd. Input control display based on eye gaze
CN110611815A (zh) * 2019-09-26 2019-12-24 深圳市半冬科技有限公司 一种视频输出方法、装置以及存储装置
CN112558902B (zh) * 2019-09-26 2024-09-24 苹果公司 用于动态中央凹显示器的与注视无关的抖动
JP7208128B2 (ja) * 2019-10-24 2023-01-18 キヤノン株式会社 撮像装置およびその制御方法
US10928904B1 (en) * 2019-12-31 2021-02-23 Logitech Europe S.A. User recognition and gaze tracking in a video system
US11163995B2 (en) 2019-12-31 2021-11-02 Logitech Europe S.A. User recognition and gaze tracking in a video system
US11625973B2 (en) * 2020-04-22 2023-04-11 Igt Multi-user gaze detection at electronic gaming devices
JP7542994B2 (ja) * 2020-05-26 2024-09-02 キヤノン株式会社 電子機器
US11822715B2 (en) 2020-07-09 2023-11-21 Apple Inc. Peripheral luminance or color remapping for power saving
CN112463090B (zh) * 2020-10-30 2024-06-07 维沃软件技术有限公司 分辨率调整方法、装置、设备及介质
US20230409111A1 (en) * 2020-11-18 2023-12-21 Magic Leap, Inc. Eye tracking based video transmission and compression
WO2022122117A1 (en) * 2020-12-07 2022-06-16 Viewpointsystem Gmbh Method for implementing a zooming function in an eye tracking system
CN114935971B (zh) * 2021-02-05 2024-08-20 京东方科技集团股份有限公司 显示装置和显示驱动方法
US11620000B1 (en) * 2022-03-31 2023-04-04 Microsoft Technology Licensing, Llc Controlled invocation of a precision input mode
US12053699B2 (en) * 2022-04-26 2024-08-06 Sony Interactive Entertainment Inc. Foveated enhancement of non-XR games within a HMD system
WO2023229823A1 (en) * 2022-05-27 2023-11-30 Sony Interactive Entertainment LLC Methods and systems to activate selective navigation or magnification of screen content

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185442A (ja) * 1997-09-03 1999-03-30 Sanyo Electric Co Ltd 情報出力装置
JP2000132152A (ja) * 1998-10-27 2000-05-12 Sharp Corp 表示装置
JP2004181233A (ja) * 2002-11-25 2004-07-02 Eastman Kodak Co 画像中の重要領域決定方法及びプログラム
JP2004534261A (ja) * 2001-03-28 2004-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 人の目の注視を考慮したスマート表示の方法及び装置
JP2005091571A (ja) * 2003-09-16 2005-04-07 Fuji Photo Film Co Ltd 表示制御装置、及び表示システム
JP2006338493A (ja) * 2005-06-03 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> 次発言者検出方法、装置、およびプログラム
WO2009067676A1 (en) * 2007-11-21 2009-05-28 Gesturetek, Inc. Device access control
JP2009117987A (ja) * 2007-11-02 2009-05-28 Sony Corp 情報提示装置及び情報提示方法
JP2010263394A (ja) * 2009-05-07 2010-11-18 Panasonic Corp 映像信号処理装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6252989B1 (en) * 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
US6182114B1 (en) 1998-01-09 2001-01-30 New York University Apparatus and method for realtime visualization using user-defined dynamic, multi-foveated images
US7027655B2 (en) * 2001-03-29 2006-04-11 Electronics For Imaging, Inc. Digital image compression with spatially varying quality levels determined by identifying areas of interest
US20030067476A1 (en) * 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
US8599266B2 (en) * 2002-07-01 2013-12-03 The Regents Of The University Of California Digital processing of video images
US7872635B2 (en) * 2003-05-15 2011-01-18 Optimetrics, Inc. Foveated display eye-tracking system and method
US20050018911A1 (en) * 2003-07-24 2005-01-27 Eastman Kodak Company Foveated video coding system and method
US7508545B2 (en) * 2004-09-27 2009-03-24 Eastman Kodak Company Color contour detection and correction
CN101588445B (zh) * 2009-06-09 2011-01-19 宁波大学 一种基于深度的视频感兴趣区域提取方法
WO2012015460A1 (en) * 2010-07-26 2012-02-02 Thomson Licensing Dynamic adaptation of displayed video quality based on viewers' context

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185442A (ja) * 1997-09-03 1999-03-30 Sanyo Electric Co Ltd 情報出力装置
JP2000132152A (ja) * 1998-10-27 2000-05-12 Sharp Corp 表示装置
JP2004534261A (ja) * 2001-03-28 2004-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 人の目の注視を考慮したスマート表示の方法及び装置
JP2004181233A (ja) * 2002-11-25 2004-07-02 Eastman Kodak Co 画像中の重要領域決定方法及びプログラム
JP2005091571A (ja) * 2003-09-16 2005-04-07 Fuji Photo Film Co Ltd 表示制御装置、及び表示システム
JP2006338493A (ja) * 2005-06-03 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> 次発言者検出方法、装置、およびプログラム
JP2009117987A (ja) * 2007-11-02 2009-05-28 Sony Corp 情報提示装置及び情報提示方法
WO2009067676A1 (en) * 2007-11-21 2009-05-28 Gesturetek, Inc. Device access control
JP2010263394A (ja) * 2009-05-07 2010-11-18 Panasonic Corp 映像信号処理装置

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017518557A (ja) * 2014-04-05 2017-07-06 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 様々なレンダリング及びラスタライゼーション・パラメータ下でビューポートを変化させるための、オブジェクトの効率的再レンダリング方法
JP2015226766A (ja) * 2014-05-23 2015-12-17 ジーエヌ オトメトリックス エー/エスGN Otometrics A/S 眼球運動を測定する頭部装着可能装置
JP2019197224A (ja) * 2016-02-09 2019-11-14 株式会社ソニー・インタラクティブエンタテインメント 映像表示システム
US11270410B2 (en) 2016-02-09 2022-03-08 Sony Interactive Entertainment Inc. Video display system
JP2017208073A (ja) * 2016-03-14 2017-11-24 ロバート エル リッチモンド、 デジタル媒体と観察者の相互作用の構成及び実現
US11816257B2 (en) 2016-03-14 2023-11-14 Jeffrey T. Haley Image changes based on gaze location
US11782507B2 (en) 2016-03-14 2023-10-10 Jeffrey T. Haley Image changes based on facial appearance
US11016563B2 (en) 2016-03-14 2021-05-25 Jeffrey T. Haley Image changes based on voice
JP2019512750A (ja) * 2016-04-01 2019-05-16 リニア アルジェブラ テクノロジーズ リミテッド 人間の視覚的なメカニズムに適合したヘッドマウント型ディスプレイのためのシステム及び方法
WO2017221509A1 (ja) * 2016-06-20 2017-12-28 シャープ株式会社 画像処理装置、表示装置、画像処理装置の制御方法、および制御プログラム
JP2019533325A (ja) * 2016-08-01 2019-11-14 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 視線追跡情報に基づく画像領域内の適応パラメータ
KR102403304B1 (ko) 2016-08-01 2022-06-02 페이스북 테크놀로지스, 엘엘씨 눈 추적 정보에 기반하는 이미지 영역에서의 적응형 파라미터
KR102543341B1 (ko) 2016-08-01 2023-06-16 메타 플랫폼즈 테크놀로지스, 엘엘씨 눈 추적 정보에 기반하는 이미지 영역에서의 적응형 파라미터
US10984756B2 (en) 2016-08-01 2021-04-20 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information
KR20190026030A (ko) * 2016-08-01 2019-03-12 페이스북 테크놀로지스, 엘엘씨 눈 추적 정보에 기반하는 이미지 영역에서의 적응형 파라미터
KR20220080000A (ko) * 2016-08-01 2022-06-14 페이스북 테크놀로지스, 엘엘씨 눈 추적 정보에 기반하는 이미지 영역에서의 적응형 파라미터
JP2020513253A (ja) * 2016-11-10 2020-05-14 ニューロトラック テクノロジーズ,インク. 認識能力の分析のために、画像取得デバイスを人間のユーザーに関連付けるための方法およびシステム
JP2018110399A (ja) * 2016-12-30 2018-07-12 アクシス アーベー 方法、装置、およびカメラ
JP7353015B2 (ja) 2016-12-30 2023-09-29 アクシス アーベー 方法、装置、およびカメラ
JP2018110398A (ja) * 2016-12-30 2018-07-12 アクシス アーベー 方法、およびコンピュータシステム
JP2018110397A (ja) * 2016-12-30 2018-07-12 アクシス アーベー 方法、およびコンピュータ装置
US10949947B2 (en) 2017-12-29 2021-03-16 Intel Corporation Foveated image rendering for head-mounted display devices
US11682106B2 (en) 2017-12-29 2023-06-20 Intel Corporation Foveated image rendering for head-mounted display devices
JP2021131414A (ja) * 2020-02-18 2021-09-09 株式会社デンソー 表示制御装置および表示装置
JP7380299B2 (ja) 2020-02-18 2023-11-15 株式会社デンソー 表示制御装置および表示装置
KR20220145044A (ko) * 2021-04-21 2022-10-28 충남대학교산학협력단 가상현실 기반의 양방향 척추 내시경 수술 트레이닝 시스템
KR102464735B1 (ko) 2021-04-21 2022-11-09 충남대학교산학협력단 가상현실 기반의 양방향 척추 내시경 수술 트레이닝 시스템

Also Published As

Publication number Publication date
CN103249352B (zh) 2015-06-17
US8493390B2 (en) 2013-07-23
EP2648604A4 (en) 2014-11-26
EP2648604B1 (en) 2021-12-22
US20120146891A1 (en) 2012-06-14
CN103249352A (zh) 2013-08-14
JP6034799B2 (ja) 2016-11-30
CN103559006B (zh) 2017-11-07
EP2648604A1 (en) 2013-10-16
CN103559006A (zh) 2014-02-05
WO2012078207A1 (en) 2012-06-14

Similar Documents

Publication Publication Date Title
JP6034799B2 (ja) 視線追跡を用いた適応的ディスプレー
US20210129012A1 (en) Systems and Methods for Reducing Hops Associated with A Head Mounted System
US20210220730A1 (en) Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
JP5654430B2 (ja) 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用
US11537264B2 (en) Methods and systems for providing shortcuts for fast load when moving between scenes in virtual reality
JP5512804B2 (ja) オブジェクトの位置及び向きを用いた追跡システムの較正
US20100328447A1 (en) Configuration of display and audio parameters for computer graphics rendering system having multiple displays
US8393964B2 (en) Base station for position location
JP2018029968A (ja) ヘッドマウンテッドディスプレイ上でのゲームプレイの移行
US20100285883A1 (en) Base Station Movement Detection and Compensation
US20130021234A1 (en) Apparatus, system, and method for providing feedback sensations of temperature and texture to a controller
JP5396486B2 (ja) 画像内の形状のブルーミングの補償
JP2024521138A (ja) レガシーゲームのプレイ中のユーザ入力のエミュレーションのためのシステム及び方法
JP2024523802A (ja) レガシーゲームのプレイ中にグラフィックパラメータ及びオーディオパラメータをエミュレーションするためのシステム及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160914

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161028

R150 Certificate of patent or registration of utility model

Ref document number: 6034799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250