[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5654430B2 - 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用 - Google Patents

家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用 Download PDF

Info

Publication number
JP5654430B2
JP5654430B2 JP2011224516A JP2011224516A JP5654430B2 JP 5654430 B2 JP5654430 B2 JP 5654430B2 JP 2011224516 A JP2011224516 A JP 2011224516A JP 2011224516 A JP2011224516 A JP 2011224516A JP 5654430 B2 JP5654430 B2 JP 5654430B2
Authority
JP
Japan
Prior art keywords
interactive application
portable device
interactive
video stream
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011224516A
Other languages
English (en)
Other versions
JP2012096027A (ja
Inventor
ツー ヤンペン
ツー ヤンペン
ロジャー スタフォード ジェフリー
ロジャー スタフォード ジェフリー
オスマン スティーヴン
オスマン スティーヴン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2012096027A publication Critical patent/JP2012096027A/ja
Application granted granted Critical
Publication of JP5654430B2 publication Critical patent/JP5654430B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/323Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections between game devices with different hardware characteristics, e.g. hand-held game devices connectable to game consoles or arcade machines
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/327Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/352Details of game servers involving special game server arrangements, e.g. regional servers connected to a national server or a plurality of servers managing partitions of the game world
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/47Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/403Connection between platform and handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/538Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for performing operations on behalf of the game client, e.g. rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/632Methods for processing data by generating or executing the game program for controlling the execution of the game in time by branching, e.g. choosing one of several possible story developments at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本出願は、米国特許出願第号(代理人ドケット番号:SONYP115、発明の名称:「携帯型装置がインタラクティブアプリケーションの映像を撮像することを可能とするためのシステム」、本出願と同日に出願)に関連し、その全体をここに援用する。
本発明は、インタラクティブアプリケーションとの相互作用を可能とするための方法及びシステムに関する。
ビデオゲーム産業の成長しているセグメントは、携帯型装置の使用を含む。そのような携帯型装置の例は、例えば株式会社ソニー・コンピュータエンタテインメントなどにより製造された専用のゲーム装置や、スマートフォン、PDA、ディジタルマルチメディアプレイヤーなどの他のタイプの携帯型装置を含む。このような携帯型装置の計算能力が向上して、携帯型装置はますます複雑なプログラム及びタスクを扱う能力を有するようになった。
例えば、今日の携帯型装置は、単一の装置に集積されたいくつかの異なるタイプのハードウェアを含みうる。そのような装置の多くは、カラーディスプレー、カメラ、スピーカ、及びボタン、タッチスクリーン、又はスタイラスなどの入力機構を含みうる。
本発明の実施の形態が生まれたのは、このコンテキストにおいてである。
本発明の実施の形態は、インタラクティブアプリケーションが携帯型装置のリソースを利用することを可能とするための方法及びシステムを提供する。本発明は、方法、装置、システム、デバイス、コンピュータ読み取り可能な記録媒体上の方法など、多様な方法で実現することが可能であることが理解されるべきである。本発明のいくつかの創意に富む実施の形態が以下に説明される。
一つの実施の形態において、ユーザが携帯型装置を用いてインタラクティブアプリケーションと相互作用することを可能とするための方法が提供される。この方法によれば、インタラクティブアプリケーションの状態が、インタラクティブアプリケーションの第1のビデオストリームを第1の処理インタフェースからディスプレーに送信することにより、ディスプレーに描画される。第1の処理インタフェースの周辺において携帯型装置の存在が検知される。インタラクティブアプリケーションのデータフィードが、第1の処理インタフェースから携帯型装置へ送信される。インタラクティブアプリケーションの補助的なビデオストリームを生成するためにデータフィードが携帯型装置において処理される。補助的なビデオストリームは、携帯型装置において描画される。携帯型装置に補助的なビデオストリームを描画しているときに、携帯型装置においてインタラクティブな入力が受け付けられる。ディスプレーに描画されるべきイベントを定義する仮想タグを設定するために、インタラクティブな入力が適用される。インタラクティブアプリケーションの状態が、インタラクティブアプリケーションによる仮想タグの実行を誘起するための所定の状態になったときに、仮想タグにより定義されたイベントがディスプレーに描画される。
一つの実施の形態において、描画される補助的なビデオストリームは、所定の期間、描画されるインタラクティブアプリケーションの第1のビデオストリームと同じ画像を生成する。
一つの実施の形態において、補助的なビデオストリームは、第1のビデオストリームの圧縮されたバージョンである。
一つの実施の形態において、描画される補助的なビデオストリームは、最初は、描画されるインタラクティブアプリケーションの第1のビデオストリームと同じ画像を生成する。つづいて、描画される補助的なビデオストリームは、受信されたインタラクティブな入力に基づいて、描画される第1のビデオストリームとは異なる画像を生成する。
一つの実施の形態において、仮想タグの設定は、インタラクティブアプリケーションの仮想的な空間内の位置を有するオブジェクトを設定することを含む。また、イベントの描画は、インタラクティブアプリケーションの状態がオブジェクトの位置を含む領域を描画するとき、その位置にオブジェクトを描画することを含む。
一つの実施の形態において、仮想タグにより特定されるオブジェクトは、テキスト、音声、映像、アイテム、又はキャラクタからなるグループから選択される。
一つの実施の形態において、仮想タグの設定は、インタラクティブアプリケーションの仮想的な時系列内のタイムスタンプを有するオブジェクトを設定することを含む。また、イベントの描画は、インタラクティブアプリケーションの状態が仮想タグのタイムスタンプに近似又は一致する時点になったときに、オブジェクトを描画することを含む。
一つの実施の形態において、描画される第1のビデオストリームは、インタラクティブアプリケーションの仮想的な空間内の第1の位置を示し、描画される補助的なビデオストリームは、インタラクティブアプリケーションの仮想的な空間内の第2の位置を示す。
一つの実施の形態において、描画される第1のビデオストリームは、インタラクティブアプリケーションの仮想的な時系列内の第1の位置を示し、描画される補助的なビデオストリームは、インタラクティブアプリケーションの仮想的な時系列内の第2の位置を示す。
一つの実施の形態において、描画される補助的なビデオストリームは、インタラクティブアプリケーションの仮想的な空間のマップを提供する。一つの実施の形態において、マップにおいて位置を選択することにより、携帯型装置において描画される、選択された位置の表示にアクセス可能とする。一つの実施の形態において、マップは仮想的な空間における1以上のオブジェクトの表現を含み、インタラクティブな入力によりオブジェクトの制御が可能とされる。一つの実施の形態において、1以上のオブジェクトは、インタラクティブアプリケーションのキャラクタを含み、インタラクティブな入力により、キャラクタにより実行されるアクションの決定が可能とされる。種々の実施の形態において、アクションは、インタラクティブアプリケーションのコンテキストにおいてキャラクタが実行可能な任意のタイプのアクションであってもよい。
一つの実施の形態において、アクションは、移動、攻撃的行動、及び防御的行動からなるグループから選択される。
一つの実施の形態において、インタラクティブな入力は、携帯型装置にマップが描画されたときに、マップにおいて描かれたジェスチャー入力を含む。
一つの実施の形態において、コントローラ装置からのコントローラ入力がコンソール装置において受け付けられる。また、インタラクティブアプリケーションの状態を変更するためにコントローラ入力が適用される。一つの実施の形態において、インタラクティブな入力は、携帯型装置のタッチスクリーンインタフェースを介して受信される。
本発明の他の態様は、本発明の原理を例示する添付の図面とともに考慮される下記の詳細な説明から明らかになる。
本発明は、以下の詳細な説明を添付図面とともに参照することによって、良く理解されよう。
図1は、本発明の実施の形態に係る、インタラクティブアプリケーションとのインタフェースのためのシステムを示す図である。
図2は、本発明の実施の形態に係る、仮想タグを格納及び取得するためのシステムを示す図である。
図3は、本発明の実施の形態に係る、インタラクティブアプリケーションとの相互作用を提供するためのシステムを示す図である。
図4は、本発明の実施の形態に係る、インタラクティブゲームとの相互作用を提供するのためのシステムを示す図である。
図5は、本発明の実施の形態に係る、インタラクティブアプリケーションが携帯型装置のリソースを利用することを可能とするためのシステムを示す図である。
図6は、本発明の実施の形態に係る、インタラクティブプログラムとのインタフェースのためのコントローラを示す図である。
図7は、本発明の実施の形態に係る、携帯型装置の例の前面を示す図である。
図8は、本発明の実施の形態に係る、携帯型装置の構成要素を示すダイアグラムを示す図である。
図9は、本発明の実施の形態に係る、インタラクティブな環境を示す図である。
図10は、本発明の実施の形態に係る、インタラクティブな環境を示す図である。
図11は、本発明の実施の形態に係る、インタラクティブな環境を示す図である。
図12は、本発明の実施の形態に係る、インタラクティブゲーム内のシーンを示す概念図を示す図である。
図13Aは、本発明の実施の形態に係る、種々のスタイルのゲームプレーを示す図である。 図13Bは、本発明の実施の形態に係る、種々のスタイルのゲームプレーを示す図である。 図13Cは、本発明の実施の形態に係る、種々のスタイルのゲームプレーを示す図である。
図14は、本発明の実施の形態に係る、インタラクティブな環境を示す図である。
図15は、本発明の実施の形態に係る、インタラクティブな環境を示す図である。
図16は、本発明の実施の形態に係る、インタラクティブな環境を示す図である。
図17は、本発明の実施の形態に係る、仮想空間の座標系を示す図である。
図18は、本発明の実施の形態に係る、仮想タグを設定するためのユーザインタフェースを示す一連のアクションを示す図である。
図19は、本発明の実施の形態に係る、インタラクティブな環境を示す図である。
図20は、本発明の実施の形態に係る、インタラクティブな環境を示す図である。
図21は、本発明の実施の形態に係る、インタラクティブな環境を示す図である。
図22は、本発明の実施の形態に係る、インタラクティブアプリケーションを実行し描画するために用いられうるハードウェア及びユーザインタフェースを示す図である。
図23は、本発明の実施の形態に係る、基本となる計算装置において実行されるコンピュータプログラムを有する制御装置及び携帯型装置とのインタフェースのために親和性の高いコンソールである、ソニープレイステーション3(登録商標)エンタテインメント装置の全体のシステム構成を概略的に示す図である。
下記の実施の形態は、インタラクティブアプリケーションが携帯型装置のリソースを利用することを可能とするシステムのための方法及び装置を説明する。本発明の一つの実施の形態において、プライマリ(主要な)処理インタフェースは、インタラクティブアプリケーションのプライマリ(主要な)ビデオストリームをディスプレーに描画するために提供される。第1のユーザは、ディスプレーに描画されたプライマリビデオストリームを見て、プライマリ処理インタフェースと通信するコントローラ装置を操作することにより相互作用する。同時に、第2のユーザは、同じインタラクティブ環境において、携帯型装置を操作する。携帯型装置は、プライマリビデオストリームを表示するディスプレーとは分離された携帯型装置のディスプレーに、インタラクティブアプリケーションの補助的なビデオストリームを描画する。このように、本発明の実施の形態に係る方法及び装置が以下に説明される。
しかし、本発明は、これらの特定の詳細のいくつか又は全てを伴わずに実装されてもよいことは、当業者には明らかである。別の実例において、既知の処理手順は、本発明を不必要に不明瞭としないために、詳細には説明されない。
図1を参照して、本発明の実施の形態に係るインタラクティブアプリケーションとのインタフェースのためのシステムが示される。インタラクティブアプリケーション10は、プライマリプロセッサ12により実行される。プライマリ処理インタフェース14は、インタラクティブアプリケーション10の状態をディスプレー18に描画する。これは、インタラクティブアプリケーション10のプライマリビデオストリーム16を、プライマリ処理インタフェース14からディスプレー18へ送ることにより達成される。本発明のいくつかの実施の形態において、プライマリ処理インタフェース14及びプライマリプロセッサ12は、コンピュータ又はコンソールシステムなどの同一の装置の一部であってもよい。または、他の実施の形態において、プライマリ処理インタフェース14及びプライマリプロセッサ12は、直接又はネットワークを介して互いに接続される分離された装置(例えば、分離されたコンピュータ又はコンソールシステム)の一部であってもよい。ディスプレー18は、テレビジョン、モニタ、プロジェクタ、又はビデオストリームを表示するために利用可能な他の任意の種類のディスプレーなどの、種々のタイプのディスプレーのいずれかであってもよい。
コントローラ20は、インタラクティブアプリケーション10とのインタフェースのために提供される。コントローラは、ユーザ24から入力を受け付けるための入力機構22を含む。入力機構22は、ボタン、ジョイスティック、タッチパッド、トラックボール、モーションセンサ、又はインタラクティブアプリケーション10と相互作用するために有用なユーザ24からの入力を受付可能な他の任意のタイプの入力機構などの、種々の種類の入力機構のいずれかを含んでもよい。コントローラ20は、プライマリ処理インタフェース14と通信する。一つの実施の形態において、通信は無線である。別の実施の形態において、通信は有線接続を介して生ずる。コントローラ20は、入力データをプライマリ処理インタフェース14に送信する。プライマリ処理インタフェース14は、入力データを順に処理し、結果のデータをインタラクティブアプリケーション10へ送信してもよいし、単に入力データを直接インタラクティブアプリケーション10へ中継してもよい。入力データは、インタラクティブアプリケーションの状態に直接影響を与えるように適用される。
インタラクティブアプリケーション10のデータフィード(供給)26は、携帯型装置28に提供される。携帯型装置28は、別のユーザ30がインタラクティブアプリケーション10と相互作用するためのインタフェースを提供する。一つの実施の形態において、携帯型装置28は、プライマリ処理インタフェース14と無線通信する。別の実施の形態において、携帯型装置28は、有線接続を介してプライマリ処理インタフェース14と通信する。携帯型装置28は、データフィード26を受信し、携帯型装置28のプロセッサ32は、インタラクティブアプリケーション10の補助的な副ビデオストリーム34を生成するためにデータフィード26を処理する。副ビデオストリーム34は、携帯型装置28に含まれるディスプレー36に描画される。
さまざまな実施の形態において、副ビデオストリーム34は、プライマリビデオストリーム16と同じ画像を提供してもよいし、異なる程度でプライマリビデオストリーム16とは異なってもよい。描画されたプライマリビデオストリーム16とは完全に異なってもよい。例えば、一つの実施の形態において、副ビデオストリーム34は、ある期間はプライマリビデオストリームと同じ画像を提供し、その後、異なる画像に遷移する。遷移は、携帯型装置28から受け付けられる入力により誘発されてもよい。ディスプレー36に描画される副ビデオストリーム34の更なる実施の形態は、以下に更に詳述される。ユーザ30は、ディスプレー36の副ビデオストリーム34を見て、携帯型装置28に含まれる入力機構38を解して入力を提供することにより、副ビデオストリーム34と相互作用する。入力機構38は、ボタン、タッチスクリーン、ジョイスティック、トラックボール、キーボード、スタイラス、又は携帯型装置に含まれうる任意の他の種類の入力機構などの、種々の入力機構のいずれかを含んでもよい。このように、ユーザ30は、入力機構38を介してインタラクティブ入力40を提供するために、描画された副ビデオストリーム38と相互作用する。インタラクティブ入力40は、仮想タグデータ42を決定するために、プロセッサ32により処理される。仮想タグデータ42は、プライマリ処理インタフェース14を介してインタラクティブアプリケーション10に送信される。仮想タグデータ42は、仮想タグとして格納されてもよく、インタラクティブアプリケーション10の状態が、インタラクティブアプリケーション10による仮想タグの実行の契機となるための特定の予め定められた構成になったときに、インタラクティブアプリケーション10により描画されるべきイベントを定義する情報を含んでもよい。仮想タグの内容は、種々の実施の形態において異なってもよく、オブジェクト、アイテム、キャラクタ、アクション、及びインタラクティブアプリケーション10によりディスプレー18に描画される他のタイプのイベントに関連してもよい。
本明細書で説明される実施の形態は、コントローラ20を使用するユーザ24及び携帯型装置28を使用するユーザ30を含むが、種々のユーザの構成がありうる。例えば、他の実施の形態において、コントローラを使用する1以上のユーザと、携帯型装置28を使用する1以上のユーザがいてもよい。または、他の実施の形態において、コントローラを使用するユーザはいないが、携帯型装置を使用するユーザが少なくとも一人いてもよい。
図2を参照して、本発明の実施の形態にしたがって、仮想タグを格納し読み出すためのシステムが示される。携帯型装置のユーザ30は、タグデータ42を生成するために携帯型装置28を利用する。一つの実施の形態において、タググラフィカルユーザインタフェース(GUI)モジュール50は、タグデータ42を生成するためにユーザ30により提供されたインタラクティブ入力の受付を容易にするためのGUIをユーザ30に提供するために、携帯型装置に含まれる。種々の実施の形態において、タグGUI50は、選択可能なメニューオプション、ディスプレーに描かれたタッチスクリーン入力の追跡、タッチスクリーンのジェスチャー又は選択可能な入力に基づいた動き、又はタグデータ42を生成するためのインタラクティブな入力をユーザ30が提供することを可能とするために有用な任意のタイプのGUI要素又は特徴を含む種々の特徴のいずれかを含んでもよい。
一つの実施の形態において、タグデータ42は、インタラクティブアプリケーション10に送信される。タグデータ42は、インタラクティブアプリケーションに含まれるタグモジュール60により受信される。ある実施の形態において、タグデータは、タグデータにより定義されたイベントを描画するために、インタラクティブアプリケーション10により直ちに適用される。例えば、タグデータは、描画されるべきオブジェクトを定義してもよいし、インタラクティブアプリケーションにより既に描画されている既存のオブジェクトに影響を与えてもよい。タグデータにより定義されたイベントは、インタラクティブアプリケーションにより適用され、そのイベントを含むインタラクティブアプリケーションの状態が更新される。この更新された状態は、図1に示されるように、ディスプレー18に表示されるプライマリビデオストリーム16に描画される。
ある実施の形態において、タグデータ42は、直ちに適用可能でないが、インタラクティブアプリケーション10の状態が特定の構成になったときにインタラクティブアプリケーション10により適用可能となるイベントを定義する。例えば、一つの実施の形態において、タグデータ42により定義されたイベントは、インタラクティブアプリケーション10の仮想空間内の特定の位置にオブジェクトが描画されるべきであることを特定してもよい。インタラクティブアプリケーション10の状態が、インタラクティブアプリケーション10がタグデータにより定義された位置を含む領域を描画するような構成になったときに、インタラクティブアプリケーション10は、そのオブジェクトを描画するためにタグデータを適用する。別の例において、タグデータ42は、インタラクティブアプリケーション10の仮想時系列内でイベントが発生すべき時刻を特定するタイムスタンプを含んでもよい。インタラクティブアプリケーション10の状態が特定された時間になったとき、タグデータ42により定義されたイベントの実行が誘発され、描画されたイベントを含むインタラクティブアプリケーション10の状態が更新される。
タグモジュール60は、タグデータをタグとしてローカルに格納してもよい。タグモジュール60は、タグをタグリポジトリ52に更に格納してもよい。タグリポジトリ52は、インタラクティブアプリケーション10と同一装置内にあってもよいし、インターネットなどのネットワーク54を介してインタラクティブアプリケーション10に接続されてもよい。タグリポジトリ52は、将来の取得のためにタグ56を格納する。それぞれのタグ56は、インタラクティブアプリケーション10により描画されるべきイベントを定義する種々のデータを含んでもよい。データは、インタラクティブアプリケーションの仮想空間内の位置を定義する座標データ、インタラクティブアプリケーションの仮想時系列内の時刻を定義する時間データ(又はタイムスタンプ)、テキスト、グラフィックデータ、オブジェクト又はアイテムのデータ、キャラクタデータ、及びインタラクティブアプリケーション10内のイベント又はオブジェクトを定義又は影響することが可能な他のタイプのデータを含んでもよい。
タグリポジトリ52は、複数のユーザからタグデータを受信し、同一のインタラクティブアプリケーションと相互作用する複数のユーザからのタグを統合するように構成されてもよい。ユーザは、インタラクティブアプリケーション10の同一のセッション又は同一のインスタンスと相互作用してもよいし、同一のインタラクティブアプリケーション10の異なるセッション又は異なるインスタンスと相互作用してもよい。一つの実施の形態において、インタラクティブアプリケーション10のタグモジュール60は、タグリポジトリ52からタグデータを取得する。これは、インタラクティブアプリケーションの状態の現在位置58に基づいて実行されてもよい。いくつかの実施の形態において、現在位置58は、インタラクティブアプリケーションの仮想空間内の地理的な位置であってもよいし、インタラクティブアプリケーションの仮想時系列内の時間的位置であってもよい。インタラクティブアプリケーションの状態の変化に基づいて(例えばインタラクティブアプリケーション10に対する入力に基づいて)現在位置58は変化するので、タグモジュール60は、タグリポジトリ52から現在位置58に関連するタグデータを取得し続ける。このように、インタラクティブアプリケーション10のユーザは、他の複数のユーザから生成されたタグデータにより影響されたインタラクティブアプリケーション10とのインタラクティブな体験を楽しむことができる。
別の実施の形態において、タグデータ42は、携帯型装置28からタグリポジトリ52に直接送信される。これは、インタラクティブアプリケーション10へのタグデータの送信に加えて、又はそれに代えて行われてもよい。
図3を参照して、本発明の実施の形態に係るインタラクティブアプリケーションとの間の相互作用を提供するためのシステムが示される。図示されるように、インタラクティブアプリケーション10は、コンピュータ70上で実行される。コンピュータ70は、サーバ、パーソナルコンピュータ、ゲームコンソールシステム、又は、インタラクティブアプリケーションを実行可能な他のタイプの計算装置など、種々のタイプの計算装置のいずれかであってもよい。コンピュータ70は、相互作用のために、インタラクティブアプリケーション10を視覚的に描画するために、ディスプレー18へのプライマリビデオストリームとしてインタラクティブアプリケーション10の出力を提供する。また、コンピュータ70は、相互作用のための音声を提供するために、スピーカ19へのプライマリオーディオストリームとしてインタラクティブアプリケーション10からの音声出力を提供する。
コンピュータ70は、外部の要素との通信を容易にするために、無線トランシーバ76を更に含む。図示された実施の形態において、無線トランシーバ76は、ユーザ24により操作されるコントローラ20及びユーザ30により操作される携帯型装置28との無線通信を容易にする。ユーザ24及び30は、それぞれ、コントローラ20及び携帯型装置28を操作することにより、インタラクティブアプリケーション10に対する入力を提供する。ユーザ24は、ディスプレー18に表示されるプライマリビデオストリームを視聴し、インタラクティブアプリケーション10の状態に影響を与える直接の入力を提供するために、コントローラ20の入力機構22を操作して、インタラクティブアプリケーションと相互作用する。
同時に、インタラクティブアプリケーション10のデータフィードは、インタラクティブアプリケーション10のゲーム出力モジュール72により生成され、携帯型装置28において実行されるスレーブアプリケーション80へ送信される。より具体的には、データフィードは、コンピュータ70の無線トランシーバ76から携帯型装置の無線トランシーバ78へ送信され、スレーブアプリケーション80のスレーブ入力モジュール82により受信される。このデータフィードは、携帯型装置28のディスプレー36に描画される副ビデオストリームを生成するために、スレーブアプリケーション80により処理される。ユーザ30は、ディスプレー36を視聴し、入力を提供するために携帯型装置28の入力機構38を操作することにより、副ビデオストリームと相互作用する。この入力は、スレーブアプリケーション80のスレーブ出力モジュール84により、インタラクティブアプリケーション10のゲーム入力モジュール74へ(携帯型装置28の無線トランシーバ78及びコンピュータ70の無線トランシーバ76をそれぞれ介して)送信されるデータを生成するために、スレーブアプリケーション80により処理される。
本発明の種々の実施の形態において、スレーブアプリケーション80は、ユーザ30が相互作用するための種々のタイプのインタラクティブなインタフェースを提供するように構成されてもよい。例えば、一つの実施の形態において、携帯型装置28のディスプレー36に表示される副ビデオストリームは、ディスプレー18に表示されるプライマリビデオストリームの画像と同一の画像を提供してもよい。別の実施の形態において、携帯型装置28のディスプレー36に表示される画像は、ディスプレー18に表示された画像の変更されたバージョンであってもよい。更に別の実施の形態において、携帯型装置28において表示される画像は、ディスプレー18に表示された画像とは全く異なってもよい。
図4を参照して、本発明の実施の形態に係るインタラクティブなゲームとの相互作用を提供するためのシステムが示される。ゲームエンジン90は、インタラクティブゲームの現在状態の決定を継続的に実行する。ゲームエンジン90は、ディスプレー18にプライマリビデオストリーム91を描画する映像描画部92にプライマリビデオストリーム91を提供する。プライマリビデオストリーム91は、インタラクティブゲームの現在状態を表現するビデオデータを含み、ディスプレー18に表示されたとき、相互作用のためにインタラクティブゲームの映像表現を提供する。
ゲームエンジン90は、ゲーム出力モジュール72にもデータを提供する。一つの実施の形態において、ゲーム出力モジュール72は、ゲームエンジンから受信されたデータに基づいて携帯型装置28に送信されるAVデータフィード95を生成する音声/映像(AV)フィード生成部94を含む。AVデータフィード95は、ディスプレー18に表示された画像と同一又は実質的に類似する画像を生成するために携帯型装置28により使用されることが可能なデータを含んでもよい。例えば、一つの実施の形態において、AVデータフィード95は、ディスプレー18に描画されるプライマリビデオストリームの、圧縮された、より低解像度の、より低いフレームレートの、又はより低い帯域幅のバージョンを含む。より低い帯域幅を使用することにより、AVデータフィード95は、とくに、有線送信技術よりも一般に帯域幅の容量が低い無線通信技術を介する場合に、より容易に送信されることができる。さらに、携帯型装置のディスプレー36は一般にディスプレー18よりも小さくて解像度が低く、プライマリビデオストリーム91において提供されるデータの全量を必要としないので、AVデータフィード95は、より低い帯域幅を使用するように構成されてもよい。
ゲーム出力モジュール72は、ゲームエンジンから受信されたデータに基づいて携帯型装置28に送信されるゲームデータフィード97を生成するゲームデータ生成部96を更に含んでもよい。ゲームデータフィード97は、インタラクティブゲームの状態に関する種々のタイプのデータを含んでもよい。携帯型装置28において、AVデータフィード95及びゲームデータフィード97は、スレーブ入力ハンドラ82により受信され、スレーブ入力ハンドラ82が最初にデータフィードを処理する。スレーブアプリケーションエンジン98は、ユーザ30にインタラクティブなインタフェースを提供するために携帯型装置28において実行される。スレーブアプリケーションエンジン98は、データフィードに基づいて副ビデオストリーム99を生成する。副ビデオストリーム99は、スレーブ映像描画部100により、携帯型装置28のディスプレー36に描画される。
ユーザ30は、ディスプレー36に描画された副ビデオストリームを視聴し、携帯型装置28の種々の入力機構を介して直接入力102を提供することにより、表示された画像と相互作用する。直接入力102の例は、ボタン入力104、タッチスクリーン入力106、及びジョイスティック入力108を含むが、他のタイプの入力が直接入力102に含まれてもよい。直接入力102は、スレーブアプリケーションエンジン98による使用のために、直接入力プロセッサ110により処理される。コンピュータ70から提供されたデータフィードだけでなく、処理された直接入力に基づいて、スレーブアプリケーションエンジン98は、実行の状態を更新する。更新された状態は、ディスプレー36に描画される副ビデオストリーム99に反映される。スレーブ出力生成部84は、スレーブアプリケーションエンジン98の状態に基づいてスレーブデータ85を生成し、スレーブデータ85をインタラクティブゲームのゲーム入力モジュール74に提供する。スレーブデータ85は、ゲームエンジン90の実行の状態に影響を与えるためにゲームエンジン90により使用可能なデータや、ゲームエンジンの状態が特定の構成になったときにゲームエンジンの状態に影響を与えるタグデータなどの種々のタイプのデータを含んでもよい。
図5を参照して、本発明の実施の形態に係る、携帯型装置28のリソースをインタラクティブアプリケーション90が利用可能とするためのシステムが示される。図示されるように、インタラクティブアプリケーション又はゲームエンジン90は、携帯型装置28のリソースを利用するための要求120を生成する。要求120は、携帯型装置28上で実行されるスレーブアプリケーション80に送信される。スレーブアプリケーション80は、携帯型装置28のどのリソースが使用されるのかを決定するために要求120を処理する。携帯型装置のリソースは、携帯型装置28に含まれる任意の装置又は機能であってもよい。例えば、携帯型装置28のリソースは、携帯型装置のプロセッサ及びメモリを含む処理能力を含んでもよい。携帯型装置28のリソースは、カメラ、モーションセンサ、マイクロフォン、生体信号センサ、タッチスクリーン、又は携帯型装置に含まれる他のハードウェアなどの、装置、センサ、又はハードウェアを含んでもよい、
要求120に基づいて、スレーブアプリケーション80は、ハードウェア又はセンサ124の動作又はそれらからの検出を開始する。携帯型装置28を操作するユーザ30は、ハードウェア124の性質に依存して、種々の程度でハードウェアを制御する。例えば、ハードウェア124がカメラである場合、ユーザ30はカメラの方向及び角度を制御してもよい。それに対して、ハードウェアが携帯型装置28のプロセッサ又はメモリである場合は、ユーザ30は、ハードウェアの動作に対してほとんど又は全く直接制御を行わなくてもよい。一つの実施の形態において、ハードウェア124の動作は、スレーブアプリケーション80の生データプロセッサ126により処理される生データを生成する。生データの処理により処理済データ122が生成される。処理済データ122はインタラクティブアプリケーション90に送信される。こうして、インタラクティブアプリケーション90は、最初の要求120に対する応答として、処理済データ122を受信する。
前述したように、インタラクティブアプリケーション90が携帯型装置28のリソースを使用する多数の例が提供されうることは、当業者に理解されるところである。一つの実施の形態において、インタラクティブアプリケーション90は、インタラクティブアプリケーション90の1以上のタスクの処理を移管するために、プロセッサ及びメモリなどの携帯型装置の処理リソースを使用する。別の実施の形態において、インタラクティブアプリケーション90は、動画又は静止画を撮像するために、携帯型装置28のカメラを使用する。一つの実施の形態において、インタラクティブアプリケーション90は、インタラクティブな環境から音声を取得するために、携帯型装置28のマイクロフォンを使用する。別の実施の形態において、インタラクティブアプリケーション90は、ユーザからの動きに基づいた入力を受け付けるために、携帯が耐装置28のモーションセンサを使用する。別の実施の形態において、インタラクティブアプリケーション90は、携帯型装置28に含まれる他の任意のリソースを使用してもよい。
図6を参照して、本発明の実施の形態に係る、インタラクティブプログラムとのインタフェースのためのコントローラが示される。コントローラ20は、コンピュータ、ゲームコンソール、又はインタラクティブアプリケーションを実行、描画、又は表示する他のタイプの計算装置などの、コンピュータ又はプライマリ処理インタフェースとのインタフェースのために用いられるタイプのものである。コントローラ20は、無線又は有線接続を介してコンピュータと通信する。別の実施の形態において、インタラクティブアプリケーションは、LAN、WAN、インターネット、及び他の形式のネットワークなどを介してアクセス可能な計算装置により実行されてもよい。このような実施の形態において、コントローラにより検知された入力は、ネットワークを介してインタラクティブアプリケーションに送信される。コントローラからの入力は、まず、入力を処理可能なローカル装置により受信されてもよく、インタラクティブアプリケーションを実行するネットワーク接続された装置に、入力又は入力に基づいたデータを含むデータが送信されてもよい。ユーザは、コントローラ20のハードウェア、例えば、方向パッド130、ジョイスティック132、ボタン134、及びトリガ136などを使用して、コントローラ20を介してインタラクティブアプリケーションに対する入力を提供する。コントローラ20は、ユーザからの生体電気的信号を検知するための電極138a及び138bを更に含む。生体電気的信号は、インタラクティブプログラムの入力として使用される生体測定データを決定するための処理されてもよい。
図7を参照して、本発明の実施の形態に係る、携帯型装置28の例の前面図が示される。携帯型装置28は、グラフィックを表示するためのディスプレー140を含む。本発明の実施の形態において、ディスプレー140は、インタラクティブなコンテンツをリアルタイムに表示するために使用される。本発明の種々の実施の形態において、ディスプレー140は、タッチ検知などの種々の表示技術のいずれかを組み込んでもよい。携帯型装置28は、音声出力を容易にするためのスピーカ142を含む。スピーカ142からの音声出力は、キャラクタの音、背景音、サウンドトラック音声、リモートユーザからの音声、又は他のタイプの音声などの、インタラクティブなコンテンツに関連した任意の音声を含んでもよい。
携帯型装置28は、携帯型装置のユーザからの入力を受け付けるための入力機構として機能するボタン144及び方向パッド146を含む。本発明の実施の形態において、他のタイプの種々の入力機構のいずれかが携帯型装置28に含まれてもよい。入力機構の他の例は、スタイラス、タッチスクリーン、キーボード、キーパッド、タッチパッド、トラックボール、ジョイスティック、トリガ、又はユーザの入力を受け付けるために有用でありうる他の任意のタイプの入力機構を含んでもよい。
前面カメラ148は、携帯型装置28のユーザ、又は携帯型装置28の前面のオブジェクト又は風景の画像及び映像を撮像するために設けられる。図示されないが、携帯型装置28の背後のシーンの画像又は映像を撮像するために、背面カメラが更に含まれてもよい。さらに、携帯型装置28のユーザにより発せられる音声又は会話、又は携帯型装置28が使用されているインタラクティブな環境における他の音声などの、周囲の領域からの音声を取得するために、マイクロフォン150が含まれる。
左電極152a及び右電極152bは、携帯型装置を把持するユーザの左手及び右手から生体電気的信号を検知するために設けられる。左電極152a及び右電極152bは、ユーザが携帯型装置28を把持するときに、ユーザの左手及び右手にそれぞれ接触する。本発明の他の種々の実施の形態において、ユーザから生体測定データを検知するために携帯型装置に含まれる電極は、他の種々の構成のいずれかを有してもよい。
図8を参照して、本発明の実施の形態に係る、携帯型装置10の構成要素を示す図が示される。携帯型装置10は、プログラム命令を実行するためのプロセッサ160を含む。メモリ162は、記憶装置の目的のために設けられ、揮発性及び不揮発性のメモリの双方を含んでもよい。ユーザが見ることが可能な映像インタフェースを提供するディスプレー164が含まれる。バッテリー166は、携帯型装置10の電力源として設けられる。動き検出モジュール168は、磁力計170、加速度計172、及びジャイロスコープ174などの種々の種類の動きを検出可能なハードウェアのいずれかを含んでもよい。
加速度計は、加速度及び重力により誘起される反力を測定するための装置である。単一及び複数の軸のモデルが、異なる方向における加速度の大きさ及び方向を検出するために利用可能である。加速度計は、傾き、振動、及び衝撃を検知するために用いられる。一つの実施の形態において、3つの加速度計172が、2つの角度(ワールド空間のピッチ及びワールド空間のロール)のための絶対的な参照を与える重力の方向を提供するために用いられる。
磁力計は、コントローラの周辺の磁場の強さ及び方向を測定する。一つの実施の形態において、3つの磁力計が、ワールド空間のヨー角のための絶対的な参照を確保するために、コントローラの内部で用いられる。一つの実施の形態において、磁力計は、±80マイクロテスラである地磁場を測定するように設計される。磁力計は金属により影響され、現実のヨーに対して単調であるヨー測定を提供する。磁場は、環境内の金属により曲げられ、ヨー測定の歪みをもたらす可能性がある。必要であれば、この歪みは、ジャイロスコープ又はカメラなどの他のセンサからの情報を用いて較正することができる。一つの実施の形態において、携帯型装置28の傾き及び方位を得るために、加速度計172が磁力計170とともに用いられる。
ジャイロスコープは、角運動量の法則に基づいて方向を測定又は維持するための装置である。一つの実施の形態において、3つのジャイロスコープ174が、慣性の検知に基づいて、それぞれの軸(x、y及びz)に関する動きについての情報を提供する。ジャイロスコープは、高速な回転を検知するのに有用である。しかし、ジャイロスコープは、絶対的な参照の存在がないと、時間の経過によりドリフトする。したがって、ジャイロスコープは定期的に再設定する必要がある。これは、オブジェクトの映像追跡、加速度計、磁力計などに基づいた位置/方向の決定など、利用可能な他の情報を用いてなされうる。
カメラ176は、現実の環境の画像及び画像ストリームを撮像するために設けられる。携帯型装置28には、後方(ユーザが携帯型装置のディスプレーを見るときにユーザから離れる方向)に面したカメラ、及び前方(ユーザが携帯型装置のディスプレーを見るときにユーザに向かう方向)に面したカメラを含む、1以上のカメラが含まれてもよい。さらに、現実の環境におけるオブジェクトの深さ情報を検知するために、携帯型装置に深さカメラ178が含まれてもよい。
携帯型装置10は、音声出力を提供するためのスピーカ180を含む。また、現実の環境から、周囲環境からの音声やユーザにより発せられた会話などの音声を取得するために、マイクロフォン182が含まれてもよい。携帯型装置28は、ユーザに触覚のフィードバックを提供するための触覚フィードバックモジュール185を含む。一つの実施の形態において、触覚フィードバックモジュール184は、ユーザに触覚のフィードバックを提供するために、携帯型装置28の動き及び/又は振動を発生させることができる。
LED186は、携帯型装置28の状態の視覚的なインジケータとして設けられる。例えば、LEDは、バッテリーレベル、電源オンなどを示してもよい。カードリーダ188は、携帯型装置28がメモリカードから情報を読み出したりメモリカードに情報を書き込んだりすることを可能とするために設けられる。USBインタフェース190は、周辺装置の接続や、他の携帯型装置やコンピュータなどの他の装置への接続を可能とするためのインタフェースの一例として含まれる。携帯型装置28の種々の実施の形態において、携帯型装置28のより多くの接続を可能とするために、種々の種類のインタフェースのいずれかが含まれてもよい。
WiFiモジュール192は、無線ネットワーク技術を介したインターネットへの接続を可能とするために含まれる。また、携帯型装置28は、他の装置との無線接続を可能とするために、ブルートゥースモジュール194を含む。通信リンク196も、他の装置との接続のために含まれてもよい。一つの実施の形態において、通信リンク196は、無線通信のために赤外線送信を用いる。他の実施の形態において、通信リンク196は、他の装置と通信するために、無線又は有線の種々の送信プロトコルのいずれかを用いてもよい。
入力ボタン/センサ198は、ユーザに入力インタフェースを提供するために含まれる。ボタン、タッチパッド、ジョイスティック、トラックボールなどの種々の種類の入力インタフェースのいずれかが含まれてもよい。超音波通信モジュール200は、超音波技術を介した他の装置との通信を容易にするために携帯型装置28に含まれてもよい。
生体センサ202は、ユーザから生理的データの検出を可能とするために含まれる。一つの実施の形態において、生体センサ202は、ユーザの肌からユーザの生理電気的信号を検出するための1以上の乾式電極を含む。
上記の携帯型装置28の構成要素は、携帯型装置28に含まれうる構成要素の単なる例として説明された。本発明の種々の実施の形態において、携帯型装置28は、上述の種々の構成要素のいくつかを含んでもよいし含まなくてもよい。携帯型装置28の実施の形態は、ここで説明されなかったが技術分野において既知である他の構成要素を、本明細書で説明される本発明の態様を容易にする目的で更に含んでもよい。
本発明の種々の実施の形態において、上述した携帯型装置は、種々のインタラクティブな機能を提供するために、ディスプレーに表示されたインタラクティブアプリケーションに関連して使用されてもよいことは、当業者に理解されるところである。以下の実施の形態は例示の目的のみで提供され、限定の目的はない。
図9を参照して、本発明の実施の形態に係る、インタラクティブな環境が示される。コンソール又はコンピュータ70は、ディスプレー18上に描画されるプライマリビデオストリームを生成するインタラクティブアプリケーションを実行する。図示されるように、描画されたプライマリビデオストリームは、シーン210を表現する。シーン210は、キャラクタ212、オブジェクト214、又はインタラクティブアプリケーションにより描画される他の任意のアイテムを含んでもよい。ユーザ24は、ディスプレー18上のシーン210を見て、コントローラ20を操作することによりインタラクティブアプリケーションとの間で相互作用する。コントローラ20は、ユーザがインタラクティブアプリケーションの状態に直接影響を与えることを可能とする。インタラクティブアプリケーションの状態は、ディスプレー18に描画されるプライマリビデオストリームにおいて更新され、反映される。
同時に、もう一人のユーザ30は、インタラクティブな環境において、携帯型装置28を視聴し、操作する。携帯型装置28は、副ビデオストリームをコンピュータ70から受信し、携帯型装置28のディスプレー36上に描画する。いま説明している実施の形態において、携帯型装置28の拡大されたビュー216により図示されるように、描画された副ビデオストリームは、プライマリビデオストリームによりディスプレー18上に描画されたシーンと実質的に類似又は同一のシーン218を表現する。ユーザ30は、このシーン218を見て、タッチスクリーンを介して入力を提供したり、ボタン、ジョイスティック、又はモーションセンサなどの他の入力機構をアクティブ化したりするなど、携帯型装置の種々の入力機構によりシーン218と相互作用することができる。
本発明の種々の実施の形態において、携帯型装置28において可能とされる特定のインタラクティブ機能は異なってもよい。例えば、ユーザは、携帯型装置28において副ビデオストリームを録画してもよい。録画された副ビデオストリームは、他のユーザと共有するためにウェブサイトにアップロードされてもよい。または、一つの実施の形態において、ユーザは、ディスプレー36にオブジェクト、例えばオブジェクト214が表示されているときに、オブジェクト214をタップすることによりオブジェクトを選択することができる。オブジェクト214の選択は、ユーザ30が、オブジェクトの変形、移動、説明又は他の種類の情報を含むタグの追加など、オブジェクト214に関連したいくつかの機能を実行することを可能とする。
一つの実施の形態において、携帯型装置28のディスプレー36に表示されるシーン218は、ユーザ30が、タッチスクリーンをタッチしたり、携帯型装置28のボタンを押したりすることにより発生する、あるタイプの入力を提供するまでは、ディスプレー18に表示されるシーン210と同一である。この時点において、ユーザ30が、ユーザ24とシーン210との間で発生する相互作用とは無関係にインタラクティブな入力を提供したので、携帯型装置28に描画される副ビデオストリームは、もはやディスプレー18に描画されるプライマリビデオストリームと同一のシーンを表現せず、その代わりに、プライマリビデオストリームにより表現されるものから分岐する。
例えば、一つの実施の形態において、携帯型装置のディスプレー36をタッチ又はタップすると、シーン218がフリーズ又はポーズされ、ユーザ30がシーン218にインタラクティブな操作を実行することが可能となる。この間、ディスプレー18に表示されたシーン210は、ユーザ24がコントローラ20を操作し、又は、シーン210と相互作用するときに、進行し続ける。別の実施の形態において、シーン218はフリーズせず、シーン218により表現されたビューの眺望又は視点が、ユーザ30により提供される入力に基づいて変更されてもよい。一つの実施の形態において、ユーザ30により提供される入力は、ユーザ30がディスプレー28において指を移動させたときに検知されるジェスチャー入力を含む。更に別の実施の形態において、ディスプレー18に表示されたシーン210から携帯型装置28のディスプレー36に表示されたシーン218の変更は、他の種々のタイプの変更のいずれかを含んでもよい。例えば、シーン218は、外観、色、照明、又は他の表示態様がシーン210から変更されてもよい。一つの実施の形態において、シーン218の外観は、シーン内の特定の特徴が強調表示されるように、シーン210から変更されてもよい。例えば、一人称視点シューティングゲームなどのインタラクティブゲームのコンテキストにおいて、シーン218は、赤外光、紫外光、ナイトビジョン、又は他のいくつかのタイプの変更された映像モードに基づいてビューを描写してもよい。他の実施の形態において、シーン218は、シーン210に比べて遅く又は速くされてもよい。更に別の実施の形態において、シーン210においては視認可能でない情報がシーン218において視認可能であってもよい。このような情報は、テキスト情報、マーカ又はインジケータ、カラースキーム、ハイライト、又はシーン218を見るユーザ30に情報を提供する他の表現を含んでもよい。
図10を参照して、本発明の実施の形態に係る、インタラクティブな環境が示される。図示されるように、コンピュータ70は、インタラクティブアプリケーションのプライマリビデオストリームをディスプレー18に描画するように構成される。プライマリビデオストリームの描画の結果、ディスプレー18にシーン220が表現される。ユーザ24は、シーン220を視聴し、インタラクティブアプリケーションに対する入力を提供するためにコントローラ20を操作する。一つの実施の形態において、コントローラは、コンピュータ70と無線通信する。同時に、第2のユーザ30は、携帯型装置28のディスプレー36上の関連するシーン222を視聴する。図示された実施の形態に示されるように、シーン222は、選択可能なアイコン224を含むメニューを備える。本発明の種々の実施の形態において、シーン222に含まれるメニューは、インタラクティブアプリケーションに関連する種々の機能を可能としてもよい。このように、ユーザ30は、ユーザ24とシーン220との間の相互作用とは独立に、メニューインタフェースを介してインタラクティブアプリケーションに影響を与えることができる。
図11を参照して、本発明の実施の形態に係る、インタラクティブな環境が示される。コンピュータ70は、シーン230を表現するために、インタラクティブアプリケーションのプライマリビデオストリームをディスプレー18に描画する。同時に、ディスプレー18に表示されたシーン230と実質的に類似する又は同一のシーン232を表現する副ビデオストリームが、携帯型装置28のディスプレー36に描画される。携帯型装置28を操作するユーザは、シーン232の領域234を選択し、更新されたシーン236により示されるように、領域234をズームインすることができる。
領域234の選択は、タッチスクリーン技術によってディスプレー36において検知されるタッチ又はジェスチャー入力によるなど、種々の機構により発生してもよい。一つの実施の形態において、ユーザは、拡大されるべき領域234を決定するために、矩形を描く又は指定することができる。このように、ユーザは、別のディスプレー18に表示されたシーン230内の興味のある領域をズームインすることができる。いくつかの実施の形態において、このような選択の操作により、携帯型装置28に表示されたシーン232をフリーズ又はポーズさせるが、他の実施の形態においては、シーン232はフリーズしない。いくつかの実施の形態において、このような選択の操作により、ディスプレー18に表示されたシーン230と携帯型装置28に表示されたシーン232の双方がポーズされるが、他の実施の形態においては、携帯型装置に表示されたシーン232のみがフリーズする。一つの実施の形態において、携帯型装置28に表示されたシーン232内の領域をユーザが選択又はズームインしたときに、ディスプレー18に表示されたシーン230において実質的に類似する又は同一の効果が生じるように、プライマリ及び副ビデオストリームが同期される。
図示された実施の形態は、ズーム又は拡大機能に関連して説明されたが、本発明の他の実施の形態においては、ここで説明された選択の特徴は、他のタイプの機能を可能としてもよいことが理解されよう。例えば、シーンの範囲又は領域の選択の後、映像のプロパティを調整したり、仮想タグを設定したり、アイテムを追加したり、選択された領域を編集したりするなど、選択された領域において種々の機能を実行可能であってもよい。本発明の他の実施の形態において、シーンの領域の選択後、他の種々のタイプの機能のいずれかが実行されてもよい。
図12を参照して、本発明の実施の形態に係る、インタラクティブゲーム内のシーンを示す概念図が示される。図示されるように、インタラクティブゲームは、一連のシーン240、242、及び244、シーン246までを含む。プレーヤーがインタラクティブゲームを進行させるとき、プレーヤーは、シーン240、242、及び244からシーン246までと連続して相互作用する。図示されるように、プレーヤーは、まずシーン240と相互作用し、シーン242、244が続き、最後にシーン246と相互作用する。プレーヤーは、ディスプレーにシーンを描画するように構成されたコンピュータ又はコンソールシステムに接続されたディスプレー上のシーンを見ることによりシーンと相互作用する。図示された実施の形態において、シーン240は、プレーヤーが現在プレー中の現在アクティブなシーンである。
同時に、第2のプレーヤーは、携帯型装置に表示するための一つのシーンを選択することができる。第2のプレーヤーにより選択されたシーンは、第1のプレーヤーが現在プレー中のアクティブなシーン240とは異なるシーンであってもよい。例示のために示されるように、第2のプレーヤーは、携帯型装置における表示及び相互作用のために、シーン242を選択している。携帯型装置に表示されたシーン248は、シーン242に対応する。第2のプレーヤーは、シーン内を時間的又は空間的に進んだり、シーンの変更を実行したりするなど、種々の方法でシーン248と相互作用することができる。例として、一つの実施の形態において、携帯型装置を使用する第2のプレーヤーは、シーン250において示されるように、メニュー252に表示されたオプションから選択することができる。オプションは、オブジェクトの追加、オブジェクトの移動、仮想タグの追加など、シーンを改変又は修正するための種々の選択肢を含んでもよい。シーン254において示されるように、第2のプレーヤーは、オブジェクト256を追加することによりシーンを改変した。
第1のプレーヤーが、第2のプレーヤーにより変更がなされたシーンにおいて同一の空間的又は時間的位置に到達するときに、ディスプレーに描画されるシーンにおいてこれらの変更が表示されるので、第1のプレーヤーは第2のプレーヤーによりシーンになされた変更を見ることができる。図示された実施の形態において、第1のプレーヤーがシーン242に到達すると、第1のプレーヤーは第2のプレーヤーにより配置されたオブジェクト256を見ることになる。ここで説明される実施の形態によれば、第2のプレーヤーは、第1のプレーヤーが同じ空間的又は時間的位置に到達するときに第1のプレーヤーが遭遇するシーンを変更するために、インタラクティブゲームのゲームプレーシーケンス内で先を見ることができる。種々の実施の形態において、インタラクティブゲームは、第2のプレーヤーが、ゲームプレーのシーケンス内で先を見ることにより、第1のプレーヤーのゲームのプレーを助けるような、協力的なゲームプレーを確立するように設計されてもよい。例えば、第2のプレーヤーは、特定のアイテム又は位置に、第1のプレーヤにとって有用な説明的情報又はヒントのタグを付けてもよい。または、第2のプレーヤーは、オブジェクトを追加したり、第1のプレーヤーがシーン内の同一の位置に到達するときに、第1のプレーヤーの助けとなるような、シーンに対する他の修正を実行したりすることにより、シーンを変更してもよい。本発明の他の実施の形態において、インタラクティブなゲームは、第1及び第2のプレーヤーが互いに競争するように設計されてもよい。例えば、第2のプレーヤーは、ゲームプレーのシーケンス内で先を見て、第1のプレーヤーが特定の位置に到達するときに第1のプレーヤーが遭遇する障害物を設定してもよい。
種々の実施の形態において、本発明の原則は、種々のスタイルのゲームプレーに適用されてもよい。例えば、図13A、13B、及び13Cを参照して、種々のスタイルのゲームプレーが示される。図13Aは、本発明の実施の形態に係る、直線型のゲームプレーを示す。図示されるように、ゲームプレーは、複数のシーン又はノード260、262、264、及び266を含む。シーンは、インタラクティブゲームの空間的又は時間的位置であってもよく、ユーザがインタラクティブゲームを進行させるときに、ユーザにより予め決定された順序で遭遇されてもよい。図示されるように、シーン260の完了後、ユーザはシーン262に遭遇し、その後、シーン264及び266の順に続く。本明細書で説明される本発明の原則によれば、携帯型装置を使用する第2のユーザは、第1のユーザがまだ遭遇していないシーンの一つに飛んで、シーンの変更を実行したり、シーンに関連付けられた仮想タグを設定したりしてもよい。例として、図示された実施の形態では、仮想タグ270がシーン262に関連付けられる。
図13Bは、本発明の実施の形態に係る、非直線型のゲームプレーを示す。非直線型のゲームプレーは、いくつかのバリエーションを含んでもよい。例えば、ユーザのアクションに基づいて分岐するストーリーラインがあってもよく、ユーザは特定のシーンに遭遇する。例として示されるように、シーン272の後には、二者択一のシーン274が続く。分岐するストーリーラインは、同じシーンに収束してもよい。例えば、択一的なシーン274は、結局、シーン276に収束する。他の実施の形態において、分岐するストーリーラインは収束しなくてもよい。例えば、シーン282及び284は、シーン280から分岐し、収束しない。他の実施の形態において、ゲームプレーは、ユーザのアクションに依存して異なるエンディングを有してもよい。例えば、ゲームプレーは、ユーザのアクションに基づいてシーン278で終了してもよいが、ユーザがもし別のアクションのセットをとっていたら、ゲームプレーは、シーン280から先に続いていた。本明細書で説明される本発明の原則によれば、携帯型装置を使用する第2のユーザは、第1のユーザがまだ遭遇していないシーンの一つに飛んで、シーンの変更を実行したり、シーンに関連付けられた仮想タグを設定したりしてもよい。例として、図示された実施の形態では、仮想タグ286がシーン278に関連付けられる。
図13Cは、本発明の実施の形態に係る、オープンワールド型のゲームプレーを示す。図示されるように、複数のシーン288がユーザによりアクセス可能であり、それぞれがユーザの選択する順序で訪問可能である。図示された実施の形態において、シーンは、全てのシーンが他の全てのシーンからアクセス可能ではないように互いに接続されている。しかし、別の実施の形態において、全てのシーンが他の全てのシーンからアクセス可能であってもよい。本明細書で説明される本発明の原則によれば、携帯型装置を使用する第2のユーザは、シーンのうちの任意の一つに飛んで、シーンの変更を実行したり、シーンに関連付けられた仮想タグを設定したりしてもよい。例として、図示された実施の形態では、仮想タグ286がシーン278に関連付けられる。
上述した種々のスタイルのゲームプレーの例は、例示のみを目的として説明され、他の実施の形態において、他のスタイルのゲームプレーがありうる。本発明の原理は、ユーザがインタラクティブゲームのシーンに関連付けられた仮想タグの変更又は設定を実行可能とするために、これらの他のタイプのゲームプレーに適用されてもよい。
図14を参照して、本発明の実施の形態に係る、インタラクティブな環境が示される。図示されるように、コンピュータ70は、インタラクティブアプリケーションのプライマリビデオストリームをディスプレー18に描画する。描画されたプライマリビデオストリームはシーン300を表現する。同時に、携帯型装置28を把持するユーザは、携帯型装置28をディスプレー18に向ける。一つの実施の形態において、ディスプレーの方に携帯型装置28を向けることは、ディスプレー18の一部分に携帯型装置28の背面を向けることを含んでもよい。ディスプレー18に対する携帯型装置28の方向は、種々の技術によって検知されてもよい。例えば、一つの実施の形態において、携帯型装置の後方に面するカメラ(図示せず)がディスプレーの画像を撮像し、ディスプレー18に対する携帯型装置の方向を判定するために画像が処理される。他の実施の形態において、携帯型装置28の方向は、携帯型装置において取得されたモーションセンサのデータに基づいて検知されてもよい。更に別の実施の形態において、ディスプレー18に対する携帯型装置28の方向を判定するために、他の種々の技術のいずれかが利用されてもよい。
図示された実施の形態において、携帯型装置28は、携帯型装置が向けられた方向のシーン300の領域302の拡大されたビューをユーザに提供する拡大レンズとしての機能を果たす。このように、ユーザは、携帯型装置28上のシーン304として、拡大された領域302を見ることができる。これは、ディスプレー18において描画されるプライマリビデオストリームと同期させるために、コンピュータ70から携帯型装置28に送信され、携帯型装置28においてリアルタイムに描画される補助的なビデオフィードの生成を介して達成されてもよい。インタラクティブアプリケーションが一人称視点シューティングゲームである類似する実施の形態において、携帯型装置28は、ユーザがスナイパーライフル又は長距離砲の武器を使用しているときに発生する、照準合わせのための照準スコープとして機能してもよい。このような実施の形態において、ユーザは、ディスプレー18上のゲームを見ることができるが、携帯型装置28を持ち上げて、ディスプレー18の特定の領域を狙うことにより、照準を合わせるために、その領域の拡大された表示を見ることができる。
図15を参照して、本発明の実施の形態に係る、インタラクティブな環境が示される。図示されるように、コンピュータ70は、インタラクティブアプリケーションのプライマリビデオストリームをディスプレー18に描画する。描画されたプライマリビデオストリームは、ディスプレー18にシーン310を表示する。ユーザ24は、シーン310を視聴し、インタラクティブアプリケーションに対する入力を提供するためにコントローラ20を操作する。図示された実施の形態において、ユーザ24は、シーン310の左側に示されるように、乗物を操縦するために入力を提供する。しかし、他の実施の形態において、ユーザ24は、インタラクティブアプリケーションに関連する任意のタイプのアクションのために入力を提供してもよい。同時に、ユーザ30は、シーン310を見ながら、携帯型装置28を操作する。図示された実施の形態において、ユーザ30は、シーン310の右側に示されるように、武器の照準合わせ及び発射を制御するために入力を提供する。しかし、他の実施の形態において、ユーザ30は、インタラクティブアプリケーションに関連する任意のタイプのアクションのために入力を提供してもよい。
一つの実施の形態において、ユーザ30は、携帯型装置の背面がディスプレー18から離れた方向を向くように、位置312においてディスプレー18から離れるように携帯型装置28を回転させる。これにより、シーン310が起こっている仮想的な環境のビューワとして機能する携帯型装置の表示モードがアクティブ化される。ビュー316に示されるように、携帯型装置28をディスプレー18から離れるように回転させることにより、携帯型装置28は、ユーザ30により制御される武器が携帯型装置28の回転と同様に回転されるときに見られるような仮想的な環境のビューを表現するシーン314を表示する。本発明の他の実施の形態において、携帯型装置28の表示モードのアクティブ化は、ユーザ30により選択可能であってもよいし、携帯型装置28の位置及び方向に基づいて自動的に生じるように構成されてもよい。
図16を参照して、本発明の実施の形態に係る、インタラクティブな環境が示される。図示されるように、コンピュータ70は、インタラクティブアプリケーションのプライマリビデオストリームをディスプレー18に描画する。描画されたプライマリビデオストリームは、ディスプレー18にシーン320を表示する。ユーザ24は、シーン320を視聴し、モーションコントローラ322を操作することによりインタラクティブな入力を提供する。一つの実施の形態において、モーションコントローラの位置は、カメラ324により撮像されたモーションコントローラ322の撮像画像に基づいて決定される。一つの実施の形態において、カメラ324は、深さ情報を取得することが可能な深さカメラを含む。図示されるように、第2のユーザ30は、第1のユーザ24に向けられた携帯型装置28を把持する。一つの実施の形態において、携帯型装置28は背面カメラを含み、ユーザ30は、携帯型装置28のカメラにより第1のユーザ24の画像を撮像することを可能とするために、背面カメラを向ける。一つの実施の形態において、携帯型装置28のカメラは、深さ情報を取得可能であってもよい。カメラ324の位置及び携帯型装置28の位置に基づいた2つの異なる視点からユーザ24及びモーションコントローラ322の画像を撮像することにより、モーションコントローラ322の位置及び方向だけでなく、第1のユーザ24のより精確な三次元的表現を決定することができる。
別の実施の形態において、ユーザ24は、モーションコントローラを必要とせず、カメラ324により検出される動きを介して、インタラクティブアプリケーションにインタラクティブな入力を提供することができる。例えば、カメラ324は、ユーザ24の画像及び深さ情報を取得してもよく、それらはユーザ24の位置、方向、及び動きを決定するために処理される。これらは、インタラクティブアプリケーションのための入力として利用される。さらに、第1のユーザ24の検出を向上させるために、上述したように、携帯型装置28が第2のユーザ30により操作されてもよい。
図17を参照して、本発明の実施の形態に係る、仮想空間の座標系が示される。図示されるように、仮想空間は、オブジェクト330及び332を含む。前述したように、携帯型装置を使用するユーザは、仮想空間内に仮想タグを設定することができる。図示された実施の形態において、仮想タグ334が座標(4,2,0)に設定されている。他方、仮想タグ336が座標(6,6,3)のオブジェクト330に設定されている。さらに、仮想タグ338が座標(10,7,1)のオブジェクト332に設定されている。仮想タグは、別のユーザが仮想タグの近傍の位置に進んだときに、そのユーザにより視認されてもよい。前述したように、仮想タグは、位置又はオブジェクトを他のユーザに強調表示してもよいし、ヒント又はメッセージなど、ユーザにより決定された仮想空間に関連する情報を含んでもよいし、他のユーザがそれらに遭遇したときに、描画される変更又は実行されるアクションを定義してもよい。
図18を参照して、本発明の実施の形態に係る、仮想タグを設定するためのユーザインタフェースを示す一連のアクションが示される。図示されるように、携帯型装置28のユーザは、種々のオプションを含むメニュー342を提示するために、例えばオブジェクトをタップすることにより、オブジェクト340を選択することができる。タグを設定するためのオプションをメニュー342から選択することができ、これによりテキスト情報を入力可能なキーボードインタフェース344が提示される。入力されたテキスト情報は、仮想タグ346に示される。仮想タグ346は、他のユーザが仮想タグ346の位置の近傍の位置に進んだときに、他のユーザに描画されてもよい。
図19を参照して、本発明の実施の形態に係る、インタラクティブな環境が示される。図示されるように、コンピュータ70は、インタラクティブアプリケーションのプライマリビデオストリームをディスプレー18に描画する。描画されたプライマリビデオストリームは、ディスプレー18にシーン350を表示する。ユーザ24は、シーン350を視聴し、インタラクティブアプリケーションに対する入力を提供するためにコントローラ20を操作する。図示された実施の形態において、ユーザ24は、一人称視点シューティングゲームにおいてキャラクタを制御する。同時に、第2のユーザは、第1のユーザのキャラクタが配置された仮想的な環境のマップ352を表示する携帯型装置28を操作する。第1のユーザのキャラクタの位置は、マーカ354により示される。一つの実施の形態において、第2のユーザは、ユーザ24がシーン350においてキャラクタを制御するのに忙しくて見ることができない領域を見るために、マップ352を進むことができる。このように、一つの実施の形態において、第2のユーザは、マップ352を見て、興味のある位置、オブジェクト、敵、又はマップ352に表示される他の任意の情報などの情報をユーザ24に提供することにより、ユーザ24を協力的に援助することができる。
図20を参照して、本発明の実施の形態に係る、インタラクティブな環境が示される。図示された実施の形態において、コントローラ20を操作するユーザ24と、携帯型装置28を操作する第2のユーザ(第2のユーザの手以外は図示せず)は、フットボールのビデオゲームをプレーしている。第2のユーザは、シーン360を視聴する。シーン360において、第2のユーザは、例えば、携帯型装置28のタッチスクリーンにおいてプレーを描くことにより、プレーを図解することができる。図示されるように、第2のユーザは、マーカ362により示されたプレーヤーのために指定された経路を描く。ユーザ24は、ディスプレー18に表示されたシーン364において示されるように、マーカ362に対応するプレーヤー366を制御する。ユーザ24は、第2のユーザが図解した経路を見て、その経路を走るように、コントローラ20を操作して、プレーヤー366の動きを制御することができる。
図21に示される関連する実施の形態において、第2のユーザは、例えば携帯型装置28のタッチスクリーンにおいてプレーを描くことによりプレーを図解するために、携帯型装置28を操作する。ディスプレー18には、プレーの間にチームがハドルする様子が示される。図解されたプレーは、ゲームにおいて一方のチームのプレーヤーの動きを決定するために用いられる。このように、第2のユーザは、直感的な方法で、プレーヤーの動きを直接制御することができる。
上述した、キャラクタの動きを図解するために携帯型装置を用いる概念は、他のシナリオに拡張可能である。例えば、戦場のシナリオにおいて、例えば、敵に向かって移動する、敵を攻撃するなど、特定のキャラクタがどこに移動するか、及びキャラクタがどんなアクションを起こすかを図解するために、携帯型装置を用いることができる。他の実施の形態において、携帯型装置は、仮想的な環境におけるキャラクタ又はオブジェクトの動き又は行動を図解するために用いられてもよい。
本発明の更に別の実施の形態において、メインのディスプレーに表示されたアプリケーションに対するインタフェースのための携帯型装置の使用は、他のタイプのプログラム及びアプリケーションだけでなく、他の種々のインタフェース概念に拡張可能である。例えば、いくつかの実施の形態において、携帯型装置のタッチスクリーンは、アプリケーションに対する入力を提供するための制御又は入力の面として用いられてもよい。一つの実施の形態において、ユーザは、携帯型装置のタッチスクリーンにおいて描くことにより入力を提供する。一つの実施の形態において、タッチスクリーンの面は、カーソル制御面として機能してもよい。メインディスプレー上のカーソルの移動は、携帯型装置のタッチスクリーンにおけるユーザの指の動きにしたがって制御される。メインディスプレー上のカーソルの動きは、タッチスクリーンにおけるユーザの指の検知された動きを追跡してもよい。別の実施の形態において、仮想キーボードが携帯型装置のタッチスクリーンに表示される。ユーザは、携帯型装置のタッチスクリーンに表示された仮想的なキーボードのキーをタッチすることによりテキスト入力を入力することができる。携帯型装置の機能に影響を与えることにより容易にされたこれらのタイプの入力機構は、例えばウェブブラウザ、ワードプロセッサ、スプレッドシートアプリケーション、プレゼンテーションソフトウェア、ビデオゲームなどの種々の種類のアプリケーションに適用されてもよい。
他の実施の形態において、携帯型装置は、例えば写真又は映像を編集するアプリケーションなど映像編集アプリケーションのための入力を提供するために用いられてもよい。例えば、ユーザは、携帯型装置のタッチスクリーンにおいて描画することにより写真を編集することができる。このように、写真又は映像を編集するための入力が、直感的な方法で提供されることができる。一つの実施の形態において、編集される写真又は写真の部分は、タッチスクリーンにおいて描画することによる写真の編集のための精確な入力を容易にするために、携帯型装置のタッチスクリーンに表示される。
本発明の他の実施の形態において、携帯型装置の種々のリソースがプログラム及びアプリケーションの機能をサポートするために用いられてもよい。例えば、アプリケーションがビデオゲームである一つの実施の形態において、携帯型装置は、例えば特定のユーザのプロファイル又は進行データなど、ビデオゲームに関連するゲームデータを保存するために用いられてもよい。ゲームデータは、一般に、コンソールゲームシステムに格納されるので、特定のコンソールシステムに拘束される。しかし、携帯型装置にゲームデータを格納することにより、ユーザは、ゲームデータを容易に転送し、セーブされたゲームデータを先行することなく、同じゲームをプレーするために異なるコンソールシステムを用いることができる。
説明を容易にするために、本発明の上述した実施の形態のいくつかは、コントローラを操作する(又はモーション検出システムを介して入力を提供する)一人のプレーヤー及び/又は携帯型装置を操作する一人のユーザを参照して一般的に説明された。本発明の他の実施の形態において、コントローラを操作する(又はモーション検出を介して入力を提供する)複数のユーザ及び/又は携帯型装置を操作する複数のユーザがいてもよいことは、当業者には理解されるところである。
図22を参照して、本発明の実施の形態に係る、インタラクティブアプリケーションとの相互作用を提供するために携帯型装置を使用する方法が示される。方法手順380において、インタラクティブアプリケーションがコンソール装置又はコンピュータにおいて開始される。方法手順390において、補助的なアプリケーションが携帯型装置において開始される。方法手順382において、インタラクティブアプリケーションにより要求が生成され、要求データ388がインタラクティブアプリケーションから携帯型装置で実行されている補助的なアプリケーションに送信される。方法手順392において、要求データ388は携帯型装置の補助的なアプリケーションにより受信され処理される。方法手順384において、コンピュータは要求を送信した後、処理済みのデータを待機する。方法手順394において、携帯型装置のハードウェアコンポーネント又はセンサがアクティブ化される。方法手順396において、アクティブ化されたハードウェアからの生データが取得される。方法手順398において、取得された生データが処理される。方法手順400において、処理された生データは処理済みデータとしてインタラクティブアプリケーションに送信される。方法手順386において、処理済みデータ402はインタラクティブアプリケーションにより受信される。
図23は、本発明の実施の形態に係る、インタラクティブアプリケーションを実行及び描画するために使用可能なハードウェア及びユーザインタフェースを示す。図23は、本発明の実施の形態に係る、基本となる計算装置において実行されるコンピュータプログラムを有する制御装置及び携帯型装置とのインタフェースのために親和性の高いコンソールである、ソニープレイステーション3(登録商標)エンタテインメント装置の全体のシステム構成を概略的に示す。システムユニット700は、システム700に接続可能な様々な周辺装置とともに提供される。システムユニット700は、セルプロセッサ728、ランバス(登録商標)XDRAM(dynamic random access memory)ユニット726、リアリティシンセサイザ(登録商標)(Reality Synthesizer)グラフィックユニット730と専用のVRAM(video random access memory)ユニット732、及び入出力ブリッジ734を備える。システムユニット700は、ディスク740aから読み取るためのブルーレイ(登録商標)ディスクBD−ROM光学ディスクリーダ740、及び入出力ブリッジ734を介してアクセス可能なリムーバブルスロットインハードディスクドライブ(HDD)736を備える。オプションとして、システムユニット700は、コンパクトフラッシュ(登録商標)メモリカード、メモリスティック(登録商標)メモリカードなどを読み込むための、同様に入出力ブリッジ734を介してアクセス可能なメモリカードリーダ738を備える。
入出力ブリッジ734は、6つのUSB(Universal Serial Bus)ポート724、ギガビットイーサネット(登録商標)ポート722、IEEE802.11b/g無線ネットワーク(Wi-Fi)ポート720、及び7つまでのブルートゥース接続をサポート可能なブルートゥース無線リンクポート718と接続する。
動作において、入出力ブリッジ734は、1以上のゲームコントローラ702及び703からのデータを含む全ての無線、USB、及びイーサネット(登録商標)のデータを取り扱う。例えばユーザがゲームをプレーしているとき、入出力ブリッジ734は、ゲームコントローラ702又は703からのデータを、ブルートゥースリンクを介して受信し、セルプロセッサ728に伝える。セルプロセッサは、それに応じてゲームの現在状態をアップデートする。
無線、USB、及びイーサネット(登録商標)ポートは、ゲームコントローラ702及び703に加えて、他の周辺装置、例えば、リモート制御704、キーボード706、マウス708、ソニープレイステーションポータブル娯楽装置などの携帯型娯楽装置710、アイトーイ(登録商標)ビデオカメラ712などのビデオカメラ、マイクロフォンヘッドセット714、及びマイクロフォン715との接続を更に提供する。このような周辺装置は、原則として、システムユニット700と無線で接続してもよい。例えば、携帯型娯楽装置710は、Wi−Fiアドホック接続を介して通信してもよいし、マイクロフォンヘッドセット714は、ブルートゥースリンクを介して通信してもよい。
これらのインタフェースの提供は、プレイステーション3装置が潜在的に他の周辺装置、例えば、DVR(digital video recorder)、セットトップボックス、ディジタルカメラ、携帯型メディアプレイヤー、VoIP(Voice over IP)電話、プリンタ、及びスキャナと互換性を有することを意味する。
さらに、従来のメモリカードリーダ716がUSBポート724を介してシステムユニットに接続され、プレイステーション又はプレイステーション2の装置により使用される種類のメモリカード748の読込を可能としてもよい。
ゲームコントローラ702及び703は、ブルートゥースリンクを介してシステムユニット700と無線通信可能であり、または、USBポートに接続され、ゲームコントローラ702及び703のバッテリをチャージするために電力を供給可能である。ゲームコントローラ702及び703は、メモリ、プロセッサ、メモリカードリーダ、フラッシュメモリなどの永続メモリ、照明付きの球部、LED、又は赤外線などの発光器、超音波通信のためのマイクロフォン及びスピーカ、音響チェンバー、ディジタルカメラ、内部クロック、ゲームコンソールに面した球状部分などの認識可能な形状、及びブルートゥース、Wi−Fi(登録商標)などのプロトコルを用いた無線通信などを更に含んでもよい。
ゲームコントローラ702は、両手で用いられるように設計され、ゲームコントローラ703は、前述したように、アタッチメント付きの片手で操作するコントローラである。1以上のアナログジョイスティック及び従来の制御ボタンに加えて、ゲームコントローラは、3次元位置決定が可能である。ゲームコントローラのユーザによるジェスチャー及び動きの結果は、従来のボタン又はジョイスティックのコマンドに加えて、又はそれに代えて、ゲームに対する入力に翻訳される。オプションとして、プレイステーションポータブル装置などの他の無線通信可能な周辺装置がコントローラとして用いられてもよい。プレイステーションポータブル装置の場合、更なるゲーム又は制御情報(例えば、制御命令又はライフの数)が装置の画面に提供されてもよい。他の代替又は補助の制御装置、例えば、ダンスマット(図示せず)、光線銃(図示せず)、ステアリングホイール及びペダル(図示せず)、又は、迅速な反応を要するクイズゲームのための単一又はいくつかの大きなボタン(図示せず)などの専用のコントローラが用いられてもよい。
リモート制御704も、ブルートゥースリンクを介してシステムユニット700と無線通信可能である。リモート制御704は、ブルーレイ(登録商標)ディスクBD−ROMリーダ540及びディスクコンテンツのナビゲーションのための動作に適した制御を含む。
ブルーレイディスクBD−ROMリーダ740は、従来の記録された及び記録可能なCD、及びいわゆるスーパーオーディオCDに加えて、プレイステーション及びプレイステーション2装置と互換可能なCD−ROMを読込可能である。リーダ740は、従来の記録された及び記録可能なDVDに加えて、プレイステーション2及びプレイステーション3装置と互換可能なDVD−ROMも読込可能である。リーダ740は、更に、従来の記録された及び記録可能なブルーレイディスクだけでなく、プレイステーション3装置と交換可能なBD−ROMも読込可能である。
システムユニット700は、プレイステーション3装置により生成又はデコードされた音声及び映像を、リアリティシンセサイザグラフィックユニット730により、音声及び映像コネクタを介して、ディスプレー及び音声出力装置742、例えばモニタ又はディスプレー744及び1以上のラウドスピーカ746を有するテレビジョンセットに供給可能である。音声コネクタ750は、従来のアナログ及びディジタル出力を含んでもよい。映像コネクタ752は、コンポーネントビデオ、S−ビデオ、コンポジットビデオ、及び1以上のHDMI(High Definition Multimedia Interface)出力を広く含んでもよい。映像出力は、PAL又はNTSC、又は720p、1080i、又は1080pの高解像度のフォーマットであってもよい。
音声処理(生成、デコードなど)は、セルプロセッサ728により実行される。プレイステーション3装置のオペレーティングシステムは、ドルビー(登録商標)5.1サラウンド音声、DTS(Dolby Theatre Surround)、及びブルーレイディスクからの7.1サラウンド音声のデコードをサポートしている。
本実施の形態において、ビデオカメラ712は、単一のCCD(charge coupled device)、LEDインジケータ、及びハードウェアベースのリアルタイムデータ圧縮符号化装置を備え、圧縮されたビデオデータは、適切なフォーマット、例えば画像内ベースのMEG(motion picture expert group)標準規格などで、システムユニット700によりデコードされるために送信されてもよい。カメラのLEDインジケータは、システムユニット700からのデータの適切な制御に応じて、例えば逆光条件を意味するために光るように設計される。ビデオカメラ712の実施例は、システムユニット700に、USB、ブルートゥース、又はWi−Fi通信ポートを介して様々に接続されてもよい。ビデオカメラの実施例は、1以上の関連づけられた、音声データを送信可能なマイクロフォンを含んでもよい。ビデオカメラの実施例において、CCDは高解像度のビデオ撮像のために好適な解像度を有する。使用において、ビデオカメラにより撮像された画像は、例えばゲーム内に組み込まれ、又はゲーム制御入力として解釈される。別の実施例において、カメラは赤外光を検出するのに好適な赤外線カメラである。
一般に、例えばビデオカメラ又はシステムユニット700の通信ポートの1つを介したリモート制御などの周辺装置との間で起こるデータ通信を成功させるために、デバイスドライバなどの適切なソフトウェアが提供されるべきである。デバイスドライバ技術はよく知られており、ここでは詳細について説明しないが、デバイスドライバ又は類似のソフトウェアインタフェースが本発明の実施の形態に必要とされることは当業者に理解されるところである。
本発明の実施の形態は、携帯型装置、マイクロプロセッサシステム、マイクロプロセッサベース又はプログラム可能な民生用電子機器、マイクロコンピュータ、メインフレームコンピュータなどを含む種々のコンピュータシステム構成により実現されてもよい。本発明は、通信ネットワークを介して接続された遠隔処理装置によりタスクが実行される分散処理環境において実現されてもよい。
上述した実施の形態によれば、本発明は、コンピュータシステムに格納されたデータを含む、様々なコンピュータ実装された命令を用いてもよいことが理解される。これらの命令は、物理量の物理的操作を要する命令を含む。本発明の部分を形成する本明細書で説明される命令は、機械命令に有用である。本発明は、これらの命令を実行するためのデバイス又は装置に関する。装置は、例えば特定目的のコンピュータなど、要求された目的のために特別に構築されてもよい。特定目的のコンピュータとして定義されるとき、コンピュータは、特定の目的のために動作可能でありつつ、特定の目的の一部ではない他の処理、プログラム実行、又はルーティンを実行してもよい。または、命令は、選択的にアクティブ化された、又は、コンピュータメモリ、キャッシュに格納された、又はネットワークを介して取得された1以上のコンピュータプログラムにより構成された汎用目的のコンピュータにより処理されてもよい。データがネットワークを介して取得されるとき、データは、例えば計算リソースのクラウドなどの、ネットワーク上の他の装置により処理されてもよい。
本発明の実施の形態は、データをある状態から別の状態へ変換する機械として定義されてもよい。変換されたデータは、ストレージに保存され、プロセッサにより操作されてもよい。プロセッサは、このように、データをある状態から別の状態へ変換する。さらに、方法は、ネットワークを介して接続可能な1以上の機械又はプロセッサにより処理されてもよい。それぞれの機械は、データをある状態から別の状態へ変換可能であり、データを処理し、ストレージに保存し、ネットワークを介して送信し、結果を表示し、又は別の機械へ結果を送信することができる。
本発明の1以上の実施の形態は、コンピュータ読み取り可能な媒体上のコンピュータ読み取り可能なコードとして具体化されてもよい。コンピュータ読み取り可能な媒体は、コンピュータシステムにより読み取り可能なデータを格納可能な任意のデータストレージ装置である。コンピュータ読み取り可能な媒体の例は、ハードドライブ、NAS(network attached storage)、ROM(read-only memory)、RAM(random-access memory)、CD−ROM、CD−R、CD−RW、磁気テープ、及び他の光学的又は非光学的データストレージ装置を含む。コンピュータ読み取り可能な媒体は、コンピュータシステムに結合されたネットワークを介して配布され、コンピュータ読み取り可能なコードは分散方式で格納され実行されてもよい。
方法の手順は特定の順序で説明されたが、他のハウスキーピング命令が命令の間に実行されてもよいし、命令が異なるタイミングで生じるように調整されてもよいし、オーバーレイ命令の処理が所望の方法で実行される限り、処理に関連付けられた種々のインターバルにおいて処理命令の発生を可能とするシステムに分散されてもよいことが理解されるべきである。
上記では、理解を明確にするために本発明を詳細に説明したが、添付の請求の範囲内で特定の変更および修正を実施可能であることは明らかである。したがって、実施の形態は例示的なものであり限定を意味するものではなく、また、本発明は本明細書で述べた詳細に限定されることはなく、添付の特許請求の範囲およびその等価物の範囲で修正可能である。

Claims (29)

  1. 携帯型装置を用いてインタラクティブアプリケーションとのインタフェースを提供するための方法であって、
    インタラクティブアプリケーションの状態を、前記インタラクティブアプリケーションの主要なビデオストリームを主要な処理インタフェースから主要なディスプレーに送信することにより、前記主要なディスプレーに描画するステップと、
    前記主要な処理インタフェースの周辺において携帯型装置の存在を検知するステップと、
    前記インタラクティブアプリケーションの補助的なビデオストリームを前記携帯型装置のディスプレーに描画するために処理された前記インタラクティブアプリケーションのデータフィードを、前記主要な処理インタフェースから、前記携帯型装置の前記ディスプレーに前記補助的なビデオストリームを描画しているときにインタラクティブな入力を受け付け、前記インタラクティブな入力を処理して、前記主要なディスプレーに描画されるべきイベントを定義する仮想タグを設定するための仮想タグデータを生成する携帯型装置へ送信するステップと、
    前記主要な処理インタフェースにおいて、前記仮想タグデータを前記携帯型装置から取得して格納するステップと、
    前記インタラクティブアプリケーションの状態が、前記インタラクティブアプリケーションによる前記仮想タグの実行を誘起するための所定の状態になったときに、前記仮想タグにより定義された前記イベントを前記主要なディスプレーに描画するステップと、
    を備え
    描画される前記主要なビデオストリームは、前記インタラクティブアプリケーションの仮想的な時系列内の第1の位置を示し、
    描画される前記補助的なビデオストリームは、前記インタラクティブアプリケーションの前記仮想的な時系列内の第2の位置を示す
    ことを特徴とする方法。
  2. 描画される前記補助的なビデオストリームは、所定の期間、描画される前記インタラクティブアプリケーションの前記主要なビデオストリームと同じ画像を生成することを特徴とする請求項1に記載の方法。
  3. 前記補助的なビデオストリームは、前記主要なビデオストリームの圧縮されたバージョンであることを特徴とする請求項2に記載の方法。
  4. 前記所定の期間の後、描画される前記補助的なビデオストリームは、受信された前記インタラクティブな入力に基づいて、描画される前記主要なビデオストリームとは異なる画像を生成することを特徴とする請求項2に記載の方法。
  5. 前記仮想タグの設定は、前記インタラクティブアプリケーションの仮想的な空間内の位置を有するオブジェクトの設定を含み、
    前記イベントを描画するステップは、前記インタラクティブアプリケーションの状態が前記オブジェクトの前記位置を含む領域を描画するとき、前記位置に前記オブジェクトを描画するステップを含む
    ことを特徴とする請求項1に記載の方法。
  6. 前記仮想タグにより特定される前記オブジェクトは、テキスト、音声、映像、アイテム、又はキャラクタからなるグループから選択されることを特徴とする請求項5に記載の方法。
  7. 前記仮想タグの設定は、前記インタラクティブアプリケーションの仮想的な時系列内のタイムスタンプを有するオブジェクトの設定を含み、
    前記イベントを描画するステップは、前記インタラクティブアプリケーションの状態が前記仮想タグの前記タイムスタンプに近似又は一致する時点になったときに、前記オブジェクトを描画するステップを含む
    ことを特徴とする請求項1に記載の方法。
  8. 描画される前記主要なビデオストリームは、前記インタラクティブアプリケーションの仮想的な空間内の第1の位置を示し、
    描画される前記補助的なビデオストリームは、前記インタラクティブアプリケーションの前記仮想的な空間内の第2の位置を示すことを特徴とする請求項1に記載の方法。
  9. 描画される前記補助的なビデオストリームは、前記インタラクティブアプリケーションの仮想的な空間のマップを提供することを特徴とする請求項1に記載の方法。
  10. 前記マップにおいて位置を選択することにより、前記携帯型装置において描画される、選択された位置の表示にアクセス可能とすることを特徴とする請求項に記載の方法。
  11. 前記マップは、前記仮想的な空間における1以上のオブジェクトの表現を含み、
    前記インタラクティブな入力により、前記オブジェクトの制御を可能とする
    ことを特徴とする請求項に記載の方法。
  12. 前記1以上のオブジェクトは、前記インタラクティブアプリケーションのキャラクタを含み、
    前記インタラクティブな入力により、前記キャラクタにより実行されるアクションの決定を可能とする
    ことを特徴とする請求項1に記載の方法。
  13. 前記アクションは、移動、攻撃的行動、及び防御的行動からなるグループから選択されることを特徴とする請求項1に記載の方法。
  14. 前記インタラクティブな入力は、前記携帯型装置に前記マップが描画されたときに、前記マップにおいて描かれたジェスチャー入力を含むことを特徴とする請求項に記載の方法。
  15. 前記主要な処理インタフェースにおいてコントローラ装置からコントローラ入力を受け付けるステップと、
    前記インタラクティブアプリケーションの前記状態を変更するために前記コントローラ入力を適用するステップと、
    を更に備えることを特徴とする請求項1に記載の方法。
  16. 前記インタラクティブな入力は、前記携帯型装置のタッチスクリーンインタフェースを介して受信されることを特徴とする請求項1に記載の方法。
  17. インタラクティブアプリケーションと相互作用するための方法であって、
    関連付けられたコントローラ装置からコントローラ入力を受け付け、主要なセッションの現在状態を変更するために前記コントローラ入力を適用するように構成された、インタラクティブアプリケーションの主要なセッションを開始するステップと、
    主要な処理インタフェースからの前記主要なセッションの映像出力をディスプレーに描画するステップと、
    前記主要な処理インタフェースの周辺において、前記主要な処理インタフェースから前記主要なセッションのデータフィードを受信するように構成された前記インタラクティブアプリケーションの補助的なセッションを開始し、前記データフィードを描画するように構成された携帯型装置の存在を検知するステップと、を備え、
    前記補助的なセッションは、前記携帯型装置から、描画された前記データフィードとの相互作用に起因する、前記インタラクティブアプリケーションの将来の状態を変更又は制御することが可能なインタラクティブな入力を受け付け、
    前記方法は、前記インタラクティブアプリケーションの将来の状態を変更又は制御するために前記インタラクティブな入力を適用するステップを備え
    前記主要なセッションは、前記インタラクティブアプリケーションの仮想的な時系列内の第1の位置を示し、
    前記補助的なセッションは、前記インタラクティブアプリケーションの前記仮想的な時系列内の第2の位置を示す
    ことを特徴とする方法。
  18. 前記データフィードは、前記主要なセッションの状態に依存することを特徴とする請求項1に記載の方法。
  19. 前記データフィードは、前記主要なセッションの前記映像出力に基づいたデータを含むことを特徴とする請求項1に記載の方法。
  20. 前記データフィードは、前記主要なセッションの状態に依存しないことを特徴とする請求項1に記載の方法。
  21. 前記主要なセッションは、前記インタラクティブアプリケーションの仮想的な環境内の第1の位置を定義し、
    前記補助的なセッションは、前記仮想的な環境内の第2の位置を定義することを特徴とする請求項1に記載の方法。
  22. 前記インタラクティブアプリケーションの将来の状態を変更又は制御するために前記インタラクティブな入力を適用するステップは、
    前記インタラクティブな入力に基づいて、変更作業の空間的又は時間的な位置を特定する変更イベントを決定するステップと、
    前記変更イベントを変更イベント格納部に格納するステップと、
    前記インタラクティブアプリケーションの将来の状態が前記変更イベントにより特定される空間的又は時間的な位置に到達したときに、前記変更イベントを取得して前記変更作業を実行するステップと、
    を含むことを特徴とする請求項1に記載の方法。
  23. 前記変更作業は、更なる情報へのアクセスを提供するマーカの配置、アイテムの配置、又はキャラクタの導入からなるグループから選択されることを特徴とする請求項2に記載の方法。
  24. インタラクティブアプリケーションとのインタフェースを提供するためのシステムであって、
    (a)主要な処理インタフェースと、
    (b)携帯型装置と、を備え、
    (a)前記主要な処理インタフェースは、
    (i)インタラクティブアプリケーションの状態を、前記インタラクティブアプリケーションの主要なビデオストリームを主要なディスプレーに送信することにより、前記主要なディスプレーに描画する描画モジュールと、
    (ii)前記主要な処理インタフェースの周辺において携帯型装置の存在を検知する検知モジュールと、
    (iii)前記インタラクティブアプリケーションのデータフィードを前記主要な処理インタフェースから前記携帯型装置へ送信するデータフィードモジュールと、を含み、
    (b)前記携帯型装置は、
    (i)前記インタラクティブアプリケーションの補助的なビデオストリームを前記携帯型装置のディスプレーに描画するために前記データフィードを処理する処理モジュールと、
    (ii)前記携帯型装置の前記ディスプレーに前記補助的なビデオストリームを描画しているときに、インタラクティブな入力を受け付ける入力モジュールと、
    (iii)前記インタラクティブな入力を処理して、前記主要なディスプレーに描画されるべきイベントを定義する仮想タグを設定するための仮想タグデータを生成し、前記仮想タグデータを前記主要な処理インタフェースに送信するタグモジュールと、を含み、
    前記描画モジュールは、前記インタラクティブアプリケーションの状態が、前記インタラクティブアプリケーションによる前記仮想タグの実行を誘起するための所定の状態になったときに、前記仮想タグにより定義された前記イベントを前記主要なディスプレーに描画し、
    描画される前記主要なビデオストリームは、前記インタラクティブアプリケーションの仮想的な時系列内の第1の位置を示し、
    描画される前記補助的なビデオストリームは、前記インタラクティブアプリケーションの前記仮想的な時系列内の第2の位置を示す
    ことを特徴とするシステム。
  25. 描画される前記補助的なビデオストリームは、所定の期間、描画される前記インタラクティブアプリケーションの前記主要なビデオストリームと同じ画像を生成することを特徴とする請求項2に記載のシステム。
  26. 前記所定の期間の後、描画される前記補助的なビデオストリームは、受信された前記インタラクティブな入力に基づいて、描画される前記主要なビデオストリームとは異なる画像を生成することを特徴とする請求項2に記載のシステム。
  27. 前記仮想タグの設定は、前記インタラクティブアプリケーションの仮想的な空間内の位置を有するオブジェクトの設定を含み、
    前記イベントの描画は、前記インタラクティブアプリケーションの状態が前記オブジェクトの前記位置を含む領域を描画するとき、前記位置に前記オブジェクトを描画することを含む
    ことを特徴とする請求項2に記載のシステム。
  28. 前記仮想タグにより特定される前記オブジェクトは、テキスト、音声、映像、アイテム、又はキャラクタからなるグループから選択されることを特徴とする請求項2に記載のシステム。
  29. 前記仮想タグの設定は、前記インタラクティブアプリケーションの仮想的な時系列内のタイムスタンプを有するオブジェクトの設定を含み、
    前記イベントの描画は、前記インタラクティブアプリケーションの状態が前記仮想タグの前記タイムスタンプに近似又は一致する時点になったときに、前記オブジェクトを描画することを含む
    ことを特徴とする請求項2に記載のシステム。
JP2011224516A 2010-10-12 2011-10-12 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用 Active JP5654430B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/903,123 2010-10-12
US12/903,123 US20120086630A1 (en) 2010-10-12 2010-10-12 Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system

Publications (2)

Publication Number Publication Date
JP2012096027A JP2012096027A (ja) 2012-05-24
JP5654430B2 true JP5654430B2 (ja) 2015-01-14

Family

ID=44799764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011224516A Active JP5654430B2 (ja) 2010-10-12 2011-10-12 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用

Country Status (4)

Country Link
US (3) US20120086630A1 (ja)
EP (1) EP2441505A3 (ja)
JP (1) JP5654430B2 (ja)
CN (2) CN102441276B (ja)

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100302190A1 (en) * 2009-06-02 2010-12-02 Elan Microelectronics Corporation Multi-functional touchpad remote controller
US9159165B2 (en) 2010-07-13 2015-10-13 Sony Computer Entertainment Inc. Position-dependent gaming, 3-D controller, and handheld as a remote
US8730354B2 (en) 2010-07-13 2014-05-20 Sony Computer Entertainment Inc Overlay video content on a mobile device
US9814977B2 (en) * 2010-07-13 2017-11-14 Sony Interactive Entertainment Inc. Supplemental video content on a mobile device
US20120127203A1 (en) * 2010-11-18 2012-05-24 Canon Kabushiki Kaisha Mixed reality display
EP2455841A3 (en) * 2010-11-22 2015-07-15 Samsung Electronics Co., Ltd. Apparatus and method for selecting item using movement of object
US10244988B2 (en) * 2010-12-16 2019-04-02 Nokia Technologies Oy Method, apparatus and computer program of using a bio-signal profile
EP2497546A3 (en) 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
EP2497547B1 (en) 2011-03-08 2018-06-27 Nintendo Co., Ltd. Information processing program, information processing apparatus, information processing system, and information processing method
EP2497543A3 (en) 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
US9561443B2 (en) 2011-03-08 2017-02-07 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method
JP5792971B2 (ja) 2011-03-08 2015-10-14 任天堂株式会社 情報処理システム、情報処理プログラム、および情報処理方法
EP2497545B1 (en) 2011-03-08 2019-08-07 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
JP5869236B2 (ja) 2011-06-03 2016-02-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5937792B2 (ja) * 2011-06-03 2016-06-22 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US8872799B2 (en) * 2011-06-20 2014-10-28 The Regents Of The University Of California Scalable distributed/cooperative/collaborative paradigm for multi-user interaction with projection-based display walls
JP5841409B2 (ja) 2011-11-09 2016-01-13 任天堂株式会社 制御プログラム、入力端末装置、制御システムおよび制御方法
US9132354B2 (en) * 2011-12-22 2015-09-15 Microsoft Technology Licensing, Llc Game having a plurality of engines
JP5898999B2 (ja) * 2012-02-21 2016-04-06 任天堂株式会社 情報処理システム、制御装置、情報処理プログラム及び画像表示方法
TWI450159B (zh) * 2012-03-02 2014-08-21 Pixart Imaging Inc Optical touch device, passive touch system and its input detection method
SE1250227A1 (sv) * 2012-03-12 2013-09-13 Elos Fixturlaser Ab Mobil displayenhet för visning av grafisk information som återger en uppställning av fysiska komponenter.
US9849376B2 (en) 2012-05-02 2017-12-26 Microsoft Technology Licensing, Llc Wireless controller
US20130307796A1 (en) * 2012-05-16 2013-11-21 Chi-Chang Liu Touchscreen Device Integrated Computing System And Method
WO2013175631A1 (ja) * 2012-05-25 2013-11-28 任天堂株式会社 操作装置、情報処理システム、および情報処理方法
EP2730995B1 (en) 2012-05-25 2016-11-30 Nintendo Co., Ltd. Controller device, information processing system, and communication method
JP5122036B1 (ja) 2012-05-25 2013-01-16 任天堂株式会社 操作装置、情報処理システム、および通信方法
US9873045B2 (en) 2012-05-25 2018-01-23 Electronic Arts, Inc. Systems and methods for a unified game experience
JP6534198B2 (ja) * 2012-05-31 2019-06-26 任天堂株式会社 ゲームシステム、ゲーム処理方法、ゲーム装置およびゲームプログラム
US8913008B2 (en) * 2012-06-22 2014-12-16 Blackberry Limited Image data generation using a handheld electronic device
KR101581656B1 (ko) * 2012-07-16 2016-01-04 삼성전자 주식회사 스마트장치, 이를 이용한 동기화 시스템 및 방법
JP2015039095A (ja) * 2012-07-31 2015-02-26 株式会社東芝 電子機器、方法およびプログラム
US20140051517A1 (en) * 2012-08-17 2014-02-20 Microsoft Corporation Dynamic magnetometer calibration
US8851996B2 (en) * 2012-08-17 2014-10-07 Microsoft Corporation Dynamic magnetometer calibration
US9137509B2 (en) * 2012-10-08 2015-09-15 Fuji Xerox Co., Ltd. Systems and methods for instructional video navigation and note taking
FI20126070L (fi) * 2012-10-15 2014-04-16 Trick Technologies Oy Mikrofonilaite, menetelmä sen käyttämiseksi ja mikrofonijärjestely
JP6018480B2 (ja) * 2012-11-05 2016-11-02 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP5977147B2 (ja) * 2012-11-05 2016-08-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および入力装置
JP6178066B2 (ja) * 2012-11-06 2017-08-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US8944914B2 (en) 2012-12-11 2015-02-03 PNI Sensor Corporation Control of translational movement and field of view of a character within a virtual world as rendered on a display
JP6057738B2 (ja) * 2013-01-22 2017-01-11 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US20140240226A1 (en) * 2013-02-27 2014-08-28 Robert Bosch Gmbh User Interface Apparatus
US9372531B2 (en) * 2013-03-12 2016-06-21 Gracenote, Inc. Detecting an event within interactive media including spatialized multi-channel audio content
TWI594791B (zh) * 2013-03-15 2017-08-11 新力電腦娛樂(美國)責任有限公司 遊戲控制器
EP3014458A4 (en) * 2013-06-28 2017-02-22 Hewlett-Packard Development Company, L.P. Attached computing device
US9669297B1 (en) 2013-09-18 2017-06-06 Aftershock Services, Inc. Using biometrics to alter game content
JP6599080B2 (ja) * 2013-10-17 2019-10-30 株式会社ソニー・インタラクティブエンタテインメント ゲームシステム、ゲーム制御方法、及びゲーム制御プログラム
CN103971494A (zh) * 2013-12-10 2014-08-06 重庆环漫科技有限公司 游戏互动枪电路
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US20150202533A1 (en) * 2014-01-21 2015-07-23 Nvidia Corporation Mapping touchscreen gestures to ergonomic controls across application scenes
US20150295783A1 (en) * 2014-04-10 2015-10-15 Screenovate Technologies Ltd. Method for real-time multimedia interface management sensor data
US20150293684A1 (en) * 2014-04-10 2015-10-15 Screenovate Technologies Ltd. Method for controlling apps activation within local network
CN104049750B (zh) * 2014-05-08 2017-11-07 苏州佳世达光电有限公司 显示方法及使用其的显示系统
JP6633825B2 (ja) * 2014-06-05 2020-01-22 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
JP2016022366A (ja) * 2014-07-24 2016-02-08 周平 ▲高▼田 2次創作を目的としたゲームの製作方法
US9950263B2 (en) * 2014-09-15 2018-04-24 Jonathan Moxon Method for mobile gaming systems
KR20160061133A (ko) * 2014-11-21 2016-05-31 삼성전자주식회사 이미지 표시 방법 및 그 전자 장치
CN112764536A (zh) 2015-03-05 2021-05-07 奇跃公司 用于增强现实的系统和方法
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
TWI557657B (zh) * 2015-07-08 2016-11-11 樂陞科技股份有限公司 可即時預覽的遊戲開發系統及其實施方法
US10213688B2 (en) 2015-08-26 2019-02-26 Warner Bros. Entertainment, Inc. Social and procedural effects for computer-generated environments
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
CN113190111A (zh) 2015-10-08 2021-07-30 Pcms控股公司 一种方法和设备
AU2016365422A1 (en) 2015-12-04 2018-06-28 Magic Leap, Inc. Relocalization systems and methods
US10617945B1 (en) * 2015-12-14 2020-04-14 Amazon Technologies, Inc. Game video analysis and information system
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
JP6215995B2 (ja) * 2016-04-13 2017-10-18 株式会社ソニー・インタラクティブエンタテインメント 入力装置
KR102626821B1 (ko) 2016-08-02 2024-01-18 매직 립, 인코포레이티드 고정-거리 가상 및 증강 현실 시스템들 및 방법들
WO2018100906A1 (ja) * 2016-11-30 2018-06-07 グリー株式会社 アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
USD849145S1 (en) * 2016-12-12 2019-05-21 Hyperkin, Inc. Video game controller
US10166465B2 (en) * 2017-01-20 2019-01-01 Essential Products, Inc. Contextual user interface based on video game playback
US10359993B2 (en) 2017-01-20 2019-07-23 Essential Products, Inc. Contextual user interface based on environment
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
USD849146S1 (en) 2017-01-26 2019-05-21 Hyperkin, Inc. Video game controller
US10769752B2 (en) 2017-03-17 2020-09-08 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
CN110419061B (zh) 2017-03-17 2023-09-29 奇跃公司 混合现实系统及使用该系统生成虚拟内容的方法
AU2018234921B2 (en) 2017-03-17 2021-10-07 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
CN108874267B (zh) * 2017-05-09 2022-12-09 腾讯科技(深圳)有限公司 虚拟现实应用数据处理方法、计算机设备和存储介质
US10452144B2 (en) * 2017-05-30 2019-10-22 Interaxon Inc. Wearable computing device with electrophysiological sensors
US10475149B2 (en) * 2017-09-25 2019-11-12 Intel Corporation Policies and architecture to dynamically offload VR processing to HMD based on external cues
CN107657589B (zh) * 2017-11-16 2021-05-14 上海麦界信息技术有限公司 基于三基准点标定的手机ar定位坐标轴同步方法
CN108043029B (zh) * 2017-12-22 2021-04-27 网易(杭州)网络有限公司 逻辑控制方法及装置
US11132842B2 (en) * 2017-12-22 2021-09-28 Unity IPR ApS Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device
CN112055955A (zh) * 2017-12-29 2020-12-08 得麦股份有限公司 用于个性化和自适应应用管理的系统和方法
WO2019133710A1 (en) 2017-12-29 2019-07-04 DMAI, Inc. System and method for dialogue management
US11504856B2 (en) 2017-12-29 2022-11-22 DMAI, Inc. System and method for selective animatronic peripheral response for human machine dialogue
CN112074899A (zh) 2017-12-29 2020-12-11 得麦股份有限公司 基于多模态传感输入的人机对话的智能发起的系统和方法
WO2019160613A1 (en) 2018-02-15 2019-08-22 DMAI, Inc. System and method for dynamic program configuration
CN108509035B (zh) * 2018-03-20 2021-06-18 瑞芯微电子股份有限公司 一种vr人机交互方法和设备
KR102557808B1 (ko) * 2018-05-16 2023-07-20 주식회사 엔씨소프트 게임 서비스 시스템 및 상기 시스템에서의 메모 공유 방법
US11262839B2 (en) 2018-05-17 2022-03-01 Sony Interactive Entertainment Inc. Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment
US10942564B2 (en) 2018-05-17 2021-03-09 Sony Interactive Entertainment Inc. Dynamic graphics rendering based on predicted saccade landing point
US11036984B1 (en) * 2018-06-08 2021-06-15 Facebook, Inc. Interactive instructions
JP6905022B2 (ja) * 2018-06-13 2021-07-21 グリー株式会社 アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP7017474B2 (ja) * 2018-06-13 2022-02-08 グリー株式会社 アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
WO2020023383A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
US10832481B2 (en) * 2018-08-21 2020-11-10 Disney Enterprises, Inc. Multi-screen interactions in virtual and augmented reality
CN109432771A (zh) * 2018-09-30 2019-03-08 网易(杭州)网络有限公司 游戏道具的传送方法及装置
US10860104B2 (en) 2018-11-09 2020-12-08 Intel Corporation Augmented reality controllers and related methods
CN109544663B (zh) * 2018-11-09 2023-01-06 腾讯科技(深圳)有限公司 应用程序的虚拟场景识别与交互键位匹配方法及装置
US11662051B2 (en) * 2018-11-16 2023-05-30 Google Llc Shadow tracking of real-time interactive simulations for complex system analysis
EP3888352A2 (en) 2018-11-30 2021-10-06 PCMS Holdings, Inc. Method for mirroring 3d objects to light field displays
US11406892B2 (en) * 2018-12-04 2022-08-09 Sony Interactive Entertainment Inc. Information processing apparatus
KR102319157B1 (ko) * 2019-01-21 2021-10-29 라인플러스 주식회사 메신저 내 플랫폼에 추가된 애플리케이션을 이용하여 대화방에서 정보를 공유하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체
US11179630B2 (en) * 2019-09-27 2021-11-23 Nintendo Co., Ltd. Systems and methods of transferring state data for applications
JP7116220B2 (ja) * 2019-10-02 2022-08-09 グリー株式会社 アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
US10705597B1 (en) 2019-12-17 2020-07-07 Liteboxer Technologies, Inc. Interactive exercise and training system and method
US11135509B2 (en) * 2020-02-07 2021-10-05 Microsoft Technology Licensing, Llc Systems and methods of directing remote player interactions
JP7569603B2 (ja) * 2020-07-29 2024-10-18 エイベックス・エンタテインメント株式会社 アニメーション制作システム
CN111870963B (zh) * 2020-08-05 2023-10-27 网易(杭州)网络有限公司 游戏观战方法、装置和电子设备
JP7101735B2 (ja) * 2020-10-20 2022-07-15 株式会社スクウェア・エニックス 画像生成プログラム及び画像生成システム
JP7011209B1 (ja) 2021-03-19 2022-01-26 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
KR102625171B1 (ko) * 2021-11-17 2024-01-23 주식회사 제네시스랩 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN114130028A (zh) * 2021-12-01 2022-03-04 网易(杭州)网络有限公司 一种虚拟物品分享方法和装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3342393B2 (ja) * 1998-03-19 2002-11-05 株式会社コナミコンピュータエンタテインメントジャパン ビデオゲーム装置、コンピュータ読み取り可能な記録媒体
FI111998B (fi) 1999-12-08 2003-10-15 Nokia Corp Käyttöliittymä
US6752720B1 (en) * 2000-06-15 2004-06-22 Intel Corporation Mobile remote control video gaming system
JP4691268B2 (ja) * 2001-05-02 2011-06-01 任天堂株式会社 ゲームシステムおよびゲームプログラム
JP3690672B2 (ja) * 2002-05-17 2005-08-31 任天堂株式会社 ゲームシステムおよびゲームプログラム
US10086282B2 (en) * 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US11033821B2 (en) * 2003-09-02 2021-06-15 Jeffrey D. Mullen Systems and methods for location based games and employment of the same on location enabled devices
US7309287B2 (en) * 2003-12-10 2007-12-18 Nintendo Co., Ltd. Game machine having display screen with touch panel
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
WO2006058408A1 (en) * 2004-09-21 2006-06-08 Timeplay Entertainment Corporation System, method and handheld controller for multi-player gaming
JP4929454B2 (ja) * 2006-02-15 2012-05-09 国立大学法人電気通信大学 仮想環境表示システム、仮想環境表示処理方法、仮想環境表示端末装置、管理処理装置、管理処理方法及びプログラム
US7803048B2 (en) * 2006-03-15 2010-09-28 Microsoft Corporation Radar manipulation in a video game
CN101479782B (zh) * 2006-05-04 2011-08-03 美国索尼电脑娱乐公司 多输入游戏控制混合器
GB0608939D0 (en) * 2006-05-05 2006-06-14 Sony Comp Entertainment Europe Display apparatus and method
JP5022671B2 (ja) * 2006-10-30 2012-09-12 任天堂株式会社 情報処理プログラムおよび情報処理装置
WO2008106196A1 (en) * 2007-03-01 2008-09-04 Sony Computer Entertainment America Inc. Virtual world avatar control, interactivity and communication interactive messaging
US8231465B2 (en) * 2008-02-21 2012-07-31 Palo Alto Research Center Incorporated Location-aware mixed-reality gaming platform
US8308569B2 (en) * 2008-05-12 2012-11-13 Microsoft Corporation Reward for resurrecting teammate in a multiplayer game
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8734256B2 (en) * 2008-09-15 2014-05-27 Panasonic Avionics Corporation System and method for hosting multiplayer games
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements

Also Published As

Publication number Publication date
JP2012096027A (ja) 2012-05-24
EP2441505A2 (en) 2012-04-18
US20120086630A1 (en) 2012-04-12
US10864433B2 (en) 2020-12-15
US8907891B2 (en) 2014-12-09
CN103357177B (zh) 2016-08-03
CN102441276A (zh) 2012-05-09
US20170209786A1 (en) 2017-07-27
EP2441505A3 (en) 2014-01-01
US20120276998A1 (en) 2012-11-01
CN103357177A (zh) 2013-10-23
CN102441276B (zh) 2015-02-18

Similar Documents

Publication Publication Date Title
JP5654430B2 (ja) 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用
JP6158406B2 (ja) 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
JP7229201B2 (ja) ゲームクラウドシステムで実行されるビデオ記録を介して以前に記憶されたゲームプレイにアクセスするための方法およびシステム
JP6484340B2 (ja) ヘッドマウントディスプレイを用いた仮想または拡張現実シーン内のユーザ対話の方法及びシステム
JP6880081B2 (ja) 方向インタフェースオブジェクト
US11833430B2 (en) Menu placement dictated by user ability and modes of feedback
JP7503122B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
JP2011258158A (ja) プログラム、情報記憶媒体及び画像生成システム
EP4137916A1 (en) Gesture-based skill search
JP2023016015A (ja) 動きに基づくナビゲーション
US11995233B2 (en) Biometric feedback captured during viewing of displayed content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141120

R150 Certificate of patent or registration of utility model

Ref document number: 5654430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250