JP7513564B2 - システム、情報処理方法および情報処理プログラム - Google Patents
システム、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- JP7513564B2 JP7513564B2 JP2021067660A JP2021067660A JP7513564B2 JP 7513564 B2 JP7513564 B2 JP 7513564B2 JP 2021067660 A JP2021067660 A JP 2021067660A JP 2021067660 A JP2021067660 A JP 2021067660A JP 7513564 B2 JP7513564 B2 JP 7513564B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- controller
- unit
- state
- image signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 51
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000004364 calculation method Methods 0.000 claims description 34
- 230000008859 change Effects 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 8
- 230000036544 posture Effects 0.000 claims 9
- 230000035807 sensation Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 22
- 238000000034 method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 8
- 238000002149 energy-dispersive X-ray emission spectroscopy Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明の別の観点によれば、コントローラへのフィードバック制御の制御値を出力する情報処理方法であって、所定のタイミングで全画素を同期的にスキャンする第1画像センサにより生成された第1画像信号と、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサにより生成された第2画像信号に基づいて、ユーザーの状態と、当該ユーザーが保持するコントローラの姿勢とを推定する推定ステップと、ユーザーの状態を示す情報とコントローラの姿勢を示す情報とを出力する情報出力ステップとを含む情報処理方法が提供される。
本発明のさらに別の観点によれば、所定のタイミングで全画素を同期的にスキャンする第1画像センサにより生成された第1画像信号と、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサにより生成された第2画像信号とに基づいて、ユーザーの状態と、当該ユーザーが保持するコントローラの姿勢とを推定する機能と、ユーザーの状態を示す情報とコントローラの姿勢を示す情報とを出力する機能とをコンピュータに実現させる情報処理プログラムが提供される。
本実施形態に係るシステム1は、図1に示すように、カメラユニット10と、情報処理装置20と、1以上のコントローラ30と、表示装置40とを含むゲームシステムである。情報処理装置20は、カメラユニット10、コントローラ30、および表示装置40のぞれぞれと有線または無線のネットワークにより接続される。
システム1では、カメラユニット10およびコントローラ30から送信される情報に応じて情報処理装置20がゲームを進行し、表示装置40が、情報処理装置20の実行時画面、例えばゲーム画面を表示する。
カメラユニット10は、ユーザーの状態とコントローラ30の姿勢とを推定して出力することにより、コントローラ30と同様にユーザー操作を受け付けるための操作装置として機能する。このようなカメラユニット10は、ユーザーの状態とコントローラ30の姿勢とを推定するために、被写界にユーザーが収まる位置、例えばユーザーから1メートル程度の距離に配置される。図1の例では、カメラユニット10は、表示装置40の近傍に配置される。カメラユニット10の最適な配置位置は、目的に応じて異なる。例えば、プレイ対象のゲームの内容に応じて、ユーザーの体全体、上半身、手元等、把握する対象が被写界に収まる位置にカメラユニット10を配置することが望まれる。
なお、カメラユニット10の配置に際しては、例えば、情報処理装置20によって表示装置40にチュートリアルなどを表示することにより、ユーザーがカメラユニット10を適切な位置に配置するよう案内するとよい。
図2は、本発明の一実施形態に係るシステムの概略的な構成を示すブロック図である。
カメラユニット10は、RGBカメラ11と、EDS(Event Driven Sensor)12と、IMU(Inertial Measurement Unit)13と、推定部14と、情報出力部15とを含む。
RGBカメラ11は、第1画像センサであるイメージセンサ111と、イメージセンサ111に接続される処理回路112とを含む。イメージセンサ111は、例えば所定の周期で、またはユーザー操作に応じた所定のタイミングで全ピクセルを同期的にスキャンすることによってRGB画像信号113を生成する。処理回路112は、例えばRGB画像信号113を保存および伝送に適した形式に変換する。また、処理回路112は、RGB画像信号113にタイムスタンプを与える。
なお、本明細書では、当該信号に基づいて画像を構築可能な信号を画像信号という。したがって、RGB画像信号113およびイベント信号123は、画像信号の一例を示す。
推定部14の第1認識部141は、RGB画像信号113とイベント信号123との少なくとも一方に基づいて、カメラユニット10の被写界に含まれる1以上のユーザーを認識する。第1認識部141は、例えば、イベント信号123において同じ極性のイベントが発生していることが示される連続した画素領域に存在するオブジェクトを検出し、RGB画像信号113の対応する部分に基づいて被写体認識を行うことによりユーザーを認識する。カメラユニット10の被写界に複数のユーザーが含まれる場合、第1認識部141は、それぞれのユーザーを識別する。
推定部14により推定されるユーザーの状態は、上述したように、ユーザーの姿勢、ユーザーの腕の形状、またはユーザーの手指の形状の少なくとも1つを含む。ユーザーの姿勢は、例えば、ユーザーが椅子などに着席している状態、ユーザーが立っている状態、さらに、ユーザーがカメラユニット10に対して正面を向いている状態、側方を向いている状態等を含む。また、ユーザーの腕の形状は、例えば、ユーザーが腕を上げている状態やユーザーが腕を動かして所定のポーズをとっている状態等を含む。また、ユーザーの手指の形状は、例えば、ユーザーが手指を動かして2本の指を立てるピースサイン等の所定のポーズをとっている状態やユーザーがコントローラ30を握っている状態等を含む。また、コントローラ30の姿勢は、ユーザーがコントローラ30のどの部分を把持し、どのような姿勢でコントローラ30を保持しているかを示す。
図4Bは、ユーザーがコントローラ30のグリップ部分を両手で把持して回転させる状態を例示する。図Bの例は、ユーザーの状態とコントローラ30の姿勢に基づき、オートバイ等のハンドルを操作するゲームの例を示す。
図4Cは、ユーザーがバットを構えるポーズをとり、コントローラ30の片側のグリップ部分を片手で把持している状態を例示する。図4Cの例は、ユーザーの状態とコントローラ30の姿勢に基づき、仮想のバットV3を操作するゲームの例を示す。
図4Dは、ユーザーがコントローラ30を把持せずに手裏剣を投げるポーズをとっている状態を例示する。図4Dの例は、コントローラ30を使用せずに、ユーザーの状態に基づき、仮想の手裏剣V4を操作するゲームの例を示す。
また、例えば、推定部14による推定処理に、IMU13により検出したカメラユニット10の三次元の姿勢データを利用してもよい。
また、第1認識部141により複数のユーザーが認識された場合、情報出力部15は、ユーザーと、当該ユーザーが保持するコントローラとの組み合わせを示す情報を情報処理装置20に出力する。このような情報を出力する際には、ユーザーの状態を示す情報とコントローラ30の姿勢を示す情報との組み合わせを示すテーブルなどの情報を出力してもよいし、ユーザーの状態を示す情報に、当該ユーザーが保持するコントローラ30の識別情報を関連付けてもよいし、コントローラ30の姿勢を示す情報に、当該コントローラ30を保持するユーザーの状態を示す情報を関連付けてもよい。
さらに、ユーザーの状態およびコントローラ30の姿勢と、ユーザー操作との関係を予めテーブルなどに定めておくことにより、情報出力部15は、ユーザー操作を示す情報を情報処理装置20に出力してもよい。
制御部22の制御値算出部221は、カメラユニット10の情報出力部15から受信した情報とコントローラ30から受信した情報との少なくとも一方に基づいて、コントローラ30および表示装置40を含む外部装置へのフィードバック制御の制御値を算出する。上述したように、カメラユニット10およびコントローラ30は、ユーザー操作を受け付けるための操作装置として機能する。そこで、制御値算出部221は、カメラユニット10とコントローラ30との少なくとも一方を介して行われたユーザー操作に応じて、コントローラ30および表示装置40を含む外部装置へのフィードバック制御の制御値を算出する。算出された制御値は、通信部21を介してコントローラ30および表示装置40に出力される。
制御部22の画像生成部222は、制御値算出部221により算出した制御値に応じて、表示装置40に表示する表示画像を生成する。生成された表示画像は、通信部21を介して表示装置40に出力される。
なお、制御値の算出、および表示画像の生成の詳細については、後述するコントローラ30および表示装置40の構成の説明と関連して説明を行う。
通信部31は、情報処理装置20の通信部21から出力された制御値を受信して、力覚提示部33、振動部34、および音声出力部35の各部に出力する。また、通信部31は、操作部32により受け付けたユーザー操作に関する情報を、情報処理装置20に出力する。
操作部32は、ボタンおよびパッドなどの複数の操作子を備え、操作子に対するユーザーの操作入力を受け付ける。
力覚提示部33は、操作部32の少なくとも一部の操作子に設けられ、情報処理装置20から供給される制御値にしたがい、ユーザー操作に抗する、あるいは連動する力をユーザーに提示する。具体的に、力覚提示部33は、回転するロータを含むモータやアクチュエータ等で構成できる。力覚提示部33を構成する力覚提示装置については広く知られたものを採用できるので、ここでの詳しい説明を省略する。
音声出力部35は、情報処理装置20から供給される制御値にしたがい、音声を出力するものであり、例えばスピーカにより構成できる。音声出力部35は、ユーザー操作が行われた場合に音声を出力することにより、ユーザー操作が正しく行われ、情報処理装置20に認識されたことをユーザーに通知することが可能である。
なお、上述した力覚提示部33による力覚の提示と連動して、振動部34による振動と、音声出力部35による音声出力との少なくとも一方が行われることにより、ユーザーへのフィードバック制御の多様性を高めることが可能である。
なお、第1認識部141により複数のユーザーが認識され、情報出力部15によりユーザーと、当該ユーザーが保持するコントローラとの組み合わせを示す情報とが出力された場合、制御値算出部221は、ユーザーと、当該ユーザーが保持するコントローラとの組み合わせごとに制御値を算出する。
図4Bの例で示したように、オートバイ等のハンドルを操作するユーザー操作が行われた場合、制御値算出部221は、ユーザーの状態とコントローラ30の姿勢に基づき、力覚提示部33および振動部34に関して、ハンドルの操作への反動に相当する力覚の提示および振動の発生を示す制御値を算出する。また、制御値算出部221は、ハンドルの操作に相当する音声の出力を示す制御値を算出する。
図4Cの例で示したように、仮想のバットV3を操作するユーザー操作が行われた場合、制御値算出部221は、ユーザーの状態とコントローラ30の姿勢に基づき、力覚提示部33および振動部34に関して、実際にバットを操作した際の反動に相当する力覚の提示および振動の発生を示す制御値を算出する。また、制御値算出部221は、実際にバットを操作した際に発生する音声に相当する音声の出力を示す制御値を算出する。
なお、図4Dの例で示したように、コントローラ30を使用せずにユーザー操作が行われた場合には、制御値算出部221は、コントローラ30へのフィードバック制御の制御値を算出しない。
また、コントローラ30に、接触センサを備え、接触センサへのユーザーの接触状態を示す情報を、通信部31を介して情報処理装置20に供給してもよい。このような情報は、制御値算出部221による制御値の算出に利用することができる。
また、コントローラ30に、音声入力部を備え、音声認識技術を適用してもよい。例えば、コントローラ30にマイクなどの音声入力部と音声認識部とを備え、ユーザーが発声するコマンドや、ユーザーの呼びかけなどを示す情報を、通信部31を介して情報処理装置20に供給してもよい。
受信部41は、情報処理装置20の画像生成部222が生成した表示画像を示す情報を、通信部21を介して受信する。
表示部42は、例えばLCD(Liquid Crystal Display)や有機ELなどのモニタを備え、受信部41により受信した情報に基づき、表示画像を表示することにより、ユーザーに提示することが可能である。
そして、第1認識部141がユーザーを認識し(ステップS103)、座標算出部142および状態推定部144がユーザーの状態を推定する(ステップS104)。次に、第2認識部145がコントローラ30の状態を推定し(ステップS105)、姿勢推定部146がコントローラ30の姿勢を推定する(ステップS106)。
そして、情報出力部15がユーザーの状態を示す情報、コントローラ30の姿勢を示す情報、及びユーザーと、当該ユーザーが保持するコントローラとの組み合わせを示す情報を出力する(ステップS107)。
推定部14は、ステップS103からステップS107を繰り返す(ステップS101からS102の処理も繰り返されるが、必ずしもステップS103以降の処理と同じ周期でなくてもよい)ことにより、情報の出力を継続する。
情報処理装置20は、これらの情報に基づいてコントローラ30へのフィードバック制御の制御値を算出することにより、ユーザーの状態およびコントローラ30の姿勢の変化に応じた好適なフィードバック制御を実現することができる。
例えば、図6に例示するように、ユーザーの人数が変化する場合を考える。図6Aに示すように、カメラユニット10の被写界内に一人のユーザーU1が存在する状態では、カメラユニット10は、ユーザーU1の状態を示す情報と、ユーザーU1が保持するコントローラ30U1の姿勢を示す情報とを出力し、情報処理装置20は、コントローラ30U1へのフィードバック制御の制御値を算出する。その後、図6Bに示すように、カメラユニット10の被写界内にもう一人のユーザーU2が入ってきた場合、カメラユニット10は、ユーザーU1およびユーザーU2の状態を示す情報と、ユーザーU1が保持するコントローラ30U1およびユーザーU2が保持するコントローラ30U2の姿勢を示す情報と、ユーザーと当該ユーザーが保持するコントローラ30との組み合わせを示す情報とを出力し、情報処理装置20は、コントローラ30U1へのフィードバック制御の制御値と、コントローラ30U2へのフィードバック制御の制御値とをそれぞれ算出する。
つまり、ユーザーの人数が動的に変化しても、ユーザーの状態を示す情報、コントローラ30の姿勢を示す情報、およびユーザーと当該ユーザーが保持するコントローラ30との組み合わせを示す情報が更新されるため、常に最新の状態に合わせたフィードバック制御を実現することができる。
つまり、あるコントローラ30を保持するユーザーが動的に変化しても、ユーザーの状態を示す情報、コントローラ30の姿勢を示す情報、およびユーザーと当該ユーザーが保持するコントローラ30との組み合わせを示す情報が更新されるため、常に最新の状況に合わせたフィードバック制御を実現することができる。
なお、図示は省略するが、ユーザーの人数が変化せず、コントローラ30を保持するユーザーが変化する場合についても同様である。何れの場合においても、ユーザーの人数が変化しても、コントローラ30を保持するユーザーが変化しても、特別な設定処理等を行うことなく、状況に合わせたフィードバック制御を実現することができる。
したがって、カメラユニット10を介したユーザー操作が行われた場合に、ユーザーの状態を示す情報とコントローラ30の姿勢を示す情報に基づいてコントローラ30へのフィードバック制御の制御値を算出することにより、レイテンシを抑えつつ、コントローラへの好適なフィードバック制御を実現する。
また、本発明の一実施形態のカメラユニット10は、ユーザーの状態およびコントローラ30の姿勢を推定してユーザー操作を受け付けることができるため、従来のポインティングデバイス方式の操作装置のようにカーソル位置を維持するためにユーザーの肉体疲労を引き起こすこともない。また、カメラユニット10は、従来の姿勢検出方式の操作装置のように認識対象となるマーカーやアタッチメントをユーザーに装着させる必要もない。
このような構成により、RGB画像信号113およびイベント信号123の生成から人物の状態の推定までをカメラユニット10で行い、サーバ50には推定した情報を出力することにより、クラウドサーバなどのサーバを用いたゲームシステムにおいても同様の効果を得ることができる。
Claims (7)
- センサ装置と、ユーザー操作を受け付けるコントローラと、前記ユーザー操作に基づいて処理を行う情報処理装置とを含むシステムであって、
前記センサ装置は、
所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサと、
画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサと、
前記第1画像信号と前記第2画像信号とに基づいて、ユーザーの状態と、当該ユーザーが保持する前記コントローラについて、前記ユーザーが前記コントローラのどの部分を把持しているか、および、前記コントローラが前記ユーザーに保持されている姿勢の少なくとも一方を含む前記コントローラの姿勢とを推定する推定部と、
前記ユーザーの状態を示す情報と前記コントローラの姿勢を示す情報とを出力する情報出力部とを備え、
前記情報処理装置は、
前記ユーザーの状態を示す情報と前記コントローラの姿勢を示す情報との少なくとも一方に基づいて、前記コントローラへのフィードバック制御の制御値を算出する制御値算出部を備え、
前記コントローラは、前記制御値に基づいて力覚を提示する力覚提示装置、前記制御値に基づいて振動する振動装置、または前記制御値に基づいて音声を出力する音声出力装置の少なくとも1つを有する、システム。 - 前記ユーザーの状態は、前記ユーザーの姿勢、前記ユーザーの腕の形状、または前記ユーザーの手指の形状の少なくとも1つを含む、請求項1に記載のシステム。
- 前記推定部は、複数の関節を有する人物の画像と、前記複数の関節の位置を示す座標情報との関係性を学習することによって構築された学習済みモデルに基づいて、前記第1画像信号に基づく第1画像に含まれる前記ユーザーの少なくとも1つの関節の座標情報を算出し、前記座標情報に基づいて前記ユーザーの状態を推定する、請求項1または請求項2に記載のシステム。
- 前記情報処理装置は、前記第1画像信号と前記第2画像信号との少なくとも一方に基づいて、被写界に含まれる1以上のユーザーを認識する第1認識部をさらに備え、
前記推定部は、前記第1認識部により認識した前記ユーザーごとに、前記ユーザーの状態と、当該ユーザーが保持する前記コントローラの姿勢とを推定する、請求項1から請求項3のいずれか1項に記載のシステム。 - 前記システムは複数の前記コントローラを含み、
前記情報処理装置は、前記第1認識部により認識した前記ユーザーごとに、当該ユーザーが保持する前記コントローラを認識する第2認識部をさらに備え、
前記情報出力部は、前記第1認識部により認識した前記ユーザーと、前記第2認識部により認識した前記コントローラとの組み合わせを示す情報を出力する、請求項4に記載のシステム。 - コントローラへのフィードバック制御の制御値を出力する情報処理方法であって、
所定のタイミングで全画素を同期的にスキャンする第1画像センサにより生成された第1画像信号と、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサにより生成された前記第2画像信号に基づいて、ユーザーの状態と、当該ユーザーが保持する前記コントローラについて、前記ユーザーが前記コントローラのどの部分を把持しているか、および、前記コントローラが前記ユーザーに保持されている姿勢の少なくとも一方を含む前記コントローラの姿勢とを推定する推定ステップと、
前記ユーザーの状態を示す情報と前記コントローラの姿勢を示す情報とを出力する情報出力ステップと
を含む情報処理方法。 - 所定のタイミングで全画素を同期的にスキャンする第1画像センサにより生成された第1画像信号と、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサにより生成された前記第2画像信号とに基づいて、ユーザーの状態と、当該ユーザーが保持するコントローラについて、前記ユーザーが前記コントローラのどの部分を把持しているか、および、前記コントローラが前記ユーザーに保持されている姿勢の少なくとも一方を含む前記コントローラの姿勢とを推定する機能と、
前記ユーザーの状態を示す情報と前記コントローラの姿勢を示す情報とを出力する機能と
をコンピュータに実現させる情報処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067660A JP7513564B2 (ja) | 2021-04-13 | 2021-04-13 | システム、情報処理方法および情報処理プログラム |
PCT/JP2022/013835 WO2022220048A1 (ja) | 2021-04-13 | 2022-03-24 | システム、情報処理方法および情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067660A JP7513564B2 (ja) | 2021-04-13 | 2021-04-13 | システム、情報処理方法および情報処理プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022162702A JP2022162702A (ja) | 2022-10-25 |
JP2022162702A5 JP2022162702A5 (ja) | 2023-04-18 |
JP7513564B2 true JP7513564B2 (ja) | 2024-07-09 |
Family
ID=83640587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021067660A Active JP7513564B2 (ja) | 2021-04-13 | 2021-04-13 | システム、情報処理方法および情報処理プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7513564B2 (ja) |
WO (1) | WO2022220048A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007296248A (ja) | 2006-05-02 | 2007-11-15 | Sony Computer Entertainment Inc | ゲーム装置 |
JP2012521039A (ja) | 2009-03-20 | 2012-09-10 | マイクロソフト コーポレーション | 仮想オブジェクトの操作 |
JP2015527627A (ja) | 2012-06-04 | 2015-09-17 | 株式会社ソニー・コンピュータエンタテインメント | マルチ画像インタラクティブゲーミングデバイス |
US20160187990A1 (en) | 2014-12-26 | 2016-06-30 | Samsung Electronics Co., Ltd. | Method and apparatus for processing gesture input |
-
2021
- 2021-04-13 JP JP2021067660A patent/JP7513564B2/ja active Active
-
2022
- 2022-03-24 WO PCT/JP2022/013835 patent/WO2022220048A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007296248A (ja) | 2006-05-02 | 2007-11-15 | Sony Computer Entertainment Inc | ゲーム装置 |
JP2012521039A (ja) | 2009-03-20 | 2012-09-10 | マイクロソフト コーポレーション | 仮想オブジェクトの操作 |
JP2015527627A (ja) | 2012-06-04 | 2015-09-17 | 株式会社ソニー・コンピュータエンタテインメント | マルチ画像インタラクティブゲーミングデバイス |
US20160187990A1 (en) | 2014-12-26 | 2016-06-30 | Samsung Electronics Co., Ltd. | Method and apparatus for processing gesture input |
Also Published As
Publication number | Publication date |
---|---|
JP2022162702A (ja) | 2022-10-25 |
WO2022220048A1 (ja) | 2022-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107533369B (zh) | 带有外围装置的手套指尖的磁性跟踪 | |
US9652038B2 (en) | Magnetic tracking of glove fingertips | |
US6862006B2 (en) | Image processing apparatus and image processing method, and image processing program and recording medium of the same | |
US11086392B1 (en) | Devices, systems, and methods for virtual representation of user interface devices | |
JP5927867B2 (ja) | 表示システム、及び操作入力方法 | |
JP2004213350A (ja) | 力覚提示装置及び画像補正方法 | |
WO2020110659A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10845895B1 (en) | Handheld controllers for artificial reality and related methods | |
US11630520B1 (en) | Systems and methods for sensing gestures via vibration-sensitive wearables donned by users of artificial reality systems | |
US11175731B1 (en) | Apparatus, system, and method for directional acoustic sensing via wearables donned by users of artificial reality systems | |
WO2019087564A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2003337962A (ja) | 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体 | |
JP2004318400A (ja) | 画像処理装置及び画像処理方法 | |
JP7513564B2 (ja) | システム、情報処理方法および情報処理プログラム | |
JP7300436B2 (ja) | 情報処理装置、システム、情報処理方法および情報処理プログラム | |
JPWO2019043787A1 (ja) | 振動制御装置 | |
JP2003308141A (ja) | 力覚提示装置 | |
JP7394046B2 (ja) | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム | |
US11550397B1 (en) | Systems and methods for simulating a sensation of expending effort in a virtual environment | |
JP7434207B2 (ja) | システム、情報処理方法および情報処理プログラム | |
WO2021145068A1 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム | |
JP6739254B2 (ja) | プログラム、情報処理装置、情報処理方法、及びサーバ装置 | |
JP2004318399A (ja) | 画像処理装置及び触覚・力覚提示方法 | |
WO2024090303A1 (ja) | 情報処理装置及び情報処理方法 | |
US20240184376A1 (en) | Control apparatus, control method, and control system for force-sense device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230410 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7513564 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |