[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010014712A - モーションキャプチャー装置及びモーションキャプチャー方法 - Google Patents

モーションキャプチャー装置及びモーションキャプチャー方法 Download PDF

Info

Publication number
JP2010014712A
JP2010014712A JP2009155856A JP2009155856A JP2010014712A JP 2010014712 A JP2010014712 A JP 2010014712A JP 2009155856 A JP2009155856 A JP 2009155856A JP 2009155856 A JP2009155856 A JP 2009155856A JP 2010014712 A JP2010014712 A JP 2010014712A
Authority
JP
Japan
Prior art keywords
motion capture
measurement sensor
fuselage
sensor
capture device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009155856A
Other languages
English (en)
Other versions
JP5657216B2 (ja
Inventor
Won-Chul Bang
遠 ▲チョル▼ 方
Hyong-Euk Lee
炯 旭 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010014712A publication Critical patent/JP2010014712A/ja
Application granted granted Critical
Publication of JP5657216B2 publication Critical patent/JP5657216B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Measurement Of Length, Angles, Or The Like Using Electric Or Magnetic Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】 モーションキャプチャー装置及びモーションキャプチャー方法を提供する。
【解決手段】 少数のセンサーを用いて効果的に3D仮想キャラクターのリアルタイム動作を生成する装置及び方法が開示される。より具体的に、本発明の一態様によるモーションキャプチャー方法は、胴体の動作を骨格モデルにマッピングして3次元仮想キャラクターの動作を生成するモーションキャプチャー方法において、胴体に付着される測定センサー及び測定基準位置を提供する基準センサーを用いて、該当部位に対する測定基準位置からの距離及び回転角を測定する段階及び測定された距離及び回転角を用いて、胴体の各部分に対する相対的な回転角及び位置座標を推定する段階を含みうる。
【選択図】 図1

Description

本発明は、モーションキャプチャー装置及び方法に係り、少数のセンサーを用いて3D仮想キャラクターのリアルタイム動作生成のための装置及び方法に関する。
多様なゲーム機が家庭に普及されるにつれて、ゲーム上に表われるキャラクターを操作するためのインターフェースに対する関心が日毎に高まりつつある。一例として、ジョイスティック、マウスのような機器を用いて画面上に表われるキャラクターを操作することが通常であるが、最近には人の動作に対応して仮想キャラクターが動く操作方式も登場した。
人の動作に対応する3次元仮想キャラクターの動作を生成するためには、まず、人の動作関節部位に該当する自由度を有した仮想関節及び定められた長さに対する骨格モデルを作ることが一般的である。そして、人の各関節部位に赤外線マーカーまたは慣性センサーを付着して、各関節の動く角度を測定した後、各関節の位置(x、y、z)及び角度(φ、θ、ψ)を用いて3D仮想キャラクターの動作を生成する。
図20は、人の動作を捕捉して証明するための一般的な方法を図示する。段階S2000で、センサー値は、胴体の各部に位置する多数のセンサーを通じて獲得される。このようなセンサーは、慣性センサーまたは赤外線マーカーになりうる。段階S2010で、位置と回転角は、測定された胴体の各部分に対する動きまたは位置から抽出される。このような場合、センサーが位置した胴体の各部分に対する位置及び回転角のみが決定されるために、モデリングのための胴体の関節数ほど多数のセンサーが必要となる。段階S2020で、抽出された位置と回転角は、仮想キャラクターの生成に使われる。
慣性センサーは、磁場センサーの追加及び測定された磁場情報によって再調整(recalibration)されることが可能である。ここで、トランスミッターは、一つ以上の磁気パルスを相異なる方向に放射する。例えば、それぞれ相異なる方向に磁場を発生する3個のコイルシステムによって相異なる磁気パルスが発生しうる。磁場デテクターは、慣性測定ユニットを再調整するためのトランスミッターの位置と関連した位置/方位情報を提供するために使われる。図20と同様に、それぞれのセンサーの位置及び方位変化は、モデリングされた胴体の各部とマッチされる。
胴体の骨格モデルと関連して、多数のセンサーを通じて得られた情報を通じて人の動作を3次元仮想キャラクターで比較的正確に表現することが可能である。しかし、そのためには、胴体に付着される多数のセンサーが必要である。また、このようにセンサーの数が多くなれば、測定値の訂正に多くの難しさが伴う。さらにコストの側面で、3Dゲームを支援する家庭用ゲームコンソールなどに適しない。例えば、このようなシステムでは、正確なモーションキャプチャーのためにOptoTrak(NDI)のような光学モーションキャプチャー装置が必要でもある。このような装置を使う場合、胴体に付着されたマーカーをキャプチャーするための多数のカメラシステムがさらに要求される。したがって、可能であれば、より少数のセンサーを使って胴体の動きを測定して3D仮想キャラクターを生成する必要性がある。
しかし、3次元仮想キャラクターの動作を自然に具現するためには、人の動き情報を可能な限り多く得なければならないために、多数のセンサーを人に付けて使うことが一般的である。しかし、センサーの数が多くなれば、初期測定を通じる補正作業が難しく、システム具現の単価側面でも高価の装備を必要とするので、ゲームのような応用システムのインターフェースとして利用するには適切ではない。
一般的に正確度が高いモーションキャプチャー装備が希望する場合、光学式モーションキャプチャー装備を使う方法があるが、この場合、カメラの視野確保のために外部に設けられるカメラの個数が増加する短所がある。
したがって、多様な応用分野に使用可能であり、可能な限り少数のセンサー情報を用いて効果的に3D仮想キャラクターの動作を生成することが重要である。
本発明では、少数のセンサーを用いて効果的に仮想キャラクターの動作を生成する装置及び方法が開示される。
本発明の一態様によるモーションキャプチャー装置は、胴体の一部に位置される測定センサーの測定値を用いて、測定センサーが位置していない胴体の一部の姿勢情報を推定する推定部を含みうる。
本発明の一態様によって、姿勢情報は、測定センサーが位置していない胴体の一部に対する少なくても1以上の回転角を含みうる。そして、測定センサーは、基準位置と測定センサーとの距離と測定センサーが位置した部分の回転角を測定することが可能である。本発明の一態様によって、胴体は、リンク構造を有する関節モデルとして解析されることができるが、推定部は、関節の回転中心と測定基準位置との距離を考慮して、姿勢情報を予測することが可能である。この際、回転中心は、リンクの先端部分のうち関節運動の中心となる部分になりうる。
また、推定部は、人の行動学的パターンを考慮して関節の回転角度を制限するか、状況による動作面を決定して、姿勢情報を推定することが可能である。
測定センサーは、胴体の頭、両手首及び両足首付近に位置または付着されることが可能であり、基準位置は、胴体の中心部または胴体の外部になりうる。
一方、本発明の一態様によるモーションキャプチャー方法は、胴体の部分に位置して基準位置までの距離を測定する測定センサーによって、基準位置と前記測定センサーとの距離表現及び測定センサーの少なくとも1以上の回転角に基づいて、測定センサーが位置する胴体の部分とは異なる胴体の多数部分の回転角を少なくとも1以上含む姿勢情報を推定する段階を含みうる。
また、本発明の他の様相によって前記モーションキャプチャー方法は、推定された姿勢情報を用いて胴体に対応する3次元仮想キャラクターを生成する段階をさらに含むことが可能である。
前記胴体の多数部分は、多数の運動自由度を有する前記胴体の第1部分を含み、前記胴体の第2部分に対する前記姿勢情報の推定は、前記第2部分から測定された姿勢情報に基づかないことがある。
測定センサーが位置する前記胴体の部分は、多数の運動自由度を有することが可能である。
前記測定センサーと前記基準位置との前記距離表現は、三角形の何れか一つの辺を定義し、前記三角形の他の二辺は、前記胴体の部分の間の距離として定義され、前記推定する段階は、前記三角形の少なくとも1以上の内角を定義することによって、前記姿勢情報を推定することが可能である。
また、前記推定する段階は、前記胴体の多数部分のうち何れか一つの選択可能な位置を表現するために、前記距離表現に基づいて平行四辺形を定義する段階を含み、前記平行四辺形の各辺は、前記胴体の部分の間の距離として定義されることが可能である。
また、前記推定する段階は、前記距離表現を半径で有する第1球と前記胴体の部分の間の距離を半径で有する第2球との交差点に基づいて、前記選択可能な位置のうちから何れか一つを前記胴体の多数部分のうち何れか一部分の位置に選択することが可能である。
また、前記推定する段階は、前記測定センサーが位置する前記胴体の部分に対する軸と前記胴体の多数部分に対する軸とを平面に投映して、前記胴体の多数部分に対する姿勢情報を推定することが可能である。
そして、基準センサーが基準位置情報を出力し、前記測定センサーが、前記基準センサーの出力を受信して、前記距離表現を測定することが可能である。この際、基準センサーは、前記胴体の基準位置部分に位置し、前記胴体の基準位置部分は、前記測定センサーが位置する前記胴体の部分及び前記測定センサーが位置していない前記胴体の多数部分とは異なりうる。
また、前記測定センサーは、それぞれ前記胴体の他の部位に位置する少なくとも4個の測定センサーを含み、前記少なくとも4個の測定センサーを用いて、前記姿勢情報が推定されることが可能である。
本発明の一態様によって、骨格モデルは、リンク構造を有する関節モデルで構成することができるが、推定段階で、前記リンク構造の回転中心と前記測定基準位置との距離が考慮されることが可能である。
本発明の一態様によって、回転中心をリンク構造の先端部分のうち関節運動の中心となる部分として定義する時、リンク構造の回転中心が測定基準位置付近に位置する場合、1自由度を有する関節の回転角を計算した後、3自由度を有する関節の回転角を計算して、姿勢情報を推定することが可能である。また、リンク構造の回転中心が測定基準位置から遠く離れて位置する場合、1自由度を有する関節の回転角及び回転軸候補を選定し、胴体の行動学的パターンが考慮された動作面を設定した後、残りの関節の回転角を計算して姿勢情報を推定することが可能である。
開示された内容によれば、少数のセンサーを用いて効果的に3D仮想キャラクターのリアルタイム動作を生成することが可能である。
本発明の一実施形態によるモーションキャプチャー装置の概略的な構成を表わす図である。 本発明の一実施形態による胴体の骨格モデルを表わす図である。 本発明の一実施形態によって測定センサーと基準センサーとが胴体に付着される位置を表わす図である。 本発明の一実施形態による基準座標系及び測定センサーの座標系を表わす図である。 本発明の一実施形態による骨格モデルの各部分に対する座標系を表わす図である。 本発明の一実施形態によって人が動いた時に獲得される情報を図示する図である。 本発明の一実施形態によってリンク構造にモデリングされた関節を図示する図である。 本発明の一実施形態によるモーションキャプチャー方法の全体的なフローチャートである。 本発明の一実施形態によって姿勢情報を推定する過程を図示する図である。 本発明の一実施形態によって頭及び胴体の動きを決定する過程を図示する図である。 本発明の一実施形態によって胴体の回転角を決定する過程を説明するために胴体を上側から図示した図である。 本発明の一実施形態によって体を前に曲げた時に胴体の回転角を決定する過程を説明するために胴体を側面から図示した図である。 本発明の一実施形態によって両足の動きを決定する過程を図示する図である。 本発明の一実施形態によって足の動きを決定する過程を説明するために胴体の足部分を図示した図である。 本発明の一実施形態によって両腕の動きを決定する過程を図示する図である。 本発明の一実施形態によって両腕の動きを決定する過程を説明するために胴体の腕部分を図示した図である。 本発明の一実施形態によって両腕の動きを決定する過程を説明するために胴体の腕部分を図示した図である。 本発明の一実施形態によって両腕の動きを決定する過程を説明するために胴体の腕部分を図示した図である。 本発明の一実施形態によって両腕の動きを決定する過程を説明するために胴体の腕部分を図示した図である。 人の動作を捕捉して証明するための一般的な方法を図示する図である。
以下、添付した図面を参照して、本発明の実施形態を詳しく説明する。本発明を説明するに当たって関連した公知機能または構成についての具体的な説明が、本発明の要旨を不明にする恐れがあると判断される場合には、その詳細な説明を省略する。また、後述する用語は、本発明での機能を考慮して定義された用語であって、これはユーザ、運用者の意図または慣例などによって変わりうる。したがって、その定義は、本明細書全般に亘った内容に基づいて下さなければならない。
図1は、本発明の一実施形態によるモーションキャプチャー装置の概略的な構成を図示する。
図1を参照するに、本発明の一実施形態によるモーションキャプチャー装置は、大きくセンサーモジュール101と計算モジュール102とで構成することができる。
センサーモジュール101は、胴体の各部分、例えば、関節に対する動き情報を感知することができ、基準センサー103と測定センサー104とを含みうる。本実施形態で、胴体とは、動きを推定することができるすべての物体になりうる。例えば、胴体は、人の胴体になりうる。センサーモジュール101で感知された胴体の動き情報は、計算モジュール102に伝達され、計算モジュール102は、伝達された情報を用いて胴体に対応する3次元仮想キャラクターまたは胴体の動作に対応する3次元仮想キャラクターの動作を生成することが可能である。このために、計算モジュール102は、測定部105、推定部106及び仮想キャラクター生成部107を含みうる。
測定センサー104は、胴体の各部分に位置し、その測定センサー104が位置した部分に対する動きを感知することが可能である。例えば、測定センサー104は、胴体の各部分に付着されることができる。また、基準センサー103は、測定センサー104で感知される動きに対する測定基準位置を提供することが可能であり、胴体の中心部または胴体の外部に位置されることができる。
例えば、胴体が人の胴体である場合、測定センサー104は、胴体の頭、両手首及び両足首に位置して、該当部位の動きを感知し、基準センサー103は、胴体(例えば、臍付近)に位置して、前記測定センサー104に対して測定基準位置を提供することが可能である。基準センサー104によって発生する基準位置は、すべての測定センサー104の全域基準を表わし、この基準位置は、いくつかになることもある。
測定部105は、測定センサー104と測定基準位置との距離を測定することが可能である。また、測定部105は、測定センサー104の回転角を測定することが可能である。ここで、回転角は、基準センサーの軸、既定の基準軸、または測定センサー104の相対的な回転軸と関連する。例えば、測定センサー104の回転角は、測定センサー104が位置した胴体の関節から離れた胴体の関節の軸と関連する。このような関節の軸としては、腕の肩または足の骨盤などになりうる。本実施形態で、このような回転角は、特定の座標係内で表現されることができるが、胴体の左/右方向はx−軸に、前/後方向はy−軸に、上/下の方向はz−軸に表わすことができる。
一実施形態によって、測定部105は、一つまたはそれ以上の測定センサー104と一体に形成されるか、測定センサー104との有無線連結を通じて前記距離及び回転角を測定することが可能である。一例として、測定部105は、測定センサー104からこの測定センサー104が位置した手首部分に対して、基準センサー104との距離及び手首の3次元回転角を測定することができる。
推定部106は、前記測定部105から測定された値、すなわち、該当部位の測定基準位置からの距離及び回転角を用いて、胴体の各部分に対する姿勢情報を推定することが可能である。例えば、胴体が人の胴体であり、測定センサー104が手首付近に位置する場合、推定部106は、測定された手首部位と基準センサー104との距離及び手首の回転角を用いて、手首、ヒジまたは肩部位に対する相対的な回転角及び各部分の位置座標を推定することが可能である。既存には、手首、ヒジ及び肩などに対する情報を得るためには、該当部位に測定センサーが付着されなければならなかったが、本実施形態によれば、手首に位置した測定センサーのみを用いて、残り部分の情報も分かることが可能である。
本実施形態で、胴体は、リンク構造を有するいくつかの関節として解析されることができる。推定部106は、このような関節の回転中心と測定基準位置との距離を考慮して姿勢情報を推定することができる。この際、前記回転中心とは、リンク構造の端部のうち関節運動の中心となる部分と定義されることができる。このような回転中心の例としては、腕運動においてその運動の中心となる肩部位または足運動においてその運動の中心となる骨盤部位などになりうる。
また、推定部106は、人の行動学的パターンを考慮して、推定可能な関節の回転角度を制限するか、状況による動作面(例えば、平面または曲面)を決定して、姿勢情報を推定することが可能である。
仮想キャラクター生成部107は、推定部106で算出された姿勢情報に基づいて、胴体に対応する3次元仮想キャラクターを生成する機能を行う。
本発明の一実施形態によって、推定部106で推定された姿勢情報及び/または仮想キャラクター生成部107で生成された3次元仮想キャラクター情報は、別途に保存及び管理されることが可能である。
図2は、本発明の一実施形態による人の骨格モデルを図示する。図2で、人は、1自由度を有する4個の関節108と3自由度を有する10個の関節109とにモデリングされた。人の動作が反映される骨格モデルは、リンク構造を有する関節モデル集合として解析されることができ、各関節と関節との間の骨格の長さ、すなわち、リンクの長さは、一般的な身体の比率またはユーザ設定値を考慮してあらかじめ定められることが可能である。この際、多数の関節のうちヒジとヒザ関節は1自由度を有し、残りの関節は3自由度を有すると見られる。そして、両足の骨盤側の関節と腰関節は、回転軸の中心が同一であると見られる。
図3は、測定センサー及び基準センサーの位置に対する一例を図示する。図3を参照するに、測定センサー104は、頭、両手首及び両足首に総5個が付着され、基準センサー103は、人の胴体の中心部に付着された。しかし、基準センサー103が、必ずしも人の胴体に付着されることに限定されるものではなく、胴体の外部に設けられることも可能である。この際、人が一定の動作を取れば、測定センサー104は、その動きを感知し、測定部105は、測定センサー104と基準センサー103との距離及び測定センサー104が付着された部位の3次元回転角を測定する。
例えば、各センサーには、磁気パルス受信装置、慣性センサー及びブルートゥースを利用した無線センサー情報伝送装置が装着されることができる。慣性センサーは、センサーを付着した軸の3次元角度を計算することが可能である。測定基準位置または基準センサー103から発生した磁場(magnetic field)は距離の三乗に反比例して減衰するので、磁場発生基準点で3次元直交軸に一定時間間隔で磁気パルスを送れば、受信位置でx、y、zの三つの軸の磁場減衰の大きさを測定することが可能であり、これを通じて測定基準位置から各測定センサー104までの相対距離を測定することができる。
この際、使われるセンサーの種類は、慣性センサーまたは磁気センサーに限るものではなく、人の身に付着された一点または外部の基準点から各センサーまでの相対距離と各センサーの回転角とを得ることができる多様なセンサー装置を含みうる。
図4は、前述した骨格モデル及びセンサーモジュールを用いて、基準座標系及び測定センサーに対する座標系を図示した図である。図4を参照するに、それぞれのセンサー座標系及び基準座標系の初期値は、z軸が重力方向、y軸が正面方向、x軸は左側方向に設定されているということが分かる。
そして、z軸の回転角をψ、y軸の回転角をθ、x軸の回転角をφとして表わすことができる。例えば、5個の測定センサーの回転角は、それぞれ(φ、θ、ψ)、(φ、θ、ψ)、(φ、θ、ψ)、(φ、θ、ψ)、及び(φ、θ、ψ)などのように表わすことができる。また、基準センサーの回転角は、(φ、θ、ψ)のように表わすことができる。しかし、座標系の初期値が、これに限定されるものではなく、計算便宜または使用目的によって多様な方向の座標系を設定して使うこともできる。
図5は、人の動作を仮想キャラクターの動作に再現するために各関節部位に設定された座標系を図示する。図5で、初期整列状態は、人が正面に向け、手を伸ばして気を付け姿勢で立っている状態であると仮定し、この際、正面凝視方向及び二つの足の方向はy軸方向になり、右側の手の甲の方向は−x方向、左側の手の甲の方向はx方向を示すようになる。また、ヒジとヒザとの回転は、1自由度、すなわち、x軸に対する回転自由度φのみを有するようになる。
本発明の一実施形態によって、頭の座標は、CC1(xc1、y c1、z c1)、胴の座標は、CC2(xc2、y c2、z c2)、右側肩の座標は、CR1(xR1、y R1、z R1)、右側ヒジの座標は、CR2(x R2、yR2、zR2)、右側手首の座標は、CR3(xR3、yR3、zR3)、右側骨盤の座標は、CR4(xR4、yR4、zR4)、右側ヒザの座標は、CR5(xR5、yR5、zR5)、右側足首の座標は、CR6(xR6、yR6、zR6)のようにそれぞれ表わすことができる。同様に、L添字は、左側の各部分の座標を表わす。
また、各部分に対する回転角は、CC1(φc1、θc1、ψc1)、CC2(φc2、θc2、ψc2)、CR1(φR1、θR1、ψR1)、CR2(φR2、θR2、ψR2)、CR3(φR3、θR3、ψR3)、CR4(φR4、θR4、ψR4)、CR5(φR5、θR5、ψR5)、CR6(φR6、θR6、ψR6)、CL1(φL1、θL1、ψL1)、CL2(φL2、θL2、ψL2)、CL3(φL3、θL3、ψL3)、CL4(φL4、θL4、ψL4)、CL5(φL5、θL5、ψL5)、CL6(φL6、θL6、ψL6)などのように表わすことができる。
また、dは、胴体の各部分の間の距離を表わす。例えば、dc1は、頭と首との間の距離になりうる。
図6は、本発明の一実施形態によるモーションキャプチャー装置を装着した人が動いた時に取得される情報を図示した図である。例えば、r1は、頭に位置した測定センサー104と胴中央に位置した基準センサー103との距離を表わし、(φ、θ、ψ)は、頭の回転角を表わすことができる。このような情報は、測定センサー104が位置した胴体の多数部分から得られることが可能であり、測定センサー104が位置した部分に対する測定基準位置からの距離及び3次元回転角になりうる。
測定部105で得られた図6のような情報は、推定部106に伝達され、推定部106は、伝達された情報に基づいて、図5に該当する各関節の情報を計算することが可能である。通常、不十分な関節の情報のみで人の全体動作を唯一に決定することが容易ではないが、人の行動学的パターンを考慮して応用システムに対して適切な仮定を置けば、使われるセンサーの数を減らしても効果的に3次元仮想キャラクターの動作を生成することが可能である。
図7を参照して、胴体の一部分に対する姿勢情報を予測する原理を簡単に説明する。図7は、本発明の一実施形態によって胴体のある一部分をリンク構造で表現したものである。例えば、図7の構造は、腕構造になり、この際、回転中心201は肩を、第1関節202はヒジを、第2関節203は手首に対応すると見られる。
第1関節202であるヒジは、人の行動学的パターンを考慮する時、1自由度、すなわち、x軸方向の回転運動のみあると仮定しても自然な腕の動作を生成することができる。また、第2関節203である手首の動きは、その付近に位置した測定センサー104の測定値をそのまま用いても良い。また、胴体の比率を考慮して関節の間の距離d1、d2は既定されている。
このような仮定下で、基準センサー103と測定センサー104との距離r及び測定センサー104が付着された部分の3次元回転角φ、θ、ψを用いて、各関節部位、例えば、201、202、203の相対的な回転角を計算し、該計算された相対的な回転角に基づいて、順運動学(forward kinematic)技法を通じて各関節部位の位置座標を計算することが可能である。
この際、基準センサー103と回転中心201との距離は、遠いか、近い。例えば、基準センサー103が、胴体の胴体に付着され、図7の構造が足構造と仮定すれば、回転中心201が基準センサー103の付近に位置する。しかし、図7の構造が腕構造と仮定すれば、回転中心201が基準センサー103から遠く離れて位置する。このような場合、推定部106は、各関節部位の姿勢情報、すなわち、相対的な回転角及び位置座標を推定または計算する時、回転中心201と基準センサー103との距離を考慮することが可能であり、その具体的な過程については後述する。
図8は、本発明の一実施形態によるモーションキャプチャー方法を示すフローチャートである。このようなモーションキャプチャー方法は、前述した本発明の一実施形態によるモーションキャプチャー装置を通じて胴体の動作を骨格モデルにマッピングして3次元仮想キャラクターの動作を生成する場合に利用されうる。
図8を参照するに、本発明の一実施形態によるモーションキャプチャー方法は、測定段階(S101)、推定段階(S102)及び生成段階(S103)を含みうる。
測定段階(S101)は、胴体の一部に位置される測定センサー及び測定基準位置を提供する基準センサーを用いて、距離表現及び回転角を測定する段階である。ここで、距離表現は、測定センサーと基準位置との距離になり、回転角は、測定センサーが位置する部分の回転角になりうる。
推定段階(S102)は、前記測定段階(S101)から測定された前記距離及び回転角を用いて、胴体の各部分に対する相対的な回転角及び位置座標を推定する段階である。ここで、胴体の各部分は、前記測定センサー付着部分及び前記測定センサー未付着部分のいずれにもなりうる。
推定段階(S102)と関連して、胴体は、リンク構造を有する骨格モデルに対応することができるが、推定段階(S102)では、リンク構造の特徴またはリンク構造の回転中心と測定基準位置との距離などを考慮して、前記相対的な回転角及び位置座標を計算することが可能である。
図9を参照して、これをさらに詳細に説明する。図9は、前述した推定部106が、各関節部位の姿勢情報を計算する過程に対する一例を表わしたものである。
このような過程は、まず、該当部位に対するリンク構造の特徴を判断することから始まる(S201)。例えば、胴体−頭ラインは2リンク構造で見られ、肩−ヒジ−手首ラインに繋がる腕は3リンク構造で見られる。段階S201で、該当部位が3リンクではない場合(例えば、2リンク構造である胴体−頭ラインである場合)、1自由度を有する関節(例えば、首関節)の回転角を計算し(S202)、残りの骨格モデル(例えば、胴体及び頭部分)に対する位置/角度を計算することが可能である(S209)。
また、段階S201で、該当部位が3リンクである場合(例えば、肩−ヒジ−手首ラインに繋がる腕または骨盤−ヒザ−足首ラインに繋がる足など)、回転中心と測定基準位置との距離が近いか否かを判断する(S203)。例えば、測定基準位置が胴体の中央部(例えば、臍)であれば、足は回転中心(すなわち、骨盤部位)が測定基準位置と近いと判断し、腕は回転中心(すなわち、肩部位)が測定基準位置と遠いと判断することができる。
回転中心が測定基準位置付近にある場合、1自由度を有する関節(例えば、ヒザ)の回転角を計算し(S204)、残りの3自由度を有する関節(例えば、骨盤、足首)に対する回転角を計算することが可能である(S205)。以後、各関節の回転角に基づいて、骨格モデルの位置/角度を計算する(S209)。
回転中心が測定基準位置付近にいない場合、1自由度を有する関節(例えば、ヒジ)の回転角及び回転軸の候補を選定し(S206)、状況による動作面を設定した後(S207)、各関節(例えば、手首、ヒジ、肩)の回転角を計算することが可能である(S208)。以後、同様に各関節の回転角に基づいて、骨格モデルの位置/角度を計算する(S209)。
このような計算過程において、関節の回転角を計算する時、人の行動学的パターンを考慮して動作範囲または回転範囲に一定の制限を置くか、状況情報(例えば、机で字を書く動作、ゴルフクラブをスイングする動作、歩く動作など)を考慮して適切な動作面を設定することが可能である。
再び図8で、前記推定過程(S102)を通じて骨格モデルの各部分に対する相対的な回転角及び位置座標が計算されれば、このような情報を骨格モデルにマッピングさせて3次元仮想キャラクターを生成することが可能である(S103)。例えば、前記生成段階(S103)は、得られた関節の各情報と3Dグラフィックエンジンとを使って仮想キャラクターを画面に可視化する過程を意味することができる。一例として、可視化過程は、商用グラフィックライブラリーであるOpen Inventor(by Silicon Graphics,Inc)のシーングラフ(Scene Graph)概念を用いて具現可能である。人の骨格モデルは、頭または腰軸を中心に周辺に連結されているリンクの長さと回転角とを有するデータツリー(data tree)形態に構成することができ、これは、グラフィックライブラリーで容易に動作として具現される。また、これに対する下位グラフィックライブラリーであるOpenGLを用いて具現することも可能である。但し、本発明における可視化の方法は、特定グラフィックライブラリーに制限するものではない。
また、このように生成された仮想キャラクターは、ゲームまたはテレビの画面上で背景に挿入されてゲームキャラクターとして応用が可能であり、与えられた骨格モデルにテクスチャ(texture)マッピングを通じてより人に近い形状に表現されるか、他のキャラクターで描写されうる。
また、図8で詳しく図示しなかったが、可視化する過程で動く動作を柔らかくするために、動作と動作との間を連結する補間アルゴリズムが追加されることができる。これは、適用しようとする応用プラットホームの計算性能の限界にある程度以上のサンプリング頻度(frequency)を期待することができない時に適用可能である。
以下では、胴体の各部分に対する姿勢情報を算出する過程をより細部的に説明する。この際、胴体の各部分に対する座標系は、図4ないし図6で例示した座標系を使い、測定基準位置は、胴体の中心部(例えば、臍付近)に位置すると仮定する。
細部過程1−1:頭及び胴体の動作決定(回転角決定)
頭及び胴体の回転角を決定するための過程は、図10で図示されたものと同じである。
頭のz軸回転方向は、頭に付着される測定センサーで得られた回転値を全く同じく使う。すなわち、ψC1=ψの関係が成立する。
次いで、与えられた情報から胴体の方向を決定する。この過程で、動作を通じて人の意図を伝達することは、腕、足及び頭の動作が主となることを勘案する時、胴体は自然な動きを表わすように状況に合わせて適切に方向を決定する。
このために、まず、z軸に対する動きであるψC2を決定する。
図11は、このような胴体の回転角ψC2を決定する過程を説明するために、人を上から見下ろしたことを表わしたもので、頭、右足首及び左足首が示す正面方向は、それぞれ軸yc1’、yR6’、yL6’が示す方向に、水平面に対する回転角は、z軸に対する回転角であるψとして表わすことができる。
人の動作を観察すれば、人の首は、胴体を基準に左右に90°以上を回すことができず、人の足首も、胴体を基準に90°以上を回すことができない。そして、足取りと基本的な動作だけではなく、ゴルフや格闘技のような動作を分析する時、両つま先が向かう方向ベクトルと視線(すなわち、頭の方向)が向かう方向ベクトルとの平均を胴体が向かう方向に見ることが自然である。これを利用すれば、胴体のψC2は、センサーで測定しなくても、次のように方向を推定することが可能である。
ψC2=(kψC1+kψ+kψ)/(k+k+k
前記式で、それぞれのk値は一定の加重値を表わし、ψ及びψは足首から測定されたセンサー値を表わす。ψC1値は、センサー座標系1で得られた回転値を全く同じく使うことができるので、前記式を通じて胴体の回転角を推定することが可能である。
細部過程1−2:頭及び胴体の動作決定(x軸方向の動き決定)
頭及び胴体のx軸方向の動き(例えば、前に下げること)は、図12で図示されたように求めることができる。
図12を参照して、胴体の回転角φc2を決定する過程を説明すれば、まず、頭を下げずに体のみ下げる場合は、x軸に対する回転角φc1と頭に付着された測定センサーの測定値φと同じであると見られる。しかし、首を下げる場合は、胴体、首、頭を頂点で有する三角形が生じるが、関節間の長さは既定されており、胴体と頭との距離は測定が可能であるので、三角形の三辺の長さを求めうる。このように、三角形の三辺の長さが与えられるので、三角形の三つの内角が分かり、これから△φc2を求めうる。したがって、胴体の回転角のうちφc2は、(φ1−△φc2)を通じて求めることができる。前述した例で、頭を下げたか否かは、胴体と頭との距離と各関節の長さとの和を比べて判断することが可能である。例えば、頭を下げない場合には、r’=dc1+dc2になり、頭を下げる場合には、r’>dc1+dc2になる。
細部過程1−3:頭及び胴体の動作決定(y軸方向の動き決定)
胴体のy軸に対する回転角θc2及び頭のy軸に対する回転角θc1に対することは、細部過程1−2とその方向のみ異なり、残りは同一であるので、詳しい説明は省略する。
細部過程2:両足の動作決定
両足の回転角を決定するための過程は、図13で図示されたものと同じである。
説明の便宜上、図14で示すように右足を基準に説明する。足は、骨盤側の3自由度と足首の3自由度、そして、ヒザの1自由度として総7個の自由度を有する。この場合、足首の3自由度座標系R6が脛側に付いて動くと仮定しても、動作の概形を表現することには問題がない。したがって、脛と足首は付いていると仮定する。
この場合、ヒザ関節は、x’軸に対して動く1自由度を有しており、z軸はいずれも同じ線上にあるために、y軸とz軸とに対する回転角はセンサー測定値と同じ値を有する。すなわち、θR4=θR6=θ、ψR4=ψR6=ψの関係を有するようになる。そして、足首と脛は、固定されていると仮定したので、φR6=φの関係を有する。また、rは測定が可能であり、dR5及びdR6は既定の値であるので、このような三角形の三辺の長さから三つの内角を求めることが可能である。引き続き、この三角形の方向は、重力方向に対してφR6ほど動いたので、これからヒザの回転角度を計算してφR5を求めることが可能である。
前記過程は、測定基準位置が臍または骨盤である場合を仮定したものであって、足の回転中心と測定基準位置とが近い場合に関するものである。もし、測定基準位置が回転軸付近に位置していない場合には、後述する腕の動作を決定する過程と類似した方法が利用されうる。
また、左足の場合は、これと対称になる構造を有しているので、同じ過程によって動作を決定することができる。
細部過程3−1:両腕の動作決定
両腕の回転角を決定するための過程は、図15に図示されたものと同じである。
説明の便宜上、右腕を基準に説明する。前記細部過程2と同様に手首の細部動きを考慮する場合ではないとすれば、腕首から手首に繋がる軸と手首の軸は固定されていると仮定しても、自然な腕動作を具現するのに問題がない。したがって、腕の動きを決定するのに重要なのは、センサー情報から肩の3自由度座標系R1とヒジの回転角φR2とである。
図16を参照するに、人の腕の動作は、xR3軸に対する動きであるφR3の動きが最も多く制限されることが分かる。したがって、腕の自然な動きのための運動範囲を最大限に多く保証するためには、ヒジの回転自由度軸xR2が手首のxR3軸と平行にし、肩−ヒジ−手首に繋がる三つの関節が平面Pに置かれるようにすれば良い。
一方、手首の動きでzR3軸に対する動きであるψR3を観察すれば、ψR3は+πから−π/2の範囲で動作が制限されるということが分かる。ここで、ψR3が0より大きい場合には、手を下に下げた状態で手の甲を体の内側に回す場合であり、ψR3が0より小さな場合には、手の甲を体の外側に回す場合である。ψR3が0以上である場合は、前述したようにヒジの回転自由度軸xR2をxR3と平行にさせれば、自然な動きを演出することができるが、その反対の場合(例えば、手の平が上に向けるようになる場合)は、図17のようにxR2をyR3と平行にさせることがさらに自然な動きを表現させうる。
したがって、腕動作は、図16及び図17の二つの場合に対して決定されなければならない。
細部過程3−2:両腕の動作決定(ψ R3 ≧0)
まず、ψR3が0より大きいか同じである場合は、図18と同じである。
図18を参照するに、点Aから出発する半直線ベクトル
Figure 2010014712
が平面P上にあり、
Figure 2010014712
でなければならない。この場合、四角形ADEFが一平面で平行四辺形を成す点Fを捜し出すことができ、∠ADE≦πであるので、Fは唯一の解を有する。また、骨格モデル
Figure 2010014712
は固定された長さdr1、dc2を有しており、三角形ABCが成す平面の法線ベクトルは細部過程2を通じて決定されるので、基準点Bに対して
Figure 2010014712
でFの位置と方向とを決定することができる。この場合、平面ADEFで点Fを中心に距離dr2である円と基準点Bから距離rである円の交集合を見れば、解が二つ生じることができるが、この場合、腕を自然に広げることができるように、∠AFX(=∠ADE)が大きい側を選択する。次いで、Eの位置が決定され、これからAFの方向ベクトルが分かっているので、Dの位置が分かるようになって右腕関節の形状を決定させうる。
細部過程3−2:両腕の動作決定(ψ R3 <0)
ψR3が0より小さい場合(例えば、手の甲を外側に回転させる場合)は、図19と同じである。
図19を参照するに、点Aから出発する半直線ベクトル
Figure 2010014712
が平面P上にあり、
Figure 2010014712
でなければならない。この場合、四角形ADEFが一平面で平行四辺形を成す点Dを捜し出すことができ、∠AFE≦πであるので、Fは唯一の解を有する。また、骨格モデルで
Figure 2010014712
は固定された長さdr1、dc2を有しており、三角形ABCが成す平面の法線ベクトルは細部過程2で決定されたので、基準点Bに対して
Figure 2010014712
でDの位置と方向とを決定することができる。
この場合、平面ADEFで点Dを中心に距離dr2である円と点Bから距離rである円の交集合を見れば、解が二つ生じることができるが、この場合、腕を自然に広げることができるように、∠ADX(=∠AFE)が大きい側を選択する。次いで、Eの位置が決定され、これからADの方向ベクトルが分かっているので、Fの位置が分かるようになって腕関節の形状を決定させうる。
前述した腕の動作を決定する過程は、測定基準位置が臍または骨盤に位置することを仮定したものである。すなわち、測定基準位置と腕の回転中心が遠い場合に関する説明であって、もし、これと異なって、測定基準位置が腕の回転中心の付近に位置すれば(例えば、測定基準位置=胸または肩)、前述した足の動作を決定する過程と類似した過程を通じて腕の動作を決定することができる。
以上の過程を通じて、与えられたセンサー情報と動作表現の自由度に対する適切な仮定に基づいた関節角計算を通じて3次元仮想キャラクターの動作表現のための関節角を予測することが可能である。
また、前述した過程の以外にも、応用プラットホームで動作がより自然に表現させる過程がさらに遂行されることができる。一例として、ゴルフ動作の場合、手の形状はゴルフグリップをする姿勢に作ることができ、人が座った場合は、座っている姿勢によって一側の足指部位を自然に曲がる形状にしうる。そして、格闘ゲームのための仮想キャラクターのモデルの場合は、キャラクターの属性に合わせて、手が前に出る場合は、自然に拳を握るように細部動作を設定することができ、仮想キャラクターで設定された複雑な動きは速度や動作面で人が実際に表現しにくいことがあるので、これについては、基本動作に対する仮想キャラクター動作のマッピングから容易に具現することができる。
言い換えれば、人の動作の概形と細部動作とを区分することによって、センサーから取得される情報を最小化し、人の動作に対する適切な仮定を置くことで最小化された情報から効果的に動作を生成することが可能であり、また、動作の階層的構造を用いて生成された動作が、応用プラットホームでより自然に表現させることが可能である。
一方、本発明の実施形態は、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取れるデータが保存されるあらゆる種類の記録装置を含む。
コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがあり、また、キャリアウエーブ(例えば、インターネットを通じる伝送)の形態で具現することを含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークで連結されたコンピュータシステムに分散されて、分散方式でコンピュータで読み取り可能なコードが保存されて実行可能である。そして、発明を具現するための機能的な(functional)プログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマーによって容易に推論されうる。
以上、本発明の実施形態について説明したが、本発明は、前述した特定の実施形態に限定されない。すなわち、当業者ならば、特許請求の範囲の思想及び範疇を逸脱せずに、本発明に対する多様な変更及び修正が可能であり、そのようなすべての適切な変更及び修正の均等物も、本発明の範囲に属するものと見なされなければならない。
本発明は、モーションキャプチャー装置及び方法に関連の技術分野に適用可能である。
101 センサーモジュール
102 計算モジュール
103 基準センサー
104 測定センサー
105 測定部
106 推定部
107 仮想キャラクター生成部
108 1自由度関節
109 3自由度関節
201 回転中心
202 第1関節
203 第2関節

Claims (52)

  1. 胴体の部分に位置して基準位置までの距離を測定する測定センサーによって、前記基準位置と前記測定センサーとの距離表現及び前記測定センサーの少なくとも1以上の回転角に基づいて、前記測定センサーが位置する前記胴体の部分とは異なる前記胴体の多数部分の回転角を少なくとも1以上含む姿勢情報を推定する推定部を含むことを特徴とするモーションキャプチャー装置。
  2. 前記胴体の多数部分は、多数の運動自由度を有する前記胴体の第1部分を含み、前記胴体の第2部分に対する前記姿勢情報の推定は、前記第2部分から測定された姿勢情報に基づかないことを特徴とする請求項1に記載のモーションキャプチャー装置。
  3. 前記測定センサーが位置する前記胴体の部分は、多数の運動自由度を有することを特徴とする請求項2に記載のモーションキャプチャー装置。
  4. 前記測定センサーと前記基準位置との前記距離表現は、三角形の何れか一つの辺を定義し、前記三角形の他の二辺は、前記胴体の部分の間の距離と定義され、前記推定部は、前記三角形の少なくとも1以上の内角を定義することによって、前記姿勢情報を推定することを特徴とする請求項1に記載のモーションキャプチャー装置。
  5. 前記推定部は、
    前記胴体の多数部分のうち何れか一つの選択可能な位置を表現するために、前記距離表現に基づいて平行四辺形を定義し、前記平行四辺形の各辺は、前記胴体の部分の間の距離として定義されることを特徴とする請求項1に記載のモーションキャプチャー装置。
  6. 前記推定部は、
    前記距離表現を半径で有する第1球と前記胴体の部分の間の距離を半径で有する第2球との交差点に基づいて、前記選択可能な位置のうちから何れか一つを前記胴体の多数部分のうち何れか一部分の位置に選択することを特徴とする請求項5に記載のモーションキャプチャー装置。
  7. 前記推定部は、
    前記測定センサーが位置する前記胴体の部分に対する軸と前記胴体の多数部分に対する軸とを平面に投映して、前記胴体の多数部分に対する姿勢情報を推定することを特徴とする請求項1に記載のモーションキャプチャー装置。
  8. 前記胴体の部分に位置し、前記距離表現を測定する測定センサーとをさらに含むことを特徴とする請求項1に記載のモーションキャプチャー装置。
  9. 基準位置情報を出力する基準センサーをさらに含み、
    前記測定センサーは、前記距離表現を測定するために、前記基準センサーの出力を受信することを特徴とする請求項8に記載のモーションキャプチャー装置。
  10. 前記基準センサーは、
    前記基準位置に位置することを特徴とする請求項9に記載のモーションキャプチャー装置。
  11. 前記基準センサーは、
    前記胴体に位置することを特徴とする請求項10に記載のモーションキャプチャー装置。
  12. 前記基準センサーは、
    前記胴体の基準位置部分に位置し、前記胴体の基準位置部分は、前記測定センサーが位置する前記胴体の部分及び前記測定センサーが位置していない前記胴体の多数部分とは異なることを特徴とする請求項11に記載のモーションキャプチャー装置。
  13. 前記測定センサーは、
    それぞれ相異なる前記胴体の部分に位置する少なくとも4個の測定センサーを含み、前記推定部は、前記少なくとも4個の測定センサーを用いて、前記姿勢情報を推定することを特徴とする請求項12に記載のモーションキャプチャー装置。
  14. それぞれ相異なる前記胴体の部分に位置する少なくとも4個の測定センサーを含む測定センサーをさらに含み、
    前記推定部は、前記少なくとも4個の測定センサーを用いて、前記姿勢情報を推定することを特徴とする請求項1に記載のモーションキャプチャー装置。
  15. 前記胴体の部分に位置し、前記距離表現を測定する測定センサーをさらに含み、
    前記測定センサーは、測定された慣性情報に基づいて、前記測定センサーが位置した前記胴体の部分に対する位置及び回転角を得る慣性センサーを含むことを特徴とする請求項1に記載のモーションキャプチャー装置。
  16. 前記慣性センサーは、
    少なくとも1以上の軸に対する加速度及び角速度を測定し、前記慣性情報は、測定された加速度及び角速度を含むことを特徴とする請求項15に記載のモーションキャプチャー装置。
  17. 前記姿勢情報は、
    前記胴体の多数部分に対する回転角及び位置座標を含み、前記測定センサーは、前記測定センサーが位置する前記胴体の部分に対する姿勢情報を測定することを特徴とする請求項1に記載のモーションキャプチャー装置。
  18. 前記姿勢情報は、
    前記胴体をリンク構造を有する骨格モデルとして解析して推定されることを特徴とする請求項1に記載のモーションキャプチャー装置。
  19. 前記リンクの先端地点中で関節運動の中心となる地点が回転中心と定義され、前記推定部は、前記回転中心と前記基準位置との距離を考慮して、前記姿勢情報を推定することを特徴とする請求項18に記載のモーションキャプチャー装置。
  20. 前記推定部は、
    人の行動学的パターンを考慮して関節の回転角度を制限するか、状況による動作面を決定して、前記相対的な回転角及び位置座標を推定することを特徴とする請求項1に記載のモーションキャプチャー装置。
  21. 前記測定センサーは、
    前記胴体の頭、手首、及び足首に位置されることを特徴とする請求項1に記載のモーションキャプチャー装置。
  22. 前記測定センサーは、
    前記胴体の手首及び足首に隣接した部位にそれぞれ付着されることを特徴とする請求項21に記載のモーションキャプチャー装置。
  23. 前記基準位置は、
    前記胴体の中心部であることを特徴とする請求項1に記載のモーションキャプチャー装置。
  24. 前記胴体は、
    人の胴体であることを特徴とする請求項1に記載のモーションキャプチャー装置。
  25. 3次元仮想キャラクターの動作を生成するために胴体の運動を骨格モデルにマッピングするモーションキャプチャー方法において、
    胴体の部分に位置して基準位置までの距離を測定する測定センサーによって、前記基準位置と前記測定センサーとの距離表現及び前記測定センサーの少なくとも1以上の回転角に基づいて、前記測定センサーが位置する前記胴体の部分とは異なる前記胴体の多数部分の回転角を少なくとも1以上含む姿勢情報を推定する段階を含むことを特徴とするモーションキャプチャー方法。
  26. 前記胴体の多数部分は、多数の運動自由度を有する前記胴体の第1部分を含み、前記胴体の第2部分に対する前記姿勢情報の推定は、前記第2部分から測定された姿勢情報に基づかないことを特徴とする請求項25に記載のモーションキャプチャー方法。
  27. 前記測定センサーが位置する前記胴体の部分は、多数の運動自由度を有することを特徴とする請求項26に記載のモーションキャプチャー方法。
  28. 前記測定センサーと前記基準位置との前記距離表現は、三角形の何れか一つの辺を定義し、前記三角形の他の二辺は、前記胴体の部分の間の距離として定義され、前記推定する段階は、前記三角形の少なくとも1以上の内角を定義することによって、前記姿勢情報を推定することを特徴とする請求項25に記載のモーションキャプチャー方法。
  29. 前記推定する段階は、
    前記胴体の多数部分のうち何れか一つの選択可能な位置を表現するために、前記距離表現に基づいて平行四辺形を定義する段階を含み、前記平行四辺形の各辺は、前記胴体の部分の間の距離として定義されることを特徴とする請求項25に記載のモーションキャプチャー方法。
  30. 前記推定する段階は、
    前記距離表現を半径で有する第1球と前記胴体の部分の間の距離を半径で有する第2球との交差点に基づいて、前記選択可能な位置のうちから何れか一つを前記胴体の多数部分のうち何れか一部分の位置に選択する段階を含むことを特徴とする請求項29に記載のモーションキャプチャー方法。
  31. 前記推定する段階は、
    前記測定センサーが位置する前記胴体の部分に対する軸と前記胴体の多数部分に対する軸とを平面に投映して、前記胴体の多数部分に対する姿勢情報を推定する段階を含むことを特徴とする請求項25に記載のモーションキャプチャー方法。
  32. 基準センサーが基準位置情報を出力し、前記測定センサーが前記基準センサーの出力を受信して、前記距離表現を測定することを特徴とする請求項25に記載のモーションキャプチャー方法。
  33. 前記基準センサーは、
    前記基準位置に位置することを特徴とする請求項32に記載のモーションキャプチャー方法。
  34. 前記基準センサーは、
    前記胴体に位置することを特徴とする請求項33に記載のモーションキャプチャー方法。
  35. 前記基準センサーは、
    前記胴体の基準位置部分に位置し、前記胴体の基準位置部分は、前記測定センサーが位置する前記胴体の部分及び前記測定センサーが位置していない前記胴体の多数部分とは異なることを特徴とする請求項34に記載のモーションキャプチャー方法。
  36. 前記測定センサーは、
    それぞれ前記胴体の他の部位に位置する少なくとも4個の測定センサーを含み、前記推定する段階は、前記少なくとも4個の測定センサーを用いて、前記姿勢情報を推定することを特徴とする請求項35に記載のモーションキャプチャー方法。
  37. 前記測定センサーは、それぞれ前記胴体の他の部位に位置する少なくとも4個の測定センサーを含み、前記推定する段階は、前記少なくとも4個の測定センサーを用いて、前記姿勢情報を推定することを特徴とする請求項25に記載のモーションキャプチャー方法。
  38. 前記姿勢情報を用いて、前記胴体に対応する3次元仮想キャラクターを生成する段階をさらに含むことを特徴とする請求項25に記載のモーションキャプチャー方法。
  39. 前記姿勢情報は、
    前記胴体をリンク構造を有する骨格モデルとして解析して推定されることを特徴とする請求項25に記載のモーションキャプチャー方法。
  40. 前記リンクの先端地点中で関節運動の中心となる地点が回転中心と定義され、前記推定する段階は、前記回転中心と前記基準位置との距離を考慮して、前記姿勢情報を推定することを特徴とする請求項39に記載のモーションキャプチャー方法。
  41. 前記回転中心が、前記基準位置である場合、1自由度を有する関節の回転角が3自由度を有する関節の回転角より先に計算されることを特徴とする請求項40に記載のモーションキャプチャー方法。
  42. 前記回転中心が、前記基準位置ではない場合、1自由度を有する関節の回転角及び回転軸候補を選定し、前記胴体の行動学的パターンが考慮された動作面を設定した後、残りの関節の回転角を計算することを特徴とする請求項40に記載のモーションキャプチャー方法。
  43. 前記推定する段階は、
    人の行動学的パターンを考慮して関節の回転角度を制限するか、状況による動作面を決定して、前記相対的な回転角及び位置座標を推定することを特徴とする請求項25に記載のモーションキャプチャー方法。
  44. 前記測定センサーは、
    前記胴体の頭、手首、及び足首に位置されることを特徴とする請求項25に記載のモーションキャプチャー方法。
  45. 前記測定センサーは、
    前記胴体の手首及び足首に隣接した部位にそれぞれ付着されることを特徴とする請求項44に記載のモーションキャプチャー方法。
  46. 前記基準位置は、
    前記胴体の中心部であることを特徴とする請求項25に記載のモーションキャプチャー方法。
  47. 請求項25による方法を行うためのコードが記録されたコンピュータが判読可能な記録媒体。
  48. 多数の測定センサーによって測定された少なくとも1以上の距離表現及び回転角に基づいて、胴体の非−末端部分の回転角を少なくとも1以上含む姿勢情報を推定する推定部を含み、
    前記非−末端部分は、両ヒジ、両肩、両ヒザ、及び骨盤のうち少なくとも何れか一つを含み、前記測定センサーは、手首及び/または足首周辺に位置し、
    前記測定センサーは、前記測定センサーと基準位置との距離を測定することを特徴とするモーションキャプチャー装置。
  49. 前記胴体の末端部分に位置し、前記距離表現を測定する測定センサーをさらに含むことを特徴とする請求項48に記載のモーションキャプチャー装置。
  50. 多数の測定センサーによって測定された少なくとも1以上の距離表現及び回転角に基づいて、胴体の非−末端部分の回転角を少なくとも1以上含む姿勢情報を推定する段階を含み、
    前記非−末端部分は、両ヒジ、両肩、両ヒザ、及び骨盤のうち少なくとも何れか一つを含み、前記測定センサーは、手首及び/または足首周辺に位置し、
    前記測定センサーは、前記測定センサーと基準位置との距離を測定することを特徴とするモーションキャプチャー方法。
  51. 前記測定センサーによって、前記距離表現が測定される段階をさらに含むことを特徴とする請求項50に記載のモーションキャプチャー方法。
  52. 請求項50による方法を行うためのコードが記録されたコンピュータが判読可能な記録媒体。
JP2009155856A 2008-06-30 2009-06-30 モーションキャプチャー装置及びモーションキャプチャー方法 Active JP5657216B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2008-0062837 2008-06-30
KR20080062837A KR101483713B1 (ko) 2008-06-30 2008-06-30 모션 캡쳐 장치 및 모션 캡쳐 방법

Publications (2)

Publication Number Publication Date
JP2010014712A true JP2010014712A (ja) 2010-01-21
JP5657216B2 JP5657216B2 (ja) 2015-01-21

Family

ID=41138610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009155856A Active JP5657216B2 (ja) 2008-06-30 2009-06-30 モーションキャプチャー装置及びモーションキャプチャー方法

Country Status (4)

Country Link
US (1) US8988438B2 (ja)
EP (1) EP2141632A3 (ja)
JP (1) JP5657216B2 (ja)
KR (1) KR101483713B1 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013535039A (ja) * 2010-04-13 2013-09-09 サムスン エレクトロニクス カンパニー リミテッド 仮想世界処理装置及び方法
JP2013181966A (ja) * 2012-03-05 2013-09-12 Toyota Central R&D Labs Inc ダミー計測装置
JP2014509011A (ja) * 2011-02-18 2014-04-10 マイクロソフト コーポレーション 動き認識
JP2016198962A (ja) * 2015-04-10 2016-12-01 凸版印刷株式会社 三次元造形物作成装置
JP2016206081A (ja) * 2015-04-24 2016-12-08 株式会社東芝 動作推測装置および動作推測方法
JP2017511906A (ja) * 2014-01-09 2017-04-27 イクセンス・ホールディング・ベー・フェーXsens Holding B.V. 数を減らした装着センサセットを用いたモーショントラッキング
WO2017141565A1 (ja) * 2016-02-15 2017-08-24 オムロン株式会社 演算装置、演算方法及び演算プログラム
JP6257825B1 (ja) * 2017-05-26 2018-01-10 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018200671A (ja) * 2017-05-26 2018-12-20 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
WO2020049847A1 (ja) * 2018-09-06 2020-03-12 株式会社ソニー・インタラクティブエンタテインメント 推定装置、学習装置、推定方法、学習方法及びプログラム
JP2020047235A (ja) * 2018-09-20 2020-03-26 未來市股▲ふん▼有限公司 追跡方法及び追跡方法を使用する追跡システム
JP2020047239A (ja) * 2018-09-19 2020-03-26 未來市股▲ふん▼有限公司 トラッキングシステム及びそのトラッキング方法
WO2020070812A1 (ja) * 2018-10-03 2020-04-09 株式会社ソニー・インタラクティブエンタテインメント スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム
JP2020077374A (ja) * 2018-11-07 2020-05-21 学校法人法政大学 仮想体の動作制御システム、人体拘束治具、及び仮想体の動作制御方法
JP2021053708A (ja) * 2019-09-26 2021-04-08 ファナック株式会社 作業員の作業を補助するロボットシステム、制御方法、機械学習装置、及び機械学習方法
JP2021174239A (ja) * 2020-04-24 2021-11-01 グリー株式会社 コンピュータプログラム、サーバ装置及び方法
WO2024142828A1 (ja) * 2022-12-28 2024-07-04 Mirai-wo合同会社 回転動作運動評価方法及びシステム並びにプログラム
WO2024214494A1 (ja) * 2023-04-13 2024-10-17 ソニーセミコンダクタソリューションズ株式会社 制御装置、制御方法および制御プログラム

Families Citing this family (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2933185B1 (fr) * 2008-06-27 2017-07-21 Movea Sa Systeme et procede de determination d'informations representatives du mouvement d'une chaine articulee
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
US8421854B2 (en) * 2008-07-24 2013-04-16 Noah Zerkin System and method for motion capture
FR2941805A1 (fr) 2009-02-02 2010-08-06 Laurent Philippe Nanot Dispositif pour la visite guidee virtuelle interactive de sites/evenements historiques ou de projets de construction et scenarios d'entrainement
US11278237B2 (en) 2010-04-22 2022-03-22 Leaf Healthcare, Inc. Devices, systems, and methods for preventing, detecting, and treating pressure-induced ischemia, pressure ulcers, and other conditions
WO2013052123A1 (en) * 2011-10-03 2013-04-11 Centauri Medical Inc. System and method for analyzing patient orientation, location and movement
KR101640458B1 (ko) * 2009-06-25 2016-07-18 삼성전자주식회사 영상 장치 및 컴퓨터 판독 기록매체
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US20110246123A1 (en) * 2010-03-30 2011-10-06 Welch Allyn, Inc. Personal status monitoring
US11369309B2 (en) 2010-04-22 2022-06-28 Leaf Healthcare, Inc. Systems and methods for managing a position management protocol based on detected inclination angle of a person
US11051751B2 (en) 2010-04-22 2021-07-06 Leaf Healthcare, Inc. Calibrated systems, devices and methods for preventing, detecting, and treating pressure-induced ischemia, pressure ulcers, and other conditions
US10758162B2 (en) 2010-04-22 2020-09-01 Leaf Healthcare, Inc. Systems, devices and methods for analyzing a person status based at least on a detected orientation of the person
US11272860B2 (en) 2010-04-22 2022-03-15 Leaf Healthcare, Inc. Sensor device with a selectively activatable display
KR101102778B1 (ko) * 2010-04-22 2012-01-05 한국과학기술원 리깅 복제를 통한 캐릭터 리깅 자동화 방법 및 장치
JP6192032B2 (ja) 2010-04-22 2017-09-06 リーフ ヘルスケア インコーポレイテッド 患者の生理学的状況をモニタリングするシステム
US11980449B2 (en) 2010-04-22 2024-05-14 Leaf Healthcare, Inc. Systems and methods for monitoring orientation and biometric data using acceleration data
US20110279368A1 (en) * 2010-05-12 2011-11-17 Microsoft Corporation Inferring user intent to engage a motion capture system
US20120094600A1 (en) 2010-10-19 2012-04-19 Welch Allyn, Inc. Platform for patient monitoring
US8655810B2 (en) 2010-10-22 2014-02-18 Samsung Electronics Co., Ltd. Data processing apparatus and method for motion synthesis
CN101976451B (zh) * 2010-11-03 2012-10-03 北京航空航天大学 一种基于加速度传感器的运动控制与动画生成方法
WO2012072961A2 (fr) * 2010-12-01 2012-06-07 Commissariat à l'énergie atomique et aux énergies alternatives Procede et systeme de determination de valeurs de parametres representatifs d'un mouvement d'au moins deux membres d'une entite representee sous la forme d'une chaine articulee
JP5118220B2 (ja) * 2011-02-16 2013-01-16 株式会社スクウェア・エニックス 動作モデリング装置及び方法、並びにプログラム
US8831794B2 (en) * 2011-05-04 2014-09-09 Qualcomm Incorporated Gesture recognition via an ad-hoc proximity sensor mesh for remotely controlling objects
US20120280902A1 (en) * 2011-05-05 2012-11-08 Qualcomm Incorporated Proximity sensor mesh for motion capture
US8792869B2 (en) 2011-05-18 2014-07-29 Qualcomm Incorporated Method and apparatus for using proximity sensing for augmented reality gaming
KR101214227B1 (ko) * 2011-05-25 2012-12-20 한국과학기술연구원 동작 추적 방법.
JP5786463B2 (ja) 2011-06-01 2015-09-30 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US9119569B2 (en) 2011-11-08 2015-09-01 Nanyang Technological University Method and apparatus for calibrating a motion tracking system
US8773429B2 (en) * 2011-11-15 2014-07-08 Cyberlink Corp. Method and system of virtual touch in a steroscopic 3D space
KR101327995B1 (ko) * 2012-04-12 2013-11-13 동국대학교 산학협력단 디지털 캐릭터를 이용한 무대 공연을 처리하는 장치 및 방법
KR101338958B1 (ko) * 2012-05-18 2013-12-09 한국과학기술원 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
JP5635161B2 (ja) * 2012-08-01 2014-12-03 株式会社スクウェア・エニックス キャラクタ表示装置
US20140045593A1 (en) * 2012-08-07 2014-02-13 Microsoft Corporation Virtual joint orientation in virtual skeleton
JP6124308B2 (ja) * 2012-09-12 2017-05-10 国立研究開発法人産業技術総合研究所 動作評価装置及びそのプログラム
JP2014090841A (ja) * 2012-11-02 2014-05-19 Sony Corp 情報処理装置および情報処理方法、並びにプログラム
KR101459445B1 (ko) * 2012-12-18 2014-11-07 현대자동차 주식회사 차량내 손목각을 이용한 사용자 인터페이스 조작 시스템 및 방법
US20140276095A1 (en) * 2013-03-15 2014-09-18 Miriam Griggs System and method for enhanced goniometry
KR102085180B1 (ko) * 2013-10-08 2020-03-05 삼성전자주식회사 몸 방향 추정 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 몸 방향 추정 장치.
EP3058551A4 (en) * 2013-10-20 2017-07-05 Oahu Group, LLC Method and system for determining object motion
US20150220158A1 (en) 2014-01-07 2015-08-06 Nod Inc. Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
WO2015103699A1 (en) * 2014-01-13 2015-07-16 Eiffel Med Tech Inc. Method and system for the visual representation of the kinematics of a patient's joint and associated parameters
US11195318B2 (en) 2014-04-23 2021-12-07 University Of Southern California Rapid avatar capture and simulation using commodity depth sensors
JP6572893B2 (ja) * 2014-06-30 2019-09-11 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム
KR101515845B1 (ko) 2014-08-07 2015-05-04 스타십벤딩머신 주식회사 동작 인식 방법 및 동작 인식 장치
KR101656940B1 (ko) * 2014-09-18 2016-09-13 한국산업기술대학교산학협력단 관성 측정 장치를 이용한 인체 관절 가동 범위 측정시스템
GB2566850A (en) * 2014-09-30 2019-03-27 270 Vision Ltd Mapping trajectories of the anatomy of the human or animal body for comparative analysis
GB2530754B (en) * 2014-09-30 2017-05-03 270 Vision Ltd Mapping the trajectory of a part of the anatomy of the human or animal body
CN104298358B (zh) * 2014-10-29 2017-11-21 指挥家(厦门)科技有限公司 一种基于关节空间位置数据的动态3d手势识别方法
CN104407709B (zh) * 2014-12-09 2015-12-02 北京银河润泰科技有限公司 可穿戴设备的穿戴状态的处理方法及装置
JP6583605B2 (ja) * 2014-12-12 2019-10-02 カシオ計算機株式会社 運動情報生成装置及び運動情報生成方法、運動情報生成プログラム
WO2016108168A1 (en) * 2014-12-29 2016-07-07 Ncs Lab S.R.L. System and method for identifying alterations in a musculoskeletal system of a specific subject
KR101685280B1 (ko) * 2015-01-22 2016-12-09 한국해양대학교 산학협력단 인체동작 수집 및 분석 시스템
CN104764491A (zh) * 2015-04-08 2015-07-08 深圳市康康网络技术有限公司 设备使用状态识别方法及电子设备
CN104825168B (zh) * 2015-05-23 2017-04-26 京东方科技集团股份有限公司 颈椎活动测量装置及测量方法
US10248188B2 (en) * 2015-06-03 2019-04-02 James M. O'Neil System and method for generating wireless signals and controlling digital responses from physical movement
US11237624B2 (en) * 2015-06-03 2022-02-01 James M. O'Neil System and method for adapting auditory biofeedback cues and gait analysis using wireless signals and digital responses
US10949716B2 (en) * 2015-11-25 2021-03-16 Jakob Balslev Methods and systems of real time movement classification using a motion capture suit
WO2017132323A1 (en) * 2016-01-29 2017-08-03 Janssen Pharmaceutica Nv Sensor device and carriers
KR101751176B1 (ko) * 2016-03-09 2017-06-27 이화여자대학교 산학협력단 가상 우주 체험을 제공하는 장치 및 방법
US10509469B2 (en) 2016-04-21 2019-12-17 Finch Technologies Ltd. Devices for controlling computers based on motions and positions of hands
US11033223B2 (en) * 2016-04-29 2021-06-15 Regents Of The University Of Minnesota 3D shoulder motion measurement device and scapular angle locator
US11006856B2 (en) * 2016-05-17 2021-05-18 Harshavardhana Narayana Kikkeri Method and program product for multi-joint tracking combining embedded sensors and an external sensor
CN106123896B (zh) * 2016-06-14 2019-03-01 上海锡月科技有限公司 一种动作捕捉系统
CN106293083B (zh) * 2016-08-07 2019-06-04 南京仁光电子科技有限公司 一种大屏幕交互系统及其交互方法
US20180104561A1 (en) * 2016-10-15 2018-04-19 William Alan Kostuj Golf grip hand structure efficiency device and method of use
WO2018081795A1 (en) 2016-10-31 2018-05-03 Zipline Medical, Inc. Systems and methods for monitoring physical therapy of the knee and other joints
KR101950359B1 (ko) 2016-11-30 2019-02-20 (주)코어센스 하이브리드 모션캡쳐 시스템의 위치 추정 방법
KR102640420B1 (ko) * 2016-12-22 2024-02-26 삼성전자주식회사 홈 로봇 장치의 동작 운용 방법 및 이를 지원하는 홈 로봇 장치
CN108256403B (zh) * 2016-12-29 2022-03-25 晶翔微系统股份有限公司 将肢体运动特性数据化的装置及方法
WO2018152508A1 (en) * 2017-02-20 2018-08-23 Irobot Defense Holdings, Inc. Mounting a sensor module to an unmanned ground vehicle
TWI635318B (zh) * 2017-04-28 2018-09-11 宏星技術股份有限公司 頭戴式顯示器、控制方法,以及非暫時性電腦可讀取媒體
US10705113B2 (en) 2017-04-28 2020-07-07 Finch Technologies Ltd. Calibration of inertial measurement units attached to arms of a user to generate inputs for computer systems
US10540006B2 (en) * 2017-05-16 2020-01-21 Finch Technologies Ltd. Tracking torso orientation to generate inputs for computer systems
US10379613B2 (en) 2017-05-16 2019-08-13 Finch Technologies Ltd. Tracking arm movements to generate inputs for computer systems
GB2566923B (en) * 2017-07-27 2021-07-07 Mo Sys Engineering Ltd Motion tracking
CN107741196B (zh) 2017-12-04 2019-11-12 成都思悟革科技有限公司 一种人体姿态获得方法及系统
US10521011B2 (en) 2017-12-19 2019-12-31 Finch Technologies Ltd. Calibration of inertial measurement units attached to arms of a user and to a head mounted device
US10509464B2 (en) * 2018-01-08 2019-12-17 Finch Technologies Ltd. Tracking torso leaning to generate inputs for computer systems
US11016116B2 (en) * 2018-01-11 2021-05-25 Finch Technologies Ltd. Correction of accumulated errors in inertial measurement units attached to a user
JP6874207B2 (ja) * 2018-03-01 2021-05-19 株式会社ソニー・インタラクティブエンタテインメント 推定装置、推定方法及びプログラム
CN108664896A (zh) * 2018-04-16 2018-10-16 彭友 基于OpenPose的击剑动作获取方法及计算机存储介质
US10416755B1 (en) 2018-06-01 2019-09-17 Finch Technologies Ltd. Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system
WO2020009715A2 (en) * 2018-05-07 2020-01-09 Finch Technologies Ltd. Tracking user movements to control a skeleton model in a computer system
US11474593B2 (en) 2018-05-07 2022-10-18 Finch Technologies Ltd. Tracking user movements to control a skeleton model in a computer system
US11009941B2 (en) * 2018-07-25 2021-05-18 Finch Technologies Ltd. Calibration of measurement units in alignment with a skeleton model to control a computer system
GB2574074B (en) 2018-07-27 2020-05-20 Mclaren Applied Tech Ltd Time synchronisation
JP7058198B2 (ja) * 2018-08-21 2022-04-21 グリー株式会社 画像表示システム、画像表示方法及び画像表示プログラム
WO2020085537A1 (ko) * 2018-10-25 2020-04-30 (주)리얼감 동작인식 디바이스 및 이를 이용한 동작인식 방법
WO2020085538A1 (ko) * 2018-10-25 2020-04-30 (주)리얼감 동작인식 시스템 및 이를 이용한 동작인식 방법
WO2020116837A1 (ko) * 2018-12-06 2020-06-11 (주)코어센스 융합형 모션 캡쳐 시스템 기반의 모션 구현 장치 및 그 방법
CN109815930B (zh) * 2019-02-01 2021-04-09 中国人民解放军总医院第六医学中心 一种动作模仿拟合度评价方法
ES2952633T3 (es) * 2019-06-03 2023-11-02 Tk Escalator Norte S A Sistema de detección de pasajeros para sistemas de desplazamiento de pasajeros
CN110413110A (zh) * 2019-07-05 2019-11-05 深圳市工匠社科技有限公司 虚拟角色的控制方法及相关产品
JP6670028B1 (ja) * 2019-07-18 2020-03-18 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
US10809797B1 (en) 2019-08-07 2020-10-20 Finch Technologies Ltd. Calibration of multiple sensor modules related to an orientation of a user of the sensor modules
GB2586473A (en) * 2019-08-19 2021-02-24 Mechatech Ltd Joint motion capture
US11175729B2 (en) * 2019-09-19 2021-11-16 Finch Technologies Ltd. Orientation determination based on both images and inertial measurement units
US10976863B1 (en) 2019-09-19 2021-04-13 Finch Technologies Ltd. Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
GB2588236B (en) 2019-10-18 2024-03-20 Mclaren Applied Ltd Gyroscope bias estimation
US11145102B2 (en) * 2019-11-04 2021-10-12 Volvo Car Corporation Using a handheld device to recreate a human pose or align an object in an augmented reality or virtual reality environment
CN111027431A (zh) * 2019-11-29 2020-04-17 广州幻境科技有限公司 一种基于惯性传感器的上肢姿态模糊定位方法及系统
KR102237124B1 (ko) * 2020-02-14 2021-04-06 고려대학교 산학협력단 신경망 기반 모션 리타겟팅 방법 및 장치
US11805157B2 (en) * 2020-05-12 2023-10-31 True Meeting Inc. Sharing content during a virtual 3D video conference
US20210358227A1 (en) 2020-05-12 2021-11-18 True Meeting Inc. Updating 3d models of persons
KR102478415B1 (ko) * 2020-07-17 2022-12-19 주식회사 아이팝 교차 공분산을 이용한 3차원 좌표 추정 방법
KR102456069B1 (ko) * 2020-07-17 2022-10-18 주식회사 아이팝 현실 가상 모델 간 비율 보정 방법
KR102486140B1 (ko) * 2020-10-12 2023-01-10 한국과학기술연구원 대상의 신체 치수의 비율을 교정하는 시스템 및 방법
CN112504188B (zh) * 2020-11-19 2021-11-23 东风汽车集团有限公司 一种生成人体模型的方法
CN112526154B (zh) * 2020-11-21 2021-09-03 西安交通大学 一种计算机视觉下的圆模板匹配旋转结构运动无标记测量方法
CN112535475B (zh) * 2020-11-24 2021-11-19 中国标准化研究院 基于刚性上臂模型的功能性肩关节旋转中心定位方法
CN112634415B (zh) * 2020-12-11 2023-11-10 北方信息控制研究院集团有限公司 一种基于人体骨骼模型的人员动作实时仿真方法
US11887259B2 (en) * 2021-01-25 2024-01-30 Walker L. Sherk Method, system, and apparatus for full-body tracking with magnetic fields in virtual reality and augmented reality applications
JP2023011101A (ja) * 2021-07-12 2023-01-24 カシオ計算機株式会社 情報処理装置、情報処理システム、プログラム及び情報処理方法
CN114271815B (zh) * 2021-12-27 2023-04-25 江西边际科技有限公司 一种无规律分布式位姿数据收集及处理装置
CN114562993A (zh) * 2022-02-28 2022-05-31 联想(北京)有限公司 一种轨迹处理方法、装置及电子设备
CN115005812B (zh) * 2022-05-30 2024-06-25 哈尔滨工业大学(威海) 人体动作检测方法、基于空间三角形的人体上肢动作检测方法及一致性评价方法
CN115674138B (zh) * 2022-12-02 2024-07-23 深圳市工匠社科技有限公司 格斗机器人控制器关节动作捕捉方法、装置、设备及介质
CN115847422A (zh) * 2022-12-29 2023-03-28 帕西尼感知科技(张家港)有限公司 一种用于遥操作的姿态识别方法、装置及系统
KR102557953B1 (ko) * 2023-03-16 2023-07-20 주식회사 케이에이씨미디어그룹 안무 분석 시스템

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08221599A (ja) * 1995-02-15 1996-08-30 Matsushita Electric Ind Co Ltd 3次元の動き生成および解析方法
JPH09138863A (ja) * 1995-11-13 1997-05-27 Matsushita Electric Ind Co Ltd 3次元の動き生成装置
JPH09330424A (ja) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き変換装置
JPH1021424A (ja) * 1996-06-28 1998-01-23 Atr Tsushin Syst Kenkyusho:Kk 3次元映像作成装置
JPH10154238A (ja) * 1996-09-25 1998-06-09 Matsushita Electric Ind Co Ltd 動作生成装置
JPH10261090A (ja) * 1997-03-19 1998-09-29 Tokyo Electric Power Co Inc:The モーションキャプチャシステム
JP2003308532A (ja) * 2002-02-12 2003-10-31 Univ Tokyo 受動的光学式モーションキャプチャデータの処理法
JP2004157850A (ja) * 2002-11-07 2004-06-03 Olympus Corp 運動検出装置
JP2005535031A (ja) * 2002-08-02 2005-11-17 本田技研工業株式会社 人体測定に基づく骨格フィッティング
JP2006020780A (ja) * 2004-07-07 2006-01-26 Nec Tokin Corp 四肢訓練装置
JP2006034343A (ja) * 2004-07-22 2006-02-09 Tamagawa Seiki Co Ltd 生体のリハビリ用姿勢モニタリング方法及び装置
JP2006343114A (ja) * 2005-06-07 2006-12-21 International Rescue System Institute フレキシブルセンサチューブ
WO2007058526A1 (en) * 2005-11-16 2007-05-24 Xsens Technologies B.V. Motion tracking system
JP2007333690A (ja) * 2006-06-19 2007-12-27 Sony Corp モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
WO2008026357A1 (fr) * 2006-08-29 2008-03-06 Microstone Corporation Procédé de capture de mouvements
JP2008533459A (ja) * 2005-03-09 2008-08-21 コミッサリア タ レネルジー アトミーク 幾何学的形状の取得のための方法及び装置
JP2008289866A (ja) * 2007-03-15 2008-12-04 Xsens Technologies Bv 較正ユニットを使った動作追跡のためのシステムと方法
JP2010088628A (ja) * 2008-10-07 2010-04-22 Akita Univ 手指関節位置推定装置、及び手指関節位置推定方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5930741A (en) * 1995-02-28 1999-07-27 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5744953A (en) * 1996-08-29 1998-04-28 Ascension Technology Corporation Magnetic motion tracker with transmitter placed on tracked object
US5990908A (en) * 1997-09-22 1999-11-23 Lamb & Company Method and apparatus for processing full motion computer animation
WO2002037827A2 (en) * 2000-10-30 2002-05-10 Naval Postgraduate School Method and apparatus for motion tracking of an articulated rigid body
US20030215130A1 (en) * 2002-02-12 2003-11-20 The University Of Tokyo Method of processing passive optical motion capture data
US7403202B1 (en) * 2005-07-12 2008-07-22 Electronic Arts, Inc. Computer animation of simulated characters using combinations of motion-capture data and external force modelling or other physics models
FR2916069B1 (fr) * 2007-05-11 2009-07-31 Commissariat Energie Atomique Procede de traitement pour la capture de mouvement d'une structure articulee
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08221599A (ja) * 1995-02-15 1996-08-30 Matsushita Electric Ind Co Ltd 3次元の動き生成および解析方法
JPH09138863A (ja) * 1995-11-13 1997-05-27 Matsushita Electric Ind Co Ltd 3次元の動き生成装置
JPH09330424A (ja) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き変換装置
JPH1021424A (ja) * 1996-06-28 1998-01-23 Atr Tsushin Syst Kenkyusho:Kk 3次元映像作成装置
JPH10154238A (ja) * 1996-09-25 1998-06-09 Matsushita Electric Ind Co Ltd 動作生成装置
JPH10261090A (ja) * 1997-03-19 1998-09-29 Tokyo Electric Power Co Inc:The モーションキャプチャシステム
JP2003308532A (ja) * 2002-02-12 2003-10-31 Univ Tokyo 受動的光学式モーションキャプチャデータの処理法
JP2005535031A (ja) * 2002-08-02 2005-11-17 本田技研工業株式会社 人体測定に基づく骨格フィッティング
JP2004157850A (ja) * 2002-11-07 2004-06-03 Olympus Corp 運動検出装置
JP2006020780A (ja) * 2004-07-07 2006-01-26 Nec Tokin Corp 四肢訓練装置
JP2006034343A (ja) * 2004-07-22 2006-02-09 Tamagawa Seiki Co Ltd 生体のリハビリ用姿勢モニタリング方法及び装置
JP2008533459A (ja) * 2005-03-09 2008-08-21 コミッサリア タ レネルジー アトミーク 幾何学的形状の取得のための方法及び装置
JP2006343114A (ja) * 2005-06-07 2006-12-21 International Rescue System Institute フレキシブルセンサチューブ
WO2007058526A1 (en) * 2005-11-16 2007-05-24 Xsens Technologies B.V. Motion tracking system
JP2007333690A (ja) * 2006-06-19 2007-12-27 Sony Corp モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
WO2008026357A1 (fr) * 2006-08-29 2008-03-06 Microstone Corporation Procédé de capture de mouvements
JP2008289866A (ja) * 2007-03-15 2008-12-04 Xsens Technologies Bv 較正ユニットを使った動作追跡のためのシステムと方法
JP2010088628A (ja) * 2008-10-07 2010-04-22 Akita Univ 手指関節位置推定装置、及び手指関節位置推定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6014003230; Daniel Roetenberg、外2名: 'Ambulatory Position and Orientation Tracking Fusing Magnetic and Inertial Sensing' IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING VOL.54,NO.5, 200705, p.883-890, IEEE *

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013535039A (ja) * 2010-04-13 2013-09-09 サムスン エレクトロニクス カンパニー リミテッド 仮想世界処理装置及び方法
JP2016026342A (ja) * 2010-04-13 2016-02-12 サムスン エレクトロニクス カンパニー リミテッド 仮想世界処理装置及び方法
US9597592B2 (en) 2010-04-13 2017-03-21 Samsung Electronics Co., Ltd. Method and apparatus for processing virtual world
JP2014509011A (ja) * 2011-02-18 2014-04-10 マイクロソフト コーポレーション 動き認識
JP2013181966A (ja) * 2012-03-05 2013-09-12 Toyota Central R&D Labs Inc ダミー計測装置
JP2017511906A (ja) * 2014-01-09 2017-04-27 イクセンス・ホールディング・ベー・フェーXsens Holding B.V. 数を減らした装着センサセットを用いたモーショントラッキング
JP2016198962A (ja) * 2015-04-10 2016-12-01 凸版印刷株式会社 三次元造形物作成装置
JP2016206081A (ja) * 2015-04-24 2016-12-08 株式会社東芝 動作推測装置および動作推測方法
WO2017141565A1 (ja) * 2016-02-15 2017-08-24 オムロン株式会社 演算装置、演算方法及び演算プログラム
JP2017146116A (ja) * 2016-02-15 2017-08-24 オムロン株式会社 演算装置、演算方法及び演算プログラム
CN107923741A (zh) * 2016-02-15 2018-04-17 欧姆龙株式会社 运算装置、运算方法及运算程序
US10856772B2 (en) 2016-02-15 2020-12-08 Omron Corporation Calculation device, calculation method, and non-transitory computer readable recording medium
JP6257825B1 (ja) * 2017-05-26 2018-01-10 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018200568A (ja) * 2017-05-26 2018-12-20 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018200671A (ja) * 2017-05-26 2018-12-20 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
WO2020049847A1 (ja) * 2018-09-06 2020-03-12 株式会社ソニー・インタラクティブエンタテインメント 推定装置、学習装置、推定方法、学習方法及びプログラム
US11763464B2 (en) 2018-09-06 2023-09-19 Sony Interactive Entertainment Inc. Estimation apparatus, learning apparatus, estimation method, learning method, and program
JP7171745B2 (ja) 2018-09-06 2022-11-15 株式会社ソニー・インタラクティブエンタテインメント 推定装置、学習装置、推定方法、学習方法及びプログラム
JPWO2020049847A1 (ja) * 2018-09-06 2021-08-12 株式会社ソニー・インタラクティブエンタテインメント 推定装置、学習装置、推定方法、学習方法及びプログラム
JP2020047239A (ja) * 2018-09-19 2020-03-26 未來市股▲ふん▼有限公司 トラッキングシステム及びそのトラッキング方法
US10817047B2 (en) 2018-09-19 2020-10-27 XRSpace CO., LTD. Tracking system and tacking method using the same
JP2020047235A (ja) * 2018-09-20 2020-03-26 未來市股▲ふん▼有限公司 追跡方法及び追跡方法を使用する追跡システム
JP7038847B2 (ja) 2018-10-03 2022-03-18 株式会社ソニー・インタラクティブエンタテインメント スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム
WO2020070928A1 (ja) * 2018-10-03 2020-04-09 株式会社ソニー・インタラクティブエンタテインメント スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム
JPWO2020070928A1 (ja) * 2018-10-03 2021-09-02 株式会社ソニー・インタラクティブエンタテインメント スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム
WO2020070812A1 (ja) * 2018-10-03 2020-04-09 株式会社ソニー・インタラクティブエンタテインメント スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム
US11605192B2 (en) 2018-10-03 2023-03-14 Sony Interactive Entertainment Inc. Skeleton model update apparatus, skeleton model update method, and program
JP2020077374A (ja) * 2018-11-07 2020-05-21 学校法人法政大学 仮想体の動作制御システム、人体拘束治具、及び仮想体の動作制御方法
JP7359422B2 (ja) 2018-11-07 2023-10-11 学校法人法政大学 仮想体の動作制御システム、人体拘束治具、及び仮想体の動作制御方法
JP2021053708A (ja) * 2019-09-26 2021-04-08 ファナック株式会社 作業員の作業を補助するロボットシステム、制御方法、機械学習装置、及び機械学習方法
US12017358B2 (en) 2019-09-26 2024-06-25 Fanuc Corporation Robot system assisting work of worker, control method, machine learning apparatus, and machine learning method
JP2021174239A (ja) * 2020-04-24 2021-11-01 グリー株式会社 コンピュータプログラム、サーバ装置及び方法
JP7250726B2 (ja) 2020-04-24 2023-04-03 グリー株式会社 コンピュータプログラム、サーバ装置及び方法
WO2024142828A1 (ja) * 2022-12-28 2024-07-04 Mirai-wo合同会社 回転動作運動評価方法及びシステム並びにプログラム
WO2024214494A1 (ja) * 2023-04-13 2024-10-17 ソニーセミコンダクタソリューションズ株式会社 制御装置、制御方法および制御プログラム

Also Published As

Publication number Publication date
JP5657216B2 (ja) 2015-01-21
US20090322763A1 (en) 2009-12-31
EP2141632A3 (en) 2014-01-22
KR101483713B1 (ko) 2015-01-16
KR20100002803A (ko) 2010-01-07
EP2141632A2 (en) 2010-01-06
US8988438B2 (en) 2015-03-24

Similar Documents

Publication Publication Date Title
JP5657216B2 (ja) モーションキャプチャー装置及びモーションキャプチャー方法
CA3111430C (en) Systems and methods for generating complementary data for visual display
US11481029B2 (en) Method for tracking hand pose and electronic device thereof
JP5931215B2 (ja) 姿勢を推定する方法及び装置
JP6973388B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN101579238B (zh) 人体运动捕获三维再现系统及其方法
JP2017503225A (ja) モーションキャプチャシステム
JPH09330424A (ja) 3次元骨格構造の動き変換装置
JPWO2009116597A1 (ja) 姿勢把握装置、姿勢把握プログラム、及び姿勢把握方法
CN110609621B (zh) 姿态标定方法及基于微传感器的人体运动捕获系统
Yang et al. 3-D markerless tracking of human gait by geometric trilateration of multiple Kinects
CN113268141B (zh) 一种基于惯性传感器和织物电子的动作捕获方法及装置
CN109781104B (zh) 运动姿态确定及定位方法、装置、计算机设备及介质
Tao et al. Human modeling and real-time motion reconstruction for micro-sensor motion capture
JP2937834B2 (ja) 3次元の動き生成装置
Xiang et al. Comparing real-time human motion capture system using inertial sensors with microsoft kinect
CN109003300A (zh) 一种基于人体质心位移计算算法的虚拟现实系统
TWI851831B (zh) 人體部位追蹤方法和人體部位追蹤系統
JP2014117409A (ja) 身体関節位置の計測方法および装置
JP2018128739A (ja) 画像処理装置、画像処理方法、コンピュータプログラム、及び記憶媒体
WO2020174586A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR101731188B1 (ko) 동작 추정 장치 및 그 방법
Skopowski Immersive articulation of the human upper body in a virtual environment
Usta Comparison of quaternion and euler angle methods for joint angle animation of human figure models
US20240206767A1 (en) Measurement device, measurement system, measurement method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130311

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141126

R150 Certificate of patent or registration of utility model

Ref document number: 5657216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250