JP2015192713A - 端末装置及び表示方法 - Google Patents
端末装置及び表示方法 Download PDFInfo
- Publication number
- JP2015192713A JP2015192713A JP2014071553A JP2014071553A JP2015192713A JP 2015192713 A JP2015192713 A JP 2015192713A JP 2014071553 A JP2014071553 A JP 2014071553A JP 2014071553 A JP2014071553 A JP 2014071553A JP 2015192713 A JP2015192713 A JP 2015192713A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- swing
- terminal device
- camera
- player
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B2071/0647—Visualisation of executed movements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/05—Image processing for measuring physical parameters
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physical Education & Sports Medicine (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 プレイヤーの動作を効果的に確認することが可能な端末装置を提供する。【解決手段】本発明の一態様に係る端末装置は、センサーが取り付けられた測定対象物の動画像を取得する動画像取得手段と、前記センサーから前記測定対象物に関連したセンサーデータを取得するセンサーデータ取得手段と、前記動画像と前記センサーデータから生成された付加的な画像とを重ね合わせて表示する表示制御手段と、を具備する。【選択図】図10
Description
本発明は、スポーツ等をしているプレイヤーの動作を解析する端末装置に関する。
プレイヤーのスイング(動作)を解析する端末装置として、ゴルフクラブに取り付けられたモーションセンサーから受信したセンサーデータを用いてプレイヤーのスイング(動作)の軌跡を視覚化する端末装置が知られている(非特許文献1)。
"Fullmiere(フルミエル)"、[online]、平成25年、株式会社ACCESS、[平成26年3月1日検索]、インターネット<URL:http://www.fullmiere.com/>
上記従来の端末装置においては、プレイヤーは、画面に表示されたプレイヤー自身のスイング(動作)の軌跡を確認することができる。しかしながら、プレイヤーがプレイヤー自身の動作をより効果的に確認することを可能とする端末装置が望まれている。
そこで、本発明の様々な実施形態により、プレイヤーの動作を効果的に確認することが可能な端末装置を提供する。
そこで、本発明の様々な実施形態により、プレイヤーの動作を効果的に確認することが可能な端末装置を提供する。
本発明の一態様に係る端末装置は、センサーが取り付けられた測定対象物の動画像を取得する動画像取得手段と、前記センサーから前記測定対象物に関連したセンサーデータを取得するセンサーデータ取得手段と、前記動画像と前記センサーデータから生成された付加的な画像とを重ね合わせて表示する表示制御手段と、を具備する。
本発明の一態様に係るプログラムは、コンピュータを、センサーが取り付けられた測定対象物の動画像を取得する動画像取得手段、前記センサーから前記測 定対象物に関連したセンサーデータを取得するセンサーデータ取得手段、及び、前記動画像と前記センサーデータから生成された付加的な画像とを重ね合わせて表示する表示制御手段、として機能させるものである。
本発明の一態様に係る表示方法は、センサーが取り付けられた測定対象物の動画像を取得する段階と、前記センサーから前記測定対象物に関連したセンサーデータを取得する段階と、前記動画像と前記センサーデータから生成された付加的な画像とを重ね合わせて表示する段階と、を含む。
本発明の一態様に係るプログラムは、コンピュータを、センサーが取り付けられた測定対象物の動画像を取得する動画像取得手段、前記センサーから前記測 定対象物に関連したセンサーデータを取得するセンサーデータ取得手段、及び、前記動画像と前記センサーデータから生成された付加的な画像とを重ね合わせて表示する表示制御手段、として機能させるものである。
本発明の一態様に係る表示方法は、センサーが取り付けられた測定対象物の動画像を取得する段階と、前記センサーから前記測定対象物に関連したセンサーデータを取得する段階と、前記動画像と前記センサーデータから生成された付加的な画像とを重ね合わせて表示する段階と、を含む。
本発明の様々な実施形態によれば、プレイヤーの動作を効果的に確認することが可能な端末装置を提供することができる。
添付図面を参照して本発明の様々な実施形態を説明する。なお、添付図面における共通する構成要素には同一の参照符号が付されている。
以下、プレイヤーの動作を解析する端末装置として、ゴルフクラブを握持したプレイヤーのスイングを解析する端末装置(携帯電話、スマートフォン、携帯情報端末及びラップトップコンピュータ等)を例にとって具体的に説明する。
本発明の一実施形態に係る解析システムは、測定対象物であるゴルフクラブに取り付けられるセンサー100と、このゴルフクラブを握持してスイングをするプレイヤーの動画像を生成するカメラ(撮像部)200と、センサー100及びカメラ200に接続された端末装置300と、を含む。
図1は、本発明の一実施形態に係る解析システムに含まれるセンサー100の構成を示すブロック図である。図2は、本発明の一実施形態に係る解析システムに含まれるカメラ200の構成を示すブロック図である。図3は、本発明の一実施形態に係る解析システムに含まれる端末装置300の構成を示すブロック図である。
図1を参照すると、センサー100は、マイコン(CPU)110と、モーションセンサー120と、通信部130と、操作ボタン140と、LED150と、を含む。
モーションセンサー120は、三軸(X軸、Y軸及びZ軸)方向の加速度を検出する加速度センサー、及び、三軸方向の角速度を検出する角速度センサーを含む。モーションセンサー120は、さらに地磁気センサーを含むものであってもよい。
マイコン(CPU)110は、センサー100における各部を制御する。また、マイコン110は、モーションセンサー120により検出された各データの同期をとり、バイアス補正や温度補正などの処理を施したデータをセンサーデータとして通信部130に出力する。さらに、マイコン110は、その他の様々な処理を行う。
通信部130は、端末装置300との間において、例えば狭帯域の無線通信(広帯域の通信であってもよい)を行うことにより、データの送受信を行う。狭帯域の無線通信は、Bluetooth(登録商標)及び無線LAN等を用いた無線通信である。
操作ボタン140は、プレイヤーに押圧されることにより、センサー100と端末装置300との間におけるデータの送受信を開始するように機能する。LED150は、端末装置300側の解析準備が整っているか否か、又は、センサー100と端末装置300との間において通信エラーが発生していないか否か等に応じて点灯する。これにより、プレイヤーは、端末装置300の表示部に表示されたエラー画面や操作指示を見なくとも、LED150の点灯状態を確認することにより、スイング動作の開始前に、スイング測定を継続すべきか中断すべきかを判断することができる。
このような構成を有するセンサー100は、図4に示すように、例えば、ゴルフクラブCのグリップ部分Gとシャフト部分Sとの境目付近に着脱自在に取り付けられる。このセンサー100は、スイング時の衝撃や打球時の衝撃によってゴルフクラブCから外れることを防止するために、ゴムバンドなどのホルダHによってゴルフクラブCに固定される。
次に、図2に示すように、カメラ200は、処理部(CPU)210と、ビデオカメラ制御部220と、カメラ部230と、通信部240と、プレビュー表示部250と、を含む。
ビデオカメラ部220は、カメラ部230を制御する。カメラ部230は、多数の撮像素子により形成されたものであり、ビデオカメラ部220に制御されることにより、撮像処理を実行し、静止画像及び/又は動画像を生成して通信部240に出力する。
処理部(CPU)210は、カメラ200における各部を制御する。また、処理部210は、その他の様々な処理を行う。
通信部240は、端末装置300との間において、例えば狭帯域の無線通信(広帯域の通信であってもよい)を行うことにより、データの送受信を行う。狭帯域の無線通信は、Bluetooth(登録商標)及び無線LAN等を用いた無線通信である。プレビュー表示部250は、後述するプレビュー画像等を表示する。
次に、図3に示すように、端末装置300は、処理部(CPU)310と、ROM320と、RAM330と、操作部340と、表示部350と、通信部360と、不揮発性メモリ370と、を含む。
ROM320は、スイングの解析等を実行するアプリケーション(以下便宜上「特定アプリケーション」という。)及びこの特定アプリケーションを実行可能なシステムを記憶するメモリである。このようなアプリケーション及びシステム(を構成する多数の命令)は、CPU310によってロードされ実行される。
RAM330は、ROM320に記憶された特定アプリケーション及びこの特定アプリケーションを実行するシステム(を構成する多数の命令)がCPU310により実行される間、データの書き込み及び読み込みをするために用いられるメモリである。
RAM330は、ROM320に記憶された特定アプリケーション及びこの特定アプリケーションを実行するシステム(を構成する多数の命令)がCPU310により実行される間、データの書き込み及び読み込みをするために用いられるメモリである。
操作部340は、プレイヤー(ユーザー)からの操作を受け付ける入力ユニットである。操作部340から入力された情報は、特定アプリケーションを実行するシステムを経由して特定アプリケーションに通知される。
表示部350は、特定アプリケーション及びこの特定アプリケーションを実行するシステムにより指示された文字、アイコン及びボタン等のコンポーネント、並びに、ビデオデータの再生ビュー等を含む様々な情報を表示する。なお、端末装置300は、表示部350に表示可能な情報を、表示部350においてではなく、端末装置300とは別体として設けられた表示装置に表示するように構成されていてもよい。
通信部360は、センサー100及びカメラ200との間において、狭帯域の無線通信(広帯域の通信であってもよい)を行うことにより、データの送受信を行う。
不揮発性メモリ370は、特定アプリケーション及びこの特定アプリケーションを実行するシステムによって、データの書き込み及び読み込みが実行されるメモリである。この不揮発性メモリ370に書き込まれたデータは、特定アプリケーション及びこの特定アプリケーションを実行するシステムが終了した後でも、保存される。
表示部350は、特定アプリケーション及びこの特定アプリケーションを実行するシステムにより指示された文字、アイコン及びボタン等のコンポーネント、並びに、ビデオデータの再生ビュー等を含む様々な情報を表示する。なお、端末装置300は、表示部350に表示可能な情報を、表示部350においてではなく、端末装置300とは別体として設けられた表示装置に表示するように構成されていてもよい。
通信部360は、センサー100及びカメラ200との間において、狭帯域の無線通信(広帯域の通信であってもよい)を行うことにより、データの送受信を行う。
不揮発性メモリ370は、特定アプリケーション及びこの特定アプリケーションを実行するシステムによって、データの書き込み及び読み込みが実行されるメモリである。この不揮発性メモリ370に書き込まれたデータは、特定アプリケーション及びこの特定アプリケーションを実行するシステムが終了した後でも、保存される。
処理部(CPU)310は、スイングの解析等に関する様々な処理を行うものであって、例えば、カメラ距離算出部311、センサーデータ解析部312、センサー操作判定部313、ビデオデータ再生部314、ビデオデータ解析部315、ビデオデータ読み取り部316、ビデオデータ記録部317及び適正姿勢判定部318等の機能ブロックを含む。
カメラ距離算出部311は、特定アプリケーションに実装されたプログラムユニットであって、スイングの録画及びスイングの軌跡の測定に必要なプレイヤーとカメラ200との間の適切な距離を計算するプログラムユニットである。
センサーデータ解析部312は、特定アプリケーションに実装されたプログラムユニットであって、センサー100から受信したセンサーデータを、解析してスイングに関するデータに変換するプログラムユニットである。
センサー操作判定部313は、スイングの測定を行う際に、通信部360を介してセンサー100から受信した操作ボタン140に対する操作の内容を判定するプログラムユニットである。
センサーデータ解析部312は、特定アプリケーションに実装されたプログラムユニットであって、センサー100から受信したセンサーデータを、解析してスイングに関するデータに変換するプログラムユニットである。
センサー操作判定部313は、スイングの測定を行う際に、通信部360を介してセンサー100から受信した操作ボタン140に対する操作の内容を判定するプログラムユニットである。
ビデオデータ再生部314は、カメラ200により生成されたビデオデータ(動画像)を生成し、表示部350に描画するプログラムユニットである。
ビデオデータ解析部315は、カメラ200により生成されたビデオデータ(動画像)を解析し、センサーデータ解析部312から受信したスイングに関するデータを用いて、動画像に対するトリミングを行うプログラムユニットである。
ビデオデータ記録部317は、ビデオデータ解析部315によりトリミングされたビデオデータを、センサーデータ解析部312により生成されたスイングに関するデータと関連付けて不揮発性メモリ370に記録するプログラムユニットである。
ビデオデータ読み取り部316は、ビデオデータ記録部317により不揮発性メモリ370に保存されたビデオデータ(動画像)を読み込みRAM330に保存するプログラムユニットである。
適正姿勢判定部318は、プレイヤーの身長、並びに、スイング開始時のクラブのライ角及びクラブ長を用いて適正な姿勢を計算するプログラムユニットである。
ビデオデータ解析部315は、カメラ200により生成されたビデオデータ(動画像)を解析し、センサーデータ解析部312から受信したスイングに関するデータを用いて、動画像に対するトリミングを行うプログラムユニットである。
ビデオデータ記録部317は、ビデオデータ解析部315によりトリミングされたビデオデータを、センサーデータ解析部312により生成されたスイングに関するデータと関連付けて不揮発性メモリ370に記録するプログラムユニットである。
ビデオデータ読み取り部316は、ビデオデータ記録部317により不揮発性メモリ370に保存されたビデオデータ(動画像)を読み込みRAM330に保存するプログラムユニットである。
適正姿勢判定部318は、プレイヤーの身長、並びに、スイング開始時のクラブのライ角及びクラブ長を用いて適正な姿勢を計算するプログラムユニットである。
なお、図2及び図3には、図2に示したカメラ200が図3に示した端末装置300の外部に設けられる構成、すなわち、カメラ200が端末装置300とは別体として設けられる構成が示されているが、カメラ200が端末装置300に内蔵される構成、すなわち、カメラ200が端末装置300の内部に設けられる構成を採用することも可能である。この場合、通信部360と通信部240との間でなされるデータの送受信は、処理部310とビデオデータ記録部317との間において代行され、プレビュー表示部250は表示部350に含まれ、処理部(CPU)300は処理部(CPU)310に含まれる。
次に、上記構成を有する解析システムにより行われる動作について図5を参照して説明する。図5は、本発明の一実施形態に係る解析システムにより行われる動作を示すフロー図である。
まず、端末装置300の表示部350(すなわちディスプレイ)において(表示された動画像における)クラブヘッドが描く円が占める大きさと、表示部350において(センサーデータに基づいて表示された)スイングの軌跡が占める大きさとを、略一致させるために、ステップ(以下「ST」という。)501〜ST507において、以下に述べるとおり、プログラムによる自動調整が行われる。
まず、録画開始前に、プレイヤーに対向する位置に配置されたカメラ200のプレビュー表示部250が、プレイヤーの頭の位置及び立ち位置(すなわち、人型の模式図600)、並びに、ボールの位置及び水平線を図6(a)〜図6(d)に示すようなプレビュー画面として表示することにより、プレイヤーの適切な立ち位置を誘導する。なお、図6(a)〜図6(d)は、プレイヤーを、それぞれ、正面、背面、後方(右利きプレイヤーの場合)及び後方(左利きプレイヤーの場合)から撮影する場合にプレビュー表示部250に表示されるプレビュー画面の一例を示す。また、プレビュー表示部250に表示されるプレビュー画面には、例えば右上の位置に、カメラとプレイヤーとの間の適切な距離610も表示される。
プレビュー画面には、このように表示された人型の模式図600及び適切な距離610に重ね合わせて、カメラ200のカメラ部230により撮像されたプレイヤーの姿も表示される。これにより、プレイヤーは、プレビュー画面を見ながら、適切な立ち位置に立つことができるとともに、カメラ200との間に適切な距離を確保することもできる。
なお、カメラ200は、プレビュー表示部250に表示されるプレビュー画像を通信部240を介して端末装置300の通信部360に逐次転送することにより、端末装置300の表示部350においても同様のプレビュー画面が表示されるようにしてもよい。これにより、カメラ200を操作する者(撮影者)が不在の場合であっても、プレイヤーは、端末装置300の表示部350に表示されたプレビュー画面を見ることによって、適切な立ち位置に立つとともに、カメラ200との間に適切な距離をおくこともできる。
プレビュー表示部250に表示される人型の模式図600及び適切な距離610は、図3に示した端末装置300において、カメラ距離算出部311により算出され、通信部360により、図2に示したカメラ200の通信部240に送信されることによって、カメラ200のプレビュー表示部250に表示される。
カメラ200とプレイヤーとの間の適切な距離がカメラ距離算出部311によってどのように算出されるのかについて説明する。
まず、カメラ200の傾きが水平である場合(すなわち、カメラ200が地面に対して略平行である場合)について、図7を参照して説明する。カメラ200の高さ及びアングルを固定すれば、クラブ長、被写体となるプレイヤーの身長、カメラ200の焦点距離、カメラ200の撮像素子サイズから、プレイヤー及びスイングの軌跡を画面内に収めるために、プレイヤーとカメラ200との間に確保すべき適切な距離は、次の式(1)により算出される。
被写体までの距離[m]=(焦点距離[mm]×被写体の高さが最大になる高さ[mm])÷撮像素子の縦のサイズ[mm]÷1000 (1)
まず、カメラ200の傾きが水平である場合(すなわち、カメラ200が地面に対して略平行である場合)について、図7を参照して説明する。カメラ200の高さ及びアングルを固定すれば、クラブ長、被写体となるプレイヤーの身長、カメラ200の焦点距離、カメラ200の撮像素子サイズから、プレイヤー及びスイングの軌跡を画面内に収めるために、プレイヤーとカメラ200との間に確保すべき適切な距離は、次の式(1)により算出される。
被写体までの距離[m]=(焦点距離[mm]×被写体の高さが最大になる高さ[mm])÷撮像素子の縦のサイズ[mm]÷1000 (1)
また、上記式(1)における「被写体の高さが最大になる高さ」(MH)は、次の式(2)により算出される。
MH=PH×0.42(握り軸到達距離)+CH×sinθ+√(CH2+(PH×0.42)2)×sinθ (2)
ここで、PHは、プレイヤーの身長[mm]であり、CHは、クラブ長[mm]であり、θはアドレス時のクラブ角度である。
MH=PH×0.42(握り軸到達距離)+CH×sinθ+√(CH2+(PH×0.42)2)×sinθ (2)
ここで、PHは、プレイヤーの身長[mm]であり、CHは、クラブ長[mm]であり、θはアドレス時のクラブ角度である。
被写体の高さが最大になる高さ(MH)については、図8を参照すると、ゴルフスイング中、被写体の高さが最も高くなるのは、図8(a)に示したときであると考えられる。すなわち、プレイヤーが右利きの場合、左腕802が肩口まで上昇して地面と略平行に延び、かつ、クラブ801が地面と垂直に延びた状態において、被写体の高さが最大になると考えられる。なお、図8(b)に示すトップオブスイングの状態では、クラブ801のヘッドは、プレイヤーの頭上後方を指し、クラブ801は、地面と略平行に延びるため、被写体の高さは最大とはならない。したがって、プレイヤーの肩から握り軸までの長さとクラブを2辺とした3角形の長辺がアドレス時のライ角と平行に体の中心線上にあるときに、被写体の高さが最大になる。但し、実際のスイング動作において、上記の高さにクラブヘッドが上がることはなくとも、スイングアークが画面内に収まるための十分な高さが確保されていることになる。
なお、握り軸到達距離は、日本人の1991年〜1992年のデータによれば、男女ともにプレイヤーの身長に対して約42%程度の長さであることが分かっている(http://riodb.ibase.aist.go.jp/dhbodydb/91-92/)。
プレイヤーは、一般的に、自分自身の握り軸到達距離を把握していないため、身長と一般的な比率(42%)によって被写体の高さを推定するために必要な距離を割り出すことが考えられる。
なお、握り軸到達距離は、日本人の1991年〜1992年のデータによれば、男女ともにプレイヤーの身長に対して約42%程度の長さであることが分かっている(http://riodb.ibase.aist.go.jp/dhbodydb/91-92/)。
プレイヤーは、一般的に、自分自身の握り軸到達距離を把握していないため、身長と一般的な比率(42%)によって被写体の高さを推定するために必要な距離を割り出すことが考えられる。
次に、カメラ200に傾きがある場合(すなわち、カメラ200が地面に対して傾いている場合)について、図9を参照して説明する。カメラの傾きを(A)とすると、被写体の高さが最大になる高さ(B)と、垂直画角による撮影高さと、地面とが成す三角形は、カメラの傾き(A)と相似関係となる。したがって、カメラ200に傾きがある場合の被写体までの距離は、次に示す式(3)によって算出される。
被写体までの距離[m]=上記式(1)により算出された被写体までの距離[m]+被写体の高さが最大になる高さ×tanΨ (3)
但し、Ψはカメラと地面とが成す角度である。
被写体までの距離[m]=上記式(1)により算出された被写体までの距離[m]+被写体の高さが最大になる高さ×tanΨ (3)
但し、Ψはカメラと地面とが成す角度である。
以上のように端末装置300のカメラ距離算出部311が、カメラ200とプレイヤーとの間に確保すべき適切な距離を算出するためには、図5に戻って説明すると、ST501において、プレイヤーは、端末装置300の操作部340を使用して、プレイヤーの身長及び使用するクラブに関する情報(例えばクラブ長及びアドレス時のクラブ角度等)を設定する。これにより、これらの情報は、上記適切な距離を算出する際にカメラ距離算出部311により利用可能となる。
ST502において、カメラ距離算出部311は、カメラ200の焦点距離及びカメラ200の撮像素子の縦のサイズをカメラ200又はプレイヤーによる操作部340に対する操作から取得する。
さらに、ST503において、カメラ距離算出部311は、カメラ200の高さ、及び、カメラ200とプレイヤーとの間に確保すべき適切な距離を計算する。
ST502において、カメラ距離算出部311は、カメラ200の焦点距離及びカメラ200の撮像素子の縦のサイズをカメラ200又はプレイヤーによる操作部340に対する操作から取得する。
さらに、ST503において、カメラ距離算出部311は、カメラ200の高さ、及び、カメラ200とプレイヤーとの間に確保すべき適切な距離を計算する。
次に、ST504において、カメラ距離算出部311は、カメラ200から受信した撮影する向き(正面、背面等)に関する情報及びカメラ200の傾きに関する情報、並びに、予め設定され不揮発性メモリ370に記憶されているプレイヤーの利き手に関する情報に基づいて、上述した人型の模式図600を計算する。
この後、ST505において、カメラ距離算出部311により算出された人型の模式図及び適切な距離、並びに、プレイヤーの身長及びカメラの高さが、上述したように、カメラ200の通信部240に送信されることにより、ST506において、カメラ200のプレビュー表示部250(場合によっては、端末装置300の表示部350)にプレビュー画面として表示される。これにより、ST507において、プレイヤーは、カメラ200のプレビュー表示部250に表示された内容に従って、プレイヤーとカメラ200との間に指示された適切な距離を確保するように、カメラ200を設定することができる。
次に、ST508〜ST515では、センサー100を用いたスイングの測定、及び、カメラ200を用いた録画が行われる。まず、ST508では、プレイヤーは、スイングの開始前に、センサー100の操作ボタン140を押下する。センサー100は、プレイヤーによる操作ボタン140に対する押下を検知すると、その旨を示す信号(第1特定信号)を通信部130を介して端末装置300に送信する。端末装置300は、センサー100からの第1特定信号を、通信部360を介して受信してセンサー操作判定部313に出力する。センサー操作判定部313が第1特定信号を受信することを契機として、ST509において、CPU310により実行される特定アプリケーションは、録画モードでカメラ200を起動する。これにより、カメラ200は、カメラ部230を用いた録画を開始する(よって、特定アプリケーションは、どの時刻にセンサー100の操作ボタン140が押下されたかを識別することができる)。これにより、プレイヤーによるスイングの開始とカメラ200による録画の開始とが同期して行われる。
また、ST510では、上記ST508においてセンサー100の操作ボタン140が押下されることを契機として、センサー100によるスイング測定も開始される。
また、ST510では、上記ST508においてセンサー100の操作ボタン140が押下されることを契機として、センサー100によるスイング測定も開始される。
ST511では、プレイヤーが予備動作(ワッグル)を行う。さらに、プレイヤーは、ST512においてスイングを行い、ST513において打球する。このとき、センサー100は、ゴルフクラブによるボールに対するインパクト(打球)を検出すると、その旨を示す信号(第2特定信号)を通信部130を介して端末装置300に送信して、ST514において、スイングの測定を終了する。端末装置300がセンサー100から第2特定信号を受信することを契機として、CPU310により実行される特定アプリケーションは、ST515において、カメラ200による録画を停止させる(よって、特定アプリケーションは、どの時刻にインパクトが生じたのかを識別することができる)。なお、カメラ200が録画を停止するタイミングは、インパクトが生じたタイミングと略同時ではなく、プレイヤーのスイングが完了した後となるように適宜調整される。これにより、プレイヤーによるスイングの終了とカメラ200による録画の終了とが同期して行われる。
ST516では、カメラ200により生成された録画データ(ビデオデータ)が端末装置300に転送及び記憶される一方、センサー100により生成されたセンサーデータもまた端末装置300に転送及び記憶される。
ST517では、端末装置300のセンサーデータ解析部312が、記憶されたセンサーデータに対する解析処理を実行する。ここで、上述したST508〜ST515までの間において、センサー100、カメラ200及び端末装置300の間においてやり取りされる一連の命令及び応答並びにデータ送受信のすべてに対してタイムスタンプが付与されている。よって、これらのタイムスタンプに基づいて、ST512〜ST514までを有効なスイング期間として識別することができる。得られた録画データの中からこの期間に対応する録画データ(ビデオデータ)を残すようにトリミングすることが好ましい。
このようなトリミングを実行するために、センサーデータ解析部312は、センサーデータに対して、本件出願人が日本国特許出願第2012−254672号において開示したワッグルの除去方法を用いることにより、スイングの開始時刻を割り出す。これにより、センサーデータ解析部312は、割り出した時刻と、ST509に対応する時刻〜ST512に対応する時刻(これらの時刻は上記タイムスタンプから識別することができる)との差分から、スイング開始前の録画データの削除期間を計算することができる。
このようなトリミングを実行するために、センサーデータ解析部312は、センサーデータに対して、本件出願人が日本国特許出願第2012−254672号において開示したワッグルの除去方法を用いることにより、スイングの開始時刻を割り出す。これにより、センサーデータ解析部312は、割り出した時刻と、ST509に対応する時刻〜ST512に対応する時刻(これらの時刻は上記タイムスタンプから識別することができる)との差分から、スイング開始前の録画データの削除期間を計算することができる。
ここで、上記ワッグルの除去方法について簡潔に説明する。本除去方法は、センサーデータからワッグルによるスイング軌跡を除去したスイング開始点を検出し、ワッグル動作によるセンサーデータをスイング解析に使用しないものである。
図16は、センサーをゴルフクラブに取り付けてスイングした場合の、モーションセンサ100の角速度センサのセンサ座標系でのX軸及びZ軸のセンサーデータ、並びに、加速度センサのY軸のセンサーデータによる波形である。ここで、スイング状態判定部では、データ測定開始点から、角速度センサのZ軸のセンサーデータのマイナスピーク値Z1、角速度センサのX軸のセンサーデータのプラスピーク値X1を検出し、RAM330に記憶する。インパクト点T1を検出した後、X軸のセンサーデータ及びZ軸のセンサーデータが、ともにRAM330に記録したピーク値Z1及びX1に対して符号が反転する点まで遡る。具体的には、図16に示すように、Z軸のセンサーデータがマイナスピーク値Z1からプラスに転じる点Z2、及びX軸のセンサーデータがプラスピーク値X1からマイナスに転じる点X2が検出される。そして、検出された点Z2及びX2において、データ検出開始点との間で測定点が少ない方をスイング開始点Sと判定する。そして、スイングデータ解析処理において、判定されたスイング開始点より前の加速度センサのセンサーデータは、重力加速度のみとしてフィルタリングし、スイング解析には使用しないことにより、より正確な解析結果を得ることができる。
また、インパクト点T1の検出は、図16の波形における加速度センサのY軸のセンサーデータの急激な減速又はマイナス方向のピークを検知することで判定される。また、通常、インパクトの際には、打球をすることで運動が一瞬停止し、センサーデータに大きな差分が発生すると考えられる。そのため、上記以外にも、図16に示される加速度センサのY軸のセンサーデータの波形において、前後のセンサーデータの値に所定の差分がある場合にインパクトT1を検出したと判定してもよい。さらに、インパクトを判定する前後の差分定数をゴルフクラブやボールの種類によって変更することで、打球した際の衝撃度合いに応じて、打球したかどうか判定することができ、どのクラブ、どのボールにおいても正確にインパクトを検出することができる。以上、ワッグルの除去方法について説明した。なお、日本国特許出願第2012−254672号に記載された内容は、引用によりその内容の全体が本明細書に組み込まれる。
図16は、センサーをゴルフクラブに取り付けてスイングした場合の、モーションセンサ100の角速度センサのセンサ座標系でのX軸及びZ軸のセンサーデータ、並びに、加速度センサのY軸のセンサーデータによる波形である。ここで、スイング状態判定部では、データ測定開始点から、角速度センサのZ軸のセンサーデータのマイナスピーク値Z1、角速度センサのX軸のセンサーデータのプラスピーク値X1を検出し、RAM330に記憶する。インパクト点T1を検出した後、X軸のセンサーデータ及びZ軸のセンサーデータが、ともにRAM330に記録したピーク値Z1及びX1に対して符号が反転する点まで遡る。具体的には、図16に示すように、Z軸のセンサーデータがマイナスピーク値Z1からプラスに転じる点Z2、及びX軸のセンサーデータがプラスピーク値X1からマイナスに転じる点X2が検出される。そして、検出された点Z2及びX2において、データ検出開始点との間で測定点が少ない方をスイング開始点Sと判定する。そして、スイングデータ解析処理において、判定されたスイング開始点より前の加速度センサのセンサーデータは、重力加速度のみとしてフィルタリングし、スイング解析には使用しないことにより、より正確な解析結果を得ることができる。
また、インパクト点T1の検出は、図16の波形における加速度センサのY軸のセンサーデータの急激な減速又はマイナス方向のピークを検知することで判定される。また、通常、インパクトの際には、打球をすることで運動が一瞬停止し、センサーデータに大きな差分が発生すると考えられる。そのため、上記以外にも、図16に示される加速度センサのY軸のセンサーデータの波形において、前後のセンサーデータの値に所定の差分がある場合にインパクトT1を検出したと判定してもよい。さらに、インパクトを判定する前後の差分定数をゴルフクラブやボールの種類によって変更することで、打球した際の衝撃度合いに応じて、打球したかどうか判定することができ、どのクラブ、どのボールにおいても正確にインパクトを検出することができる。以上、ワッグルの除去方法について説明した。なお、日本国特許出願第2012−254672号に記載された内容は、引用によりその内容の全体が本明細書に組み込まれる。
再度、図5に戻り、ST518では、ST517で計算された録画データの削除期間を用いて、得られた全録画データから不要な録画データ(すなわち、録画開始〜ワッグル終了後までの録画データ)が削除される。さらに、録画データにおけるスイングの開始のタイミングと、スイング軌跡の再生開始タイミングとが揃えられる。ここで、録画データ及びセンサーデータには、一定時間ごとに同一のタイムスタンプが付与されているため、センサーデータにおけるスイングの開始に対応する時刻を識別すれば、これと同一の時刻を録画データの再生開始に対応する時刻として用いることができ、これによって、録画データにおけるスイングの開始のタイミングと、スイング軌跡の再生開始タイミングとを揃えることができる。
次に、ST519では、トリミングが施された録画データと、対応するセンサーデータから生成された動画像とが、端末装置300の表示部350に重ね合わせて表示される。図10は、本発明の一実施形態に係る解析システムにおける端末装置300の表示部350に表示される画面の一例を示す図である。図11は、本発明の一実施形態に係る解析システムにおける端末装置300の表示部350に表示される画面の別の例を示す図である。図10及び図11に例示されるように、プレイヤーがスイングする様子を捉えた録画データ(ビデオデータ)と、対応するセンサーデータから生成されたスイングの軌跡を示す動画像(アニメーション)とが、重ね合わせて表示されている。
なお、センサーデータは、ゴルフクラブに取り付けられたセンサー100の3軸(X軸、Y軸及びZ軸)上の座標を対応する時刻に対応付けた情報を含むものであるので、これらの情報を用いれば、図10及び図11に例示されるようなスイングの軌跡を示す動画像を生成することができる。
なお、このようなスイングの様子を捉えた動画像とスイングの軌跡を示す動画像とを重ね合わせて表示するための具体的な手法については後述する。
また、別の実施形態では、センサーデータから生成されたスイングの軌跡を示す動画像を表示する際には、インパクト時の軌跡を他の軌跡と区別可能な態様で(例えば特定の色等により)表示することも可能である。なお、インパクトが生じた時刻は、上記のとおり認識可能であるので、その時刻に対応する画像を特別な態様で表示することも可能である。
なお、センサーデータは、ゴルフクラブに取り付けられたセンサー100の3軸(X軸、Y軸及びZ軸)上の座標を対応する時刻に対応付けた情報を含むものであるので、これらの情報を用いれば、図10及び図11に例示されるようなスイングの軌跡を示す動画像を生成することができる。
なお、このようなスイングの様子を捉えた動画像とスイングの軌跡を示す動画像とを重ね合わせて表示するための具体的な手法については後述する。
また、別の実施形態では、センサーデータから生成されたスイングの軌跡を示す動画像を表示する際には、インパクト時の軌跡を他の軌跡と区別可能な態様で(例えば特定の色等により)表示することも可能である。なお、インパクトが生じた時刻は、上記のとおり認識可能であるので、その時刻に対応する画像を特別な態様で表示することも可能である。
このように、プレイヤーは、端末装置300に指示されたとおりにカメラ200を設置し、センサー100を使用してスイング軌跡を測定しながら、録画を行うことにより、スイングの様子を捉えた動画像と、スイングの軌跡を示す動画像とを重ね合わせて見ることができるが、環境によっては、カメラ200の向き及びプレイヤーとカメラ200との距離を指示されたとおりに設置できない場合も考えられる。この場合には、選択的に、ST520において、実際のカメラ200の位置やプレイヤーとカメラ200との距離に応じて、スイングの軌跡を示す動画像を、録画データを見ながら手動で設定することにより、スイングの様子を捉えた動画像(画面上の位置)とスイングの軌跡を示す動画像(画面上の位置)とを一致させることもできる。
再度図5に戻り、ST521では、スイングの様子を捉えた動画像と、理想的な位置を示す画像とが重ね合わせて表示される。
図12は、本発明の一実施形態に係る解析システムにおいてスイング時におけるプレイヤーの理想的な姿勢を説明する模式図である。図12に示すように、打球の進行方向とは反対の方向からプレイヤーのスイングフォームを観察したとき、アドレス時のクラブと地面との角度、クラブの長さ、プレイヤーの身長、プレイヤーの身長に対する平均的な腕の長さから、アドレス時の理想的な姿勢を推定することができる。ゴルフのスイングは、アドレス時の姿勢をスイング中に保つことがよいフォームとされており、この理想的な姿勢を図12に示すような線分を動画像に重ね合わせて表示させることにより、プレイヤーは、映像の解析をせずとも、自身のスイングフォームの良し悪しを理解するための手助けを得ることができる。これにより、プレイヤーは、ゴルフスイングの予備知識を有しなくとも、スイングのチェックを効率的に行うことができる。また、プレイヤーは、スイングプレーンがオンプレーンの範囲内にあるのか否かをも判定できるため、スイングプレーンの良し悪しも判定することができる。
なお、このようなスイングフォームを捉えた動画像と理想的な姿勢を示す線分とを重ね合わせて表示するための具体的な手法については後述する。
図12は、本発明の一実施形態に係る解析システムにおいてスイング時におけるプレイヤーの理想的な姿勢を説明する模式図である。図12に示すように、打球の進行方向とは反対の方向からプレイヤーのスイングフォームを観察したとき、アドレス時のクラブと地面との角度、クラブの長さ、プレイヤーの身長、プレイヤーの身長に対する平均的な腕の長さから、アドレス時の理想的な姿勢を推定することができる。ゴルフのスイングは、アドレス時の姿勢をスイング中に保つことがよいフォームとされており、この理想的な姿勢を図12に示すような線分を動画像に重ね合わせて表示させることにより、プレイヤーは、映像の解析をせずとも、自身のスイングフォームの良し悪しを理解するための手助けを得ることができる。これにより、プレイヤーは、ゴルフスイングの予備知識を有しなくとも、スイングのチェックを効率的に行うことができる。また、プレイヤーは、スイングプレーンがオンプレーンの範囲内にあるのか否かをも判定できるため、スイングプレーンの良し悪しも判定することができる。
なお、このようなスイングフォームを捉えた動画像と理想的な姿勢を示す線分とを重ね合わせて表示するための具体的な手法については後述する。
また、再度図5を参照すると、選択的に、ST522において、プレイヤーのスイングを点数化する処理が行われるようにしてもよい。
最後に、図5には、示されていないが、上述した解析システムの実行の結果として得られた計算結果(プレイヤーとカメラ200との距離、プレイヤーの腕の長さ)、設定情報(身長、クラブ設定)、録画データ、センサーデータ等は、端末装置300の不揮発性メモリ370に記録されるようにしてもよい。記録された各測定結果及び録画データは、RDBMS形式によって関係付けられ、プレイヤー(ユーザー)は、測定日時や測定結果を検索キーとしてデータを検索することにより、過去のデータを閲覧することもできる。蓄積された過去のデータを現在のデータと比較乃至検証することが容易となるため、より効果的にゴルフスイングの練習を進めることができる。
次に、スイングの様子を捉えた動画像とスイングの軌跡を示す動画像とを重ね合わせて表示するための具体的な手法について、図13A及び図13Bを参照して説明する。図13A及び図13Bは、本発明の一実施形態に係る解析システムにおいてスイングの測定開始から録画データとスイングの軌跡を示す動画像との座標重ね合わせ処理が完了するまでのプログラムフローを示す図である。図13A及び図13Bは、図5におけるST508〜ST520までの処理をプログラムレベルでフロー化した図に相当する。以下に述べる処理は、端末装置300のROM320に保存されたプログラムによって実行される。図13A及び図13Bとプロセス全体のフローを示した図5との対応関係は、図13A及び図13Bの下段に示されている。
ST1301では、端末装置300がセンサー100からセンサーデータの受信を開始する。ST1302〜ST1305では、端末装置300は、センサー100から継続的にセンサーデータを受信し、上記式(2)に使用するθ(アドレス時のクラブライ角)の計算に必要な静止状態の重力加速度を測定する。ST1306〜ST1308では、端末装置300は、プレイヤーがスイングし、センサー100がインパクトの衝撃を検出するまで、センサーデータを受信し続ける。ST1309では、端末装置300がセンサー100からセンサーデータの受信を終了する。
ST1310では、カメラ200が端末装置300に対してST509〜ST515の間に録画したビデオデータを転送する。ST1311では、端末装置300は、受信したビデオデータを不揮発性メモリ370に保存する。
ST1312〜ST1315において、端末装置300がセンサーデータからスイング軌道及びスイング速度等を計算する。その計算方法及び計算アルゴリズムは、例えば、上記において引用した日本国特許出願第2012−254672号に記載されたものを用いることができる。スイング軌道の各点の座標は原点からm単位で算出される。ST1316において、端末装置300は、ST1312〜ST1315において計算されたスイングデータの計測時間に基づいてスイング前後のビデオデータをトリミングする。
ST1317において、端末装置300は、スイング軌道をピクセルに変換するため、1ピクセルあたり何メートルとなるか、メートルとピクセルとの比率をカメラの水平画角及び被写体までの距離から算出する。カメラ200と被写体とが図7(上段)のように相対しており、プレイヤーとカメラ200とが並行している場合には、プレイヤー及びカメラ200を真上から見た図7(下段)に示すように、水平方向の画角をθとしたときには、次の式が成り立つ。
平行なときの水平方向の幅(m)=2×被写体までの距離×tan(θ/2)
一方、カメラ200と被写体とが図9(上段)のように相対しているが、図9(下段)に示すようにカメラ200とプレイヤーとが並行でない場合、水平方向のカメラ200の傾きをΩとした場合には、次の式が成り立つ。
水平方向の幅(m)=平行なときの水平方向の幅/cos(Ω)
画面解像度は、デバイスにより取得できるため、
1mあたりのピクセルサイズ(px/m)=水平方向の画面解像度÷水平方向の幅
となり、端末装置300は、ピクセルとメートルとの比率を算出する。
平行なときの水平方向の幅(m)=2×被写体までの距離×tan(θ/2)
一方、カメラ200と被写体とが図9(上段)のように相対しているが、図9(下段)に示すようにカメラ200とプレイヤーとが並行でない場合、水平方向のカメラ200の傾きをΩとした場合には、次の式が成り立つ。
水平方向の幅(m)=平行なときの水平方向の幅/cos(Ω)
画面解像度は、デバイスにより取得できるため、
1mあたりのピクセルサイズ(px/m)=水平方向の画面解像度÷水平方向の幅
となり、端末装置300は、ピクセルとメートルとの比率を算出する。
ST1318では、端末装置300は、ST1317において求められたメートルあたりのピクセル比率を元にスイングアークを画面上にプロットする。スイングアークの開始位置は、図5のST506で設定された人型の模式図の水平線と垂直線とが交差する点である原点Oである。原点Oが画面上のどこに配置されているか、画面上の座標平面が正面方向の座標平面か側面方向の座標平面かは、ST501の時点で設定されRAM330に保存されている。端末装置300は、設定された座標平面及び原点位置から、スイングアークの座標をピクセルに変換してプロットする。端末装置300は、スイングアークをプロットするメモリ領域として、ビデオデータとは別のメモリ領域を用い、スイングアークとビデオデータとの描画面の合成は、OpenGL等の既知の画像合成技術を使用して実行可能である。
ST1319〜ST1322では、図9に例示されるとおり、実際のカメラの設置や距離を取ったときに、プレイヤーとカメラ200とが確実に並行、垂直になる保障はない。したがって、ST1318にて合成された画像は、それらの傾きや計算上の距離と実際の距離との差分により、スイングアークとプレイヤーのスイングモーションにずれがあることが想定される。これらのずれはプログラムで自動で補正することができないため、垂直、水平、奥行き方向にユーザー操作によりスイングアークを調整するユーザーインターフェースを設け、ユーザーが、合成されたスイングアークの大きさや位置、傾きを微調整する。
ST1323では、端末装置300は、ST1319〜ST1322までの調整結果を不揮発性メモリ370に保存する。ST1324では、端末装置300は、ビデオ再生を開始し、時刻に応じたスイング軌道を再描画する。ビデオデータの再生と、スイング動作の開始時刻から再生速度にあわせてスイングアークをピクセルに順次プロットすることとによって、あたかもスイング動作に連動してスイングアークが表示されたように見える。
次に、スイングフォームを捉えた動画像と理想的な姿勢を示す線分とを重ね合わせて表示するための具体的な手法について、図14及び図15を参照して説明する。図14は、本発明の一実施形態に係る解析システムにおける端末装置300の表示部350に表示される画面のさらに別の例を示す図である。図15は、図14に示された線分を画面上の動画像と重ね合わせる際にプログラムが画面描画領域に線分を配置するプロセスを説明するフロー図である。
ST1501において、端末装置300は、図5のST506で設定された原点Oから、ST501で設定されたクラブのライ角の傾きで画面上に描画される線分Aを計算する。線分Aの長さは、ST501で設定されたクラブ長である。
ST1502において、端末装置300は、線分A上で、センサー100の装着点A1から垂直方向に延びる線分Bを算出する。センサー100の装着点A1は、グリップ下部とされているので、線分Aの端部であるA3から、線分A上でグリップの長さ分離れた点となる。線分Bの長さは、プレイヤーの腕の長さに相当するため握り軸到達距離とする。クラブを支えるユーザーの両腕は地面に向かって真下に降りているのがよいフォームと考えられているので、線分Bは垂直方向と並行となる。
ST1503において、端末装置300は、線分Bの端部B1から、円Dの大きさ及び位置を算出する。円Dはプレイヤーの頭の位置の目安となるため、円の直径をプレイヤーの身長の1/6とした大きさの円とする。但し、円D、線分B、線分Aを組み合わせた、原点Oから垂直方向の長さがプレイヤーの身長を超える場合、端末装置300は、線分Aを算出した際に利用したライ角を、クラブ情報のライ角から実際にアドレスした際のライ角へ変更し、線分A、線分B、円Dを再計算しプレイヤーの身長を超えないようにする。
ST1504において、端末装置300は、線分Aと直角となり、点B1から始まる線分Cを算出する。線分Cと線分Aを延長した線が交わる点をA2とする。A3上を通る水平線と線分Cとが交差する点をB2とする。線分Cは、A2を通過しB1からB2までの直線の線分とする。
ST1505において、A3から垂直線を降ろし、これを補助線Gとする。端末装置300は、補助線Gと水平座標軸と交差する点を中点として水平方向に延びる線分Hを算出する。線分Hは足の位置の目安となる。線分Hの長さは握り軸到達距離の半分とする。
ST1506において、端末装置300は、線分Hの先端部H1と補助線線分Gの中点G1とを結ぶ線分Iを算出する。ST1507において、端末装置300は、G1と線分Bの先端部B2とを結ぶ線分Jを算出する。
ST1508において、端末装置300は、A4からB1を通る直線となる線分Eを算出する。ST1509において、端末装置300は、線分A、線分E、線分Bで囲まれる領域Fを算出する。
ST1510において、カメラ200が水平方向、垂直方向に並行でない場合、線分と実際の画像はずれて表示されるため、端末装置300は、ST1323において保存された傾斜情報を元に線分全体を投影して位置を調整する。
ST1511において、端末装置300は、ST1501〜ST1509までに算出した線分、円、領域を描画する。各線分の長さの単位はmとなっているため、端末装置300は、ST1317で算出したピクセル比率を用いて、長さを変換して描画する。
ST1511において、端末装置300は、ST1501〜ST1509までに算出した線分、円、領域を描画する。各線分の長さの単位はmとなっているため、端末装置300は、ST1317で算出したピクセル比率を用いて、長さを変換して描画する。
ST1512において、端末装置300は、線分の結合点を画面上でユーザー操作により移動できるGUIを表示し調整させることも可能とする。
ST1513において、端末装置300は、ST1512までに算出及び調整された線分の座標情報を不揮発メモリ370に保存する。かかる保存は、ユーザーが端末装置300のGUI表示部を操作することを契機として行われる。
ST1513において、端末装置300は、ST1512までに算出及び調整された線分の座標情報を不揮発メモリ370に保存する。かかる保存は、ユーザーが端末装置300のGUI表示部を操作することを契機として行われる。
ST1514において、端末装置300は、領域F内にあるスイングアークの座標点の割合からスイングを点数化することができる。領域Fは、ベンホーガンプレーンと称され、ヘッドがダウンスイング及びバックスイングで領域Fを通過するのがよいといわれている。よって、端末装置300は、ヘッドが領域Fを通過する割合が多いほどスイングの点数を高得点となるようにする。
このように、1つの実施形態によれば、カメラにより生成されたビデオデータとセンサーデータから生成されたスイングの軌跡を示す動画像とをディスプレイ上に重ね合わせて表示するとともに、ビデオデータの再生の開始とスイングの軌跡の描画開始とを同期させることにより、ビデオデータにおける例えばクラブヘッドの部分がカメラの性能不足に起因して不鮮明な状態にあっても、スイングの軌跡がビデオデータにおける例えばクラブヘッドの位置に対応して描画されるため、カメラで録画したスイングモーションの不鮮明さを、センサーで計測したスイングの軌跡を描画することによって補完することができる。したがって、カメラの性能(例えばFlame Per Second)が不十分であるために、ビデオデータにおけるクラブの動作がぶれてしまい、ビデオデータにおいてスイングが確認できないといった問題の発生を抑えることができる。
また、1つの実施形態によれば、プレイヤーがスイングの測定を開始すべくセンサーの操作ボタンを押下し、センサーがその旨を示す第1特定信号を端末装置に送信し、端末装置により実行されている特定アプリケーションが、第1特定信号を受信することを契機として、録画モードでカメラを起動してカメラに録画の開始を命令する。これにより、カメラは、プレイヤーによるスイング開始と同期して録画を開始する。また、センサーが、インパクトを検出して、その旨を示す第2特定信号を端末装置に送信し、端末装置により実行されている特定アプリケーションが、第2特定信号を受信することを契機として、カメラに対して録画の停止を命令する。これにより、プレイヤーによるスイングの終了と同期して、カメラは録画を終了する。したがって、プレイヤーは、カメラを別途操作するオペレータを必要とすることなく、1人で録画及びスイングの測定を実行することができる。また、プレイヤーは、セルフタイマーを用いることなく、スイングのタイミングに合わせて録画を開始することができる。
さらに、1つの実施形態によれば、端末装置により実行される特定アプリケーションは、プレイヤーがセンサーの操作ボタンを押下したことを、第1特定信号を受信することにより検出することができ、また、センサーがインパクトを検出したことを、第2特定信号を受信することにより検出することができる。よって、カメラによる録画の開始とセンサーによるスイングの測定とを同期させた場合、センサーにより生成されたセンサーデータを解析することにより、録画されたスイングモーションの中のどの時刻からどの時刻までを有効なスイングモーションとして残しておくべきかを判断することができる。これにより、カメラにより生成されたビデオデータから不要なデータを容易にトリミングすることができる。したがって、録画した映像を手動でトリミングしたり、録画した映像に手動でタイミングを設定するといった手間を省くことができる。
さらにまた、1つの実施形態によれば、ビデオデータと理想的な姿勢を示す線分とを重ね合わせて表示することにより、プレイヤーは映像を解析することなく(手動で線を引く必要もなく)スイングフォームの良し悪しを判断する手助けを得ることができる。また、プレイヤーは、ゴルフスイングの予備知識がなくとも、スイングのチェックを行うことができる。
なお、上述した様々な実施形態では、プレイヤーの動作を解析する端末装置の一例として、ゴルフクラブを握持したプレイヤーのスイングを解析する端末装置を挙げて説明したが、本明細書で開示した技術的思想は、ソフトボール(野球)に用いられるバット、卓球・テニスに用いられるラケット、新体操に用いられる様々な道具、ビリヤードに用いられるキュー、釣りに用いられる釣竿等の様々な道具(これらの道具にはセンサーが取り付けられる)を握持したプレイヤーの動作を解析する端末装置にも適用可能なものである。また、この場合、プレイヤーが取るべき適切な又は理想的な姿勢が存在するときには、そのような姿勢を示す又は示唆する線分や曲線等を、プレイヤーの動作を撮影したビデオデータに重ね合わせて表示することにより、プレイヤーは、自身の動作の良し悪しを簡単に判断することができる(例えば、野球の場合にはテイクバックからフォロースルーまでの間、目線の高さが変わらないことが望ましいため、目線の高さに水平に延びるガイド線を表示することにより、プレイヤーは、ビデオデータにおけるプレイヤーの目線がスイングの間において変化していないかをチェックすることができる)。さらには、本明細書で開示した技術的思想は、センサーが取り付けられた道具を用いたプレイヤーの動作を解析する場合のみならず、道具を用いないプレイヤーの動作を解析する場合にも及ぶものである。すなわち、本明細書で開示した手法は、身体に直接センサーが取り付けられたプレイヤーの動作(例えば、ダンス、空手、水泳、バレエ、陸上競技等をするプレイヤーの動作)を解析する場合にも適用可能なものである。
本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能なものである。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。
本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明されるデータ、テーブル又はデータベースが単一のメモリに格納される旨説明されたとしても、そのようなデータ、テーブル又はデータベースは、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェア及びハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。
100 センサー
200 カメラ
300 端末装置
200 カメラ
300 端末装置
Claims (7)
- センサーが取り付けられた測定対象物の動画像を取得する動画像取得手段と、
前記センサーから前記測定対象物に関連したセンサーデータを取得するセンサーデータ取得手段と、
前記動画像と前記センサーデータから生成された付加的な画像とを重ね合わせて表示する表示制御手段と、
を具備することを特徴とする端末装置。 - 前記表示制御手段は、前記動画像と前記測定対象物の軌跡を示す付加的な動画像とを同期させて表示する、請求項1に記載の端末装置。
- 前記表示制御手段は、選択された期間について前記動画像と前記付加的な動画像とを同期させて表示する、請求項2に記載の端末装置。
- 前記測定対象物の動画像を生成するために当該端末装置の内部又は外部に配置された撮像部を制御する制御手段をさらに具備し、
前記制御手段は、前記センサーから第1特定信号を受信したことに基づいて前記撮像部に撮像動作を開始させ、前記センサーから第2特定信号を受信したことに基づいて前記撮像部に撮像動作を停止させる、請求項1から請求項3のいずれかに記載の端末装置。 - 前記表示制御手段は、前記動画像と前記測定対象物の理想的な位置を示す付加的な画像とを重ね合わせて表示する、請求項1に記載の端末装置。
- コンピュータを、
センサーが取り付けられた測定対象物の動画像を取得する動画像取得手段、
前記センサーから前記測定対象物に関連したセンサーデータを取得するセンサーデータ取得手段、及び、
前記動画像と前記センサーデータから生成された付加的な画像とを重ね合わせて表示する表示制御手段、
として機能させるプログラム。 - センサーが取り付けられた測定対象物の動画像を取得する段階と、
前記センサーから前記測定対象物に関連したセンサーデータを取得する段階と、
前記動画像と前記センサーデータから生成された付加的な画像とを重ね合わせて表示する段階と、
を含むことを特徴とする表示方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014071553A JP2015192713A (ja) | 2014-03-31 | 2014-03-31 | 端末装置及び表示方法 |
KR1020140131777A KR20150113800A (ko) | 2014-03-31 | 2014-09-30 | 단말 장치, 프로그램 및 표시 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014071553A JP2015192713A (ja) | 2014-03-31 | 2014-03-31 | 端末装置及び表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015192713A true JP2015192713A (ja) | 2015-11-05 |
Family
ID=54346661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014071553A Pending JP2015192713A (ja) | 2014-03-31 | 2014-03-31 | 端末装置及び表示方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015192713A (ja) |
KR (1) | KR20150113800A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020103830A (ja) * | 2018-12-28 | 2020-07-09 | 国立大学法人 筑波大学 | 面防具、動作記録システムおよび動作記録方法 |
US10946242B2 (en) | 2018-06-22 | 2021-03-16 | Seiko Epson Corporation | Swing analysis device, swing analysis method, and swing analysis system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106799038B (zh) * | 2017-03-14 | 2019-07-26 | 广州视源电子科技股份有限公司 | 数据的显示方法和装置 |
-
2014
- 2014-03-31 JP JP2014071553A patent/JP2015192713A/ja active Pending
- 2014-09-30 KR KR1020140131777A patent/KR20150113800A/ko not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10946242B2 (en) | 2018-06-22 | 2021-03-16 | Seiko Epson Corporation | Swing analysis device, swing analysis method, and swing analysis system |
JP2020103830A (ja) * | 2018-12-28 | 2020-07-09 | 国立大学法人 筑波大学 | 面防具、動作記録システムおよび動作記録方法 |
JP7109082B2 (ja) | 2018-12-28 | 2022-07-29 | 国立大学法人 筑波大学 | 面防具、動作記録システムおよび動作記録方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20150113800A (ko) | 2015-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20150072797A1 (en) | Terminal Device and Display Method | |
US8672779B1 (en) | System and method for swing analyses | |
US9962591B2 (en) | Motion analysis method, program, and motion analysis device | |
US20140379295A1 (en) | Motion analysis device | |
US10512833B2 (en) | Presentation method, swing analysis apparatus, swing analysis system, swing analysis program, and recording medium | |
TW201501752A (zh) | 運動解析方法及運動解析裝置 | |
JP6379499B2 (ja) | スイング測定方法およびスイング測定装置 | |
JP5874475B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2006135160A1 (en) | System and method for analyzing golf swing motion | |
US20160089568A1 (en) | Exercise analysis device, exercise analysis system, exercise analysis method, and program | |
US20210407316A1 (en) | Posture comparison and correction method using application configured to check two golf images and result data in overlapping state | |
KR20170043560A (ko) | 운동 해석 방법, 운동 해석 장치, 운동 해석 시스템 및 프로그램 | |
JP2019536064A (ja) | ゴルフボール打ち出しモニタ目標位置調整方法およびシステム | |
US10286285B2 (en) | Display method, display apparatus, motion analysis system, motion analysis program, and recording medium | |
WO2016114126A1 (ja) | 検出装置、検出システム、運動解析システム、記録媒体、および解析方法 | |
KR20140054983A (ko) | 골프 자세 교정 시스템 및 방법 | |
JP5521265B2 (ja) | スウィング表示方法およびスウィング表示システム | |
US20160175674A1 (en) | Motion analysis device, motion analysis system, motion analysis method, program, and recording medium | |
JP2004024488A (ja) | ゴルフスイングのインパクト状態計測方法 | |
JP2015192713A (ja) | 端末装置及び表示方法 | |
US20160175680A1 (en) | Exercise analysis device, exercise analysis system, exercise analysis method, program, and recording medium | |
JP2010127639A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US20060189418A1 (en) | Deviation measuring apparatus | |
JP3050448U (ja) | ゴルフ指導支援装置 | |
JP2013009789A (ja) | カメラシステム、撮影システム及び撮影方法 |