JP6337911B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6337911B2 JP6337911B2 JP2016008605A JP2016008605A JP6337911B2 JP 6337911 B2 JP6337911 B2 JP 6337911B2 JP 2016008605 A JP2016008605 A JP 2016008605A JP 2016008605 A JP2016008605 A JP 2016008605A JP 6337911 B2 JP6337911 B2 JP 6337911B2
- Authority
- JP
- Japan
- Prior art keywords
- trajectory
- moving image
- image
- unit
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
従来、テニス、ゴルフあるいは野球等におけるスイングをカメラ撮影し、撮影したスイングの画像を見ながらフォームをチェックすることが行われている(例えば、特許文献1)。 Conventionally, swinging in tennis, golf, baseball, or the like is photographed with a camera, and the form is checked while viewing the photographed swing image (for example, Patent Document 1).
また、このようなフォームのチェックを行うにあたり、ゴルフクラブ等の動体の軌跡を表示するようにしてチェックを容易にするようにしたものもある(例えば、特許文献2)。 In addition, when checking such a form, there is also one that facilitates the check by displaying the locus of a moving body such as a golf club (for example, Patent Document 2).
ところで、フォームのチェックは、自分のスイングをカメラ撮影してこれをチェックするだけでなく、例えば、プロ選手やインストラクター等の理想のフォームによるスイングを撮影しておき、これと比較表示してチェックを行う場合がある。 By the way, you can check the form not only by taking a picture of your swing with a camera, but also by taking a picture of a swing with an ideal form such as a professional player or instructor, and comparing it with this to check it. May do.
しかしながら、このような場合、理想のフォームによるスイングを撮影するカメラの角度等の撮影条件が自分のスイングを撮影したときと一致するとは限らないため、このような状況においては、上記各特許文献に記載の技術を用いたとしても、理想のフォームを正確に把握することができず、フォームのチェックが困難であるという問題があった。 However, in such a case, the shooting conditions such as the angle of the camera that shoots the swing with the ideal form do not always coincide with those when the swing is shot. Even if the described technique is used, there is a problem that an ideal form cannot be accurately grasped and it is difficult to check the form.
本発明の課題は、撮影条件が異なっても理想のフォームを正確に把握することができる画像処理装置、画像処理方法及びプログラムを提供することである。 An object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of accurately grasping an ideal form even if photographing conditions are different.
以上の課題を解決するため、本発明の画像処理装置は、
移動しうる被写体が第1の撮影環境下で撮影された少なくとも1つの第1の動画像と前記第1の撮影環境下とは異なる第2の撮影環境下で撮影された第2の動画像を取得する画像取得手段と、
前記画像取得手段により取得された前記第1の動画像に含まれる前記被写体の動作に基づいて、第1の軌跡を生成する軌跡生成手段と、
前記第1の動画像及び前記第2の動画像の前記移動しうる被写体に含まれる特徴点に基づいて、画像内における位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された位置情報に基づいて、前記軌跡生成手段により生成された第1の軌跡を、前記第2の撮影環境下に適合するように補正する軌跡補正手段と、
前記第2の動画像に前記軌跡補正手段により補正された第1の軌跡が重畳するように合成する合成手段と、
を備えたことを特徴とする。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
Second moving image object that can be moved, which is taken under a different second imaging environment from the at least one first moving image and the first photographing environment of the shooting under the first imaging environment Image acquisition means for acquiring
A trajectory generating means for generating a first trajectory based on the motion of the subject included in the first moving image acquired by the image acquiring means;
Position information acquisition means for acquiring position information in the image based on feature points included in the movable subject of the first moving image and the second moving image;
A trajectory correcting unit that corrects the first trajectory generated by the trajectory generating unit based on the positional information acquired by the positional information acquiring unit so as to fit in the second imaging environment;
And synthesizing for synthesizing means such that the first trajectory is superimposed corrected by the trajectory compensation means to the second moving image,
It is provided with.
本発明によれば、撮影条件が異なっても理想のフォームを正確に把握することができる。 According to the present invention, an ideal form can be accurately grasped even if photographing conditions are different.
図1に、本発明の一実施形態における画像処理システム100の全体構成を示す。
画像処理システム100は動体の軌跡を表示又は解析するためのシステムであり、本実施の形態では、一例として、テニスコートにおけるテニススイングの軌跡を表示又は解析する場合について説明する。なお、本実施の形態によれば、ゴルフスイング、野球でのバットのスイング、その他の動体の軌跡の表示又は解析が可能である。
FIG. 1 shows an overall configuration of an
The
画像処理システム100は、撮影手段としてのカメラ1〜3、HUB4、画像処理装置10、プリンタ5、メディア書込部6等を備えて構成される。これらはLAN(Local Area Network)ケーブル7により接続されている。
The
カメラ1〜3は、1秒間に30枚程度の静止画像を撮影して動画像を出力する高機能のデジタルカメラである。秒間撮像フレーム数(フレームレート)はfps(frame per second)で表される。すなわち、カメラ1〜3のフレームレートは30[fps]である。本実施の形態では、上述したように、フレームレートが30[fps]であるカメラを適用したが、フレームレートはこれに限らず、例えば、フレームレートが300〜1200[fps]であるハイスピードカメラを適用してもよい。
カメラ1は、テニスコートのバックラインに対して第1の撮影角度でスイング動作者を撮影するカメラであり、当該位置で撮影した動画像の画像データを画像処理装置10に出力する。カメラ2は、テニスコートのバックラインに対して第2の撮影角度でスイング動作者を撮影するカメラであり、当該位置で撮影した動画像の画像データを画像処理装置10に出力する。カメラ3は、テニスコートのバックラインに対して第3の撮影角度でスイング動作者を撮影するカメラであり、当該位置で撮影した動画像の画像データを画像処理装置10に出力する。
The
画像処理装置10は、カメラ1〜3により撮影された動画像の画像データを入力して、入力した画像データによる動画像の表示又は解析等を行う。
The
図2に、画像処理装置10の内部構成を示す。
画像処理装置10は、制御部11、入力部12、表示部13、記憶部14、接続部15等を備えて構成される。また、各部はバス16により接続される。本実施の形態において、画像処理装置10は、例えば、パーソナルコンピュータ等の情報処理装置により構成される。なお、画像処理装置の機能をカメラ1〜3が備える構成であってもよい。
FIG. 2 shows an internal configuration of the
The
軌跡補正手段として機能する制御部11は、図示しないCPUやRAM等を備えて構成され、記憶部14との協働により画像処理装置10の各部を集中制御する。すなわち、制御部11は、記憶部14に記憶された各種プログラムを実行することにより、図3に示すように、第1設定部11a、第2設定部11b、第1軌跡取得部11c、第2軌跡取得部11d、第1撮影角度算出部11e、第2撮影角度算出部11f、撮影角度差分算出部11g、補正部11h、第3設定部11i、第4設定部11j、比率算出部11k、位置差分算出部11m、軌跡差分判定部11n、画像指定部11p、移動対象画像抽出部11r及び表示制御部11sとして機能する。
The
第1設定部11aは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像における第1の特徴点として交差する2以上の直線を設定する。具体的には後述するが、第1設定部11aは、ある撮影環境下で理想のフォームによるスイングを撮影して得られた動画像に基づいてユーザにより2以上の直線を設定する。この2以上の直線は、例えば、テニスコートにあっては、バックラインとサイドラインに沿ってそれぞれ設定された直線である。
The
第2設定部11bは、カメラ1〜3によって第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点として交差する2以上の直線を設定する。具体的には後述するが、第2設定部11bは、理想のフォームを撮影したときとは異なる撮影環境下でチェック対象のスイングを撮影して得られた動画像に基づいてユーザにより2以上の直線を設定する。この2以上の直線は、例えば、テニスコートにあっては、バックラインとサイドラインに沿ってそれぞれ設定された直線である。
The
第1軌跡取得部11cは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像から第1の移動対象の軌跡を第1軌跡として取得する。具体的には後述するが、第1軌跡取得部11cは、撮影した理想のフォームによるスイングの動画像からテニスラケットやゴルフクラブのヘッド等の移動対象の軌跡を取得する。
The 1st locus |
第2軌跡取得部11dは、カメラ1〜3によって第2の撮影環境下で撮影して得られた動画像から第2の移動対象の軌跡を第2軌跡として取得する。具体的には後述するが、第2軌跡取得部11dは、撮影したチェック対象のスイングの動画像からテニスラケットやゴルフクラブのヘッド等の移動対象の軌跡を取得する。
The second
第1撮影角度算出部11eは、第1設定部11aによって設定された2以上の直線のそれぞれのなす角度から第1の撮影環境下で撮影されたときのカメラ1〜3の撮影角度を算出する。具体的には後述するが、第1撮影角度算出部11eは、理想のフォームによるスイングを撮影して得られた動画像から設定された2以上の直線のそれぞれのなす角度から、ある位置に対するカメラ1〜3の撮影角度を算出する。
The first shooting
第2撮影角度算出部11fは、第2設定部11bによって設定された2以上の直線のそれぞれのなす角度から第2の撮影環境下で撮影されたときのカメラ1〜3の撮影角度を算出する。具体的には後述するが、第2撮影角度算出部11fは、チェック対象のスイングを撮影して得られた動画像から設定された2以上の直線のそれぞれのなす角度から、ある位置に対するカメラ1〜3の撮影角度を算出する。
The second shooting
撮影角度差分算出部11gは、第1撮影角度算出部11eによって算出された撮影角度と、第2撮影角度算出部11fによって算出された撮影角度との差分を算出する。
The shooting angle
補正部11hは、撮影角度差分算出部11gによって算出された撮影角度の差分に基づいて、第1軌跡取得部11cによって取得された第1軌跡の位置を補正する。具体的には後述するが、補正部11hは、第1の撮影環境下で撮影されたときのカメラ1〜3の撮影角度と第2の撮影環境下で撮影されたときのカメラ1〜3の撮影角度との差分から、撮影した理想のフォームによるスイングの動画像から取得されたテニスラケットやゴルフクラブのヘッド等の移動対象の軌跡の位置を補正する。
The
第3設定部11iは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像における第3の特徴点としての直線を設定する。具体的には後述するが、第3設定部11iは、理想のフォームによるスイングを撮影して得られた動画像に基づいて、ユーザにより第1の特徴点としての直線とは異なる直線を設定する。この直線は、例えば、理想のフォームによるスイングを行うスイング動作者の体の中心線に沿って設定された直線である。
The
第4設定部11jは、カメラ1〜3によって第2の撮影環境下で撮影して得られた動画像における第4の特徴点としての直線を設定する。具体的には後述するが、第4設定部11jは、チェック対象のスイングを撮影して得られた動画像に基づいて、ユーザにより第2の特徴点としての直線とは異なる直線を設定する。この直線は、例えば、チェック対象のスイングを行うスイング動作者の体の中心線に沿って設定された直線である。
The
比率算出部11kは、第3設定部11iによって設定された直線と、第4設定部11jによって設定された直線との長さの比率を算出する。
The
位置差分算出部11mは、第3設定部11iによって設定された直線と、第4設定部11jによって設定された直線との位置の差分を算出する。すなわち、位置差分算出部11mは、第3の特徴点としての直線の位置と、第4の特徴点としての直線の位置とのずれ量を求める。
The position
軌跡差分判定部11nは、補正部11hによって補正された第1軌跡と、第2軌跡取得部11dによって取得された第2軌跡との差分を判定する。具体的には後述するが、軌跡差分判定部11nは、撮影したチェック対象のスイングの動画像からテニスラケットやゴルフクラブのヘッド等の移動対象の軌跡が、位置が補正された撮影した理想のフォームによるスイングの動画像から取得されたテニスラケットやゴルフクラブのヘッド等の移動対象の軌跡からどのくらいずれているかを判定する。
The trajectory
画像指定部11pは、第1の移動対象の画像を指定する。具体的には後述するが、画像指定部11pは、移動対象を特定するために、ユーザによって当該移動対象部分の画像を指定する。
The
移動対象画像抽出部11rは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像から画像指定部11pによって指定された画像に対応する画像を抽出する。具体的には後述するが、移動対象画像抽出部11rは、ユーザによって指定された画像をテンプレートとするテンプレートマッチングを行う。これにより、理想のフォームによるスイングを撮影して得られた動画像を構成する各静止画像からテンプレートに相当する画像を抽出する。
The movement target
表示制御部11sは、表示部13の表示制御を行う。
The
入力部12は、カーソルキーや各種機能キーを備えたキーボード及びマウス等を備えて構成され、操作信号を制御部11に出力する。
The
表示部13は、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等により構成され、制御部11からの表示信号に従って画面表示を行う。
The
記憶部14は、HDD(Hard Disk Drive)等により構成され、各種プログラム及び各種データを記憶する。
The
接続部15は、USB(Universal Serial Bus)等のバスインターフェイスにより構成され、カメラ1〜3から出力された動画像の画像データを入力し、一方でプリンタ5やメディア書込部6に動画像又は静止画像の画像データを出力する。
The
図1に戻り、HUB4は、カメラ1〜3と画像処理装置10との間に介在する集線装置であってこれらを接続する。
プリンタ5は、画像処理装置10からの印刷指示に従い、印刷媒体(例えば紙等)に対して印刷処理を行う。プリンタ5は、例えば、ページプリンタ等の印刷装置により構成される。
メディア書込部6は、画像処理装置10の書込指示に従い、デジタルの動画像の画像データをDVD等のメディア(可搬型記録媒体)に書き込む機器である。なお、メディア書込部6は、画像処理装置10に内蔵されるものとしてもよい。
Returning to FIG. 1, the
The
The
次に、上述のようにして構成された画像処理システム100を用いて、動体の軌跡を表示又は解析する手順について、図4を参照しながら説明する。
なお、以下の説明において、カメラ1〜3によりテニススイング時のスイング動作者が同時期に撮影され、撮影された各方向の動画像の画像データが画像処理装置10により記憶されるものとする。
Next, a procedure for displaying or analyzing the trajectory of a moving object using the
In the following description, it is assumed that the swing operator at the time of tennis swing is photographed by the
最初に、ある撮影環境(第1の撮影環境)下において、例えばインストラクターやプロ選手のスイング等、見本とするフォーム(理想のフォーム)によるスイングの撮影をカメラ1〜3によって行う。なお、撮影に使用するカメラの数は3つに限らず、1つであっても、2以上であってもよい。撮影された動画像の画像データ(理想のフォームの動画像データ)は、画像処理装置10の制御部11の制御により、例えば、記憶部14に記憶される(ステップS101)。
First, under a certain shooting environment (first shooting environment), the
次に、理想のフォームによるスイングの撮影時とは異なる撮影位置(第2の撮影環境下)にて、フォームのチェックを行いたいスイングの撮影をカメラ1〜3によって行う。ここで、撮影するカメラはカメラ1〜3の何れかであってもよい。撮影された動画像の画像データ(チェック対象の動画像データ)は、画像処理装置10の制御部11の制御により、例えば、記憶部14に記憶される(ステップS102)。
Next, at the shooting position (under the second shooting environment) different from the shooting of the swing with the ideal form, shooting of the swing for which the form is to be checked is performed by the
次に、制御部11は、記憶部14から理想のフォームの動画像データを読み出し、移動対象であるテニスラケットの軌跡を取得するための各種データの登録を行う(ステップS103)。ここで、図5を参照して、テニスラケットの軌跡を取得するためのデータ登録処理の手順について説明する。なお、以下の説明においては、理想のフォームの動画像データを用いて各種データの登録を行う内容について説明するが、チェック対象の動画像データを用いた各種データの登録も同様の手順にて行われる。
Next, the
最初に、制御部11は、読み出した理想のフォームの動画像データから、フォーム開始フレームの指定を行う(ステップS201)。すなわち、制御部11は、フォームの診断を開始するフレームの指定を行う。より具体的には、例えば、図6に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームの動画像を構成する静止画像を時系列的に切り換えて表示する。なお、図6には、テニスラケットR1を把持したスイング動作者Q1がテニスコート上でスイングしている様子が表示されている。テニスコートは、コーナーC1で交差するバックラインBL1とサイドラインSL1とに囲まれている。また、表示画面上に表示された選択ボタンB1,B2は、例えば、入力部12としてのマウスの操作によ
り入力することができる。そして、制御部11は、表示画面上にフォーム開始フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、フォーム開始フレームを指定する。
First, the
次に、制御部11は、第1設定部11aを機能させて、指定されたフォーム開始フレームの静止画像を利用したバックライン及びサイドラインの指定を行う(ステップS202)。具体的には、例えば、図7に示すように、制御部11は、表示部13の表示画面上に表示されたポインタP1〜P3の位置が変位操作されることにより、バックラインBL1及びサイドラインSL1をラインL1,L2によって規定する。なお、表示画面上に表示されたポインタP1〜P3は、例えば、入力部12としてのマウスによるドラッグ操作によって変位させることができる。ポインタP1〜P3の位置は、例えば、制御部11の備えるRAMに保存される。
Next, the
次に、制御部11は、第3設定部11iを機能させて、スイング動作者Q1の位置の指定を行う(ステップS203)。具体的には、例えば、図8に示すように、制御部11は、表示部13の表示画面上に表示されたポインタP4,P5の位置が変位操作されることにより、スイング動作者Q1の位置をラインL3によって規定する。ラインL3の規定は、例えば、スイング動作者Q1の首と腰の部分をそれぞれポインタP4,P5で規定することにより行うことができる。なお、表示画面上に表示されたポインタP4,P5は、例えば、入力部12としてのマウスによるドラッグ操作によって変位させることができる。
ポインタP4,P5の位置は、例えば、制御部11の備えるRAMに保存される。
Next, the
The positions of the pointers P 4 and P 5 are stored in, for example, a RAM provided in the
次に、制御部11は、画像指定部11pを機能させて、テニスラケットR1の位置の指定を行う(ステップS204)。具体的には、例えば、図9、図10に示すように、制御部11は、表示部13の表示画面上に表示されたポインタT1,T2の位置が変位操作されると、当該ポインタT1,T2の位置により方形状の枠FTを規定する。テニスラケットR1の指定は、例えば、図10に示すように、テニスラケットR1の左上部分と右下部分とをそれぞれポインタT1,T2で規定することにより行うことができる。なお、表示画面上に表示されたポインタT1,T2は、例えば、入力部12としてのマウスによるドラッグ操作によって変位させることができる。ポインタT1,T2の位置は、例えば、制御部11の備えるRAMに保存される。
Next, the
次に、制御部11は、理想のフォームの動画像データから、バックスイング開始フレームの指定を行う(ステップS205)。すなわち、制御部11は、バックスイングの動作の開始に相当するフレームの指定を行う。より具体的には、例えば、図11に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にバックスイング開始フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、バックスイング開始フレームを指定する。
Next, the
次に、制御部11は、理想のフォームの動画像データから、フォロースイング開始フレームの指定を行う(ステップS206)。すなわち、制御部11は、フォロースイングの動作の開始に相当するフレームの指定を行う。より具体的には、例えば、図12に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にフォロースイング開始フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、フォロースイング開始フレームを指定する。
Next, the
次に、制御部11は、理想のフォームの動画像データから、フォロースイング終了フレームの指定を行う(ステップS207)。すなわち、制御部11は、フォロースイングの動作の終了に相当するフレームの指定を行う。より具体的には、例えば、図13に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にフォロースイング終了フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、フォロースイング終了フレームを指定する。
Next, the
以上のようにして理想のフォームのデータ登録が完了すると、制御部11は、図4に示すように、第1撮影角度算出部11eを機能させて、理想のフォームによるスイングが撮影されたときのテニスコートのバックラインに対する撮影角度(理想のフォームの撮影角度)を算出する(ステップS104)。
When the registration of the ideal form data is completed as described above, the
具体的には、制御部11は、図14に示すように、ラインL1,L2によって規定されたバックライン及びサイドラインの水平線HLに対する傾き、すなわち、角度α,βを求める。ここで、理想のフォームによるスイングが撮影されたときのテニスコートの状況を平面視で表すと、図15(A)に示すようになる。なお、立体視で表した状態を、図15(B)に示す。このとき、カメラ1〜3のうちの一のカメラCMと、バックラインBLとサイドラインSLとの交点であるコーナーとを結ぶ軸線をy軸とし、このコーナーに接するとともにy軸と直交する軸線をx軸とすると、x軸とバックラインBLとでなす角度はα0となり、x軸とサイドラインSLとでなす角度はβ0となる。このとき、バックラインBLとy軸とがなす角度が撮影角度θとなる。テニスコートを平面視でみた場合、バックラインBLとサイドラインSLとのなす角度は90°であり、下記式(1)の関係が成り立つ。なお、aは変換係数を示す。
(a×sinα0)2+(a×sinβ0)2=1・・・(1)
Specifically, as illustrated in FIG. 14, the
(A × sin α 0 ) 2 + (a × sin β 0 ) 2 = 1 (1)
さらに、これをxyz軸上で表すと、図16に示すようになる。平面視においては、視点はz軸上とされているため、これを実際のカメラCMの視点にするために、x軸を回転軸として、全体を角度δ回転させる。すると、xyz軸上にある任意の点Xは、x軸で回転してX´となる。すなわち、点Xの座標を(x,y,z)とし、点X´の座標を(x´,y´,z´)とすると、点X´の座標は下記式(2)のようにして求めることができる。
上記式(2)によれば、変換係数aは1/cosδとなることがわかる。
そして、バックラインBLとサイドラインSLの交点であるコーナーの位置のz軸上の高さを0とすると、下記式(3)及び下記式(4)の関係が成り立つ。
sinα=cosδ×sinα0・・・(3)
sinβ=cosδ×sinβ0・・・(4)
According to the above equation (2), it can be seen that the conversion coefficient a is 1 / cos δ.
Then, assuming that the height on the z-axis at the corner position, which is the intersection of the back line BL and the side line SL, is 0, the following expressions (3) and (4) are satisfied.
sin α = cos δ × sin α 0 (3)
sin β = cos δ × sin β 0 (4)
すなわち、上記式(3)及び上記式(4)から下記式(5)を表すことができる。
(1/cosδ×sinα)2+(1/cosδ×sinβ)2=1・・・(5)
したがって、下記式(6)及び下記式(7)の関係が成り立つ。
cosθ=1/cosδ×sinβ・・・(6)
sinθ=1/cosδ×sinα・・・(7)
これにより、撮影角度θを求めることができる。なお、上述した説明は、カメラ1〜3のうちの一のカメラCMについての撮影角度θを求めるものであるが、他のカメラについても同様の手順で撮影角度θを求めることができる。
That is, the following formula (5) can be expressed from the above formula (3) and the above formula (4).
(1 / cos δ × sin α) 2 + (1 / cos δ × sin β) 2 = 1 (5)
Therefore, the relationship of the following formula (6) and the following formula (7) is established.
cos θ = 1 / cos δ × sin β (6)
sin θ = 1 / cos δ × sin α (7)
Thereby, the imaging angle θ can be obtained. In the above description, the shooting angle θ for one camera CM among the
以上のようにして、理想のフォームの撮影角度を算出すると、制御部11は、第1軌跡取得部11cを機能させて、撮影した理想のフォームによるスイングの動画像から移動対象であるテニスラケットの軌跡を取得する(ステップS105)。具体的には、制御部11は、移動対象画像抽出部11rを機能させて、理想のフォームによるスイングの動画像のうち、フォロースイング開始フレームからフォロースイング終了フレームまでの間の動画像を構成する静止画像のそれぞれについて、テニスラケットの部分の画像を抽出する。
すなわち、制御部11は、先ず、画像指定部11pを機能させて上述のようにして指定されたテニスラケットの画像をテンプレートとする。次に、制御部11は、理想のフォームの動画像のうち、フォロースイング開始フレームからフォロースイング終了フレームまでの間の動画像を構成する静止画像のそれぞれについて、テンプレートとした画像とマッチングする画像の部分を抽出する。制御部11は、この抽出された画像をテニスラケットの部分の画像とし、この抽出された画像の中心を軌跡としてプロットする。その結果、例えば、図17に示されるようなフレーム毎の軌跡H1〜Hnを取得することができる。テンプレートマッチングの手法は、公知のものが採用できるが、例えば、最初にテンプレートを設定したフレームの次のフレームの静止画像から、テンプレートとした画像の座標の近傍の一定範囲を探索範囲とし、例えば、RGB等の画像のパラメータの差分が最も小さい領域を特定する。その次以降のフレームの静止画像についても同様の手順を繰り返すことにより、各フレームについてテンプレートとマッチングする画像の部分を特定する。
When the shooting angle of the ideal form is calculated as described above, the
That is, the
制御部11は、上述した処理を、カメラ1〜3のそれぞれで撮影して得られた動画像についてそれぞれ実施する。
The
次に、カメラ1〜3のそれぞれで撮影されて得られた理想のフォームの動画像データを、上述のようにして生成された、テニスラケットの軌跡を取得するための各種データ、撮影角度、フレーム毎の軌跡データ等とともに、理想のフォームデータファイルとして、例えば、記憶部14に保存する(ステップS106)。なお、理想のフォームデータファイルは、ファイル名が指定される。また、理想のフォームデータファイルは、理想のフォームの動画像データを作成する毎に生成される。
Next, various data for obtaining the trajectory of the tennis racket, the shooting angle, and the frame, which are generated as described above, from the moving image data of the ideal form obtained by each of the cameras 1-3. For example, the data is stored in the
次に、制御部11は、第2設定部11b及び第4設定部11j等を機能させて、記憶部14からチェック対象の動画像データを読み出し、移動対象であるテニスラケットの軌跡を取得するための各種データの登録を行う(ステップS107)。テニスラケットの軌跡を取得するためのデータの登録の処理手順は、上述した理想のフォームによるスイングの動画像についてのテニスラケットの軌跡を取得するためのデータの登録の処理手順と同様である。すなわち、制御部11は、図18に示すようなチェック対象のスイングの動画像を表示部13の表示画面上に表示させた後に、フォーム開始フレームの指定、バックラインBL2及びサイドラインSL2の規定、スイング動作者Q2の位置の指定、テニスラケットR2の位置の指定、バックスイング開始フレームの指定、フォロースイング開始フレ
ームの指定及びフォロースイング終了フレームの指定を行う。
Next, the
続いて、制御部11は、第2撮影角度算出部11fを機能させて、チェック対象者のスイングが撮影されたときのテニスコートのバックラインに対する撮影角度(チェック対象者の撮影角度)を算出する(ステップS108)。チェック対象者の撮影角度の算出は、上述した理想のフォームの撮影角度の算出と同様の手順により行うことができる。
Subsequently, the
次に、制御部11は、第2軌跡取得部11dを機能させて、撮影したチェック対象者のスイングの動画像から移動対象であるテニスラケットの軌跡を取得する(ステップS109)。チェック対象者のスイングの動画像におけるテニスラケットの軌跡の取得方法は、上述した理想のフォームによるスイングの動画像におけるテニスラケットの軌跡の取得方法と同様の手順により行うことができる。
Next, the
次に、制御部11は、カメラ1〜3の1つ又は2以上で撮影されて得られたチェック対象の動画像データを、上述のようにして生成された、テニスラケットの軌跡を取得するための各種データ、撮影角度、フレーム毎の軌跡データ等とともに、チェック対象のフォームデータファイルとして、例えば、記憶部14に保存する(ステップS110)。なお、チェック対象のフォームデータファイルは、ファイル名が指定される。
Next, the
その後、制御部11は、チェック対象のフォームデータファイルを記憶部14から読み出した後(ステップS111)、理想のフォームデータファイルを記憶部14から読み出す(ステップS112)。制御部11は、理想のフォームデータファイルを読み出すときは、例えば、表示部13の表示画面上に、図19に示すようなファイル選択画面を表示する。ユーザは、例えば、入力部12であるマウスやキーボードを操作して、ファイル選択画面におけるリストから何れかを選択することにより、任意の理想のフォームデータファイルを選択することができる。
Thereafter, the
次に、制御部11は、補正部11h、比率算出部11k及び位置差分算出部11mを機能させて、ステップS112において読み出したファイルに含まれる理想のフォームによるスイングの動画像についてのテニスラケットの軌跡データの位置の補正を行う(ステップS113)。
ここで、本実施の形態では、カメラ1〜3により、3つの撮影角度によって理想のフォームによるスイングを撮影し、それぞれの動画像を取得している。そのため、テニスラケットの軌跡データの位置の補正を行う対象である動画像を選択する。テニスラケットの軌跡データの位置の補正を行う対象である動画像の選択は、理想のフォームによるスイングを撮影した動画像の撮影角度のそれぞれを、チェック対象のスイングを撮影して得られた動画像の撮影角度と比較し、撮影角度の差分の最も小さいものの動画像を特定することにより行う。
Next, the
Here, in this embodiment, the
具体的には、先ず、図20(A)に示すように、理想のフォームによるスイングが撮影されたときのテニスコートの状況を平面視で表したとき、スイング動作者の体の中心からテニスラケットの中心RCまでの距離を距離rで表し、テニスボールが飛来する方向(例えば、クロスの方向)である打球の方向に対する、スイング動作者の体の中心とテニスラケットの中心RCを結ぶ線の角度を角度εで表すことができる。このとき、バックラインBLに対する打球の方向のなす角度は、例えば、60°である。また、このとき、バックラインBLに対して撮影角度θをなす軸線と直交する線に対するスイング動作者の体の中心とテニスラケットの中心RCを結ぶ線の角度は角度γで表すことができる。そして、チ
ェック対象のスイングの動画像に対する理想のフォームによるスイングの動画像の変換係数をAとすると、理想のフォームによるスイングの動画像における、バックラインBLに対して撮影角度θをなすカメラCMを通る軸線とテニスラケットの中心RCとの距離X(図20(A)、図20(B)参照)は、下記式(8)によって表すことができる。
X=A×r×cosγ・・・(8)
なお、変換係数Aは、例えば、図21に示すように、理想のフォームによるスイングの動画像において規定したラインL3の長さに対する、チェック対象のスイングの動画像において規定したラインL4の長さの割合によって求めることができる。
Specifically, as shown in FIG. 20 (A), first, the tennis racket is viewed from the center of the body of the swing operator when the situation of the tennis court when the swing with the ideal form is photographed is shown in plan view. The distance between the center of the swinging operator and the center RC of the tennis racket with respect to the direction of the hitting ball, which is the direction in which the tennis ball flies (for example, the direction of the cross) Can be represented by an angle ε. At this time, the angle formed by the direction of the hit ball with respect to the back line BL is, for example, 60 °. At this time, the angle of the line connecting the center of the swing operator's body and the center RC of the tennis racket with respect to a line orthogonal to the axis that forms the shooting angle θ with respect to the backline BL can be represented by an angle γ. Then, assuming that the conversion coefficient of the moving image of the swing with the ideal form with respect to the moving image of the swing to be checked is A, the camera CM that forms the shooting angle θ with respect to the back line BL in the moving image of the swing with the ideal form. A distance X (see FIGS. 20A and 20B) between the axis passing through and the center RC of the tennis racket can be expressed by the following equation (8).
X = A × r × cos γ (8)
For example, as shown in FIG. 21, the conversion coefficient A is the length of the line L 4 defined in the moving image of the swing to be checked with respect to the length of the line L 3 defined in the moving image of the swing with an ideal form. It can be determined by the ratio of the length.
ここで、角度γは、下記式(9)によって表すことができる。
γ=abs(90°−(ε−60°+θ)
=abs(150°−ε−θ)・・・(9)
Here, the angle γ can be expressed by the following equation (9).
γ = abs (90 ° − (ε−60 ° + θ)
= Abs (150 ° −ε−θ) (9)
そして、理想のフォームによるスイングの動画像における撮影角度とチェック対象のスイングの動画像における撮影角度とのずれ量をΔθとすると、チェック対象のスイングの動画像における撮影角度とした場合の距離X´を、下記式(10)により表すことができる。すなわち、距離Xを距離X´に変換することができる。なお、撮影角度のずれ量Δθは、制御部11が、撮影角度差分算出部11gを機能させて求められる。
X´=A×r×cos(γ+Δθ)
=A×r×cosγ×cosΔθ−A×r×sinγ×sinΔθ
=X×cosΔθ−A×r×sinγ×sinΔθ・・・(10)
When the amount of deviation between the shooting angle in the moving image of the swing in the ideal form and the shooting angle in the moving image of the check target swing is Δθ, the distance X ′ when the shooting angle in the moving image of the check target swing is used. Can be represented by the following formula (10). That is, the distance X can be converted into the distance X ′. The photographing angle deviation amount Δθ is obtained by the
X ′ = A × r × cos (γ + Δθ)
= A × r × cos γ × cos Δθ−A × r × sin γ × sin Δθ
= X × cos Δθ−A × r × sin γ × sin Δθ (10)
例えば、理想のフォームによるスイングの動画像における撮影角度とチェック対象のスイングの動画像における撮影角度とのずれ量Δθが10°である場合には、X´は下記式(11)により求められる。
X´=0.98×X−A×r×sinγ×0.17・・・(11)
For example, when the deviation amount Δθ between the shooting angle in the moving image of the swing with the ideal form and the shooting angle in the moving image of the swing to be checked is 10 °, X ′ is obtained by the following equation (11).
X ′ = 0.98 × X−A × r × sin γ × 0.17 (11)
ここで、理想のフォームにおける上述の角度εを求める。角度εは、例えば、理想のフォームによるスイングの動画像において、予め、バックスイング開始の状態となる時間、フォロースイング開始の状態となる時間及びフォロースイング終了の状態となる時間をそれぞれ設定し、そこから、時間の経過により予測することができる。例えば、バックスイングの開始のときの角度εを0°とした場合、バックスイングの終了のとき、すなわち、フォロースイングの開始のときの角度εは180°となり、フォロースイングの終了のときの角度εは0°となる。これらの時間は、例えば、上述したようにして指定したバックスイング開始フレーム、フォロースイング開始フレーム及びフォロースイング終了フレー
ムにより特定することができる。
Here, the above-mentioned angle ε in the ideal form is obtained. The angle ε is set, for example, in advance in a swing moving image of an ideal form by setting a time for a back swing start state, a time for a follow swing start state, and a time for a follow swing end state, respectively. Therefore, it can be predicted over time. For example, if the angle ε at the start of the backswing is 0 °, the angle ε at the end of the backswing, that is, the start of the follow swing is 180 °, and the angle ε at the end of the follow swing Becomes 0 °. These times can be specified by, for example, the backswing start frame, follow swing start frame, and follow swing end frame specified as described above.
そして、角度εが求められると、上記式(9)により角度γを求めることができ、これにより、上記式(10)における「A×r×sinγ」の解が得られる結果、距離X´を求めることができる。
このようにして理想のフォームのフレーム毎の軌跡H1〜Hnを距離Xから距離X´とすることにより変換することができる。
When the angle ε is obtained, the angle γ can be obtained from the above equation (9). As a result, the solution of “A × r × sin γ” in the above equation (10) is obtained. Can be sought.
In this way, the trajectory H 1 to H n for each frame of the ideal form can be converted from the distance X to the distance X ′.
そして、制御部11は、上述したようにして変換された理想のフォームの軌跡の位置を、チェック対象のスイングの動画像におけるスイング動作者Q2の位置に対応するようにシフトする。これにより、チェック対象のスイングの動画像におけるチェック対象者のテニスラケットの軌跡との比較表示を行うことができるようになる。具体的には、制御部11は、上述のようにして変換された理想のフォームのフレーム毎の軌跡H1〜Hnのそれぞれの座標(X1,Y1)〜(Xn,Yn)を、それぞれシフトして(X1´,Y1´)〜(Xn´,Yn´)に補正する。各軌跡H1〜Hnの補正後の座標は、図21に示すように、第3設定部11iが機能して上述したようにして規定されたポインタP4,P5の座標P4(x0,y0),P5(x1,y1)と、第4設定部11jが機能して上述したようにして規定されたポインタP6,P7の座標P6(x2,y2),P7(x3,y3
)とに基づき、下記式(12)及び下記式(13)により求めることができる。なお、下記式(12)及び下記式(13)においては、理想のフォームのフレーム毎の軌跡Hnの座標(Xn,Yn)から座標(Xn´,Yn´)への変換式を示すが、他の軌跡の座標についても同様にして求めることができる。
Xn´=(y0−y1)/(y2−y3)×Xn+(x2−x0)・・・(12)
Yn´=(y0−y1)/(y2−y3)×Yn+(y2−y0)・・・(13)
Then, the
) And the following equation (12) and the following equation (13). In the following formulas (12) and (13), the conversion formula from the coordinates (X n , Y n ) of the trajectory H n for each frame of the ideal form to the coordinates (X n ′, Y n ′). The coordinates of other trajectories can be obtained in the same manner.
Xn '= (y0-y1) / (y2-y3) * Xn + (x2-x0) ... (12)
Y n '= (y0-y1 ) / (y2-y3) × Y n + (y2-y0) ··· (13)
以上のようにして理想のフォームによるスイングの動画像についてのテニスラケットの軌跡の位置の補正を行った後、制御部11は、図4に示すように、補正した理想のフォームのテニスラケットの軌跡と、チェック対象者のテニスラケットの軌跡とを表示部13に表示するための表示データを生成する(ステップS114)。なお、フレーム毎の軌跡を点で表示してもよいし、点を結んだ線で表示するようにしてもよい。このとき、テニスラケットのスイングのタイミングは、理想のフォームによるスイングの動画像とチェック対象のスイングの動画像とで異なる場合があるため、例えば、図22(A)に示すように、各動画像の再生タイミングを、上述したようにして指定したバックスイング開始フレームで合わせるのが好ましい。すると、図22(A)に示すように、理想のフォームによるス
イングとチェック対象者のスイングとでスイングの速度が異なる場合には、これをユーザに認識できるように表示することができるようになる。この場合において、理想のフォームによるスイングとチェック対象者のスイングとでスイングの速度を合わせたいときには、例えば、図22(B)に示すように、理想のフォームによるスイングの動画像において、フレーム数が増加するように静止画像を追加する。静止画像の追加は、例えば、理想のフォームによるスイングの動画像の一部のフレームの静止画像と同一の静止画像を挿入することで実現することができる。また、チェック対象のスイングの動画像の一部のフレームの静止画像を間引くようにしてもよい。このようにすると、理想のフォームのテニスラケットの軌跡とチェック対象者のテニスラケットの軌跡との相異をより明確に理解させる
ことができるようになる。そして、制御部11は、軌跡差分判定部11nを機能させて、これらの軌跡の差分を判定することによりチェック対象者のテニスラケットの軌跡の診断を行う(ステップS115)。具体的には、例えば、制御部11は、フォロースイング開始時における軌跡の差分や、フォロースイング終了時における軌跡の差分等が所定の大きさであるか否かを判定する。そして、制御部11は、診断結果に対応するメッセージを表示するための表示データを生成する(ステップS116)。制御部11は、表示部13の表示画面上に、チェック対象のスイングの動画像を表示するとともに、ステップS114及びステップS116において生成された表示データに基づく表示を行う(ステップS117)。その結果、例えば、図23に示すような画面が表示部13の表示画面上に表示さ
れる。図23では、フォロースイング終了時における、補正した理想のフォームのテニスラケットの軌跡と、チェック対象者のテニスラケットの軌跡との差分が所定の大きさを超えているため、補正した理想のフォームのテニスラケットの軌跡SW1及びチェック対象者のテニスラケットの軌跡SW2とともに、例えば、「フォロースルーを高くしましょう」といった表示が行われている。なお、各軌跡は、表示されたフレームの動画像に応じて順次表示するようにしてもよい。例えば、30フレーム目の動画像が表示部13の表示画面に表示されるタイミングでは、1〜30フレーム目までの軌跡を表示するようにし、31フレーム以降の軌跡は表示しない。また、本実施の形態では、チェック対象のスイングの動画像を表示する場合において、打球をヒットする瞬間や、スイング開始のタイミング
等の代表的なタイミングにおける静止画像を表示することができる。このとき、当該表示された静止画像に対応する、補正された理想のフォームのテニスラケットの軌跡を表示する。
After correcting the position of the trajectory of the tennis racket for the moving image of the swing with the ideal form as described above, the
次に、本実施の形態の他の例として、上述した画像処理システム100を用いて、ゴルフ練習場におけるゴルフスイングの軌跡を表示又は解析する場合について説明する。なお、以下の説明において示される各ステップは、図4及び図5における各処理に対応しているため、これらの図面を参照するものとする。
Next, as another example of the present embodiment, a case will be described in which the trajectory of a golf swing at a driving range is displayed or analyzed using the
まず、ある撮影環境(第1の撮影環境)下において、上述したようにして、理想のフォームによるスイングの撮影をカメラ1〜3によって行う。撮影された理想のフォームの動画像データは、画像処理装置10の制御部11の制御により、例えば、記憶部14に記憶される(ステップS101)。
また、理想のフォームによるスイングの撮影時とは異なる撮影位置(第2の撮影環境下)にて、上述したようにして、フォームのチェックを行いたいスイングの撮影をカメラ1〜3によって行う。撮影されたチェック対象の動画像データは、画像処理装置10の制御部11の制御により、例えば、記憶部14に記憶される(ステップS102)。
First, under a certain shooting environment (first shooting environment), as described above, shooting of a swing with an ideal form is performed by the
In addition, at the shooting position (under the second shooting environment) different from the shooting of the swing with the ideal form, as described above, shooting of the swing for which the form is to be checked is performed by the
次に、制御部11は、記憶部14から理想のフォームの動画像データを読み出し、移動対象であるゴルフクラブの軌跡を取得するための各種データの登録を行う(ステップS103)。
Next, the
ここで、ゴルフクラブの軌跡を取得するためのデータ登録処理の手順について説明すると、先ず、制御部11は、読み出した理想のフォームの動画像データから、フォーム開始フレームの指定を行う(ステップS201)。より具体的には、例えば、図24に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームによるスイングの動画像を構成する静止画像を時系列的に切り換えて表示する。なお、図24には、ゴルフクラブW1を把持したスイング動作者Q3がマットM1上でスイングしている様子が表示されている。マットM1は、左端部ML1と先端部MT1と右端部MR1とに囲まれている。そして、制御部11は、表示画面上にフォーム開始フレームとして適切な静止画像が表示されたときに
セットボタンB3が入力されることにより、フォーム開始フレームを指定する。
Here, the procedure of the data registration process for acquiring the trajectory of the golf club will be described. First, the
次に、制御部11は、第1設定部11aを機能させて、指定されたフォーム開始フレームの静止画像を利用したマットM1の左端部ML1、先端部MT1及び右端部MR1の指定を行う(ステップS202)。具体的には、例えば、図25に示すように、制御部11は、表示部13の表示画面上に表示されたポインタP11〜P14の位置が変位操作されることにより、マットの左端部ML1、先端部MT1及び右端部MR1をそれぞれラインL11〜L13によって規定する。なお、本実施の形態では、マットの左端部ML1、先端部MT1及び右端部MR1の3点を規定し、撮影角度の算出の精度を向上するようにしたが、これらのうちの2点を規定して撮影角度の算出を行うようにしてもよい。ポインタP11〜P14の位置は、例えば、制御部11の備えるRAMに保存される。
Next, the
次に、制御部11は、第3設定部11iを機能させて、スイング動作者Q3の位置の指定を行う(ステップS203)。具体的には、例えば、図26に示すように、制御部11は、表示部13の表示画面上に表示されたポインタP15,P16の位置が変位操作されることにより、スイング動作者Q3の位置をラインL14によって規定する。ポインタP15,P16の位置は、例えば、制御部11の備えるRAMに保存される。
Next, the
次に、制御部11は、画像指定部11pを機能させて、ゴルフクラブW1の位置の指定を行う(ステップS204)。具体的には、例えば、図27、図28に示すように、制御部11は、表示部13の表示画面上に表示されたポインタT11,T12の位置が変位操作されると、当該ポインタT11,T12の位置により方形状の枠FGを規定する。ゴルフクラブW1の規定は、例えば、図28に示すように、ゴルフクラブW1のヘッドの左上部分と右下部分とをそれぞれポインタT11,T12で規定することにより行うことができる。ポインタT11、T12の位置は、例えば、制御部11の備えるRAMに保存される。
Next, the
次に、制御部11は、理想のフォームの動画像データから、バックスイング開始フレームの指定を行う(ステップS205)。より具体的には、例えば、図29に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームによるスイングの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にバックスイング開始フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、バックスイング開始フレームを指定する。
Next, the
次に、制御部11は、理想のフォームの動画像データから、フォロースイング開始フレームの指定を行う(ステップS206)。より具体的には、例えば、図30に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームによるスイングの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にフォロースイング開始フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、フォロースイング開始フレームを指定する。
Next, the
次に、制御部11は、理想のフォームの動画像データから、フォロースイング終了フレームの指定を行う(ステップS207)。より具体的には、例えば、図31に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームによるスイングの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にフォロースイング終了フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、フォロースイング終了フレームを指定する。
Next, the
以上のようにして理想のフォームのデータ登録が完了すると、制御部11は、第1撮影角度算出部11eを機能させて、理想のフォームの撮影角度を算出する(ステップS104)。
When the registration of the ideal form data is completed as described above, the
具体的には、制御部11は、図32に示すように、ラインL11〜L13によって規定されたマットM1の左端部ML1、先端部MT1及び右端部MR1の水平線HLに対する傾き、すなわち、角度α,ζ,βを求める。ここで、理想のフォームによるスイングが撮影されたときのマットの状況を平面視で表すと、図33に示すようになる。このとき、カメラ1〜3のうちの一のカメラCMと、マットの先端部MTと右端部MRとの交点であるコーナーとを結ぶ軸線をy軸とし、y軸と直交する軸線をx軸とすると、x軸とマットの右端部MRとでなす角度はβ0となり、x軸とマットの先端部MTとでなす角度はζ0となる。
Specifically, as shown in FIG. 32, the
ここで、先ず、マットの先端部MTと右端部MRとの交点について注目し、マットの右端部MRに対するカメラCMとこの交点とを結ぶ軸線のなす角度θ1について求める。マットを平面視でみた場合、マットの先端部MTと右端部MRとのなす角度は90°であり、また、図33によれば、角度θ1は角度ζ0と一致することがわかり、下記式(14)の関係が成り立つ。なお、a1は変換係数を示す。
(a1×sinβ0)2+(a1×sinζ0)2=1・・・(14)
Here, first, attention is paid to the intersection between the leading end MT of the mat and the right end MR, and the angle θ 1 formed by the axis connecting the camera CM to the right end MR of the mat and this intersection is obtained. When the mat is viewed in a plan view, the angle formed between the leading end MT and the right end MR of the mat is 90 °, and according to FIG. 33, it can be seen that the angle θ 1 matches the angle ζ 0. The relationship of Formula (14) is established. Incidentally, a 1 represents a conversion coefficient.
(A 1 × sin β 0 ) 2 + (a 1 × sin ζ 0 ) 2 = 1 (14)
上述したようにして、これをxyz軸上で表した場合、平面視においては、視点はz軸上とされているため、これを実際のカメラCMの視点にするために、x軸を回転軸として全体を角度δ1回転させる。すると、上述によれば、変換係数a1は、1/cosδ1となることがわかる。
そして、マットの先端部MTと右端部MRの交点であるコーナーの位置のz軸上の高さを0とすると、下記式(15)及び下記式(16)の関係が成り立つ。
sinβ=cosδ1×sinβ0・・・(15)
sinζ=cosδ1×sinζ0・・・(16)
As described above, when this is represented on the xyz axis, the viewpoint is on the z axis in the plan view. Therefore, in order to make this the actual camera CM viewpoint, the x axis is the rotation axis. As a whole, the angle δ is rotated once . Then, according to the above, it can be seen that the conversion coefficient a 1 is 1 / cos δ 1 .
Then, assuming that the height on the z-axis at the corner position, which is the intersection of the tip portion MT and the right end portion MR of the mat, is 0, the following equations (15) and (16) are satisfied.
sin β = cos δ 1 × sin β 0 (15)
sinζ = cosδ 1 × sinζ 0 (16)
すなわち、上記式(15)及び上記式(16)から下記式(17)を表すことができる。
(1/cosδ1×sinβ)2+(1/cosδ1×sinζ)2=1・・・(17)
したがって、下記式(18)及び下記式(19)の関係が成り立つ。
cosθ1=1/cosδ1×sinβ・・・(18)
sinθ1=1/cosδ1×sinζ・・・(19)
これにより、角度θ1を求めることができる。
That is, the following formula (17) can be expressed from the above formula (15) and the above formula (16).
(1 / cos δ 1 × sin β) 2 + (1 / cos δ 1 × sin ζ) 2 = 1 (17)
Therefore, the relationship of the following formula (18) and the following formula (19) is established.
cos θ 1 = 1 / cos δ 1 × sin β (18)
sin θ 1 = 1 / cos δ 1 × sin ζ (19)
Thereby, angle (theta) 1 can be calculated | required.
次に、図34を参照して、マット先端部MTと左端部MLとの交点について注目し、マット左端部MLに対するカメラCMとこの交点とを結ぶ軸線のなす角度θ2について求める。マットを平面視でみた場合、マットの先端部MTと左端部MLとのなす角度は90°であり、下記式(20)の関係が成り立つ。なお、a2は変換係数を示す。
(a2×sinα1)2+(a2×sinζ1)2=1・・・(20)
Next, with reference to FIG. 34, it noted the intersection of the mat tip MT and left portion ML, determined for the angle theta 2 of the axis connecting the intersection point with the camera CM for mat left end ML. When the mat is viewed in plan, the angle formed between the leading end MT and the left end ML of the mat is 90 °, and the relationship of the following formula (20) is established. Incidentally, a 2 indicates the conversion factor.
(A 2 × sin α 1 ) 2 + (a 2 × sin ζ 1 ) 2 = 1 (20)
上述したようにして、これをxyz軸上で表した場合、平面視においては、視点はz軸上とされているため、これを実際のカメラCMの視点にするために、x軸を回転軸として全体を角度δ2回転させる。すると、上述によれば、変換係数a2は、1/cosδ2となることがわかる。
そして、マットの先端部MTと左端部MLの交点であるコーナーの位置のz軸上の高さを0とすると、下記式(21)及び下記式(22)の関係が成り立つ。
sinα=cosδ2×sinα1・・・(21)
sinζ=cosδ2×sinζ1・・・(22)
As described above, when this is represented on the xyz axis, the viewpoint is on the z axis in the plan view. Therefore, in order to make this the actual camera CM viewpoint, the x axis is the rotation axis. As a whole, the angle δ is rotated twice . Then, according to the above, it can be seen that the conversion coefficient a 2 is 1 / cos δ 2 .
Then, assuming that the height on the z-axis of the corner position, which is the intersection of the front end MT and the left end ML of the mat, is 0, the following relations (21) and (22) are established.
sin α = cos δ 2 × sin α 1 (21)
sinζ = cosδ 2 × sinζ 1 (22)
すなわち、上記式(21)及び上記式(22)から下記式(23)を表すことができる。
(1/cosδ2×sinα)2+(1/cosδ2×sinζ)2=1・・・(23)
したがって、下記式(24)及び下記式(25)の関係が成り立つ。
cosθ2=1/cosδ2×sinα・・・(24)
sinθ2=1/cosδ2×sinζ・・・(25)
これにより、角度θ2を求めることができる。
That is, the following formula (23) can be expressed from the above formula (21) and the above formula (22).
(1 / cosδ 2 × sinα) 2 + (1 /
Therefore, the relationship of the following formula (24) and the following formula (25) is established.
cos θ 2 = 1 / cos δ 2 × sin α (24)
sin θ 2 = 1 / cos δ 2 × sin ζ (25)
Thereby, angle (theta) 2 can be calculated | required.
次に、角度θ1及び角度θ2から撮影角度θを求める。
図35に示すように、マットを平面視でみた場合、撮影角度θは、下記式(26)によって表すことができる。
θ=h2´/(h1´+h2´)×θ1+h1´/(h1´+h2´)×θ2・・・(26)
Next, the shooting angle θ is obtained from the angle θ 1 and the angle θ 2 .
As shown in FIG. 35, when the mat is viewed in plan, the shooting angle θ can be expressed by the following equation (26).
θ = h 2 ′ / (h 1 ′ + h 2 ′) × θ 1 + h 1 ′ / (h 1 ′ + h 2 ′) × θ 2 (26)
上記式(26)に示される関係は、表示画面上においてもほぼ同じになるので、図36に示すように、ラインL11とラインL12との交点とゴルフクラブのヘッドの中心WCとの水平方向の距離h1と、ラインL12とラインL13との交点とゴルフクラブのヘッドの中心WCとの水平方向の距離h2を求めると、下記式(27)によって撮影角度θを算出することができる。なお、ゴルフクラブのヘッドの中心WCは、上述のようにしてポインタT11,T12の位置により規定された枠FGの中心である。
θ=h2/(h1+h2)×θ1+h1/(h1+h2)×θ2・・・(27)
これにより、撮影角度θを求めることができる。なお、上述した説明は、カメラ1〜3のうちの一のカメラCMについての撮影角度θを求めるものであるが、他のカメラについても同様の手順で撮影角度θを求めることができる。
Relationship shown in the equation (26), since substantially the same even on the display screen, as shown in FIG. 36, the horizontal between the center WC of intersection and the golf club head of the line L 11 and the line L 12 When the horizontal distance h 2 between the direction distance h 1 and the intersection of the line L 12 and the line L 13 and the center WC of the golf club head is obtained, the shooting angle θ is calculated by the following equation (27). Can do. The center WC of the golf club head is the center of the frame FG defined by the positions of the pointers T 11 and T 12 as described above.
θ = h 2 / (h 1 + h 2 ) × θ 1 + h 1 / (h 1 + h 2 ) × θ 2 (27)
Thereby, the imaging angle θ can be obtained. In the above description, the shooting angle θ for one camera CM among the
以上のようにして、理想のフォームの撮影角度を算出すると、制御部11は、第1軌跡取得部11cを機能させて、撮影した理想のフォームによるスイングの動画像から移動対象であるゴルフクラブの軌跡を取得する(ステップS105)。具体的には、制御部11は、移動対象画像抽出部11rを機能させて、理想のフォームによるスイングの動画像のうち、フォロースイング開始フレームからフォロースイング終了フレームまでの間の動画像を構成する静止画像のそれぞれについて、ゴルフクラブの部分の画像を抽出する。すなわち、制御部11は、先ず、画像指定部11pを機能させて上述のようにして指定されたゴルフクラブのヘッドの画像をテンプレートとする。次に、制御部11は、理想のフォームによるスイングの動画像のうち、フォロースイング開始フレームからフォロースイング
終了フレームまでの間の動画像を構成する静止画像のそれぞれについて、テンプレートとした画像とマッチングする画像の部分を抽出する。制御部11は、この抽出された画像をゴルフクラブのヘッドの部分の画像とし、この抽出された画像の中心を軌跡としてプロットする。その結果、上述と同様にフレーム毎の軌跡を取得することができる。
When the shooting angle of the ideal form is calculated as described above, the
制御部11は、上述した処理を、カメラ1〜3のそれぞれで撮影して得られた動画像についてそれぞれ実施する。
The
次に、カメラ1〜3のそれぞれで撮影されて得られた理想のフォームの動画像データを、上述のようにして生成された、ゴルフクラブの軌跡を取得するための各種データ、撮影角度、フレーム毎の軌跡データ等とともに、理想のフォームデータファイルとして、例えば、記憶部14に保存する(ステップS106)。なお、理想のフォームデータファイルは、ファイル名が指定される。また、理想のフォームデータファイルは、理想のフォームの動画像データを作成する毎に生成される。
Next, various data for obtaining the trajectory of the golf club, the shooting angle, and the frame generated as described above from the moving image data of the ideal form obtained by each of the
次に、制御部11は、第2設定部11b及び第4設定部11j等を機能させて、記憶部14からチェック対象の動画像データを読み出し、移動対象であるゴルフクラブの軌跡を取得するための各種データの登録を行う(ステップS107)。ゴルフクラブの軌跡を取得するためのデータの登録の処理手順は、上述した理想のフォームによるスイングの動画像についてのゴルフクラブの軌跡を取得するためのデータの登録の処理手順と同様である。
Next, the
続いて、制御部11は、第2撮影角度算出部11fを機能させて、チェック対象者のスイングが撮影されたときの撮影角度(チェック対象者の撮影角度)を算出する(ステップS108)。チェック対象者の撮影角度の算出は、上述した理想のフォームの撮影角度の算出と同様の手順により行うことができる。
Subsequently, the
次に、制御部11は、第2軌跡取得部11dを機能させて、撮影したチェック対象者のスイングの動画像から移動対象であるゴルフクラブの軌跡を取得する(ステップS109)。チェック対象者のスイングの動画像におけるゴルフクラブの軌跡の取得方法は、上述した理想のフォームによるスイングの動画像におけるゴルフクラブの軌跡の取得方法と同様の手順により行うことができる。
Next, the
次に、制御部11は、カメラ1〜3の1つ又は2以上で撮影されて得られたチェック対象の動画像データを、上述のようにして生成された、ゴルフクラブの軌跡を取得するための各種データ、撮影角度、フレーム毎の軌跡データ等とともに、チェック対象のフォームデータファイルとして、例えば、記憶部14に保存する(ステップS110)。なお、チェック対象のフォームデータファイルは、ファイル名が指定される。
Next, the
その後、制御部11は、チェック対象のフォームデータファイルを記憶部14から読み出した後(ステップS111)、理想のフォームデータファイルを記憶部14から読み出す(ステップS112)。理想のフォームデータファイルの読み出しの要領は上述したとおりである。
Thereafter, the
次に、制御部11は、補正部11h、比率算出部11k及び位置差分算出部11mを機能させて、ステップS112において読み出したファイルに含まれる理想のフォームによるスイングの動画像についてのゴルフクラブの軌跡データの位置の補正を行う(ステップS113)。なお、ゴルフクラブの軌跡データの位置の補正を行う対象である動画像の選択の要領は上述したとおりである。
Next, the
具体的には、先ず、図37に示すように、理想のフォームによるスイングが撮影されたときのゴルフ練習場のマットの状況を平面視で表したとき、スイング動作者の体の中心からゴルフクラブのヘッドの中心WCまでの距離を距離rで表し、打球の方向とは垂直の方向に対するスイング動作者の体の中心とゴルフクラブのヘッドの中心WCを結ぶ線の角度を角度εで表すことができる。また、このとき、マットの右端部MRに対して撮影角度θをなす軸線と直交する線に対するスイング動作者の体の中心とゴルフクラブのヘッドの中心WCを結ぶ線の角度は角度γで表すことができる。そして、チェック対象者のスイングの動画像における、マットの右端部MRに対して撮影角度θのなすカメラCMを通る軸線とゴルフクラブのヘッドの中心WCとの距離X(図37、図38参照)は、上記式(8)
によって同様に表すことができる。
なお、変換係数Aは、上述したように、理想のフォームによるスイングの動画像において規定したラインの長さに対する、チェック対象者のスイングの動画像において規定したラインの長さの割合によって求めることができる。
Specifically, first, as shown in FIG. 37, when the state of the mat of the golf driving range when a swing with an ideal form is photographed is shown in plan view, the golf club starts from the center of the body of the swing operator. The distance to the center WC of the head of the golf club is represented by a distance r, and the angle of the line connecting the center of the swinging operator's body and the center WC of the golf club with respect to the direction perpendicular to the direction of the hit ball is represented by an angle ε. it can. At this time, the angle of the line connecting the center of the swinging operator's body and the center WC of the golf club head with respect to a line orthogonal to the axis forming the shooting angle θ with respect to the right end portion MR of the mat is represented by an angle γ. Can do. Then, in the moving image of the swing of the person to be checked, the distance X between the axis passing through the camera CM formed by the shooting angle θ with respect to the right end MR of the mat and the center WC of the golf club head (see FIGS. 37 and 38). Is the above formula (8)
Can be expressed similarly.
Note that, as described above, the conversion coefficient A is obtained by the ratio of the line length defined in the moving image of the swing of the person to be checked to the length of the line defined in the moving image of the swing with an ideal form. it can.
ここで、角度γは、下記式(28)によって表すことができる。
γ=ε−θ・・・(28)
Here, the angle γ can be expressed by the following equation (28).
γ = ε−θ (28)
そして、理想のフォームによるスイングの動画像における撮影角度とチェック対象者のスイングの動画像における撮影角度とのずれ量をΔθとすると、チェック対象者のスイングの動画像における撮影角度とした場合の距離X´については、上記式(10)により同様に表すことができる。なお、撮影角度のずれ量Δθは、制御部11が、撮影角度差分算出部11gを機能させて求められる。
The distance when the shooting angle in the moving image of the swing of the check target is Δθ is the distance between the shooting angle in the moving image of the swing of the ideal form and the shooting angle in the moving image of the swing of the check target. X ′ can be similarly expressed by the above formula (10). The photographing angle deviation amount Δθ is obtained by the
ここでも上述の要領で、理想のフォームにおける上述の角度εを求める。例えば、バックスイングの開始のときの角度εを0°とした場合、フォロースイングの開始のときの角度εは180°となる。また、インパクトのときの角度εは0°となり、フォロースイングの終了のときの角度εは180°となる。 Again, the above-mentioned angle ε in the ideal form is obtained in the manner described above. For example, when the angle ε at the start of the back swing is 0 °, the angle ε at the start of the follow swing is 180 °. Further, the angle ε at the time of impact is 0 °, and the angle ε at the end of the follow swing is 180 °.
そして、角度εが求められると、上記式(28)により角度γを求めることができ、これにより、上記式(10)における「A×r×sinγ」の解が得られる結果、距離X´を求めることができる。
このようにして理想のフォームのフレーム毎の軌跡を距離XからX´とすることにより変換することができる。
Then, when the angle ε is obtained, the angle γ can be obtained from the above equation (28), and as a result, a solution of “A × r × sin γ” in the above equation (10) is obtained. Can be sought.
In this way, the trajectory for each frame of the ideal form can be converted from the distance X to X ′.
そして、制御部11は、上述したようにして変換された理想のフォームの軌跡の位置を、チェック対象者のスイングの動画像におけるスイング動作者の位置に対応するようにシフトする。これにより、チェック対象者のスイングの動画像におけるチェック対象者のゴルフクラブの軌跡との比較表示を行うことができるようになる。理想のフォームの軌跡の位置のシフトの要領は上述と同様にして実施することができる。
Then, the
以上のようにして理想のフォームによるスイングの動画像についてのゴルフクラブの軌跡の位置の補正を行った後、制御部11は、図4に示すように、補正した理想のフォームのゴルフクラブの軌跡と、チェック対象者のゴルフクラブの軌跡とを表示部13に表示するための表示データを生成する(ステップS114)。なお、フレーム毎の軌跡を点で表示してもよいし、点を結んだ線で表示するようにしてもよい。そして、制御部11は、必要に応じて、軌跡差分判定部11nを機能させて、チェック対象者のゴルフクラブの軌跡の診断を行い(ステップS115)、診断結果に対応するメッセージを表示するための表示データを生成する(ステップS116)。制御部11は、表示部13の表示画面上に、チェック対象の動画像を表示するとともに、ステップS114及びステップS116にお
いて生成された表示データに基づく表示を行う(ステップS117)。その結果、例えば、図39に示すような画面が表示部13の表示画面上に表示される。図39では、補正した理想のフォームのゴルフクラブの軌跡SW3及びチェック対象者のゴルフクラブの軌跡SW4の表示が行われている。
After correcting the position of the golf club locus for the swing image of the ideal form as described above, the
また、上述した実施の形態では、ゴルフクラブのヘッドの画像の中心を軌跡としてプロットするようにしたが、スイング動作者の体の中心からゴルフクラブのヘッドまでのラインを設定し、この設定されたラインの軌跡をプロットすることもできる。 In the above-described embodiment, the center of the image of the golf club head is plotted as a trajectory. However, the line from the center of the swing operator's body to the head of the golf club is set, and this setting is made. You can also plot line trajectories.
具体的には、例えば、上述したようにしてゴルフクラブW1の位置の指定を行う場合に、図40及び図41に示すように、ゴルフクラブW1の位置の指定とともに、ゴルフクラブW1のスイングの起点となるスイング動作者の肩の位置を指定する。より具体的には、例えば、制御部11は、表示部13の表示画面上に表示されたポインタT21〜T24の位置が変位操作されると、当該ポインタT21,T22の位置により方形状の枠FGaを規定するとともに、ポインタT23,T24の位置により方形状の枠FSaを規定する。そして、図41に示すように、枠FGaによりゴルフクラブW1のヘッドが囲まれ、枠FSaによりスイング動作者の肩が囲まれると、図42に示すように、枠FGaと枠FSaの中心が結ばれた直線が規定される。そして、上述した要領で、制御部11が移動対象画像抽出部11rを機能させて、フォロースイング開始フレームからフォロースイング終了フレームまでの間の動画像を構成する静止画像のそれぞれについて、枠FGa及び枠FSaでそれぞれ規定した画像をテンプレートとして、当該テンプレートとした画像とマッチングする画像の部分を抽出する。そして、この抽出された画像の各中心を直線で結んで、これを軌跡とする。例えば、図43に示すように、フレーム毎にテンプレートにマッチングした画像の各中心を直線で結ぶと、ライン状の軌跡J1〜Jnを取得することができる。そして、このようにして得られたライン状の軌跡J1〜Jnを、上述したようにして位置の補正を行い、その結果を表示部13の表示画面上に表示する。その結果、ゴルフクラブの軌跡の表示に多様性を持たすことができるようになる。
Specifically, for example, when the position of the golf club W1 is specified as described above, as shown in FIGS. 40 and 41, the position of the golf club W1 is specified and the swing start point of the golf club W1 is specified. Specify the position of the shoulder of the swing operator. More specifically, for example, when the position of the pointers T 21 to T 24 displayed on the display screen of the
以上説明したように、本実施の形態では、制御部11は、第1の撮影環境下で撮影して得られた動画像における第1の特徴点と、第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点との相違に基づいて、第1の撮影環境下で撮影して得られた動画像か得られた第1の移動対象である第1軌跡を補正する。表示制御部11sは、制御部11によって補正された軌跡を表示させる。その結果、第1の撮影環境と第2の撮影環境とで撮影角度等の撮影環境が異なっても、第1軌跡の位置を第2の撮影環境における撮影角度に合わせて補正して表示することができるので、第2の撮影環境での第1軌跡の位置を正確に把握することができる。そのため、例えば、第1軌跡の位置を正確に把握するために、第2の撮影環境において再度動画像を撮影する必要がなくなる
。
As described above, in the present embodiment, the
また、本実施の形態では、第1設定部11aは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像における第1の特徴点として交差する2以上の直線を設定する。第1軌跡取得部11cは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像から第1の移動対象の軌跡(第1軌跡)を取得する。第2設定部11bは、カメラ1〜3によって第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点として交差する2以上の直線を設定する。第1撮影角度算出部11eは、第1設定部11aによって設定された2以上の直線のそれぞれのなす角度から第1の撮影環境下で撮影されたときのカメラ1〜3の撮影角度を算出する。第2撮影角度算出部11fは、第2設定部11bによって設定された2以上の直線のそれぞれのなす角度か
ら第2の撮影環境下で撮影されたときのカメラ1〜3の撮影角度を算出する。撮影角度差分算出部11gは、第1撮影角度算出部11eによって算出された撮影角度と、第2撮影角度算出部11fによって算出された撮影角度との差分を算出する。補正部11hは、撮影角度差分算出部11gによって算出された撮影角度の差分に基づいて、第1軌跡取得部11cによって取得された第1軌跡の位置を補正する。表示制御部11sは、補正部11hによって補正された第1軌跡を表示させる。その結果、第1の撮影環境と第2の撮影環境とで撮影角度が異なっても、第1軌跡の位置を第2の撮影環境における撮影角度に合わせて補正して表示することができるので、第2の撮影環境での第1軌跡の位置を正確に把握することができる。
Further, in the present embodiment, the
また、本実施の形態では、画像指定部11pは、第1の移動対象の画像を指定する。移動対象画像抽出部11rは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像から画像指定部11pによって指定された画像に対応する画像を抽出する。第1軌跡取得部11cは、移動対象画像抽出部11rによって抽出された画像に基づいて第1軌跡を取得する。その結果、容易に第1軌跡の抽出を行うことができるようになる。
In the present embodiment, the
また、本実施の形態では、第3設定部11iは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像における第3の特徴点としての直線を設定する。第4設定部11jは、カメラ1〜3によって第2の撮影環境下で撮影して得られた動画像における第4の特徴点としての直線を設定する。比率算出部11kは、第3設定部11iによって設定された直線と、第4設定部11jによって設定された直線の長さの比率を算出する。補正部11hは、比率算出部11kによって算出された比率に基づいて、第1軌跡取得部11cによって取得された第1軌跡の位置をさらに補正する。その結果、第1の軌跡の位置を、例えば、第2の撮影環境下で撮影して得られた動画像のスケールに合わせて表示することができるので、第2の撮影環境での第1軌跡の位置をより正確に把握することができ
る。
Moreover, in this Embodiment, the 3rd setting
また、本実施の形態では、位置差分算出部11mは、第3設定部11iによって設定された直線と、第4設定部11jによって設定された直線との位置の差分を算出する。補正部11hは、位置差分算出部11mによって算出された位置の差分に基づいて、第1軌跡取得部11cによって取得された第1軌跡の位置をさらに補正する。その結果、第1の軌跡の位置を、例えば、第2の撮影環境下で撮影して得られた動画像の所定の位置に合わせて表示することができるので、第2の撮影環境での第1軌跡の位置をより正確に把握することができる。
In the present embodiment, the position
また、本実施の形態では、第1設定部11aは、カメラ1〜3によって第1の撮影環境下で複数の撮影角度でそれぞれ撮影して得られた動画像に対応して2以上の直線をそれぞれ設定する。第1軌跡取得部11cは、第1軌跡を撮影毎に取得する。第1撮影角度算出部11eは、複数の撮影角度をそれぞれ算出する。撮影角度差分算出部11gは、第1撮影角度算出部11eによって算出された複数の撮影角度から第2撮影角度算出部11fによって算出された撮影角度に最も近似するものを選択するとともに、選択された撮影角度と第2撮影角度算出部11fによって算出された撮影角度との差分を算出する。補正部11hは、撮影角度差分算出部11gによって算出された撮影角度の差分に基づいて、第1軌跡取得部11cによって取得された複数の第1軌跡から撮影角度差分算出部11gによ
って選択された撮影角度に対応するものの位置を補正する。その結果、第1軌跡の位置の補正量を小さくすることができ、第1軌跡の位置の補正の精度を高めることができる。
Moreover, in this Embodiment, the
また、本実施の形態では、第1軌跡取得部11cは、第1の移動対象としての直線を設定し、直線の軌跡を第1軌跡として取得する。その結果、より多様な軌跡表示を行うことができるので、例えば、より多様なフォームの解析を行うことができるようになる。
Moreover, in this Embodiment, the 1st locus |
また、本実施の形態では、第2軌跡取得部11dは、カメラ1〜3によって第2の撮影環境下で撮影して得られた動画像から第2の移動対象の軌跡を第2軌跡として取得する。
表示制御部11sは、制御部11によって補正された第1軌跡とともに、第2軌跡取得部11dによって取得された第2軌跡を表示させる。その結果、第1軌跡と第2軌跡とを比較表示することができる。
Further, in the present embodiment, the second
The
また、本実施の形態では、軌跡差分判定部11nは、補正された第1軌跡と、第2軌跡取得部11dによって取得された第2軌跡との差分を判定する。表示制御部11sは、軌跡差分判定部11nによる判定結果に応じた表示を行わせる。その結果、例えば、軌跡によって特定されるフォームについての適切なアドバイスを示すことができる等、利便性が向上する。
In the present embodiment, the trajectory
また、本実施の形態では、表示制御部11sは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像のうちの所定のタイミングにおける静止画像に対応する、補正された第1軌跡を表示させる。その結果、例えば、打球がヒットする瞬間等のあるタイミングにおける軌跡の解析が容易となる。
Further, in the present embodiment, the
なお、本実施の形態では、テニスコートのラインや、ゴルフ練習場のマットを第1の特徴点及び第2の特徴点として規定し、これにより撮影角度を求めるようにしたが、第1の特徴点及び第2の特徴点については撮影する対象に応じて適宜設定することができる。例えば、野球のバットのスイングを撮影する場合には、バッターボックスを特徴点として規定することができる。また、特徴点は、テニスコートのラインや、ゴルフ練習場のマット等に限らず、他のものであってもよく、例えば、樹木や建造物であってもよい。このとき、固定されている物体を特徴点の対象とするのが好ましい。 In the present embodiment, the tennis court line and the golf driving range mat are defined as the first feature point and the second feature point, and the shooting angle is thereby obtained. The point and the second feature point can be set as appropriate according to the subject to be photographed. For example, when shooting a swing of a baseball bat, a batter box can be defined as a feature point. The feature points are not limited to tennis court lines, golf driving range mats, and the like, but may be other things, for example, trees or buildings. At this time, it is preferable to use a fixed object as a target of the feature point.
また、本実施の形態では、第3の特徴点及び第4の特徴点として、スイング動作者の体の長さを規定するようにしたが、第3の特徴点及び第4の特徴点においても撮影する対象に応じて適宜設定することができる。例えば、第3の特徴点及び第4の特徴点として、スイング動作者の足の長さ、頭の先からつま先までの長さ、あるいは、スイングする腕及び移動対象であるテニスラケットやゴルフクラブの先までの長さであってもよい。 In this embodiment, the length of the swing operator's body is defined as the third feature point and the fourth feature point. However, the third feature point and the fourth feature point are also used. It can be set appropriately according to the object to be photographed. For example, as the third feature point and the fourth feature point, the length of the foot of the swing operator, the length from the tip of the head to the toe, or the swinging arm and the tennis racket or golf club to be moved The previous length may be used.
また、本実施の形態では、第3の特徴点及び第4の特徴点としてのスイング動作者の体の長さをポインタにより規定するようにしたが、例えば、上述したテンプレートマッチングの手法により被写体追跡を行って規定するようにしてもよい。具体的には、例えば、スイング動作者の肩周辺の画像と、腰周辺の画像とをテンプレートとして設定し、フォロースイング開始フレームからフォロースイング終了フレームまでの動画像を構成する静止画像のそれぞれについて、テンプレートとした画像とマッチングする画像の部分を抽出する。そして、抽出した肩周辺の画像の中心と、腰周辺の画像の中心とを結ぶ線をスイング動作者の体の長さとして規定する。これにより、スイング動作者が移動した場合でも正確に位置を把握することができるようになる。 In the present embodiment, the length of the swing operator's body as the third feature point and the fourth feature point is defined by the pointer. For example, the subject tracking is performed by the template matching method described above. You may make it prescribe | regulate by performing. Specifically, for example, the image around the shoulder of the swing operator and the image around the waist are set as templates, and for each of the still images constituting the moving image from the follow swing start frame to the follow swing end frame, The part of the image that matches the template image is extracted. Then, a line connecting the center of the extracted image around the shoulder and the center of the image around the waist is defined as the body length of the swing operator. Thereby, even when the swing operator moves, the position can be accurately grasped.
また、本実施の形態では、第2の撮影環境下で撮影して得られたチェック対象の動画像データを保存し、保存した動画像データを読み出して、移動対象の軌跡を取得するための各種データの登録を行うようにしたが、第2の撮影環境下で撮影して得られたリアルタイムでの動画像を利用して、各種データの登録を行うようにしてもよい。 Further, in the present embodiment, various moving image data to be checked obtained by shooting in the second shooting environment are saved, the saved moving image data is read out, and various trajectories for acquiring the moving locus are obtained. Although data registration is performed, various data may be registered using a real-time moving image obtained by shooting in the second shooting environment.
また、本実施の形態では、理想のフォームの動画像データやチェック対象の動画像データを利用して、ユーザの入力により移動対象の軌跡を取得するための各種データの登録を行うようにしたが、画像認識を行って、自動的に各種データの登録を行うことができるものであってもよい。 Further, in the present embodiment, registration of various data for acquiring a movement target locus by a user input using moving image data of an ideal form or moving image data to be checked is performed. Alternatively, it may be capable of performing image recognition and automatically registering various data.
また、本実施の形態では、チェック対象者のスイングの動画像に、理想のフォームの移動対象の軌跡と、チェック対象の移動対象の軌跡とを表示部13に比較表示するようにしたが、チェック対象者のスイングの動画像に、理想のフォームの移動対象の軌跡のみ表示するようにしてもよい。
In the present embodiment, the moving target trajectory of the ideal form and the moving target trajectory of the check target are compared and displayed on the
また、本実施の形態では、第1の撮影環境で理想のフォームによるスイングを撮影し、第2の撮影環境でチェック対象者のスイングを撮影するようにしたが、第1の撮影環境でチェック対象者のスイングを撮影し、第2の撮影環境で理想のフォームによるスイングを撮影してもよい。 In the present embodiment, the swing of an ideal form is photographed in the first photographing environment, and the swing of the person to be checked is photographed in the second photographing environment, but the check target is captured in the first photographing environment. A person's swing may be photographed, and a swing with an ideal form may be photographed in the second photographing environment.
また、本実施の形態では、テンプレート画像にマッチングする画像を抽出することによってフレーム毎の軌跡を取得するようにしたが、入力部12の操作等によってフレーム毎に軌跡を手動で規定するようにしてもよい。
In this embodiment, the trajectory for each frame is acquired by extracting an image that matches the template image. However, the trajectory is manually specified for each frame by operating the
また、本実施の形態では、カメラ1〜3にて第1の撮影環境で理想のフォームによるスイングを撮影し、この撮影した理想のフォームによるスイングの動画像を利用して軌跡を取得するようにしたが、理想のフォームによるスイングの動画像の画像データが、カメラ1〜3にて撮影して得たものではなく、メディアや通信手段により取得されたものであってもよい。
Further, in the present embodiment, the
また、本実施の形態では、理想のフォームによるスイングの動画像の画像データを複数種類取得し、ユーザにより選択して軌跡の表示を行うようにしたが、取得する理想のフォームによるスイングの動画像の画像データを1種類のみとしてもよい。 Further, in this embodiment, a plurality of types of image data of a moving image of a swing with an ideal form are acquired, and a trajectory is displayed by selection by a user. However, a moving image of a swing with an ideal form to be acquired is used. The image data may be only one type.
また、本実施の形態では、比率算出部11k及び位置差分算出部11mによる軌跡の位置補正を行うようにしたが、これら各機能部による位置補正を実施しないものであってもよい。
In the present embodiment, the position correction of the trajectory is performed by the
本発明の実施の形態及び変形例を説明したが、本発明の範囲は、上述の実施の形態及び変形例に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
第1の撮影環境下で撮影して得られた動画像における第1の特徴点と、前記第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点との相違に基づいて、前記第1の撮影環境下で撮影して得られた動画像から得られた移動対象である軌跡を補正する軌跡補正手段と、
前記軌跡補正手段によって補正された軌跡を表示させる表示制御手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記軌跡補正手段は、
撮影手段によって第1の撮影環境下で撮影して得られた動画像における第1の特徴点として交差する2以上の直線を設定する第1設定手段と、
前記撮影手段によって第1の撮影環境下で撮影して得られた動画像から移動対象の軌跡を取得する軌跡取得手段と、
撮影手段によって前記第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点として交差する2以上の直線を設定する第2設定手段と、
前記第1設定手段によって設定された2以上の直線のそれぞれのなす角度から前記第1の撮影環境下で撮影されたときの撮影手段の撮影角度を算出する第1撮影角度算出手段と、
前記第2設定手段によって設定された2以上の直線のそれぞれのなす角度から前記第2の撮影環境下で撮影されたときの撮影手段の撮影角度を算出する第2撮影角度算出手段と、
前記第1撮影角度算出手段によって算出された撮影角度と、前記第2撮影角度算出手段によって算出された撮影角度との差分を算出する撮影角度差分算出手段と、
前記撮影角度差分算出手段によって算出された撮影角度の差分に基づいて、前記軌跡取得手段によって取得された軌跡の位置を補正する補正手段と、
を備え、
前記表示制御手段は、前記補正手段によって補正された軌跡を表示させることを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記軌跡補正手段は、
前記移動対象の画像を指定する画像指定手段と、
前記撮影手段によって第1の撮影環境下で撮影して得られた動画像から前記画像指定手段によって指定された画像に対応する画像を抽出する移動対象画像抽出手段と、
を備え、
前記軌跡取得手段は、前記移動対象画像抽出手段によって抽出された画像に基づいて前記軌跡を取得することを特徴とする請求項2に記載の画像処理装置。
<請求項4>
前記軌跡補正手段は、
前記撮影手段によって第1の撮影環境下で撮影して得られた動画像における第3の特徴点としての直線を設定する第3設定手段と、
前記撮影手段によって第2の撮影環境下で撮影して得られた動画像における第4の特徴点としての直線を設定する第4設定手段と、
前記第3設定手段によって設定された直線と、前記第4設定手段によって設定された直線との長さの比率を算出する比率算出手段と、
を備え、
前記補正手段は、前記比率算出手段によって算出された比率に基づいて、前記軌跡取得手段によって取得された軌跡の位置をさらに補正することを特徴とする請求項2又は3に記載の画像処理装置。
<請求項5>
前記軌跡補正手段は、前記第3設定手段によって設定された直線と、前記第4設定手段によって設定された直線との位置の差分を算出する位置差分算出手段を備え、
前記補正手段は、前記位置差分算出手段によって算出された位置の差分に基づいて、前記軌跡取得手段によって取得された軌跡の位置をさらに補正することを特徴とする請求項4に記載の画像処理装置。
<請求項6>
前記第1設定手段は、前記撮影手段によって第1の撮影環境下で複数の撮影角度でそれぞれ撮影して得られた動画像に対応して2以上の直線をそれぞれ設定し、
前記軌跡取得手段は、前記軌跡を撮影毎に取得し、
前記第1撮影角度算出手段は、複数の撮影角度をそれぞれ算出し、
前記撮影角度差分算出手段は、前記第1撮影角度算出手段によって算出された複数の撮影角度から前記第2撮影角度算出手段によって算出された撮影角度に最も近似するものを選択するとともに、該選択された撮影角度と前記第2撮影角度算出手段によって算出された撮影角度との差分を算出し、
前記補正手段は、前記撮影角度差分算出手段によって算出された撮影角度の差分に基づいて、前記軌跡取得手段によって取得された複数の軌跡から前記撮影角度差分算出手段によって選択された撮影角度に対応するものの位置を補正することを特徴とする請求項2〜5の何れか一項に記載の画像処理装置。
<請求項7>
前記軌跡取得手段は、前記移動対象としての直線を設定し、該直線の軌跡を前記軌跡として取得することを特徴とする請求項2〜6の何れか一項に記載の画像処理装置。
<請求項8>
前記軌跡補正手段は、前記撮影手段によって第2の撮影環境下で撮影して得られた動画像から第2の移動対象の軌跡を第2軌跡として取得する第2軌跡取得手段を備え、
前記表示制御手段は、前記軌跡補正手段によって補正された前記軌跡とともに、前記第2軌跡取得手段によって取得された第2軌跡を表示させることを特徴とする請求項1〜7の何れか一項に記載の画像処理装置。
<請求項9>
前記軌跡補正手段は、補正された前記軌跡と、前記第2軌跡取得手段によって取得された第2軌跡との差分を判定する軌跡差分判定手段を備え、
前記表示制御手段は、前記軌跡差分判定手段による判定結果に応じた表示を行わせることを特徴とする請求項8に記載の画像処理装置。
<請求項10>
前記表示制御手段は、前記撮影手段によって第1の撮影環境下で撮影して得られた動画像のうちの所定のタイミングにおける静止画像に対応する、補正された前記軌跡を表示させることを特徴とする請求項1〜9の何れか一項に記載の画像処理装置。
<請求項11>
画像処理装置を用いた画像処理方法であって、
第1の撮影環境下で撮影して得られた動画像における第1の特徴点と、前記第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点との相違に基づいて、前記第1の撮影環境下で撮影して得られた動画像から得られた移動対象である軌跡を補正する軌跡補正ステップと、
前記軌跡補正ステップにおいて補正された軌跡を表示する表示ステップと、
を含むことを特徴とする画像処理方法。
<請求項12>
コンピュータを、
第1の撮影環境下で撮影して得られた動画像における第1の特徴点と、前記第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点との相違に基づいて、前記第1の撮影環境下で撮影して得られた動画像から得られた移動対象である軌跡を補正する軌跡補正手段、
前記軌跡補正手段によって補正された軌跡を表示させる表示制御手段、
として機能させるプログラム。
Although the embodiments and modifications of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments and modifications, and the scope of the invention described in the claims and equivalents thereof are described. Includes range.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
A first feature point in a moving image obtained by photographing under a first photographing environment and a second feature in a moving image obtained by photographing under a second photographing environment different from the first photographing environment. A trajectory correcting means for correcting a trajectory that is a moving object obtained from a moving image obtained by photographing under the first photographing environment, based on the difference from the feature point;
Display control means for displaying the trajectory corrected by the trajectory correction means;
An image processing apparatus comprising:
<Claim 2>
The trajectory correction means includes
First setting means for setting two or more straight lines intersecting as first feature points in a moving image obtained by photographing under a first photographing environment by photographing means;
Trajectory acquisition means for acquiring a trajectory of a moving object from a moving image obtained by photographing in the first photographing environment by the photographing means;
Second setting means for setting two or more straight lines intersecting as second feature points in a moving image obtained by photographing under a second photographing environment different from the first photographing environment by the photographing means;
First shooting angle calculation means for calculating a shooting angle of the shooting means when shot under the first shooting environment from angles formed by two or more straight lines set by the first setting means;
Second shooting angle calculation means for calculating a shooting angle of the shooting means when shot under the second shooting environment from angles formed by two or more straight lines set by the second setting means;
A shooting angle difference calculating unit that calculates a difference between the shooting angle calculated by the first shooting angle calculating unit and the shooting angle calculated by the second shooting angle calculating unit;
Correction means for correcting the position of the trajectory acquired by the trajectory acquisition means based on the difference of the imaging angle calculated by the imaging angle difference calculation means;
With
The image processing apparatus according to
<Claim 3>
The trajectory correction means includes
Image designating means for designating the image to be moved;
A moving target image extracting means for extracting an image corresponding to an image designated by the image designating means from a moving image obtained by photographing in the first photographing environment by the photographing means;
With
The image processing apparatus according to
<Claim 4>
The trajectory correction means includes
Third setting means for setting a straight line as a third feature point in the moving image obtained by photographing in the first photographing environment by the photographing means;
Fourth setting means for setting a straight line as a fourth feature point in the moving image obtained by photographing in the second photographing environment by the photographing means;
A ratio calculating means for calculating a ratio of the length of the straight line set by the third setting means and the straight line set by the fourth setting means;
With
The image processing apparatus according to
<Claim 5>
The trajectory correction unit includes a position difference calculation unit that calculates a difference in position between the straight line set by the third setting unit and the straight line set by the fourth setting unit,
The image processing apparatus according to
<Claim 6>
The first setting means sets two or more straight lines corresponding to moving images obtained by shooting at a plurality of shooting angles in a first shooting environment by the shooting means,
The locus acquisition means acquires the locus for each photographing,
The first shooting angle calculation means calculates a plurality of shooting angles,
The photographing angle difference calculating means selects the one closest to the photographing angle calculated by the second photographing angle calculating means from the plurality of photographing angles calculated by the first photographing angle calculating means, and is selected. Calculating a difference between the shooting angle and the shooting angle calculated by the second shooting angle calculation means;
The correction unit corresponds to a shooting angle selected by the shooting angle difference calculation unit from a plurality of trajectories acquired by the trajectory acquisition unit based on the difference of the shooting angle calculated by the shooting angle difference calculation unit. 6. The image processing apparatus according to
<Claim 7>
The image processing apparatus according to
<Claim 8>
The trajectory correction unit includes a second trajectory acquisition unit that acquires a trajectory of a second movement target as a second trajectory from a moving image obtained by photographing in the second photographing environment by the photographing unit,
The display control means displays the second trajectory acquired by the second trajectory acquisition means together with the trajectory corrected by the trajectory correction means. The image processing apparatus described.
<Claim 9>
The trajectory correction unit includes a trajectory difference determination unit that determines a difference between the corrected trajectory and the second trajectory acquired by the second trajectory acquisition unit,
The image processing apparatus according to claim 8, wherein the display control unit causes display according to a determination result by the trajectory difference determination unit.
<Claim 10>
The display control means displays the corrected trajectory corresponding to a still image at a predetermined timing among moving images obtained by photographing in the first photographing environment by the photographing means. The image processing apparatus according to any one of
<Claim 11>
An image processing method using an image processing apparatus,
A first feature point in a moving image obtained by photographing under a first photographing environment and a second feature in a moving image obtained by photographing under a second photographing environment different from the first photographing environment. A trajectory correction step for correcting a trajectory that is a moving object obtained from a moving image obtained by photographing in the first photographing environment, based on the difference from the feature point;
A display step for displaying the locus corrected in the locus correction step;
An image processing method comprising:
<Claim 12>
Computer
A first feature point in a moving image obtained by photographing under a first photographing environment and a second feature in a moving image obtained by photographing under a second photographing environment different from the first photographing environment. Trajectory correction means for correcting a trajectory that is a moving object obtained from a moving image obtained by photographing in the first photographing environment based on the difference from the feature point of
Display control means for displaying the locus corrected by the locus correcting means;
Program to function as.
100 画像処理システム
1,2,3 カメラ(撮影手段)
10 画像処理装置
11 制御部(軌跡補正手段)
11a 第1設定部
11b 第2設定部
11c 第1軌跡取得部
11d 第2軌跡取得部
11e 第1撮影角度算出部
11f 第2撮影角度算出部
11g 撮影角度差分算出部
11h 補正部
11i 第3設定部
11j 第4設定部
11k 比率算出部
11m 位置差分算出部
11n 軌跡差分判定部
11p 画像指定部
11r 移動対象画像抽出部
11s 表示制御部
13 表示部(表示手段)
100
DESCRIPTION OF
11a
Claims (16)
前記画像取得手段により取得された前記第1の動画像に含まれる前記被写体の動作に基づいて、第1の軌跡を生成する軌跡生成手段と、
前記第1の動画像及び前記第2の動画像の前記移動しうる被写体に含まれる特徴点に基づいて、画像内における位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された位置情報に基づいて、前記軌跡生成手段により生成された第1の軌跡を、前記第2の撮影環境下に適合するように補正する軌跡補正手段と、
前記第2の動画像に前記軌跡補正手段により補正された第1の軌跡が重畳するように合成する合成手段と、
を備えたことを特徴とする画像処理装置。 Second moving image object that can be moved, which is taken under a different second imaging environment from the at least one first moving image and the first photographing environment of the shooting under the first imaging environment Image acquisition means for acquiring
A trajectory generating means for generating a first trajectory based on the motion of the subject included in the first moving image acquired by the image acquiring means;
Position information acquisition means for acquiring position information in the image based on feature points included in the movable subject of the first moving image and the second moving image;
A trajectory correcting unit that corrects the first trajectory generated by the trajectory generating unit based on the positional information acquired by the positional information acquiring unit so as to fit in the second imaging environment;
And synthesizing for synthesizing means such that the first trajectory is superimposed corrected by the trajectory compensation means to the second moving image,
An image processing apparatus comprising:
ことを特徴とする請求項1に記載の画像処理装置。 Before SL trajectory correction means, the positional information based on the acquired device location information obtained by the correction to fit under a different second imaging environment from said first trajectory said first photographing environment To
The image processing apparatus according to claim 1.
を更に備え、
前記位置情報取得手段は、前記設定手段により前記移動しうる被写体に含まれる特徴点に設定された線に基づいて、前記第1の動画像又は前記第2の動画像の前記移動しうる被写体の位置情報を取得する、
ことを特徴とする請求項2に記載の画像処理装置。 Setting means for setting a line feature points included in the subject that may be the movement of the front Symbol first moving image and the second moving image,
Further comprising
Prior Symbol position information acquiring unit, on the basis of the line set in the feature points included in the subject can be said moved by said setting means, it may be the movement of the first moving image and the second moving image object Get location information for
The image processing apparatus according to claim 2.
前記軌跡補正手段は、前記位置情報差分算出手段により算出された位置情報の差分に基づいて、前記第1の軌跡を前記第1の撮影環境下とは異なる第2の撮影環境下に適合するように補正する、
ことを特徴とする請求項2又は3に記載の画像処理装置。 Position information difference calculating means for calculating a difference between position information of the movable subject between the first moving image and the second moving image based on the position information acquired by the position information acquiring means. ,
The trajectory correction means, based on the difference of the position information calculated by the position information difference calculation detemir stage, fits under a different second imaging environment from the first said trajectory of the first photographing environment To correct,
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項4に記載の画像処理装置。 The trajectory correction unit corrects the position of the first trajectory in a direction in which the difference of the position information is reduced based on the difference of the position information, thereby causing the first trajectory to be corrected in the second imaging environment. Correct to fit below,
The image processing apparatus according to claim 4.
前記軌跡補正手段により補正された第1の軌跡と、前記第2の軌跡とを前記第2の動画像中に合成する軌跡合成手段を更に備える、
ことを特徴とする請求項2から5の何れか1項に記載の画像処理装置。 The trajectory generating means generates a second trajectory based on the motion of the subject in the second moving image,
A trajectory synthesizing unit that synthesizes the first trajectory corrected by the trajectory correcting unit and the second trajectory into the second moving image;
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記軌跡生成手段は、前記検出手段により前記複数の画像から時系列に沿って検出された動作に基づいて第1の軌跡を生成する、
ことを特徴とする請求項2から6の何れか1項に記載の画像処理装置。 The trajectory generation means further comprises detection means for detecting the movement of the subject photographed in the first moving image in time series from a plurality of images constituting the first moving image,
The trajectory generating means generates a first trajectory based on an operation detected along the time series from the plurality of images by the detecting means.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
を更に備え、
前記表示制御手段は、前記軌跡生成手段により生成された第1の軌跡又は第2の軌跡を前記表示手段に表示させる
ことを特徴とする請求項2から7の何れか1項に記載の画像処理装置。 Display control means for controlling the display means to display the first moving image and the second moving image;
Further comprising
The image processing according to any one of claims 2 to 7, wherein the display control unit causes the display unit to display the first trajectory or the second trajectory generated by the trajectory generation unit. apparatus.
前記軌跡生成手段は、前記表示制御手段により表示された範囲に対応する前記検出手段により検出された動作に基づいて軌跡画像を生成し、
前記表示制御手段は、前記表示手段に前記軌跡生成手段により生成される当該軌跡画像を表示させる、
ことを特徴とする請求項8に記載の画像処理装置。 The display control means displays the first moving image and the second moving image in time series,
The trajectory generation means generates a trajectory image based on the operation detected by the detection means corresponding to the range displayed by the display control means,
The display control means causes the display means to display the trajectory image generated by the trajectory generation means.
The image processing apparatus according to claim 8.
前記差分算出手段により算出された差分に基づく情報を報知する報知手段と、
を更に備えることを特徴とする請求項6から9の何れか1項に記載の画像処理装置。 A difference calculating means for calculating a difference between the second locus generated by the locus generating means and the first locus corrected by the locus correcting means;
Informing means for informing information based on the difference calculated by the difference calculating means;
The image processing apparatus according to claim 6, further comprising:
前記報知手段は、前記差分が前記閾値設定手段により設定された閾値を超えた場合に当該差分に基づく情報を報知する
ことを特徴とする請求項10に記載の画像処理装置。 The notification means includes a threshold setting means for setting a threshold for determining whether or not to notify information based on the difference,
The image processing apparatus according to claim 10, wherein the notification unit notifies information based on the difference when the difference exceeds a threshold set by the threshold setting unit.
前記軌跡補正手段は、前記撮影角度算出手段の算出結果に基づいて前記第1の軌跡を前記第2の動画像の撮影角度に適合するように補正する
ことを特徴とする請求項3から11の何れか1項に記載の画像処理装置。 A photographing angle calculating means for calculating a photographing angle when each of the first moving image and the second moving image is photographed;
12. The trajectory correction unit corrects the first trajectory so as to match a shooting angle of the second moving image based on a calculation result of the shooting angle calculation unit. The image processing apparatus according to any one of the above.
前記撮影角度算出手段は、前記設定手段により設定された複数の直線のなす角に基づいて前記撮影角度を算出する、
ことを特徴とする請求項12に記載の画像処理装置。 The setting means sets a plurality of straight lines in the first moving image or the second moving image,
The shooting angle calculation means calculates the shooting angle based on an angle formed by a plurality of straight lines set by the setting means.
The image processing apparatus according to claim 12.
を更に備え、
前記軌跡生成手段は、前記特定手段により特定された表示開始及び終了時点に基づいて、前記第1の動画像中に第1の軌跡を生成し、
前記軌跡補正手段は、前記軌跡生成手段により生成された前記第1の軌跡を前記表示開始及び終了時点に対応する範囲で第2の撮影環境下に適合するように補正する、
ことを特徴とする請求項1から13の何れか1項に記載の画像処理装置。 A specifying means for specifying display start and end points in the first moving image and the second moving image;
Further comprising
The trajectory generating means generates a first trajectory in the first moving image based on the display start and end times specified by the specifying means,
The trajectory correction unit corrects the first trajectory generated by the trajectory generation unit so that the first trajectory is adapted to the second shooting environment in a range corresponding to the display start and end time points.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記画像取得ステップにより取得された前記第1の動画像に含まれる前記被写体の動作に基づいて、第1の軌跡を生成する軌跡生成ステップ、
前記第1の動画像及び前記第2の動画像の前記移動しうる被写体に含まれる特徴点に基づいて、画像内における位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップにより取得された位置情報に基づいて、前記軌跡生成ステップにより生成された第1の軌跡を、前記第1の撮影環境下とは異なる第2の撮影環境下に適合するように補正する軌跡補正ステップと、
前記第2の動画像に前記軌跡補正手段により補正された第1の軌跡が重畳するように合成する合成ステップと、
を備えたことを特徴とする画像処理方法。 Second moving image object that can be moved, which is taken under a different second imaging environment from the at least one first moving image and the first photographing environment of the shooting under the first imaging environment An image acquisition step for acquiring,
A trajectory generating step for generating a first trajectory based on the motion of the subject included in the first moving image acquired by the image acquiring step;
A position information acquisition step of acquiring position information in the image based on feature points included in the movable subject of the first moving image and the second moving image;
Based on the position information acquired by the position information acquisition step , the first trajectory generated by the trajectory generation step is adapted to a second shooting environment different from the first shooting environment. A locus correction step to be corrected;
And synthesizing for synthesizing step such that the first trajectory is superimposed corrected by the trajectory compensation means to the second moving image,
An image processing method comprising:
移動しうる被写体が第1の撮影環境下で撮された少なくとも1つの第1の動画像と前記第1の撮影環境下とは異なる第2の撮影環境下で撮影された第2の動画像を取得する画像取得手段、
前記画像取得手段により取得された前記第1の動画像に含まれる前記被写体の動作に基づいて、第1の軌跡を生成する軌跡生成手段、
前記第1の動画像及び前記第2の動画像の前記移動しうる被写体に含まれる特徴点に基づいて、画像内における位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された位置情報に基づいて、前記軌跡生成手段により生成された第1の軌跡を、前記第1の撮影環境下とは異なる第2の撮影環境下に適合するように補正する軌跡補正手段、
前記第2の動画像に前記軌跡補正手段により補正された第1の軌跡が重畳するように合成する合成手段、
として機能させることを特徴とするプログラム。 Computer
The subject can move the second moving image captured under a different second imaging environment from the at least one first moving image and the first photographing environment of that Tosa under the first imaging environment Image acquisition means to acquire,
Trajectory generating means for generating a first trajectory based on the motion of the subject included in the first moving image acquired by the image acquiring means;
Position information acquisition means for acquiring position information in the image based on feature points included in the movable subject of the first moving image and the second moving image;
Based on the position information acquired by the position information acquisition unit , the first trajectory generated by the trajectory generation unit is adapted to a second shooting environment different from the first shooting environment. Trajectory correction means for correcting,
Synthesis synthesizing means such that the first trajectory is corrected by the trajectory compensation means to the second moving image is superimposed,
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016008605A JP6337911B2 (en) | 2016-01-20 | 2016-01-20 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016008605A JP6337911B2 (en) | 2016-01-20 | 2016-01-20 | Image processing apparatus, image processing method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012064290A Division JP5874475B2 (en) | 2012-03-21 | 2012-03-21 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016116871A JP2016116871A (en) | 2016-06-30 |
JP6337911B2 true JP6337911B2 (en) | 2018-06-06 |
Family
ID=56243348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016008605A Active JP6337911B2 (en) | 2016-01-20 | 2016-01-20 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6337911B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111936287B (en) * | 2018-03-30 | 2022-05-03 | 本田技研工业株式会社 | Method for manufacturing resin box |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114513741B (en) * | 2020-10-28 | 2024-01-30 | 华为技术有限公司 | Method and device for positioning terminal equipment based on measurement report |
JP7281857B1 (en) | 2023-01-06 | 2023-05-26 | 有限会社Amplus | Display controller and program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2863782B2 (en) * | 1990-04-13 | 1999-03-03 | 株式会社応用計測研究所 | Operation diagnostic device |
JP2000184369A (en) * | 1998-12-10 | 2000-06-30 | Yokogawa Bridge Corp | Simultaneous display method for reference image and referred image |
US6514081B1 (en) * | 1999-08-06 | 2003-02-04 | Jeffrey L. Mengoli | Method and apparatus for automating motion analysis |
JP2009020897A (en) * | 2002-09-26 | 2009-01-29 | Toshiba Corp | Image analysis method, image analysis apparatus, image analysis program |
JP2008023036A (en) * | 2006-07-20 | 2008-02-07 | Kc Enterprise:Kk | Program for checking and analyzing swing form of golf or the like |
JP5136335B2 (en) * | 2008-09-30 | 2013-02-06 | カシオ計算機株式会社 | CAMERA DEVICE, IMAGE CUTTING METHOD, PROGRAM |
-
2016
- 2016-01-20 JP JP2016008605A patent/JP6337911B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111936287B (en) * | 2018-03-30 | 2022-05-03 | 本田技研工业株式会社 | Method for manufacturing resin box |
Also Published As
Publication number | Publication date |
---|---|
JP2016116871A (en) | 2016-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5874475B2 (en) | Image processing apparatus, image processing method, and program | |
JP6363323B2 (en) | Tennis swing motion analysis device, analysis system, analysis program, and analysis method | |
US7587065B2 (en) | Image analysis method, analyzing movement of an object in image data | |
JP4733651B2 (en) | Position detection apparatus, position detection method, and position detection program | |
JP2009020897A (en) | Image analysis method, image analysis apparatus, image analysis program | |
JP2015002910A (en) | Motion analysis device and motion analysis program | |
US20210407316A1 (en) | Posture comparison and correction method using application configured to check two golf images and result data in overlapping state | |
JP2017119102A (en) | Motion analysis device, method and program | |
CN107007992A (en) | Hit analytical equipment, system, method, program, display device and recording medium | |
JP6337911B2 (en) | Image processing apparatus, image processing method, and program | |
JP2013009771A (en) | System, method, and program for measurement and analysis of behavior of golf club head in golf swing | |
TW201415272A (en) | Method for swing result deduction and posture correction and the apparatus of the same | |
KR101133736B1 (en) | Apparatus for swimmer's training using photographing image and a method for controlling it | |
JP5424841B2 (en) | Golf swing diagnostic system | |
US20170203181A1 (en) | Display method, display apparatus, motion analysis system, motion analysis program, and recording medium | |
KR20160106671A (en) | Movement analysis device, movement analysis system, movement analysis method, display method for movement analysis information, and program | |
JP6690622B2 (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP2006181014A (en) | Image analysis device and movement correction system | |
JP2005312734A (en) | Device and method of selecting golf club and device and method of analyzing golf swing | |
JP2010127639A (en) | Image processing device, image processing method, and program | |
KR20150113800A (en) | Terminal device, program and display method | |
CN103327232B (en) | Image processing apparatus and image processing method | |
JP2005270480A (en) | Golf swing measuring system | |
JP6710961B2 (en) | Golf swing analysis method | |
KR102619364B1 (en) | Method and Apparatus for Golf Swing Clinic |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170310 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171003 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171227 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180423 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6337911 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |