[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6337911B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6337911B2
JP6337911B2 JP2016008605A JP2016008605A JP6337911B2 JP 6337911 B2 JP6337911 B2 JP 6337911B2 JP 2016008605 A JP2016008605 A JP 2016008605A JP 2016008605 A JP2016008605 A JP 2016008605A JP 6337911 B2 JP6337911 B2 JP 6337911B2
Authority
JP
Japan
Prior art keywords
trajectory
moving image
image
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016008605A
Other languages
Japanese (ja)
Other versions
JP2016116871A (en
Inventor
裕紀 川上
裕紀 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016008605A priority Critical patent/JP6337911B2/en
Publication of JP2016116871A publication Critical patent/JP2016116871A/en
Application granted granted Critical
Publication of JP6337911B2 publication Critical patent/JP6337911B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、テニス、ゴルフあるいは野球等におけるスイングをカメラ撮影し、撮影したスイングの画像を見ながらフォームをチェックすることが行われている(例えば、特許文献1)。   Conventionally, swinging in tennis, golf, baseball, or the like is photographed with a camera, and the form is checked while viewing the photographed swing image (for example, Patent Document 1).

また、このようなフォームのチェックを行うにあたり、ゴルフクラブ等の動体の軌跡を表示するようにしてチェックを容易にするようにしたものもある(例えば、特許文献2)。   In addition, when checking such a form, there is also one that facilitates the check by displaying the locus of a moving body such as a golf club (for example, Patent Document 2).

特開2003−117045号公報JP 2003-1117045 A 特開平11−98450号公報JP-A-11-98450

ところで、フォームのチェックは、自分のスイングをカメラ撮影してこれをチェックするだけでなく、例えば、プロ選手やインストラクター等の理想のフォームによるスイングを撮影しておき、これと比較表示してチェックを行う場合がある。   By the way, you can check the form not only by taking a picture of your swing with a camera, but also by taking a picture of a swing with an ideal form such as a professional player or instructor, and comparing it with this to check it. May do.

しかしながら、このような場合、理想のフォームによるスイングを撮影するカメラの角度等の撮影条件が自分のスイングを撮影したときと一致するとは限らないため、このような状況においては、上記各特許文献に記載の技術を用いたとしても、理想のフォームを正確に把握することができず、フォームのチェックが困難であるという問題があった。   However, in such a case, the shooting conditions such as the angle of the camera that shoots the swing with the ideal form do not always coincide with those when the swing is shot. Even if the described technique is used, there is a problem that an ideal form cannot be accurately grasped and it is difficult to check the form.

本発明の課題は、撮影条件が異なっても理想のフォームを正確に把握することができる画像処理装置、画像処理方法及びプログラムを提供することである。   An object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of accurately grasping an ideal form even if photographing conditions are different.

以上の課題を解決するため、本発明の画像処理装置は、
移動しうる被写体が第1の撮影環境下で撮された少なくとも1つの第1の動画像と前記第1の撮影環境とは異なる第2の撮影環境下で撮影された第2の動画像を取得する画像取得手段と、
前記画像取得手段により取得された前記第1の動画像に含まれる前記被写体の動作に基づいて、第1の軌跡を生成する軌跡生成手段と、
前記第1の動画像及び前記第2の動画像の前記移動しうる被写体に含まれる特徴点に基づいて、画像内における位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された位置情報に基づいて、前記軌跡生成手段により生成された第1の軌跡を、前記第2の撮影環境下に適合するように補正する軌跡補正手段と、
前記第2の動画像に前記軌跡正手段により補正された第1の軌跡が重畳するように合成する合成手段と、
を備えたことを特徴とする。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
Second moving image object that can be moved, which is taken under a different second imaging environment from the at least one first moving image and the first photographing environment of the shooting under the first imaging environment Image acquisition means for acquiring
A trajectory generating means for generating a first trajectory based on the motion of the subject included in the first moving image acquired by the image acquiring means;
Position information acquisition means for acquiring position information in the image based on feature points included in the movable subject of the first moving image and the second moving image;
A trajectory correcting unit that corrects the first trajectory generated by the trajectory generating unit based on the positional information acquired by the positional information acquiring unit so as to fit in the second imaging environment;
And synthesizing for synthesizing means such that the first trajectory is superimposed corrected by the trajectory compensation means to the second moving image,
It is provided with.

本発明によれば、撮影条件が異なっても理想のフォームを正確に把握することができる。   According to the present invention, an ideal form can be accurately grasped even if photographing conditions are different.

画像処理システムの全体構成を示す図である。1 is a diagram illustrating an overall configuration of an image processing system. 画像処理装置の内部構成を示す図である。It is a figure which shows the internal structure of an image processing apparatus. 制御部の機能的構成を示す図である。It is a figure which shows the functional structure of a control part. 動体の軌跡を表示又は解析する手順について説明するフローチャートである。It is a flowchart explaining the procedure of displaying or analyzing the locus | trajectory of a moving body. データ登録処理について説明するフローチャートである。It is a flowchart explaining a data registration process. フォームチェック開始フレームの指定画面について説明する図である。It is a figure explaining the designation | designated screen of a form check start frame. ラインの指定を行う画面について説明する図である。It is a figure explaining the screen which designates a line. スイング動作者の位置の指定を行う画面について説明する図である。It is a figure explaining the screen which designates a swing operator's position. テニスラケットの位置の指定を行う画面について説明する図である。It is a figure explaining the screen which designates the position of a tennis racket. テニスラケットの位置の指定を行う画面について説明する図である。It is a figure explaining the screen which designates the position of a tennis racket. バックスイング開始フレームの指定画面について説明する図である。It is a figure explaining the designation | designated screen of a backswing start frame. フォロースイング開始フレームの指定画面について説明する図である。It is a figure explaining the designation | designated screen of a follow swing start frame. フォロースイング終了フレームの指定画面について説明する図である。It is a figure explaining the designation | designated screen of a follow swing end frame. 規定したラインの傾きについて説明する図である。It is a figure explaining the inclination of the defined line. 撮影角度の算出について説明する図である。It is a figure explaining calculation of a photography angle. 撮影角度の算出について説明する図である。It is a figure explaining calculation of a photography angle. テニスラケットの軌跡について説明する図である。It is a figure explaining the locus | trajectory of a tennis racket. チェック対象の動画像について説明する図である。It is a figure explaining the moving image of a check object. ファイル選択画面について説明する図である。It is a figure explaining a file selection screen. 軌跡の補正について説明する図である。It is a figure explaining correction | amendment of a locus | trajectory. 軌跡の補正について説明する図である。It is a figure explaining correction | amendment of a locus | trajectory. 動画像の再生タイミングについて説明する図である。It is a figure explaining the reproduction | regeneration timing of a moving image. チェック対象者のフォームの診断画面について説明する図である。It is a figure explaining the diagnostic screen of a check subject's form. フォームチェック開始フレームの指定画面について説明する図である。It is a figure explaining the designation | designated screen of a form check start frame. ラインの指定を行う画面について説明する図である。It is a figure explaining the screen which designates a line. スイング動作者の位置の指定を行う画面について説明する図である。It is a figure explaining the screen which designates a swing operator's position. ゴルフクラブの位置の指定を行う画面について説明する図である。It is a figure explaining the screen which designates the position of a golf club. ゴルフクラブの位置の指定を行う画面について説明する図である。It is a figure explaining the screen which designates the position of a golf club. バックスイング開始フレームの指定画面について説明する図である。It is a figure explaining the designation | designated screen of a backswing start frame. フォロースイング開始フレームの指定画面について説明する図である。It is a figure explaining the designation | designated screen of a follow swing start frame. フォロースイング終了フレームの指定画面について説明する図である。It is a figure explaining the designation | designated screen of a follow swing end frame. 規定したラインの傾きについて説明する図である。It is a figure explaining the inclination of the defined line. 撮影角度の算出について説明する図である。It is a figure explaining calculation of a photography angle. 撮影角度の算出について説明する図である。It is a figure explaining calculation of a photography angle. 撮影角度の算出について説明する図である。It is a figure explaining calculation of a photography angle. 撮影角度の算出について説明する図である。It is a figure explaining calculation of a photography angle. 軌跡の補正について説明する図である。It is a figure explaining correction | amendment of a locus | trajectory. 軌跡の補正について説明する図である。It is a figure explaining correction | amendment of a locus | trajectory. チェック対象者のフォームの診断画面について説明する図である。It is a figure explaining the diagnostic screen of a check subject's form. ゴルフクラブとスイング動作者の肩の位置の指定を行う画面について説明する図である。It is a figure explaining the screen which designates a golf club and the position of a shoulder of a swing operator. ゴルフクラブとスイング動作者の肩の位置の指定を行う画面について説明する図である。It is a figure explaining the screen which designates a golf club and the position of a shoulder of a swing operator. 軌跡の設定について説明する図である。It is a figure explaining the setting of a locus. ゴルフクラブの軌跡について説明する図である。It is a figure explaining the locus | trajectory of a golf club.

図1に、本発明の一実施形態における画像処理システム100の全体構成を示す。
画像処理システム100は動体の軌跡を表示又は解析するためのシステムであり、本実施の形態では、一例として、テニスコートにおけるテニススイングの軌跡を表示又は解析する場合について説明する。なお、本実施の形態によれば、ゴルフスイング、野球でのバットのスイング、その他の動体の軌跡の表示又は解析が可能である。
FIG. 1 shows an overall configuration of an image processing system 100 according to an embodiment of the present invention.
The image processing system 100 is a system for displaying or analyzing a trajectory of a moving object. In the present embodiment, as an example, a case where a trajectory of a tennis swing on a tennis court is displayed or analyzed will be described. According to the present embodiment, it is possible to display or analyze a golf swing, a bat swing in baseball, and other moving object trajectories.

画像処理システム100は、撮影手段としてのカメラ1〜3、HUB4、画像処理装置10、プリンタ5、メディア書込部6等を備えて構成される。これらはLAN(Local Area Network)ケーブル7により接続されている。   The image processing system 100 includes cameras 1 to 3 as imaging means, a HUB 4, an image processing apparatus 10, a printer 5, a media writing unit 6, and the like. These are connected by a LAN (Local Area Network) cable 7.

カメラ1〜3は、1秒間に30枚程度の静止画像を撮影して動画像を出力する高機能のデジタルカメラである。秒間撮像フレーム数(フレームレート)はfps(frame per second)で表される。すなわち、カメラ1〜3のフレームレートは30[fps]である。本実施の形態では、上述したように、フレームレートが30[fps]であるカメラを適用したが、フレームレートはこれに限らず、例えば、フレームレートが300〜1200[fps]であるハイスピードカメラを適用してもよい。   Cameras 1 to 3 are high-function digital cameras that capture about 30 still images per second and output moving images. The number of frames captured per second (frame rate) is represented by fps (frame per second). That is, the frame rate of the cameras 1 to 3 is 30 [fps]. In the present embodiment, as described above, a camera with a frame rate of 30 [fps] is applied. However, the frame rate is not limited to this, for example, a high-speed camera with a frame rate of 300 to 1200 [fps]. May be applied.

カメラ1は、テニスコートのバックラインに対して第1の撮影角度でスイング動作者を撮影するカメラであり、当該位置で撮影した動画像の画像データを画像処理装置10に出力する。カメラ2は、テニスコートのバックラインに対して第2の撮影角度でスイング動作者を撮影するカメラであり、当該位置で撮影した動画像の画像データを画像処理装置10に出力する。カメラ3は、テニスコートのバックラインに対して第3の撮影角度でスイング動作者を撮影するカメラであり、当該位置で撮影した動画像の画像データを画像処理装置10に出力する。   The camera 1 is a camera that shoots the swing operator at a first shooting angle with respect to the back line of the tennis court, and outputs image data of a moving image shot at the position to the image processing apparatus 10. The camera 2 is a camera that shoots the swing operator at a second shooting angle with respect to the back line of the tennis court, and outputs image data of a moving image shot at the position to the image processing apparatus 10. The camera 3 is a camera that shoots the swing operator at a third shooting angle with respect to the back line of the tennis court, and outputs image data of a moving image shot at the position to the image processing apparatus 10.

画像処理装置10は、カメラ1〜3により撮影された動画像の画像データを入力して、入力した画像データによる動画像の表示又は解析等を行う。   The image processing apparatus 10 inputs image data of moving images taken by the cameras 1 to 3 and performs display or analysis of moving images based on the input image data.

図2に、画像処理装置10の内部構成を示す。
画像処理装置10は、制御部11、入力部12、表示部13、記憶部14、接続部15等を備えて構成される。また、各部はバス16により接続される。本実施の形態において、画像処理装置10は、例えば、パーソナルコンピュータ等の情報処理装置により構成される。なお、画像処理装置の機能をカメラ1〜3が備える構成であってもよい。
FIG. 2 shows an internal configuration of the image processing apparatus 10.
The image processing apparatus 10 includes a control unit 11, an input unit 12, a display unit 13, a storage unit 14, a connection unit 15, and the like. Each unit is connected by a bus 16. In the present embodiment, the image processing apparatus 10 is configured by an information processing apparatus such as a personal computer, for example. Note that the camera 1 to 3 may have the functions of the image processing apparatus.

軌跡補正手段として機能する制御部11は、図示しないCPUやRAM等を備えて構成され、記憶部14との協働により画像処理装置10の各部を集中制御する。すなわち、制御部11は、記憶部14に記憶された各種プログラムを実行することにより、図3に示すように、第1設定部11a、第2設定部11b、第1軌跡取得部11c、第2軌跡取得部11d、第1撮影角度算出部11e、第2撮影角度算出部11f、撮影角度差分算出部11g、補正部11h、第3設定部11i、第4設定部11j、比率算出部11k、位置差分算出部11m、軌跡差分判定部11n、画像指定部11p、移動対象画像抽出部11r及び表示制御部11sとして機能する。   The control unit 11 that functions as a trajectory correction unit includes a CPU, a RAM, and the like (not shown), and centrally controls each unit of the image processing apparatus 10 in cooperation with the storage unit 14. That is, the control unit 11 executes the various programs stored in the storage unit 14 to generate a first setting unit 11a, a second setting unit 11b, a first trajectory acquisition unit 11c, and a second track, as illustrated in FIG. Trajectory acquisition unit 11d, first shooting angle calculation unit 11e, second shooting angle calculation unit 11f, shooting angle difference calculation unit 11g, correction unit 11h, third setting unit 11i, fourth setting unit 11j, ratio calculation unit 11k, position It functions as a difference calculation unit 11m, a trajectory difference determination unit 11n, an image designation unit 11p, a movement target image extraction unit 11r, and a display control unit 11s.

第1設定部11aは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像における第1の特徴点として交差する2以上の直線を設定する。具体的には後述するが、第1設定部11aは、ある撮影環境下で理想のフォームによるスイングを撮影して得られた動画像に基づいてユーザにより2以上の直線を設定する。この2以上の直線は、例えば、テニスコートにあっては、バックラインとサイドラインに沿ってそれぞれ設定された直線である。   The first setting unit 11a sets two or more straight lines that intersect as first feature points in a moving image obtained by photographing with the cameras 1 to 3 under the first photographing environment. Although specifically described later, the first setting unit 11a sets two or more straight lines by the user based on a moving image obtained by photographing a swing with an ideal form under a certain photographing environment. For example, in a tennis court, these two or more straight lines are straight lines set respectively along the back line and the side line.

第2設定部11bは、カメラ1〜3によって第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点として交差する2以上の直線を設定する。具体的には後述するが、第2設定部11bは、理想のフォームを撮影したときとは異なる撮影環境下でチェック対象のスイングを撮影して得られた動画像に基づいてユーザにより2以上の直線を設定する。この2以上の直線は、例えば、テニスコートにあっては、バックラインとサイドラインに沿ってそれぞれ設定された直線である。   The second setting unit 11b sets two or more straight lines that intersect as the second feature points in the moving image obtained by shooting with the cameras 1 to 3 in a second shooting environment different from the first shooting environment. To do. Specifically, as described later, the second setting unit 11b allows the user to set two or more by the user based on the moving image obtained by photographing the check target swing under a photographing environment different from that when photographing the ideal form. Set a straight line. For example, in a tennis court, these two or more straight lines are straight lines set respectively along the back line and the side line.

第1軌跡取得部11cは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像から第1の移動対象の軌跡を第1軌跡として取得する。具体的には後述するが、第1軌跡取得部11cは、撮影した理想のフォームによるスイングの動画像からテニスラケットやゴルフクラブのヘッド等の移動対象の軌跡を取得する。   The 1st locus | trajectory acquisition part 11c acquires the locus | trajectory of a 1st movement object as a 1st locus | trajectory from the moving image obtained by image | photographing on the 1st imaging environment with the cameras 1-3. Although specifically described later, the first trajectory acquisition unit 11c acquires a trajectory of a movement target such as a tennis racket or a golf club head from a captured moving image of an ideal form.

第2軌跡取得部11dは、カメラ1〜3によって第2の撮影環境下で撮影して得られた動画像から第2の移動対象の軌跡を第2軌跡として取得する。具体的には後述するが、第2軌跡取得部11dは、撮影したチェック対象のスイングの動画像からテニスラケットやゴルフクラブのヘッド等の移動対象の軌跡を取得する。   The second trajectory acquisition unit 11d acquires the trajectory of the second movement target as the second trajectory from the moving image obtained by photographing with the cameras 1 to 3 in the second photographing environment. Although specifically described later, the second trajectory acquisition unit 11d acquires a trajectory of a movement target such as a tennis racket or a golf club head from the captured moving image of the swing to be checked.

第1撮影角度算出部11eは、第1設定部11aによって設定された2以上の直線のそれぞれのなす角度から第1の撮影環境下で撮影されたときのカメラ1〜3の撮影角度を算出する。具体的には後述するが、第1撮影角度算出部11eは、理想のフォームによるスイングを撮影して得られた動画像から設定された2以上の直線のそれぞれのなす角度から、ある位置に対するカメラ1〜3の撮影角度を算出する。   The first shooting angle calculation unit 11e calculates the shooting angles of the cameras 1 to 3 when shooting is performed in the first shooting environment from angles formed by two or more straight lines set by the first setting unit 11a. . Specifically, as will be described later, the first shooting angle calculation unit 11e is a camera for a certain position based on an angle formed by each of two or more straight lines set from a moving image obtained by shooting a swing with an ideal form. The shooting angles of 1 to 3 are calculated.

第2撮影角度算出部11fは、第2設定部11bによって設定された2以上の直線のそれぞれのなす角度から第2の撮影環境下で撮影されたときのカメラ1〜3の撮影角度を算出する。具体的には後述するが、第2撮影角度算出部11fは、チェック対象のスイングを撮影して得られた動画像から設定された2以上の直線のそれぞれのなす角度から、ある位置に対するカメラ1〜3の撮影角度を算出する。   The second shooting angle calculation unit 11f calculates the shooting angles of the cameras 1 to 3 when shooting is performed in the second shooting environment from the angles formed by the two or more straight lines set by the second setting unit 11b. . As will be described in detail later, the second shooting angle calculation unit 11f is configured to detect the camera 1 with respect to a certain position from angles formed by two or more straight lines set from a moving image obtained by shooting the swing to be checked. The imaging angle of ~ 3 is calculated.

撮影角度差分算出部11gは、第1撮影角度算出部11eによって算出された撮影角度と、第2撮影角度算出部11fによって算出された撮影角度との差分を算出する。   The shooting angle difference calculation unit 11g calculates a difference between the shooting angle calculated by the first shooting angle calculation unit 11e and the shooting angle calculated by the second shooting angle calculation unit 11f.

補正部11hは、撮影角度差分算出部11gによって算出された撮影角度の差分に基づいて、第1軌跡取得部11cによって取得された第1軌跡の位置を補正する。具体的には後述するが、補正部11hは、第1の撮影環境下で撮影されたときのカメラ1〜3の撮影角度と第2の撮影環境下で撮影されたときのカメラ1〜3の撮影角度との差分から、撮影した理想のフォームによるスイングの動画像から取得されたテニスラケットやゴルフクラブのヘッド等の移動対象の軌跡の位置を補正する。   The correction unit 11h corrects the position of the first trajectory acquired by the first trajectory acquisition unit 11c based on the difference in the shooting angle calculated by the shooting angle difference calculation unit 11g. As will be described in detail later, the correction unit 11h is configured so that the shooting angle of the cameras 1 to 3 when shooting is performed in the first shooting environment and that of the cameras 1 to 3 when shooting is performed under the second shooting environment. Based on the difference from the shooting angle, the position of the trajectory of the movement target such as a tennis racket or a golf club head acquired from the captured moving image of the ideal form is corrected.

第3設定部11iは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像における第3の特徴点としての直線を設定する。具体的には後述するが、第3設定部11iは、理想のフォームによるスイングを撮影して得られた動画像に基づいて、ユーザにより第1の特徴点としての直線とは異なる直線を設定する。この直線は、例えば、理想のフォームによるスイングを行うスイング動作者の体の中心線に沿って設定された直線である。   The 3rd setting part 11i sets the straight line as a 3rd feature point in the moving image obtained by image | photographing on the 1st imaging environment with the cameras 1-3. Although specifically described later, the third setting unit 11i sets a straight line different from the straight line as the first feature point by the user based on a moving image obtained by photographing a swing with an ideal form. . This straight line is, for example, a straight line set along the center line of the body of the swing operator performing a swing with an ideal form.

第4設定部11jは、カメラ1〜3によって第2の撮影環境下で撮影して得られた動画像における第4の特徴点としての直線を設定する。具体的には後述するが、第4設定部11jは、チェック対象のスイングを撮影して得られた動画像に基づいて、ユーザにより第2の特徴点としての直線とは異なる直線を設定する。この直線は、例えば、チェック対象のスイングを行うスイング動作者の体の中心線に沿って設定された直線である。   The fourth setting unit 11j sets a straight line as the fourth feature point in the moving image obtained by shooting with the cameras 1 to 3 in the second shooting environment. Although specifically described later, the fourth setting unit 11j sets a straight line different from the straight line as the second feature point by the user based on the moving image obtained by photographing the swing to be checked. This straight line is, for example, a straight line set along the center line of the body of the swing operator who performs the check target swing.

比率算出部11kは、第3設定部11iによって設定された直線と、第4設定部11jによって設定された直線との長さの比率を算出する。   The ratio calculation unit 11k calculates the ratio of the length of the straight line set by the third setting unit 11i and the straight line set by the fourth setting unit 11j.

位置差分算出部11mは、第3設定部11iによって設定された直線と、第4設定部11jによって設定された直線との位置の差分を算出する。すなわち、位置差分算出部11mは、第3の特徴点としての直線の位置と、第4の特徴点としての直線の位置とのずれ量を求める。   The position difference calculation unit 11m calculates a position difference between the straight line set by the third setting unit 11i and the straight line set by the fourth setting unit 11j. That is, the position difference calculation unit 11m obtains a deviation amount between the position of the straight line as the third feature point and the position of the straight line as the fourth feature point.

軌跡差分判定部11nは、補正部11hによって補正された第1軌跡と、第2軌跡取得部11dによって取得された第2軌跡との差分を判定する。具体的には後述するが、軌跡差分判定部11nは、撮影したチェック対象のスイングの動画像からテニスラケットやゴルフクラブのヘッド等の移動対象の軌跡が、位置が補正された撮影した理想のフォームによるスイングの動画像から取得されたテニスラケットやゴルフクラブのヘッド等の移動対象の軌跡からどのくらいずれているかを判定する。   The trajectory difference determination unit 11n determines a difference between the first trajectory corrected by the correction unit 11h and the second trajectory acquired by the second trajectory acquisition unit 11d. Although specifically described later, the trajectory difference determination unit 11n captures the ideal form in which the position of the trajectory of the movement target such as the tennis racket or the golf club head is corrected from the captured moving image of the check target swing. It is determined how much from the trajectory of the movement target such as a tennis racket or a golf club head acquired from the swing moving image by the above.

画像指定部11pは、第1の移動対象の画像を指定する。具体的には後述するが、画像指定部11pは、移動対象を特定するために、ユーザによって当該移動対象部分の画像を指定する。   The image designation unit 11p designates the first movement target image. Although specifically described later, the image designation unit 11p designates an image of the movement target portion by the user in order to specify the movement target.

移動対象画像抽出部11rは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像から画像指定部11pによって指定された画像に対応する画像を抽出する。具体的には後述するが、移動対象画像抽出部11rは、ユーザによって指定された画像をテンプレートとするテンプレートマッチングを行う。これにより、理想のフォームによるスイングを撮影して得られた動画像を構成する各静止画像からテンプレートに相当する画像を抽出する。   The movement target image extraction unit 11r extracts an image corresponding to the image designated by the image designation unit 11p from the moving images obtained by photographing in the first photographing environment with the cameras 1 to 3. Although specifically described later, the movement target image extraction unit 11r performs template matching using an image designated by the user as a template. Thereby, an image corresponding to the template is extracted from each still image constituting the moving image obtained by photographing the swing with the ideal form.

表示制御部11sは、表示部13の表示制御を行う。   The display control unit 11s performs display control of the display unit 13.

入力部12は、カーソルキーや各種機能キーを備えたキーボード及びマウス等を備えて構成され、操作信号を制御部11に出力する。   The input unit 12 includes a keyboard having a cursor key and various function keys, a mouse, and the like, and outputs an operation signal to the control unit 11.

表示部13は、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等により構成され、制御部11からの表示信号に従って画面表示を行う。   The display unit 13 is configured by an LCD (Liquid Crystal Display), an organic EL (Electro-Luminescence) display, or the like, and performs screen display according to a display signal from the control unit 11.

記憶部14は、HDD(Hard Disk Drive)等により構成され、各種プログラム及び各種データを記憶する。   The storage unit 14 is configured by an HDD (Hard Disk Drive) or the like, and stores various programs and various data.

接続部15は、USB(Universal Serial Bus)等のバスインターフェイスにより構成され、カメラ1〜3から出力された動画像の画像データを入力し、一方でプリンタ5やメディア書込部6に動画像又は静止画像の画像データを出力する。   The connection unit 15 is configured by a bus interface such as USB (Universal Serial Bus) and inputs image data of moving images output from the cameras 1 to 3, while moving images or images are input to the printer 5 and the media writing unit 6. Output image data of still images.

図1に戻り、HUB4は、カメラ1〜3と画像処理装置10との間に介在する集線装置であってこれらを接続する。
プリンタ5は、画像処理装置10からの印刷指示に従い、印刷媒体(例えば紙等)に対して印刷処理を行う。プリンタ5は、例えば、ページプリンタ等の印刷装置により構成される。
メディア書込部6は、画像処理装置10の書込指示に従い、デジタルの動画像の画像データをDVD等のメディア(可搬型記録媒体)に書き込む機器である。なお、メディア書込部6は、画像処理装置10に内蔵されるものとしてもよい。
Returning to FIG. 1, the HUB 4 is a line concentrator interposed between the cameras 1 to 3 and the image processing apparatus 10 and connects them.
The printer 5 performs print processing on a print medium (for example, paper) in accordance with a print instruction from the image processing apparatus 10. The printer 5 is configured by a printing device such as a page printer, for example.
The media writing unit 6 is a device that writes image data of a digital moving image to a medium such as a DVD (portable recording medium) in accordance with a writing instruction from the image processing apparatus 10. The media writing unit 6 may be built in the image processing apparatus 10.

次に、上述のようにして構成された画像処理システム100を用いて、動体の軌跡を表示又は解析する手順について、図4を参照しながら説明する。
なお、以下の説明において、カメラ1〜3によりテニススイング時のスイング動作者が同時期に撮影され、撮影された各方向の動画像の画像データが画像処理装置10により記憶されるものとする。
Next, a procedure for displaying or analyzing the trajectory of a moving object using the image processing system 100 configured as described above will be described with reference to FIG.
In the following description, it is assumed that the swing operator at the time of tennis swing is photographed by the cameras 1 to 3 at the same time, and image data of the photographed moving image in each direction is stored by the image processing apparatus 10.

最初に、ある撮影環境(第1の撮影環境)下において、例えばインストラクターやプロ選手のスイング等、見本とするフォーム(理想のフォーム)によるスイングの撮影をカメラ1〜3によって行う。なお、撮影に使用するカメラの数は3つに限らず、1つであっても、2以上であってもよい。撮影された動画像の画像データ(理想のフォームの動画像データ)は、画像処理装置10の制御部11の制御により、例えば、記憶部14に記憶される(ステップS101)。   First, under a certain shooting environment (first shooting environment), the cameras 1 to 3 perform shooting of a swing using a sample form (ideal form) such as a swing of an instructor or a professional player. Note that the number of cameras used for shooting is not limited to three, and may be one or two or more. Image data of a captured moving image (moving image data of an ideal form) is stored in, for example, the storage unit 14 under the control of the control unit 11 of the image processing apparatus 10 (step S101).

次に、理想のフォームによるスイングの撮影時とは異なる撮影位置(第2の撮影環境下)にて、フォームのチェックを行いたいスイングの撮影をカメラ1〜3によって行う。ここで、撮影するカメラはカメラ1〜3の何れかであってもよい。撮影された動画像の画像データ(チェック対象の動画像データ)は、画像処理装置10の制御部11の制御により、例えば、記憶部14に記憶される(ステップS102)。   Next, at the shooting position (under the second shooting environment) different from the shooting of the swing with the ideal form, shooting of the swing for which the form is to be checked is performed by the cameras 1 to 3. Here, the camera to shoot may be any of the cameras 1 to 3. Image data of a captured moving image (moving image data to be checked) is stored in, for example, the storage unit 14 under the control of the control unit 11 of the image processing apparatus 10 (step S102).

次に、制御部11は、記憶部14から理想のフォームの動画像データを読み出し、移動対象であるテニスラケットの軌跡を取得するための各種データの登録を行う(ステップS103)。ここで、図5を参照して、テニスラケットの軌跡を取得するためのデータ登録処理の手順について説明する。なお、以下の説明においては、理想のフォームの動画像データを用いて各種データの登録を行う内容について説明するが、チェック対象の動画像データを用いた各種データの登録も同様の手順にて行われる。   Next, the control unit 11 reads out the moving image data of the ideal form from the storage unit 14, and registers various data for acquiring the trajectory of the tennis racket that is the movement target (step S103). Here, with reference to FIG. 5, the procedure of the data registration process for acquiring the locus | trajectory of a tennis racket is demonstrated. In the following description, the contents of registration of various data using moving image data of an ideal form will be described. However, registration of various data using moving image data to be checked is performed in the same procedure. Is called.

最初に、制御部11は、読み出した理想のフォームの動画像データから、フォーム開始フレームの指定を行う(ステップS201)。すなわち、制御部11は、フォームの診断を開始するフレームの指定を行う。より具体的には、例えば、図6に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームの動画像を構成する静止画像を時系列的に切り換えて表示する。なお、図6には、テニスラケットR1を把持したスイング動作者Q1がテニスコート上でスイングしている様子が表示されている。テニスコートは、コーナーC1で交差するバックラインBL1とサイドラインSL1とに囲まれている。また、表示画面上に表示された選択ボタンB1,B2は、例えば、入力部12としてのマウスの操作によ
り入力することができる。そして、制御部11は、表示画面上にフォーム開始フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、フォーム開始フレームを指定する。
First, the control unit 11 specifies a form start frame from the read moving image data of the ideal form (step S201). That is, the control unit 11 designates a frame for starting form diagnosis. More specifically, for example, as shown in FIG. 6, the control unit 11 inputs the selection buttons B1 and B2 displayed on the display screen of the display unit 13 to input the ideal displayed on the screen. The still images constituting the moving image of the form are switched and displayed in time series. FIG. 6 shows a state where the swing operator Q1 holding the tennis racket R1 is swinging on the tennis court. The tennis court is surrounded by a back line BL1 and a side line SL1 that intersect at the corner C1. The selection buttons B1 and B2 displayed on the display screen can be input by operating a mouse as the input unit 12, for example. Then, the control unit 11 designates the form start frame by inputting the set button B3 when an appropriate still image is displayed as the form start frame on the display screen.

次に、制御部11は、第1設定部11aを機能させて、指定されたフォーム開始フレームの静止画像を利用したバックライン及びサイドラインの指定を行う(ステップS202)。具体的には、例えば、図7に示すように、制御部11は、表示部13の表示画面上に表示されたポインタP〜Pの位置が変位操作されることにより、バックラインBL1及びサイドラインSL1をラインL,Lによって規定する。なお、表示画面上に表示されたポインタP〜Pは、例えば、入力部12としてのマウスによるドラッグ操作によって変位させることができる。ポインタP〜Pの位置は、例えば、制御部11の備えるRAMに保存される。 Next, the control unit 11 causes the first setting unit 11a to function and designates the backline and the sideline using the still image of the designated form start frame (step S202). Specifically, for example, as illustrated in FIG. 7, the control unit 11 performs a displacement operation on the positions of the pointers P 1 to P 3 displayed on the display screen of the display unit 13, so that the backlines BL 1 and Side line SL1 is defined by lines L 1 and L 2 . The pointers P 1 to P 3 displayed on the display screen can be displaced by, for example, a drag operation using the mouse as the input unit 12. The positions of the pointers P 1 to P 3 are stored in, for example, a RAM provided in the control unit 11.

次に、制御部11は、第3設定部11iを機能させて、スイング動作者Q1の位置の指定を行う(ステップS203)。具体的には、例えば、図8に示すように、制御部11は、表示部13の表示画面上に表示されたポインタP,Pの位置が変位操作されることにより、スイング動作者Q1の位置をラインLによって規定する。ラインLの規定は、例えば、スイング動作者Q1の首と腰の部分をそれぞれポインタP,Pで規定することにより行うことができる。なお、表示画面上に表示されたポインタP,Pは、例えば、入力部12としてのマウスによるドラッグ操作によって変位させることができる。
ポインタP,Pの位置は、例えば、制御部11の備えるRAMに保存される。
Next, the control unit 11 causes the third setting unit 11i to function and designates the position of the swing operator Q1 (step S203). Specifically, for example, as shown in FIG. 8, the control unit 11 performs a displacement operation on the positions of the pointers P 4 and P 5 displayed on the display screen of the display unit 13, so that the swing operator Q 1 define the position by the line L 3. The provisions of the line L 3 is, for example, can be carried out by defining the neck and part of the waist of the swing operation's Q1 pointer P 4, P 5, respectively. The pointers P 4 and P 5 displayed on the display screen can be displaced by, for example, a drag operation with the mouse as the input unit 12.
The positions of the pointers P 4 and P 5 are stored in, for example, a RAM provided in the control unit 11.

次に、制御部11は、画像指定部11pを機能させて、テニスラケットR1の位置の指定を行う(ステップS204)。具体的には、例えば、図9、図10に示すように、制御部11は、表示部13の表示画面上に表示されたポインタT,Tの位置が変位操作されると、当該ポインタT,Tの位置により方形状の枠FTを規定する。テニスラケットR1の指定は、例えば、図10に示すように、テニスラケットR1の左上部分と右下部分とをそれぞれポインタT,Tで規定することにより行うことができる。なお、表示画面上に表示されたポインタT,Tは、例えば、入力部12としてのマウスによるドラッグ操作によって変位させることができる。ポインタT,Tの位置は、例えば、制御部11の備えるRAMに保存される。 Next, the control part 11 makes the image designation | designated part 11p function, and designates the position of the tennis racket R1 (step S204). Specifically, for example, as illustrated in FIGS. 9 and 10, when the position of the pointers T 1 and T 2 displayed on the display screen of the display unit 13 is displaced, the control unit 11 performs the pointer operation. A rectangular frame FT is defined by the positions of T 1 and T 2 . The tennis racket R1 can be specified, for example, by defining the upper left part and the lower right part of the tennis racket R1 with pointers T 1 and T 2 as shown in FIG. The pointers T 1 and T 2 displayed on the display screen can be displaced by, for example, a drag operation using the mouse as the input unit 12. The positions of the pointers T 1 and T 2 are stored in, for example, a RAM provided in the control unit 11.

次に、制御部11は、理想のフォームの動画像データから、バックスイング開始フレームの指定を行う(ステップS205)。すなわち、制御部11は、バックスイングの動作の開始に相当するフレームの指定を行う。より具体的には、例えば、図11に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にバックスイング開始フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、バックスイング開始フレームを指定する。   Next, the control unit 11 designates a backswing start frame from the moving image data of the ideal form (step S205). That is, the control unit 11 designates a frame corresponding to the start of the backswing operation. More specifically, for example, as shown in FIG. 11, the control unit 11 inputs the selection buttons B1 and B2 displayed on the display screen of the display unit 13 to input the ideal displayed on the screen. The still images constituting the moving image of the form are switched and displayed in time series. And the control part 11 designates a backswing start frame by inputting set button B3 when a suitable still image is displayed as a backswing start frame on a display screen.

次に、制御部11は、理想のフォームの動画像データから、フォロースイング開始フレームの指定を行う(ステップS206)。すなわち、制御部11は、フォロースイングの動作の開始に相当するフレームの指定を行う。より具体的には、例えば、図12に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にフォロースイング開始フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、フォロースイング開始フレームを指定する。   Next, the control unit 11 designates a follow swing start frame from the moving image data of the ideal form (step S206). That is, the control unit 11 designates a frame corresponding to the start of the follow swing operation. More specifically, for example, as shown in FIG. 12, the control unit 11 receives the ideal buttons displayed on the screen when the selection buttons B1 and B2 displayed on the display screen of the display unit 13 are input. The still images constituting the moving image of the form are switched and displayed in time series. Then, the control unit 11 designates the follow swing start frame by inputting the set button B3 when an appropriate still image is displayed as the follow swing start frame on the display screen.

次に、制御部11は、理想のフォームの動画像データから、フォロースイング終了フレームの指定を行う(ステップS207)。すなわち、制御部11は、フォロースイングの動作の終了に相当するフレームの指定を行う。より具体的には、例えば、図13に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にフォロースイング終了フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、フォロースイング終了フレームを指定する。   Next, the control unit 11 designates the follow swing end frame from the moving image data of the ideal form (step S207). That is, the control unit 11 designates a frame corresponding to the end of the follow swing operation. More specifically, for example, as shown in FIG. 13, the control unit 11 inputs the selection buttons B1 and B2 displayed on the display screen of the display unit 13 to input the ideal displayed on the screen. The still images constituting the moving image of the form are switched and displayed in time series. Then, the control unit 11 specifies the follow swing end frame by inputting the set button B3 when an appropriate still image is displayed as the follow swing end frame on the display screen.

以上のようにして理想のフォームのデータ登録が完了すると、制御部11は、図4に示すように、第1撮影角度算出部11eを機能させて、理想のフォームによるスイングが撮影されたときのテニスコートのバックラインに対する撮影角度(理想のフォームの撮影角度)を算出する(ステップS104)。   When the registration of the ideal form data is completed as described above, the control unit 11 causes the first imaging angle calculation unit 11e to function as shown in FIG. The shooting angle with respect to the back line of the tennis court (the shooting angle of the ideal form) is calculated (step S104).

具体的には、制御部11は、図14に示すように、ラインL,Lによって規定されたバックライン及びサイドラインの水平線HLに対する傾き、すなわち、角度α,βを求める。ここで、理想のフォームによるスイングが撮影されたときのテニスコートの状況を平面視で表すと、図15(A)に示すようになる。なお、立体視で表した状態を、図15(B)に示す。このとき、カメラ1〜3のうちの一のカメラCMと、バックラインBLとサイドラインSLとの交点であるコーナーとを結ぶ軸線をy軸とし、このコーナーに接するとともにy軸と直交する軸線をx軸とすると、x軸とバックラインBLとでなす角度はαとなり、x軸とサイドラインSLとでなす角度はβとなる。このとき、バックラインBLとy軸とがなす角度が撮影角度θとなる。テニスコートを平面視でみた場合、バックラインBLとサイドラインSLとのなす角度は90°であり、下記式(1)の関係が成り立つ。なお、aは変換係数を示す。
(a×sinα+(a×sinβ=1・・・(1)
Specifically, as illustrated in FIG. 14, the control unit 11 obtains inclinations of the back line and the side line defined by the lines L 1 and L 2 with respect to the horizontal line HL, that is, the angles α and β. Here, the situation of the tennis court when a swing with an ideal form is photographed is shown in a plan view as shown in FIG. Note that a three-dimensional view is shown in FIG. At this time, an axis that connects one camera CM of the cameras 1 to 3 and a corner that is an intersection of the back line BL and the side line SL is defined as a y-axis, and an axis that is in contact with the corner and orthogonal to the y-axis is defined as an axis. Assuming the x axis, the angle formed by the x axis and the back line BL is α 0 , and the angle formed by the x axis and the side line SL is β 0 . At this time, the angle formed by the back line BL and the y axis is the shooting angle θ. When the tennis court is viewed in plan, the angle formed between the back line BL and the side line SL is 90 °, and the relationship of the following formula (1) is established. Note that a represents a conversion coefficient.
(A × sin α 0 ) 2 + (a × sin β 0 ) 2 = 1 (1)

さらに、これをxyz軸上で表すと、図16に示すようになる。平面視においては、視点はz軸上とされているため、これを実際のカメラCMの視点にするために、x軸を回転軸として、全体を角度δ回転させる。すると、xyz軸上にある任意の点Xは、x軸で回転してX´となる。すなわち、点Xの座標を(x,y,z)とし、点X´の座標を(x´,y´,z´)とすると、点X´の座標は下記式(2)のようにして求めることができる。

Figure 0006337911
Furthermore, when this is expressed on the xyz axis, it is as shown in FIG. In plan view, the viewpoint is on the z axis, and in order to make this the actual viewpoint of the camera CM, the whole is rotated by an angle δ with the x axis as the rotation axis. Then, an arbitrary point X on the xyz axis is rotated on the x axis to become X ′. That is, if the coordinates of the point X are (x, y, z) and the coordinates of the point X ′ are (x ′, y ′, z ′), the coordinates of the point X ′ are as shown in the following equation (2). Can be sought.
Figure 0006337911

上記式(2)によれば、変換係数aは1/cosδとなることがわかる。
そして、バックラインBLとサイドラインSLの交点であるコーナーの位置のz軸上の高さを0とすると、下記式(3)及び下記式(4)の関係が成り立つ。
sinα=cosδ×sinα・・・(3)
sinβ=cosδ×sinβ・・・(4)
According to the above equation (2), it can be seen that the conversion coefficient a is 1 / cos δ.
Then, assuming that the height on the z-axis at the corner position, which is the intersection of the back line BL and the side line SL, is 0, the following expressions (3) and (4) are satisfied.
sin α = cos δ × sin α 0 (3)
sin β = cos δ × sin β 0 (4)

すなわち、上記式(3)及び上記式(4)から下記式(5)を表すことができる。
(1/cosδ×sinα)+(1/cosδ×sinβ)=1・・・(5)
したがって、下記式(6)及び下記式(7)の関係が成り立つ。
cosθ=1/cosδ×sinβ・・・(6)
sinθ=1/cosδ×sinα・・・(7)
これにより、撮影角度θを求めることができる。なお、上述した説明は、カメラ1〜3のうちの一のカメラCMについての撮影角度θを求めるものであるが、他のカメラについても同様の手順で撮影角度θを求めることができる。
That is, the following formula (5) can be expressed from the above formula (3) and the above formula (4).
(1 / cos δ × sin α) 2 + (1 / cos δ × sin β) 2 = 1 (5)
Therefore, the relationship of the following formula (6) and the following formula (7) is established.
cos θ = 1 / cos δ × sin β (6)
sin θ = 1 / cos δ × sin α (7)
Thereby, the imaging angle θ can be obtained. In the above description, the shooting angle θ for one camera CM among the cameras 1 to 3 is obtained, but the shooting angle θ can be obtained for the other cameras in the same procedure.

以上のようにして、理想のフォームの撮影角度を算出すると、制御部11は、第1軌跡取得部11cを機能させて、撮影した理想のフォームによるスイングの動画像から移動対象であるテニスラケットの軌跡を取得する(ステップS105)。具体的には、制御部11は、移動対象画像抽出部11rを機能させて、理想のフォームによるスイングの動画像のうち、フォロースイング開始フレームからフォロースイング終了フレームまでの間の動画像を構成する静止画像のそれぞれについて、テニスラケットの部分の画像を抽出する。
すなわち、制御部11は、先ず、画像指定部11pを機能させて上述のようにして指定されたテニスラケットの画像をテンプレートとする。次に、制御部11は、理想のフォームの動画像のうち、フォロースイング開始フレームからフォロースイング終了フレームまでの間の動画像を構成する静止画像のそれぞれについて、テンプレートとした画像とマッチングする画像の部分を抽出する。制御部11は、この抽出された画像をテニスラケットの部分の画像とし、この抽出された画像の中心を軌跡としてプロットする。その結果、例えば、図17に示されるようなフレーム毎の軌跡H〜Hを取得することができる。テンプレートマッチングの手法は、公知のものが採用できるが、例えば、最初にテンプレートを設定したフレームの次のフレームの静止画像から、テンプレートとした画像の座標の近傍の一定範囲を探索範囲とし、例えば、RGB等の画像のパラメータの差分が最も小さい領域を特定する。その次以降のフレームの静止画像についても同様の手順を繰り返すことにより、各フレームについてテンプレートとマッチングする画像の部分を特定する。
When the shooting angle of the ideal form is calculated as described above, the control unit 11 causes the first trajectory acquisition unit 11c to function, and the tennis racket to be moved from the moving image of the swing with the captured ideal form. A trajectory is acquired (step S105). Specifically, the control unit 11 causes the movement target image extraction unit 11r to function and configures a moving image from the follow swing start frame to the follow swing end frame among the swing images of the ideal form. For each of the still images, an image of the tennis racket portion is extracted.
That is, the control unit 11 first causes the image designating unit 11p to function and uses the tennis racket image designated as described above as a template. Next, the control unit 11 selects, for each of the still images constituting the moving image from the follow swing start frame to the follow swing end frame, of the ideal form of the moving image, an image matching the template image. Extract the part. The control unit 11 plots the extracted image as an image of the tennis racket portion, and plots the center of the extracted image as a trajectory. As a result, for example, trajectories H 1 to H n for each frame as shown in FIG. 17 can be acquired. As a template matching method, a publicly known one can be adopted.For example, from a still image of a frame next to a frame in which a template is first set, a fixed range near the coordinates of an image as a template is set as a search range. An area having the smallest difference in parameters of images such as RGB is specified. By repeating the same procedure for the still images of the subsequent frames, the portion of the image that matches the template is specified for each frame.

制御部11は、上述した処理を、カメラ1〜3のそれぞれで撮影して得られた動画像についてそれぞれ実施する。   The control unit 11 performs the above-described processing on each moving image obtained by shooting with each of the cameras 1 to 3.

次に、カメラ1〜3のそれぞれで撮影されて得られた理想のフォームの動画像データを、上述のようにして生成された、テニスラケットの軌跡を取得するための各種データ、撮影角度、フレーム毎の軌跡データ等とともに、理想のフォームデータファイルとして、例えば、記憶部14に保存する(ステップS106)。なお、理想のフォームデータファイルは、ファイル名が指定される。また、理想のフォームデータファイルは、理想のフォームの動画像データを作成する毎に生成される。   Next, various data for obtaining the trajectory of the tennis racket, the shooting angle, and the frame, which are generated as described above, from the moving image data of the ideal form obtained by each of the cameras 1-3. For example, the data is stored in the storage unit 14 as an ideal form data file together with the trajectory data and the like (step S106). An ideal form data file is designated with a file name. An ideal form data file is generated every time moving image data of an ideal form is created.

次に、制御部11は、第2設定部11b及び第4設定部11j等を機能させて、記憶部14からチェック対象の動画像データを読み出し、移動対象であるテニスラケットの軌跡を取得するための各種データの登録を行う(ステップS107)。テニスラケットの軌跡を取得するためのデータの登録の処理手順は、上述した理想のフォームによるスイングの動画像についてのテニスラケットの軌跡を取得するためのデータの登録の処理手順と同様である。すなわち、制御部11は、図18に示すようなチェック対象のスイングの動画像を表示部13の表示画面上に表示させた後に、フォーム開始フレームの指定、バックラインBL2及びサイドラインSL2の規定、スイング動作者Q2の位置の指定、テニスラケットR2の位置の指定、バックスイング開始フレームの指定、フォロースイング開始フレ
ームの指定及びフォロースイング終了フレームの指定を行う。
Next, the control unit 11 causes the second setting unit 11b, the fourth setting unit 11j, and the like to function so as to read the moving image data to be checked from the storage unit 14 and acquire the trajectory of the tennis racket that is the movement target. The various data are registered (step S107). The data registration processing procedure for acquiring the tennis racket trajectory is the same as the data registration processing procedure for acquiring the tennis racket trajectory for the swing moving image in the ideal form described above. That is, the control unit 11 displays the moving image of the swing to be checked as shown in FIG. 18 on the display screen of the display unit 13, and then specifies the form start frame, the definition of the backline BL2 and the sideline SL2, Designation of the position of the swing operator Q2, designation of the position of the tennis racket R2, designation of the back swing start frame, designation of the follow swing start frame and designation of the follow swing end frame are performed.

続いて、制御部11は、第2撮影角度算出部11fを機能させて、チェック対象者のスイングが撮影されたときのテニスコートのバックラインに対する撮影角度(チェック対象者の撮影角度)を算出する(ステップS108)。チェック対象者の撮影角度の算出は、上述した理想のフォームの撮影角度の算出と同様の手順により行うことができる。   Subsequently, the control unit 11 causes the second shooting angle calculation unit 11f to function, and calculates a shooting angle with respect to the back line of the tennis court when the check subject's swing is shot (the shooting angle of the check target person). (Step S108). Calculation of the shooting angle of the person to be checked can be performed by the same procedure as the calculation of the shooting angle of the ideal form described above.

次に、制御部11は、第2軌跡取得部11dを機能させて、撮影したチェック対象者のスイングの動画像から移動対象であるテニスラケットの軌跡を取得する(ステップS109)。チェック対象者のスイングの動画像におけるテニスラケットの軌跡の取得方法は、上述した理想のフォームによるスイングの動画像におけるテニスラケットの軌跡の取得方法と同様の手順により行うことができる。   Next, the control unit 11 causes the second trajectory acquisition unit 11d to function, and acquires the trajectory of the tennis racket that is the movement target from the captured moving image of the person to be checked (step S109). The method of acquiring the trajectory of the tennis racket in the moving image of the swing of the person to be checked can be performed by the same procedure as the method of acquiring the trajectory of the tennis racket in the moving image of the swing using the ideal form described above.

次に、制御部11は、カメラ1〜3の1つ又は2以上で撮影されて得られたチェック対象の動画像データを、上述のようにして生成された、テニスラケットの軌跡を取得するための各種データ、撮影角度、フレーム毎の軌跡データ等とともに、チェック対象のフォームデータファイルとして、例えば、記憶部14に保存する(ステップS110)。なお、チェック対象のフォームデータファイルは、ファイル名が指定される。   Next, the control unit 11 acquires the trajectory of the tennis racket generated as described above from the moving image data to be checked obtained by shooting with one or more of the cameras 1 to 3. Are stored in the storage unit 14, for example, as a form data file to be checked (step S110). Note that the file name is specified for the form data file to be checked.

その後、制御部11は、チェック対象のフォームデータファイルを記憶部14から読み出した後(ステップS111)、理想のフォームデータファイルを記憶部14から読み出す(ステップS112)。制御部11は、理想のフォームデータファイルを読み出すときは、例えば、表示部13の表示画面上に、図19に示すようなファイル選択画面を表示する。ユーザは、例えば、入力部12であるマウスやキーボードを操作して、ファイル選択画面におけるリストから何れかを選択することにより、任意の理想のフォームデータファイルを選択することができる。   Thereafter, the control unit 11 reads the form data file to be checked from the storage unit 14 (step S111), and then reads the ideal form data file from the storage unit 14 (step S112). When reading the ideal form data file, the control unit 11 displays a file selection screen as shown in FIG. 19 on the display screen of the display unit 13, for example. For example, the user can select any ideal form data file by operating the mouse or keyboard as the input unit 12 and selecting one from the list on the file selection screen.

次に、制御部11は、補正部11h、比率算出部11k及び位置差分算出部11mを機能させて、ステップS112において読み出したファイルに含まれる理想のフォームによるスイングの動画像についてのテニスラケットの軌跡データの位置の補正を行う(ステップS113)。
ここで、本実施の形態では、カメラ1〜3により、3つの撮影角度によって理想のフォームによるスイングを撮影し、それぞれの動画像を取得している。そのため、テニスラケットの軌跡データの位置の補正を行う対象である動画像を選択する。テニスラケットの軌跡データの位置の補正を行う対象である動画像の選択は、理想のフォームによるスイングを撮影した動画像の撮影角度のそれぞれを、チェック対象のスイングを撮影して得られた動画像の撮影角度と比較し、撮影角度の差分の最も小さいものの動画像を特定することにより行う。
Next, the control unit 11 causes the correction unit 11h, the ratio calculation unit 11k, and the position difference calculation unit 11m to function, and the trajectory of the tennis racket regarding the moving image of the swing with the ideal form included in the file read in step S112. The data position is corrected (step S113).
Here, in this embodiment, the cameras 1 to 3 shoot a swing with an ideal form at three shooting angles, and acquire respective moving images. Therefore, a moving image that is a target for correcting the position of the track data of the tennis racket is selected. The selection of a moving image that is to be corrected for the position of the track data of the tennis racket is based on the moving image obtained by shooting the swing to be checked for each of the shooting angles of the moving image obtained by shooting the swing with an ideal form. This is performed by specifying a moving image having the smallest difference in shooting angle compared to the shooting angle.

具体的には、先ず、図20(A)に示すように、理想のフォームによるスイングが撮影されたときのテニスコートの状況を平面視で表したとき、スイング動作者の体の中心からテニスラケットの中心RCまでの距離を距離rで表し、テニスボールが飛来する方向(例えば、クロスの方向)である打球の方向に対する、スイング動作者の体の中心とテニスラケットの中心RCを結ぶ線の角度を角度εで表すことができる。このとき、バックラインBLに対する打球の方向のなす角度は、例えば、60°である。また、このとき、バックラインBLに対して撮影角度θをなす軸線と直交する線に対するスイング動作者の体の中心とテニスラケットの中心RCを結ぶ線の角度は角度γで表すことができる。そして、チ
ェック対象のスイングの動画像に対する理想のフォームによるスイングの動画像の変換係数をAとすると、理想のフォームによるスイングの動画像における、バックラインBLに対して撮影角度θをなすカメラCMを通る軸線とテニスラケットの中心RCとの距離X(図20(A)、図20(B)参照)は、下記式(8)によって表すことができる。
X=A×r×cosγ・・・(8)
なお、変換係数Aは、例えば、図21に示すように、理想のフォームによるスイングの動画像において規定したラインLの長さに対する、チェック対象のスイングの動画像において規定したラインLの長さの割合によって求めることができる。
Specifically, as shown in FIG. 20 (A), first, the tennis racket is viewed from the center of the body of the swing operator when the situation of the tennis court when the swing with the ideal form is photographed is shown in plan view. The distance between the center of the swinging operator and the center RC of the tennis racket with respect to the direction of the hitting ball, which is the direction in which the tennis ball flies (for example, the direction of the cross) Can be represented by an angle ε. At this time, the angle formed by the direction of the hit ball with respect to the back line BL is, for example, 60 °. At this time, the angle of the line connecting the center of the swing operator's body and the center RC of the tennis racket with respect to a line orthogonal to the axis that forms the shooting angle θ with respect to the backline BL can be represented by an angle γ. Then, assuming that the conversion coefficient of the moving image of the swing with the ideal form with respect to the moving image of the swing to be checked is A, the camera CM that forms the shooting angle θ with respect to the back line BL in the moving image of the swing with the ideal form. A distance X (see FIGS. 20A and 20B) between the axis passing through and the center RC of the tennis racket can be expressed by the following equation (8).
X = A × r × cos γ (8)
For example, as shown in FIG. 21, the conversion coefficient A is the length of the line L 4 defined in the moving image of the swing to be checked with respect to the length of the line L 3 defined in the moving image of the swing with an ideal form. It can be determined by the ratio of the length.

ここで、角度γは、下記式(9)によって表すことができる。
γ=abs(90°−(ε−60°+θ)
=abs(150°−ε−θ)・・・(9)
Here, the angle γ can be expressed by the following equation (9).
γ = abs (90 ° − (ε−60 ° + θ)
= Abs (150 ° −ε−θ) (9)

そして、理想のフォームによるスイングの動画像における撮影角度とチェック対象のスイングの動画像における撮影角度とのずれ量をΔθとすると、チェック対象のスイングの動画像における撮影角度とした場合の距離X´を、下記式(10)により表すことができる。すなわち、距離Xを距離X´に変換することができる。なお、撮影角度のずれ量Δθは、制御部11が、撮影角度差分算出部11gを機能させて求められる。
X´=A×r×cos(γ+Δθ)
=A×r×cosγ×cosΔθ−A×r×sinγ×sinΔθ
=X×cosΔθ−A×r×sinγ×sinΔθ・・・(10)
When the amount of deviation between the shooting angle in the moving image of the swing in the ideal form and the shooting angle in the moving image of the check target swing is Δθ, the distance X ′ when the shooting angle in the moving image of the check target swing is used. Can be represented by the following formula (10). That is, the distance X can be converted into the distance X ′. The photographing angle deviation amount Δθ is obtained by the control unit 11 having the photographing angle difference calculation unit 11g function.
X ′ = A × r × cos (γ + Δθ)
= A × r × cos γ × cos Δθ−A × r × sin γ × sin Δθ
= X × cos Δθ−A × r × sin γ × sin Δθ (10)

例えば、理想のフォームによるスイングの動画像における撮影角度とチェック対象のスイングの動画像における撮影角度とのずれ量Δθが10°である場合には、X´は下記式(11)により求められる。
X´=0.98×X−A×r×sinγ×0.17・・・(11)
For example, when the deviation amount Δθ between the shooting angle in the moving image of the swing with the ideal form and the shooting angle in the moving image of the swing to be checked is 10 °, X ′ is obtained by the following equation (11).
X ′ = 0.98 × X−A × r × sin γ × 0.17 (11)

ここで、理想のフォームにおける上述の角度εを求める。角度εは、例えば、理想のフォームによるスイングの動画像において、予め、バックスイング開始の状態となる時間、フォロースイング開始の状態となる時間及びフォロースイング終了の状態となる時間をそれぞれ設定し、そこから、時間の経過により予測することができる。例えば、バックスイングの開始のときの角度εを0°とした場合、バックスイングの終了のとき、すなわち、フォロースイングの開始のときの角度εは180°となり、フォロースイングの終了のときの角度εは0°となる。これらの時間は、例えば、上述したようにして指定したバックスイング開始フレーム、フォロースイング開始フレーム及びフォロースイング終了フレー
ムにより特定することができる。
Here, the above-mentioned angle ε in the ideal form is obtained. The angle ε is set, for example, in advance in a swing moving image of an ideal form by setting a time for a back swing start state, a time for a follow swing start state, and a time for a follow swing end state, respectively. Therefore, it can be predicted over time. For example, if the angle ε at the start of the backswing is 0 °, the angle ε at the end of the backswing, that is, the start of the follow swing is 180 °, and the angle ε at the end of the follow swing Becomes 0 °. These times can be specified by, for example, the backswing start frame, follow swing start frame, and follow swing end frame specified as described above.

そして、角度εが求められると、上記式(9)により角度γを求めることができ、これにより、上記式(10)における「A×r×sinγ」の解が得られる結果、距離X´を求めることができる。
このようにして理想のフォームのフレーム毎の軌跡H〜Hを距離Xから距離X´とすることにより変換することができる。
When the angle ε is obtained, the angle γ can be obtained from the above equation (9). As a result, the solution of “A × r × sin γ” in the above equation (10) is obtained. Can be sought.
In this way, the trajectory H 1 to H n for each frame of the ideal form can be converted from the distance X to the distance X ′.

そして、制御部11は、上述したようにして変換された理想のフォームの軌跡の位置を、チェック対象のスイングの動画像におけるスイング動作者Q2の位置に対応するようにシフトする。これにより、チェック対象のスイングの動画像におけるチェック対象者のテニスラケットの軌跡との比較表示を行うことができるようになる。具体的には、制御部11は、上述のようにして変換された理想のフォームのフレーム毎の軌跡H〜Hのそれぞれの座標(X,Y)〜(X,Y)を、それぞれシフトして(X´,Y´)〜(X´,Y´)に補正する。各軌跡H〜Hの補正後の座標は、図21に示すように、第3設定部11iが機能して上述したようにして規定されたポインタP,Pの座標P(x0,y0),P(x1,y1)と、第4設定部11jが機能して上述したようにして規定されたポインタP,Pの座標P(x2,y2),P(x3,y3
)とに基づき、下記式(12)及び下記式(13)により求めることができる。なお、下記式(12)及び下記式(13)においては、理想のフォームのフレーム毎の軌跡Hの座標(X,Y)から座標(X´,Y´)への変換式を示すが、他の軌跡の座標についても同様にして求めることができる。
´=(y0−y1)/(y2−y3)×X+(x2−x0)・・・(12)
´=(y0−y1)/(y2−y3)×Y+(y2−y0)・・・(13)
Then, the control unit 11 shifts the position of the ideal form trajectory converted as described above so as to correspond to the position of the swing operator Q2 in the moving image of the swing to be checked. Thereby, it becomes possible to perform comparison display with the trajectory of the tennis racket of the check subject in the moving image of the swing to be checked. Specifically, the control unit 11 coordinates (X 1 , Y 1 ) to (X n , Y n ) of the trajectories H 1 to H n for each frame of the ideal form converted as described above. Are respectively shifted and corrected to (X 1 ′, Y 1 ′) to (X n ′, Y n ′). As shown in FIG. 21, the corrected coordinates of the trajectories H 1 to H n are coordinates P 4 (x0) of the pointers P 4 and P 5 defined as described above by the function of the third setting unit 11i. , Y0), P 5 (x1, y1) and the coordinates P 6 (x2, y2), P 7 (x3) of the pointers P 6 and P 7 defined as described above by the function of the fourth setting unit 11j. , Y3
) And the following equation (12) and the following equation (13). In the following formulas (12) and (13), the conversion formula from the coordinates (X n , Y n ) of the trajectory H n for each frame of the ideal form to the coordinates (X n ′, Y n ′). The coordinates of other trajectories can be obtained in the same manner.
Xn '= (y0-y1) / (y2-y3) * Xn + (x2-x0) ... (12)
Y n '= (y0-y1 ) / (y2-y3) × Y n + (y2-y0) ··· (13)

以上のようにして理想のフォームによるスイングの動画像についてのテニスラケットの軌跡の位置の補正を行った後、制御部11は、図4に示すように、補正した理想のフォームのテニスラケットの軌跡と、チェック対象者のテニスラケットの軌跡とを表示部13に表示するための表示データを生成する(ステップS114)。なお、フレーム毎の軌跡を点で表示してもよいし、点を結んだ線で表示するようにしてもよい。このとき、テニスラケットのスイングのタイミングは、理想のフォームによるスイングの動画像とチェック対象のスイングの動画像とで異なる場合があるため、例えば、図22(A)に示すように、各動画像の再生タイミングを、上述したようにして指定したバックスイング開始フレームで合わせるのが好ましい。すると、図22(A)に示すように、理想のフォームによるス
イングとチェック対象者のスイングとでスイングの速度が異なる場合には、これをユーザに認識できるように表示することができるようになる。この場合において、理想のフォームによるスイングとチェック対象者のスイングとでスイングの速度を合わせたいときには、例えば、図22(B)に示すように、理想のフォームによるスイングの動画像において、フレーム数が増加するように静止画像を追加する。静止画像の追加は、例えば、理想のフォームによるスイングの動画像の一部のフレームの静止画像と同一の静止画像を挿入することで実現することができる。また、チェック対象のスイングの動画像の一部のフレームの静止画像を間引くようにしてもよい。このようにすると、理想のフォームのテニスラケットの軌跡とチェック対象者のテニスラケットの軌跡との相異をより明確に理解させる
ことができるようになる。そして、制御部11は、軌跡差分判定部11nを機能させて、これらの軌跡の差分を判定することによりチェック対象者のテニスラケットの軌跡の診断を行う(ステップS115)。具体的には、例えば、制御部11は、フォロースイング開始時における軌跡の差分や、フォロースイング終了時における軌跡の差分等が所定の大きさであるか否かを判定する。そして、制御部11は、診断結果に対応するメッセージを表示するための表示データを生成する(ステップS116)。制御部11は、表示部13の表示画面上に、チェック対象のスイングの動画像を表示するとともに、ステップS114及びステップS116において生成された表示データに基づく表示を行う(ステップS117)。その結果、例えば、図23に示すような画面が表示部13の表示画面上に表示さ
れる。図23では、フォロースイング終了時における、補正した理想のフォームのテニスラケットの軌跡と、チェック対象者のテニスラケットの軌跡との差分が所定の大きさを超えているため、補正した理想のフォームのテニスラケットの軌跡SW1及びチェック対象者のテニスラケットの軌跡SW2とともに、例えば、「フォロースルーを高くしましょう」といった表示が行われている。なお、各軌跡は、表示されたフレームの動画像に応じて順次表示するようにしてもよい。例えば、30フレーム目の動画像が表示部13の表示画面に表示されるタイミングでは、1〜30フレーム目までの軌跡を表示するようにし、31フレーム以降の軌跡は表示しない。また、本実施の形態では、チェック対象のスイングの動画像を表示する場合において、打球をヒットする瞬間や、スイング開始のタイミング
等の代表的なタイミングにおける静止画像を表示することができる。このとき、当該表示された静止画像に対応する、補正された理想のフォームのテニスラケットの軌跡を表示する。
After correcting the position of the trajectory of the tennis racket for the moving image of the swing with the ideal form as described above, the control unit 11 performs the trajectory of the tennis racket of the corrected ideal form as shown in FIG. And display data for displaying the trajectory of the tennis racket of the person to be checked on the display unit 13 (step S114). The trajectory for each frame may be displayed as a point, or may be displayed as a line connecting the points. At this time, the timing of the swing of the tennis racket may be different between the swing moving image of the ideal form and the moving image of the swing to be checked. For example, as shown in FIG. It is preferable to match the playback timing of the backswing start frame designated as described above. Then, as shown in FIG. 22A, when the swing speed differs between the swing of the ideal form and the swing of the person to be checked, this can be displayed so that the user can recognize it. . In this case, when it is desired to match the swing speed between the swing of the ideal form and the swing of the person to be checked, for example, as shown in FIG. Add still images to increase. The addition of the still image can be realized, for example, by inserting the same still image as the still image of a part of the frame of the swing moving image in an ideal form. Further, still images of some frames of the moving image of the swing to be checked may be thinned out. In this way, the difference between the trajectory of the ideal form tennis racket and the trajectory of the tennis racket of the person to be checked can be understood more clearly. And the control part 11 diagnoses the locus | trajectory of a tennis racket of a check subject by operating the locus | trajectory difference determination part 11n, and determining the difference of these locus | trajectories (step S115). Specifically, for example, the control unit 11 determines whether or not the trajectory difference at the start of the follow swing, the trajectory difference at the end of the follow swing, and the like have a predetermined size. And the control part 11 produces | generates the display data for displaying the message corresponding to a diagnostic result (step S116). The control unit 11 displays a moving image of the swing to be checked on the display screen of the display unit 13 and performs display based on the display data generated in Step S114 and Step S116 (Step S117). As a result, for example, a screen as shown in FIG. 23 is displayed on the display screen of the display unit 13. In FIG. 23, the difference between the corrected ideal form tennis racket trajectory and the check target tennis racket trajectory at the end of the follow swing exceeds a predetermined size, so the corrected ideal form Along with the track SW1 of the tennis racket and the track SW2 of the tennis racket of the person to be checked, for example, “Let's make follow-through higher” is displayed. In addition, you may make it display each locus | trajectory sequentially according to the moving image of the displayed flame | frame. For example, at the timing when the moving image of the 30th frame is displayed on the display screen of the display unit 13, the locus from the 1st to the 30th frame is displayed, and the locus after the 31st frame is not displayed. Further, in the present embodiment, when a moving image of a swing to be checked is displayed, a still image at a representative timing such as the moment of hitting a hit ball or the timing of starting a swing can be displayed. At this time, the trajectory of the corrected ideal form tennis racket corresponding to the displayed still image is displayed.

次に、本実施の形態の他の例として、上述した画像処理システム100を用いて、ゴルフ練習場におけるゴルフスイングの軌跡を表示又は解析する場合について説明する。なお、以下の説明において示される各ステップは、図4及び図5における各処理に対応しているため、これらの図面を参照するものとする。   Next, as another example of the present embodiment, a case will be described in which the trajectory of a golf swing at a driving range is displayed or analyzed using the image processing system 100 described above. Note that each step shown in the following description corresponds to each process in FIGS. 4 and 5, so these drawings will be referred to.

まず、ある撮影環境(第1の撮影環境)下において、上述したようにして、理想のフォームによるスイングの撮影をカメラ1〜3によって行う。撮影された理想のフォームの動画像データは、画像処理装置10の制御部11の制御により、例えば、記憶部14に記憶される(ステップS101)。
また、理想のフォームによるスイングの撮影時とは異なる撮影位置(第2の撮影環境下)にて、上述したようにして、フォームのチェックを行いたいスイングの撮影をカメラ1〜3によって行う。撮影されたチェック対象の動画像データは、画像処理装置10の制御部11の制御により、例えば、記憶部14に記憶される(ステップS102)。
First, under a certain shooting environment (first shooting environment), as described above, shooting of a swing with an ideal form is performed by the cameras 1 to 3. The captured moving image data of the ideal form is stored in, for example, the storage unit 14 under the control of the control unit 11 of the image processing apparatus 10 (step S101).
In addition, at the shooting position (under the second shooting environment) different from the shooting of the swing with the ideal form, as described above, shooting of the swing for which the form is to be checked is performed by the cameras 1 to 3. The captured moving image data to be checked is stored in, for example, the storage unit 14 under the control of the control unit 11 of the image processing apparatus 10 (step S102).

次に、制御部11は、記憶部14から理想のフォームの動画像データを読み出し、移動対象であるゴルフクラブの軌跡を取得するための各種データの登録を行う(ステップS103)。   Next, the control unit 11 reads out the moving image data of the ideal form from the storage unit 14, and registers various data for acquiring the trajectory of the golf club that is the movement target (step S103).

ここで、ゴルフクラブの軌跡を取得するためのデータ登録処理の手順について説明すると、先ず、制御部11は、読み出した理想のフォームの動画像データから、フォーム開始フレームの指定を行う(ステップS201)。より具体的には、例えば、図24に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームによるスイングの動画像を構成する静止画像を時系列的に切り換えて表示する。なお、図24には、ゴルフクラブW1を把持したスイング動作者Q3がマットM1上でスイングしている様子が表示されている。マットM1は、左端部ML1と先端部MT1と右端部MR1とに囲まれている。そして、制御部11は、表示画面上にフォーム開始フレームとして適切な静止画像が表示されたときに
セットボタンB3が入力されることにより、フォーム開始フレームを指定する。
Here, the procedure of the data registration process for acquiring the trajectory of the golf club will be described. First, the control unit 11 designates the form start frame from the read moving image data of the ideal form (step S201). . More specifically, for example, as shown in FIG. 24, the control unit 11 inputs the selection buttons B1 and B2 displayed on the display screen of the display unit 13 to input the ideal displayed on the screen. The still images constituting the moving image of the swing by the form are switched and displayed in time series. FIG. 24 shows a state where the swing operator Q3 holding the golf club W1 is swinging on the mat M1. The mat M1 is surrounded by the left end portion ML1, the tip portion MT1, and the right end portion MR1. Then, the control unit 11 designates the form start frame by inputting the set button B3 when an appropriate still image is displayed as the form start frame on the display screen.

次に、制御部11は、第1設定部11aを機能させて、指定されたフォーム開始フレームの静止画像を利用したマットM1の左端部ML1、先端部MT1及び右端部MR1の指定を行う(ステップS202)。具体的には、例えば、図25に示すように、制御部11は、表示部13の表示画面上に表示されたポインタP11〜P14の位置が変位操作されることにより、マットの左端部ML1、先端部MT1及び右端部MR1をそれぞれラインL11〜L13によって規定する。なお、本実施の形態では、マットの左端部ML1、先端部MT1及び右端部MR1の3点を規定し、撮影角度の算出の精度を向上するようにしたが、これらのうちの2点を規定して撮影角度の算出を行うようにしてもよい。ポインタP11〜P14の位置は、例えば、制御部11の備えるRAMに保存される。 Next, the control unit 11 causes the first setting unit 11a to function and designates the left end portion ML1, the tip end portion MT1, and the right end portion MR1 of the mat M1 using the still image of the designated form start frame (step) S202). Specifically, for example, as shown in FIG. 25, the control unit 11 moves the positions of the pointers P 11 to P 14 displayed on the display screen of the display unit 13 to move the left end of the mat. ML1, the tip portion MT1, and the right end portion MR1 are defined by lines L 11 to L 13 , respectively. In the present embodiment, the three points of the left end ML1, the leading end MT1 and the right end MR1 of the mat are defined to improve the accuracy of calculation of the photographing angle, but two of these are defined. Then, the photographing angle may be calculated. The positions of the pointers P 11 to P 14 are stored in, for example, a RAM provided in the control unit 11.

次に、制御部11は、第3設定部11iを機能させて、スイング動作者Q3の位置の指定を行う(ステップS203)。具体的には、例えば、図26に示すように、制御部11は、表示部13の表示画面上に表示されたポインタP15,P16の位置が変位操作されることにより、スイング動作者Q3の位置をラインL14によって規定する。ポインタP15,P16の位置は、例えば、制御部11の備えるRAMに保存される。 Next, the control unit 11 causes the third setting unit 11i to function and designates the position of the swing operator Q3 (step S203). Specifically, for example, as shown in FIG. 26, the control unit 11 operates the swing operator Q3 by moving the positions of the pointers P 15 and P 16 displayed on the display screen of the display unit 13. define the position by the line L 14. The positions of the pointers P 15 and P 16 are stored in, for example, a RAM provided in the control unit 11.

次に、制御部11は、画像指定部11pを機能させて、ゴルフクラブW1の位置の指定を行う(ステップS204)。具体的には、例えば、図27、図28に示すように、制御部11は、表示部13の表示画面上に表示されたポインタT11,T12の位置が変位操作されると、当該ポインタT11,T12の位置により方形状の枠FGを規定する。ゴルフクラブW1の規定は、例えば、図28に示すように、ゴルフクラブW1のヘッドの左上部分と右下部分とをそれぞれポインタT11,T12で規定することにより行うことができる。ポインタT11、T12の位置は、例えば、制御部11の備えるRAMに保存される。 Next, the control unit 11 causes the image specifying unit 11p to function and specifies the position of the golf club W1 (step S204). Specifically, for example, as shown in FIGS. 27 and 28, when the positions of the pointers T 11 and T 12 displayed on the display screen of the display unit 13 are displaced, the control unit 11 performs the pointer operation. A rectangular frame FG is defined by the positions of T 11 and T 12 . For example, as shown in FIG. 28, the golf club W1 can be defined by defining the upper left portion and the lower right portion of the head of the golf club W1 with pointers T 11 and T 12 , respectively. The positions of the pointers T 11 and T 12 are stored in, for example, a RAM provided in the control unit 11.

次に、制御部11は、理想のフォームの動画像データから、バックスイング開始フレームの指定を行う(ステップS205)。より具体的には、例えば、図29に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームによるスイングの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にバックスイング開始フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、バックスイング開始フレームを指定する。   Next, the control unit 11 designates a backswing start frame from the moving image data of the ideal form (step S205). More specifically, for example, as shown in FIG. 29, the control unit 11 receives the selection buttons B1 and B2 displayed on the display screen of the display unit 13 to input the ideal displayed on the screen. The still images constituting the moving image of the swing by the form are switched and displayed in time series. And the control part 11 designates a backswing start frame by inputting set button B3 when a suitable still image is displayed as a backswing start frame on a display screen.

次に、制御部11は、理想のフォームの動画像データから、フォロースイング開始フレームの指定を行う(ステップS206)。より具体的には、例えば、図30に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームによるスイングの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にフォロースイング開始フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、フォロースイング開始フレームを指定する。   Next, the control unit 11 designates a follow swing start frame from the moving image data of the ideal form (step S206). More specifically, for example, as shown in FIG. 30, the control unit 11 receives the selection buttons B1 and B2 displayed on the display screen of the display unit 13 to input the ideal displayed on the screen. The still images constituting the moving image of the swing by the form are switched and displayed in time series. Then, the control unit 11 designates the follow swing start frame by inputting the set button B3 when an appropriate still image is displayed as the follow swing start frame on the display screen.

次に、制御部11は、理想のフォームの動画像データから、フォロースイング終了フレームの指定を行う(ステップS207)。より具体的には、例えば、図31に示すように、制御部11は、表示部13の表示画面上に表示された選択ボタンB1,B2が入力されることにより、画面に表示された理想のフォームによるスイングの動画像を構成する静止画像を時系列的に切り換えて表示する。そして、制御部11は、表示画面上にフォロースイング終了フレームとして適切な静止画像が表示されたときにセットボタンB3が入力されることにより、フォロースイング終了フレームを指定する。   Next, the control unit 11 designates the follow swing end frame from the moving image data of the ideal form (step S207). More specifically, for example, as shown in FIG. 31, the control unit 11 receives the ideal buttons displayed on the screen when the selection buttons B1 and B2 displayed on the display screen of the display unit 13 are input. The still images constituting the moving image of the swing by the form are switched and displayed in time series. Then, the control unit 11 specifies the follow swing end frame by inputting the set button B3 when an appropriate still image is displayed as the follow swing end frame on the display screen.

以上のようにして理想のフォームのデータ登録が完了すると、制御部11は、第1撮影角度算出部11eを機能させて、理想のフォームの撮影角度を算出する(ステップS104)。   When the registration of the ideal form data is completed as described above, the control unit 11 causes the first shooting angle calculation unit 11e to function and calculates the shooting angle of the ideal form (step S104).

具体的には、制御部11は、図32に示すように、ラインL11〜L13によって規定されたマットM1の左端部ML1、先端部MT1及び右端部MR1の水平線HLに対する傾き、すなわち、角度α,ζ,βを求める。ここで、理想のフォームによるスイングが撮影されたときのマットの状況を平面視で表すと、図33に示すようになる。このとき、カメラ1〜3のうちの一のカメラCMと、マットの先端部MTと右端部MRとの交点であるコーナーとを結ぶ軸線をy軸とし、y軸と直交する軸線をx軸とすると、x軸とマットの右端部MRとでなす角度はβとなり、x軸とマットの先端部MTとでなす角度はζとなる。 Specifically, as shown in FIG. 32, the control unit 11 tilts the left end portion ML1, the tip end portion MT1, and the right end portion MR1 of the mat M1 defined by the lines L 11 to L 13 with respect to the horizontal line HL, that is, the angle. Find α, ζ, and β. Here, when the state of the mat when a swing with an ideal form is photographed is represented in plan view, it is as shown in FIG. At this time, an axis connecting the camera CM of one of the cameras 1 to 3 and a corner that is the intersection of the leading end MT and the right end MR of the mat is defined as the y axis, and an axis orthogonal to the y axis is defined as the x axis. Then, the angle formed between the x axis and the right end portion MR of the mat is β 0 , and the angle formed between the x axis and the front end portion MT of the mat is ζ 0 .

ここで、先ず、マットの先端部MTと右端部MRとの交点について注目し、マットの右端部MRに対するカメラCMとこの交点とを結ぶ軸線のなす角度θについて求める。マットを平面視でみた場合、マットの先端部MTと右端部MRとのなす角度は90°であり、また、図33によれば、角度θは角度ζと一致することがわかり、下記式(14)の関係が成り立つ。なお、aは変換係数を示す。
(a×sinβ+(a×sinζ=1・・・(14)
Here, first, attention is paid to the intersection between the leading end MT of the mat and the right end MR, and the angle θ 1 formed by the axis connecting the camera CM to the right end MR of the mat and this intersection is obtained. When the mat is viewed in a plan view, the angle formed between the leading end MT and the right end MR of the mat is 90 °, and according to FIG. 33, it can be seen that the angle θ 1 matches the angle ζ 0. The relationship of Formula (14) is established. Incidentally, a 1 represents a conversion coefficient.
(A 1 × sin β 0 ) 2 + (a 1 × sin ζ 0 ) 2 = 1 (14)

上述したようにして、これをxyz軸上で表した場合、平面視においては、視点はz軸上とされているため、これを実際のカメラCMの視点にするために、x軸を回転軸として全体を角度δ回転させる。すると、上述によれば、変換係数aは、1/cosδとなることがわかる。
そして、マットの先端部MTと右端部MRの交点であるコーナーの位置のz軸上の高さを0とすると、下記式(15)及び下記式(16)の関係が成り立つ。
sinβ=cosδ×sinβ・・・(15)
sinζ=cosδ×sinζ・・・(16)
As described above, when this is represented on the xyz axis, the viewpoint is on the z axis in the plan view. Therefore, in order to make this the actual camera CM viewpoint, the x axis is the rotation axis. As a whole, the angle δ is rotated once . Then, according to the above, it can be seen that the conversion coefficient a 1 is 1 / cos δ 1 .
Then, assuming that the height on the z-axis at the corner position, which is the intersection of the tip portion MT and the right end portion MR of the mat, is 0, the following equations (15) and (16) are satisfied.
sin β = cos δ 1 × sin β 0 (15)
sinζ = cosδ 1 × sinζ 0 (16)

すなわち、上記式(15)及び上記式(16)から下記式(17)を表すことができる。
(1/cosδ×sinβ)+(1/cosδ×sinζ)=1・・・(17)
したがって、下記式(18)及び下記式(19)の関係が成り立つ。
cosθ=1/cosδ×sinβ・・・(18)
sinθ=1/cosδ×sinζ・・・(19)
これにより、角度θを求めることができる。
That is, the following formula (17) can be expressed from the above formula (15) and the above formula (16).
(1 / cos δ 1 × sin β) 2 + (1 / cos δ 1 × sin ζ) 2 = 1 (17)
Therefore, the relationship of the following formula (18) and the following formula (19) is established.
cos θ 1 = 1 / cos δ 1 × sin β (18)
sin θ 1 = 1 / cos δ 1 × sin ζ (19)
Thereby, angle (theta) 1 can be calculated | required.

次に、図34を参照して、マット先端部MTと左端部MLとの交点について注目し、マット左端部MLに対するカメラCMとこの交点とを結ぶ軸線のなす角度θについて求める。マットを平面視でみた場合、マットの先端部MTと左端部MLとのなす角度は90°であり、下記式(20)の関係が成り立つ。なお、aは変換係数を示す。
(a×sinα+(a×sinζ=1・・・(20)
Next, with reference to FIG. 34, it noted the intersection of the mat tip MT and left portion ML, determined for the angle theta 2 of the axis connecting the intersection point with the camera CM for mat left end ML. When the mat is viewed in plan, the angle formed between the leading end MT and the left end ML of the mat is 90 °, and the relationship of the following formula (20) is established. Incidentally, a 2 indicates the conversion factor.
(A 2 × sin α 1 ) 2 + (a 2 × sin ζ 1 ) 2 = 1 (20)

上述したようにして、これをxyz軸上で表した場合、平面視においては、視点はz軸上とされているため、これを実際のカメラCMの視点にするために、x軸を回転軸として全体を角度δ回転させる。すると、上述によれば、変換係数aは、1/cosδとなることがわかる。
そして、マットの先端部MTと左端部MLの交点であるコーナーの位置のz軸上の高さを0とすると、下記式(21)及び下記式(22)の関係が成り立つ。
sinα=cosδ×sinα・・・(21)
sinζ=cosδ×sinζ・・・(22)
As described above, when this is represented on the xyz axis, the viewpoint is on the z axis in the plan view. Therefore, in order to make this the actual camera CM viewpoint, the x axis is the rotation axis. As a whole, the angle δ is rotated twice . Then, according to the above, it can be seen that the conversion coefficient a 2 is 1 / cos δ 2 .
Then, assuming that the height on the z-axis of the corner position, which is the intersection of the front end MT and the left end ML of the mat, is 0, the following relations (21) and (22) are established.
sin α = cos δ 2 × sin α 1 (21)
sinζ = cosδ 2 × sinζ 1 (22)

すなわち、上記式(21)及び上記式(22)から下記式(23)を表すことができる。
(1/cosδ×sinα)+(1/cosδ×sinζ)=1・・・(23)
したがって、下記式(24)及び下記式(25)の関係が成り立つ。
cosθ=1/cosδ×sinα・・・(24)
sinθ=1/cosδ×sinζ・・・(25)
これにより、角度θを求めることができる。
That is, the following formula (23) can be expressed from the above formula (21) and the above formula (22).
(1 / cosδ 2 × sinα) 2 + (1 / cosδ 2 × sinζ) 2 = 1 ··· (23)
Therefore, the relationship of the following formula (24) and the following formula (25) is established.
cos θ 2 = 1 / cos δ 2 × sin α (24)
sin θ 2 = 1 / cos δ 2 × sin ζ (25)
Thereby, angle (theta) 2 can be calculated | required.

次に、角度θ及び角度θから撮影角度θを求める。
図35に示すように、マットを平面視でみた場合、撮影角度θは、下記式(26)によって表すことができる。
θ=h´/(h´+h´)×θ+h´/(h´+h´)×θ・・・(26)
Next, the shooting angle θ is obtained from the angle θ 1 and the angle θ 2 .
As shown in FIG. 35, when the mat is viewed in plan, the shooting angle θ can be expressed by the following equation (26).
θ = h 2 ′ / (h 1 ′ + h 2 ′) × θ 1 + h 1 ′ / (h 1 ′ + h 2 ′) × θ 2 (26)

上記式(26)に示される関係は、表示画面上においてもほぼ同じになるので、図36に示すように、ラインL11とラインL12との交点とゴルフクラブのヘッドの中心WCとの水平方向の距離hと、ラインL12とラインL13との交点とゴルフクラブのヘッドの中心WCとの水平方向の距離hを求めると、下記式(27)によって撮影角度θを算出することができる。なお、ゴルフクラブのヘッドの中心WCは、上述のようにしてポインタT11,T12の位置により規定された枠FGの中心である。
θ=h/(h+h)×θ+h/(h+h)×θ・・・(27)
これにより、撮影角度θを求めることができる。なお、上述した説明は、カメラ1〜3のうちの一のカメラCMについての撮影角度θを求めるものであるが、他のカメラについても同様の手順で撮影角度θを求めることができる。
Relationship shown in the equation (26), since substantially the same even on the display screen, as shown in FIG. 36, the horizontal between the center WC of intersection and the golf club head of the line L 11 and the line L 12 When the horizontal distance h 2 between the direction distance h 1 and the intersection of the line L 12 and the line L 13 and the center WC of the golf club head is obtained, the shooting angle θ is calculated by the following equation (27). Can do. The center WC of the golf club head is the center of the frame FG defined by the positions of the pointers T 11 and T 12 as described above.
θ = h 2 / (h 1 + h 2 ) × θ 1 + h 1 / (h 1 + h 2 ) × θ 2 (27)
Thereby, the imaging angle θ can be obtained. In the above description, the shooting angle θ for one camera CM among the cameras 1 to 3 is obtained, but the shooting angle θ can be obtained for the other cameras in the same procedure.

以上のようにして、理想のフォームの撮影角度を算出すると、制御部11は、第1軌跡取得部11cを機能させて、撮影した理想のフォームによるスイングの動画像から移動対象であるゴルフクラブの軌跡を取得する(ステップS105)。具体的には、制御部11は、移動対象画像抽出部11rを機能させて、理想のフォームによるスイングの動画像のうち、フォロースイング開始フレームからフォロースイング終了フレームまでの間の動画像を構成する静止画像のそれぞれについて、ゴルフクラブの部分の画像を抽出する。すなわち、制御部11は、先ず、画像指定部11pを機能させて上述のようにして指定されたゴルフクラブのヘッドの画像をテンプレートとする。次に、制御部11は、理想のフォームによるスイングの動画像のうち、フォロースイング開始フレームからフォロースイング
終了フレームまでの間の動画像を構成する静止画像のそれぞれについて、テンプレートとした画像とマッチングする画像の部分を抽出する。制御部11は、この抽出された画像をゴルフクラブのヘッドの部分の画像とし、この抽出された画像の中心を軌跡としてプロットする。その結果、上述と同様にフレーム毎の軌跡を取得することができる。
When the shooting angle of the ideal form is calculated as described above, the control unit 11 causes the first trajectory acquisition unit 11c to function, and the golf club that is the movement target from the moving image of the swing with the captured ideal form. A trajectory is acquired (step S105). Specifically, the control unit 11 causes the movement target image extraction unit 11r to function and configures a moving image from the follow swing start frame to the follow swing end frame among the swing images of the ideal form. For each still image, an image of the golf club portion is extracted. That is, first, the control unit 11 causes the image designating unit 11p to function and uses the golf club head image designated as described above as a template. Next, the control unit 11 matches each of the still images constituting the moving image from the follow swing start frame to the follow swing end frame with the image used as the template among the swing moving images based on the ideal form. Extract a part of an image. The control unit 11 plots the extracted image as an image of the head portion of the golf club, and plots the center of the extracted image as a trajectory. As a result, the trajectory for each frame can be acquired as described above.

制御部11は、上述した処理を、カメラ1〜3のそれぞれで撮影して得られた動画像についてそれぞれ実施する。   The control unit 11 performs the above-described processing on each moving image obtained by shooting with each of the cameras 1 to 3.

次に、カメラ1〜3のそれぞれで撮影されて得られた理想のフォームの動画像データを、上述のようにして生成された、ゴルフクラブの軌跡を取得するための各種データ、撮影角度、フレーム毎の軌跡データ等とともに、理想のフォームデータファイルとして、例えば、記憶部14に保存する(ステップS106)。なお、理想のフォームデータファイルは、ファイル名が指定される。また、理想のフォームデータファイルは、理想のフォームの動画像データを作成する毎に生成される。   Next, various data for obtaining the trajectory of the golf club, the shooting angle, and the frame generated as described above from the moving image data of the ideal form obtained by each of the cameras 1 to 3. For example, the data is stored in the storage unit 14 as an ideal form data file together with the trajectory data and the like (step S106). An ideal form data file is designated with a file name. An ideal form data file is generated every time moving image data of an ideal form is created.

次に、制御部11は、第2設定部11b及び第4設定部11j等を機能させて、記憶部14からチェック対象の動画像データを読み出し、移動対象であるゴルフクラブの軌跡を取得するための各種データの登録を行う(ステップS107)。ゴルフクラブの軌跡を取得するためのデータの登録の処理手順は、上述した理想のフォームによるスイングの動画像についてのゴルフクラブの軌跡を取得するためのデータの登録の処理手順と同様である。   Next, the control unit 11 causes the second setting unit 11b, the fourth setting unit 11j, and the like to function, reads moving image data to be checked from the storage unit 14, and acquires the trajectory of the golf club that is the moving target. The various data are registered (step S107). The data registration processing procedure for acquiring the golf club trajectory is the same as the data registration processing procedure for acquiring the golf club trajectory regarding the swing moving image in the ideal form described above.

続いて、制御部11は、第2撮影角度算出部11fを機能させて、チェック対象者のスイングが撮影されたときの撮影角度(チェック対象者の撮影角度)を算出する(ステップS108)。チェック対象者の撮影角度の算出は、上述した理想のフォームの撮影角度の算出と同様の手順により行うことができる。   Subsequently, the control unit 11 causes the second shooting angle calculation unit 11f to function and calculates a shooting angle (a shooting angle of the check target person) when the swing of the check target is shot (step S108). Calculation of the shooting angle of the person to be checked can be performed by the same procedure as the calculation of the shooting angle of the ideal form described above.

次に、制御部11は、第2軌跡取得部11dを機能させて、撮影したチェック対象者のスイングの動画像から移動対象であるゴルフクラブの軌跡を取得する(ステップS109)。チェック対象者のスイングの動画像におけるゴルフクラブの軌跡の取得方法は、上述した理想のフォームによるスイングの動画像におけるゴルフクラブの軌跡の取得方法と同様の手順により行うことができる。   Next, the control unit 11 causes the second trajectory acquisition unit 11d to function, and acquires the trajectory of the golf club that is the movement target from the captured moving image of the person to be checked (step S109). The method of acquiring the golf club locus in the swing image of the person to be checked can be performed by the same procedure as the method of acquiring the golf club locus in the swing image of the ideal form described above.

次に、制御部11は、カメラ1〜3の1つ又は2以上で撮影されて得られたチェック対象の動画像データを、上述のようにして生成された、ゴルフクラブの軌跡を取得するための各種データ、撮影角度、フレーム毎の軌跡データ等とともに、チェック対象のフォームデータファイルとして、例えば、記憶部14に保存する(ステップS110)。なお、チェック対象のフォームデータファイルは、ファイル名が指定される。   Next, the control unit 11 acquires the golf club trajectory generated as described above from the moving image data to be checked obtained by shooting with one or more of the cameras 1 to 3. Are stored in the storage unit 14, for example, as a form data file to be checked (step S110). Note that the file name is specified for the form data file to be checked.

その後、制御部11は、チェック対象のフォームデータファイルを記憶部14から読み出した後(ステップS111)、理想のフォームデータファイルを記憶部14から読み出す(ステップS112)。理想のフォームデータファイルの読み出しの要領は上述したとおりである。   Thereafter, the control unit 11 reads the form data file to be checked from the storage unit 14 (step S111), and then reads the ideal form data file from the storage unit 14 (step S112). The procedure for reading an ideal form data file is as described above.

次に、制御部11は、補正部11h、比率算出部11k及び位置差分算出部11mを機能させて、ステップS112において読み出したファイルに含まれる理想のフォームによるスイングの動画像についてのゴルフクラブの軌跡データの位置の補正を行う(ステップS113)。なお、ゴルフクラブの軌跡データの位置の補正を行う対象である動画像の選択の要領は上述したとおりである。   Next, the control unit 11 causes the correction unit 11h, the ratio calculation unit 11k, and the position difference calculation unit 11m to function, and the golf club trajectory regarding the swing moving image by the ideal form included in the file read in step S112. The data position is corrected (step S113). The procedure for selecting a moving image, which is a target for correcting the position of the golf club trajectory data, is as described above.

具体的には、先ず、図37に示すように、理想のフォームによるスイングが撮影されたときのゴルフ練習場のマットの状況を平面視で表したとき、スイング動作者の体の中心からゴルフクラブのヘッドの中心WCまでの距離を距離rで表し、打球の方向とは垂直の方向に対するスイング動作者の体の中心とゴルフクラブのヘッドの中心WCを結ぶ線の角度を角度εで表すことができる。また、このとき、マットの右端部MRに対して撮影角度θをなす軸線と直交する線に対するスイング動作者の体の中心とゴルフクラブのヘッドの中心WCを結ぶ線の角度は角度γで表すことができる。そして、チェック対象者のスイングの動画像における、マットの右端部MRに対して撮影角度θのなすカメラCMを通る軸線とゴルフクラブのヘッドの中心WCとの距離X(図37、図38参照)は、上記式(8)
によって同様に表すことができる。
なお、変換係数Aは、上述したように、理想のフォームによるスイングの動画像において規定したラインの長さに対する、チェック対象者のスイングの動画像において規定したラインの長さの割合によって求めることができる。
Specifically, first, as shown in FIG. 37, when the state of the mat of the golf driving range when a swing with an ideal form is photographed is shown in plan view, the golf club starts from the center of the body of the swing operator. The distance to the center WC of the head of the golf club is represented by a distance r, and the angle of the line connecting the center of the swinging operator's body and the center WC of the golf club with respect to the direction perpendicular to the direction of the hit ball is represented by an angle ε. it can. At this time, the angle of the line connecting the center of the swinging operator's body and the center WC of the golf club head with respect to a line orthogonal to the axis forming the shooting angle θ with respect to the right end portion MR of the mat is represented by an angle γ. Can do. Then, in the moving image of the swing of the person to be checked, the distance X between the axis passing through the camera CM formed by the shooting angle θ with respect to the right end MR of the mat and the center WC of the golf club head (see FIGS. 37 and 38). Is the above formula (8)
Can be expressed similarly.
Note that, as described above, the conversion coefficient A is obtained by the ratio of the line length defined in the moving image of the swing of the person to be checked to the length of the line defined in the moving image of the swing with an ideal form. it can.

ここで、角度γは、下記式(28)によって表すことができる。
γ=ε−θ・・・(28)
Here, the angle γ can be expressed by the following equation (28).
γ = ε−θ (28)

そして、理想のフォームによるスイングの動画像における撮影角度とチェック対象者のスイングの動画像における撮影角度とのずれ量をΔθとすると、チェック対象者のスイングの動画像における撮影角度とした場合の距離X´については、上記式(10)により同様に表すことができる。なお、撮影角度のずれ量Δθは、制御部11が、撮影角度差分算出部11gを機能させて求められる。   The distance when the shooting angle in the moving image of the swing of the check target is Δθ is the distance between the shooting angle in the moving image of the swing of the ideal form and the shooting angle in the moving image of the swing of the check target. X ′ can be similarly expressed by the above formula (10). The photographing angle deviation amount Δθ is obtained by the control unit 11 having the photographing angle difference calculation unit 11g function.

ここでも上述の要領で、理想のフォームにおける上述の角度εを求める。例えば、バックスイングの開始のときの角度εを0°とした場合、フォロースイングの開始のときの角度εは180°となる。また、インパクトのときの角度εは0°となり、フォロースイングの終了のときの角度εは180°となる。   Again, the above-mentioned angle ε in the ideal form is obtained in the manner described above. For example, when the angle ε at the start of the back swing is 0 °, the angle ε at the start of the follow swing is 180 °. Further, the angle ε at the time of impact is 0 °, and the angle ε at the end of the follow swing is 180 °.

そして、角度εが求められると、上記式(28)により角度γを求めることができ、これにより、上記式(10)における「A×r×sinγ」の解が得られる結果、距離X´を求めることができる。
このようにして理想のフォームのフレーム毎の軌跡を距離XからX´とすることにより変換することができる。
Then, when the angle ε is obtained, the angle γ can be obtained from the above equation (28), and as a result, a solution of “A × r × sin γ” in the above equation (10) is obtained. Can be sought.
In this way, the trajectory for each frame of the ideal form can be converted from the distance X to X ′.

そして、制御部11は、上述したようにして変換された理想のフォームの軌跡の位置を、チェック対象者のスイングの動画像におけるスイング動作者の位置に対応するようにシフトする。これにより、チェック対象者のスイングの動画像におけるチェック対象者のゴルフクラブの軌跡との比較表示を行うことができるようになる。理想のフォームの軌跡の位置のシフトの要領は上述と同様にして実施することができる。   Then, the control unit 11 shifts the position of the ideal form trajectory converted as described above so as to correspond to the position of the swing operator in the moving image of the check target person's swing. Thereby, it becomes possible to perform comparison display with the trajectory of the golf club of the check target in the moving image of the swing of the check target. The procedure for shifting the position of the ideal form trajectory can be performed in the same manner as described above.

以上のようにして理想のフォームによるスイングの動画像についてのゴルフクラブの軌跡の位置の補正を行った後、制御部11は、図4に示すように、補正した理想のフォームのゴルフクラブの軌跡と、チェック対象者のゴルフクラブの軌跡とを表示部13に表示するための表示データを生成する(ステップS114)。なお、フレーム毎の軌跡を点で表示してもよいし、点を結んだ線で表示するようにしてもよい。そして、制御部11は、必要に応じて、軌跡差分判定部11nを機能させて、チェック対象者のゴルフクラブの軌跡の診断を行い(ステップS115)、診断結果に対応するメッセージを表示するための表示データを生成する(ステップS116)。制御部11は、表示部13の表示画面上に、チェック対象の動画像を表示するとともに、ステップS114及びステップS116にお
いて生成された表示データに基づく表示を行う(ステップS117)。その結果、例えば、図39に示すような画面が表示部13の表示画面上に表示される。図39では、補正した理想のフォームのゴルフクラブの軌跡SW3及びチェック対象者のゴルフクラブの軌跡SW4の表示が行われている。
After correcting the position of the golf club locus for the swing image of the ideal form as described above, the control unit 11, as shown in FIG. 4, corrects the golf club locus of the ideal form. And the display data for displaying on the display part 13 the locus | trajectory of a golf club of a check subject are produced | generated (step S114). The trajectory for each frame may be displayed as a point, or may be displayed as a line connecting the points. And the control part 11 makes the locus | trajectory difference determination part 11n function as needed, diagnoses the locus | trajectory of a golf club of a check subject (step S115), and displays the message corresponding to a diagnostic result. Display data is generated (step S116). The control unit 11 displays the moving image to be checked on the display screen of the display unit 13 and performs display based on the display data generated in step S114 and step S116 (step S117). As a result, for example, a screen as shown in FIG. 39 is displayed on the display screen of the display unit 13. In FIG. 39, the corrected ideal form golf club locus SW3 and the check target golf club locus SW4 are displayed.

また、上述した実施の形態では、ゴルフクラブのヘッドの画像の中心を軌跡としてプロットするようにしたが、スイング動作者の体の中心からゴルフクラブのヘッドまでのラインを設定し、この設定されたラインの軌跡をプロットすることもできる。   In the above-described embodiment, the center of the image of the golf club head is plotted as a trajectory. However, the line from the center of the swing operator's body to the head of the golf club is set, and this setting is made. You can also plot line trajectories.

具体的には、例えば、上述したようにしてゴルフクラブW1の位置の指定を行う場合に、図40及び図41に示すように、ゴルフクラブW1の位置の指定とともに、ゴルフクラブW1のスイングの起点となるスイング動作者の肩の位置を指定する。より具体的には、例えば、制御部11は、表示部13の表示画面上に表示されたポインタT21〜T24の位置が変位操作されると、当該ポインタT21,T22の位置により方形状の枠FGaを規定するとともに、ポインタT23,T24の位置により方形状の枠FSaを規定する。そして、図41に示すように、枠FGaによりゴルフクラブW1のヘッドが囲まれ、枠FSaによりスイング動作者の肩が囲まれると、図42に示すように、枠FGaと枠FSaの中心が結ばれた直線が規定される。そして、上述した要領で、制御部11が移動対象画像抽出部11rを機能させて、フォロースイング開始フレームからフォロースイング終了フレームまでの間の動画像を構成する静止画像のそれぞれについて、枠FGa及び枠FSaでそれぞれ規定した画像をテンプレートとして、当該テンプレートとした画像とマッチングする画像の部分を抽出する。そして、この抽出された画像の各中心を直線で結んで、これを軌跡とする。例えば、図43に示すように、フレーム毎にテンプレートにマッチングした画像の各中心を直線で結ぶと、ライン状の軌跡J〜Jを取得することができる。そして、このようにして得られたライン状の軌跡J〜Jを、上述したようにして位置の補正を行い、その結果を表示部13の表示画面上に表示する。その結果、ゴルフクラブの軌跡の表示に多様性を持たすことができるようになる。 Specifically, for example, when the position of the golf club W1 is specified as described above, as shown in FIGS. 40 and 41, the position of the golf club W1 is specified and the swing start point of the golf club W1 is specified. Specify the position of the shoulder of the swing operator. More specifically, for example, when the position of the pointers T 21 to T 24 displayed on the display screen of the display unit 13 is displaced, the control unit 11 changes the position according to the positions of the pointers T 21 and T 22. A frame FGa having a shape is defined, and a square frame FSa is defined by the positions of the pointers T 23 and T 24 . As shown in FIG. 41, when the head of the golf club W1 is surrounded by the frame FGa and the shoulder of the swing operator is surrounded by the frame FSa, the centers of the frame FGa and the frame FSa are connected as shown in FIG. A straight line is defined. Then, in the manner described above, the control unit 11 causes the movement target image extraction unit 11r to function, and for each of the still images constituting the moving image from the follow swing start frame to the follow swing end frame, the frame FGa and the frame Using the images defined by FSa as templates, a portion of an image that matches the template image is extracted. Then, the centers of the extracted images are connected by straight lines, and this is used as a locus. For example, as shown in FIG. 43, line-like trajectories J 1 to J n can be acquired by connecting the centers of images matched to the template for each frame with straight lines. Then, the position of the linear trajectories J 1 to J n obtained in this way is corrected as described above, and the result is displayed on the display screen of the display unit 13. As a result, the display of the golf club track can be varied.

以上説明したように、本実施の形態では、制御部11は、第1の撮影環境下で撮影して得られた動画像における第1の特徴点と、第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点との相違に基づいて、第1の撮影環境下で撮影して得られた動画像か得られた第1の移動対象である第1軌跡を補正する。表示制御部11sは、制御部11によって補正された軌跡を表示させる。その結果、第1の撮影環境と第2の撮影環境とで撮影角度等の撮影環境が異なっても、第1軌跡の位置を第2の撮影環境における撮影角度に合わせて補正して表示することができるので、第2の撮影環境での第1軌跡の位置を正確に把握することができる。そのため、例えば、第1軌跡の位置を正確に把握するために、第2の撮影環境において再度動画像を撮影する必要がなくなる
As described above, in the present embodiment, the control unit 11 is different from the first feature point in the moving image obtained by photographing in the first photographing environment and the first photographing environment. Based on the difference from the second feature point in the moving image obtained in the shooting environment, the first moving object obtained from the moving image obtained in the first shooting environment The first trajectory is corrected. The display control unit 11s displays the locus corrected by the control unit 11. As a result, even if the shooting environment such as the shooting angle is different between the first shooting environment and the second shooting environment, the position of the first locus is corrected and displayed in accordance with the shooting angle in the second shooting environment. Therefore, the position of the first locus in the second shooting environment can be accurately grasped. Therefore, for example, in order to accurately grasp the position of the first trajectory, there is no need to capture a moving image again in the second imaging environment.

また、本実施の形態では、第1設定部11aは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像における第1の特徴点として交差する2以上の直線を設定する。第1軌跡取得部11cは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像から第1の移動対象の軌跡(第1軌跡)を取得する。第2設定部11bは、カメラ1〜3によって第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点として交差する2以上の直線を設定する。第1撮影角度算出部11eは、第1設定部11aによって設定された2以上の直線のそれぞれのなす角度から第1の撮影環境下で撮影されたときのカメラ1〜3の撮影角度を算出する。第2撮影角度算出部11fは、第2設定部11bによって設定された2以上の直線のそれぞれのなす角度か
ら第2の撮影環境下で撮影されたときのカメラ1〜3の撮影角度を算出する。撮影角度差分算出部11gは、第1撮影角度算出部11eによって算出された撮影角度と、第2撮影角度算出部11fによって算出された撮影角度との差分を算出する。補正部11hは、撮影角度差分算出部11gによって算出された撮影角度の差分に基づいて、第1軌跡取得部11cによって取得された第1軌跡の位置を補正する。表示制御部11sは、補正部11hによって補正された第1軌跡を表示させる。その結果、第1の撮影環境と第2の撮影環境とで撮影角度が異なっても、第1軌跡の位置を第2の撮影環境における撮影角度に合わせて補正して表示することができるので、第2の撮影環境での第1軌跡の位置を正確に把握することができる。
Further, in the present embodiment, the first setting unit 11a sets two or more straight lines that intersect as the first feature points in the moving image obtained by shooting in the first shooting environment with the cameras 1 to 3. To do. The 1st locus | trajectory acquisition part 11c acquires the locus | trajectory (1st locus | trajectory) of the 1st movement object from the moving image obtained by image | photographing on the 1st imaging environment with the cameras 1-3. The second setting unit 11b sets two or more straight lines that intersect as the second feature points in the moving image obtained by shooting with the cameras 1 to 3 in a second shooting environment different from the first shooting environment. To do. The first shooting angle calculation unit 11e calculates the shooting angles of the cameras 1 to 3 when shooting is performed in the first shooting environment from angles formed by two or more straight lines set by the first setting unit 11a. . The second shooting angle calculation unit 11f calculates the shooting angles of the cameras 1 to 3 when shooting is performed in the second shooting environment from the angles formed by the two or more straight lines set by the second setting unit 11b. . The shooting angle difference calculation unit 11g calculates a difference between the shooting angle calculated by the first shooting angle calculation unit 11e and the shooting angle calculated by the second shooting angle calculation unit 11f. The correction unit 11h corrects the position of the first trajectory acquired by the first trajectory acquisition unit 11c based on the difference in the shooting angle calculated by the shooting angle difference calculation unit 11g. The display control unit 11s displays the first locus corrected by the correction unit 11h. As a result, even if the shooting angle differs between the first shooting environment and the second shooting environment, the position of the first trajectory can be corrected and displayed in accordance with the shooting angle in the second shooting environment. It is possible to accurately grasp the position of the first locus in the second imaging environment.

また、本実施の形態では、画像指定部11pは、第1の移動対象の画像を指定する。移動対象画像抽出部11rは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像から画像指定部11pによって指定された画像に対応する画像を抽出する。第1軌跡取得部11cは、移動対象画像抽出部11rによって抽出された画像に基づいて第1軌跡を取得する。その結果、容易に第1軌跡の抽出を行うことができるようになる。   In the present embodiment, the image designation unit 11p designates the first movement target image. The movement target image extraction unit 11r extracts an image corresponding to the image designated by the image designation unit 11p from the moving images obtained by photographing in the first photographing environment with the cameras 1 to 3. The first trajectory acquisition unit 11c acquires the first trajectory based on the image extracted by the movement target image extraction unit 11r. As a result, the first trajectory can be easily extracted.

また、本実施の形態では、第3設定部11iは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像における第3の特徴点としての直線を設定する。第4設定部11jは、カメラ1〜3によって第2の撮影環境下で撮影して得られた動画像における第4の特徴点としての直線を設定する。比率算出部11kは、第3設定部11iによって設定された直線と、第4設定部11jによって設定された直線の長さの比率を算出する。補正部11hは、比率算出部11kによって算出された比率に基づいて、第1軌跡取得部11cによって取得された第1軌跡の位置をさらに補正する。その結果、第1の軌跡の位置を、例えば、第2の撮影環境下で撮影して得られた動画像のスケールに合わせて表示することができるので、第2の撮影環境での第1軌跡の位置をより正確に把握することができ
る。
Moreover, in this Embodiment, the 3rd setting part 11i sets the straight line as a 3rd feature point in the moving image obtained by image | photographing on the 1st imaging environment with the cameras 1-3. The fourth setting unit 11j sets a straight line as the fourth feature point in the moving image obtained by shooting with the cameras 1 to 3 in the second shooting environment. The ratio calculation unit 11k calculates the ratio of the length of the straight line set by the third setting unit 11i and the straight line set by the fourth setting unit 11j. The correcting unit 11h further corrects the position of the first trajectory acquired by the first trajectory acquiring unit 11c based on the ratio calculated by the ratio calculating unit 11k. As a result, the position of the first trajectory can be displayed, for example, in accordance with the scale of the moving image obtained by shooting in the second shooting environment, so the first trajectory in the second shooting environment. Can be grasped more accurately.

また、本実施の形態では、位置差分算出部11mは、第3設定部11iによって設定された直線と、第4設定部11jによって設定された直線との位置の差分を算出する。補正部11hは、位置差分算出部11mによって算出された位置の差分に基づいて、第1軌跡取得部11cによって取得された第1軌跡の位置をさらに補正する。その結果、第1の軌跡の位置を、例えば、第2の撮影環境下で撮影して得られた動画像の所定の位置に合わせて表示することができるので、第2の撮影環境での第1軌跡の位置をより正確に把握することができる。   In the present embodiment, the position difference calculation unit 11m calculates the position difference between the straight line set by the third setting unit 11i and the straight line set by the fourth setting unit 11j. The correction unit 11h further corrects the position of the first trajectory acquired by the first trajectory acquisition unit 11c based on the position difference calculated by the position difference calculation unit 11m. As a result, the position of the first trajectory can be displayed, for example, in accordance with a predetermined position of a moving image obtained by photographing in the second photographing environment, so that the second locus in the second photographing environment can be displayed. The position of one locus can be grasped more accurately.

また、本実施の形態では、第1設定部11aは、カメラ1〜3によって第1の撮影環境下で複数の撮影角度でそれぞれ撮影して得られた動画像に対応して2以上の直線をそれぞれ設定する。第1軌跡取得部11cは、第1軌跡を撮影毎に取得する。第1撮影角度算出部11eは、複数の撮影角度をそれぞれ算出する。撮影角度差分算出部11gは、第1撮影角度算出部11eによって算出された複数の撮影角度から第2撮影角度算出部11fによって算出された撮影角度に最も近似するものを選択するとともに、選択された撮影角度と第2撮影角度算出部11fによって算出された撮影角度との差分を算出する。補正部11hは、撮影角度差分算出部11gによって算出された撮影角度の差分に基づいて、第1軌跡取得部11cによって取得された複数の第1軌跡から撮影角度差分算出部11gによ
って選択された撮影角度に対応するものの位置を補正する。その結果、第1軌跡の位置の補正量を小さくすることができ、第1軌跡の位置の補正の精度を高めることができる。
Moreover, in this Embodiment, the 1st setting part 11a respond | corresponds to two or more straight lines corresponding to the moving image each image | photographed with the some imaging | photography angle by the cameras 1-3 in the 1st imaging | photography environment. Set each. The 1st locus | trajectory acquisition part 11c acquires a 1st locus | trajectory for every imaging | photography. The first shooting angle calculation unit 11e calculates a plurality of shooting angles. The shooting angle difference calculation unit 11g selects and selects the one closest to the shooting angle calculated by the second shooting angle calculation unit 11f from the plurality of shooting angles calculated by the first shooting angle calculation unit 11e. The difference between the shooting angle and the shooting angle calculated by the second shooting angle calculation unit 11f is calculated. The correction unit 11h is a photographic angle selected by the photographic angle difference calculation unit 11g from a plurality of first trajectories acquired by the first trajectory acquisition unit 11c based on the difference in photographic angle calculated by the photographic angle difference calculation unit 11g. Correct the position of the object corresponding to the angle. As a result, the correction amount of the position of the first locus can be reduced, and the accuracy of the correction of the position of the first locus can be increased.

また、本実施の形態では、第1軌跡取得部11cは、第1の移動対象としての直線を設定し、直線の軌跡を第1軌跡として取得する。その結果、より多様な軌跡表示を行うことができるので、例えば、より多様なフォームの解析を行うことができるようになる。   Moreover, in this Embodiment, the 1st locus | trajectory acquisition part 11c sets the straight line as a 1st movement object, and acquires a locus | trajectory of a straight line as a 1st locus | trajectory. As a result, more various trajectory displays can be performed. For example, more various forms can be analyzed.

また、本実施の形態では、第2軌跡取得部11dは、カメラ1〜3によって第2の撮影環境下で撮影して得られた動画像から第2の移動対象の軌跡を第2軌跡として取得する。
表示制御部11sは、制御部11によって補正された第1軌跡とともに、第2軌跡取得部11dによって取得された第2軌跡を表示させる。その結果、第1軌跡と第2軌跡とを比較表示することができる。
Further, in the present embodiment, the second trajectory acquisition unit 11d acquires the trajectory of the second movement target as the second trajectory from the moving image obtained by photographing with the cameras 1 to 3 in the second photographing environment. To do.
The display control unit 11s displays the second trajectory acquired by the second trajectory acquisition unit 11d together with the first trajectory corrected by the control unit 11. As a result, the first trajectory and the second trajectory can be compared and displayed.

また、本実施の形態では、軌跡差分判定部11nは、補正された第1軌跡と、第2軌跡取得部11dによって取得された第2軌跡との差分を判定する。表示制御部11sは、軌跡差分判定部11nによる判定結果に応じた表示を行わせる。その結果、例えば、軌跡によって特定されるフォームについての適切なアドバイスを示すことができる等、利便性が向上する。   In the present embodiment, the trajectory difference determination unit 11n determines the difference between the corrected first trajectory and the second trajectory acquired by the second trajectory acquisition unit 11d. The display control unit 11s performs display according to the determination result by the trajectory difference determination unit 11n. As a result, for example, it is possible to show appropriate advice about the form specified by the trajectory, and the convenience is improved.

また、本実施の形態では、表示制御部11sは、カメラ1〜3によって第1の撮影環境下で撮影して得られた動画像のうちの所定のタイミングにおける静止画像に対応する、補正された第1軌跡を表示させる。その結果、例えば、打球がヒットする瞬間等のあるタイミングにおける軌跡の解析が容易となる。   Further, in the present embodiment, the display control unit 11 s is corrected to correspond to a still image at a predetermined timing among moving images obtained by shooting in the first shooting environment with the cameras 1 to 3. The first trajectory is displayed. As a result, for example, the analysis of the trajectory at a certain timing such as the moment when the hit ball hits becomes easy.

なお、本実施の形態では、テニスコートのラインや、ゴルフ練習場のマットを第1の特徴点及び第2の特徴点として規定し、これにより撮影角度を求めるようにしたが、第1の特徴点及び第2の特徴点については撮影する対象に応じて適宜設定することができる。例えば、野球のバットのスイングを撮影する場合には、バッターボックスを特徴点として規定することができる。また、特徴点は、テニスコートのラインや、ゴルフ練習場のマット等に限らず、他のものであってもよく、例えば、樹木や建造物であってもよい。このとき、固定されている物体を特徴点の対象とするのが好ましい。   In the present embodiment, the tennis court line and the golf driving range mat are defined as the first feature point and the second feature point, and the shooting angle is thereby obtained. The point and the second feature point can be set as appropriate according to the subject to be photographed. For example, when shooting a swing of a baseball bat, a batter box can be defined as a feature point. The feature points are not limited to tennis court lines, golf driving range mats, and the like, but may be other things, for example, trees or buildings. At this time, it is preferable to use a fixed object as a target of the feature point.

また、本実施の形態では、第3の特徴点及び第4の特徴点として、スイング動作者の体の長さを規定するようにしたが、第3の特徴点及び第4の特徴点においても撮影する対象に応じて適宜設定することができる。例えば、第3の特徴点及び第4の特徴点として、スイング動作者の足の長さ、頭の先からつま先までの長さ、あるいは、スイングする腕及び移動対象であるテニスラケットやゴルフクラブの先までの長さであってもよい。   In this embodiment, the length of the swing operator's body is defined as the third feature point and the fourth feature point. However, the third feature point and the fourth feature point are also used. It can be set appropriately according to the object to be photographed. For example, as the third feature point and the fourth feature point, the length of the foot of the swing operator, the length from the tip of the head to the toe, or the swinging arm and the tennis racket or golf club to be moved The previous length may be used.

また、本実施の形態では、第3の特徴点及び第4の特徴点としてのスイング動作者の体の長さをポインタにより規定するようにしたが、例えば、上述したテンプレートマッチングの手法により被写体追跡を行って規定するようにしてもよい。具体的には、例えば、スイング動作者の肩周辺の画像と、腰周辺の画像とをテンプレートとして設定し、フォロースイング開始フレームからフォロースイング終了フレームまでの動画像を構成する静止画像のそれぞれについて、テンプレートとした画像とマッチングする画像の部分を抽出する。そして、抽出した肩周辺の画像の中心と、腰周辺の画像の中心とを結ぶ線をスイング動作者の体の長さとして規定する。これにより、スイング動作者が移動した場合でも正確に位置を把握することができるようになる。   In the present embodiment, the length of the swing operator's body as the third feature point and the fourth feature point is defined by the pointer. For example, the subject tracking is performed by the template matching method described above. You may make it prescribe | regulate by performing. Specifically, for example, the image around the shoulder of the swing operator and the image around the waist are set as templates, and for each of the still images constituting the moving image from the follow swing start frame to the follow swing end frame, The part of the image that matches the template image is extracted. Then, a line connecting the center of the extracted image around the shoulder and the center of the image around the waist is defined as the body length of the swing operator. Thereby, even when the swing operator moves, the position can be accurately grasped.

また、本実施の形態では、第2の撮影環境下で撮影して得られたチェック対象の動画像データを保存し、保存した動画像データを読み出して、移動対象の軌跡を取得するための各種データの登録を行うようにしたが、第2の撮影環境下で撮影して得られたリアルタイムでの動画像を利用して、各種データの登録を行うようにしてもよい。   Further, in the present embodiment, various moving image data to be checked obtained by shooting in the second shooting environment are saved, the saved moving image data is read out, and various trajectories for acquiring the moving locus are obtained. Although data registration is performed, various data may be registered using a real-time moving image obtained by shooting in the second shooting environment.

また、本実施の形態では、理想のフォームの動画像データやチェック対象の動画像データを利用して、ユーザの入力により移動対象の軌跡を取得するための各種データの登録を行うようにしたが、画像認識を行って、自動的に各種データの登録を行うことができるものであってもよい。   Further, in the present embodiment, registration of various data for acquiring a movement target locus by a user input using moving image data of an ideal form or moving image data to be checked is performed. Alternatively, it may be capable of performing image recognition and automatically registering various data.

また、本実施の形態では、チェック対象者のスイングの動画像に、理想のフォームの移動対象の軌跡と、チェック対象の移動対象の軌跡とを表示部13に比較表示するようにしたが、チェック対象者のスイングの動画像に、理想のフォームの移動対象の軌跡のみ表示するようにしてもよい。   In the present embodiment, the moving target trajectory of the ideal form and the moving target trajectory of the check target are compared and displayed on the display unit 13 in the swing image of the check target person. Only the trajectory of the movement target of the ideal form may be displayed on the moving image of the subject's swing.

また、本実施の形態では、第1の撮影環境で理想のフォームによるスイングを撮影し、第2の撮影環境でチェック対象者のスイングを撮影するようにしたが、第1の撮影環境でチェック対象者のスイングを撮影し、第2の撮影環境で理想のフォームによるスイングを撮影してもよい。   In the present embodiment, the swing of an ideal form is photographed in the first photographing environment, and the swing of the person to be checked is photographed in the second photographing environment, but the check target is captured in the first photographing environment. A person's swing may be photographed, and a swing with an ideal form may be photographed in the second photographing environment.

また、本実施の形態では、テンプレート画像にマッチングする画像を抽出することによってフレーム毎の軌跡を取得するようにしたが、入力部12の操作等によってフレーム毎に軌跡を手動で規定するようにしてもよい。   In this embodiment, the trajectory for each frame is acquired by extracting an image that matches the template image. However, the trajectory is manually specified for each frame by operating the input unit 12 or the like. Also good.

また、本実施の形態では、カメラ1〜3にて第1の撮影環境で理想のフォームによるスイングを撮影し、この撮影した理想のフォームによるスイングの動画像を利用して軌跡を取得するようにしたが、理想のフォームによるスイングの動画像の画像データが、カメラ1〜3にて撮影して得たものではなく、メディアや通信手段により取得されたものであってもよい。   Further, in the present embodiment, the cameras 1 to 3 are used to photograph a swing with an ideal form in the first photographing environment, and the trajectory is acquired using the captured moving image of the swing with the ideal form. However, the image data of the moving image of the swing with the ideal form may not be obtained by photographing with the cameras 1 to 3 but may be obtained by media or communication means.

また、本実施の形態では、理想のフォームによるスイングの動画像の画像データを複数種類取得し、ユーザにより選択して軌跡の表示を行うようにしたが、取得する理想のフォームによるスイングの動画像の画像データを1種類のみとしてもよい。   Further, in this embodiment, a plurality of types of image data of a moving image of a swing with an ideal form are acquired, and a trajectory is displayed by selection by a user. However, a moving image of a swing with an ideal form to be acquired is used. The image data may be only one type.

また、本実施の形態では、比率算出部11k及び位置差分算出部11mによる軌跡の位置補正を行うようにしたが、これら各機能部による位置補正を実施しないものであってもよい。   In the present embodiment, the position correction of the trajectory is performed by the ratio calculation unit 11k and the position difference calculation unit 11m, but the position correction by each of these function units may not be performed.

本発明の実施の形態及び変形例を説明したが、本発明の範囲は、上述の実施の形態及び変形例に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
第1の撮影環境下で撮影して得られた動画像における第1の特徴点と、前記第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点との相違に基づいて、前記第1の撮影環境下で撮影して得られた動画像から得られた移動対象である軌跡を補正する軌跡補正手段と、
前記軌跡補正手段によって補正された軌跡を表示させる表示制御手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記軌跡補正手段は、
撮影手段によって第1の撮影環境下で撮影して得られた動画像における第1の特徴点として交差する2以上の直線を設定する第1設定手段と、
前記撮影手段によって第1の撮影環境下で撮影して得られた動画像から移動対象の軌跡を取得する軌跡取得手段と、
撮影手段によって前記第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点として交差する2以上の直線を設定する第2設定手段と、
前記第1設定手段によって設定された2以上の直線のそれぞれのなす角度から前記第1の撮影環境下で撮影されたときの撮影手段の撮影角度を算出する第1撮影角度算出手段と、
前記第2設定手段によって設定された2以上の直線のそれぞれのなす角度から前記第2の撮影環境下で撮影されたときの撮影手段の撮影角度を算出する第2撮影角度算出手段と、
前記第1撮影角度算出手段によって算出された撮影角度と、前記第2撮影角度算出手段によって算出された撮影角度との差分を算出する撮影角度差分算出手段と、
前記撮影角度差分算出手段によって算出された撮影角度の差分に基づいて、前記軌跡取得手段によって取得された軌跡の位置を補正する補正手段と、
を備え、
前記表示制御手段は、前記補正手段によって補正された軌跡を表示させることを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記軌跡補正手段は、
前記移動対象の画像を指定する画像指定手段と、
前記撮影手段によって第1の撮影環境下で撮影して得られた動画像から前記画像指定手段によって指定された画像に対応する画像を抽出する移動対象画像抽出手段と、
を備え、
前記軌跡取得手段は、前記移動対象画像抽出手段によって抽出された画像に基づいて前記軌跡を取得することを特徴とする請求項2に記載の画像処理装置。
<請求項4>
前記軌跡補正手段は、
前記撮影手段によって第1の撮影環境下で撮影して得られた動画像における第3の特徴点としての直線を設定する第3設定手段と、
前記撮影手段によって第2の撮影環境下で撮影して得られた動画像における第4の特徴点としての直線を設定する第4設定手段と、
前記第3設定手段によって設定された直線と、前記第4設定手段によって設定された直線との長さの比率を算出する比率算出手段と、
を備え、
前記補正手段は、前記比率算出手段によって算出された比率に基づいて、前記軌跡取得手段によって取得された軌跡の位置をさらに補正することを特徴とする請求項2又は3に記載の画像処理装置。
<請求項5>
前記軌跡補正手段は、前記第3設定手段によって設定された直線と、前記第4設定手段によって設定された直線との位置の差分を算出する位置差分算出手段を備え、
前記補正手段は、前記位置差分算出手段によって算出された位置の差分に基づいて、前記軌跡取得手段によって取得された軌跡の位置をさらに補正することを特徴とする請求項4に記載の画像処理装置。
<請求項6>
前記第1設定手段は、前記撮影手段によって第1の撮影環境下で複数の撮影角度でそれぞれ撮影して得られた動画像に対応して2以上の直線をそれぞれ設定し、
前記軌跡取得手段は、前記軌跡を撮影毎に取得し、
前記第1撮影角度算出手段は、複数の撮影角度をそれぞれ算出し、
前記撮影角度差分算出手段は、前記第1撮影角度算出手段によって算出された複数の撮影角度から前記第2撮影角度算出手段によって算出された撮影角度に最も近似するものを選択するとともに、該選択された撮影角度と前記第2撮影角度算出手段によって算出された撮影角度との差分を算出し、
前記補正手段は、前記撮影角度差分算出手段によって算出された撮影角度の差分に基づいて、前記軌跡取得手段によって取得された複数の軌跡から前記撮影角度差分算出手段によって選択された撮影角度に対応するものの位置を補正することを特徴とする請求項2〜5の何れか一項に記載の画像処理装置。
<請求項7>
前記軌跡取得手段は、前記移動対象としての直線を設定し、該直線の軌跡を前記軌跡として取得することを特徴とする請求項2〜6の何れか一項に記載の画像処理装置。
<請求項8>
前記軌跡補正手段は、前記撮影手段によって第2の撮影環境下で撮影して得られた動画像から第2の移動対象の軌跡を第2軌跡として取得する第2軌跡取得手段を備え、
前記表示制御手段は、前記軌跡補正手段によって補正された前記軌跡とともに、前記第2軌跡取得手段によって取得された第2軌跡を表示させることを特徴とする請求項1〜7の何れか一項に記載の画像処理装置。
<請求項9>
前記軌跡補正手段は、補正された前記軌跡と、前記第2軌跡取得手段によって取得された第2軌跡との差分を判定する軌跡差分判定手段を備え、
前記表示制御手段は、前記軌跡差分判定手段による判定結果に応じた表示を行わせることを特徴とする請求項8に記載の画像処理装置。
<請求項10>
前記表示制御手段は、前記撮影手段によって第1の撮影環境下で撮影して得られた動画像のうちの所定のタイミングにおける静止画像に対応する、補正された前記軌跡を表示させることを特徴とする請求項1〜9の何れか一項に記載の画像処理装置。
<請求項11>
画像処理装置を用いた画像処理方法であって、
第1の撮影環境下で撮影して得られた動画像における第1の特徴点と、前記第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点との相違に基づいて、前記第1の撮影環境下で撮影して得られた動画像から得られた移動対象である軌跡を補正する軌跡補正ステップと、
前記軌跡補正ステップにおいて補正された軌跡を表示する表示ステップと、
を含むことを特徴とする画像処理方法。
<請求項12>
コンピュータを、
第1の撮影環境下で撮影して得られた動画像における第1の特徴点と、前記第1の撮影環境とは異なる第2の撮影環境下で撮影して得られた動画像における第2の特徴点との相違に基づいて、前記第1の撮影環境下で撮影して得られた動画像から得られた移動対象である軌跡を補正する軌跡補正手段、
前記軌跡補正手段によって補正された軌跡を表示させる表示制御手段、
として機能させるプログラム。
Although the embodiments and modifications of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments and modifications, and the scope of the invention described in the claims and equivalents thereof are described. Includes range.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
A first feature point in a moving image obtained by photographing under a first photographing environment and a second feature in a moving image obtained by photographing under a second photographing environment different from the first photographing environment. A trajectory correcting means for correcting a trajectory that is a moving object obtained from a moving image obtained by photographing under the first photographing environment, based on the difference from the feature point;
Display control means for displaying the trajectory corrected by the trajectory correction means;
An image processing apparatus comprising:
<Claim 2>
The trajectory correction means includes
First setting means for setting two or more straight lines intersecting as first feature points in a moving image obtained by photographing under a first photographing environment by photographing means;
Trajectory acquisition means for acquiring a trajectory of a moving object from a moving image obtained by photographing in the first photographing environment by the photographing means;
Second setting means for setting two or more straight lines intersecting as second feature points in a moving image obtained by photographing under a second photographing environment different from the first photographing environment by the photographing means;
First shooting angle calculation means for calculating a shooting angle of the shooting means when shot under the first shooting environment from angles formed by two or more straight lines set by the first setting means;
Second shooting angle calculation means for calculating a shooting angle of the shooting means when shot under the second shooting environment from angles formed by two or more straight lines set by the second setting means;
A shooting angle difference calculating unit that calculates a difference between the shooting angle calculated by the first shooting angle calculating unit and the shooting angle calculated by the second shooting angle calculating unit;
Correction means for correcting the position of the trajectory acquired by the trajectory acquisition means based on the difference of the imaging angle calculated by the imaging angle difference calculation means;
With
The image processing apparatus according to claim 1, wherein the display control unit displays the locus corrected by the correction unit.
<Claim 3>
The trajectory correction means includes
Image designating means for designating the image to be moved;
A moving target image extracting means for extracting an image corresponding to an image designated by the image designating means from a moving image obtained by photographing in the first photographing environment by the photographing means;
With
The image processing apparatus according to claim 2, wherein the trajectory acquisition unit acquires the trajectory based on the image extracted by the movement target image extraction unit.
<Claim 4>
The trajectory correction means includes
Third setting means for setting a straight line as a third feature point in the moving image obtained by photographing in the first photographing environment by the photographing means;
Fourth setting means for setting a straight line as a fourth feature point in the moving image obtained by photographing in the second photographing environment by the photographing means;
A ratio calculating means for calculating a ratio of the length of the straight line set by the third setting means and the straight line set by the fourth setting means;
With
The image processing apparatus according to claim 2, wherein the correction unit further corrects the position of the trajectory acquired by the trajectory acquisition unit based on the ratio calculated by the ratio calculation unit.
<Claim 5>
The trajectory correction unit includes a position difference calculation unit that calculates a difference in position between the straight line set by the third setting unit and the straight line set by the fourth setting unit,
The image processing apparatus according to claim 4, wherein the correction unit further corrects the position of the trajectory acquired by the trajectory acquisition unit based on the position difference calculated by the position difference calculation unit. .
<Claim 6>
The first setting means sets two or more straight lines corresponding to moving images obtained by shooting at a plurality of shooting angles in a first shooting environment by the shooting means,
The locus acquisition means acquires the locus for each photographing,
The first shooting angle calculation means calculates a plurality of shooting angles,
The photographing angle difference calculating means selects the one closest to the photographing angle calculated by the second photographing angle calculating means from the plurality of photographing angles calculated by the first photographing angle calculating means, and is selected. Calculating a difference between the shooting angle and the shooting angle calculated by the second shooting angle calculation means;
The correction unit corresponds to a shooting angle selected by the shooting angle difference calculation unit from a plurality of trajectories acquired by the trajectory acquisition unit based on the difference of the shooting angle calculated by the shooting angle difference calculation unit. 6. The image processing apparatus according to claim 2, wherein the position of the object is corrected.
<Claim 7>
The image processing apparatus according to claim 2, wherein the trajectory acquisition unit sets a straight line as the movement target and acquires the trajectory of the straight line as the trajectory.
<Claim 8>
The trajectory correction unit includes a second trajectory acquisition unit that acquires a trajectory of a second movement target as a second trajectory from a moving image obtained by photographing in the second photographing environment by the photographing unit,
The display control means displays the second trajectory acquired by the second trajectory acquisition means together with the trajectory corrected by the trajectory correction means. The image processing apparatus described.
<Claim 9>
The trajectory correction unit includes a trajectory difference determination unit that determines a difference between the corrected trajectory and the second trajectory acquired by the second trajectory acquisition unit,
The image processing apparatus according to claim 8, wherein the display control unit causes display according to a determination result by the trajectory difference determination unit.
<Claim 10>
The display control means displays the corrected trajectory corresponding to a still image at a predetermined timing among moving images obtained by photographing in the first photographing environment by the photographing means. The image processing apparatus according to any one of claims 1 to 9.
<Claim 11>
An image processing method using an image processing apparatus,
A first feature point in a moving image obtained by photographing under a first photographing environment and a second feature in a moving image obtained by photographing under a second photographing environment different from the first photographing environment. A trajectory correction step for correcting a trajectory that is a moving object obtained from a moving image obtained by photographing in the first photographing environment, based on the difference from the feature point;
A display step for displaying the locus corrected in the locus correction step;
An image processing method comprising:
<Claim 12>
Computer
A first feature point in a moving image obtained by photographing under a first photographing environment and a second feature in a moving image obtained by photographing under a second photographing environment different from the first photographing environment. Trajectory correction means for correcting a trajectory that is a moving object obtained from a moving image obtained by photographing in the first photographing environment based on the difference from the feature point of
Display control means for displaying the locus corrected by the locus correcting means;
Program to function as.

100 画像処理システム
1,2,3 カメラ(撮影手段)
10 画像処理装置
11 制御部(軌跡補正手段)
11a 第1設定部
11b 第2設定部
11c 第1軌跡取得部
11d 第2軌跡取得部
11e 第1撮影角度算出部
11f 第2撮影角度算出部
11g 撮影角度差分算出部
11h 補正部
11i 第3設定部
11j 第4設定部
11k 比率算出部
11m 位置差分算出部
11n 軌跡差分判定部
11p 画像指定部
11r 移動対象画像抽出部
11s 表示制御部
13 表示部(表示手段)
100 Image processing system 1, 2, 3 Camera (photographing means)
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 11 Control part (trajectory correction means)
11a 1st setting part 11b 2nd setting part 11c 1st locus acquisition part 11d 2nd locus acquisition part 11e 1st photography angle calculation part 11f 2nd photography angle calculation part 11g photography angle difference calculation part 11h correction part 11i 3rd setting part 11j Fourth setting unit 11k Ratio calculating unit 11m Position difference calculating unit 11n Trajectory difference determining unit 11p Image specifying unit 11r Moving target image extracting unit 11s Display control unit 13 Display unit (display means)

Claims (16)

移動しうる被写体が第1の撮影環境下で撮された少なくとも1つの第1の動画像と前記第1の撮影環境とは異なる第2の撮影環境下で撮影された第2の動画像を取得する画像取得手段と、
前記画像取得手段により取得された前記第1の動画像に含まれる前記被写体の動作に基づいて、第1の軌跡を生成する軌跡生成手段と、
前記第1の動画像及び前記第2の動画像の前記移動しうる被写体に含まれる特徴点に基づいて、画像内における位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された位置情報に基づいて、前記軌跡生成手段により生成された第1の軌跡を、前記第2の撮影環境下に適合するように補正する軌跡補正手段と、
前記第2の動画像に前記軌跡正手段により補正された第1の軌跡が重畳するように合成する合成手段と、
を備えたことを特徴とする画像処理装置。
Second moving image object that can be moved, which is taken under a different second imaging environment from the at least one first moving image and the first photographing environment of the shooting under the first imaging environment Image acquisition means for acquiring
A trajectory generating means for generating a first trajectory based on the motion of the subject included in the first moving image acquired by the image acquiring means;
Position information acquisition means for acquiring position information in the image based on feature points included in the movable subject of the first moving image and the second moving image;
A trajectory correcting unit that corrects the first trajectory generated by the trajectory generating unit based on the positional information acquired by the positional information acquiring unit so as to fit in the second imaging environment;
And synthesizing for synthesizing means such that the first trajectory is superimposed corrected by the trajectory compensation means to the second moving image,
An image processing apparatus comprising:
記軌跡補正手段は、前記位置情報取得手段により取得された位置情報に基づいて、前記第1の軌跡を前記第1の撮影環境下とは異なる第2の撮影環境下に適合するように補正する、
ことを特徴とする請求項1に記載の画像処理装置。
Before SL trajectory correction means, the positional information based on the acquired device location information obtained by the correction to fit under a different second imaging environment from said first trajectory said first photographing environment To
The image processing apparatus according to claim 1.
記第1の動画像及び前記第2の動画像の前記移動しうる被写体に含まれる特徴点に線を設定する設定手段、
を更に備え、
記位置情報取得手段は、前記設定手段により前記移動しうる被写体に含まれる特徴点に設定された線に基づいて、前記第1の動画像又は前記第2の動画像の前記移動しうる被写体の位置情報を取得する、
ことを特徴とする請求項2に記載の画像処理装置。
Setting means for setting a line feature points included in the subject that may be the movement of the front Symbol first moving image and the second moving image,
Further comprising
Prior Symbol position information acquiring unit, on the basis of the line set in the feature points included in the subject can be said moved by said setting means, it may be the movement of the first moving image and the second moving image object Get location information for
The image processing apparatus according to claim 2.
前記位置情報取得手段により取得された位置情報に基づいて、前記第1の動画像及び前記第2の動画像の前記移動しうる被写体の位置情報の差分を算出する位置情報差分算出手段を更に備え、
前記軌跡補正手段は、前記位置情報差分算出手段により算出された位置情報の差分に基づいて、前記第1の軌跡を前記第1の撮影環境下とは異なる第2の撮影環境下に適合するように補正する、
ことを特徴とする請求項2又は3に記載の画像処理装置。
Position information difference calculating means for calculating a difference between position information of the movable subject between the first moving image and the second moving image based on the position information acquired by the position information acquiring means. ,
The trajectory correction means, based on the difference of the position information calculated by the position information difference calculation detemir stage, fits under a different second imaging environment from the first said trajectory of the first photographing environment To correct,
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記軌跡補正手段は、前記位置情報の差分に基づいて、前記第1の軌跡の位置を前記位置情報の差分が縮小する方向に補正することで、前記第1の軌跡を前記第2の撮影環境下に適合するよう補正する、
ことを特徴とする請求項4に記載の画像処理装置。
The trajectory correction unit corrects the position of the first trajectory in a direction in which the difference of the position information is reduced based on the difference of the position information, thereby causing the first trajectory to be corrected in the second imaging environment. Correct to fit below,
The image processing apparatus according to claim 4.
前記軌跡生成手段は前記第2の動画像中の被写体の動作に基づいて第2の軌跡を生成し、
前記軌跡補正手段により補正された第1の軌跡と、前記第2の軌跡とを前記第2の動画像中に合成する軌跡合成手段を更に備える、
ことを特徴とする請求項2から5の何れか1項に記載の画像処理装置。
The trajectory generating means generates a second trajectory based on the motion of the subject in the second moving image,
A trajectory synthesizing unit that synthesizes the first trajectory corrected by the trajectory correcting unit and the second trajectory into the second moving image;
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記軌跡生成手段は、前記第1の動画像に撮影された被写体の動作を、前記第1の動画像を構成する複数の画像から時系列に沿って検出する検出手段を更に備え、
前記軌跡生成手段は、前記検出手段により前記複数の画像から時系列に沿って検出された動作に基づいて第1の軌跡を生成する、
ことを特徴とする請求項2から6の何れか1項に記載の画像処理装置。
The trajectory generation means further comprises detection means for detecting the movement of the subject photographed in the first moving image in time series from a plurality of images constituting the first moving image,
The trajectory generating means generates a first trajectory based on an operation detected along the time series from the plurality of images by the detecting means.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記第1の動画像及び第2の動画像を表示手段に表示させるよう制御する表示制御手段、
を更に備え、
前記表示制御手段は、前記軌跡生成手段により生成された第1の軌跡又は第2の軌跡を前記表示手段に表示させる
ことを特徴とする請求項2から7の何れか1項に記載の画像処理装置。
Display control means for controlling the display means to display the first moving image and the second moving image;
Further comprising
The image processing according to any one of claims 2 to 7, wherein the display control unit causes the display unit to display the first trajectory or the second trajectory generated by the trajectory generation unit. apparatus.
前記表示制御手段は第1の動画像及び第2の動画像を時系列に沿って表示させ、
前記軌跡生成手段は、前記表示制御手段により表示された範囲に対応する前記検出手段により検出された動作に基づいて軌跡画像を生成し、
前記表示制御手段は、前記表示手段に前記軌跡生成手段により生成される当該軌跡画像を表示させる、
ことを特徴とする請求項8に記載の画像処理装置。
The display control means displays the first moving image and the second moving image in time series,
The trajectory generation means generates a trajectory image based on the operation detected by the detection means corresponding to the range displayed by the display control means,
The display control means causes the display means to display the trajectory image generated by the trajectory generation means.
The image processing apparatus according to claim 8.
前記軌跡生成手段により生成された第2の軌跡と、前記軌跡補正手段により補正された第1の軌跡との差分を算出する差分算出手段と、
前記差分算出手段により算出された差分に基づく情報を報知する報知手段と、
を更に備えることを特徴とする請求項6から9の何れか1項に記載の画像処理装置。
A difference calculating means for calculating a difference between the second locus generated by the locus generating means and the first locus corrected by the locus correcting means;
Informing means for informing information based on the difference calculated by the difference calculating means;
The image processing apparatus according to claim 6, further comprising:
前記報知手段は、前記差分に基づく情報を報知するか否かの閾値を設定する閾値設定手段を含み、
前記報知手段は、前記差分が前記閾値設定手段により設定された閾値を超えた場合に当該差分に基づく情報を報知する
ことを特徴とする請求項10に記載の画像処理装置。
The notification means includes a threshold setting means for setting a threshold for determining whether or not to notify information based on the difference,
The image processing apparatus according to claim 10, wherein the notification unit notifies information based on the difference when the difference exceeds a threshold set by the threshold setting unit.
前記第1の動画像、及び第2の動画像の夫々が撮影された際の撮影角度を算出する撮影角度算出手段を更に備え、
前記軌跡補正手段は、前記撮影角度算出手段の算出結果に基づいて前記第1の軌跡を前記第2の動画像の撮影角度に適合するように補正する
ことを特徴とする請求項3から11の何れか1項に記載の画像処理装置。
A photographing angle calculating means for calculating a photographing angle when each of the first moving image and the second moving image is photographed;
12. The trajectory correction unit corrects the first trajectory so as to match a shooting angle of the second moving image based on a calculation result of the shooting angle calculation unit. The image processing apparatus according to any one of the above.
前記設定手段は、前記第1の動画像又は前記第2の動画像に複数の直線を設定し、
前記撮影角度算出手段は、前記設定手段により設定された複数の直線のなす角に基づいて前記撮影角度を算出する、
ことを特徴とする請求項12に記載の画像処理装置。
The setting means sets a plurality of straight lines in the first moving image or the second moving image,
The shooting angle calculation means calculates the shooting angle based on an angle formed by a plurality of straight lines set by the setting means.
The image processing apparatus according to claim 12.
前記第1の動画像及び前記第2の動画像に表示開始及び終了時点を特定する特定手段、
を更に備え、
前記軌跡生成手段は、前記特定手段により特定された表示開始及び終了時点に基づいて、前記第1の動画像中に第1の軌跡を生成し、
前記軌跡補正手段は、前記軌跡生成手段により生成された前記第1の軌跡を前記表示開始及び終了時点に対応する範囲で第2の撮影環境下に適合するように補正する、
ことを特徴とする請求項1から13の何れか1項に記載の画像処理装置。
A specifying means for specifying display start and end points in the first moving image and the second moving image;
Further comprising
The trajectory generating means generates a first trajectory in the first moving image based on the display start and end times specified by the specifying means,
The trajectory correction unit corrects the first trajectory generated by the trajectory generation unit so that the first trajectory is adapted to the second shooting environment in a range corresponding to the display start and end time points.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
移動しうる被写体が第1の撮影環境下で撮された少なくとも1つの第1の動画像と前記第1の撮影環境とは異なる第2の撮影環境下で撮影された第2の動画像を取得する画像取得ステップと、
前記画像取得ステップにより取得された前記第1の動画像に含まれる前記被写体の動作に基づいて、第1の軌跡を生成する軌跡生成ステップ、
前記第1の動画像及び前記第2の動画像の前記移動しうる被写体に含まれる特徴点に基づいて、画像内における位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップにより取得された位置情報に基づいて、前記軌跡生成ステップにより生成された第1の軌跡を、前記第1の撮影環境下とは異なる第2の撮影環境下に適合するように補正する軌跡補正ステップと、
前記第2の動画像に前記軌跡正手段により補正された第1の軌跡が重畳するように合成する合成ステップと、
を備えたことを特徴とする画像処理方法。
Second moving image object that can be moved, which is taken under a different second imaging environment from the at least one first moving image and the first photographing environment of the shooting under the first imaging environment An image acquisition step for acquiring,
A trajectory generating step for generating a first trajectory based on the motion of the subject included in the first moving image acquired by the image acquiring step;
A position information acquisition step of acquiring position information in the image based on feature points included in the movable subject of the first moving image and the second moving image;
Based on the position information acquired by the position information acquisition step , the first trajectory generated by the trajectory generation step is adapted to a second shooting environment different from the first shooting environment. A locus correction step to be corrected;
And synthesizing for synthesizing step such that the first trajectory is superimposed corrected by the trajectory compensation means to the second moving image,
An image processing method comprising:
コンピュータを、
移動しうる被写体が第1の撮影環境下で撮された少なくとも1つの第1の動画像と前記第1の撮影環境とは異なる第2の撮影環境下で撮影された第2の動画像を取得する画像取得手段、
前記画像取得手段により取得された前記第1の動画像に含まれる前記被写体の動作に基づいて、第1の軌跡を生成する軌跡生成手段、
前記第1の動画像及び前記第2の動画像の前記移動しうる被写体に含まれる特徴点に基づいて、画像内における位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された位置情報に基づいて、前記軌跡生成手段により生成された第1の軌跡を、前記第1の撮影環境下とは異なる第2の撮影環境下に適合するように補正する軌跡補正手段、
前記第2の動画像に前記軌跡正手段により補正された第1の軌跡が重畳するように合成する合成手段、
として機能させることを特徴とするプログラム。
Computer
The subject can move the second moving image captured under a different second imaging environment from the at least one first moving image and the first photographing environment of that Tosa under the first imaging environment Image acquisition means to acquire,
Trajectory generating means for generating a first trajectory based on the motion of the subject included in the first moving image acquired by the image acquiring means;
Position information acquisition means for acquiring position information in the image based on feature points included in the movable subject of the first moving image and the second moving image;
Based on the position information acquired by the position information acquisition unit , the first trajectory generated by the trajectory generation unit is adapted to a second shooting environment different from the first shooting environment. Trajectory correction means for correcting,
Synthesis synthesizing means such that the first trajectory is corrected by the trajectory compensation means to the second moving image is superimposed,
A program characterized by functioning as
JP2016008605A 2016-01-20 2016-01-20 Image processing apparatus, image processing method, and program Active JP6337911B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016008605A JP6337911B2 (en) 2016-01-20 2016-01-20 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016008605A JP6337911B2 (en) 2016-01-20 2016-01-20 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012064290A Division JP5874475B2 (en) 2012-03-21 2012-03-21 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2016116871A JP2016116871A (en) 2016-06-30
JP6337911B2 true JP6337911B2 (en) 2018-06-06

Family

ID=56243348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016008605A Active JP6337911B2 (en) 2016-01-20 2016-01-20 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6337911B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111936287B (en) * 2018-03-30 2022-05-03 本田技研工业株式会社 Method for manufacturing resin box

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114513741B (en) * 2020-10-28 2024-01-30 华为技术有限公司 Method and device for positioning terminal equipment based on measurement report
JP7281857B1 (en) 2023-01-06 2023-05-26 有限会社Amplus Display controller and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2863782B2 (en) * 1990-04-13 1999-03-03 株式会社応用計測研究所 Operation diagnostic device
JP2000184369A (en) * 1998-12-10 2000-06-30 Yokogawa Bridge Corp Simultaneous display method for reference image and referred image
US6514081B1 (en) * 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
JP2009020897A (en) * 2002-09-26 2009-01-29 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program
JP2008023036A (en) * 2006-07-20 2008-02-07 Kc Enterprise:Kk Program for checking and analyzing swing form of golf or the like
JP5136335B2 (en) * 2008-09-30 2013-02-06 カシオ計算機株式会社 CAMERA DEVICE, IMAGE CUTTING METHOD, PROGRAM

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111936287B (en) * 2018-03-30 2022-05-03 本田技研工业株式会社 Method for manufacturing resin box

Also Published As

Publication number Publication date
JP2016116871A (en) 2016-06-30

Similar Documents

Publication Publication Date Title
JP5874475B2 (en) Image processing apparatus, image processing method, and program
JP6363323B2 (en) Tennis swing motion analysis device, analysis system, analysis program, and analysis method
US7587065B2 (en) Image analysis method, analyzing movement of an object in image data
JP4733651B2 (en) Position detection apparatus, position detection method, and position detection program
JP2009020897A (en) Image analysis method, image analysis apparatus, image analysis program
JP2015002910A (en) Motion analysis device and motion analysis program
US20210407316A1 (en) Posture comparison and correction method using application configured to check two golf images and result data in overlapping state
JP2017119102A (en) Motion analysis device, method and program
CN107007992A (en) Hit analytical equipment, system, method, program, display device and recording medium
JP6337911B2 (en) Image processing apparatus, image processing method, and program
JP2013009771A (en) System, method, and program for measurement and analysis of behavior of golf club head in golf swing
TW201415272A (en) Method for swing result deduction and posture correction and the apparatus of the same
KR101133736B1 (en) Apparatus for swimmer&#39;s training using photographing image and a method for controlling it
JP5424841B2 (en) Golf swing diagnostic system
US20170203181A1 (en) Display method, display apparatus, motion analysis system, motion analysis program, and recording medium
KR20160106671A (en) Movement analysis device, movement analysis system, movement analysis method, display method for movement analysis information, and program
JP6690622B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP2006181014A (en) Image analysis device and movement correction system
JP2005312734A (en) Device and method of selecting golf club and device and method of analyzing golf swing
JP2010127639A (en) Image processing device, image processing method, and program
KR20150113800A (en) Terminal device, program and display method
CN103327232B (en) Image processing apparatus and image processing method
JP2005270480A (en) Golf swing measuring system
JP6710961B2 (en) Golf swing analysis method
KR102619364B1 (en) Method and Apparatus for Golf Swing Clinic

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170310

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171003

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171227

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R150 Certificate of patent or registration of utility model

Ref document number: 6337911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150