[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5626939B2 - Sensing processing device for moving ball, sensing processing method, and virtual golf simulation device using the same - Google Patents

Sensing processing device for moving ball, sensing processing method, and virtual golf simulation device using the same Download PDF

Info

Publication number
JP5626939B2
JP5626939B2 JP2013518250A JP2013518250A JP5626939B2 JP 5626939 B2 JP5626939 B2 JP 5626939B2 JP 2013518250 A JP2013518250 A JP 2013518250A JP 2013518250 A JP2013518250 A JP 2013518250A JP 5626939 B2 JP5626939 B2 JP 5626939B2
Authority
JP
Japan
Prior art keywords
image
ball
point
ball image
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013518250A
Other languages
Japanese (ja)
Other versions
JP2013535715A (en
Inventor
イル キム、ウォン
イル キム、ウォン
チャン キム、ヨン
チャン キム、ヨン
ヘオン ウー、チャン
ヘオン ウー、チャン
ソー ハン、ミン
ソー ハン、ミン
ファ リー、タエ
ファ リー、タエ
スン チョイ、ミュン
スン チョイ、ミュン
ウク ジュン、ジャエ
ウク ジュン、ジャエ
カン、シン
ウー リー、セウン
ウー リー、セウン
ビット パク、ハン
ビット パク、ハン
ウー キム、ミュン
ウー キム、ミュン
ウー キム、ヨン
ウー キム、ヨン
コーク ヘオ、セオン
コーク ヘオ、セオン
Original Assignee
ゴルフゾン カンパニー リミテッド
ゴルフゾン カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020100062207A external-priority patent/KR101019829B1/en
Priority claimed from KR1020100062200A external-priority patent/KR101019902B1/en
Application filed by ゴルフゾン カンパニー リミテッド, ゴルフゾン カンパニー リミテッド filed Critical ゴルフゾン カンパニー リミテッド
Publication of JP2013535715A publication Critical patent/JP2013535715A/en
Application granted granted Critical
Publication of JP5626939B2 publication Critical patent/JP5626939B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/06363D visualisation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0638Displaying moving images of recorded environment, e.g. virtual environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0647Visualisation of executed movements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/05Image processing for measuring physical parameters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/10Positions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/30Speed
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、運動するボールに対するセンシング処理装置、センシング処理方法及びそれを用いた仮想ゴルフシミュレーション装置に係り、より詳細には、ゴルフボールなどのような運動するボールのイメージを取得してこれを分析することにより、その物理的情報を算出できるようにする運動するボールに対するセンシング処理装置、センシング処理方法及びそれを用いた仮想ゴルフシミュレーション装置に関する。   The present invention relates to a sensing processing device for a moving ball, a sensing processing method, and a virtual golf simulation device using the sensing processing method. More specifically, the present invention acquires and analyzes an image of a moving ball such as a golf ball. The present invention relates to a sensing processing device, a sensing processing method for a moving ball, and a virtual golf simulation device using the same so that the physical information can be calculated.

最近、野球、サッカー、バスケットボール、そしてゴルフなどのような人気スポーツ競技を、室内や特定の場所でシミュレーションを通じてインタラクティブスポーツゲーム(Interactive Sports Game)の形態で楽しめるようにする様々な装置に関する開発が活発になされている。   Recently, active developments have been made on various devices that allow popular sports competitions such as baseball, soccer, basketball, and golf to be enjoyed in the form of interactive sports games through simulations indoors or at specific locations. Has been made.

このようなインタラクティブスポーツゲームにおいて、野球ボール、サッカーボール、バスケットボール及びゴルフボールなどのボールを利用するスポーツに対するシミュレーションがなされるようにするために、運動するボール、すなわち、ボールの動きに対する物理的情報を正確にセンシングするための各種センシングシステムに関する研究開発が非常に活発に進んでいる実情である。   In such an interactive sports game, physical information about the moving ball, that is, the movement of the ball is used so that a simulation for sports using a ball such as a baseball ball, a soccer ball, a basketball, and a golf ball is performed. Research and development on various sensing systems for accurate sensing is very active.

例えば、赤外線センサを用いたセンシングシステム、レーザーセンサを用いたセンシングシステム、音響センサを用いたセンシングシステム、そしてカメラセンサを用いたセンシングシステムなどの様々なセンシングシステムが登場している。   For example, various sensing systems such as a sensing system using an infrared sensor, a sensing system using a laser sensor, a sensing system using an acoustic sensor, and a sensing system using a camera sensor have appeared.

本発明は、運動するボールに対するイメージを低い解像度の低速カメラ装置とストロボ装置により取得するにもかかわらず、その取得されたイメージ上のボールイメージに対する中心点の座標をサブピクセル水準で正確に求めることができるようにすることで、低コストで、高いセンシング処理能力及びセンシングの正確性を実現できるようにする、運動するボールに対するセンシング処理装置、センシング処理方法及びそれを用いた仮想ゴルフシミュレーション装置を提供するためのものである。   The present invention accurately determines the coordinates of the center point for the ball image on the acquired image at the sub-pixel level, even though the image for the moving ball is acquired by a low-resolution low-speed camera device and strobe device. Providing a sensing processing device for a moving ball, a sensing processing method, and a virtual golf simulation device using the same, which can realize high sensing processing capability and sensing accuracy at a low cost. Is to do.

本発明の一実施例に係るセンシング処理装置は、所定の照明下で運動するボールに対するイメージを取得して分析するセンシング処理装置において、前記取得されたイメージにおいてボールイメージを抽出して、前記抽出されたボールイメージの最も輝度値の高い点を抽出して前記最も輝度値の高い点をもとに前記運動するボールに対する照明の方向を推定する照明方向推定手段と;前記推定された照明方向に沿って前記ボールイメージの照明を受ける側を基準としてボールの形状にフィッティングすることにより、前記ボールイメージ上の最も輝度値の高い点の反対側のシェード領域が前記フィッティングに含まれるようにして前記フィッティングされたイメージの中心点の座標を抽出するイメージ処理手段と;を含む。 A sensing processing apparatus according to an embodiment of the present invention is a sensing processing apparatus that acquires and analyzes an image of a ball moving under a predetermined illumination. The sensing processing apparatus extracts a ball image from the acquired image and extracts the ball image. Illumination direction estimating means for extracting a point having the highest luminance value of the ball image and estimating a direction of illumination with respect to the moving ball based on the point having the highest luminance value ; and along the estimated illumination direction By fitting to the shape of the ball on the basis of the side receiving the illumination of the ball image, the fitting is performed so that the shade region on the opposite side of the point having the highest luminance value on the ball image is included in the fitting. And image processing means for extracting the coordinates of the center point of the image.

本発明の他の一実施例に係るセンシング処理装置は、所定の照明下で運動するボールに対するイメージを取得して分析するセンシング処理装置において、前記ボールイメージの特定の位置に、予め設定されたまたは前記ボールイメージを通じて測定された直径の半円カーブを形成させ、前記半円カーブに対する反対側の半円を前記直径に基づいてフィッティングする半円フィッティング手段と;前記半円フィッティングされたボールイメージの中心点の座標を抽出する座標抽出手段と;を含む。   A sensing processing device according to another embodiment of the present invention is a sensing processing device that acquires and analyzes an image of a ball moving under a predetermined illumination, and is set in advance at a specific position of the ball image or A semicircle fitting means for forming a semicircle curve of the diameter measured through the ball image, and fitting a semicircle opposite to the semicircle curve based on the diameter; a center of the semicircle fitted ball image; Coordinate extracting means for extracting the coordinates of the point;

一方、本発明の一実施例に係るセンシング処理方法は、所定の照明下で運動するボールに対するイメージを取得して分析するセンシング処理方法において、前記取得されたイメージにおいてボールイメージを抽出して、前記抽出されたボールイメージの最も輝度値の高い点を抽出して前記最も輝度値の高い点をもとに前記運動するボールに対する照明の方向を推定するステップと;前記推定された照明方向に沿って前記ボールイメージの照明を受ける側を基準としてボールの形状にフィッティングすることにより、前記ボールイメージ上の最も輝度値の高い点の反対側のシェード 領域が前記フィッティングに含まれるようにするステップと;前記フィッティングされたイメージの中心点の座標を抽出するステップと;を含む。 Meanwhile, a sensing processing method according to an embodiment of the present invention is a sensing processing method for acquiring and analyzing an image of a ball moving under a predetermined illumination, extracting a ball image from the acquired image, and Extracting a point having the highest luminance value of the extracted ball image and estimating a direction of illumination with respect to the moving ball based on the point having the highest luminance value ; and along the estimated illumination direction Fitting the shape of the ball with respect to the side receiving the illumination of the ball image so that the shade region on the opposite side of the point having the highest luminance value on the ball image is included in the fitting ; Extracting the coordinates of the center point of the fitted image.

一方、本発明の一実施例に係る仮想ゴルフシミュレーション装置は、ゴルファーにより打撃されて運動するゴルフボールに対する多重露出イメージを取得するカメラ装置及びストロボ装置を含むセンサ部と;前記取得されたイメージからゴルフボールのイメージを抽出して、前記抽出されたボールイメージの最も輝度値の高い点を抽出して前記最も輝度値の高い点をもとに前記ゴルフボールに対する前記ストロボ照明の方向を推定する照明方向推定手段と、前記推定された照明方向に沿って前記ゴルフボールイメージの照明を受ける側を基準としてゴルフボールの形状にフィッティングすることにより、前記ボールイメージ上の最も輝度値の高い点の反対側のシェード領域が前記フィッティングに含まれるようにして前記フィッティングされたイメージの中心点の座標を抽出するイメージ処理手段とを含むセンシング処理部と;前記中心点の座標の変化を計算することにより、運動するゴルフボールに対する物理情報を算出してゴルフボールの軌跡をシミュレーションするシミュレータと;を含む。 Meanwhile, a virtual golf simulation apparatus according to an embodiment of the present invention includes a camera unit that acquires a multiple exposure image of a golf ball that is hit by a golfer and moves, and a sensor unit that includes a strobe device; golf from the acquired image An illumination direction for extracting a ball image, extracting a point having the highest luminance value of the extracted ball image, and estimating a direction of the strobe illumination with respect to the golf ball based on the point having the highest luminance value By fitting to the shape of the golf ball on the basis of the estimated illumination direction and the side receiving the golf ball image illumination along the estimated illumination direction, the opposite side of the point having the highest luminance value on the ball image wherein the fitting so as to shade area is included in the fitting A sensing processing unit including image processing means for extracting the coordinates of the center point of the image; by calculating a change in the coordinates of the center point, calculating physical information about the moving golf ball and simulating the trajectory of the golf ball And a simulator.

本発明に係る運動するボールに対するセンシング処理装置、センシング処理方法及びそれを用いた仮想ゴルフシミュレーション装置は、運動するボールに対するイメージを低い解像度の低速カメラ装置及びストロボ装置により取得するにもかかわらず、その取得されたイメージ上のボールイメージに対する中心点の座標をサブピクセル水準で正確に求めることができるようにすることで、低コストで、高いセンシング処理能力及びセンシングの正確性を実現できるようにする効果がある。   The sensing processing device, the sensing processing method, and the virtual golf simulation apparatus using the sensing processing device for the moving ball according to the present invention are obtained even though the image of the moving ball is acquired by a low-resolution low-speed camera device and a strobe device. By enabling the coordinates of the center point for the ball image on the acquired image to be accurately obtained at the sub-pixel level, it is possible to realize high sensing processing capability and sensing accuracy at a low cost. There is.

本発明の一実施例に係るセンシング処理装置または仮想ゴルフシミュレーション装置を示すブロック図である。It is a block diagram which shows the sensing processing apparatus or virtual golf simulation apparatus which concerns on one Example of this invention. 図1に示されたセンシング処理装置または仮想ゴルフシミュレーション装置が適用されたスクリーンゴルフシステムの一例を示す図である。It is a figure which shows an example of the screen golf system to which the sensing processing apparatus or virtual golf simulation apparatus shown by FIG. 1 was applied. 本発明の一実施例に係るセンシング処理装置で処理するイメージを取得するカメラ装置及びストロボ装置の作動信号体系を示す図である。It is a figure which shows the operation signal system of the camera apparatus which acquires the image processed with the sensing processing apparatus which concerns on one Example of this invention, and a strobe device. (a)及び(b)は図2に示されたシステムによって取得したボールのイメージパターンをそれぞれ示す図である。(A) And (b) is a figure which respectively shows the image pattern of the ball | bowl acquired by the system shown by FIG. 図5(a)は、図4(a)に示されたパターンのイメージの実際に取得されたイメージの一例を示す図で、図5(b)は、図5(a)に示されたイメージに対する前処理されたイメージを示す図である。FIG. 5A is a diagram showing an example of an actually acquired image of the image of the pattern shown in FIG. 4A, and FIG. 5B is an image shown in FIG. It is a figure which shows the image by which the pre-processing with respect to was carried out. 図5(b)に示されたイメージを拡大して複数のフレームを重ねて示したもので、ボールイメージを抽出する過程を示す図である。FIG. 6 is an enlarged view of the image shown in FIG. 5B and a plurality of frames superimposed on each other, and is a diagram illustrating a process of extracting a ball image. ボールイメージのフィッティングの原理を説明する図で、図7(a)は、ボールイメージを示し、図7(b)は、ボールイメージに対する誤ったフィッティングの例を示し、図7(c)は、本発明のフィッティング手段によるボールイメージのフィッティングの例を示す図である。FIG. 7A shows a ball image, FIG. 7B shows an example of incorrect fitting for a ball image, and FIG. 7C shows the principle of ball image fitting. It is a figure which shows the example of the fitting of the ball image by the fitting means of invention. 図8(a)は、背景が除去された状態のイメージで、図8(b)は、図8(a)のA領域を拡大して示すイメージである。FIG. 8A is an image in a state in which the background is removed, and FIG. 8B is an image showing the area A in FIG. 8A in an enlarged manner. 図9(a)は、図8(a)に示されたイメージに対して低い水準のイメージ処理を行って取得されたイメージで、図9(b)は、図9(a)のB領域を拡大して示すイメージである。FIG. 9A is an image obtained by performing low-level image processing on the image shown in FIG. 8A, and FIG. 9B shows the region B in FIG. 9A. This is an enlarged image. 図10(a)は、図8(a)に示されたイメージに対して高い水準のイメージ処理を行って取得されたイメージで、図9(b)は、図9(a)のC領域を拡大して示すイメージである。10A is an image obtained by performing high-level image processing on the image shown in FIG. 8A, and FIG. 9B shows the region C in FIG. 9A. This is an enlarged image. 図11(a)は、図10(b)に示されたイメージを用いて最大明点を抽出した状態のイメージで、図11(b)は、図9(a)に示されたイメージに前記最大明点を適用した状態のイメージである。FIG. 11A is an image in a state in which the maximum bright spot is extracted using the image shown in FIG. 10B, and FIG. 11B shows the image shown in FIG. It is an image with the maximum bright spot applied. 図12(a)は、ボールイメージに対する最大明点を中心にラインスキャンを行う過程を示す図で、図12(b)は、ラインスキャンの結果を示すイメージで、図12(c)は、図12(b)に示したラインスキャンの結果に対して、平均化フィルタ(average filter)を適用したイメージである。12A is a diagram showing a process of performing a line scan centering on the maximum bright point with respect to the ball image, FIG. 12B is an image showing a result of the line scan, and FIG. 12C is a diagram of FIG. This is an image obtained by applying an average filter to the line scan result shown in FIG. ボールイメージに対する照明方向の推定について説明するための図である。It is a figure for demonstrating the estimation of the illumination direction with respect to a ball image. 本発明に係るセンシング処理装置の照明方向推定手段により推定された照明方向の軸をボールイメージ上に示す図である。It is a figure which shows the axis | shaft of the illumination direction estimated by the illumination direction estimation means of the sensing processing apparatus which concerns on this invention on a ball image. 図9(b)に示されたボールイメージに対する直径を測定する過程について示す図である。It is a figure shown about the process of measuring the diameter with respect to the ball image shown by FIG.9 (b). 推定された照明方向を考慮してボールイメージに対するフィッティング過程を示す図である。It is a figure which shows the fitting process with respect to a ball image in consideration of the estimated illumination direction. (a)及び(b)は推定された照明方向を考慮してボールイメージに対するフィッティング過程を示す図である。(A) And (b) is a figure which shows the fitting process with respect to a ball image in consideration of the estimated illumination direction. 図17(a)及び図17(b)に示されたフィッティング過程によってフィッティングされたボールイメージに対する中心点が抽出された状態のイメージである。FIG. 18 is an image in a state where a center point is extracted for a ball image fitted by the fitting process shown in FIGS. 17 (a) and 17 (b). 本発明に係るセンシング処理方法に関するそれぞれの実施例を示すフローチャートである。It is a flowchart which shows each Example regarding the sensing processing method which concerns on this invention. 本発明に係るセンシング処理方法に関するそれぞれの実施例を示すフローチャートである。It is a flowchart which shows each Example regarding the sensing processing method which concerns on this invention. 図19及び図20に示されたボールイメージのフィッティング過程をより具体的に示すフローチャートである。FIG. 21 is a flowchart showing a more specific process of fitting the ball image shown in FIGS. 19 and 20. FIG.

本発明による運動するボールに対するセンシング処理装置、センシング処理方法及びそれを用いた仮想ゴルフシミュレーション装置に関する実施例を、図面を参照してより具体的に説明する。   Embodiments relating to a sensing processing apparatus, a sensing processing method, and a virtual golf simulation apparatus using the sensing processing apparatus for a moving ball according to the present invention will be described more specifically with reference to the drawings.

本発明による運動するボールに対するセンシング処理装置は、ゴルフのようなボールを利用するスポーツなどにおいて、運動するボールの運動状態に関するイメージを取得してこれを分析することによってセンシングが行われる全てのシステムに適用可能であり、その一例として、仮想ゴルフシミュレーション装置が適用される、いわゆるスクリーンゴルフシステムなどに適用可能である。   The sensing processing apparatus for a moving ball according to the present invention is applied to all systems in which sensing is performed by acquiring and analyzing an image related to a moving state of a moving ball in sports using a ball such as golf. For example, the present invention can be applied to a so-called screen golf system to which a virtual golf simulation apparatus is applied.

図1及び図2では、このような本発明に係る運動するボールに対するセンシング処理装置及びそれを用いた仮想ゴルフシミュレーション装置の概略的な構成について示している。   1 and 2 show a schematic configuration of a sensing processing apparatus for a moving ball according to the present invention and a virtual golf simulation apparatus using the sensing processing apparatus.

まず、図1及び図2を参照して、本発明の一実施例に係る運動するボールに対するセンシング処理装置、及びそれを用いる仮想ゴルフシミュレーション装置について説明する。   First, a sensing processing device for a moving ball and a virtual golf simulation device using the same according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2.

図1に示すように、本発明は、カメラ装置310,320、ストロボ装置330及び信号発生部210などを含むセンサ部で取得されたイメージを処理することにより、運動するボールに対するイメージを処理して、中心点の座標を抽出するセンシング処理装置220に関するもので、本発明の一実施例に係るセンシング処理装置220は、前処理手段230、イメージ抽出手段240、照明方向推定手段250及びイメージ処理手段260などを含んで構成されることが好ましい。   As shown in FIG. 1, the present invention processes an image of a moving ball by processing an image acquired by a sensor unit including a camera device 310, 320, a strobe device 330, and a signal generation unit 210. The sensing processing device 220 according to an embodiment of the present invention relates to a sensing processing device 220 that extracts the coordinates of the center point. Etc. are preferably configured.

まず、前記センサ部について説明すると、前記カメラ装置310,320は、ボールの初期位置からボールが運動方向に沿って運動する状態に関して複数個のフレームのイメージを取得するように備えられる。   First, the sensor unit will be described. The camera devices 310 and 320 are provided to acquire images of a plurality of frames with respect to a state in which the ball moves in the movement direction from the initial position of the ball.

図1では、2台のカメラ装置310,320を備える場合について示しているが、これに限定されず、1台またはそれ以上のカメラ装置を備える全ての場合を含むことができる。   Although FIG. 1 shows a case where two camera apparatuses 310 and 320 are provided, the present invention is not limited to this, and all cases including one or more camera apparatuses can be included.

前記ストロボ装置330は、LEDなどを用いた照明装置であって、前記カメラ装置の撮影用光源として用いられ、所定の時間間隔でストロボ照明(所定の時間間隔で複数回の照明フラッシュが作動される方式である)が発生して、前記カメラ装置310,320によって多重露出イメージが取得されるようにする。   The strobe device 330 is an illumination device using an LED or the like, and is used as a photographing light source for the camera device. The strobe device 330 is used for strobe illumination at a predetermined time interval (a plurality of illumination flashes are activated at a predetermined time interval). A multiple exposure image is acquired by the camera devices 310 and 320.

すなわち、カメラ装置により撮影される一つのフレームのイメージに、前記ストロボ装置330によるフラッシュの回数だけボールが撮影されて現れる多重露出イメージを取得するようになる。   That is, a multiple exposure image that appears by shooting the ball by the number of flashes by the strobe device 330 is obtained in an image of one frame photographed by the camera device.

カメラ装置310,320及びストロボ装置330の作動に関する具体的な事項については後述する。   Specific matters regarding the operation of the camera devices 310 and 320 and the strobe device 330 will be described later.

一方、前記カメラ装置310,320及びストロボ装置330の作動のためのトリガ(trigger)信号は、信号発生部210によって発生し、前記カメラ装置310,320及びストロボ装置330による多重露出イメージは、本発明によるセンシング処理装置220で処理されて、シミュレータ100に伝達される。   On the other hand, a trigger signal for operating the camera devices 310 and 320 and the strobe device 330 is generated by the signal generator 210, and the multiple exposure images by the camera devices 310 and 320 and the strobe device 330 are the present invention. Is processed by the sensing processing device 220 and transmitted to the simulator 100.

本発明の一実施例によるセンシング処理装置220の照明方向推定手段250は、ボールのイメージの最大明点を抽出して、前記最大明点を通る前記ストロボ照明の照明方向を推定するように具現される。前記照明方向推定手段250は、輝度分析手段(図示せず)及びスキャン手段(図示せず)などを含んで構成され、これについての具体的な説明は後述する。   The illumination direction estimating means 250 of the sensing processing device 220 according to an embodiment of the present invention is implemented to extract the maximum bright point of the ball image and estimate the illumination direction of the strobe illumination passing through the maximum bright point. The The illumination direction estimating unit 250 includes a luminance analyzing unit (not shown), a scanning unit (not shown), and the like, which will be described in detail later.

一方、前記イメージ処理手段260は、前記照明方向推定手段250により推定された照明方向に沿ってボールイメージの照明を受ける側の外郭を基準として、ボールイメージをボールの形状にフィッティングすることにより、フィッティングされたイメージの中心点の座標を抽出するように具現される。   On the other hand, the image processing unit 260 performs fitting by fitting the ball image into the shape of the ball with reference to the outline on the side receiving the illumination of the ball image along the illumination direction estimated by the illumination direction estimating unit 250. The coordinates of the center point of the captured image are extracted.

すなわち、前記イメージ処理手段260は、ボールイメージの特定の位置に、予め設定されたまたは前記ボールイメージを通じて測定された直径の半円カーブを形成させ、前記半円カーブに対する反対側の半円を前記直径に基づいてフィッティングする半円フィッティング手段270と、前記半円フィッティングされたボールイメージの中心点の座標を抽出する座標抽出手段280とを含んで構成されることが好ましい。これについての具体的な事項は後述する。   That is, the image processing unit 260 forms a semicircular curve having a diameter set in advance or measured through the ball image at a specific position of the ball image, and sets the semicircle on the opposite side of the semicircular curve to the semicircle curve. It is preferable to include a semicircle fitting means 270 for fitting based on the diameter, and a coordinate extraction means 280 for extracting the coordinates of the center point of the semicircle-fitted ball image. Specific matters regarding this will be described later.

ここで、前記半円カーブの直径として、ボールイメージを通じて測定した値を使用する場合、前記センシング処理装置は、ボールイメージの直径を測定するための直径測定手段をさらに備えることが好ましい。   Here, when a value measured through a ball image is used as the diameter of the semicircular curve, the sensing processing device preferably further includes a diameter measuring unit for measuring the diameter of the ball image.

一方、前記前処理手段230は、前記センサ部によって取得される多重露出イメージから、イメージ以外の背景イメージやノイズなどを所定のプロセスを通じて除去するなどの処理を行うように具現される。   Meanwhile, the pre-processing unit 230 is implemented to perform processing such as removing a background image other than the image, noise, and the like through a predetermined process from the multiple exposure image acquired by the sensor unit.

前記イメージ抽出手段240は、前記前処理手段230によって前処理されたイメージからボールイメージを抽出するように具現され(より具体的には、ボールとして推定されるイメージ、すなわち、ボールイメージ候補を抽出するように具現される)、前記イメージ抽出手段240によって抽出されたボールイメージに対して、上記した照明方向推定手段250によるボールイメージ上の照明方向の推定、及び上記したイメージ処理手段260によるボールイメージに対するフィッティングなどが行われる。   The image extracting unit 240 is implemented to extract a ball image from the image preprocessed by the preprocessing unit 230 (more specifically, an image estimated as a ball, that is, a ball image candidate is extracted). The ball image extracted by the image extraction unit 240 is used to estimate the illumination direction on the ball image by the illumination direction estimation unit 250 and to the ball image by the image processing unit 260. Fitting is performed.

一方、前記シミュレータ100は、制御部M、データベース110、映像処理部120及び映像出力部130などを含んで構成されることが好ましい。   Meanwhile, the simulator 100 preferably includes a control unit M, a database 110, a video processing unit 120, a video output unit 130, and the like.

前記制御部Mは、前記センシング処理装置220でイメージ処理して獲得された運動するボールの座標情報の伝達を受け、これを3次元座標情報に変換し、3次元空間上で前記運動するボールの座標の変化を計算することにより、ボールの運動軌跡シミュレーションのための所定の物理的情報を算出して、映像処理部120に伝達する。   The control unit M receives transmission of coordinate information of a moving ball acquired by image processing by the sensing processing device 220, converts the coordinate information into three-dimensional coordinate information, and converts the movement of the moving ball in a three-dimensional space. By calculating the change in coordinates, predetermined physical information for the motion trajectory simulation of the ball is calculated and transmitted to the video processing unit 120.

このとき、ボールの運動軌跡のシミュレーションのための所定のデータは、データベース110から抽出して用い、前記映像処理部120でのボールの運動軌跡に関するシミュレーション映像処理は、前記データベース110に格納された映像データが抽出されることによってなされ得る。   At this time, the predetermined data for the simulation of the motion trajectory of the ball is extracted from the database 110 and used, and the simulation video processing regarding the motion trajectory of the ball in the video processing unit 120 is the video stored in the database 110. This can be done by extracting data.

ここで、前記センシング処理装置220から伝達された運動するボールの座標情報を3次元座標情報に変換する変換(converting)手段を、前記制御部Mとは別途に備えることも可能である。   Here, a converting means for converting the coordinate information of the moving ball transmitted from the sensing processing device 220 into the three-dimensional coordinate information can be provided separately from the control unit M.

そして、前記前処理手段230、イメージ抽出手段240、照明方向推定手段250及びイメージ処理手段260などは、ハードウェアの面において、前記各手段の機能を行うように設けられる一つのコントローラとして具現してもよく、前記各手段別にそれぞれ別途のコントローラにより該当の機能が具現されるようにしてもよい。また、ソフトウェアの面において、前記各手段の機能を行う一つのプログラムとして具現してもよく、前記各手段別にそれぞれ別途のプログラムにより該当の機能が具現されるようにしてもよい。   The preprocessing unit 230, the image extraction unit 240, the illumination direction estimation unit 250, the image processing unit 260, and the like are embodied as one controller provided to perform the function of each unit in terms of hardware. Alternatively, the corresponding function may be implemented by a separate controller for each means. Moreover, in terms of software, the functions may be embodied as a single program, or the corresponding functions may be embodied by separate programs for each means.

上記したような装置構成を有するセンシング処理装置、または仮想ゴルフシミュレーション装置が適用されたスクリーンゴルフシステムの一例について、図2で示している。   FIG. 2 shows an example of a screen golf system to which a sensing processing device having the above-described device configuration or a virtual golf simulation device is applied.

図2に示すように、ゴルフブースBの一側にゴルフボール10が置かれるゴルフティーと、グラウンド(フェアウェイマット、ラフマット及びバンカーマットのうち少なくとも一つを含むようにすることが好ましい)が備えられる打撃マット30と、ゴルファーがゴルフスイングをするように備えられるスイングプレート20とが備えられる。   As shown in FIG. 2, a golf tee on which a golf ball 10 is placed on one side of a golf booth B and a ground (preferably including at least one of a fairway mat, a rough mat, and a bunker mat) are provided. A hitting mat 30 and a swing plate 20 provided for a golfer to perform a golf swing are provided.

ゴルフブースBの前方には、映像出力部130により実現される仮想ゴルフシミュレーション映像が表示されるスクリーン40が備えられ、天井には、カメラ装置310,320とストロボ装置330がそれぞれ備えられる。   In front of the golf booth B, a screen 40 on which a virtual golf simulation video realized by the video output unit 130 is displayed is provided, and camera devices 310 and 320 and a strobe device 330 are provided on the ceiling, respectively.

図2では、前記カメラ装置310,320を、それぞれ天井と壁に備える場合について示しているが、これに限定されず、ゴルフボール10の運動状態に関するイメージを効果的に取得できながら、ゴルファーによるスイングに妨害されずに、ゴルファーにより打撃されたゴルフボールにより衝突するおそれのない予め設定された位置であれば、どの位置でも設置が可能である。   FIG. 2 shows the case where the camera devices 310 and 320 are respectively provided on the ceiling and the wall. However, the present invention is not limited to this, and it is possible to effectively acquire an image relating to the motion state of the golf ball 10 and It can be installed at any position as long as it is a preset position that does not interfere with the golf ball hit by the golfer and does not collide with the golf ball.

また、図2では、ストロボ装置330が天井に取り付けられ、打撃地点に対して実質的に垂直方向にストロボ照明を提供するように設置されている場合について示しているが、これに限定されず、効果的なストロボ照明を提供できる位置であれば、どの位置でも可能である。   FIG. 2 shows the case where the strobe device 330 is attached to the ceiling and installed to provide strobe lighting in a direction substantially perpendicular to the striking point, but is not limited thereto. Any location that can provide effective strobe lighting is possible.

上記したようなシステムにおいて、ゴルファーが、スイングプレート20で打撃マット30上のゴルフボール10をスクリーン40に向かって打撃すると、図2に示すように、打撃がなされる所定の領域を撮影しているカメラ装置310,320が、それぞれ複数のフレームのイメージを取得し、このとき、ストロボ装置330は、1フレーム当たり複数回のフラッシュを焚いて、運動するゴルフボールに対する多重露出イメージを取得する。   In the system as described above, when the golf player hits the golf ball 10 on the hitting mat 30 toward the screen 40 with the swing plate 20, as shown in FIG. 2, a predetermined area where the hit is made is photographed. The camera devices 310 and 320 respectively acquire images of a plurality of frames. At this time, the strobe device 330 applies a plurality of flashes per frame, and acquires a multiple exposure image of the moving golf ball.

図3では、信号発生部210(図1参照)によるカメラ装置及びストロボ装置のトリガ信号発生体系について示している。   FIG. 3 shows a trigger signal generation system of the camera device and strobe device by the signal generator 210 (see FIG. 1).

図3に示すように、カメラ装置に対するトリガ信号は、tc時間間隔でなされる。すなわち、1フレーム当たりtc時間間隔でトリガ信号が発生する。このとき、1フレーム当たり露出される時間は、te時間であり(このとき、tc>teとなるようにすることが好ましい)、tc−te時間の間に取得されたイメージに対するデータがセンシング処理装置220(図1参照)に伝送されるようにすることが好ましい。   As shown in FIG. 3, the trigger signal for the camera device is made at tc time intervals. That is, a trigger signal is generated at tc time intervals per frame. At this time, the exposure time per frame is te time (in this case, it is preferable to satisfy tc> te), and the data for the image acquired during the tc-te time is the sensing processing device. It is preferable to transmit to 220 (see FIG. 1).

すなわち、図3に示すように、カメラ装置の1フレーム当たりトリガ信号発生時間間隔の間にカメラ装置の露出がなされ、取得された多重露出イメージに対するデータがセンシング処理装置に伝送される。   That is, as shown in FIG. 3, the camera device is exposed during the trigger signal generation time interval per frame of the camera device, and data for the acquired multiple exposure image is transmitted to the sensing processing device.

そして、カメラ装置の露出時間(te時間)の間にストロボ装置によるストロボ照明は複数回発生し、図3では、ストロボ照明のトリガ信号がtsの時間間隔で3回発生する場合について示している。 Then, strobe illumination by the strobe device is generated a plurality of times during the exposure time (te time) of the camera device, and FIG. 3 shows a case where the strobe illumination trigger signal is generated three times at a time interval of ts 1 . .

すなわち、カメラ装置の露出時間(te時間)の間にストロボ照明は等時間間隔であるts時間間隔で3回発生する。このとき、信号発生部210(図1参照)により、カメラ装置とストロボ装置は、最初のトリガ信号が同時に発生するように同期化されることが好ましい。 That is, during the exposure time (te time) of the camera device, the strobe illumination occurs three times at equal time intervals of ts 1 hour. At this time, it is preferable that the signal generator 210 (see FIG. 1) synchronizes the camera device and the strobe device so that the first trigger signal is generated simultaneously.

また、図3に示すように、3回のストロボ照明のうち、最後のストロボ照明のトリガ信号から次のフレームの1番目のストロボ照明のトリガ信号までの時間は、ts時間間隔になるようにすることが好ましい。前記tsとts時間間隔が互いに同一になるように設定してもよいが、図3に示すように、ts時間とts時間が互いに異なるように設定することが好ましく、ts時間がts時間より長くなるように設定することも可能である。 Also, as shown in FIG. 3, the time from the last strobe illumination trigger signal to the first strobe illumination trigger signal of the next frame among the three strobe illuminations is set to an interval of ts 2 hours. It is preferable to do. The ts 1 and ts 2 time intervals may be set to be the same, but as shown in FIG. 3, it is preferable to set the ts 1 hour and ts 2 time to be different from each other, and ts 2 hours. Can be set to be longer than ts 1 hour.

上記したように、カメラ装置とストロボ装置のそれぞれのトリガ信号の間隔が一定になるように固定されているので、取得される多重露出イメージ上のボールイメージの間隔も一定にならざるを得ない。   As described above, since the intervals between the trigger signals of the camera device and the strobe device are fixed, the interval between the ball images on the acquired multiple exposure image must be constant.

したがって、センシング処理装置で多重露出イメージを処理する際に、前記多重露出イメージ上に存在するボールイメージ及び様々なノイズから、正確なボールイメージを、上記したトリガ信号の一定に固定された間隔に関する特徴に基づいて効果的に分離することができる。   Therefore, when processing a multiple exposure image with a sensing processing device, an accurate ball image is obtained from the ball image existing on the multiple exposure image and various noises, and the above-described feature related to the fixed interval of the trigger signal is provided. Can be effectively separated based on

また、カメラ装置の各フレーム当たりストロボ照明の間隔が一定に固定されているので、多重露出イメージにおいて、ボールの運動速度によって様々なパターンのイメージが発生し得る。   Also, since the strobe illumination interval for each frame of the camera device is fixed, images of various patterns can be generated in the multiple exposure image depending on the motion speed of the ball.

図4は、ゴルフクラブによりボール(ゴルフボール)を打撃することによって運動するボールのイメージを取得する場合であって、図3に示された信号発生体系によるカメラ装置及びストロボ装置により取得される多重露出イメージの2つのパターンを(a)及び(b)でそれぞれ示している。   FIG. 4 shows a case where an image of a moving ball is acquired by hitting a ball (golf ball) with a golf club, and is obtained by a camera device and a strobe device using the signal generation system shown in FIG. Two patterns of the exposed image are shown in (a) and (b), respectively.

図4(a)に示されたイメージ(I1)では、ゴルフクラブイメージC1,C2,C3とボールイメージ11a,11b,11cが多重露出により取得された場合で、ボールイメージ11a,11b,11cが互いに所定の間隔で分離されて示された場合である。   In the image (I1) shown in FIG. 4A, when the golf club images C1, C2, C3 and the ball images 11a, 11b, 11c are acquired by multiple exposure, the ball images 11a, 11b, 11c are mutually connected. This is the case where they are shown separated at a predetermined interval.

また、図4(b)に示されたイメージ12は、ボールが互いに重畳して所定の大きさのイメージ領域12として示される場合について示している。   Also, the image 12 shown in FIG. 4B shows a case where the balls are shown as an image region 12 having a predetermined size by overlapping each other.

すなわち、図4の(a)に示されたイメージは、ボールが高速で運動するので、それぞれのストロボ照明がトリガされる時に、所定の距離だけ離れた状態でイメージが形成された場合であり、図4の(b)に示されたイメージは、ボールが低速で運動するので、ボールが遠く進む前にストロボ照明がそれぞれトリガされて互いに重畳して示される場合である。   That is, the image shown in FIG. 4A is a case where the image is formed at a predetermined distance when each strobe illumination is triggered because the ball moves at high speed. The image shown in FIG. 4 (b) is a case where strobe illuminations are triggered and superimposed on each other before the ball travels far because the ball moves at a low speed.

本発明によるセンシング処理装置及びセンシング処理方法は、図4の(a)に示されたように、ボールが、ストロボ照明の固定された周期による所定速度以上の高速で運動することにより、多重露出イメージ上にボールが互いに分離された状態で示される場合に、これに対する各ボールの中心点の座標を正確に取得するためのもので、本発明に係るセンシング処理方法によれば、図4の(b)に示されたように、ボールが重畳して示される場合には、これを除外させる。   As shown in FIG. 4 (a), the sensing processing apparatus and sensing processing method according to the present invention allows multiple exposure images by moving a ball at a high speed of a predetermined speed or more by a fixed period of strobe illumination. When the balls are shown separated from each other on the upper side, the coordinates of the center point of each ball are accurately obtained. According to the sensing processing method of the present invention, as shown in FIG. If the ball is shown in an overlapping manner as shown in FIG.

また、上記したように、除外された重畳されたボールに関するイメージは、別途のプロセスにより処理され、これは、本発明の範囲を逸脱するので、これについての具体的な説明は省略する。   In addition, as described above, the image regarding the excluded superimposed ball is processed by a separate process, which deviates from the scope of the present invention, and a specific description thereof will be omitted.

以下、図5から図18を参照して、本発明に係る運動するボールに対するセンシング処理装置による、上記図4の(a)に示されたような互いに分離されたボールイメージの処理について説明する。   Hereinafter, processing of the ball images separated from each other as shown in FIG. 4A by the sensing processing apparatus for a moving ball according to the present invention will be described with reference to FIGS.

図5の(a)は、互いに分離されたボールに関するイメージを含む多重露出イメージの原本を示しており、320X240の低い解像度の75fpsの低速で動作するカメラ装置及び330Hzのストロボ装置を用いて取得したイメージである。   FIG. 5 (a) shows the original multi-exposure image containing images of balls separated from each other, acquired using a camera device operating at a low speed of 75 fps with a resolution of 320 × 240 and a strobe device of 330 Hz. It is an image.

図5の(a)に示したような原本イメージに対して、前処理手段230(図1参照)は、引き算(Subtraction)などを通じて停止しているイメージ、すなわち、背景イメージなどを除去し、ガウスぼかし(Gaussian Blur)などの所定の前処理過程を行う。前処理過程を経たイメージについて図5の(b)で示している。   With respect to the original image as shown in FIG. 5A, the pre-processing means 230 (see FIG. 1) removes an image that has been stopped through subtraction or the like, that is, a background image, and Gaussian. A predetermined pre-processing process such as blurring (Gaussian Blur) is performed. FIG. 5B shows an image after the preprocessing process.

このように、前処理手段により多重露出イメージ上の背景とノイズが適切に除去された状態で、ボールイメージを抽出することがより容易になる。図6で、これについて示している。   In this way, it becomes easier to extract the ball image in a state where the background and noise on the multiple exposure image are appropriately removed by the preprocessing means. This is illustrated in FIG.

図6に示されたイメージは、カメラ装置により撮影された複数のフレームのイメージを、一枚のイメージに重ねて示したもので、3回のストロボ照明により現れる3個のボールイメージが、一つのイメージセットを構成するとする時、S0イメージセットは0番目のフレームに対するイメージで、S1イメージセットは1番目のフレームに対するイメージであり、S2イメージセットは2番目のフレームに対するイメージを示したものである。   The image shown in FIG. 6 is an image of a plurality of frames taken by a camera device superimposed on a single image, and three ball images appearing by three strobe illuminations are shown as one image. When configuring an image set, the S0 image set is an image for the 0th frame, the S1 image set is an image for the first frame, and the S2 image set is an image for the second frame.

ここで、イメージ抽出手段240(図1参照)は、ボールのイメージとして推定されるイメージを、輪郭チェックやチェックウィンドウなどを通じて抽出することができ、ボールではないものと推定されるイメージを除外しながら、最終的にボールとして推定されるイメージのみを残す方式で処理可能である。   Here, the image extraction unit 240 (see FIG. 1) can extract an image estimated as a ball image through a contour check, a check window, and the like, while excluding an image estimated as not a ball. It is possible to process in such a manner that only the image that is finally estimated as a ball is left.

すなわち、ボールは、一定の直径を有しているので、これを考慮して多重露出イメージ上のそれぞれのイメージに対する輪郭をチェックし、そのチェックされた輪郭がボールであると見なすには大きすぎたり、小さすぎる場合には、これを除外させることができる。   That is, since the ball has a certain diameter, the contour for each image on the multiple exposure image is checked in consideration of this, and the checked contour is too large to be considered a ball. If it is too small, this can be excluded.

そして、図6に示されたように、多重露出イメージ上のそれぞれのイメージ11の大きさに合わせて該当のイメージ11が含まれるようにチェックウィンドウWを形成し、チェックウィンドウWの横方向の長さと縦方向の長さの比率(aspect ratio)をチェックする。   Then, as shown in FIG. 6, the check window W is formed so that the corresponding image 11 is included in accordance with the size of each image 11 on the multiple exposure image, and the horizontal length of the check window W is formed. And the aspect ratio of the length in the vertical direction.

ボールは円形であるので、これに対する縦横比(aspect ratio)はほぼ一定でなければならない。そのため、多重露出イメージ上の各イメージ11に対するチェックウィンドウWの縦横比が大きすぎて、広い幅を有したり、または小さすぎて、幅が狭すぎる場合には、これをボールではないものと見なし除外させることができる。   Since the ball is circular, its aspect ratio must be approximately constant. Therefore, if the aspect ratio of the check window W for each image 11 on the multiple exposure image is too large and has a wide width or is too small and the width is too narrow, this is regarded as not a ball. Can be excluded.

上記したように例示された方法により、多重露出イメージ上でボールとして推定されるイメージ11を抽出することができる。   The image 11 estimated as a ball on the multiple exposure image can be extracted by the method exemplified as described above.

一方、上記したように、ボールイメージとして抽出されたイメージ11は、図7に示したように、それぞれボールの形状にフィッティング(Fitting)されることで、その中心点の座標を抽出することができる。   On the other hand, as described above, the image 11 extracted as a ball image is fitted to the shape of the ball, as shown in FIG. 7, so that the coordinates of the center point can be extracted. .

図7の(a)は、ストロボ照明下で取得されるボールイメージの一例を示し、図7の(b)は、ボールに対する誤ったフィッティング結果を示し、図7の(c)は、本発明に係るイメージ処理手段の半円フィッティング手段270(図1参照)によりボールが正しくフィッティングされた結果を示す。   7A shows an example of a ball image acquired under strobe illumination, FIG. 7B shows an erroneous fitting result for the ball, and FIG. 7C shows the present invention. The result of fitting the ball correctly by the semicircle fitting means 270 (see FIG. 1) of the image processing means will be shown.

図7の(a)に示したように、ボールのイメージ11は、ストロボ照明を受ける状態で撮影されるので、ボールイメージ11の一側には、照明を受ける領域R1が明確に示され、前記照明を受ける領域R1の反対側にはシェード(Shade)が発生して、ボールイメージ11の一部分を遮るシェード領域R2が存在するようになる。   As shown in FIG. 7A, since the image 11 of the ball is photographed in a state of receiving the strobe illumination, an area R1 that receives the illumination is clearly shown on one side of the ball image 11, and A shade is generated on the opposite side of the region R1 that receives the illumination, and a shade region R2 that blocks a part of the ball image 11 is present.

このようなシェード現象は、照明の角度によって少し現れることもあり、ボールイメージの半分以上がシェード現象によって遮られる場合もあり得る。   Such a shade phenomenon may appear a little depending on the angle of illumination, and more than half of the ball image may be blocked by the shade phenomenon.

ストロボ照明下で取得されるボールイメージがシェードされる場合、図7の(b)に示したように、ボールの形状でボールイメージをフィッティング(Fitting)すると、その中心点が歪曲して示されるため、中心点の座標の情報に大きな誤りが発生し、結局、ボールに対する運動シミュレーションの正確性が非常に低下するという問題点が発生する。   When the ball image acquired under the strobe illumination is shaded, as shown in FIG. 7B, when the ball image is fitted in the shape of the ball, the center point thereof is distorted. A large error occurs in the information on the coordinates of the center point, and as a result, the accuracy of the motion simulation for the ball is greatly reduced.

したがって、ストロボ照明下で取得されるボールイメージに対するフィッティングは、ボールイメージに現れるシェード領域を考慮して行うことが好ましい。   Therefore, it is preferable that the fitting for the ball image acquired under the strobe illumination is performed in consideration of the shade area appearing in the ball image.

ボールイメージに対するシェード領域を考慮したフィッティングの一例として、ボールに対するストロボ照明の方向を推定して、その照明方向を基準にしてフィッティングが行われるようにすることにより、シェード領域が、フィッティングされたカーブに含まれるようにすることが可能である。   As an example of fitting in consideration of the shade area for the ball image, the direction of the strobe illumination with respect to the ball is estimated, and the fitting is performed based on the illumination direction, so that the shade area becomes a fitted curve. It can be included.

図7の(c)では、このように照明方向を考慮してボールイメージをフィッティングすることについて示している。図7の(c)に示したように、ボールイメージ11の照明を受ける領域R1にフィッティングカーブFCを形成させることにより、シェード領域R2がフィッティングカーブFCに含まれるようにフィッティングが行われたことを確認できる。   FIG. 7C shows that the ball image is fitted in consideration of the illumination direction as described above. As shown in FIG. 7 (c), the fitting curve FC is formed in the region R1 that receives the illumination of the ball image 11, so that the fitting is performed so that the shade region R2 is included in the fitting curve FC. I can confirm.

上記のような方式でボールイメージをフィッティングすることで、その中心点CPを正確に抽出することができる。   By fitting the ball image in the above manner, the center point CP can be accurately extracted.

上記したようなボールイメージに対する正確な中心点を抽出するためには、最初に取得された多重露出イメージから背景及びノイズを適切に除去して、可能なかぎりボールのイメージのみが残るように前処理(Preliminary processing)を行う必要がある。照明方向推定とボールイメージのフィッティング(fitting)のためには、イメージに対する適切なガウスぼかし(Gausian Blur)、特定ピクセル値に対する閾値(Threshold)処理、及びイメージのピクセル値に対するノーマライゼーション(Normalization)などの前処理過程が必要である。   In order to extract the exact center point for the ball image as described above, the background and noise are appropriately removed from the first acquired multiple exposure image, and preprocessing is performed so that only the ball image remains as much as possible. (Preliminary processing) needs to be performed. For illumination direction estimation and ball image fitting, prior to appropriate Gaussian blur for the image, threshold processing for specific pixel values, and normalization for image pixel values, etc. A process is required.

また、イメージから特定の情報を抽出するための前処理のため、ボールイメージが損傷する状況が生じ得る。そのため、イメージを複数のステップ別に生成して、それぞれのステップによるイメージから特定の情報を抽出するようにすることが好ましい。   Also, due to pre-processing to extract specific information from the image, a situation can occur where the ball image is damaged. For this reason, it is preferable to generate an image for each of a plurality of steps and extract specific information from the image of each step.

図8から図10にそれぞれ示したイメージは、前処理手段230(図1参照)によるイメージの前処理過程によってイメージを複数のステップ別に生成する場合について示している。   The images shown in FIGS. 8 to 10 respectively show the case where the image is generated in a plurality of steps by the pre-processing process of the image by the pre-processing means 230 (see FIG. 1).

図8の(a)は、最初に取得される多重露出イメージに対して引き算など通じて背景を除去した状態のイメージを示している。また、図8の(b)は、図8の(a)に示すA領域を拡大して示したもので、オリジナルボールイメージ11−0に対して示すイメージである。   FIG. 8A shows an image in a state where the background is removed by subtraction or the like from the first multiple exposure image acquired. FIG. 8B is an enlarged view of the area A shown in FIG. 8A, and is an image shown for the original ball image 11-0.

図8の(b)に示したように、ボールに多数のディンプル(Dimple)が形成されているため、照明による影響が不規則的である。そのため、オリジナルボールイメージ11−0のピクセル値の分布が非常に不規則的である。また、周辺に一つまたはそれ以上の小さなピクセル単位で不規則的なピクセル値を有する、いわゆる'Salt and Pepper noise'が非常に多く存在していることがわかる。   As shown in FIG. 8B, since the ball has a large number of dimples, the influence of illumination is irregular. Therefore, the distribution of pixel values of the original ball image 11-0 is very irregular. Also, it can be seen that there are a large number of so-called 'Salt and Pepper noise' having irregular pixel values in one or more small pixel units in the vicinity.

このような状態のイメージでは、正確な中心点の抽出のための各種情報の抽出が非常に難しく、抽出された情報に誤りが発生する可能性が高い。   In such an image, it is very difficult to extract various kinds of information for accurate center point extraction, and there is a high possibility that an error will occur in the extracted information.

したがって、周辺のノイズを全て除去し、オリジナルボールイメージ11−0の不規則的なピクセル値の分布を適切に調節する必要がある。   Therefore, it is necessary to remove all surrounding noise and appropriately adjust the irregular pixel value distribution of the original ball image 11-0.

図9の(a)では、図8の(a)に示されたイメージに対して、オリジナルボールイメージの形状を大きく損傷しない程度の適切な水準のガウスぼかし処理及び閾値(Threshold)処理を行うことで、周辺の様々なノイズがほとんど除去された状態のイメージを示しており、図9の(b)は、図9の(a)に示すB領域を拡大して示したもので、第1処理イメージ11−1に対して示している。   In FIG. 9A, an appropriate level of Gaussian blurring and threshold processing is performed on the image shown in FIG. 8A so as not to significantly damage the shape of the original ball image. FIG. 9B is an enlarged view of the region B shown in FIG. 9A, and shows the first processing. This is shown for image 11-1.

図10の(a)では、図8の(a)に示されたイメージに対して、前記第1処理イメージ11−1よりも高い水準のガウスぼかし処理及び閾値(Threshold)処理を行い、ボールイメージ上のピクセル値に対するノーマライゼーション(Normalization)処理を行った状態のイメージを示しており、図10の(b)は、図10の(a)に示すC領域を拡大して示したもので、第2処理イメージ11−2を示している。   In FIG. 10A, the image shown in FIG. 8A is subjected to higher level Gaussian blurring processing and threshold processing than the first processing image 11-1, and a ball image is obtained. FIG. 10B shows an image of a state in which normalization processing is performed on the upper pixel value. FIG. 10B is an enlarged view of the C region shown in FIG. A processing image 11-2 is shown.

前記第2処理イメージ11−2は、オリジナルボールイメージ11−0の形状が大きく損傷しているが、ボールのディンプルによる不規則的なピクセル値の分布による影響が除去され、照明を受ける部分が明確に区分されていることがわかる。   In the second processed image 11-2, the shape of the original ball image 11-0 is greatly damaged. However, the influence of the irregular pixel value distribution due to the dimple of the ball is removed, and the portion that is illuminated is clear. It can be seen that it is divided into

したがって、上記した図10に示されたイメージ、すなわち、第2処理イメージ11−2を用いて、図11に示したように照明方向を推定するようにすることが好ましい。   Therefore, it is preferable to estimate the illumination direction as shown in FIG. 11 using the image shown in FIG. 10, that is, the second processed image 11-2.

前記第2処理イメージ11−2は、ピクセル値が適切に分布して、ピクセル値の高低が明確に区分されているので、ピクセル値が高い領域を見つけることにより、照明方向を容易に推定できるようにしている。ここで、イメージがグレースケールであるので、ピクセル値は輝度値の情報を有している。   In the second processed image 11-2, the pixel values are appropriately distributed and the pixel values are clearly divided, so that the illumination direction can be easily estimated by finding an area where the pixel values are high. I have to. Here, since the image is in gray scale, the pixel value has information on the luminance value.

すなわち、図11の(a)に示した第2処理イメージ11−2において、相対的に輝度が高いR3領域に照明が集中していることがわかり、前記R3領域の中心を照明方向の中心点と見なすことができる。すなわち、最も輝度値の高い点(Brightest Point)が、照明方向の軸が通る地点になる。図11の(a)において、R3領域の中心点である最も輝度値が高い点、すなわち、最大明点P1に対して表示している。   That is, in the second processed image 11-2 shown in FIG. 11A, it can be seen that the illumination is concentrated in the R3 region having relatively high luminance, and the center of the R3 region is the center point in the illumination direction. Can be considered. That is, the point with the highest luminance value (Brighttest Point) is the point through which the axis in the illumination direction passes. In FIG. 11 (a), a point with the highest luminance value, which is the center point of the R3 region, that is, the maximum bright point P1 is displayed.

仮に、第2処理イメージのボールイメージ11−2上の全てのピクセルのうち、輝度値の最も高い所が一つのピクセルであれば、そのピクセルを最大明点P1と指定できる。しかし、輝度値の最も高い所が、複数のピクセルからなる不規則的な形状の領域であれば、該当の領域の重心(Center of mass)を所定のプロセスから抽出して、該当の地点を最大明点P1と指定できる。   If all the pixels on the ball image 11-2 of the second processed image have one pixel having the highest luminance value, that pixel can be designated as the maximum bright point P1. However, if the place with the highest luminance value is an irregularly shaped region composed of a plurality of pixels, the center of mass of the corresponding region is extracted from a predetermined process, and the corresponding point is A bright point P1 can be designated.

一方、照明方向の推定は、ボールイメージ上の最大明点P1を第1ポイントとし、他の一つの点を第2ポイントと選択して、前記第1ポイントと第2ポイントを連結するラインを形成し、そのラインを照明方向の軸として設定することによってなされ得る。前記第1ポイントは、照明方向推定手段250(図1参照)の輝度分析手段により抽出され、前記第2ポイントは、照明方向推定手段250(図1参照)のスキャン手段により抽出されてもよい。   On the other hand, the direction of the illumination is estimated by selecting the maximum bright point P1 on the ball image as the first point and selecting the other one point as the second point to form a line connecting the first point and the second point. And can be done by setting the line as the axis of illumination direction. The first point may be extracted by a luminance analysis unit of an illumination direction estimation unit 250 (see FIG. 1), and the second point may be extracted by a scanning unit of the illumination direction estimation unit 250 (see FIG. 1).

前記輝度分析手段は、図11の(a)に示されたボールイメージ上のR3領域の中心点、すなわち、最大明点P1を見つけることにより、上記した第1ポイントを抽出することができる。   The luminance analysis means can extract the first point described above by finding the center point of the R3 region on the ball image shown in FIG. 11A, that is, the maximum bright point P1.

また、スキャン手段は、図11の(b)、図12の(a)及び(b)にそれぞれ示されたような過程を通じて前記第2ポイントを抽出できる。まず、図11の(b)に示したように、第1処理イメージのボールイメージ11−1に、図11の(a)で示した最大明点P1を適用する。   In addition, the scanning unit can extract the second point through the processes shown in FIGS. 11B, 12A, and 12B, respectively. First, as shown in FIG. 11B, the maximum bright point P1 shown in FIG. 11A is applied to the ball image 11-1 of the first processing image.

これは、第2処理イメージのボールイメージ11−2上の最大明点P1の座標値を第1処理イメージのボールイメージ11−1に適用したり、第2処理イメージのボールイメージ11−2を第1処理イメージのボールイメージ11−1に重ねることにより、第1処理イメージのボールイメージ11−1上に最大明点P1が表示されるようにすることができる。   This is because the coordinate value of the maximum bright point P1 on the ball image 11-2 of the second processed image is applied to the ball image 11-1 of the first processed image, or the ball image 11-2 of the second processed image is By superimposing on the ball image 11-1 of the 1 processing image, the maximum bright point P1 can be displayed on the ball image 11-1 of the 1st processing image.

上述したように、第1処理イメージのボールイメージ11−1上の最大明点P1を中心に、図12の(a)に示されたように360゜ラインスキャンが行われる。   As described above, a 360 ° line scan is performed as shown in FIG. 12A around the maximum bright point P1 on the ball image 11-1 of the first processed image.

図12の(b)で、図12の(a)に示されたように、ボールイメージに対するラインスキャンの結果が示されている。   FIG. 12B shows a line scan result for the ball image, as shown in FIG.

図12の(b)に示したように、第1処理イメージのボールイメージ11−1に対するラインスキャンによる外郭線L1は、非常に不規則的な形状を有する。   As shown in FIG. 12B, the outline L1 by the line scan with respect to the ball image 11-1 of the first processed image has a very irregular shape.

したがって、図12の(c)に示したように、平均化フィルタ(average filter)を用いて、外郭線を、フィッティング(fitting)された外郭線L2となるように調整することが好ましい。   Therefore, as shown in FIG. 12C, it is preferable to adjust the contour line to be a fitted contour line L2 by using an averaging filter.

図12の(c)に示したように、ボールイメージに対するラインスキャンの結果から、最も短い距離Dminをなす点と、最も長い距離Dmaxをなす点が明確に示されることがわかる。   As shown in FIG. 12C, it can be seen from the result of the line scan on the ball image that the point having the shortest distance Dmin and the point having the longest distance Dmax are clearly shown.

ここで、前記ラインスキャンの結果において、最も短い距離Dminをなす点P2を第2ポイントとして選択することが好ましい。その理由については、図13を参照して説明する。   Here, in the result of the line scan, it is preferable to select the point P2 that forms the shortest distance Dmin as the second point. The reason will be described with reference to FIG.

図13に示したように、運動するボールがストロボ照明を受けて撮影されて示されるボール11には、照明の光を受けて撮られる部分11−1と、シェードされて現れない部分R2が存在し、イメージ上に撮られる部分11−1でも、照明の影響でもう少し明るく現れる部分R1があり、照明により明るく現れる部分R1の中でも、ピクセルの輝度値が最も高い部分R3が存在する。   As shown in FIG. 13, the ball 11 shown by the moving ball being photographed under strobe illumination has a portion 11-1 photographed by receiving the illumination light and a portion R <b> 2 that is not shaded. Even in the portion 11-1 taken on the image, there is a portion R 1 that appears a little brighter due to the influence of illumination, and there is a portion R 3 that has the highest pixel luminance value among the portions R 1 that appear brighter due to the illumination.

ストロボ照明の方向は、ボールイメージ上の最も明るく光る部分、すなわち、輝度値の最も高い最大明点P1が照明方向の軸AXの中心になることがわかる。   It can be seen that the strobe illumination direction is the brightest portion on the ball image, that is, the maximum bright point P1 having the highest luminance value, which is the center of the axis AX of the illumination direction.

また、図13に示されたように、照明方向の軸AXは、前記最大明点P1からボールイメージ11−1の外郭まで最も短い距離をなす外郭線上の点、すなわち、第2ポイントP2を必ず通ると推定することができる。   Also, as shown in FIG. 13, the axis AX in the illumination direction must be a point on the contour line that forms the shortest distance from the maximum bright point P1 to the contour of the ball image 11-1, that is, the second point P2. Can be estimated.

したがって、ボールイメージ11−1の外郭線上の点のうち、最大明点P1との距離が最も近い点を第2ポイントP2と指定することができる。   Therefore, the point closest to the maximum bright point P1 among the points on the outline of the ball image 11-1 can be designated as the second point P2.

前記第2ポイントP2は、図12の(a)から(c)に示されたラインスキャン過程により最も短い距離Dminをなす時の外郭線上の点P2として決定することができる。   The second point P2 can be determined as the point P2 on the contour line when the shortest distance Dmin is formed by the line scanning process shown in FIGS.

したがって、最大明点である第1ポイントP1と、上述した方法により求めた第2ポイントP2とを連結するラインを照明方向の軸AXとして設定することができる。   Therefore, a line connecting the first point P1 which is the maximum bright point and the second point P2 obtained by the above-described method can be set as the axis AX in the illumination direction.

図14は、図12の(b)に示されたような状態で、ボールイメージ11−1上に第1ポイントP1と第2ポイントP2を求め、2つのポイントを連結する照明方向の軸AXを抽出した状態を示すイメージである。   FIG. 14 shows the first point P1 and the second point P2 on the ball image 11-1 in the state shown in FIG. 12B, and the illumination direction axis AX connecting the two points. It is an image which shows the extracted state.

一方、図14に示されたように、ボールイメージ上の照明方向の軸AXを抽出した後には、イメージ処理手段260(図1参照)により、図15から図17に示したように、ボールイメージに対するフィッティング(Fitting)及び中心点の座標の抽出を行う。   On the other hand, as shown in FIG. 14, after extracting the axis AX of the illumination direction on the ball image, the image processing means 260 (see FIG. 1) causes the ball image as shown in FIGS. Fitting and extraction of center point coordinates.

ここで、ボールイメージに対するフィッティングの正確度を向上させるために、第2処理イメージ11−2を用いてフィッティングすることよりは、第1処理イメージ11−1を用いてフィッティングすることが好ましい。   Here, in order to improve the accuracy of the fitting with respect to the ball image, it is preferable to perform the fitting using the first processing image 11-1 rather than the fitting using the second processing image 11-2.

第1処理イメージ11−1は、ボールイメージの形状が大きく損傷していないので、フィッティング時により正確な中心点の抽出が可能であるためである。   This is because the first processed image 11-1 can extract the center point more accurately at the time of fitting because the shape of the ball image is not greatly damaged.

一方、ボールイメージに対するフィッティング(Fitting)のために、本発明の一実施例に係るセンシング処理装置は、直径測定手段を備え、ボールイメージに対する直径を測定するようにしている。   On the other hand, for fitting to a ball image, a sensing processing apparatus according to an embodiment of the present invention includes a diameter measuring unit to measure the diameter of the ball image.

ボールイメージのフィッティングのための直径(Diameter)の値は、ボールの直径の値に対して予め設定された値を用いてもよく、ボールイメージでボールの直径の値を測定し、前記測定された直径の値によってフィッティングを行ってもよい。   The diameter value for fitting the ball image may be a value set in advance with respect to the value of the diameter of the ball. You may perform fitting by the value of a diameter.

しかし、ボールイメージは、最初に取得されるイメージに対するシェードされた部分の影響、解像度の限界、及び複数の段階の前処理過程を経ることにより、ボールの形状がある程度損傷し得るため、ボールに対する予め設定された直径の値を用いてフィッティングすることよりは、ボールイメージで直径の値を測定してフィッティングに用いることがより正確な中心点の抽出のために好ましい。   However, since the ball image can be damaged to some extent due to the effects of shaded parts on the initially acquired image, resolution limitations, and multiple stages of pre-processing, Rather than fitting using a set diameter value, it is preferable to measure the diameter value with a ball image and use it for fitting in order to extract the center point more accurately.

図15では、前記直径測定手段によってボールイメージ11−1において直径の値を測定する過程について示している。   FIG. 15 shows a process of measuring the diameter value in the ball image 11-1 by the diameter measuring means.

まず、直径の測定を容易に行うために、図15に示されたように、照明方向の軸AXが垂直になるようにして、ボールイメージ上の照明を受ける領域が上側に、シェード領域が下側になるようにすることが好ましい。   First, in order to easily measure the diameter, as shown in FIG. 15, the illumination direction axis AX is vertical, the illumination area on the ball image is on the upper side, and the shade area is on the lower side. It is preferable to be on the side.

ここで、図15に示したように、水平ラインLを通じて照明方向の軸AXに沿ってラインスキャンを行うことで、ピクセル値の変化が設定値以上に変化する区間のうち最も長い区間を直径Deとして抽出することができる。   Here, as shown in FIG. 15, by performing a line scan along the illumination direction axis AX through the horizontal line L, the longest section among the sections in which the change in the pixel value changes beyond the set value is represented by the diameter De. Can be extracted as

上述したように、直径測定手段によって直径の測定が完了すると、半円フィッティング手段270(図1参照)によってボールイメージのフィッティング(Fitting)が行われ、図16、図17の(a)及び(b)に示したような過程によりフィッティングが行われる。   As described above, when the measurement of the diameter is completed by the diameter measuring means, the fitting of the ball image is performed by the semicircular fitting means 270 (see FIG. 1), and FIGS. Fitting is performed by the process as shown in FIG.

前記半円フィッティング手段は、照明を受けることによりボールイメージ上にシェード領域が存在する時、そのシェード領域が含まれるようにフィッティングを行って、中心点の座標を正確に抽出することができる。   When the semicircle fitting means is illuminated and a shade area exists on the ball image, the fitting is performed so that the shade area is included, and the coordinates of the center point can be accurately extracted.

前記半円フィッティング手段は、より具体的に、ボールイメージにおいて照明方向として推定された方向に沿ってピクセル値をチェックするピクセルチェック手段と、前記チェックされたピクセル値が、予め設定された設定値以上に変化する位置に前記半円カーブを形成させ、反対側の半円をフィッティングするフィッティング処理手段とを含んで構成されることが好ましい。   More specifically, the semicircular fitting means includes a pixel check means for checking a pixel value along a direction estimated as an illumination direction in the ball image, and the checked pixel value is equal to or greater than a preset set value. It is preferable to include a fitting processing means for forming the semicircular curve at a position where the semicircular curve is changed and fitting the opposite semicircle.

ここで、図14に示されたように、推定された照明方向に基づく照明方向の軸AXが、任意の角度で傾斜して形成された場合には、半円フィッティングをより容易に行うために、図16に示されたように、照明方向の軸AXが垂直状態になるようにイメージ全体を回転させることが好ましい。   Here, as shown in FIG. 14, when the axis AX of the illumination direction based on the estimated illumination direction is inclined at an arbitrary angle, the semicircular fitting can be performed more easily. As shown in FIG. 16, it is preferable to rotate the entire image so that the axis AX in the illumination direction is vertical.

半円フィッティングのためには、まず、前記直径測定手段により測定された直径Deに基づいて、図16に示されたように、半円カーブFC−1を準備する。   For the semicircle fitting, first, as shown in FIG. 16, a semicircle curve FC-1 is prepared based on the diameter De measured by the diameter measuring means.

そして、前記半円カーブFC−1を、図16に示されたように、垂直にした状態の照明方向の軸AXに沿ってボールイメージ11に向かって移動させる。   Then, as shown in FIG. 16, the semicircular curve FC-1 is moved toward the ball image 11 along the axis AX of the illumination direction in a vertical state.

このとき、前記ピクセルチェック手段は、半円カーブFC−1上のイメージのピクセル値(すなわち、輝度値)をチェックする。より好ましくは、照明方向の軸AXに沿って半円カーブFC−1上のイメージの輝度値の和を計算して、その変化を感知するようにする。   At this time, the pixel check means checks the pixel value (that is, the luminance value) of the image on the semicircular curve FC-1. More preferably, the sum of the luminance values of the image on the semicircular curve FC-1 is calculated along the axis AX in the illumination direction so as to sense the change.

半円カーブFC−1が照明方向の軸AXに沿って移動しながら、輝度値または半円カーブ上のイメージの輝度値の和が計算され、ボールイメージの上端の外郭側に到達する時に、輝度値または半円カーブ上の輝度値の和は急激に高まる。   While the semicircular curve FC-1 moves along the axis AX in the illumination direction, the luminance value or the sum of the luminance values of the images on the semicircular curve is calculated, and the luminance is reached when reaching the outer contour side of the upper end of the ball image. Value or the sum of luminance values on a semi-circular curve increases rapidly.

このように、照明方向の軸AXに沿ってチェックされる輝度値、または半円カーブ上の輝度値の和が急激に変化し始める位置をボールイメージ11の外郭と判断することができ、前記フィッティング処理手段は、その位置に前記半円カーブFC−1を配置させる。   In this way, the position where the luminance value checked along the axis AX in the illumination direction or the sum of the luminance values on the semicircular curve starts to change abruptly can be determined as the outline of the ball image 11, and the fitting The processing means arranges the semicircular curve FC-1 at the position.

すなわち、図17の(a)に示したように、半円カーブFC−1をボールイメージ11の照明を受ける領域R1の外郭に被せる。   That is, as shown in FIG. 17A, the semicircular curve FC-1 is placed on the outline of the region R1 that receives the illumination of the ball image 11.

そして、前記フィッティング処理手段は、図17の(b)に示したように、反対側の半円FC−2を前記測定された直径Deによってフィッティングすることで、ボールイメージ11のシェード領域R2を含む正確なフィッティングを行うことができる。   Then, as shown in FIG. 17B, the fitting processing means includes the shade region R2 of the ball image 11 by fitting the opposite semicircle FC-2 with the measured diameter De. Accurate fitting can be performed.

上述したような過程を通じてイメージのフィッティングが行われると、座標抽出手段280(図1参照)は、図18に示したように、それぞれのボールイメージ11に対するフィッティングカーブFCを通じてボールイメージ11の中心点CPの座標を正確に抽出することができる。   When the image fitting is performed through the above-described process, the coordinate extracting unit 280 (see FIG. 1), as shown in FIG. 18, the center point CP of the ball image 11 through the fitting curve FC for each ball image 11. Can be accurately extracted.

したがって、低い解像度の低速カメラ装置及びストロボ装置により取得された低い品質のイメージを利用するにもかかわらず、ボールに対する中心点の座標を正確に抽出することができる。   Therefore, it is possible to accurately extract the coordinates of the center point with respect to the ball in spite of using the low-quality image acquired by the low-speed camera device and the strobe device with low resolution.

このように抽出されたそれぞれのボールの中心点の座標は、変換(converting)手段により3次元座標に変換され、これに基づいて、シミュレーションされるボールの運動軌跡の物理的情報が算出される。   The coordinates of the center point of each ball extracted in this way are converted into three-dimensional coordinates by converting means, and based on this, physical information on the motion trajectory of the simulated ball is calculated.

一方、図19及び図20を参照して、本発明に係る運動するボールに対するセンシング処理方法のそれぞれの実施例について説明する。   On the other hand, with reference to FIGS. 19 and 20, each embodiment of the sensing processing method for a moving ball according to the present invention will be described.

図19に示したように、まず、信号発生部によってトリガ信号が印加されて、カメラ装置及びストロボ装置がそれぞれ所定の周期でボールの運動状態に関して多重露出イメージを取得する(S10)。   As shown in FIG. 19, first, a trigger signal is applied by the signal generation unit, and the camera device and the strobe device respectively acquire multiple exposure images regarding the motion state of the ball at a predetermined cycle (S10).

取得された多重露出イメージから背景イメージ及び各種ノイズを除去するための様々なイメージ前処理ステップが進行する(S20)。   Various image preprocessing steps are performed to remove the background image and various noises from the acquired multiple exposure image (S20).

前処理されたイメージからボールイメージを抽出し(S30)(ボールイメージを抽出したが、ノイズが共に抽出される場合があり得るので、さらに厳密にいうと、ボールイメージ候補を抽出すると見なすべきである)、抽出されたボールイメージのピクセル値、すなわち、輝度値をチェックして(S40)、輝度値が最も高い第1ポイントを抽出する(S50)。   A ball image is extracted from the preprocessed image (S30) (Ball image is extracted, but noise may be extracted together. More strictly speaking, it should be regarded as extracting a ball image candidate. The pixel value of the extracted ball image, that is, the luminance value is checked (S40), and the first point having the highest luminance value is extracted (S50).

抽出された第1ポイントを中心にイメージに対して360゜ラインスキャンを行い(S60)、抽出されたラインスキャンの結果において、ボールイメージの外郭線に対する平均化フィルタ(average filter)を適用して、外郭線が滑らかになるようにする(S70)。   A 360 ° line scan is performed on the image around the extracted first point (S60), and an average filter is applied to the contour line of the ball image in the extracted line scan result. The outline is made smooth (S70).

前記第1ポイントとボールイメージの外郭線とを連結するラインのうち、最短距離をなすラインの外郭線と会う点を第2ポイントとして抽出する(S80)。   Of the lines connecting the first point and the outline of the ball image, a point that meets the outline of the line having the shortest distance is extracted as a second point (S80).

第1ポイントと第2ポイントを通るラインを形成させることにより、該当のラインを照明方向の軸として設定できるようになる(S90)。   By forming a line passing through the first point and the second point, the corresponding line can be set as an axis in the illumination direction (S90).

ところが、上述したような方式により設定された照明方向の軸が垂直線となす角度、または水平線となす角度が設定範囲を逸脱する場合があり得る。   However, the angle between the illumination direction axis set by the method described above and the vertical line or the horizontal line may deviate from the set range.

すなわち、上記で、第2ポイントを抽出するために、照明方向の軸は最大明点と外郭線との間の最短距離をなす地点を通過すると仮定したが、照明方向の角度が垂直線となす角度が一定範囲以上に大きくなると、上記したような仮定が満足されないことがある。   That is, in the above, in order to extract the second point, it is assumed that the axis of the illumination direction passes through the point that forms the shortest distance between the maximum bright point and the outline, but the angle of the illumination direction is a vertical line. If the angle becomes larger than a certain range, the above assumption may not be satisfied.

このような場合には、所定のプロセスを通じて照明方向の軸の角度を調整するステップが必要になる。   In such a case, it is necessary to adjust the angle of the axis of the illumination direction through a predetermined process.

したがって、照明方向の軸がなす角度が設定範囲に含まれるか否かを判断して(S100)、設定範囲に含まれると、該当の照明方向の軸が好ましい軸になり、そうでないと、S60からS80の過程により推定された照明方向に対して補正が行われ、補正された軸を照明方向の軸として設定する(S110)。   Therefore, it is determined whether or not the angle formed by the illumination direction axis is included in the setting range (S100). If the angle is included in the setting range, the corresponding illumination direction axis becomes a preferred axis. To S80, the illumination direction estimated in the process of S80 is corrected, and the corrected axis is set as the axis of the illumination direction (S110).

このように、照明方向の軸が最終的に確定されると、上記したように推定された照明方向を考慮してボールイメージをフィッティングし(S120)、フィッティングされたイメージの中心点を抽出する(S130)。   As described above, when the axis of the illumination direction is finally determined, the ball image is fitted in consideration of the illumination direction estimated as described above (S120), and the center point of the fitted image is extracted (S120). S130).

一方、図20に示した実施例に係るセンシング処理方法によるフローチャートは、図8から図11で説明した前処理のステップ別にそれぞれ生成されたイメージをそれぞれ別々に用いて、ボールの中心点を抽出する過程について示している。   On the other hand, the flowchart of the sensing processing method according to the embodiment shown in FIG. 20 extracts the center point of the ball by using the images generated for each of the preprocessing steps described in FIGS. 8 to 11 separately. It shows the process.

本実施例に係るセンシング処理方法は、基本的に、図19に示された実施例によるフローチャートと同一であり、イメージの前処理ステップ別に別々にイメージを生成して、これから照明方向推定などのステップが進行する点において差があるので、重複する部分に関する説明は省略し、差がある部分に関して集中的に説明する。   The sensing processing method according to the present embodiment is basically the same as the flowchart according to the embodiment shown in FIG. 19, in which an image is generated separately for each image preprocessing step, and steps such as illumination direction estimation are performed from this. Since there is a difference in the point where the process proceeds, the description regarding the overlapping part is omitted, and the part with the difference will be described intensively.

取得された多重露出イメージに対する前処理過程が進行し(S20)、イメージの前処理の水準によって第1処理イメージと第2処理イメージをそれぞれ生成する(S21,S22)。   A pre-processing process for the acquired multiple exposure image proceeds (S20), and a first processed image and a second processed image are generated according to the level of image pre-processing (S21, S22).

ここで、第1処理イメージに関する事項は図9で、第2処理イメージに関する事項は図10でそれぞれ示している。   Here, items related to the first processing image are shown in FIG. 9, and items related to the second processing image are shown in FIG.

第2処理イメージからボールイメージを抽出し(S30)、抽出されたボールイメージのピクセル値、すなわち、輝度値をチェックして(S40)、輝度値が最も高い第1ポイントを抽出する(S50)。   A ball image is extracted from the second processed image (S30), a pixel value of the extracted ball image, that is, a luminance value is checked (S40), and a first point having the highest luminance value is extracted (S50).

一方、前記抽出された第1ポイントを第1処理イメージに適用して、前記第1ポイントを中心に第1処理イメージのボールイメージに対して360゜ラインスキャンを行い(S60)、抽出されたラインスキャンの結果において、ボールイメージの外郭線に対する平均化フィルタ(average filter)を適用し(S70)、前記第1ポイントとボールイメージの外郭線とを連結するラインのうち、最短距離をなすラインの外郭線と会う点を第2ポイントとして抽出して(S80)、2つのポイントをつなぐ照明方向の軸として設定できるようになる(S90)。   Meanwhile, the extracted first point is applied to the first processed image, and a 360 ° line scan is performed on the ball image of the first processed image around the first point (S60). In the scan result, an averaging filter is applied to the outline of the ball image (S70), and the outline of the line that forms the shortest distance among the lines connecting the first point and the outline of the ball image. The point that meets the line is extracted as the second point (S80), and can be set as the axis of the illumination direction connecting the two points (S90).

その後のフローに関しては、図19に示されたものと同一であるので、具体的な説明を省略する。   Since the subsequent flow is the same as that shown in FIG. 19, a detailed description thereof will be omitted.

一方、図21は、図19及び図20に示されたステップS120、すなわち、照明方向を考慮してボールイメージをフィッティングするステップをより具体的に示すフローチャートであって、図21に示したように、フィッティングのために、まず、ボールイメージの直径を測定するようにすることが好ましい(S123)。   On the other hand, FIG. 21 is a flowchart showing in more detail the step S120 shown in FIGS. 19 and 20, that is, the step of fitting the ball image in consideration of the illumination direction, as shown in FIG. For fitting, it is preferable to first measure the diameter of the ball image (S123).

ここで、ボールイメージの直径の測定は、照明方向の軸が垂直方向になるようにボールイメージを回転させた状態で、図12に例示したような方式で行うことができる。   Here, the diameter of the ball image can be measured by the method illustrated in FIG. 12 in a state where the ball image is rotated so that the axis of the illumination direction is vertical.

一方、測定された直径に基づいて半円カーブを生成して(S124)、照明方向の軸に沿ってピクセル値(輝度値)をチェックし、半円カーブをボールイメージの照明を受ける部分の外郭に位置させる(S125)。   On the other hand, a semicircular curve is generated based on the measured diameter (S124), the pixel value (luminance value) is checked along the axis of the illumination direction, and the semicircular curve is encircled by the portion of the ball image that is illuminated. (S125).

前記半円カーブの反対側に、残りの半円を、前記測定された直径に基づいて形成させることにより、ボールイメージをフィッティングし(S126)、上記したような方式によりフィッティングされたボールイメージのそれぞれの中心点の座標を抽出する(S130)。   A ball image is fitted by forming a remaining semicircle on the opposite side of the semicircle curve based on the measured diameter (S126), and each of the ball images fitted by the above-described method is used. The coordinates of the center point are extracted (S130).

前記抽出されたボールイメージの中心点の座標の変化を計算することにより、運動するボールの物理的特性情報を抽出できるようになる。
[項目2]
前記照明方向推定手段は、前記ボールのイメージの最大明点を抽出することにより、前記運動するボールに対する照明の方向を推定するように構成され、
前記イメージ処理手段は、前記ボールイメージ上で前記最大明点の反対側のシェード領域を含んでフィッティングするように構成されることを特徴とする、 項目1に記載のセンシング処理装置。
[項目4]
前記輝度分析手段は、
前記ボールイメージ上の全てのピクセルのうち、輝度値が最も高いピクセルをチェックし、チェックされた少なくとも一つのピクセルに対する重心を計算することにより、前記第1ポイントを算出するように構成されることを特徴とする、 項目3に記載のセンシング処理装置。
[項目5]
前記スキャン手段は、
前記ボールイメージの前記第1ポイントを中心に360゜ラインスキャンを行うことにより、前記第2ポイントを抽出するように構成されることを特徴とする、 項目3に記載のセンシング処理装置。
[項目7]
前記イメージ処理手段は、
前記照明方向推定手段により推定された照明方向を基準に前記ボールイメージの特定の位置に、予め設定された直径の半円カーブを形成させ、前記半円カーブに対する反対側の半円を前記直径に基づいてフィッティングする半円フィッティング手段を含むことを特徴とする、 項目1に記載のセンシング処理装置。
[項目10]
前記ボールイメージを分析して前記ボールイメージの直径を測定する直径測定手段をさらに含み、
前記半円フィッティング手段は、前記測定された直径に基づいて半円フィッティングが行われるように構成されることを特徴とする、 項目8に記載のセンシング処理装置。
[項目11]
前記半円フィッティング手段は、
前記ボールイメージにおいて、前記運動するボールが受ける照明の方向として推定された方向に沿ってピクセル値をチェックするピクセルチェック手段と、
前記チェックされたピクセル値が、予め設定された設定値以上に変化する位置に前記半円カーブを形成させ、反対側の半円をフィッティングするフィッティング処理手段と、を含むことを特徴とする、 項目8に記載のセンシング処理装置。
[項目16]
前記照明の方向を推定するステップは、
前記推定された照明方向の軸がなす角度が、設定された角度範囲を逸脱するか否かを判断するステップと、
前記設定された角度範囲を逸脱する場合、前記推定された照明方向を補正するステップとを含むことを特徴とする、 項目13に記載のセンシング処理方法。
[項目18]
前記半円カーブを形成させるステップは、
前記ボールイメージを分析して、照明により発生するボールイメージ上のシェード領域を抽出するステップと、
前記ボールイメージ上で前記シェード領域の反対側に前記半円カーブを形成させるステップとを含むことを特徴とする、 項目17に記載のセンシング処理方法。
[項目22]
前記ボールイメージの直径を測定するステップは、
前記ボールイメージの直径を推定するステップにおいて直径として推定された長さと、予め設定されたボールの直径の誤差が設定範囲に含まれるか否かを判断するステップと、
前記誤差が設定範囲に含まれる場合、前記推定された長さを測定された直径として設定するステップを含むことを特徴とする、 項目21に記載のセンシング処理方法。
[項目23]
前記ボールイメージの直径を測定するステップは、
前記ボールイメージにおいて前記照明によるシェードの程度を分析して、前記ボールイメージの直径を推定するステップで直径として推定された長さを、前記シェードの程度に対する分析結果によって補正するステップを含むことを特徴とする、 項目21に記載のセンシング処理方法。
By calculating the change in the coordinates of the center point of the extracted ball image, the physical characteristic information of the moving ball can be extracted.
[Item 2]
The illumination direction estimating means is configured to estimate a direction of illumination with respect to the moving ball by extracting a maximum bright point of the image of the ball,
The sensing processing device according to claim 1, wherein the image processing means is configured to fit on the ball image including a shade region opposite to the maximum bright point.
[Item 4]
The luminance analysis means includes
The first point may be calculated by checking a pixel having the highest luminance value among all the pixels on the ball image and calculating a centroid for the checked at least one pixel. Item 4. The sensing processing device according to item 3.
[Item 5]
The scanning means includes
The sensing processing device according to claim 3, wherein the second point is extracted by performing a 360-degree line scan around the first point of the ball image.
[Item 7]
The image processing means includes
A semicircular curve having a preset diameter is formed at a specific position of the ball image with reference to the illumination direction estimated by the illumination direction estimating means, and a semicircle on the opposite side of the semicircle curve is set to the diameter. Item 4. The sensing processing device according to Item 1, further comprising semicircular fitting means for fitting based on the fitting.
[Item 10]
Diameter measuring means for analyzing the ball image and measuring the diameter of the ball image;
The sensing processing device according to item 8, wherein the semicircular fitting means is configured to perform semicircular fitting based on the measured diameter.
[Item 11]
The semicircular fitting means includes
Pixel checking means for checking pixel values along a direction estimated as a direction of illumination received by the moving ball in the ball image;
Fitting processing means for forming the semicircle curve at a position where the checked pixel value changes to a preset value or more and fitting the opposite semicircle, 8. The sensing processing device according to 8.
[Item 16]
Estimating the direction of the illumination comprises:
Determining whether an angle formed by the axis of the estimated illumination direction deviates from a set angle range;
The sensing processing method according to claim 13, further comprising a step of correcting the estimated illumination direction when the set angle range is deviated.
[Item 18]
The step of forming the semicircular curve includes:
Analyzing the ball image and extracting a shade region on the ball image generated by illumination;
The sensing processing method according to claim 17, further comprising: forming the semicircular curve on the opposite side of the shade region on the ball image.
[Item 22]
Measuring the diameter of the ball image comprises:
Determining whether the length estimated as the diameter in the step of estimating the diameter of the ball image and a preset error of the diameter of the ball are included in the setting range;
The sensing processing method according to claim 21, further comprising a step of setting the estimated length as a measured diameter when the error is included in a setting range.
[Item 23]
Measuring the diameter of the ball image comprises:
Analyzing the degree of shade by the illumination in the ball image, and correcting the length estimated as the diameter in the step of estimating the diameter of the ball image according to the analysis result for the degree of shade. The sensing processing method according to item 21.

Claims (14)

所定の照明下で運動するボールに対するイメージを取得して分析するセンシング処理装置において、
前記取得されたイメージにおいてボールイメージを抽出して、前記抽出されたボールイメージの最も輝度値の高い点を抽出して前記最も輝度値の高い点をもとに前記運動するボールに対する照明の方向を推定する照明方向推定手段と、
前記推定された照明方向に沿って前記ボールイメージの照明を受ける側を基準としてボールの形状にフィッティングすることにより、前記ボールイメージ上の最も輝度値の高い点の反対側のシェード領域が前記フィッティングに含まれるようにして前記フィッティングされたイメージの中心点の座標を抽出するイメージ処理手段と、を含む、センシング処理装置。
In a sensing processing device that acquires and analyzes an image of a ball moving under predetermined lighting,
A ball image is extracted from the acquired image, a point having the highest luminance value of the extracted ball image is extracted, and a direction of illumination with respect to the moving ball is determined based on the point having the highest luminance value. A lighting direction estimating means for estimating;
By fitting to the shape of the ball with reference to the side receiving the illumination of the ball image along the estimated illumination direction, a shade region on the opposite side of the point having the highest luminance value on the ball image is included in the fitting. Image processing means for extracting the coordinates of the center point of the fitted image so as to be included .
前記照明方向推定手段は、
前記ボールイメージ上の全てのピクセルのうち、輝度値が最も高い地点である第1ポイントを抽出する輝度分析手段と、
前記第1ポイントを中心に前記ボールイメージの外郭まで最短距離をなす地点である第2ポイントを抽出するスキャン手段と、を含み、
前記第1ポイントと前記第2ポイントを連結したラインが前記照明方向の軸として設定されるように構成されることを特徴とする、請求項1に記載のセンシング処理装置。
The illumination direction estimating means includes
Luminance analysis means for extracting a first point which is a point having the highest luminance value among all the pixels on the ball image;
Scanning means for extracting a second point that is a point that forms the shortest distance from the first point to the outline of the ball image;
The sensing processing apparatus according to claim 1, wherein a line connecting the first point and the second point is configured as an axis of the illumination direction.
前記取得されたイメージから背景及びノイズを除去するように前処理を行い、前処理の程度によって第1処理イメージと前記第1処理イメージよりさらに高い水準の前処理が行われた第2処理イメージをそれぞれ生成するように構成される前処理手段をさらに含み、
前記照明方向推定手段は、
前記第2処理イメージ上の全てのピクセルのうち、輝度値が最も高い地点である第1ポイントを抽出する輝度分析手段、及び前記第1処理イメージ上で前記第1ポイントに該当する位置を中心に前記第1処理イメージの外郭まで最も短い距離をスキャンして、該当の距離上の外郭地点である第2ポイントを抽出するスキャン手段を含み、
前記第1ポイントと前記第2ポイントを連結したラインが前記照明方向の軸として設定されるように構成されることを特徴とする、請求項1または2に記載のセンシング処理装置。
Preprocessing is performed so as to remove background and noise from the acquired image, and a first processing image and a second processing image on which higher level preprocessing than the first processing image is performed according to the degree of preprocessing. Further comprising pre-processing means each configured to generate,
The illumination direction estimating means includes
Out of all the pixels on the second processed image, luminance analysis means for extracting a first point which is the highest luminance value, and a position corresponding to the first point on the first processed image. Scanning means for scanning the shortest distance to the outline of the first processed image and extracting a second point that is an outline point on the corresponding distance;
The sensing processing device according to claim 1, wherein a line connecting the first point and the second point is set as an axis of the illumination direction.
前記ボールイメージの特定の位置に、予め設定されたまたは前記ボールイメージを通じて測定された直径の半円カーブを形成させ、前記半円カーブに対する反対側の半円を前記直径に基づいてフィッティングする半円フィッティング手段と、
前記半円フィッティングされたボールイメージの中心点の座標を抽出する座標抽出手段と、を含むことを特徴とする請求項1に記載のセンシング処理装置。
The specific position of the ball image, to form a semi-circular curve of the measured diameter through preset or the ball image, semicircle fitting based semicircle opposite to said diameter to the semicircular curve Fitting means;
The sensing processing apparatus according to claim 1, further comprising: a coordinate extracting unit that extracts coordinates of a center point of the semicircle-fitted ball image.
前記半円フィッティング手段は、
前記ボールイメージの最大明点側の外郭に前記半円カーブを形成させ、反対側の半円をフィッティングすることにより、前記ボールイメージ上のシェード領域を含んでフィッティングするように構成されることを特徴とする、請求項4に記載のセンシング処理装置。
The semicircular fitting means includes
The semicircular curve is formed in an outline on the maximum bright point side of the ball image, and fitting is performed including a shade region on the ball image by fitting the semicircle on the opposite side. The sensing processing device according to claim 4.
所定の照明下で運動するボールに対するイメージを取得して分析するセンシング処理方法において、
前記取得されたイメージにおいてボールイメージを抽出して、前記抽出されたボールイメージの最も輝度値の高い点を抽出して前記最も輝度値の高い点をもとに前記運動するボールに対する照明の方向を推定するステップと、
前記推定された照明方向に沿って前記ボールイメージの照明を受ける側を基準としてボールの形状にフィッティングすることにより、前記ボールイメージ上の最も輝度値の高い点の反対側のシェード 領域が前記フィッティングに含まれるようにするステップと、
前記フィッティングされたイメージの中心点の座標を抽出するステップと、を含む、センシング処理方法。
In a sensing processing method for acquiring and analyzing an image of a ball moving under a predetermined illumination,
A ball image is extracted from the acquired image, a point having the highest luminance value of the extracted ball image is extracted, and a direction of illumination with respect to the moving ball is determined based on the point having the highest luminance value. Estimating, and
By fitting to the shape of the ball along the estimated illumination direction with the side receiving the illumination of the ball image as a reference, a shade region on the opposite side of the point having the highest luminance value on the ball image is included in the fitting. Steps to be included ,
Extracting the coordinates of the center point of the fitted image.
前記照明の方向を推定するステップは、
前記ボールイメージ上の全てのピクセルのうち、輝度値が最も高い地点である第1ポイントを抽出するステップと、
前記第1ポイントを中心に前記ボールイメージの外郭まで最短距離をなす地点である第2ポイントを抽出するステップと、
前記第1ポイントと前記第2ポイントを連結したラインが前記ボールイメージに対する照明方向の軸として設定されるステップと、を含むことを特徴とする、請求項に記載のセンシング処理方法。
Estimating the direction of the illumination comprises:
Extracting a first point that is a point having the highest luminance value among all the pixels on the ball image;
Extracting a second point which is a point having the shortest distance from the first point to the outline of the ball image;
The sensing processing method according to claim 6 , further comprising: setting a line connecting the first point and the second point as an axis of an illumination direction with respect to the ball image.
前記第1ポイントを抽出するステップは、
前記ボールイメージ上の全てのピクセルのうち、輝度値が最も高いピクセルをチェックするステップと、
前記チェックされた少なくとも一つのピクセルに対する重心を計算することにより、前記第1ポイントを算出するステップと、を含むことを特徴とする、請求項7に記載のセンシング処理方法。
Extracting the first point comprises:
Checking the pixel having the highest luminance value among all the pixels on the ball image;
The sensing processing method according to claim 7, further comprising: calculating the first point by calculating a centroid for the checked at least one pixel.
前記第2ポイントを抽出するステップは、
前記ボールイメージに対して前記第1ポイントを中心に360゜ラインスキャンを行うステップと、
前記第1ポイントと前記ボールイメージの外郭を連結する最も短い距離に該当する地点を前記第2ポイントとして抽出するステップと、を含むことを特徴とする、請求項7または8に記載のセンシング処理方法。
Extracting the second point comprises:
Performing a 360 ° line scan around the first point with respect to the ball image;
The method according to claim 7, further comprising: extracting, as the second point, a point corresponding to the shortest distance connecting the first point and the outline of the ball image. .
前記フィッティングするステップは、
前記推定された照明方向を基準に前記ボールイメージの特定の位置に、予め設定されたまたは前記ボールイメージを通じて測定された直径の半円カーブを形成させるステップと、
前記半円カーブに対する反対側の半円を前記直径に基づいてフィッティングするステップとを含むことを特徴とする、請求項6から9の何れか1項に記載のセンシング処理方法。
The fitting step includes
Forming a semi-circular curve of a diameter set in advance or measured through the ball image at a specific position of the ball image with respect to the estimated illumination direction;
The method according to claim 6, further comprising: fitting a semicircle on the opposite side to the semicircular curve based on the diameter.
前記半円カーブを形成させるステップは、
前記推定された照明方向に基づく照明方向の軸を抽出するステップと、
前記照明方向の軸が垂直になるように前記ボールイメージを回転させるステップと、
前記半円カーブを前記照明方向の軸に沿って前記ボールイメージに移動させながら、前記半円カーブ上のピクセル値の和をチェックするステップと、
前記チェックされるピクセル値の和が設定値以上に変化する位置に前記半円カーブを位置させるステップとを含むことを特徴とする、請求項10に記載のセンシング処理方法。
The step of forming the semicircular curve includes:
Extracting an axis of illumination direction based on the estimated illumination direction;
Rotating the ball image so that the illumination direction axis is vertical;
Checking the sum of pixel values on the semi-circular curve while moving the semi-circular curve along the illumination direction axis to the ball image;
The sensing processing method according to claim 10, further comprising: positioning the semicircular curve at a position where a sum of the pixel values to be checked changes to a set value or more.
前記半円カーブを形成させるステップは、
前記ボールイメージを分析して前記ボールイメージの直径を測定するステップ、及び前記測定された直径に基づく半円カーブを形成させるステップを含み、
前記フィッティングするステップは、
前記測定された直径に基づいて前記形成された半円カーブの反対側の半円をフィッティングすることを特徴とする、請求項10に記載のセンシング処理方法。
The step of forming the semicircular curve includes:
Analyzing the ball image to measure a diameter of the ball image, and forming a semicircular curve based on the measured diameter;
The fitting step includes
11. The sensing processing method according to claim 10, wherein a semicircle opposite to the formed semicircular curve is fitted based on the measured diameter.
前記ボールイメージの直径を測定するステップは、
前記推定された照明方向に基づく照明方向の軸を抽出するステップと、
前記照明方向の軸が垂直になるように前記ボールイメージを回転させるステップと、
前記垂直に回転した照明方向の軸に沿って、前記ボールイメージに対して水平ラインスキャンを行うステップと、
前記水平ラインのうち、前記ボールイメージの外郭と会う二つの地点を連結する長さが最も長い時の前記二つの地点間の長さを、前記ボールイメージの直径として推定するステップとを含むことを特徴とする、請求項12に記載のセンシング処理方法。
Measuring the diameter of the ball image comprises:
Extracting an axis of illumination direction based on the estimated illumination direction;
Rotating the ball image so that the illumination direction axis is vertical;
Performing a horizontal line scan on the ball image along the vertically rotated illumination direction axis;
Estimating the length between the two points of the horizontal line when the length connecting the two points meeting the outline of the ball image is the longest as the diameter of the ball image. The sensing processing method according to claim 12, wherein the sensing processing method is characterized.
ゴルファーにより打撃されて運動するゴルフボールに対する多重露出イメージを取得するカメラ装置及びストロボ照明装置を含むセンサ部と、
前記取得されたイメージからゴルフボールのイメージを抽出して、前記抽出されたボールイメージの最も輝度値の高い点を抽出して前記最も輝度値の高い点をもとに前記ゴルフボールに対する前記ストロボ照明装置の方向を推定する照明方向推定手段、及び前記推定された照明方向に沿って前記ゴルフボールイメージの照明を受ける側を基準としてゴルフボールの形状にフィッティングすることにより、前記ボールイメージ上の最も輝度値の高い点の反対側のシェード領域が前記フィッティングに含まれるようにして前記フィッティングされたイメージの中心点の座標を抽出するイメージ処理手段を含むセンシング処理部と、
前記中心点の座標の変化を計算することにより、運動するゴルフボールに対する物理情報を算出してゴルフボールの軌跡をシミュレーションするシミュレータと、を含む、仮想ゴルフシミュレーション装置。
A sensor unit including a camera device and a strobe lighting device for acquiring a multiple exposure image of a golf ball that is struck and moved by a golfer;
An image of a golf ball is extracted from the acquired image, a point with the highest luminance value of the extracted ball image is extracted, and the strobe illumination for the golf ball is based on the point with the highest luminance value illuminating direction estimating means for estimating the direction of the device, and by fitting to the shape of the golf ball relative to the side receiving the illumination of said estimated the golf ball image along the illumination direction, the brightest on the ball image A sensing processing unit including image processing means for extracting a coordinate of a center point of the fitted image so that a shade region opposite to a point having a high value is included in the fitting;
A virtual golf simulation apparatus comprising: a simulator that calculates physical information about a moving golf ball by simulating a change in coordinates of the center point and simulates a trajectory of the golf ball.
JP2013518250A 2010-06-29 2011-06-29 Sensing processing device for moving ball, sensing processing method, and virtual golf simulation device using the same Active JP5626939B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2010-0062200 2010-06-29
KR1020100062207A KR101019829B1 (en) 2010-06-29 2010-06-29 Sensing processing device and method for moving object, and virtual golf simulation device using the same
KR10-2010-0062207 2010-06-29
KR1020100062200A KR101019902B1 (en) 2010-06-29 2010-06-29 Sensing processing device and method for moving object, and virtual golf simulation device using the same
PCT/KR2011/004759 WO2012002732A2 (en) 2010-06-29 2011-06-29 Sensing processing device and method for moving ball and virtual golf simulation device using the same

Publications (2)

Publication Number Publication Date
JP2013535715A JP2013535715A (en) 2013-09-12
JP5626939B2 true JP5626939B2 (en) 2014-11-19

Family

ID=45402567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013518250A Active JP5626939B2 (en) 2010-06-29 2011-06-29 Sensing processing device for moving ball, sensing processing method, and virtual golf simulation device using the same

Country Status (3)

Country Link
JP (1) JP5626939B2 (en)
CN (1) CN103079651B (en)
WO (1) WO2012002732A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7250517B2 (en) 2015-12-09 2023-04-03 ケメット エレクトロニクス コーポレーション Bulk MLCC capacitor module

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105288982B (en) * 2014-07-23 2018-02-23 黄详龙 The motion state measure device of golf
KR101723432B1 (en) * 2015-06-12 2017-04-18 주식회사 골프존 Device for sensing moving ball and method for the same
JP6606930B2 (en) * 2015-09-04 2019-11-20 株式会社プロギア Imaging device
KR101850139B1 (en) * 2016-06-29 2018-04-19 주식회사 크리에이츠 Method, system and non-transitory computer-readable recording medium for compensating brightness of ball images
CN111355898B (en) * 2019-12-02 2021-12-24 联想(北京)有限公司 Method for obtaining photo by photographing and electronic equipment
KR102483474B1 (en) * 2020-01-16 2023-01-02 주식회사 크리에이츠 Method, system, and non-transitory computer-readable recording medium for measuring ball spin
CA3164629A1 (en) 2020-01-16 2021-07-22 Yong Ho Suk Method, system, and non-transitory computer-readable recording medium for measuring spin of ball
CN211959311U (en) * 2020-01-21 2020-11-17 神盾股份有限公司 Image scanning device
CN111816579B (en) * 2020-07-10 2023-04-07 英特尔产品(成都)有限公司 Method and apparatus for detecting chips contaminated with flux residue

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11304589A (en) * 1998-04-22 1999-11-05 Toppan Printing Co Ltd Ambient light measuring system
JP4213807B2 (en) * 1999-03-19 2009-01-21 Sriスポーツ株式会社 Ball trajectory measuring device
JP2001264016A (en) * 2000-03-15 2001-09-26 Sumitomo Rubber Ind Ltd Motion-measuring instrument for ball
JP3778427B2 (en) * 2001-04-26 2006-05-24 株式会社フォトロン Hitting ball diagnostic system
WO2003067524A2 (en) * 2002-02-07 2003-08-14 Accu-Sport International, Inc. Determining parameters of a golf shot by image analysis
JP4466133B2 (en) * 2004-03-09 2010-05-26 横浜ゴム株式会社 Moving body measuring device
JP2005291824A (en) * 2004-03-31 2005-10-20 Yokohama National Univ Flying behavior measuring apparatus of flying object, and flying behavior measuring method of flying object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7250517B2 (en) 2015-12-09 2023-04-03 ケメット エレクトロニクス コーポレーション Bulk MLCC capacitor module

Also Published As

Publication number Publication date
JP2013535715A (en) 2013-09-12
WO2012002732A2 (en) 2012-01-05
CN103079651B (en) 2016-01-20
CN103079651A (en) 2013-05-01
WO2012002732A3 (en) 2012-04-26

Similar Documents

Publication Publication Date Title
JP5626939B2 (en) Sensing processing device for moving ball, sensing processing method, and virtual golf simulation device using the same
US11033826B2 (en) Methods and systems for sports simulation
US10058733B2 (en) Sports simulator and simulation method
KR101019823B1 (en) Apparatus and method for sensing moving object and virtual golf simulation device using the same
KR20180095588A (en) Method and apparatus for motion analysis of sports apparatus
JP6898415B2 (en) Methods, systems and computer programs for measuring ball rotation
JP5572853B2 (en) Sensing device for moving object, sensing processing method, and virtual golf simulation device using the same
KR101019829B1 (en) Sensing processing device and method for moving object, and virtual golf simulation device using the same
KR101019902B1 (en) Sensing processing device and method for moving object, and virtual golf simulation device using the same
KR101019801B1 (en) Apparatus and method for sensing moving object and virtual golf simulation device using the same
KR101019782B1 (en) Sensing processing device and method for moving object, and virtual golf simulation device using the same
CA3042375C (en) Sensing device for calculating information on golf shot of user and sensing method using the same
KR101019824B1 (en) Apparatus and method for sensing moving object and virtual golf simulation device using the same
KR101019798B1 (en) Apparatus and method for sensing moving object and virtual golf simulation device using the same
KR102567201B1 (en) A console-type golf simulation system using two cameras
WO2012002733A2 (en) Sensing device and sensing processing method for moving object and virtual golf simulation device using the same
KR20160139958A (en) Method and apparatus for sensing golf ball state

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140925

R150 Certificate of patent or registration of utility model

Ref document number: 5626939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250