[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101913667B1 - Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same - Google Patents

Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same Download PDF

Info

Publication number
KR101913667B1
KR101913667B1 KR1020160161943A KR20160161943A KR101913667B1 KR 101913667 B1 KR101913667 B1 KR 101913667B1 KR 1020160161943 A KR1020160161943 A KR 1020160161943A KR 20160161943 A KR20160161943 A KR 20160161943A KR 101913667 B1 KR101913667 B1 KR 101913667B1
Authority
KR
South Korea
Prior art keywords
image
swing
user
golf
inertial sensor
Prior art date
Application number
KR1020160161943A
Other languages
Korean (ko)
Other versions
KR20180062069A (en
Inventor
반성범
황세현
고경리
Original Assignee
조선대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 조선대학교산학협력단 filed Critical 조선대학교산학협력단
Priority to KR1020160161943A priority Critical patent/KR101913667B1/en
Publication of KR20180062069A publication Critical patent/KR20180062069A/en
Application granted granted Critical
Publication of KR101913667B1 publication Critical patent/KR101913667B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0087Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템 및 이를 이용한 골프 스윙 분석 방법에 관한 것으로서, 상기 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템은 골프 스윙을 하는 사용자에 대한 깊이 영상을 촬영하는 뎁스 카메라와, 상기 사용자의 골프 스윙을 촬영하는 고프레임 카메라와, 골프 스윙시 사용자 손의 위치를 감지하기 위해 사용자의 손에 장착된 관성센서와, 상기 뎁스 카메라를 통해 획득된 깊이 영상을 토대로 사용자의 자세정보를 산출하는 자세 산출부와, 상기 고프레임 카메라로부터 촬영된 스윙 영상으로부터 사용자가 파지하는 골프 클럽의 움직임을 검출하는 클럽 산출부와, 상기 관성센서를 통해 측정된 감지정보를 토대로 스윙시 상기 사용자의 손의 움직임을 산출하는 핸드 산출부를 구비한다.
본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템 및 이를 이용한 골프 스윙 분석 방법은 골프 스윙시 사용자의 손을 추적할 수 있도록 관성센서가 마련되고, 뎁스 카메라를 통해 획득한 깊이영상을 토대로 사용자의 스윙시 자세를 분석하고, 고프레임 카메라를 통해 스윙시 골프 클럽의 움직임을 감지할 수 있으므로 골프 스윙에 대한 보다 정확한 분석 결과를 획득할 수 있다는 장점이 있다.
The present invention relates to a golf swing analysis system using a multi-camera and a single inertial sensor, and a golf swing analysis method using the multi-camera and the single inertia sensor. The golf swing analysis system using the multi- An inertia sensor mounted on a user's hand for sensing a position of a user's hand during a golf swing, a depth camera for detecting a depth image obtained through the depth camera, A club calculating unit for detecting a motion of a golf club held by a user from a swing image photographed by the high frame camera; and a control unit for controlling the golf club based on the sensed information measured through the inertial sensor A hand calculator for calculating a motion of the user's hand at the time of swing The rain.
The golf swing analysis system using the multiple cameras and the single inertial sensor and the golf swing analysis method using the multiple cameras and the single inertial sensor according to the present invention is characterized in that an inertial sensor is provided to track a user's hand during a golf swing, The golfer can analyze the posture of the user during the swing, and can detect the movement of the golf club during the swing through the high frame camera, thereby obtaining a more accurate analysis result of the golf swing.

Description

다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템 및 이를 이용한 골프 스윙 분석 방법{Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same}[0001] The present invention relates to a golf swing analysis system using multiple cameras and a single inertial sensor, and a golf swing analysis method using the same.

본 발명은 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템 및 이를 이용한 골프 스윙 분석 방법에 관한 것으로서, 뎁스 카메라, 고프레임 카메라 및 사용자의 손에 장착된 관성센서를 통해 획득한 데이터를 토대로 사용자의 골프 스윙을 분석하는 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템 및 이를 이용한 골프 스윙 분석 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a golf swing analysis system using multiple cameras and a single inertial sensor, and a golf swing analysis method using the system. The present invention relates to a golf swing analysis system using a multi-camera and a single inertial sensor for analyzing a golf swing, and a golf swing analysis method using the same.

골프란 코스 위에 정지해 있는 볼을 골프 클럽으로 쳐서 정해진 홀에 넣어 그 때까지 소용된 타수의 많고 적음으로 우열을 겨루는 경기이다. 골프 스윙을 잘하기 위해서는 다양한 골프 동작에 대해 이해가 필요하며 잘못된 자세에 대한 숙지 및 예방이 필요하다.Golf is a game in which a ball stopped on the course is hit by a golf club and placed in a designated hole, and competes with many more and fewer used balls. In order to be good at golf swing, it is necessary to understand various golf movements and to know and prevent wrong postures.

골프 스윙의 연습에 있어서 어드레스(address)부터 백스윙(back swing), 다운스윙(down swing), 임팩트(impact) 및 피니쉬(finish)에 이르기까지 각 동작이 정확하게 구현이 되어야만 비로소 좋은 골프 스윙이 나올수 있다. 이와 같은 좋은 골프 스윙을 위해서는 자신의 골프 스윙에 대한 전문가의 정확한 분석을 토대로 꾸준한 연습과 분석 결과를 바탕으로 한 교정을 반복적으로 수행하여야 한다.In golf swing practice, a good golf swing can only be achieved if each action is implemented correctly, from address to back swing, down swing, impact and finish. . In order to achieve such a good golf swing, it is necessary to repeatedly perform the calibration based on the analysis and the steady practice based on the accurate analysis of the professional golf swing.

현재 기록 향상 및 자세교정을 위한 각종 자세 분석 시뮬레이션 시스템에 대한 연구가 활발히 진행되고 있다.Researches on various posture analysis simulation systems for improvement of current record and posture correction are being actively carried out.

종래에 사용되는 분석 시스템으로서, 카메라를 이용한 2D 분석의 경우에는 대상자의 정면 또는 측면에 카메라를 위치시키고 스윙 진행 모습을 영상으로 저장한 이후에 전문가에 의해 분석된다. 이러한 경우, 스포츠 동작을 인간의 눈으로 평가하고 분석하는 것은 사람의 주관에 따라 크게 달라질 수 있으며, 영상 내에 나타나지 않는 관절에 대해서는 분석이 어려운 단점이 있다. As a conventional analysis system, in the case of a 2D analysis using a camera, a camera is placed on the front or side of a subject, and the state of swing progress is stored as an image, and then analyzed by an expert. In such a case, evaluation and analysis of the sports action with the human eye can be largely changed according to the subjectivity of the human being, and there is a disadvantage that it is difficult to analyze the joints that do not appear in the image.

또한, 이러한 2차원적 분석의 단점을 해결하기 위해, 최근에는 여러 가지 방식의 센서를 이용한 모션 분석 시스템에 관한 연구가 활발히 이루어지고 있다. 그러나 인체의 모션을 취득하기 위해서는 최소 15개 이상의 센서를 몸에 부착해야하는 불편함이 있다.In addition, in order to solve the disadvantages of such a two-dimensional analysis, researches on a motion analysis system using sensors of various types are actively conducted. However, in order to acquire the motion of the human body, it is inconvenient to attach at least 15 sensors to the body.

공개특허공보 제10-2014-0044754호: 골프스윙 해석장치 및 골프스윙 해석방법Open Patent Publication No. 10-2014-0044754: Golf swing analysis device and golf swing analysis method

본 발명은 상기와 같은 문제점을 개선하기 위해 창안된 것으로서, 골프 스윙시 사용자의 손을 추적할 수 있도록 관성센서가 마련되고, 뎁스 카메라를 통해 획득한 깊이영상을 토대로 사용자의 스윙시 자세를 분석하고, 고프레임 카메라를 통해 스윙시 골프 클럽의 움직임을 감지할 수 있는 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템 및 이를 이용한 골프 스윙 분석 방법을 제공하는데 그 목적이 있다. SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and an inertial sensor is provided to track a user's hand during a golf swing, and the user's swing posture is analyzed based on a depth image acquired through a depth camera And an object of the present invention is to provide a golf swing analysis system using a multi-camera and a single inertial sensor capable of detecting the movement of a golf club during a swing through a high frame camera, and a golf swing analysis method using the same.

상기 목적을 달성하기 위한 본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템은 골프 스윙을 하는 사용자에 대한 깊이 영상을 촬영하는 뎁스 카메라와, 상기 사용자의 골프 스윙을 촬영하는 고프레임 카메라와, 골프 스윙시 사용자 손의 위치를 감지하기 위해 사용자의 손에 장착된 관성센서와, 상기 뎁스 카메라를 통해 획득된 깊이 영상을 토대로 사용자의 자세정보를 산출하는 자세 산출부와, 상기 고프레임 카메라로부터 촬영된 스윙 영상으로부터 사용자가 파지하는 골프 클럽의 움직임을 검출하는 클럽 산출부와, 상기 관성센서를 통해 측정된 감지정보를 토대로 스윙시 상기 사용자의 손의 움직임을 산출하는 핸드 산출부를 구비According to an aspect of the present invention, there is provided a golf swing analysis system using a multi-camera and a single inertial sensor, including a depth camera for photographing a depth image of a user who performs a golf swing, An inertial sensor mounted on the user's hand for sensing the position of the user's hand during a golf swing, an attitude calculator for calculating attitude information of the user based on the depth image acquired through the depth camera, And a hand calculator for calculating the motion of the user's hand during the swing based on the sensed information measured through the inertial sensor

상기 자세 산출부는 상기 뎁스 카메라로부터 획득한 깊이 영상을 토대로 스켈레톤 영상을 생성하고, 생성된 스켈레톤 영상에서 사용자의 각 관절에 대응되는 좌표를 추출하는 스켈레톤 영상 생성부와, 상기 스켈레톤 영상 생성부를 통해 추출된 좌표들 중 사용자의 어깨 및 양발의 좌표를 추출하는 좌표 추출부와, 상기 좌표 추출부를 통해 추출된 사용자의 어깨 및 양발의 좌표를 토대로 사용자의 어깨 기울기 및 양발의 스탠스 상태를 산출하는 상태검출부를 구비한다. The attitude calculation unit may include a skeleton image generation unit that generates a skeleton image based on the depth image acquired from the depth camera and extracts coordinates corresponding to each joint of the user from the generated skeleton image, A coordinate extracting unit for extracting coordinates of a user's shoulders and feet from the coordinates and a state detecting unit for calculating a shoulder inclination of the user and a stance state of the feet based on the coordinates of the user's shoulders and feet extracted through the coordinate extracting unit do.

상기 상태검출부는 양발의 스탠스 상태로서, 사용자의 양발의 좌우 폭 및 양발의 전후방향 이격거리를 산출하는 것이 바람직하다. It is preferable that the state detecting section calculates the left and right widths of the user's feet and the front and back distance of the feet in a stance state of both feet.

상기 관성센서는 골프 스윙에 따라 발생하는 사용자 손의 3축 가속도 값 및 3축 각속도 값을 측정하고, 상기 핸드 산출부는 상기 관성센서로부터 측정된 사용자 손의 3축 가속도 값을 토대로 사용자 손의 이동궤적을 산출한다. Wherein the inertial sensor measures a three-axis acceleration value and a three-axis angular velocity value of a user's hand generated according to a golf swing, and the hand calculation unit calculates a three-axis acceleration value of the user's hand, .

상기 관성센서는 골프 스윙에 따라 발생하는 사용자 손의 3축 가속도 값을 측정하고, 본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템은 상기 관성센서를 통해 측정된 감지정보를 토대로 스윙 시작시점, 상기 골프클럽이 골프공을 타격하는 타격시점 및 상기 스윙 시작시점과 타격시점 사이에 상기 골프클럽의 헤드가 최상측에 위치하는 탑 오브 스윙(top of swing) 시점을 산출하는 시점 산출부를 더 구비할 수도 있다. The inertial sensor measures the three-axis acceleration value of the user's hand generated in accordance with the golf swing, and the golf swing analysis system using the multiple cameras and the single inertial sensor according to the present invention detects the swing based on the sensing information measured through the inertial sensor, A time calculating unit for calculating a top of swing time at which the head of the golf club is located at the top of the swing start point and the swing starting point, .

상기 시점 산출부는 사용자의 골프 스윙에 따라 발생하는 상기 관성센서의 3축 가속도 값을 SVM(Signal Vector Magnitude) 알고리즘을 이용하여 에너지로 변환하는 에너지 변환부와, 상기 에너지 변환부를 통해 변환된 에너지 값을 토대로 상기 스윙 시작시점, 탑 오브 스윙 시점 및 타격시점을 판별하는 판별부를 구비한다. The point calculator includes an energy converter for converting a three-axis acceleration value of the inertial sensor generated according to a golf swing of a user into energy using a SVM (Signal Vector Magnitude) algorithm, and an energy conversion unit for converting the energy value converted through the energy converter A swing start point, a top of swing point, and a hit point.

상기 판별부는 상기 에너지 변환부를 통해 변환된 에너지 값이 기설정된 기준값에서 상기 기준값을 초과하는 시점을 상기 스윙 시작시점으로 판별하고, 상기 스윙 시작시점 이후에 상기 에너지 값이 상기 기준값 이하가 되는 시점을 상기 탑 오브 스윙 시점으로 판별하고, 상기 탑 오브 스윙 시점 이후에 상기 에너지 값이 최대값이 되는 시점을 상기 타격시점으로 판별할 수도 있다. Wherein the determination unit determines that the energy value converted through the energy conversion unit exceeds the reference value at a preset reference value as the swing start point, and when the energy value becomes equal to or less than the reference value after the swing start point, A time point at which the energy value reaches a maximum value after the top of swing time may be determined as the hit point.

한편, 본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템은 상기 시점 산출부를 통해 산출된 각 시점 정보를 토대로, 상기 스윙시작시점부터 상기 탑 오브 스윙 시점까지의 경과시간과 상기 탑 오브 스윙 시점부터 상기 타격시점까지의 경과시간의 비를 산출하는 스윙 템포 산출부를 더 구비할 수도 있다. Meanwhile, the golf swing analysis system using the multi-camera and the single inertia sensor according to the present invention calculates the time elapsed from the swing start point to the top of swing point to the top of swing point based on each point of view information calculated through the point- And a swing tempo calculation unit for calculating a ratio of an elapsed time from the swing time to the shot time.

상기 클럽 산출부는 상기 고프레임 카메라를 통해 획득한 스윙영상에서 현재 프레임의 영상인 기준영상과, 상기 기준영상의 이전 프레임의 영상인 제1이전영상의 차이를 이용하여 차영상을 생성하는 제1차영상 생성부와, 상기 스윙 영상에서 상기 제1이전영상과, 상기 제1이전영상의 이전 프레임의 영상인 제2이전영상의 차이를 이용하여 차영상을 생성하는 제2차영상 생성부와, 상기 제1 및 제2차영상 생성부를 통해 생성된 차영상들에서 상호 중첩되는 부분을 검출하여 분석영상을 생성하는 분석영상 생성부와, 상기 분석영상 생성부에서 생성된 분석영상에서 상기 골프 클럽의 샤프트 또는 헤드를 검출하는 이미지 검출부를 구비한다. Wherein the club calculating unit calculates a difference between a reference image which is a video of a current frame in a swing image obtained through the high frame camera and a first previous image which is an image of a previous frame of the reference image, A second image generating unit for generating a difference image using the difference between the first previous image and the second previous image, which is a previous frame of the first previous image, in the swing image; An analysis image generating unit for detecting an overlapping portion of the difference images generated through the first and second difference image generators to generate an analysis image; Or an image detecting section for detecting the head.

상기 클럽 산출부는 상기 분석영상 생성부를 통해 생성된 상기 분석영상의 잡음을 제거할 수 있도록 필터링하기 위해 상기 분석영상에 모폴로지(morphology) 연산을 적용하는 잡음제거부를 더 구비할 수도 있다. The club calculating unit may further include a noise removing unit for applying a morphology operation to the analysis image so as to remove noise of the analysis image generated through the analysis image generating unit.

상기 이미지 검출부는 허프변환(Hough Transform)을 이용하여 상기 분석영상에서 상기 골프 클럽을 검출하고, 검출된 상기 골프 클럽에서 상기 헤드의 오검출을 방지하기 위해 커브피팅을 수행하는 것이 바람직하다. Preferably, the image detecting unit detects the golf club in the analysis image using a Hough Transform, and performs curve fitting to prevent erroneous detection of the head in the detected golf club.

한편, 본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 방법은 뎁스 카메라로부터 골프 스윙을 수행하는 사용자에 대한 깊이 영상을 획득하는 깊이 영상 획득단계와, 상기 골프 스윙 시 사용자의 손에 장착된 관성센서의 감지정보를 획득하는 센서 정보 획득단계와, 고프레임 카메라로부터 상기 골프 스윙시 사용자의 스윙에 대한 스윙 영상을 획득하는 스윙 영상 획득단계와, 상기 깊이 영상 획득단계를 통해 획득한 깊이 영상을 토대로 사용자의 자세정보를 산출하는 자세 정보 산출단계와, 상기 센서 정보 획득단계를 통해 획득한 상기 관성센서의 감지정보를 토대로 골프 스윙시 사용자의 손의 움직임을 산출하는 핸드 정보 산출단계와, 상기 스윙 영상 획득단계를 통해 획득한 스윙영상을 토대로 골프스윙시 사용자가 파지한 골프클럽의 샤프트 또는 헤드의 움직임을 산출하는 클럽 정보 산출단계를 포함한다. Meanwhile, a golf swing analysis method using a multi-camera and a single inertial sensor according to the present invention includes a depth image acquiring step of acquiring a depth image for a user performing a golf swing from a depth camera, A swing image acquiring step of acquiring a swing image of the user's swing during the golf swing from the high frame camera; A hand information calculating step of calculating a motion of a user's hand in a golf swing based on the sensed information of the inertia sensor acquired through the sensor information acquiring step, Based on the swing image acquired through the swing image acquisition step, And a club information calculation step of calculating the profile of the shaft or club head movements.

상기 관성센서는 골프 스윙에 따라 발생하는 사용자 손의 3축 가속도 값을 측정하는 것이 바람직하다. Preferably, the inertial sensor measures a three-axis acceleration value of a user's hand caused by a golf swing.

본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 방법은 상기 관성센서를 통해 측정된 감지정보를 토대로 스윙 시작시점, 상기 골프클럽 헤드가 골프공을 타격하는 타격시점 및 상기 스윙 시작시점과 타격시점 사이에 상기 골프클럽 헤드가 최상측에 위치하는 탑 오브 스윙(top of swing) 시점을 산출하는 시점 산출단계를 더 포함한다. The golf swing analysis method using the multiple cameras and the single inertial sensor according to the present invention is characterized in that the golf swing start point, the swing start point, and the swing start point are determined based on the sensed information measured through the inertial sensor, And a time calculating step of calculating a top of swing time point at which the golf club head is located at the top side between the hit points.

상기 시점 산출단계는 사용자의 골프 스윙에 따라 발생하는 상기 관성센서의 3축 가속도 값을 SVM(Signal Vector Magnitude) 알고리즘을 이용하여 에너지로 변환하는 에너지 변환단계와, 상기 에너지 변환단계를 통해 변환된 사용자의 골프 스윙에 따른 에너지 값에 따라 상기 스윙 시작시점, 탑 오브 스윙 시점 및 타격시점을 판별하는 판별단계를 구비한다. The point calculation step may include an energy conversion step of converting the three-axis acceleration value of the inertial sensor generated according to the golf swing of the user into energy using a SVM (Signal Vector Magnitude) algorithm, The swing start point, the top of swing point, and the batting point in accordance with the energy value of the golf swing of the golf swing.

상기 판별단계에서, 상기 에너지 변환단계를 통해 변환된 에너지 값이 기설정된 기준값에서 상기 기준값을 초과하는 시점을 상기 스윙 시작시점으로 판별하고, 상기 스윙 시작시점 이후에 상기 에너지 값이 상기 기준값 이하가 되는 시점을 상기 탑 오브 스윙 시점으로 판별하고, 상기 탑 오브 스윙 시점 이후에 상기 에너지 값이 최대값이 되는 시점을 상기 타격시점으로 판별하는 것이 바람직하다. Wherein the determining step determines the time when the energy value converted through the energy conversion step exceeds the reference value at a preset reference value as the swing start time and the energy value is less than the reference value after the swing start time It is preferable to determine the time point as the top of swing time point and to determine the time point at which the energy value becomes the maximum value after the top of swing time point as the hit point.

한편, 본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 방법은 상기 시점 산출단계를 통해 산출된 각 시점 정보를 토대로, 상기 스윙시작시점부터 상기 탑 오브 스윙 시점까지의 경과시간과 상기 탑 오브 스윙 시점부터 상기 타격시점까지의 경과시간의 비를 산출하는 스윙 템포 산출단계를 더 포함할 수도 있다. Meanwhile, the golf swing analysis method using the multi-camera and the single inertia sensor according to the present invention may further include a step of calculating the time elapsed from the swing start point to the top of swing point, And a swing tempo calculating step of calculating a ratio of an elapsed time from the time of swing to the time of hitting.

상기 자세 정보 산출단계는 상기 뎁스 카메라로부터 획득한 깊이 영상을 토대로 스켈레톤 영상을 생성하고, 생성된 스켈레톤 영상에서 사용자의 각 관절에 대응되는 좌표를 추출하는 스켈레톤 영상 생성단계와, 상기 스켈레톤 영상 생성단계를 통해 추출된 좌표들 중 사용자의 어깨 및 양발의 좌표를 추출하는 좌표 추출단계와, 상기 좌표 추출단계를 통해 추출된 사용자의 어깨 및 양발의 좌표를 토대로 사용자의 어깨 기울기 및 양발의 스탠스 상태를 산출하는 상태검출단계를 구비한다. Wherein the attitude information calculation step includes a skeleton image generation step of generating a skeleton image based on the depth image acquired from the depth camera and extracting coordinates corresponding to each joint of the user from the generated skeleton image, Extracting coordinates of a user's shoulders and feet from the coordinates extracted through the coordinate extracting step, and calculating a stance state of the user's shoulder inclination and both feet based on coordinates of a user's shoulder and feet extracted through the coordinate extracting step And a state detecting step.

상기 클럽 정보 산출단계는 상기 고프레임 카메라를 통해 획득한 스윙영상에서 현재 프레임의 영상인 기준영상과, 상기 기준영상의 이전 프레임의 영상인 제1이전영상의 차이를 이용하여 차영상을 생성하는 제1차영상 생성단계와, 상기 스윙 영상에서 상기 제1이전영상과, 상기 제1이전영상의 이전 프레임의 영상인 제2이전영상의 차이를 이용하여 차영상을 생성하는 제2차영상 생성단계와, 상기 제1 및 제2차영상 생성단계를 통해 생성된 차영상들에서 상호 중첩되는 부분을 검출하여 분석영상을 생성하는 분석영상 생성단계와, 상기 분석영상 생성단계에서 생성된 분석영상에서 골프 클럽의 샤프트 또는 골프 클럽의 헤드를 검출하는 이미지 검출단계를 구비한다. The club information calculation step may include a step of generating a difference image using the difference between the reference image, which is the image of the current frame, and the first previous image, which is the image of the previous frame of the reference image, A second image generation step of generating a difference image using the difference between the first previous image and the second previous image, which is a previous frame of the first previous image, in the swing image; An analysis image generation step of detecting an overlapping part of the difference images generated through the first and second difference image generation steps to generate an analysis image; And a head of the golf club.

상기 클럽 정보 산출단계는 상기 분석영상 생성단계를 통해 생성된 분석영상에서 잡음을 제거하기 위해 상기 분석영상에 모폴로지(morphology) 연산을 적용하는 잡음제거단계를 더 포함할 수도 있다. The club information calculating step may further include a noise removing step of applying a morphology operation to the analysis image to remove noise from the analysis image generated through the analysis image generating step.

상기 이미지 검출단계에서, 허프변환(Hough Transform)을 이용하여 상기 분석영상에서 상기 골프 클럽을 검출하고, 검출된 상기 골프 클럽에서 골프 클럽의 헤드부분의 오검출을 방지하기 위해 커브피팅을 수행하는 것이 바람직하다. In the image detection step, it is possible to detect the golf club in the analysis image using a Hough Transform, and perform curve fitting to prevent erroneous detection of the head part of the golf club in the detected golf club desirable.

본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템 및 이를 이용한 골프 스윙 분석 방법은 골프 스윙시 사용자의 손을 추적할 수 있도록 관성센서가 마련되고, 뎁스 카메라를 통해 획득한 깊이영상을 토대로 사용자의 스윙시 자세를 분석하고, 고프레임 카메라를 통해 스윙시 골프 클럽의 움직임을 감지할 수 있으므로 골프 스윙에 대한 보다 정확한 분석 결과를 획득할 수 있다는 장점이 있다. The golf swing analysis system using the multiple cameras and the single inertial sensor and the golf swing analysis method using the multiple cameras and the single inertial sensor according to the present invention is characterized in that an inertial sensor is provided to track a user's hand during a golf swing, The golfer can analyze the posture of the user during the swing, and can detect the movement of the golf club during the swing through the high frame camera, thereby obtaining a more accurate analysis result of the golf swing.

도 1은 본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템에 대한 개념도이고,
도 2는 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템에 대한 블럭도이고,
도 3은 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 자세 산출부에 대한 블럭도이고,
도 4는 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 시점 산출부에 대한 블럭도이고,
도 5는 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 클럽 산출부에 대한 블럭도이고,
도 6은 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 스켈레톤 영상 생성부에 의해 생성된 좌표가 표시된 스켈레톤 영상에 대한 예시이고,
도 7은 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 상태검출부에 의해 검출된 결과에 대한 사진 및 그래프이고,
도 8은 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 핸드 산출부에 의해 산출된 손의 궤적에 대한 그래프이고,
도 9는 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 에너지 변환부에 의해 변환된 에너지 값에 대한 그래프이고,
도 10은 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 제1차영상 생성부, 제2차영상 생성부 및 분석영상 생성부에 의해 생성된 영상이고,
도 11은 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 잡음제거부에 의해 잡음이 제거된 분석영상이고,
도 12는 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 이미지 검출부가 분석영상에서 케니 에지 검출한 영상이고,
도 13은 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 이미지 검출부가 분석영상에서 케니 에지 검출한 영상이고,
도 14는 도 1의 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템의 이미지 검출부를 통해 검출된 골프클럽의 궤적을 나타낸 그래프이다.
1 is a conceptual diagram of a golf swing analysis system using a multi-camera and a single inertial sensor according to the present invention,
FIG. 2 is a block diagram of a golf swing analysis system using the multi-camera and single inertial sensor of FIG. 1,
FIG. 3 is a block diagram of an attitude calculation unit of the golf swing analysis system using the multiple cameras and the single inertial sensor of FIG. 1,
FIG. 4 is a block diagram of a point calculation unit of the golf swing analysis system using the multi-camera and single inertial sensor of FIG. 1,
FIG. 5 is a block diagram of a club calculation unit of the golf swing analysis system using the multi-camera and single inertial sensor of FIG. 1,
FIG. 6 is an illustration of a skeleton image displayed with coordinates generated by the skeleton image generation unit of the golf swing analysis system using the multi-camera and single inertial sensor of FIG. 1,
FIG. 7 is a photograph and a graph of the results detected by the state detector of the golf swing analysis system using the multi-camera and single inertial sensor of FIG. 1,
FIG. 8 is a graph showing the trajectory of a hand calculated by the hand calculator of the golf swing analysis system using the multi-camera and single inertial sensor of FIG. 1,
FIG. 9 is a graph of energy values converted by the energy conversion unit of the golf swing analysis system using the multiple cameras and the single inertial sensor of FIG. 1,
FIG. 10 is an image generated by the first-order image generating unit, the second-order image generating unit, and the analyzed image generating unit of the golf swing analysis system using the multi-camera and single inertial sensor of FIG. 1,
FIG. 11 is an analytical image in which noises are removed by the noise elimination of the golf swing analysis system using the multiple cameras and the single inertial sensor of FIG. 1,
FIG. 12 is an image of a golf swing analysis system using a multi-camera and a single inertial sensor of FIG. 1,
FIG. 13 is an image of a golf swing analysis system using a multi-camera and a single inertial sensor of FIG. 1,
FIG. 14 is a graph showing the trajectory of a golf club detected through the image detecting unit of the golf swing analysis system using the multiple cameras and the single inertial sensor of FIG. 1;

이하, 첨부한 도면을 참조하여 본 발명의 실시예에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템 및 이를 이용한 골프 스윙 분석 방법에 대해 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하여 도시한 것이다. Hereinafter, a golf swing analysis system using multiple cameras and a single inertial sensor according to an embodiment of the present invention and a golf swing analysis method using the system will be described in detail with reference to the accompanying drawings. The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It is to be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but on the contrary, is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing. In the accompanying drawings, the dimensions of the structures are enlarged to illustrate the present invention in order to clarify the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a part or a combination thereof is described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

도 1 내지 도 5에는 본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템이 도시되어 있다. 1 to 5 show a golf swing analysis system using multiple cameras and a single inertial sensor according to the present invention.

도면을 참조하면, 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템(100)은 골프 스윙을 하는 사용자에 대한 깊이 영상을 촬영하는 뎁스 카메라(110)와, 상기 사용자의 골프 스윙을 촬영하는 고프레임 카메라(130)와, 골프 스윙시 사용자 손의 위치를 감지하기 위해 사용자의 손에 장착된 관성센서(120)와, 뎁스 카메라(110), 고프레임 카메라(130) 및 관성센서(120)를 통해 획득한 정보를 토대로 사용자의 골프 스윙을 분석하는 정보처리유닛(200)을 구비한다. Referring to the drawings, a golf swing analysis system 100 using a multi-camera and a single inertial sensor includes a depth camera 110 for photographing a depth image of a user swinging a golf swing, a depth camera 110 for photographing a golf swing, A camera 130, an inertial sensor 120 mounted on the user's hand to sense the position of the user's hand during a golf swing, a depth camera 110, a high frame camera 130 and an inertial sensor 120 And an information processing unit 200 for analyzing the user's golf swing based on the acquired information.

뎁스 카메라(110)는 사용자에 대한 깊이 영상을 촬영할 수 있도록 사용자의 정면에 대해 전방으로 소정거리 이격된 위치에 설치되어 있다. 뎁스 카메라(110)는 컬러영상 및 깊이 영상을 획득할 수 있는 카메라 및 깊이 센서가 포함된 키넥트(Kinect)와 같은 기기인 것이 바람직하다. The depth camera 110 is installed at a predetermined distance from the front of the user so as to capture a depth image of the user. Preferably, the depth camera 110 is a device such as a Kinect device including a camera and a depth sensor capable of acquiring a color image and a depth image.

고프레임 카메라(130)는 고프레임으로 영상을 촬영할 수 있는 RGB(Red Green Blue) 카메라로서, 뎁스 카메라(110)에 인접된 위치에서 사용자의 정면을 촬영한다. 고프레임 카메라(130)는 골프스윙시 골프클럽의 움직임이 촬영한다. The high frame camera 130 is an RGB (Red Green Blue) camera capable of capturing an image with a high frame, and photographs the front of the user at a position adjacent to the depth camera 110. The high frame camera 130 captures the motion of the golf club during a golf swing.

이때, 상기 골프클럽은 일단부에 사용자가 파지할 수 있는 손잡이가 마련된 샤프트와, 샤프트의 타단부에 형성되어 골프공을 타격하는 헤드를 구비한다. 상기 골프클럽은 골프 운동시 일반적으로 사용되는 종래의 골프클럽이므로 상세한 설명은 생략한다. At this time, the golf club has a shaft provided with a handle that can be held by a user at one end, and a head formed at the other end of the shaft to hit the golf ball. Since the golf club is a conventional golf club generally used in golf exercise, a detailed description will be omitted.

관성센서(120)는 사용자가 손에 착용한 장갑에 설치되거나 사용자의 손에 부착되는 것으로서, 골프 스윙에 따라 발생하는 사용자 손의 3축 가속도 값을 측정하는 센서이다. 관성센서(120)는 손의 움직임 추적을 위해서 3축 각속도를 측정할 수 있는 자이로 센서와, 3축 가속도를 측정할 수 있는 가속도 센서를 구비한다. The inertial sensor 120 is mounted on a glove worn by a user or attached to a user's hand, and is a sensor for measuring a three-axis acceleration value of a user's hand caused by a golf swing. The inertial sensor 120 includes a gyro sensor capable of measuring three-axis angular velocity and an acceleration sensor capable of measuring three-axis acceleration in order to track movement of the hand.

자이로 센서는 x,y,z 축의 각속도 데이터를 구할 수 있으며, 하기의 수학식1로 표현되며, 가속도 센서는 x,y,z 축의 가속도 데이터를 구할 수 있으며, 하기의 수학식2로 표현된다. The gyro sensor can obtain angular velocity data of x, y, and z axes, and is expressed by Equation 1 below. The acceleration sensor can obtain acceleration data of x, y, and z axes, and is expressed by Equation 2 below.

Figure 112016117695774-pat00001
Figure 112016117695774-pat00001

Figure 112016117695774-pat00002
Figure 112016117695774-pat00002

상기 관성센서(120)는 종래에 일반적으로 사용되는 3축 가속도 값을 측정하는 센서이므로 상세한 설명은 생략한다. The inertial sensor 120 is a sensor for measuring a three-axis acceleration value which is conventionally used, and thus a detailed description thereof will be omitted.

정보처리유닛(200)은 상기 뎁스 카메라(110)를 통해 획득된 깊이 영상을 토대로 사용자의 자세정보를 산출하는 자세 산출부(210)와, 상기 고프레임 카메라(130)로부터 촬영된 스윙 영상으로부터 사용자가 파지하는 골프 클럽의 움직임을 검출하는 클럽 산출부(220)와, 상기 관성센서(120)를 통해 측정된 감지정보를 토대로 스윙시 상기 사용자의 손의 움직임을 산출하는 핸드 산출부(230)와, 상기 관성센서(120)를 통해 측정된 감지정보를 토대로 스윙에 대한 시점들 각각 산출하는 시점 산출부(240)와, 시점 산출부(240)를 통해 산출된 시점 정보를 토대로 스윙템포를 산출하는 스윙 템포 산출부(250)를 구비한다. The information processing unit 200 includes an attitude calculation unit 210 for calculating attitude information of a user on the basis of the depth image acquired through the depth camera 110, A hand calculator 230 for calculating a motion of the user's hand in a swing based on the sensed information measured through the inertial sensor 120, A swing tempo calculating unit 240 for calculating swing tempos based on the sensed information measured through the inertial sensor 120 and a swing tempo calculating unit 240 for calculating a swing tempo based on the time information calculated through the time calculating unit 240 And a swing tempo calculation unit 250.

자세 산출부(210)는 골프 스윙시 사용자의 어깨기울기 및 양발의 스탠스 상태를 측정하는 것으로서, 스켈레톤 영상 생성부(211), 좌표 추출부(212) 및 상태 검출부(213)를 구비한다. The attitude calculating unit 210 measures the shoulder inclination of the user and the stance state of the feet during golf swing and includes a skeleton image generating unit 211, a coordinate extracting unit 212, and a state detecting unit 213.

스켈레톤 영상 생성부(211)는 상기 뎁스 카메라(110)로부터 획득한 깊이 영상을 토대로 스켈레톤 영상을 생성하고, 생성된 스켈레톤 영상에서 사용자의 각 관절에 대응되는 좌표를 추출한다. 스켈레톤 영상 생성부(211)는 뎁스 카메라(110)로부터 제공받은 깊이 영상에서 사용자의 신체를 추출한다. 이때, 스켈레톤 영상 생성부(211)는 사람의 주요 관절 20개를 인식할 수 있는 관절 추적 소프트웨어가 적용되어 있어 도 6과 같이 추출된 깊이 영상의 신체 범위에서 관절부분의 좌표를 생성한다. The skeleton image generation unit 211 generates a skeleton image based on the depth image acquired from the depth camera 110 and extracts coordinates corresponding to each joint of the user from the generated skeleton image. The skeleton image generation unit 211 extracts the user's body from the depth image provided from the depth camera 110. At this time, the skeleton image generation unit 211 generates joint coordinates in the body range of the extracted depth image as shown in FIG. 6 by applying joint tracking software capable of recognizing 20 major joints of a person.

좌표 추출부(212)는 상기 스켈레톤 영상 생성부(211)를 통해 추출된 좌표들 중 사용자의 어깨 및 양발의 좌표를 추출한다. The coordinate extraction unit 212 extracts the coordinates of the user's shoulders and feet from the coordinates extracted through the skeleton image generation unit 211. [

상태 검출부(213)는 상기 좌표 추출부(212)를 통해 추출된 사용자의 어깨 및 양발의 좌표를 토대로 사용자의 어깨 기울기 및 양발의 스탠스 상태를 산출한다. 도 7에는 상태 검출부(213)에 의해 산출된 어깨 기울기에 대한 사진 및 그래프가 도시되어 있다. 도시된 바와 같이 상태 검출부(213)는 좌우 어깨의 좌표를 추출하고, 어깨 좌표들을 지나는 선의 기울기를 산출하여 사용자의 어깨의 기울기를 계산한다. The state detecting unit 213 calculates the shoulder inclination of the user and the stance state of the feet on the basis of the coordinates of the shoulders and feet of the user extracted through the coordinate extracting unit 212. 7 is a photograph and a graph of the shoulder inclination calculated by the state detecting unit 213. As shown in Fig. As shown in the figure, the state detector 213 extracts the coordinates of the left and right shoulders, calculates the slope of the line passing through the shoulder coordinates, and calculates the slope of the user's shoulder.

또한, 상태 검출부(213)는 사용자 양발의 스탠스 상태를 산출하는데, 좌표 추출부(212)를 통해 추출된 사용자의 좌우 발의 좌표를 토대로 사용자 양발의 좌우 폭 또는 양발의 전후방향 이격거리를 산출한다. The state detecting unit 213 calculates the stance state of the user's feet. The state detecting unit 213 calculates the left and right widths of the user's feet or the front and rear distance of the feet based on the coordinates of the left and right feet of the user extracted through the coordinate extracting unit 212.

핸드 산출부(230)는 상기 관성센서(120)로부터 측정된 사용자 손의 3축 가속도 값을 토대로 사용자 손의 이동궤적을 산출한다. 핸드 산출부(230)는 관성센서(120)를 통해 측정된 사용자 손의 3축 각속도 데이터 및 3축 가속도 데이터를 토대로 사용자 손의 위치를 추적한다. 핸드 산출부(230)에서 관성센서(120)의 데이터를 통해 손의 궤적을 산출하는 방법을 상세히 설명하면 다음과 같다. The hand calculator 230 calculates the movement trajectory of the user's hand on the basis of the three-axis acceleration value of the user's hand measured from the inertial sensor 120. The hand calculator 230 tracks the position of the user's hand based on the three-axis angular velocity data and the three-axis acceleration data of the user's hand measured through the inertial sensor 120. [ A method of calculating the trajectory of the hand through the data of the inertial sensor 120 in the hand calculator 230 will be described in detail as follows.

관성센서(120)를 통해 얻어진 각속도 및 가속도의 데이터는 쿼터니언을 만들기 위해 사용되며, 초기 쿼터니언 데이터는 존재하지 않으므로 임의 초기 설정 값을 입력한다.

Figure 112016117695774-pat00003
시간에 따라 변화하는 쿼터니언 정보를 얻기 위해서는 가속도 데이터를 이용하여 중력의 방향 정보를 얻어야 하지만, 초기 입력되는 가속도 데이터는 불필요한 데이터와 비교적 많은 데이터가 포함되어 있기 때문에 정규화 작업이 필요하며, 정규화 작업이 진행된 가속도 데이터는
Figure 112016117695774-pat00004
로 표현된다. 정규화된 가속도와 초기 쿼터니언 데이터를 하기의 수학식 3에 대입하여 중력의 예상 움직임 방향을 추출한다. The data of the angular velocity and the acceleration obtained through the inertial sensor 120 are used to make a quaternion. Since there is no initial quaternion data, an arbitrary initial setting value is input.
Figure 112016117695774-pat00003
In order to obtain quaternion information that varies with time, the direction information of gravity must be obtained using the acceleration data. However, since the acceleration data initially input includes unnecessary data and a relatively large amount of data, a normalization operation is required. The acceleration data
Figure 112016117695774-pat00004
Lt; / RTI > The normalized acceleration and the initial quaternion data are substituted into Equation (3) to extract the expected movement direction of gravity.

Figure 112016117695774-pat00005
Figure 112016117695774-pat00005

출력된 중력 방향 데이터를 샘플링 주기 및 각속도에 곱함으로써 시간에 대한 각속도 변화량을 구한다.

Figure 112016117695774-pat00006
각속도와 초기 쿼터니언을 이용하여 시간에 따라 증가하는 값을 추정함으로써 변해가느 속도를 알 수 있는 쿼터니언의 발산지수인
Figure 112016117695774-pat00007
를 출력한다. 다음, 발산지수인 β와 커터니언q 그리고 샘플링 주기 Δt를 곱하여 하기의 수학식 4와 같이 쿼터니언 정보를 추출한다. The output of the gravity direction data is multiplied by the sampling period and the angular velocity to obtain an angular velocity change amount with respect to time.
Figure 112016117695774-pat00006
By using the angular velocity and the initial quaternion, the quaternion's divergence index
Figure 112016117695774-pat00007
. Next, the quaternion information is extracted by multiplying the divergence index [beta], the cutterance q, and the sampling period [Delta] t, as shown in Equation 4 below.

Figure 112016117695774-pat00008
Figure 112016117695774-pat00008

추출된 쿼터니언 데이터는 바로 연산이 불가능하므로 하기의 수학식 5를 이용하여 회전매트릭스로 변환 후 연산한다. Since the extracted quaternion data can not be directly computed, it is converted into a rotation matrix and computed using the following equation (5).

Figure 112016117695774-pat00009
Figure 112016117695774-pat00009

한편, 위치 추적을 위해서는 쿼터니언 회전 정보 및 속도 정보가 필요하는데, 속도를 계산하기 위해서 회전 매트릭스와 가속도 데이터의 역행렬을 곱하여 가속도 데이터의 기울기 오차 보상(

Figure 112016117695774-pat00010
)을 계산하고, 이를 이용하여 속도 (
Figure 112016117695774-pat00011
)를 구한다. 출력된 속도 데이터는 드리프트 현상을 줄이기 위해 하이패스필터를 통해 오류를 줄이고 초기 설정된 위치 좌표에
Figure 112016117695774-pat00012
와 같이 계산하여 위치를 추적한다. In order to track the position, quaternion rotation information and velocity information are required. In order to calculate the velocity, the rotation matrix and the inverse matrix of the acceleration data are multiplied to calculate the tilt error compensation
Figure 112016117695774-pat00010
) Is calculated, and the velocity (
Figure 112016117695774-pat00011
). The output velocity data reduces the error through the high pass filter to reduce the drift phenomenon,
Figure 112016117695774-pat00012
And the position is tracked.

핸드 산출부(230)는 골프 스윙시 사용자 손의 궤적을 추적하여 도 8과 같이 그래프로 제공한다. The hand calculator 230 tracks the trajectory of the user's hand during the golf swing and provides the graph as shown in FIG.

시점 산출부(240)는 관성센서(120)를 통해 측정된 감지정보를 토대로 스윙 시작시점, 상기 골프클럽이 골프공을 타격하는 타격시점 및 상기 스윙 시작시점과 타격시점 사이에 상기 골프클럽의 헤드가 최상측에 위치하는 탑 오브 스윙(top of swing) 시점, 스윙이 끝나는 피니쉬 시점을 산출하는 것으로서, 에너지 변환부(241) 및 판별부(242)를 구비한다. Based on the sensed information measured through the inertial sensor 120, the time calculating unit 240 calculates a time point at which the golf club starts to hit the golf ball, And a determination unit 242. The energy conversion unit 241 and the determination unit 242 calculate the top of swing time and finish time of the swing.

에너지 변환부(241)는 사용자의 골프 스윙에 따라 발생하는 상기 관성센서(120)의 3축 가속도 값을 SVM(Signal Vector Magnitude) 알고리즘을 이용하여 에너지로 변환한다. 에너지 변환부(241)는 하기의 수학식 6을 이용하여 관성센서(120)로부터 제공되는 3축 가속도 데이터를 에너지(E)로 변환하고, 그 값은 도 9와 같이 표시된다. The energy conversion unit 241 converts the three-axis acceleration value of the inertial sensor 120 generated according to the user's golf swing into energy using a SVM (Signal Vector Magnitude) algorithm. The energy conversion unit 241 converts the three-axis acceleration data provided from the inertial sensor 120 into energy E using the following equation (6), and the value is displayed as shown in FIG.

Figure 112016117695774-pat00013
Figure 112016117695774-pat00013

판별부(242)는 상기 에너지 변환부(241)를 통해 변환된 에너지 값을 토대로 상기 스윙 시작시점, 탑 오브 스윙 시점 및 타격시점을 판별한다. 일반적으로 골프 스윙에 있어서, 스윙 전의 준비 상태인 어드레스 자세에서는 상기 에너지 값이 1에 가까운 값을 유지한다. 판별부(242)는 상기 에너지 변환부(241)를 통해 변환된 에너지 값이 기설정된 기준값에서 상기 기준값을 초과하는 시점을 백스윙 시점 즉, 상기 스윙 시작시점으로 판별한다. 이때, 상기 기준값은 1이거나 0.5 내지 1.5 중 어느 한 값일 수도 있다. 상기 기준값은 사용자에 따라 어드레스 자세의 에너지 값을 산출한 다음 설정할 수 있다. 스윙 시작시점 전에는 어드레스 상태로 판별하는 것이 바람직하다. The determination unit 242 determines the swing start point, the top of swing point, and the hit point based on the energy value converted through the energy conversion unit 241. Generally, in the golf swing, the energy value is kept close to 1 at the address posture in the ready state before the swing. The determination unit 242 determines a time when the energy value converted through the energy conversion unit 241 exceeds the reference value at a preset reference value as the backswing time, that is, the swing start time. At this time, the reference value may be 1 or a value of 0.5 to 1.5. The reference value can be set after calculating the energy value of the address posture according to the user. It is preferable to determine the address state before the swing start point.

또한, 스윙 시작 시점 이후에 탑 오스 스윙에 도달하면 움직임이 거의 없기 때문에 에너지 값은 0에 가까운 값을 가지게 된다. 따라서, 판별부(242)는 상기 스윙 시작시점 이후에 상기 에너지 값이 상기 기준값 이하가 되는 시점을 상기 탑 오브 스윙 시점으로 판별한다. In addition, since the swing starts when the top os swing reaches the swing starting point, there is almost no movement, so the energy value has a value close to zero. Therefore, the determination unit 242 determines the time point at which the energy value becomes equal to or less than the reference value after the swing start time point as the top of swing time point.

그리고, 탑 오브 스윙 시점 이후에 골프공을 타격하는 순간에 에너지 값이 최대가 된다. 따라서, 판별부(242)는 상기 탑 오브 스윙 시점 이후에 상기 에너지 값이 최대값이 되는 시점을 상기 타격시점으로 판별한다. 또한, 타격시점 이후에 스윙이 끝났을 경우, 에너지값은 다시 기준값에 가까워지므로 판별부(242)는 타격시점 이후에 에너지값이 기준값이하가 되는 시점을 피니쉬 시점으로 판별한다. 또한, 판별부(242)는 판별된 시점들을 도 8 및 도 9에 표시하여 손의 궤적 그래프 및 에너지 변화 그래프에 표시하여 사용자에게 제공한다. Then, the energy value becomes maximum at the moment of hitting the golf ball after the top of swing time. Therefore, the determining unit 242 determines a point in time at which the energy value reaches a maximum value after the top of swing time as the hit point. When the swing is completed after the hit point, the energy value approaches the reference value again, so the determining unit 242 determines a point in time at which the energy value becomes equal to or less than the reference value after the hit point as the finish time point. In addition, the determination unit 242 displays the identified points on the graph of the hand trajectory and the energy change graph, and provides the graph to the user.

스윙 템포 산출부(250)는 상기 시점 산출부(240)를 통해 산출된 각 시점 정보를 토대로, 상기 스윙시작시점부터 상기 탑 오브 스윙 시점까지의 경과시간과 상기 탑 오브 스윙 시점부터 상기 타격시점까지의 경과시간의 비를 산출한다. 즉, 스윙 템포 산출부(250)는 하기의 수학식 7에 따라 스윙 템포를 계산한다. The swing tempo calculator 250 calculates the swing tempo based on the time information from the swing starting point to the top of swing point and the time from the top of swing point to the impact point Of the elapsed time is calculated. That is, the swing tempo calculator 250 calculates the swing tempo according to the following equation (7).

Figure 112016117695774-pat00014
Figure 112016117695774-pat00014

여기서, BStime은 스윙시작시점부터 상기 탑 오브 스윙 시점까지의 경과시간이고, DStime은 상기 탑 오브 스윙 시점부터 상기 타격시점까지의 경과시간이다. 이때, 이상적인 스윙 템포는 3:1이며, 스윙 템포 산출부(250)는 이상적인 스윙템포 값과 계산된 스윙 템포 정보를 사용자에게 제공한다. Here, BS time is the elapsed time from the swing start point to the top of swing point, and DS time is the elapsed time from the top of swing point to the hit point. At this time, the ideal swing tempo is 3: 1, and the swing tempo calculator 250 provides the user with the ideal swing tempo value and the calculated swing tempo information.

클럽 산출부(220)는 상기 고프레임 카메라(130)로부터 촬영된 스윙 영상으로부터 사용자가 파지하는 골프 클럽의 움직임을 검출하는 것으로서, 제1차영상 생성부(221), 제2차영상 생성부(222), 분석영상 생성부(223), 잡음제거부(224) 및 이미지 검출부(225)를 구비한다. The club calculating unit 220 detects the movement of the golf club held by the user from the swing image photographed from the high frame camera 130 and includes a first image generating unit 221, 222, an analysis image generating unit 223, a noise removing unit 224, and an image detecting unit 225.

제1차영상 생성부(221)는 고프레임 카메라(130)로부터 제공된 스윙영상을 그레이 영상으로 변환한 다음, 스윙영상에서 현재 프레임의 영상인 기준영상과, 상기 기준영상의 이전 프레임의 영상인 제1이전영상의 차이를 이용하여 차영상을 생성한다. 이때, 제1차영상 생성부(221)는 기준영상과 제1이전영상 중 상호 변경된 부분을 추출하여 차영상으로 생성하며, 하기의 수학식 8을 이용한다. The first image generating unit 221 converts the swing image provided from the high frame camera 130 into a gray image and then outputs the reference image, which is the image of the current frame in the swing image, 1 The difference image is generated using the difference of the previous image. At this time, the first-order image generating unit 221 extracts mutually changed portions of the reference image and the first previous image to generate a difference image, and uses the following Equation (8).

Figure 112016117695774-pat00015
Figure 112016117695774-pat00015

여기서, Grayt는 기준영상이고, Grayt - 1는 제1이전영상이고, Diff1은 제1차영상 생성부(221)에 의해 생성된 차영상이다. Here, Gray t is the reference image, Gray t - 1 is the first previous image, and Diff 1 is the difference image generated by the first image generating unit 221.

제2차영상 생성부(222)는 그레이 영상으로 변환된 스윙 영상에서 상기 제1이전영상과, 상기 제1이전영상의 이전 프레임의 영상인 제2이전영상의 차이를 이용하여 차영상을 생성한다. 이때, 제2차영상 생성부(222)는 제1이전영상과 제2이전영상 중 상호 변경된 부분을 추출하여 차영상으로 생성하며 하기의 수학식 9를 이용한다. The second image generating unit 222 generates a difference image using the difference between the first previous image and the second previous image, which is the image of the previous frame of the first previous image, in the swing image converted into the gray image . At this time, the second image generating unit 222 extracts mutually changed parts from the first previous image and the second previous image, and generates a difference image using the following equation (9).

여기서, Grayt - 1는 제1이전영상이고, Grayt -2는 제2이전영상이고, Diff2은 제2차영상 생성부(222)에 의해 생성된 차영상이다. Here, Gray t - 1 is the first previous image, Gray t -2 is the second previous image, and Diff 2 is the difference image generated by the second image generating unit 222.

분석영상 생성부(223)는 상기 제1 및 제2차영상 생성부(222)를 통해 생성된 차영상들에서 상호 중첩되는 부분을 검출하여 분석영상을 생성한다. 분석영상 생성부(223)는 상기 차영상들의 중첩된 부분을 검출하기 위해 And 연산(

Figure 112016117695774-pat00017
)을 이용한다. The analysis image generation unit 223 detects the overlapping portions of the difference images generated through the first and second difference image generation units 222 to generate an analysis image. The analysis image generation unit 223 generates an analysis image by using an And operation (
Figure 112016117695774-pat00017
).

도 10에는 제1차영상 생성부(221), 제2차영상 생성부(222) 및 분석영상 생성부(223)에 의해 생성된 영상들이 게시되어 있다. 여기서, t영상은 기준영상이고, t-1영상은 제1이전영상이고, t-2영상은 제2이전영상이고, 차영상1,차영상2는 제1차영상 생성부(221) 및 제2차영상 생성부(222)에서 생성된 차영상들이고, And 영상은 분석영상 생성부(223)에 의해 생성된 분석영상이다. 10, images generated by the primary image generation unit 221, the secondary image generation unit 222, and the analysis image generation unit 223 are posted. Here, the t image is the reference image, the t-1 image is the first previous image, the t-2 image is the second previous image, the difference image 1 and the difference image 2 are generated by the first- And the And image is an analysis image generated by the analysis image generation unit 223. The second image generation unit 222 generates the second image.

잡음제거부(224)는 상기 분석영상 생성부(223)를 통해 생성된 상기 분석영상의 잡음을 제거할 수 있도록 필터링한다. 분석영상 생성부(223)에 의해 생성된 분석영상은 원본 영상 안에서 움직임이 있는 부분만을 검출하게 되지만, 영상 내에 잡음이 생성되는데, 잡음제거부(224)는 상기 분석영상에 모폴로지(morphology) 연산을 적용하여 잡음을 제거한다. The noise removing unit 224 filters the noise of the analysis image generated through the analysis image generating unit 223. The analysis image generated by the analysis image generation unit 223 detects only a portion in the original image, but noise is generated in the image. The noise removal unit 224 performs a morphology operation on the analysis image. To remove noise.

모폴로지 연산은 영상처리 분야에서 이미지의 경계, 골격과 같은 영역 형태를 표현하거나 서술하는데 유용한 영상 특징을 추출하기 위한 방법으로서, 에지나 영역의 겹침, 잡음 등을 처리하는데 유용하게 사용되며, 팽창, 침식, 닫힘, 열림 등의 방법이 있다. Morphology operation is a method for extracting image features useful for expressing or describing region shapes such as boundaries and skeletons in image processing. It is useful for processing overlapping and noise of edges or regions, Closing, and opening.

팽창연산은 이미지 주위의 픽셀을 이용하여 밝은 영역을 늘려가는 연산이며,

Figure 112016117695774-pat00018
으로 표현된다. 여기서 A는 분석영상이고, B는 모폴로지 연산의 시행에 필요한 구조요소 3X3배열입니다. 침식연산은 팽창과 반대로 밝은 영역을 줄이고, 어두운 영역을 늘려가는 연산으로
Figure 112016117695774-pat00019
으로 표현된다. 열기와 닫힘연산은 침식과 팽창 연산을 이용하여 구현할 수 있는데, 열기 연산은 일반적으로 객체의 돌출한 부위를 제거해주는 역할과 잡음을 제거하는 역할로
Figure 112016117695774-pat00020
으로 표현된다. 닫힘연산은 외곽선 부분들을 메우고, 비워진 픽셀들을 제거해서 부드럽게 만들어주며,
Figure 112016117695774-pat00021
으로 표현된다. The dilation operation is an operation that uses a pixel around an image to increase a bright area,
Figure 112016117695774-pat00018
. Where A is the analytical image and B is the 3X3 array of structural elements required for the execution of the morphology operation. The erosion operation is an operation that reduces the light area and increases the dark area as opposed to the expansion.
Figure 112016117695774-pat00019
. Open and close operations can be implemented using erosion and expansion operations. Open operations generally remove the protruding parts of objects and remove noise.
Figure 112016117695774-pat00020
. The close operation fills the outline portions, removes the emptied pixels to make them smooth,
Figure 112016117695774-pat00021
.

잡음제거부(224)는 모폴로지 연산 중 열기연산을 통하여 부드러운 외곽선을 추출하고, 잡음을 제거한다. 도 11에는 잡음제거부(224)에 의해 잡음이 제거된 분석영상이 게제되어 있다. The noise removing unit 224 extracts a smooth outline through the opening operation during the morphology operation and removes the noise. 11, an analytical image in which noise is removed by the noise removing unit 224 is added.

이미지 검출부(225)는 상기 분석영상 생성부(223)에서 생성된 분석영상에서 상기 골프 클럽의 샤프트 또는 헤드를 검출한다. 이때, 이미지 검출부(225)는 잡음제거부(224)에 의해 잡음이 제거된 분석영상으로부터 골프 클럽의 샤프트 또는 헤드를 검출한다. The image detecting unit 225 detects a shaft or a head of the golf club in the analysis image generated by the analysis image generating unit 223. At this time, the image detector 225 detects the shaft or the head of the golf club from the noise-removed analytical image by the noise eliminator 224.

이미지 검출부(225)는 분석영상을 에지 검출의 하나인 케니 연산을 진행한다. 케니 연산자는 화소에 대해 밝기 값의 변화가 가장 큰 방향에 있는 주변 화소와 비교하여 이웃 화소들의 기울기 보다 클 경우 에지로 분류하는 방법으로 허프 변환을 하기 위해 요구되는 연산이다. 도 12에는 분석영상에서 케니 에지 검출한 영상이 게제되어 있다. The image detecting unit 225 performs a Kenny operation, which is one of edge detection, on the analyzed image. The Kenny operator is an operation required to perform Hough transform by a method of classifying an edge when a change in brightness value is larger than a slope of neighboring pixels in comparison with a neighboring pixel in a direction in which a change in brightness value is largest. 12 shows an image obtained by detecting a kenny edge in the analysis image.

이미지 검출부(225)는 추출한 에지 영상을 이용하여 표현 가능한 직선을 찾기 위해 허프 변환은 사용한다. 상기 허프 변환은 영상 안에서의 y-x 기울기를 절편 공간 b-a로 매핑하여 직선을 찾는 알고리즘이다. 도 13에는 잡음의 제거된 분석영상에서 허프 변환을 이용하여 직선 검출 결과가 게제되어 있다. 도 13에서 검출된 직선은 골프 클럽의 샤프트를 나타내며, 직선의 단부를 이용하여 골프 스윙 궤도를 추정할 수 있다. The image detecting unit 225 uses the Hough transform to find an expressible straight line using the extracted edge image. The Hough transform is an algorithm for finding a straight line by mapping the y-x slope in the image to the intercept space b-a. In Fig. 13, the straight line detection result is obtained using the Hough transform in the analytical image from which noise has been removed. The straight line detected in Fig. 13 represents the shaft of the golf club, and the end of the straight line can be used to estimate the golf swing trajectory.

한편, 이미지 검출부(225)는 허프 변환에 의한 직선 검출의 오검출을 방지하기 위해 커브 피팅을 사용하여 골프클럽의 샤프트 또는 헤드를 검출한다. 커브 피팅은 영상 이미지들을 적합한 곡선으로 맞추는 작업을 의미하여, 이를 통해 수학적 모델의 함수를 찾아 빠진 데이터를 추측하여 데이터와 데이터 사이의 빈 공간에 알맞은 데이터를 채워 넣는다. 커브 피팅에는 크게 회귀분석과 보간법이 존재하는데, 회귀분석은 데이터가 상당한 크기의 오차를 포함하거나 데이터가 산재하는 경우 사용되며, 고차 다항식, 푸리에, 가우시안, 사인 등이 있다. 보간법은 데이터가 실제 데이터에 근사한 경우에 사용되며, B-스플라인, 큐빅 스플라인, 선형 보간, 최근방 보간 등이 있다. On the other hand, the image detecting unit 225 detects the shaft or head of the golf club using curve fitting to prevent erroneous detection of straight line detection by Hough transform. Curve fitting refers to the task of matching image images to an appropriate curve, through which a function of a mathematical model is searched to deduce missing data and to fill in the appropriate data in the empty space between the data and the data. Regression analysis and interpolation are widely used for curve fitting. Regression analysis is used when the data contains significant size errors or scatter data, and there are high order polynomials, Fourier, Gaussian, and sine. The interpolation method is used when the data approximates to the actual data, such as B-spline, cubic spline, linear interpolation, and recent interpolation.

도 14에는 이미지 검출부(225)를 통해 검출된 골프클럽의 궤적을 나타낸 그래프가 게제되어 있다. 도면을 참조하면, 커브 피팅에 의해 보다 부드러운 스윙궤도가 추정된 것을 알 수 있다. 14 is a graph showing the trajectory of the golf club detected through the image detecting unit 225. In FIG. Referring to the drawings, it can be seen that a smoother swing trajectory is estimated by the curve fitting.

한편, 정보처리유닛(200)은 도면에 도시되진 않았지만, 자세 산출부(210), 클럽 산출부(220), 핸드 산출부(230), 시점 산출부(240) 및 스윙 템포 산출부(250)에서 산출된 결과를 사용자에게 표시할 수 있도록 디스플레이부를 더 구비한다. 디스플레이부는 LCD와 같은 디스플레이 장치가 적용되는 것이 바람직하다. The information processing unit 200 includes an attitude calculating unit 210, a club calculating unit 220, a hand calculating unit 230, a time calculating unit 240, and a swing tempo calculating unit 250, And a display unit for displaying a result calculated by the display unit. It is preferable that a display device such as an LCD is applied to the display part.

상술된 바와 같이 구성된 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템(100)을 이용한 골프 스윙 분석 방법을 상세히 설명하면 다음과 같다. The golf swing analysis method using the golf swing analysis system 100 using the multiple cameras and the single inertial sensor constructed as described above will be described in detail as follows.

본 발명에 따른 골프 스윙 분석 방법은 깊이 영상 획득단계, 센서 정보 획득단계, 스윙 영상 획득단계, 자세 정보 산출단계, 핸드 정보 산출단계, 시점산출단계, 스윙 템포 산출단계 및 클럽 정보 산출단계를 포함한다. The golf swing analysis method according to the present invention includes a depth image acquisition step, a sensor information acquisition step, a swing image acquisition step, a posture information calculation step, a hand information calculation step, a time calculation step, a swing tempo calculation step, and a club information calculation step .

깊이 영상 획득단계는 뎁스 카메라(110)로부터 골프 스윙을 수행하는 사용자에 대한 깊이 영상을 획득하는 단계이다. 사용자의 정면에 설치된 뎁스 카메라(110)는 사용자가 골프 스윙을 할 때, 사용자에 대한 깊이 영상을 촬영하여 정보처리유닛(200)으로 전송한다. The depth image acquiring step is a step of acquiring a depth image for a user performing a golf swing from the depth camera 110. The depth camera 110 mounted on the front of the user captures a depth image of the user and transmits the depth image to the information processing unit 200 when the user performs a golf swing.

센서 정보 획득단계는 상기 골프 스윙 시 사용자의 손에 장착된 관성센서(120)의 감지정보를 획득하는 단계이다. 관성센서(120)는 사용자 손에 착용한 장갑이나 사용자 손의 부착되어 스윙시 손의 3축 각속도 데이터 및 3축 가속도 데이터를 정보처리유닛(200)으로 전송한다. The sensor information acquiring step is a step of acquiring sensing information of the inertial sensor 120 mounted on the user's hand during the golf swing. The inertial sensor 120 transmits the three-axis angular velocity data and the three-axis acceleration data of the hand when the glove or the user's hand is worn in the user's hand and swings, to the information processing unit 200.

스윙 영상 획득단계는 고프레임 카메라(130)로부터 상기 골프 스윙시 사용자의 스윙에 대한 스윙 영상을 획득하는 단계이다. 뎁스 카메라(110)에 인접된 위치에 설치된 고프레임 카메라(130)는 스윙시 사용자를 촬영하고, 촬영된 스윙영상은 정보처리유닛(200)으로 전송된다. The swing image acquiring step is a step of acquiring a swing image for the swing of the user in the golf swing from the high frame camera 130. The high frame camera 130 installed at a position adjacent to the depth camera 110 photographs a user at the time of swing, and the photographed swing image is transmitted to the information processing unit 200.

상술된 깊이 영상 획득단계, 센서 정보 획득단계 및 스윙 영상 획득단계는 사용자가 골프 스윙시 동시에 진행되는 것이 바람직하다. It is preferable that the depth image acquiring step, the sensor information acquiring step, and the swing image acquiring step described above are performed at the same time during the golf swing.

자세 정보 산출단계는 상기 깊이 영상 획득단계를 통해 획득한 깊이 영상을 토대로 사용자의 자세정보를 산출하는 단계로서, 스켈레톤 영상 생성단계, 좌표 추출단계 및 상태검출단계를 포함한다. The posture information calculation step is a step of calculating posture information of a user based on the depth image acquired through the depth image acquisition step, and includes a skeleton image generation step, a coordinate extraction step, and a state detection step.

스켈레톤 영상 생성단계는 상기 뎁스 카메라(110)로부터 획득한 깊이 영상을 토대로 스켈레톤 영상을 생성하고, 생성된 스켈레톤 영상에서 사용자의 각 관절에 대응되는 좌표를 추출하는 단계이다. 스켈레톤 연상생성부는 뎁스 카메라(110)로부터 제공받은 깊이영상에 스켈레톤 영상 즉 신체 골격 영상을 생성하고, 관절 추적 소프트웨어에 의해 스켈레톤 영상에서 사람의 각 관절 좌표를 생성한다. The skeleton image generation step is a step of generating a skeleton image based on the depth image acquired from the depth camera 110 and extracting coordinates corresponding to each joint of the user from the generated skeleton image. The skeleton associative generation unit generates a skeleton image or a body skeleton image on the depth image provided from the depth camera 110, and generates joint coordinates of a human in the skeleton image by the joint tracking software.

좌표 추출단계는 상기 스켈레톤 영상 생성단계를 통해 추출된 좌표들 중 사용자의 어깨 및 양발의 좌표를 추출하는 단계이다. 좌표 추출부(212)는 스켈레톤 영상의 관절좌표에서 사용자의 좌우 어깨 좌표 및 좌우 발의 좌표를 추출한다. The coordinate extracting step extracts coordinates of the user's shoulders and feet of the coordinates extracted through the skeleton image generating step. The coordinate extraction unit 212 extracts the coordinates of the left and right shoulders and the coordinates of the left and right feet of the user in the joint coordinates of the skeleton image.

상태검출단계는 상기 좌표 추출단계를 통해 추출된 사용자의 어깨 및 양발의 좌표를 토대로 사용자의 어깨 기울기 및 양발의 스탠스 상태를 산출하는 단계이다. 상태 검출부(213)는 상술된 바와 같이 좌표 추출부(212)로부터 추출된 좌표들을 토대로 어깨의 기울기 및 양발의 좌우 폭, 양발의 전후방향 이격거리를 산출한다. 상태 검출부(213)로부터 산출된 결과 값은 디스플레이부를 통해 사용자에게 표시된다. The state detecting step is a step of calculating the shoulder inclination of the user and the stance state of the feet on the basis of the coordinates of the shoulders and the feet of the user extracted through the coordinate extracting step. The state detecting unit 213 calculates the inclination of the shoulders, the left and right widths of the feet, and the front and back distance of the feet based on the coordinates extracted from the coordinate extracting unit 212 as described above. The resultant value calculated by the state detecting unit 213 is displayed to the user through the display unit.

핸드 정보 산출단계는 상기 센서 정보 획득단계를 통해 획득한 상기 관성센서(120)의 감지정보를 토대로 골프 스윙시 사용자의 손의 움직임을 산출하는 단계이다. 핸드 산출부(230)는 상기 관성센서(120)로부터 측정된 사용자 손의 3축 가속도 값 및 3축 각속도 값을 토대로 사용자 손의 이동궤적을 산출한다. 핸드 산출부(230)는 산출된 손의 이동궤적을 디스플레이부를 통해 사용자에게 표시한다. The hand information calculating step is a step of calculating the motion of the user's hand during the golf swing based on the sensing information of the inertial sensor 120 acquired through the sensor information acquiring step. The hand calculator 230 calculates the movement trajectory of the user's hand based on the three-axis acceleration value and the three-axis angular velocity value of the user's hand measured from the inertial sensor 120. The hand calculation unit 230 displays the calculated movement trajectory of the hand to the user through the display unit.

시점산출단계는 상기 관성센서(120)를 통해 측정된 감지정보를 토대로 스윙 시작시점, 상기 골프클럽의 헤드가 골프공을 타격하는 타격시점 및 상기 스윙 시작시점과 타격시점 사이에 상기 골프클럽 헤드가 최상측에 위치하는 탑 오브 스윙(top of swing) 시점을 산출하는 단계로서, 에너지 변환단계 및 판별단계를 포함한다. The point calculating step may include a swing start point, a golf club head hit point, and a swing start point and a hit point based on the sensed information measured through the inertial sensor 120, Calculating a top of swing time point located on the uppermost side, and includes an energy conversion step and a discrimination step.

상기 에너지 변환단계는 사용자의 골프 스윙에 따라 발생하는 상기 관성센서(120)의 3축 가속도 값을 SVM(Signal Vector Magnitude) 알고리즘을 이용하여 에너지로 변환하는 단계이다. 시점 산출부(240)의 에너지 변환부(241)는 골프 스윙에 따라 발생하는 상기 관성센서(120)의 3축 가속도 값을 이용하여 에너지로 변환하며, 시간에 따른 에너지 값의 변화를 그래프로 산출하여 디스플레이부를 통해 표시한다. The energy conversion step converts the three-axis acceleration value of the inertial sensor 120 generated according to the user's golf swing into energy using a SVM (Signal Vector Magnitude) algorithm. The energy conversion unit 241 of the point-of-view calculation unit 240 converts the three-axis acceleration value of the inertial sensor 120 generated according to the golf swing into energy, and calculates a graph of a change in the energy value with time And displayed on the display unit.

판별단계는 상기 에너지 변환단계를 통해 변환된 사용자의 골프 스윙에 따른 에너지 값에 따라 상기 스윙 시작시점, 탑 오브 스윙 시점 및 타격시점을 판별하는 단계이다. 시점 산출부(240)의 판별부(242)는 상술된 바와 같이 상기 에너지 변환부(241)를 통해 변환된 에너지 값을 토대로 상기 스윙 시작시점, 탑 오브 스윙 시점 및 타격시점을 판별한다. 이때, 판별부(242)는 상기 에너지 변환단계를 통해 변환된 에너지 값이 기설정된 기준값에서 상기 기준값을 초과하는 시점을 상기 스윙 시작시점으로 판별하고, 상기 스윙 시작시점 이후에 상기 에너지 값이 상기 기준값 이하가 되는 시점을 상기 탑 오브 스윙 시점으로 판별하고, 상기 탑 오브 스윙 시점 이후에 상기 에너지 값이 최대값이 되는 시점을 상기 타격시점으로 판별한다. The discriminating step discriminates the swing start point, the top of swing point and the hit point according to the energy value according to the golf swing of the user converted through the energy conversion step. The determination unit 242 of the time point calculation unit 240 determines the swing start point, the top of swing point, and the hit point based on the energy value converted through the energy conversion unit 241 as described above. At this time, the determination unit 242 determines that the energy value converted through the energy conversion step exceeds the reference value at the preset reference value as the swing start point, and after the swing start point, Of the swing time point is determined to be the top of swing time point, and the time point at which the energy value reaches the maximum value after the top of swing time point is determined as the hitting time point.

판별부(242)는 산출된 시점들을 에너지 변환부(241)에 산출된 그래프 및 핸드 산출부(230)에 산출된 그래프에 표시하여 디스플레이부를 통해 디스플레이한다. The determination unit 242 displays the calculated points on the graph calculated by the energy conversion unit 241 and the graph calculated by the hand calculation unit 230, and displays the calculated points on the display unit.

스윙 템포 산출단계는 상기 시점 산출단계를 통해 산출된 각 시점 정보를 토대로, 상기 스윙시작시점부터 상기 탑 오브 스윙 시점까지의 경과시간과 상기 탑 오브 스윙 시점부터 상기 타격시점까지의 경과시간의 비를 산출하는 단계이다. 스윙 템포 산출부(250)는 상기 시점 산출부(240)를 통해 산출된 각 시점 정보를 토대로, 상기 스윙시작시점부터 상기 탑 오브 스윙 시점까지의 경과시간과 상기 탑 오브 스윙 시점부터 상기 타격시점까지의 경과시간의 비를 산출한다.The swing tempo calculating step may calculate the swing tempo based on the time information calculated from the swing starting point to the top of swing time and the elapsed time from the top of swing time to the shooting time, . The swing tempo calculator 250 calculates the swing tempo based on the time information from the swing starting point to the top of swing point and the time from the top of swing point to the impact point Of the elapsed time is calculated.

클럽 정보 산출단계는 상기 스윙 영상 획득단계를 통해 획득한 스윙영상을 토대로 골프스윙시 사용자가 파지한 골프클럽의 샤프트 또는 헤드의 움직임을 산출하는 단계로서, 제1차영상 생성단계, 제2차영상 생성단계, 분석영상 생성단계, 잡음제거단계 및 이미지 검출단계를 포함한다. The club information calculating step may include calculating a motion of a shaft or a head of a golf club held by a user during a golf swing based on the swing image acquired through the swing image acquiring step, A generating step, an analysis image generating step, a noise removing step, and an image detecting step.

제1차영상 생성단계는 상기 고프레임 카메라(130)를 통해 획득한 스윙영상에서 현재 프레임의 영상인 기준영상과, 상기 기준영상의 이전 프레임의 영상인 제1이전영상의 차이를 이용하여 차영상을 생성하는 단계이다. 제1차영상 생성부(221)는 고프레임 카메라(130)로부터 제공된 스윙영상을 그레이 영상으로 변환한 다음, 스윙영상에서 현재 프레임의 영상인 기준영상과, 상기 기준영상의 이전 프레임의 영상인 제1이전영상의 차이를 이용하여 차영상을 생성한다. The first image generating step generates the first image using the difference between the reference image, which is the image of the current frame, and the first previous image, which is the image of the previous frame of the reference image, from the swing image acquired through the high frame camera 130, . The first image generating unit 221 converts the swing image provided from the high frame camera 130 into a gray image and then outputs the reference image, which is the image of the current frame in the swing image, 1 The difference image is generated using the difference of the previous image.

제2차영상 생성단계는 상기 스윙 영상에서 상기 제1이전영상과, 상기 제1이전영상의 이전 프레임의 영상인 제2이전영상의 차이를 이용하여 차영상을 생성하는 단계이다. 제2차영상 생성부(222)는 그레이 영상으로 변환된 스윙 영상에서 상기 제1이전영상과, 상기 제1이전영상의 이전 프레임의 영상인 제2이전영상의 차이를 이용하여 차영상을 생성한다. The second image generation step is a step of generating a difference image using the difference between the first previous image and the second previous image, which is a previous frame of the first previous image, in the swing image. The second image generating unit 222 generates a difference image using the difference between the first previous image and the second previous image, which is the image of the previous frame of the first previous image, in the swing image converted into the gray image .

분석영상 생성단계는 상기 제1 및 제2차영상 생성단계를 통해 생성된 차영상들에서 상호 중첩되는 부분을 검출하여 분석영상을 생성하는 단계이다. 분석영상 생성부(223)는 And 연상을 이용하여 상기 제1 및 제2차영상 생성부(222)를 통해 생성된 차영상들에서 상호 중첩되는 부분을 검출하여 분석영상을 생성한다.The analysis image generation step is a step of generating an analysis image by detecting overlapping portions of the difference images generated through the first and second difference image generation steps. The analysis image generation unit 223 generates an analysis image by detecting overlapping portions of the difference images generated through the first and second difference image generation units 222 using the And association.

잡음제거단계는 상기 분석영상 생성단계를 통해 생성된 분석영상에서 잡음을 제거하는 단계이다. 이때, 잡음제거부(224)는 분석영상에 모폴로지(morphology) 연산을 적용하여 잡음을 제거한다. The noise removing step is a step of removing noise from the analysis image generated through the analysis image generating step. At this time, the noise removing unit 224 removes noise by applying a morphology operation to the analyzed image.

이미지 검출단계는 상기 분석영상 생성단계에서 생성된 분석영상에서 골프 클럽의 샤프트 또는 골프 클럽의 헤드를 검출하는 단계이다. 이때, 이미지 검출부(225)를 통해 허프변환(Hough Transform)을 이용하여 상기 분석영상에서 상기 골프 클럽을 검출하고, 검출된 상기 골프 클럽에서 골프 클럽의 헤드부분의 오검출을 방지하기 위해 커브피팅을 수행한다. 이미지 검출부(225)는 검출된 결과물을 디스플레이부를 통해 사용자에게 표시한다. The image detection step is a step of detecting the head of the golf club or the shaft of the golf club in the analysis image generated in the analysis image generation step. At this time, the golf club is detected in the analysis image using Hough Transform through the image detection unit 225, and the curve fitting is performed to prevent the erroneous detection of the head portion of the golf club in the detected golf club . The image detecting unit 225 displays the detected result to the user through the display unit.

상술된 바와 같이 본 발명에 따른 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템(100) 및 이를 이용한 골프 스윙 분석 방법은 골프 스윙시 사용자의 손을 추적할 수 있도록 관성센서(120)가 마련되고, 뎁스 카메라(110)를 통해 획득한 깊이영상을 토대로 사용자의 스윙시 자세를 분석하고, 고프레임 카메라(130)를 통해 스윙시 골프 클럽의 움직임을 감지할 수 있으므로 골프 스윙에 대한 보다 정확한 분석 결과를 획득할 수 있다는 장점이 있다. As described above, the golf swing analysis system 100 and the golf swing analysis method using the multiple cameras and the single inertial sensor according to the present invention are provided with the inertial sensor 120 for tracking the user's hand in the golf swing The golfer can analyze the user's swing attitude based on the depth image acquired through the depth camera 110 and detect the movement of the golf club during the swing through the high frame camera 130. Therefore, Can be obtained.

제시된 실시예들에 대한 설명은 임의의 본 발명의 기술분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 발명의 기술 분야에서 통상의 지식을 가진자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 발명의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the disclosed embodiments is provided to enable any person skilled in the art to make or use the present invention. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the invention. Thus, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features presented herein.

100: 다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템
110: 뎁스 카메라
130: 고프레임 카메라
120: 관성센서
200: 정보처리유닛
210: 자세 산출부
211: 스켈레톤 영상 생성부
212: 좌표 추출부
213: 상태 검출부
220: 클럽 산출부
221: 제1차영상 생성부
222: 제2차영상 생성부
223: 분석영상 생성부
224: 잡음제거부
225: 이미지 검출부
230: 핸드 산출부
240: 시점 산출부
241: 에너지 변환부
242: 판별부
250: 스윙 템포 산출부
100: Golf swing analysis system using multiple cameras and single inertial sensor
110: Depth camera
130: high frame camera
120: inertia sensor
200: Information processing unit
210:
211: Skeleton image generation unit
212: Coordinate extraction unit
213:
220: Club calculation department
221: a first image generating unit
222: Secondary image generating unit
223: Analysis image generating section
224: Noise canceling
225:
230: Hand calculation unit
240:
241: energy conversion section
242:
250: Swing tempo calculation unit

Claims (20)

골프 스윙을 하는 사용자에 대한 깊이 영상을 촬영하는 뎁스 카메라와;
상기 사용자의 골프 스윙을 촬영하는 고프레임 카메라와;
골프 스윙시 사용자 손의 위치를 감지하기 위해 사용자의 손에 장착된 것으로서, 골프 스윙에 따라 발생하는 사용자 손의 3축 가속도 값을 측정하는 관성센서와;
상기 뎁스 카메라를 통해 획득된 깊이 영상을 토대로 사용자의 자세정보를 산출하는 자세 산출부와;
상기 고프레임 카메라로부터 촬영된 스윙 영상으로부터 사용자가 파지하는 골프 클럽의 움직임을 검출하는 클럽 산출부와;
상기 관성센서를 통해 측정된 감지정보를 토대로 스윙시 상기 사용자의 손의 움직임을 산출하는 핸드 산출부와;
상기 관성센서를 통해 측정된 감지정보를 토대로 스윙 시작시점, 상기 골프클럽이 골프공을 타격하는 타격시점 및 상기 스윙 시작시점과 타격시점 사이에 상기 골프클럽의 헤드가 최상측에 위치하는 탑 오브 스윙(top of swing) 시점을 산출하는 시점 산출부;를 구비하고,
상기 시점 산출부는
사용자의 골프 스윙에 따라 발생하는 상기 관성센서의 3축 가속도 값을 SVM(Signal Vector Magnitude) 알고리즘을 이용하여 에너지로 변환하는 에너지 변환부와,
상기 에너지 변환부를 통해 변환된 에너지 값을 토대로 상기 스윙 시작시점, 탑 오브 스윙 시점 및 타격시점을 판별하는 판별부;를 구비하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템.
A depth camera for photographing a depth image of a user swinging the golf swing;
A high frame camera for photographing the golf swing of the user;
An inertial sensor mounted on a user's hand for sensing a position of a user's hand during a golf swing, the inertial sensor measuring a three-axis acceleration value of a user's hand generated according to a golf swing;
An attitude calculation unit for calculating attitude information of a user based on the depth image acquired through the depth camera;
A club calculating unit for detecting a motion of a golf club held by a user from the swing image photographed by the high frame camera;
A hand calculator for calculating a movement of the user's hand in a swing based on the sensed information measured through the inertial sensor;
A swing start point, a swing start point, a swing start point, and a swing start point, wherein the swing start point, the golf club hit the golf ball, and the swing start point and the hit point, based on the sensed information measured through the inertial sensor, and a time calculating unit for calculating a top of swing time,
The point-
An energy conversion unit for converting the three-axis acceleration value of the inertial sensor generated according to the golf swing of the user into energy using a SVM (Signal Vector Magnitude) algorithm;
And a determination unit for determining the swing start point, the top of swing point, and the hit point based on the energy value converted through the energy conversion unit.
Golf swing analysis system using multiple cameras and single inertial sensor.
제1항에 있어서,
상기 자세 산출부는
상기 뎁스 카메라로부터 획득한 깊이 영상을 토대로 스켈레톤 영상을 생성하고, 생성된 스켈레톤 영상에서 사용자의 각 관절에 대응되는 좌표를 추출하는 스켈레톤 영상 생성부와;
상기 스켈레톤 영상 생성부를 통해 추출된 좌표들 중 사용자의 어깨 및 양발의 좌표를 추출하는 좌표 추출부와;
상기 좌표 추출부를 통해 추출된 사용자의 어깨 및 양발의 좌표를 토대로 사용자의 어깨 기울기 및 양발의 스탠스 상태를 산출하는 상태검출부;를 구비하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템.
The method according to claim 1,
The attitude calculation unit
A skeleton image generating unit for generating a skeleton image based on the depth image acquired from the depth camera and extracting coordinates corresponding to each joint of the user from the generated skeleton image;
A coordinate extraction unit for extracting coordinates of the user's shoulders and feet from the coordinates extracted through the skeleton image generation unit;
And a state detector for calculating the shoulder inclination of the user and the stance state of the feet based on coordinates of the user's shoulders and feet extracted through the coordinate extracting unit,
Golf swing analysis system using multiple cameras and single inertial sensor.
제2항에 있어서,
상기 상태검출부는 양발의 스탠스 상태로서, 사용자의 양발의 좌우 폭 및 양발의 전후방향 이격거리를 산출하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템.
3. The method of claim 2,
Wherein the state detecting section is a stance state of a pair of legs, the state detecting section calculating a lateral distance of the user's legs and a front-
Golf swing analysis system using multiple cameras and single inertial sensor.
제1항에 있어서,
상기 관성센서는 골프 스윙에 따라 발생하는 사용자 손의 3축 가속도 값 및 3축 각속도 값을 측정하고,
상기 핸드 산출부는 상기 관성센서로부터 측정된 사용자 손의 3축 가속도 값을 토대로 사용자 손의 이동궤적을 산출하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템.
The method according to claim 1,
Wherein the inertia sensor measures a three-axis acceleration value and a three-axis angular velocity value of a user's hand generated according to a golf swing,
Wherein the hand calculation unit calculates a movement trajectory of the user's hand based on the three-axis acceleration value of the user's hand measured from the inertial sensor,
Golf swing analysis system using multiple cameras and single inertial sensor.
삭제delete 삭제delete 제1항에 있어서,
상기 판별부는
상기 에너지 변환부를 통해 변환된 에너지 값이 기설정된 기준값에서 상기 기준값을 초과하는 시점을 상기 스윙 시작시점으로 판별하고, 상기 스윙 시작시점 이후에 상기 에너지 값이 상기 기준값 이하가 되는 시점을 상기 탑 오브 스윙 시점으로 판별하고, 상기 탑 오브 스윙 시점 이후에 상기 에너지 값이 최대값이 되는 시점을 상기 타격시점으로 판별하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템.
The method according to claim 1,
The determination unit
Wherein the energy conversion unit determines the time when the energy value converted by the energy conversion unit exceeds the reference value at a preset reference value as the swing start time, and when the energy value becomes less than the reference value after the swing start time, And determining a point in time when the energy value becomes a maximum value after the top of swing time as the point of time of the hitting,
Golf swing analysis system using multiple cameras and single inertial sensor.
제1항에 있어서,
상기 시점 산출부를 통해 산출된 각 시점 정보를 토대로, 상기 스윙시작시점부터 상기 탑 오브 스윙 시점까지의 경과시간과 상기 탑 오브 스윙 시점부터 상기 타격시점까지의 경과시간의 비를 산출하는 스윙 템포 산출부;를 더 구비하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템.
The method according to claim 1,
Calculating a ratio of an elapsed time from the swing start point to the top of swing point to an elapsed time from the top of swing point to the hit point based on each viewpoint information calculated through the viewpoint calculating unit; ; ≪ / RTI >
Golf swing analysis system using multiple cameras and single inertial sensor.
제1항에 있어서,
상기 클럽 산출부는
상기 고프레임 카메라를 통해 획득한 스윙영상에서 현재 프레임의 영상인 기준영상과, 상기 기준영상의 이전 프레임의 영상인 제1이전영상의 차이를 이용하여 차영상을 생성하는 제1차영상 생성부와;
상기 스윙 영상에서 상기 제1이전영상과, 상기 제1이전영상의 이전 프레임의 영상인 제2이전영상의 차이를 이용하여 차영상을 생성하는 제2차영상 생성부와;
상기 제1 및 제2차영상 생성부를 통해 생성된 차영상들에서 상호 중첩되는 부분을 검출하여 분석영상을 생성하는 분석영상 생성부와;
상기 분석영상 생성부에서 생성된 분석영상에서 상기 골프 클럽의 샤프트 또는 헤드를 검출하는 이미지 검출부;를 구비하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 시스템.
The method according to claim 1,
The club calculator
A first image generating unit for generating a difference image using a difference between a reference image, which is a current frame image, and a first previous image, which is a previous frame image of the reference image, in a swing image acquired through the high frame camera; ;
A second image generation unit for generating a difference image using the difference between the first previous image and the second previous image, which is an image of a previous frame of the first previous image, in the swing image;
An analysis image generating unit for detecting an overlapping portion of the difference images generated through the first and second difference image generating units to generate an analysis image;
And an image detecting unit for detecting a shaft or a head of the golf club from the analysis image generated by the analysis image generating unit.
Golf swing analysis system using multiple cameras and single inertial sensor.
제9항에 있어서,
상기 클럽 산출부는 상기 분석영상 생성부를 통해 생성된 상기 분석영상의 잡음을 제거할 수 있도록 필터링하기 위해 상기 분석영상에 모폴로지(morphology) 연산을 적용하는 잡음제거부;를 더 구비하는,
다중 카메라 및 단일 관성 센서를 이용한 골프 스윙 분석 시스템.
10. The method of claim 9,
Wherein the club calculator further comprises a noise eliminator for applying a morphology operation to the analysis image to filter the noise of the analysis image generated through the analysis image generator,
Golf swing analysis system using multiple cameras and single inertial sensor.
제9항에 있어서,
상기 이미지 검출부는 허프변환(Hough Transform)을 이용하여 상기 분석영상에서 상기 골프 클럽을 검출하고, 검출된 상기 골프 클럽에서 상기 헤드의 오검출을 방지하기 위해 커브피팅을 수행하는,
다중 카메라 및 단일 관성 센서를 이용한 골프 스윙 분석 시스템.
10. The method of claim 9,
Wherein the image detecting unit detects the golf club in the analysis image using a Hough Transform and performs curve fitting to prevent erroneous detection of the head in the detected golf club.
Golf swing analysis system using multiple cameras and single inertial sensor.
뎁스 카메라로부터 골프 스윙을 수행하는 사용자에 대한 깊이 영상을 획득하는 깊이 영상 획득단계와;
상기 골프 스윙 시 사용자의 손에 장착되어 골프 스윙에 따라 발생하는 사용자 손의 3축 가속도 및 3축 각속도 값을 측정하는 관성센서의 감지정보를 획득하는 센서 정보 획득단계와;
고프레임 카메라로부터 상기 골프 스윙시 사용자의 스윙에 대한 스윙 영상을 획득하는 스윙 영상 획득단계와;
상기 깊이 영상 획득단계를 통해 획득한 깊이 영상을 토대로 사용자의 자세정보를 산출하는 자세 정보 산출단계와;
상기 센서 정보 획득단계를 통해 획득한 상기 관성센서의 감지정보를 토대로 골프 스윙시 사용자의 손의 움직임을 산출하는 핸드 정보 산출단계와;
상기 스윙 영상 획득단계를 통해 획득한 스윙영상을 토대로 골프스윙시 사용자가 파지한 골프클럽의 샤프트 또는 헤드의 움직임을 산출하는 클럽 정보 산출단계와;
상기 관성센서를 통해 측정된 감지정보를 토대로 스윙 시작시점, 상기 골프클럽 헤드가 골프공을 타격하는 타격시점 및 상기 스윙 시작시점과 타격시점 사이에 상기 골프클럽 헤드가 최상측에 위치하는 탑 오브 스윙(top of swing) 시점을 산출하는 시점 산출단계;를 포함하고,
상기 시점 산출단계는
사용자의 골프 스윙에 따라 발생하는 상기 관성센서의 3축 가속도 값을 SVM(Signal Vector Magnitude) 알고리즘을 이용하여 에너지로 변환하는 에너지 변환단계와,
상기 에너지 변환단계를 통해 변환된 사용자의 골프 스윙에 따른 에너지 값에 따라 상기 스윙 시작시점, 탑 오브 스윙 시점 및 타격시점을 판별하는 판별단계;를 구비하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 방법.
A depth image acquiring step of acquiring a depth image for a user performing a golf swing from a depth camera;
A sensor information acquiring step of acquiring sensed information of an inertia sensor mounted on a user's hand during the golf swing and measuring a three-axis acceleration and a three-axis angular velocity of a user's hand generated according to a golf swing;
A swing image acquiring step of acquiring a swing image of the user's swing in the golf swing from the high frame camera;
An attitude information calculating step of calculating attitude information of a user based on the depth images acquired through the depth image acquiring step;
A hand information calculating step of calculating a movement of a user's hand in golf swing based on the sensed information of the inertial sensor acquired through the sensor information acquiring step;
A club information calculating step of calculating a movement of a shaft or a head of a golf club held by the user during a golf swing based on the swing image acquired through the swing image acquiring step;
A swing start point, a golf swing start point, a swing start point, and a swing start point, wherein the swing start point, the golf club head hit a golf ball, and the top of swing and calculating a top of swing time,
The point calculation step
An energy conversion step of converting the three-axis acceleration value of the inertial sensor generated according to the golf swing of the user into energy using a SVM (Signal Vector Magnitude) algorithm;
A swing start point, a top of swing point, and a hit point according to an energy value according to a golf swing of the user converted through the energy conversion step;
A golf swing analysis method using multiple cameras and a single inertial sensor.
삭제delete 삭제delete 제12항에 있어서,
상기 판별단계에서, 상기 에너지 변환단계를 통해 변환된 에너지 값이 기설정된 기준값에서 상기 기준값을 초과하는 시점을 상기 스윙 시작시점으로 판별하고, 상기 스윙 시작시점 이후에 상기 에너지 값이 상기 기준값 이하가 되는 시점을 상기 탑 오브 스윙 시점으로 판별하고, 상기 탑 오브 스윙 시점 이후에 상기 에너지 값이 최대값이 되는 시점을 상기 타격시점으로 판별하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 방법.
13. The method of claim 12,
Wherein the determining step determines the time when the energy value converted through the energy conversion step exceeds the reference value at a preset reference value as the swing start time and the energy value is less than the reference value after the swing start time Determining a point of time at which the energy value becomes a maximum value after the top of swing time as the point of time of the swing,
A golf swing analysis method using multiple cameras and a single inertial sensor.
제12항에 있어서,
상기 시점 산출단계를 통해 산출된 각 시점 정보를 토대로, 상기 스윙시작시점부터 상기 탑 오브 스윙 시점까지의 경과시간과 상기 탑 오브 스윙 시점부터 상기 타격시점까지의 경과시간의 비를 산출하는 스윙 템포 산출단계;를 더 포함하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 방법.
13. The method of claim 12,
Calculating a swing tempo computing a ratio of an elapsed time from the swing start point to the top of swing point to an elapsed time from the top of swing point to the hit point based on each viewpoint information calculated through the point calculating step; Further comprising:
A golf swing analysis method using multiple cameras and a single inertial sensor.
제12항에 있어서,
상기 자세 정보 산출단계는
상기 뎁스 카메라로부터 획득한 깊이 영상을 토대로 스켈레톤 영상을 생성하고, 생성된 스켈레톤 영상에서 사용자의 각 관절에 대응되는 좌표를 추출하는 스켈레톤 영상 생성단계와,
상기 스켈레톤 영상 생성단계를 통해 추출된 좌표들 중 사용자의 어깨 및 양발의 좌표를 추출하는 좌표 추출단계와,
상기 좌표 추출단계를 통해 추출된 사용자의 어깨 및 양발의 좌표를 토대로 사용자의 어깨 기울기 및 양발의 스탠스 상태를 산출하는 상태검출단계;를 구비하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 방법.
13. The method of claim 12,
The posture information calculating step
A skeleton image generating step of generating a skeleton image based on the depth image acquired from the depth camera and extracting coordinates corresponding to each joint of the user from the generated skeleton image,
A coordinate extracting step of extracting a coordinate of a user's shoulder and foot from coordinates extracted through the skeleton image generating step,
And a state detecting step of calculating the shoulder inclination of the user and the stance state of the feet based on the coordinates of the shoulders and the feet of the user extracted through the coordinate extracting step,
A golf swing analysis method using multiple cameras and a single inertial sensor.
제12항에 있어서,
상기 클럽 정보 산출단계는
상기 고프레임 카메라를 통해 획득한 스윙영상에서 현재 프레임의 영상인 기준영상과, 상기 기준영상의 이전 프레임의 영상인 제1이전영상의 차이를 이용하여 차영상을 생성하는 제1차영상 생성단계와,
상기 스윙 영상에서 상기 제1이전영상과, 상기 제1이전영상의 이전 프레임의 영상인 제2이전영상의 차이를 이용하여 차영상을 생성하는 제2차영상 생성단계와,
상기 제1 및 제2차영상 생성단계를 통해 생성된 차영상들에서 상호 중첩되는 부분을 검출하여 분석영상을 생성하는 분석영상 생성단계와,
상기 분석영상 생성단계에서 생성된 분석영상에서 골프 클럽의 샤프트 또는 골프 클럽의 헤드를 검출하는 이미지 검출단계를 구비하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석 방법.
13. The method of claim 12,
The club information calculating step
A first image generation step of generating a difference image using a difference between a reference image which is a current frame image and a first previous image which is a previous frame image of the reference image in a swing image obtained through the high frame camera, ,
A second image generation step of generating a difference image using the difference between the first previous image and the second previous image, which is a previous frame of the first previous image, in the swing image;
An analysis image generation step of generating an analysis image by detecting overlapping parts of the difference images generated through the first and second difference image generation steps,
And an image detecting step of detecting the head of the golf club or the shaft of the golf club in the analysis image generated in the analysis image generating step,
A golf swing analysis method using multiple cameras and a single inertial sensor.
제18항에 있어서,
상기 클럽 정보 산출단계는
상기 분석영상 생성단계를 통해 생성된 분석영상에서 잡음을 제거하기 위해 상기 분석영상에 모폴로지(morphology) 연산을 적용하는 잡음제거단계를 더 포함하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석방법.
19. The method of claim 18,
The club information calculating step
Further comprising a noise removal step of applying a morphology operation to the analysis image to remove noise from the analysis image generated through the analysis image generation step,
A golf swing analysis method using multiple cameras and a single inertial sensor.
제18항에 있어서,
상기 이미지 검출단계에서, 허프변환(Hough Transform)을 이용하여 상기 분석영상에서 상기 골프 클럽을 검출하고, 검출된 상기 골프 클럽에서 골프 클럽의 헤드부분의 오검출을 방지하기 위해 커브피팅을 수행하는,
다중 카메라 및 단일 관성센서를 이용한 골프 스윙 분석방법.























19. The method of claim 18,
Detecting the golf club in the analysis image using a Hough Transform in the image detection step and performing curve fitting to prevent erroneous detection of a head part of the golf club in the detected golf club,
A golf swing analysis method using multiple cameras and a single inertial sensor.























KR1020160161943A 2016-11-30 2016-11-30 Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same KR101913667B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160161943A KR101913667B1 (en) 2016-11-30 2016-11-30 Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160161943A KR101913667B1 (en) 2016-11-30 2016-11-30 Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same

Publications (2)

Publication Number Publication Date
KR20180062069A KR20180062069A (en) 2018-06-08
KR101913667B1 true KR101913667B1 (en) 2018-10-31

Family

ID=62600114

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160161943A KR101913667B1 (en) 2016-11-30 2016-11-30 Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same

Country Status (1)

Country Link
KR (1) KR101913667B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096476B1 (en) 2019-01-04 2020-04-02 주식회사 바이오텍에스알에스 User body-customized motion analysis system
KR20200099224A (en) * 2019-02-13 2020-08-24 대진대학교 산학협력단 A System Providing Advertisement Service With Chauffeured Car Of Driving Range In Branded Mobility Industry

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102353637B1 (en) 2019-03-17 2022-01-21 이상국 Method and apparatus of analyzing golf motion
KR20220049736A (en) * 2020-10-15 2022-04-22 주식회사 모아이스 Method, system and non-transitory computer-readable recording medium for estimating information on golf swing pose
KR102449722B1 (en) * 2020-10-23 2022-10-04 (주)브레인키즈 golf swing path trace method and apparatus thereof
KR102630160B1 (en) * 2021-06-15 2024-01-29 주식회사 뱅코 Golf swing analysis system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101428922B1 (en) * 2013-04-19 2014-08-11 한밭대학교 산학협력단 Golf swing classification apparatus and method using fuzzy system
KR101525411B1 (en) * 2014-04-30 2015-06-09 주식회사 골프존유원홀딩스 Image generating method for analysis of user's golf swing, analyzing method for user's golf swing using the same and apparatus for analyzing golf swing

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200393403Y1 (en) * 2005-05-13 2005-08-22 정순구 golf management machine having the function of swing practice
JP6300195B2 (en) 2012-10-05 2018-03-28 セイコーエプソン株式会社 Golf swing analysis apparatus and golf swing analysis method
JP6361147B2 (en) * 2014-01-29 2018-07-25 横浜ゴム株式会社 Swing measuring method and swing measuring apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101428922B1 (en) * 2013-04-19 2014-08-11 한밭대학교 산학협력단 Golf swing classification apparatus and method using fuzzy system
KR101525411B1 (en) * 2014-04-30 2015-06-09 주식회사 골프존유원홀딩스 Image generating method for analysis of user's golf swing, analyzing method for user's golf swing using the same and apparatus for analyzing golf swing

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096476B1 (en) 2019-01-04 2020-04-02 주식회사 바이오텍에스알에스 User body-customized motion analysis system
KR20200099224A (en) * 2019-02-13 2020-08-24 대진대학교 산학협력단 A System Providing Advertisement Service With Chauffeured Car Of Driving Range In Branded Mobility Industry
KR102213560B1 (en) * 2019-02-13 2021-02-08 대진대학교 산학협력단 A System Providing Advertisement Service With Chauffeured Car Of Driving Range In Branded Mobility Industry

Also Published As

Publication number Publication date
KR20180062069A (en) 2018-06-08

Similar Documents

Publication Publication Date Title
KR101913667B1 (en) Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same
KR101078975B1 (en) Sensing device and method used to apparatus for virtual golf simulation
US20240312030A1 (en) Tracking of handheld sporting implements using computer vision
JP6575609B2 (en) Sensing device and sensing method for moving ball
US11615541B2 (en) Ball tracking apparatus and ball tracking method
JP6369811B2 (en) Gait analysis system and gait analysis program
JP6776882B2 (en) Motion analyzers, methods and programs
JP2018026131A (en) Motion analyzer
US20170296869A1 (en) Display method, swing analysis apparatus, swing analysis system, swing analysis program, and recording medium
KR101896827B1 (en) Apparatus and Method for Estimating Pose of User
KR101636171B1 (en) Skeleton tracking method and keleton tracking system using the method
KR101972526B1 (en) golf swing correcting system
JP5572853B2 (en) Sensing device for moving object, sensing processing method, and virtual golf simulation device using the same
KR101525411B1 (en) Image generating method for analysis of user's golf swing, analyzing method for user's golf swing using the same and apparatus for analyzing golf swing
JP6993866B2 (en) Golf swing evaluation system and golf swing evaluation method
US20180147447A1 (en) Method of evaluating stability of golf swing
US20220273998A1 (en) Detecting method of golf club and sensing device using the same
JP7482471B2 (en) How to generate a learning model
US20230285802A1 (en) Method, device, and non-transitory computer-readable recording medium for estimating information on golf swing
JP7292870B2 (en) Golf swing evaluation system and golf swing evaluation method
JP6944144B2 (en) Swing analyzer, method and program
JP7017921B2 (en) Golf swing evaluation system and golf swing evaluation method
JP6710961B2 (en) Golf swing analysis method
KR102534463B1 (en) Golf lesson system using a joint of human body and a golf club based on AI
TWI775637B (en) Golf swing analysis system, golf swing analysis method and information memory medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant