WO2018030734A1 - 3d 시뮬레이션 방법 및 장치 - Google Patents
3d 시뮬레이션 방법 및 장치 Download PDFInfo
- Publication number
- WO2018030734A1 WO2018030734A1 PCT/KR2017/008506 KR2017008506W WO2018030734A1 WO 2018030734 A1 WO2018030734 A1 WO 2018030734A1 KR 2017008506 W KR2017008506 W KR 2017008506W WO 2018030734 A1 WO2018030734 A1 WO 2018030734A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- motion
- parameter
- user
- trajectory
- generating
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B69/00—Training appliances or apparatus for special sports
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
Definitions
- the present invention relates to a 3D simulation method and apparatus, and more particularly, to a method and apparatus for simulating a walking and driving motion of a user in three dimensions.
- the present invention has been made in view of the above-described technical problem, the object of the present invention is to substantially compensate for the various problems caused by the limitations and disadvantages in the prior art, the walking and driving movement of the user 3
- the present invention provides a method and apparatus for simulating dimensions, and a computer readable recording medium having recorded thereon a program for executing the method.
- the 3D simulation method comprises: receiving a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input; Generating a 3D model of a user based on the model parameter and the pose parameter; Generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And generating the 3D simulation of the user by applying the motion trajectory to the 3D model.
- the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
- the model parameter is a parameter related to the appearance of the user;
- the posture parameter is a parameter relating to the posture of the user;
- the motion space parameter is a parameter relating to a spatial trajectory of the user's motion;
- the motion time parameter is a parameter related to a time trajectory of the motion of the user.
- the model parameter includes at least one of height, weight, foot length, leg length, age, gender, and wearing information.
- the pose parameter includes at least one of interpolation, interpolation angle, and vertical viewing angle.
- the motion space parameter may include a vertical section of the support section, a vertical section of the support section, a vertical section of the vertical section, the maximum vertical force load ratio, the average vertical force load ratio, the impact amount, the left and right uniformity, the left and right balance, the stride, the landing feet, , Left and right pelvis angle and at least one of the left and right eye angle.
- the motion time parameter includes at least one of one foot support time, one foot suspension time, and one minute repair.
- the motion space parameter may include at least one of up and down oscillation width, up and down oscillation width, left and right uniformity, left and right balance, stride length, landing foot, upper and lower pelvis angle, left and right pelvis angle and left and right eye angle. Include.
- the motion time parameter includes at least one of one foot support time, two feet support time, and one minute repair.
- the generating of the motion trajectory of the user may include: motion motion data modeling a predetermined motion motion; And basic motion data independent of the motion space parameter and the motion time parameter.
- the motion motion data and the basic motion data are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section. .
- the motion motion data and the basic motion data are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
- the four-step data includes motion trajectory values of the up, down, left, and right axes of the joints.
- said joint is at least one of the neck, shoulder, waist, knee, arm, elbow, ankle and toe.
- the generating of the motion trajectory of the user may include: generating a first adjustment value by adjusting a gain value based on the motion space parameter to reflect the motion motion data; And generating a second adjustment value by adjusting a gain value based on the motion time parameter to reflect the first adjustment value.
- the generating of the motion trajectory of the user may include: generating a first adjustment value by adjusting a gain value based on the motion time parameter by reflecting the motion motion data; And generating a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter to the first adjustment value.
- generating the motion trajectory of the user further includes merging the basic motion data and the second adjustment value.
- the present invention includes a computer-readable recording medium on which a program for performing the method is recorded.
- the 3D simulation apparatus includes a parameter input unit for receiving a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input; A 3D model generator for generating a 3D model of the user based on the model parameter and the pose parameter; A motion trajectory generation unit generating a motion trajectory of the user based on the motion space parameter and the motion time parameter; And a 3D simulation generator configured to generate the 3D simulation of the user by applying the motion trajectory to the 3D model.
- a 3D model and a motion trajectory are generated on the basis of a model parameter, a posture parameter, a motion space parameter, and a motion time parameter input from an exercise recognition device or a user to provide a 3D simulation about an exercise posture, and the like.
- the user can recognize, detect and analyze the state of exercise effectively and accurately. Therefore, through the 3D simulation according to the present invention, the user can effectively and accurately recognize his or her motion and walking state, and can be used to correct his or her posture through 3D simulation analysis.
- FIG. 1 illustrates a 3D simulation result according to an embodiment of the present invention.
- FIG. 2 is a block diagram of a 3D simulation apparatus according to an embodiment of the present invention.
- FIG. 3 illustrates a 3D model of a user reflecting model parameters according to an embodiment of the present invention.
- FIG. 4 illustrates a 3D model of a user reflecting a posture parameter according to an embodiment of the present invention.
- FIG 5 illustrates a four-step movement motion when the movement motion according to an embodiment of the present invention is driving.
- FIG. 6 illustrates a four-step motion motion when the motion motion is walking according to an embodiment of the present invention.
- FIG. 7 is a block diagram of a motion trajectory generation unit according to an embodiment of the present invention.
- FIG. 8 is an exemplary view of adjusting and adjusting a motion space parameter in the motion motion data according to an embodiment of the present invention.
- FIG. 9 is an exemplary view of adjusting and reflecting a motion time parameter in exercise motion data according to an embodiment of the present invention.
- FIG. 10 is a flowchart of a 3D simulation method according to an embodiment of the present invention.
- FIG. 1 illustrates a 3D simulation result according to an embodiment of the present invention.
- the 3D simulation apparatus 200 receives a model parameter, a posture parameter, a motion space parameter, and a motion time parameter based on an external input, and generates a 3D model and a motion trajectory of a user who is exercising based on the input. This creates a 3D simulation.
- the model parameters such as the user's height, foot length and leg length, posture parameters such as interpolation and interpolation angle, motion space parameters such as stride length, left and right uniformity and left and right balance, and motion time parameters such as air suspension time
- the 3D simulation apparatus 200 3D simulated walking and driving motions of the user.
- FIG. 2 is a block diagram of a 3D simulation apparatus according to an embodiment of the present invention.
- the 3D simulation apparatus 200 includes a parameter input unit 210, a 3D model generator 230, a motion trajectory generator 250, and a 3D simulation generator 270.
- the parameter input unit 210 receives the model parameter 211, the posture parameter 213, the motion space parameter 215, and the motion time parameter 217 based on the external input.
- the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
- the exercise recognition device refer to Korean patent, 'A motion recognition method and device for pedestrian and driving monitoring' (application number: 10-2016-0101489, application date: 2016.08.09), 'pressure center path Method and Apparatus for Deriving Based Exercise Posture '(Application No .: 10-2016-0101491, Filed Date: 2016.08.09),' Method and Apparatus for Recognizing Exercise for Walking and Driving Monitoring '(Application No .: 10-2017-0030394 No.
- the model parameter 211 is a parameter related to the user's appearance, and includes height, weight, foot length, leg length, age, gender, and wearing information. At least one of the.
- the wear information includes the type, name and brand of the product worn by the user. Products worn by the user include accessories such as watches, clothes, shoes, and the like.
- the posture parameter 213 is a parameter related to a posture of a user and includes at least one of interpolation (Step width), interpolation (Step angle), and head vertical angle. Interpolation is the average value between the legs, and interpolation is the leg angle average value. Up-and-down eye angle means an average value of the vertical angle of the head.
- the motion space parameter 215 is a parameter related to the trajectory of the user's motion.
- the motion space parameter 215 includes vertical oscillation during stance, vertical oscillation during flight, Instantaneous Vertical Loading Rate (IVLR), Average Vertical Loading Rate (AVLR), Impact, Impact, Stability, Balance, Step Length, At least one of a foot strike pattern, a pelvic vertical rotation, a pelvic lateral rotation, and a head lateral angle.
- the motion space parameter 215 may include vertical oscillation during single stance, vertical oscillation during double stance, left and right uniformity, left and right balance, stride length, landing foot, and the like when the user walks. At least one of the upper and lower pelvis angle, left and right pelvis angle and left and right eye angle.
- the vertical vibration width of the support section means the vertical movement distance (meter) in the support section
- the vertical vibration width of the floating section means the vertical movement distance in the floating section.
- the maximum vertical force load rate is the instantaneous vertical force load rate (Newton / second), which means the maximum slope of the support section of the ground reaction force.
- Mean vertical force load ratio (Newton / second) means the average slope of the support section of ground reaction force. Impact amount refers to the impact force (Newton) of the support section of the ground reaction force.
- Stability refers to whether the state of movement is consistently maintained for each leg of the left and right foot in time, strength, etc., and expressed in% using the coefficient of variation (CV) of each leg.
- Values that can be used as index for evaluation index include maximum vertical force, vertical acceleration maximum, support section impact, support time, stray time, average vertical force load rate and maximum vertical force load rate.
- Balance of left and right represents the left and right unbalance (%), and is obtained by the following equation.
- Step length refers to the distance traveled forward during the support section and the floating section, and the foot strike pattern indicates which foot to land on.
- the landing foot may be one of a fore foot, a rear foot, and a mid foot.
- the pelvic vertical rotation and the pelvic lateral rotation mean the degree of vertical and horizontal distortion of the pelvis, respectively.
- Head lateral angle is an average value of the left and right angles of the head.
- the motion time parameter 217 is a parameter related to the time trajectory of the user's motion.
- the motion time parameter 217 includes at least one of a single stance time, a single flight time, and a cadence per minute. It includes one.
- the motion time parameter 217 includes at least one of a single stance time, a double stance time, and a minute's reward when the user walks.
- the 3D model generator 230 generates a 3D model of the user based on the model parameter 211 and the attitude parameter 213.
- the motion trajectory generation unit 250 generates a motion trajectory of the user based on the motion space parameter 215 and the motion time parameter 217. The detailed operation of the motion trajectory generation unit 250 will be described later in detail with reference to FIGS. 5 to 9.
- the 3D simulation generator 270 generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
- FIG. 3 illustrates a 3D model of a user reflecting model parameters according to an embodiment of the present invention.
- the 3D model is generated by reflecting the height of the user among the model parameters 211.
- FIG. 4 illustrates a 3D model of a user reflecting a posture parameter according to an embodiment of the present invention.
- the 3D model is generated by reflecting the interpolation and the interpolation angle of the user among the posture parameters 213.
- FIG 5 illustrates a four-step movement motion when the movement motion according to an embodiment of the present invention is driving.
- the movement movement is repeatedly performed in four stages including the left foot support section, the left foot float section, the right foot support section and the right foot float section.
- FIG. 6 illustrates a four-step motion motion when the motion motion is walking according to an embodiment of the present invention.
- the movement movement is repeatedly performed in four stages including a left foot support section, a biped support section, a right foot support section, and a foot support section.
- FIG. 7 is a block diagram of a motion trajectory generation unit according to an embodiment of the present invention.
- the motion trajectory generation unit 700 includes the motion motion data 720 and the basic motion data 730.
- the motion motion data 720 is pre-stored data by modeling a predetermined motion motion
- the basic motion data 730 is data previously stored as motion data independent of the motion space parameter 715 and the motion time parameter 717.
- the basic motion data 730 may be data about a tumbling motion such as an arm motion or an upper body distortion that has little change in movement.
- the movement motion data 720 and the basic motion data 730 are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section.
- the motion motion data 720 and the basic motion data 730 are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
- Each step includes three-axis motion trajectory values of the vertical axis (z axis), the left and right axis (y axis), and the front and rear axis (x axis) for each joint.
- the joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
- the motion trajectory generation unit 700 further includes a motion space parameter adjusting unit 750 and a motion time parameter adjusting unit 770.
- the motion time parameter adjusting unit 770 generates a second adjustment value by reflecting and adjusting the gain value based on the motion time parameter 717 to the first adjustment value.
- the motion time parameter adjusting unit 770 generates the first adjustment value by reflecting and adjusting the gain value based on the motion time parameter 717 in the motion motion data 720.
- the motion space parameter adjusting unit 750 generates a second adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 to the first adjustment value.
- the motion trajectory generation unit 700 further includes a motion trajectory merger 790.
- the motion trajectory merging unit 790 merges the basic motion data and the second adjustment value to generate a motion trajectory of the user.
- FIG. 8 is an exemplary view of adjusting and adjusting a motion space parameter in the motion motion data according to an embodiment of the present invention.
- the typical waist triaxial motion trajectory value stored in the athletic motion data 720 is shown in solid blue for the driving motion.
- the motion space parameter adjusting unit 750 generates a first adjustment value by reflecting and adjusting the gain value based on the motion space parameter 715 to the 3-axis motion trajectory value of the waist.
- the first adjustment value of the z-axis among the 3-axis motion trajectory values of the waist is reduced in amplitude compared to the general waist 3-axis motion trajectory value stored in the motion motion data 720.
- FIG. 9 is an exemplary view of adjusting and adjusting motion time parameters in exercise motion data according to another exemplary embodiment of the present invention.
- the typical waist triaxial motion trajectory value stored in the athletic motion data 720 is shown in solid blue for the driving motion.
- the motion time parameter adjustment unit adjusts the gain value based on the motion time parameter to reflect the 3-axis motion trajectory value of the waist, thereby generating a first adjustment value.
- the first adjustment value of the z-axis among the three-axis motion trajectory values of the waist is reduced in the right foot support time compared to the general waist three-axis motion trajectory values stored in the motion motion data.
- FIG. 10 is a flowchart of a 3D simulation method according to an embodiment of the present invention.
- the 3D simulation apparatus 200 receives a model parameter, a pose parameter, a motion space parameter, and a motion time parameter based on an external input.
- the external input may be input from a user or may be input by recognizing a user's exercise from an exercise recognition device.
- the 3D simulation apparatus 200 generates a 3D model of the user based on the model parameter and the pose parameter.
- the 3D simulation apparatus 200 generates a motion trajectory of the user based on the motion space parameter and the motion time parameter.
- the generating of the motion trajectory of the user uses motion motion data modeling a predetermined motion motion and basic motion data independent of the motion space parameter and the motion time parameter.
- the motion motion data and the basic motion data are four-step data including a left foot support section, a left foot float section, a right foot support section, and a right foot float section.
- the motion motion data and the basic motion data are four-step data including a left foot support section, a biped support section, a right foot support section, and a biped support section.
- the four-step data includes the motion trajectory values of the up, down, left and right axes, and front and rear axes for each joint.
- the joint is at least one of a neck, shoulder, waist, knee, arm, elbow, ankle and toe.
- the generating of the motion trajectory of the user may be performed by reflecting and adjusting the gain value based on the motion space parameter in the motion motion data, thereby generating a first adjustment value and adjusting the gain value based on the motion time parameter.
- the second adjustment value is generated by adjusting to reflect the value.
- the generating of the motion trajectory of the user may include adjusting the gain value based on the motion time parameter to reflect the motion motion data, thereby generating a first adjustment value and generating the motion space parameter.
- the second adjustment value is generated by adjusting the gain value based on the reflection on the first adjustment value.
- the generating of the motion trajectory of the user further includes merging the basic motion data and the second adjustment value.
- the 3D simulation apparatus 200 generates the 3D simulation of the user by applying the motion trajectory to the 3D model.
- an apparatus may include a bus coupled to units of each of the apparatus as shown, at least one processor coupled to the bus, and a command, received And a memory coupled to the bus for storing messages or generated messages, and coupled to at least one processor for performing instructions as described above.
- the system according to the present invention can be embodied as computer readable codes on a computer readable recording medium.
- the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
- the computer-readable recording medium may include a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM, DVD, etc.).
- the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
- a 3D model and a motion trajectory are generated on the basis of a model parameter, a posture parameter, a motion space parameter, and a motion time parameter input from an exercise recognition device or a user to provide a 3D simulation about an exercise posture, and the like.
- the user can recognize, detect and analyze the state of exercise effectively and accurately. Therefore, through the 3D simulation according to the present invention, the user can effectively and accurately recognize his or her motion and walking state, and can be used to correct his or her posture through 3D simulation analysis.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physical Education & Sports Medicine (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Rehabilitation Tools (AREA)
- Processing Or Creating Images (AREA)
Abstract
외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 파라미터 입력부; 상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 3D 모델 생성부; 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 모션 궤적 생성부; 및 상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 3D 시뮬레이션 생성부를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치 및 그 방법이 개시되어 있다.
Description
본 발명은 3D 시뮬레이션 방법 및 장치에 관한 것으로서, 보다 상세하게는 사용자의 보행 및 주행 운동을 3차원으로 시뮬레이션하는 방법 및 장치에 관한 것이다.
일반적으로 현대인의 일상생활에서의 운동량은 적절한 신체 건강을 유지하기에 상당히 부족하다는 점이 꾸준히 지적되어 왔다. 이에 따라 효과적으로 건강을 촉진하는 체계적인 운동 방법에 대한 관심도가 높아지고 있다. 구체적으로, 체계적이고 효율적으로 신속하게 신체를 단련할 수 있도록 하는 운동, 장기적인 관점에서의 건강 촉진을 위한 자세의 교정 등과 같은 운동 및 인간 수명이 길어짐에 따라 신체 능력이 저하된 노인에게 적합한 운동 등 다양한 운동에 대한 관심이 높아지는 실정이다. 이와 같은 다양한 요구에 부합하는 운동 방법 중 하나로서, 누구나 쉽게 할 수 있는 보행 및 주행 운동이 있다.
신체적인 문제가 없는 사람이라면 누구나 보행 및 주행할 수 있기 때문에 대부분의 사람들은 무의식적으로 익숙해진 자세로 보행 및 주행을 하게 된다. 그런데 사람의 신체란 완벽하게 대칭적이지 않기 때문에, 대부분의 경우 불균형하고 올바르지 못한 자세로 보행 및 주행이 이루어진다. 이와 같은 잘못된 자세의 지속적인 보행 및 주행은 근육과 골격을 비뚤어지게 하고, 나아가 다양한 전신통증을 유발하는 원인이 되기도 한다. 일반인의 경우 이와 같은 잘못된 보행 및 주행 자세는 신체 건강을 저하시키는 문제를 발생시키며, 특히 자라나는 어린이나 신체 능력이 저하된 노인의 경우 체형 왜곡이나 건강 저하 문제가 더욱 심하게 나타난다. 한편 운동선수 및 무용수 등과 같이 일반인보다 더욱 향상된 신체 능력을 필요로 하는 전문인들에게는 신체 능력 향상에의 한계를 발생시키는 등의 문제가 있다.
이처럼 올바른 보행 및 주행 자세는 일반인부터 전문인에 이르기까지 중요하며, 따라서 보행 및 주행 자세를 어떻게 인식하며, 어떻게 교정을 효과적으로 수행할 것인지에 대한 다양한 연구가 이루어지고 있다. 이처럼 보행 및 주행 자세를 교정하기 위하여 보행 및 주행을 인식, 감지 및 분석하는 기술에 대한 요구가 점점 커지고 있다.
본 발명은 상술한 기술적 문제에 대응하기 위하여 안출된 것으로, 본 발명의 목적은 종래 기술에서의 한계와 단점에 의해 발생하는 다양한 문제점을 실질적으로 보완할 수 있는 것으로, 사용자의 보행 및 주행 운동을 3차원으로 시뮬레이션하는 방법 및 그 장치를 제공하는데 있고, 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.
본 발명의 일 실시예에 따르면 3D 시뮬레이션 방법은 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 단계; 상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 단계; 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 단계; 및 상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 단계를 포함한다.
본 발명의 일 실시예에 따르면 상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된다.
본 발명의 일 실시예에 따르면 상기 모델 파라미터는 상기 사용자의 외형에 관한 파라미터이고; 상기 자세 파라미터는 상기 사용자의 자세에 관한 파라미터이고; 상기 모션 공간 파라미터는 상기 사용자의 모션의 공간 궤적에 관한 파라미터이고; 상기 모션 시간 파라미터는 상기 사용자의 모션의 시간 궤적에 관한 파라미터이다.
본 발명의 일 실시예에 따르면 상기 모델 파라미터는 신장, 몸무게, 발 길이, 다리 길이, 나이, 성별 및 착용 정보 중 적어도 하나를 포함한다.
본 발명의 일 실시예에 따르면 상기 자세 파라미터는 보간, 보각 및 상하 시선각 중 적어도 하나를 포함한다.
본 발명의 일 실시예에 따르면 상기 모션 공간 파라미터는 지지구간 상하진동폭, 부유구간 상하진동폭, 최대 수직힘부하율, 평균 수직힘부하율, 충격량, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함한다.
본 발명의 일 실시예에 따르면 상기 모션 시간 파라미터는 한발 지지시간, 한발 부유시간 및 분당 보수 중 적어도 하나를 포함한다.
본 발명의 일 실시예에 따르면 상기 모션 공간 파라미터는 한발구간 상하진동폭, 양발구간 상하진동폭, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함한다.
본 발명의 일 실시예에 따르면 상기 모션 시간 파라미터는 한발 지지시간, 양발 지지시간 및 분당 보수 중 적어도 하나를 포함한다.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 소정의 운동 동작을 모델링한 운동 모션 데이터; 및 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 이용한다.
본 발명의 일 실시예에 따르면 상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터이다.
본 발명의 일 실시예에 따르면 상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터이다.
본 발명의 일 실시예에 따르면 상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함한다.
본 발명의 일 실시예에 따르면 상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절이다.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및 상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함한다.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및 상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함한다.
본 발명의 일 실시예에 따르면 상기 사용자의 모션 궤적을 생성하는 단계는 상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 단계를 더 포함한다.
또한, 본 발명의 일 실시예에 따르면 상기 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체를 포함한다.
또한, 본 발명의 일 실시예에 따르면 3D 시뮬레이션 장치는 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 파라미터 입력부; 상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 3D 모델 생성부; 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 모션 궤적 생성부; 및 상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 3D 시뮬레이션 생성부를 포함한다.
본 발명에 따르면, 운동 인식 장치 또는 사용자로부터 입력된 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터에 기초하여, 3D 모델 및 모션 궤적을 생성하여 운동 자세 등에 관한 3D 시뮬레이션을 제공함으로써, 운동 중인 사용자가 효과적이고 정확하게 운동 상태를 인식, 감지 및 분석할 수 있다. 따라서 본 발명에 따른 3D 시뮬레이션을 통하여 사용자는 자신의 보행 및 주행 등의 운동 상태를 효과적이고 정확하게 인식할 수 있으며, 3D 시뮬레이션 분석을 통해 자신의 운동 자세를 교정하는 데 활용할 수 있다.
도 1은 본 발명의 일 실시예에 따른 3D 시뮬레이션 결과를 도시한다.
도 2은 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 모델 파라미터를 반영한 사용자의 3D 모델을 도시한다.
도 4은 본 발명의 일 실시예에 따른 자세 파라미터를 반영한 사용자의 3D 모델을 도시한다.
도 5는 본 발명의 일 실시예에 따른 운동 동작이 주행인 경우, 4단계 운동 모션을 도시한다.
도 6은 본 발명의 일 실시예에 따른 운동 동작이 보행인 경우, 4단계 운동 모션을 도시한다.
도 7은 본 발명의 일 실시예에 따른 모션 궤적 생성부의 블록도이다.
도 8은 본 발명의 일 실시예에 따른 운동 모션 데이터에 모션 공간 파라미터 를 반영하여 조정한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 운동 모션 데이터에 모션 시간 파라미터 를 반영하여 조정한 예시도이다.
도 10은 본 발명의 일 실시예에 따른 3D 시뮬레이션 방법의 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다. 도면에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면 상에서 각 구성 요소의 크기는 설명의 명료성을 위하여 과장되어 있을 수 있다.
도 1은 본 발명의 일 실시예에 따른 3D 시뮬레이션 결과를 도시한다.
본 실시예에 따르면, 3D 시뮬레이션 장치(200)는 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받고, 이에 기초하여 운동 중인 사용자의 3D 모델 및 모션 궤적을 생성함으로써 3D 시뮬레이션을 생성한다. 도시된 예에서, 사용자의 키, 발길이 및 다리 길이 등의 모델 파라미터, 보간 및 보각 등의 자세 파라미터, 보폭, 좌우 균일도 및 좌우 균형도 등의 모션 공간 파라미터, 공중 부유시간 등의 모션 시간 파라미터에 기초하여, 3D 시뮬레이션 장치(200)는 사용자의 보행 및 주행 운동을 3D 시뮬레이션하였다.
도 2은 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치의 블록도이다.
3D 시뮬레이션 장치(200)는 파라미터 입력부(210), 3D 모델 생성부(230), 모션 궤적 생성부(250) 및 3D 시뮬레이션 생성부(270)를 포함한다.
파라미터 입력부(210)는 외부 입력에 기초하여, 모델 파라미터(211), 자세 파라미터(213), 모션 공간 파라미터(215) 및 모션 시간 파라미터(217)를 입력받는다. 상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 사용자의 운동을 인식하여 입력된다. 운동 인식 장치와 관련된 상세한 내용은 기 출원된 한국 특허인 '보행 및 주행 모니터링을 위한 운동 인식 방법 및 장치' (출원번호: 제10-2016-0101489호, 출원일: 2016.08.09), '압력 중심 경로 기반 운동 자세 도출 방법 및 장치' (출원번호: 제10-2016-0101491호, 출원일: 2016.08.09), '보행 및 주행 모니터링을 위한 운동 인식 방법 및 장치' (출원번호: 제10-2017-0030394호, 출원일: 2017.03.10), '압력 중심 경로 기반 운동 자세 도출 방법 및 장치' (출원번호: 제10-2017-0030402호, 출원일: 2017.03.10) 및 '주행 시 부상 위험성 정량화 방법 및 장치' (출원번호: 제10-2017-0079255호, 출원일: 2017.06.22)에 기술되어 있으며, 상기 출원 특허는 본 명세서 내에 참조용으로 포함된다.
모델 파라미터(211)는 사용자의 외형에 관한 파라미터로서, 신장(Height), 몸무게(Weight), 발 길이(Foot length), 다리 길이(Leg length), 나이(Age), 성별(Gender) 및 착용 정보 중 적어도 하나를 포함한다. 착용 정보는 사용자가 착용한 제품의 유형, 이름 및 브랜드 등을 포함한다. 사용자가 착용한 제품은 시계 등의 악세사리, 옷, 신발 등을 포함한다.
자세 파라미터(213)는 사용자의 자세에 관한 파라미터로서, 보간(Step width), 보각(Step angle) 및 상하 시선각(Head vertical angle) 중 적어도 하나를 포함한다. 보간은 다리 사이 간격 평균값이며, 보각은 다리 각도 평균값이다. 상하 시선각은 머리의 상하 각도 평균값을 의미한다.
모션 공간 파라미터(215)는 사용자의 모션의 공간 궤적(Trajectory)에 관한 파라미터로서, 사용자가 주행 운동하는 경우, 지지구간 상하진동폭(Vertical oscillation during stance), 부유구간 상하진동폭(Vertical oscillation during flight), 최대 수직힘부하율(IVLR: Instantaneous Vertical Loading Rate), 평균 수직힘부하율(AVLR: Average Vertical Loading Rate), 충격량(Impact), 좌우균일도(Stability), 좌우균형도(Balance), 보폭(Step length), 착지발(Foot strike pattern), 상하골반각(Pelvic vertical rotation), 좌우골반각(Pelvic lateral rotation) 및 좌우시선각(Head lateral angle) 중 적어도 하나를 포함한다. 모션 공간 파라미터(215)는 사용자가 보행 운동하는 경우, 한발구간 상하진동폭(Vertical oscillation during single stance), 양발구간 상하진동폭(Vertical oscillation during double stance), 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함한다.
지지구간 상하진동폭은 지지구간에서 상하 이동 거리(meter)를 의미하며, 부유구간 상하진동폭은 부유구간에서 상하 이동 거리를 의미한다. 최대 수직힘부하율은 순간 수직 힘 부하율(Newton/second)로서, 지면 반력의 지지구간 최대 기울기를 의미한다. 평균 수직힘부하율(Newton/second)은 지면 반력의 지지구간 평균 기울기를 의미한다. 충격량은 지면 반력의 지지구간 충격력(Newton)을 의미한다.
좌우균일도(Stability)는 시간, 힘 등에 있어서, 왼발 및 오른발 각각의 다리에 일관성있게 운동상태가 유지되는지를 의미하며, 각각의 다리의 변동 계수(CV: Coefficient)를 이용하여 %로 나타내며, 아래 식을 통해 구한다.
Stability(Left) = 1 - std(Left indices) / mean(Left indices)
Stability(Right) = 1 - std(Right indices) / mean(Right indices)
평가지표인 index로 쓰일 수 있는 값은 수직힘 최대값, 수직 가속도 최대값, 지지구간 충격량, 지지시간, 부유시간, 평균 수직힘부하율 및 최대수직힘 부하율을 포함한다.
좌우균형도(Balance)는 좌우 불균형도(%)를 나타내며, 아래 식을 통해 구한다.
Balance = Left index / (Left index + Right index) * 100%
보폭(Step length)은 지지구간 및 부유구간 동안 전진하여 이동한 거리를 의미하며, 착지발(Foot strike pattern)은 어떤 발로 착지하는지를 나타낸다. 예를 들어, 착지발은 발 앞꿈치(Fore foot), 발 뒤꿈치(Rear foot) 및 발 중간(Mid foot) 중 하나일 수 있다. 상하골반각(Pelvic vertical rotation) 및 좌우골반각(Pelvic lateral rotation)은 각각 골반의 상하 뒤틀림 및 좌우 뒤틀림 정도를 의미한다. 좌우시선각(Head lateral angle)은 머리의 좌우 각도 평균값이다.
모션 시간 파라미터(217)는 사용자의 모션의 시간 궤적에 관한 파라미터로서, 사용자가 주행 운동하는 경우, 한발 지지시간(Single stance time), 한발 부유시간(Single flight time) 및 분당 보수(Cadence) 중 적어도 하나를 포함한다. 모션 시간 파라미터(217)는 사용자가 보행 운동하는 경우, 한발 지지시간(Single stance time), 양발 지지시간(Double stance time) 및 분당 보수 중 적어도 하나를 포함한다.
3D 모델 생성부(230)는 모델 파라미터(211) 및 자세 파라미터(213)에 기초하여 사용자의 3D 모델을 생성한다.
모션 궤적 생성부(250)는 모션 공간 파라미터(215) 및 모션 시간 파라미터(217)에 기초하여, 사용자의 모션 궤적을 생성한다. 모션 궤적 생성부(250)의 상세한 동작은 도 5 내지 도 9를 통해 이하에서 상세히 후술한다.
3D 시뮬레이션 생성부(270)는 상기 3D 모델에 상기 모션 궤적을 적용하여 사용자의 3D 시뮬레이션을 생성한다.
도 3은 본 발명의 일 실시예에 따른 모델 파라미터를 반영한 사용자의 3D 모델을 도시한다.
도시된 예에서, 모델 파라미터(211) 중 사용자의 신장을 반영하여 3D 모델을 생성하였다.
도 4은 본 발명의 일 실시예에 따른 자세 파라미터를 반영한 사용자의 3D 모델을 도시한다.
도시된 예에서, 자세 파라미터(213) 중 사용자의 보간 및 보각을 반영하여 3D 모델을 생성하였다.
도 5는 본 발명의 일 실시예에 따른 운동 동작이 주행인 경우, 4단계 운동 모션을 도시한다.
주행 운동인 경우, 운동 동작은 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계가 반복적으로 이루어진다.
도 6은 본 발명의 일 실시예에 따른 운동 동작이 보행인 경우, 4단계 운동 모션을 도시한다.
보행 운동인 경우, 운동 동작은 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계가 반복적으로 이루어진다.
도 7은 본 발명의 일 실시예에 따른 모션 궤적 생성부의 블록도이다.
모션 궤적 생성부(700)는 운동 모션 데이터(720) 및 기본 모션 데이터(730)를 포함한다. 운동 모션 데이터(720)는 소정의 운동 동작을 모델링하여 기 저장된 데이터이며, 기본 모션 데이터(730)는 모션 공간 파라미터(715) 및 모션 시간 파라미터(717)에 독립적인 모션 데이터로서 기 저장된 데이터이다. 예를 들어, 기본 모션 데이터(730)는 움직임에 변동이 적은 팔 모션이나 상체 뒤틀림 등의 허우적거리는 모션에 대한 데이터일 수 있다.
소정의 운동 동작이 주행인 경우, 운동 모션 데이터(720) 및 기본 모션 데이터(730)는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터이다. 소정의 운동 동작이 보행인 경우, 운동 모션 데이터(720) 및 기본 모션 데이터(730)는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터이다. 주행 또는 보행 운동에서 상기 4단계는 반복하여 재생된다. 각각의 단계는 각각의 관절에 대한 상하축(z축), 좌우축(y축) 및 전후축(x축)의 3축 모션 궤적 값을 포함한다. 상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나이다.
모션 궤적 생성부(700)는 모션 공간 파라미터 조정부(750) 및 모션 시간 파라미터 조정부(770)를 더 포함한다.
모션 공간 파라미터 조정부(750)는 모션 공간 파라미터(715)에 기초한 게인값을 운동 모션 데이터(720)에 반영하여 조정함으로써, 제1 조정값을 생성한다. 예를 들어, 모션 공간 파라미터인 '부유구간 상하진동폭'의 값이 C이고, 해당 값의 최대 가능 값이 Cmax, 최소 가능 값이 Cmin 할 때, '부유구간 상하진동폭' 값에 의한 게인값은 (C - Cmin)/( Cmax
- Cmin)으로 설정할 수 있다. 따라서 게인값은 0<=게인값<=1의 범위를 갖는다. 이상에서 게인값 설정을 예시하였지만, 다른 방법으로 게인값을 설정할 수 있음은 당업자에게 자명하다. 모션 시간 파라미터 조정부(770)는 모션 시간 파라미터(717)에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.
한편, 본 발명의 다른 실시예에 따르면, 모션 시간 파라미터 조정부(770)는 모션 시간 파라미터(717)에 기초한 게인값을 운동 모션 데이터(720)에 반영하여 조정함으로써, 제1 조정값을 생성한다. 모션 공간 파라미터 조정부(750)는 모션 공간 파라미터(715)에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.
모션 궤적 생성부(700)는 모션 궤적 병합부(790)를 더 포함한다. 모션 궤적 병합부(790)는 기본 모션 데이터 및 상기 제2 조정값을 병합함으로써, 사용자의 모션 궤적을 생성한다.
도 8은 본 발명의 일 실시예에 따른 운동 모션 데이터에 모션 공간 파라미터 를 반영하여 조정한 예시도이다.
도시된 예에서, 주행 운동의 경우 운동 모션 데이터(720)에 저장된 일반적인 허리 3축 모션 궤적 값은 파란 실선으로 도시되어 있다. 모션 공간 파라미터 조정부(750)는 모션 공간 파라미터(715)에 기초한 게인값을 허리의 3축 모션 궤적 값에 반영하여 조정함으로써, 제1 조정값을 생성한다. 도시된 예에서 허리의 3축 모션 궤적 값 중 z축의 제1 조정값은 운동 모션 데이터(720)에 저장된 일반적인 허리 3축 모션 궤적 값 대비 진폭이 줄어들었음을 알 수 있다.
도 9는 본 발명의 다른 실시예에 따른 운동 모션 데이터에 모션 시간 파라미터를 반영하여 조정한 예시도이다.
도시된 예에서, 주행 운동의 경우 운동 모션 데이터(720)에 저장된 일반적인 허리 3축 모션 궤적 값은 파란 실선으로 도시되어 있다. 모션 시간 파라미터 조정부는 모션 시간 파라미터에 기초한 게인값을 허리의 3축 모션 궤적 값에 반영하여 조정함으로써, 제1 조정값을 생성한다. 도시된 예에서 허리의 3축 모션 궤적 값 중 z축의 제1 조정값은 운동 모션 데이터에 저장된 일반적인 허리 3축 모션 궤적 값 대비 오른발 지지시간이 줄어들었음을 알 수 있다.
도 10은 본 발명의 일 실시예에 따른 3D 시뮬레이션 방법의 흐름도이다.
단계 1010에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200) 는 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는다. 상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된다.
단계 1020에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200)는 상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성한다.
단계 1030에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200) 는 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성한다. 상기 사용자의 모션 궤적을 생성하는 단계는 소정의 운동 동작을 모델링한 운동 모션 데이터 및 상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 이용한다.
상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터이다. 상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터이다. 상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함한다. 상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절이다.
상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하고, 상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.
본 발명의 다른 실시예에 따르면, 상기 사용자의 모션 궤적을 생성하는 단계는 상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하고, 상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성한다.
본 발명의 일 실시예에 따른 상기 사용자의 모션 궤적을 생성하는 단계는 상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 단계를 더 포함한다.
단계 1040에서, 본 발명의 일 실시예에 따른 3D 시뮬레이션 장치(200) 는 상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성한다.
이상에서 본 발명의 바람직한 실시예가 상세히 기술되었지만, 본 발명의 범위는 이에 한정되지 않고, 다양한 변형 및 균등한 타 실시예가 가능하다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위에 의해서 정해져야 할 것이다.
예를 들어, 본 발명의 예시적인 실시예에 따른 장치는 도시된 바와 같은 장치 각각의 유닛들에 커플링된 버스, 상기 버스에 커플링된 적어도 하나의 프로세서를 포함할 수 있고, 명령, 수신된 메시지 또는 생성된 메시지를 저장하기 위해 상기 버스에 커플링되고, 전술한 바와 같은 명령들을 수행하기 위한 적어도 하나의 프로세서에 커플링된 메모리를 포함할 수 있다.
또한, 본 발명에 따른 시스템은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 상기 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등) 및 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
본 발명에 따르면, 운동 인식 장치 또는 사용자로부터 입력된 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터에 기초하여, 3D 모델 및 모션 궤적을 생성하여 운동 자세 등에 관한 3D 시뮬레이션을 제공함으로써, 운동 중인 사용자가 효과적이고 정확하게 운동 상태를 인식, 감지 및 분석할 수 있다. 따라서 본 발명에 따른 3D 시뮬레이션을 통하여 사용자는 자신의 보행 및 주행 등의 운동 상태를 효과적이고 정확하게 인식할 수 있으며, 3D 시뮬레이션 분석을 통해 자신의 운동 자세를 교정하는 데 활용할 수 있다.
Claims (35)
- 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 파라미터 입력부;상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 3D 모델 생성부;상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 모션 궤적 생성부; 및상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 3D 시뮬레이션 생성부를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 1항에 있어서,상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 1항에 있어서,상기 모델 파라미터는 상기 사용자의 외형에 관한 파라미터이고;상기 자세 파라미터는 상기 사용자의 자세에 관한 파라미터이고;상기 모션 공간 파라미터는 상기 사용자의 모션의 공간 궤적에 관한 파라미터이고;상기 모션 시간 파라미터는 상기 사용자의 모션의 시간 궤적에 관한 파라미터인 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 1항에 있어서,상기 모델 파라미터는 신장, 몸무게, 발 길이, 다리 길이, 나이, 성별 및 착용 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 1항에 있어서,상기 자세 파라미터는 보간, 보각 및 상하 시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 1항에 있어서,상기 모션 공간 파라미터는 지지구간 상하진동폭, 부유구간 상하진동폭, 최대 수직힘부하율, 평균 수직힘부하율, 충격량, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 1항에 있어서,상기 모션 시간 파라미터는 한발 지지시간, 한발 부유시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 1항에 있어서,상기 모션 공간 파라미터는 한발구간 상하진동폭, 양발구간 상하진동폭, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 1항에 있어서,상기 모션 시간 파라미터는 한발 지지시간, 양발 지지시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 1항에 있어서,상기 모션 궤적 생성부는소정의 운동 동작을 모델링한 운동 모션 데이터; 및상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 10항에 있어서,상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 10항에 있어서,상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 11항 또는 제12항에 있어서,상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 13항에 있어서,상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절인 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 10항에 있어서,상기 모션 궤적 생성부는상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 모션 공간 파라미터 조정부; 및상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 모션 시간 파라미터 조정부를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 10항에 있어서,상기 모션 궤적 생성부는상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 모션 시간 파라미터 조정부; 및상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 모션 공간 파라미터 조정부를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 제 15항 또는 제16항에 있어서,상기 모션 궤적 생성부는상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 모션 궤적 병합부를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 장치.
- 외부 입력에 기초하여, 모델 파라미터, 자세 파라미터, 모션 공간 파라미터 및 모션 시간 파라미터를 입력받는 단계;상기 모델 파라미터 및 상기 자세 파라미터에 기초하여 사용자의 3D 모델을 생성하는 단계;상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 기초하여 상기 사용자의 모션 궤적을 생성하는 단계; 및상기 3D 모델에 상기 모션 궤적을 적용하여 상기 사용자의 3D 시뮬레이션을 생성하는 단계를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 18항에 있어서,상기 외부 입력은 사용자로부터의 입력이거나, 운동 인식 장치로부터 상기 사용자의 운동을 인식하여 입력된 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 18항에 있어서,상기 모델 파라미터는 상기 사용자의 외형에 관한 파라미터이고;상기 자세 파라미터는 상기 사용자의 자세에 관한 파라미터이고;상기 모션 공간 파라미터는 상기 사용자의 모션의 공간 궤적에 관한 파라미터이고;상기 모션 시간 파라미터는 상기 사용자의 모션의 시간 궤적에 관한 파라미터인 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 18항에 있어서,상기 모델 파라미터는 신장, 몸무게, 발 길이, 다리 길이, 나이, 성별 및 착용 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 18항에 있어서,상기 자세 파라미터는 보간, 보각 및 상하 시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 18항에 있어서,상기 모션 공간 파라미터는 지지구간 상하진동폭, 부유구간 상하진동폭, 최대 수직힘부하율, 평균 수직힘부하율, 충격량, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 18항에 있어서,상기 모션 시간 파라미터는 한발 지지시간, 한발 부유시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 18항에 있어서,상기 모션 공간 파라미터는 한발구간 상하진동폭, 양발구간 상하진동폭, 좌우균일도, 좌우균형도, 보폭, 착지발, 상하골반각, 좌우골반각 및 좌우시선각 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 18항에 있어서,상기 모션 시간 파라미터는 한발 지지시간, 양발 지지시간 및 분당 보수 중 적어도 하나를 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 18항에 있어서,상기 사용자의 모션 궤적을 생성하는 단계는소정의 운동 동작을 모델링한 운동 모션 데이터; 및상기 모션 공간 파라미터 및 상기 모션 시간 파라미터에 독립적인 기본 모션 데이터를 이용하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 27항에 있어서,상기 소정의 운동 동작이 주행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 왼발 부유구간, 오른발 지지구간 및 오른발 부유구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 27항에 있어서,상기 소정의 운동 동작이 보행인 경우, 상기 운동 모션 데이터 및 상기 기본 모션 데이터는 왼발 지지구간, 양발 지지구간, 오른발 지지구간 및 양발 지지구간을 포함하는 4단계 데이터인 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 28항 또는 제29항에 있어서,상기 4단계 데이터는 각각의 관절에 대한 상하축, 좌우축 및 전후축 모션 궤적 값을 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 30항에 있어서,상기 관절은 목, 어깨, 허리, 무릎, 팔, 팔꿈치, 발목 및 발가락 중 적어도 하나의 관절인 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 27항에 있어서,상기 사용자의 모션 궤적을 생성하는 단계는상기 모션 공간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및상기 모션 시간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 27항에 있어서,상기 사용자의 모션 궤적을 생성하는 단계는상기 모션 시간 파라미터에 기초한 게인값을 상기 운동 모션 데이터에 반영하여 조정함으로써, 제1 조정값을 생성하는 단계; 및상기 모션 공간 파라미터에 기초한 게인값을 상기 제1 조정값에 반영하여 조정함으로써, 제2 조정값을 생성하는 단계를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 32항 또는 제33항에 있어서,상기 사용자의 모션 궤적을 생성하는 단계는상기 기본 모션 데이터 및 상기 제2 조정값을 병합하는 단계를 더 포함하는 것을 특징으로 하는 3D 시뮬레이션 방법.
- 제 18항 내지 제 34항 중 어느 한 항에 의한 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201780037461.8A CN109310913B (zh) | 2016-08-09 | 2017-08-07 | 三维模拟方法及装置 |
US16/272,201 US11497966B2 (en) | 2016-08-09 | 2019-02-11 | Automatic coaching system and method for coaching user's exercise |
Applications Claiming Priority (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2016-0101491 | 2016-08-09 | ||
KR1020160101491A KR101830371B1 (ko) | 2016-08-09 | 2016-08-09 | 압력 중심 경로 기반 운동 자세 도출 방법 및 장치 |
KR1020160101489A KR101926170B1 (ko) | 2016-08-09 | 2016-08-09 | 보행 및 주행 모니터링을 위한 운동 인식 방법 및 장치 |
KR10-2016-0101489 | 2016-08-09 | ||
KR1020170030394A KR101995482B1 (ko) | 2017-03-10 | 2017-03-10 | 보행 및 주행 모니터링을 위한 운동 인식 방법 및 장치 |
KR1020170030402A KR101995484B1 (ko) | 2017-03-10 | 2017-03-10 | 압력 중심 경로 기반 운동 자세 도출 방법 및 장치 |
KR10-2017-0030394 | 2017-03-10 | ||
KR10-2017-0030402 | 2017-03-10 | ||
KR10-2017-0079255 | 2017-06-22 | ||
KR1020170079255A KR101970674B1 (ko) | 2017-06-22 | 2017-06-22 | 주행 시 부상 위험성 정량화 방법 및 장치 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/008534 Continuation-In-Part WO2018030743A1 (ko) | 2016-08-09 | 2017-08-08 | 운동 인식 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018030734A1 true WO2018030734A1 (ko) | 2018-02-15 |
Family
ID=61162849
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/008506 WO2018030734A1 (ko) | 2016-08-09 | 2017-08-07 | 3d 시뮬레이션 방법 및 장치 |
PCT/KR2017/008534 WO2018030743A1 (ko) | 2016-08-09 | 2017-08-08 | 운동 인식 방법 및 장치 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/008534 WO2018030743A1 (ko) | 2016-08-09 | 2017-08-08 | 운동 인식 방법 및 장치 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6765505B2 (ko) |
CN (2) | CN109310913B (ko) |
WO (2) | WO2018030734A1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109621331A (zh) * | 2018-12-13 | 2019-04-16 | 深圳壹账通智能科技有限公司 | 辅助健身方法、装置及存储介质、服务器 |
CN112130677A (zh) * | 2020-09-23 | 2020-12-25 | 深圳市爱都科技有限公司 | 一种可穿戴终端及其举手识别方法 |
CN116491935A (zh) * | 2023-06-29 | 2023-07-28 | 深圳市微克科技有限公司 | 一种智能穿戴设备的运动健康监测方法、系统及介质 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102022942B1 (ko) * | 2018-05-10 | 2019-09-19 | 주식회사 비플렉스 | 상하 지면 반력 힘의 기울기 예측 방법 및 이를 이용하는 주행 시 부상 위험성 정량화 장치 |
CN111790133B (zh) * | 2019-04-03 | 2021-06-08 | 杭州乾博科技有限公司 | 一种智能搏击球训练结束识别方法及系统 |
ES2928789T3 (es) * | 2019-05-07 | 2022-11-22 | Bodytone Int Sport S L | Cinta ergométrica para entrenamiento deportivo |
KR102304300B1 (ko) * | 2019-05-08 | 2021-09-23 | 주식회사 비플렉스 | 머리부 가속도 센서를 통한 보행인자 검출 방법 및 장치 |
CN110180158B (zh) * | 2019-07-02 | 2021-04-23 | 乐跑体育互联网(武汉)有限公司 | 一种跑步状态识别方法、系统及终端设备 |
CN113509173A (zh) * | 2020-04-10 | 2021-10-19 | 华为技术有限公司 | 运动姿势识别方法、终端设备及存储介质 |
CN111569397B (zh) * | 2020-04-30 | 2021-06-15 | 东莞全创光电实业有限公司 | 手柄类运动计数方法及终端 |
TWI741724B (zh) * | 2020-08-05 | 2021-10-01 | 美律實業股份有限公司 | 身體質量指數區間估測裝置及其操作方法 |
JP2022120517A (ja) * | 2021-02-05 | 2022-08-18 | パナソニックIpマネジメント株式会社 | 音響装置および音響制御方法 |
WO2023128511A1 (ko) * | 2021-12-28 | 2023-07-06 | 주식회사 디랙스 | 운동 자세 분석 장치 및 이를 포함하는 스마트 운동 기기 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330424A (ja) * | 1996-06-07 | 1997-12-22 | Matsushita Electric Ind Co Ltd | 3次元骨格構造の動き変換装置 |
JP2009204568A (ja) * | 2008-02-29 | 2009-09-10 | Seiko Instruments Inc | 歩行シミュレーション装置 |
KR20120059824A (ko) * | 2010-12-01 | 2012-06-11 | 경희대학교 산학협력단 | 복합 센서를 이용한 실시간 모션 정보 획득 방법 및 시스템 |
JP2014519947A (ja) * | 2011-06-22 | 2014-08-21 | ゴルフゾン カンパニー リミテッド | ユーザーに対するカスタマイズ練習環境を提供する仮想ゴルフシミュレーション装置、これとネットワークで連結されるサーバー、及び仮想ゴルフシミュレーションを用いたユーザーカスタマイズ練習環境の提供方法 |
US9307932B2 (en) * | 2010-07-14 | 2016-04-12 | Ecole Polytechnique Federale De Lausanne (Epfl) | System and method for 3D gait assessment |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6430997B1 (en) * | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
JP3443077B2 (ja) * | 1999-09-20 | 2003-09-02 | ソニー株式会社 | ロボットの運動パターン生成装置及び運動パターン生成方法、並びにロボット |
WO2005021107A1 (en) * | 2003-08-27 | 2005-03-10 | Steffan Klein | Personel training system and method |
KR100620118B1 (ko) * | 2004-03-31 | 2006-09-13 | 학교법인 대양학원 | 관성센서를 이용한 보행패턴 분석장치 및 그 방법 |
JP5028751B2 (ja) * | 2005-06-09 | 2012-09-19 | ソニー株式会社 | 行動認識装置 |
GB0602127D0 (en) * | 2006-02-02 | 2006-03-15 | Imp Innovations Ltd | Gait analysis |
US7561960B2 (en) * | 2006-04-20 | 2009-07-14 | Honeywell International Inc. | Motion classification methods for personal navigation |
US7610166B1 (en) * | 2006-07-21 | 2009-10-27 | James Solinsky | Geolocation system and method for determining mammal locomotion movement |
KR100894895B1 (ko) * | 2007-05-21 | 2009-04-30 | 연세대학교 산학협력단 | 운동, 균형 및 보행측정방법 및 치료시스템 |
KR100962530B1 (ko) * | 2007-09-28 | 2010-06-14 | 한국전자통신연구원 | 생체신호 측정 장치 및 방법 |
CN101881625B (zh) * | 2008-08-19 | 2012-09-12 | 幻音科技(深圳)有限公司 | 步幅校正方法、测距方法及计步装置 |
EP2335231B1 (en) * | 2008-09-04 | 2012-12-26 | Koninklijke Philips Electronics N.V. | Fall prevention system |
KR101101003B1 (ko) * | 2009-12-14 | 2011-12-29 | 대구대학교 산학협력단 | 센서노드를 이용한 신체의 움직임 및 균형 감지 시스템 및 방법 |
KR101633362B1 (ko) * | 2010-01-18 | 2016-06-28 | 삼성전자 주식회사 | 인간형 로봇 및 그 보행 제어방법 |
JP2012024275A (ja) * | 2010-07-22 | 2012-02-09 | Omron Healthcare Co Ltd | 歩行姿勢判定装置 |
EP2422698A1 (en) * | 2010-08-26 | 2012-02-29 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | Method and system for determining the walking or running speed of a person |
KR101418298B1 (ko) * | 2011-09-23 | 2014-07-15 | 주식회사 크리에이츠 | 고정된 카메라로 운동하는 피사체를 촬영하고 그 촬영 이미지에 기초하여 피사체의 실제의 운동 궤적의 투사 이미지를 획득하기 위한 방법 및 시스템 |
US9101812B2 (en) * | 2011-10-25 | 2015-08-11 | Aquimo, Llc | Method and system to analyze sports motions using motion sensors of a mobile device |
JP5915285B2 (ja) * | 2012-03-15 | 2016-05-11 | セイコーエプソン株式会社 | 状態検出装置、電子機器、測定システム及びプログラム |
CN103729614A (zh) * | 2012-10-16 | 2014-04-16 | 上海唐里信息技术有限公司 | 基于视频图像的人物识别方法及人物识别装置 |
JP2014236774A (ja) * | 2013-06-06 | 2014-12-18 | セイコーエプソン株式会社 | 生体情報処理装置および生体情報処理方法 |
JP6358889B2 (ja) * | 2013-09-26 | 2018-07-18 | 株式会社メガチップス | 歩行者観測システム、プログラムおよび進行方向推定方法 |
JP6134680B2 (ja) * | 2014-03-19 | 2017-05-24 | 日本電信電話株式会社 | 歩行支援装置、歩容計測装置、方法及びプログラム |
JP2016034480A (ja) * | 2014-07-31 | 2016-03-17 | セイコーエプソン株式会社 | 報知装置、運動解析システム、報知方法、報知プログラム、運動支援方法及び運動支援装置 |
JP2016034481A (ja) * | 2014-07-31 | 2016-03-17 | セイコーエプソン株式会社 | 情報分析装置、運動解析システム、情報分析方法、分析プログラム、画像生成装置、画像生成方法、画像生成プログラム、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法 |
JP6080078B2 (ja) * | 2014-08-18 | 2017-02-15 | 高知県公立大学法人 | 姿勢および歩行状態推定装置 |
HK1203120A2 (en) * | 2014-08-26 | 2015-10-16 | 高平 | A gait monitor and a method of monitoring the gait of a person |
US10448867B2 (en) * | 2014-09-05 | 2019-10-22 | Vision Service Plan | Wearable gait monitoring apparatus, systems, and related methods |
TWM499888U (zh) * | 2014-11-10 | 2015-05-01 | Alexandave Ind Co Ltd | 姿勢穩定度之評估與復健系統 |
CN104382599B (zh) * | 2014-12-05 | 2017-01-18 | 京东方科技集团股份有限公司 | 用于测量颈椎活动的方法、设备和可穿戴装置 |
US10716968B2 (en) * | 2014-12-11 | 2020-07-21 | Sony Corporation | Information processing system |
-
2017
- 2017-08-07 WO PCT/KR2017/008506 patent/WO2018030734A1/ko active Application Filing
- 2017-08-07 CN CN201780037461.8A patent/CN109310913B/zh active Active
- 2017-08-08 JP JP2019506629A patent/JP6765505B2/ja active Active
- 2017-08-08 WO PCT/KR2017/008534 patent/WO2018030743A1/ko active Application Filing
- 2017-08-08 CN CN201780037342.2A patent/CN109414608B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330424A (ja) * | 1996-06-07 | 1997-12-22 | Matsushita Electric Ind Co Ltd | 3次元骨格構造の動き変換装置 |
JP2009204568A (ja) * | 2008-02-29 | 2009-09-10 | Seiko Instruments Inc | 歩行シミュレーション装置 |
US9307932B2 (en) * | 2010-07-14 | 2016-04-12 | Ecole Polytechnique Federale De Lausanne (Epfl) | System and method for 3D gait assessment |
KR20120059824A (ko) * | 2010-12-01 | 2012-06-11 | 경희대학교 산학협력단 | 복합 센서를 이용한 실시간 모션 정보 획득 방법 및 시스템 |
JP2014519947A (ja) * | 2011-06-22 | 2014-08-21 | ゴルフゾン カンパニー リミテッド | ユーザーに対するカスタマイズ練習環境を提供する仮想ゴルフシミュレーション装置、これとネットワークで連結されるサーバー、及び仮想ゴルフシミュレーションを用いたユーザーカスタマイズ練習環境の提供方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109621331A (zh) * | 2018-12-13 | 2019-04-16 | 深圳壹账通智能科技有限公司 | 辅助健身方法、装置及存储介质、服务器 |
CN112130677A (zh) * | 2020-09-23 | 2020-12-25 | 深圳市爱都科技有限公司 | 一种可穿戴终端及其举手识别方法 |
CN112130677B (zh) * | 2020-09-23 | 2023-05-12 | 深圳市爱都科技有限公司 | 一种可穿戴终端及其举手识别方法 |
CN116491935A (zh) * | 2023-06-29 | 2023-07-28 | 深圳市微克科技有限公司 | 一种智能穿戴设备的运动健康监测方法、系统及介质 |
CN116491935B (zh) * | 2023-06-29 | 2023-08-29 | 深圳市微克科技有限公司 | 一种智能穿戴设备的运动健康监测方法、系统及介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2018030743A1 (ko) | 2018-02-15 |
JP2019531772A (ja) | 2019-11-07 |
CN109414608B (zh) | 2021-04-02 |
CN109414608A (zh) | 2019-03-01 |
CN109310913B (zh) | 2021-07-06 |
JP6765505B2 (ja) | 2020-10-07 |
CN109310913A (zh) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018030734A1 (ko) | 3d 시뮬레이션 방법 및 장치 | |
US10105571B2 (en) | Systems and methods for sensing balanced-action for improving mammal work-track efficiency | |
CN107632698B (zh) | 基于影像的动作分析系统与方法 | |
Silva et al. | The basics of gait analysis | |
CN107080540A (zh) | 用于分析人的步态和姿势平衡的系统和方法 | |
US20180085045A1 (en) | Method and system for determining postural balance of a person | |
CN1231753A (zh) | 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统 | |
TW201113005A (en) | Method and system for monioring sport related fitness by estimating muscle power and joint force of limbs | |
JP2007144107A (ja) | 運動補助システム | |
JP6943294B2 (ja) | 技認識プログラム、技認識方法および技認識システム | |
WO2022145563A1 (ko) | 사용자 맞춤형 운동 훈련 방법 및 시스템 | |
King et al. | Periods of extreme ankle displacement during one-legged standing | |
CN117148977B (zh) | 一种基于虚拟现实的运动康复训练方法 | |
Spelmezan et al. | Wearable automatic feedback devices for physical activities | |
Hirasawa et al. | Promotion system for home-based squat training using openpose | |
WO2017217567A1 (ko) | 피트니스 모니터링 시스템 | |
JP7020479B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2021083562A (ja) | 情報処理装置、計算方法およびプログラム | |
JP2022150491A (ja) | 作業支援システム | |
KR102418958B1 (ko) | 3d 시뮬레이션 방법 및 장치 | |
Felton et al. | Are planar simulation models affected by the assumption of coincident joint centers at the hip and shoulder? | |
WO2020241738A1 (ja) | トレーニング支援方法及び装置 | |
CN114011043A (zh) | 一种动作辅助用收集系统的运行方法和反馈方法 | |
KR102351534B1 (ko) | 균형 능력 평가 장치 및 방법 | |
KR20210040671A (ko) | 동적으로 변화하는 인체 무게 중심 궤적 추정 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17839752 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17839752 Country of ref document: EP Kind code of ref document: A1 |