[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017213240A - Voice instruction device - Google Patents

Voice instruction device Download PDF

Info

Publication number
JP2017213240A
JP2017213240A JP2016109687A JP2016109687A JP2017213240A JP 2017213240 A JP2017213240 A JP 2017213240A JP 2016109687 A JP2016109687 A JP 2016109687A JP 2016109687 A JP2016109687 A JP 2016109687A JP 2017213240 A JP2017213240 A JP 2017213240A
Authority
JP
Japan
Prior art keywords
user
sound
guide
posture
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016109687A
Other languages
Japanese (ja)
Inventor
旭 保彦
Yasuhiko Asahi
保彦 旭
満 細尾
Mitsuru Hosoo
満 細尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016109687A priority Critical patent/JP2017213240A/en
Priority to PCT/JP2017/020514 priority patent/WO2017209260A1/en
Publication of JP2017213240A publication Critical patent/JP2017213240A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Acoustics & Sound (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Rehabilitation Tools (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a voice instruction device detecting a prescribed movement such as a golf swing from a user's ears and instructing the user in real time during the movement.SOLUTION: A voice instruction device includes an applied part to be applied near an external auditory meatus of a user, and a guide voice generation part. The applied part includes a voice emission part for emitting the guide voice to the user, and a sensor for detecting the user's posture and movement. The guide voice generation part generates the guide voice determined in real time on the basis of the detected user's posture or movement. The guide voice generation part, for example, compares the detected user's posture or movement with a reference and represents the comparison result with a beat tone and volume of the guide voice.SELECTED DRAWING: Figure 1

Description

この発明は、ユーザの所定の動作中にリアルタイムに音声を用いてその動作を教習する音声教習装置に関する。   The present invention relates to a voice learning apparatus that learns an operation using a voice in real time during a user's predetermined operation.

ユーザの所定の動作、たとえばゴルフスイングを解析および評価する装置が実用化されている(たとえば、特許文献1,特許文献2など)。これらの装置は、ユーザのスイングを解析し、スイング後に軌道や速度を表示してユーザに知らせるものである。   An apparatus for analyzing and evaluating a user's predetermined operation, for example, a golf swing, has been put into practical use (for example, Patent Document 1 and Patent Document 2). These devices analyze the user's swing and display the trajectory and speed after the swing to inform the user.

特開2010−025737号公報JP 2010-025737 A

特開2012−254205号公報JP 2012-254205 A

しかしながら、上記従来の装置は、スイングの良否、たとえばスイング軌道のずれなどをスイング中にリアルタイムにユーザに知らせるものではなかった。また仮に、スイング中にリアルタイムに軌道ずれなどを表示するものがあったとしても、ユーザがスイング中にその表示を見ることは不可能であった。   However, the above-described conventional device does not notify the user in real time during the swing of the quality of the swing, for example, the deviation of the swing trajectory. Further, even if there is a device that displays a trajectory deviation or the like in real time during the swing, the user cannot see the display during the swing.

この発明の目的は、ゴルフスイングなどの所定の動作を、その動作中にリアルタイムに教習する(表示を見ずに良否の度合を判断する)ことができる音声教習装置を提供することにある。   An object of the present invention is to provide a voice learning device capable of learning a predetermined operation such as a golf swing in real time during the operation (determining the degree of quality without looking at the display).

本発明の音声教習装置は、ユーザの外耳道付近に装着される装着部、および、ガイド音発生部を備えている。装着部は、ユーザにガイド音声を放音する放音部、および、ユーザの姿勢または動作を検出するセンサを有している。ガイド音発生部は、検出されたユーザの姿勢または動作に基づいてリアルタイムに決定されたガイド音声を生成する。   The speech learning apparatus of the present invention includes a mounting unit that is mounted near the user's ear canal and a guide sound generating unit. The mounting unit includes a sound emitting unit that emits a guide voice to the user, and a sensor that detects the posture or operation of the user. The guide sound generating unit generates guide sound determined in real time based on the detected posture or motion of the user.

ガイド音生成部は、検出されたユーザの姿勢または動作に基づいて、ガイド音のうなり、音量、左右バランスおよび定位のうち少なくとも一つを制御するものであってよい。   The guide sound generation unit may control at least one of beat, volume, left / right balance, and localization of the guide sound based on the detected posture or action of the user.

ガイド音生成部は、ガイド音声としてパルス音を生成し、検出されたユーザの姿勢または動作に基づいてパルス音の間隔および/または音量を制御するものであってもよい。   The guide sound generation unit may generate a pulse sound as the guide sound and control the interval and / or volume of the pulse sound based on the detected posture or action of the user.

ユーザの姿勢または動作のリファレンスを記憶するリファレンスメモリをさらに備え、ガイド音生成部が、検出されたユーザの姿勢または動作をリファレンスと比較し、比較結果に基づいてガイド音声の態様をリアルタイムに制御するものであってもよい。   A reference memory for storing a reference of the user's posture or action is further provided, and the guide sound generation unit compares the detected user's posture or action with the reference and controls the mode of the guide voice in real time based on the comparison result. It may be a thing.

本発明の音声教習装置は、上記構成に加えて、楽音を発生する楽音発生部と、ガイド音生成部によって生成されたガイド音声および楽音発生部によって発生された楽音をミキシングして放音部に向けて出力するミキサと、をさらに備えていてもよい。   In addition to the above-described configuration, the speech learning apparatus according to the present invention mixes a musical sound generating unit that generates musical sounds, a guide voice generated by the guide sound generating unit, and a musical sound generated by the musical sound generating unit to generate a sound emitting unit. And a mixer that outputs the signal to the outside.

この発明によれば、ゴルフスイングなどの所定の動作を、音声を用いて、その動作中にリアルタイムに教習することができる。   According to the present invention, a predetermined operation such as a golf swing can be learned in real time during the operation using the voice.

この発明の実施形態である音声教習装置(音声インストラクター)の使用形態を示す図である。It is a figure which shows the usage pattern of the audio training apparatus (audio | voice instructor) which is embodiment of this invention. 音声教習装置のブロック図である。It is a block diagram of an audio learning apparatus. ユーザのスイングとヘッドスピードの変化の例を示す図である。It is a figure which shows the example of a user's swing and the change of head speed. ユーザのスイングとヘッドスピードの変化の例を示す図である。It is a figure which shows the example of a user's swing and the change of head speed. 音声教習装置のガイド音生成ルールを示す図である。It is a figure which shows the guide sound production | generation rule of an audio learning apparatus. 音声教習装置のガイド音発生手順およびリファレンス更新手順を示すフローチャートである。It is a flowchart which shows the guide sound generation | occurrence | production procedure and reference update procedure of an audio learning apparatus.

図1は、音声教習装置1の使用形態を示す図である。図2は、音声教習装置1のブロック図である。音声教習装置1は、ユーザの耳に装着される装着部2を有し、この装着部2に小型スピーカ14およびモーションセンサ15を内蔵している。モーションセンサ15は、ユーザPの動作、頭部の動作を検出する。例えば、ゴルフクラブCのスイング動作中の頭部の動作を検出する。音声教習装置1は、両耳の装着部2L,2Rに設けられたモーションセンサ15L、15RによってユーザPの頭部の動作を検出し、制御部10において、その動作とリファレンスとの差を小型スピーカ14L、14Rを介してユーザPに音声(ガイド音声)で知らせる。これにより、ユーザPは、スイング動作をしながらガイド音声を聴くことでリアルタイムにスイングを修正することができる。   FIG. 1 is a diagram showing a usage pattern of the speech learning apparatus 1. FIG. 2 is a block diagram of the speech learning apparatus 1. The voice learning apparatus 1 has a mounting portion 2 that is worn on the user's ear, and a small speaker 14 and a motion sensor 15 are built in the mounting portion 2. The motion sensor 15 detects the motion of the user P and the motion of the head. For example, the motion of the head during the swing motion of the golf club C is detected. The voice learning device 1 detects the motion of the head of the user P by the motion sensors 15L and 15R provided in the mounting portions 2L and 2R of both ears, and the control unit 10 determines the difference between the motion and the reference with a small speaker. The user P is notified by voice (guide voice) via 14L and 14R. Thereby, the user P can correct the swing in real time by listening to the guide voice while performing the swing operation.

図1において、ユーザPは、音声教習装置1を装着し、ゴルフクラブCを持ってアドレスの姿勢をとっている。音声教習装置1は、ユーザの両耳に装着される装着部2(2L,2R)、および、左右の装着部2L,2Rをつなぐケーブルの中間付近に設けられたコントロールボックス3を有している。左右の装着部2L,2Rには、上述したように、ユーザの外耳に音を放音する小型スピーカ14L、14R、および、揺動を検出するモーションセンサ15L、15Rが内蔵されている。モーションセンサ15L、15Rとしては、9軸のMEMSセンサが適用可能である。なお、モーションセンサ15L、15Rを左耳センサ15L、右耳センサ15Rとも呼ぶ。小型スピーカ14L、14Rからは、リアルタイムにゴルフスイングを指導するガイド音が放音される。左装着部2Lとコントロールボックス3、および、右装着部2Rとコントロールボックス3は、それぞれステレオケーブルで接続されている。コントロールボックス3は、左右装着部2L,2RへユーザPに聴かせる音声(ガイド音)を送信し、左右装着部2L,2Rに設けられたモーションセンサ15L,15Rから検出値を取得する。   In FIG. 1, a user P wears the voice learning device 1 and takes a golf club C and takes an address posture. The voice learning device 1 includes a mounting unit 2 (2L, 2R) mounted on both ears of a user and a control box 3 provided near the middle of a cable connecting the left and right mounting units 2L, 2R. . As described above, the left and right mounting portions 2L and 2R incorporate small speakers 14L and 14R that emit sound to the user's outer ear, and motion sensors 15L and 15R that detect swing. A 9-axis MEMS sensor is applicable as the motion sensors 15L and 15R. The motion sensors 15L and 15R are also referred to as a left ear sensor 15L and a right ear sensor 15R. From the small speakers 14L and 14R, a guide sound for guiding a golf swing in real time is emitted. The left mounting portion 2L and the control box 3, and the right mounting portion 2R and the control box 3 are connected by a stereo cable. The control box 3 transmits sound (guide sound) to be heard by the user P to the left and right mounting portions 2L and 2R, and acquires detection values from the motion sensors 15L and 15R provided in the left and right mounting portions 2L and 2R.

コントロールボックス3には、小型コンピュータである制御部10が内蔵されている。制御部10には、左耳センサ15L、右耳センサ15R、メモリ12、および、音源11が接続されている。なお、コントロールボックス3は、音声教習装置1専用のものであってもよいが、多機能携帯電話機(スマートフォン)とアプリケーションプログラムとで実現されてもよい。この場合、装着部2と多機能電話機とはBluetooth(登録商標)で通信してもよい。   The control box 3 includes a control unit 10 that is a small computer. A left ear sensor 15L, a right ear sensor 15R, a memory 12, and a sound source 11 are connected to the control unit 10. Note that the control box 3 may be dedicated to the audio learning device 1, but may be realized by a multi-function mobile phone (smartphone) and an application program. In this case, the mounting unit 2 and the multi-function telephone may communicate with each other via Bluetooth (registered trademark).

制御部10は、左耳センサ15L、右耳センサ15Rから入力される検出値に基いてユーザPの動きを推測・解析し、その解析結果とリファレンスとの差に基づいて、音源11に生成させるガイド音の態様を決定する。ガイド音の態様とは、ガイド音に付加されるうなり、音量、左右バランス、定位などである。なお、リファレンスはメモリ12に記憶されている。このガイド音の態様の決定処理は、たとえば10ミリ秒毎に行われ、音源11に対してガイド音の制御情報として出力される。ガイド音態様の決定の詳細は後述する(図4参照)。音源(サウンド・ジェネレータ)11は、制御部10から入力された制御情報に基づいてガイド音を生成し、態様を変更制御する。ガイド音は左右のアンプ(ドライバ)13L,13Rで増幅され、小型スピーカ14L,14Rから放音される。なお、図1ではアンプ13L,13Rがコントロールボックス3に設けられているが、装着部2L,2Rに設けられてもよい。   The control unit 10 estimates and analyzes the movement of the user P based on the detection values input from the left ear sensor 15L and the right ear sensor 15R, and causes the sound source 11 to generate based on the difference between the analysis result and the reference. The mode of the guide sound is determined. The mode of the guide sound includes beats added to the guide sound, volume, left / right balance, and localization. The reference is stored in the memory 12. The guide sound mode determination process is performed, for example, every 10 milliseconds, and is output to the sound source 11 as guide sound control information. Details of the determination of the guide sound mode will be described later (see FIG. 4). The sound source (sound generator) 11 generates a guide sound based on the control information input from the control unit 10 and controls to change the mode. The guide sound is amplified by the left and right amplifiers (drivers) 13L and 13R and emitted from the small speakers 14L and 14R. In FIG. 1, the amplifiers 13L and 13R are provided in the control box 3, but may be provided in the mounting portions 2L and 2R.

図3、図4は、ユーザPがゴルフクラブCをスイングしたときの姿勢の推移と頭部の向きの遷移を示す図である。図3はユーザPが好ましいスイングをしたときの例を示しており、図4はユーザPが好ましくないスイングをした場合の例を示している。ここで頭部の移動方向は図面右方向(打球方向)が前、その逆方向が後である。   3 and 4 are diagrams showing the transition of the posture and the transition of the head direction when the user P swings the golf club C. FIG. FIG. 3 shows an example when the user P makes a preferable swing, and FIG. 4 shows an example when the user P makes an unfavorable swing. Here, the moving direction of the head is the forward direction in the drawing (the hitting ball direction) and the reverse direction is the backward direction.

図3の好ましい例において、ユーザPがゴルフクラブCをスイングして打球するとき、ユーザPは、まずアドレス姿勢をとり(A)、この姿勢からバックスイング行って(B)、トップ姿勢を作る(C)。この過程で、モーションセンサ15の検出値から頭部は、小さい角度だけ右に旋回し、頭部の前後位置はほとんど変化ていないのがわかる。。ゴルフクラブCはスイング方向とは逆の方向にゆっくり移動(旋回)している。ユーザPは、トップの姿勢(C)からスイングを開始し(D)、加速しながらインパクト(E)を経てフォロースルー(F)でスイングを終了する。スイングの開始時に、頭部は前に移動且つ右に旋回し、スイングにともなって、前移動、右旋回が解消されて(逆方向に移動・旋回して)ゆく。そして、インパクトの瞬間に、頭部は、正面を向き(旋回角度=0)、大きく後ろに移動している。こののち、フォロースルーとともに、頭部は、左(打球方向)に大きく旋回し、後ろ移動が解消されて若干の前移動となる。   In the preferred example of FIG. 3, when the user P swings and hits the golf club C, the user P first takes an address posture (A), performs a back swing from this posture (B), and creates a top posture ( C). In this process, it can be seen from the detection value of the motion sensor 15 that the head turns to the right by a small angle, and the front and rear positions of the head hardly change. . The golf club C is slowly moving (turning) in a direction opposite to the swing direction. The user P starts the swing from the top posture (C) (D), and finishes the swing at the follow-through (F) through the impact (E) while accelerating. At the start of the swing, the head moves forward and turns to the right, and the forward movement and right turn are eliminated (moved and turned in the opposite direction) with the swing. Then, at the moment of impact, the head is facing backwards (turning angle = 0) and is moving backward greatly. After that, along with the follow-through, the head turns greatly to the left (in the direction of the hit ball), the backward movement is canceled and the head moves slightly forward.

図4の好ましくない例において、ユーザPがゴルフクラブCをスイングして打球するとき、ユーザPは、まずアドレス姿勢をとり(A)、この姿勢からバックスイング行って(B)、トップ姿勢を作る(C)。ここまでの過程は、図3の好ましい例とほぼ同様である。ユーザPは、トップの姿勢(C)からスイングを開始し(D)、加速しながらインパクト(E)を経てフォロースルー(F)でスイングを終了するが、スイングの開始時から頭部は前に移動するとともに、左に旋回し始める。インパクトの瞬間でも、頭部は、前に移動したままで左(打球方向)に旋回している。そして、その姿勢のままフォロースルーとなる。   In the unfavorable example of FIG. 4, when the user P swings and hits the golf club C, the user P first takes an address posture (A), performs a back swing from this posture (B), and creates a top posture. (C). The process so far is almost the same as the preferred example of FIG. The user P starts swinging from the top posture (C) (D), passes through the impact (E) while accelerating and ends the swing through the follow-through (F), but the head moves forward from the start of the swing. Move and start turning left. Even at the moment of impact, the head is turning left (hit direction) while moving forward. And it will follow through with that posture.

図5は、音声教習装置1がユーザPに対して放音するガイド音の態様を制御するルールを説明する図である。この実施形態の音声教習装置1は、ユーザPの頭部の動作を検出し、全身の動作を推測・解析する。具体的には、左右耳センサ15L,Rの検出値に基づいてユーザPの頭部の前後の移動と旋回を検出する。ユーザPの頭部の動きは、ユーザPの姿勢を表しており、頭部の動きに基づいて、ボールの方向を向いているか、体が開いていないかなどの全身の動きを推定することが可能である。   FIG. 5 is a diagram for explaining the rules for controlling the mode of the guide sound emitted from the voice learning device 1 to the user P. The speech learning apparatus 1 of this embodiment detects the movement of the head of the user P, and estimates and analyzes the movement of the whole body. Specifically, the front and back movement and turning of the user P's head are detected based on the detection values of the left and right ear sensors 15L and 15R. The movement of the head of the user P represents the posture of the user P, and based on the movement of the head, it is possible to estimate the movement of the whole body such as whether the body is facing the ball or the body is not open. Is possible.

解析の対象であるユーザPの頭部の前後の移動、および、頭部の旋回のお手本データであるリファレンスは、メモリ12に記憶されており、ユーザPのスイングに同期して読み出され、解析内容と比較される。リファレンスは、理想的な(先生の)スイングを記録したデータであってもよく、自分の過去の(よいフォームの)データであってもよい。   Reference that is a model data of the movement of the head of the user P that is the object of analysis and the turning of the head is stored in the memory 12 and is read out in synchronization with the swing of the user P for analysis. Compared with content. The reference may be data that records an ideal (teacher's) swing, or may be past data (in a good form).

音源11は、ガイド音として所定周波数(たとえば440ヘルツ)の音声を生成する。正弦波でもよいが、倍音を含み定位がわかりやすいノコギリ波を用いてもよい。   The sound source 11 generates sound having a predetermined frequency (for example, 440 hertz) as a guide sound. A sinusoidal wave may be used, but a sawtooth wave that includes overtones and has an easy-to-understand localization may be used.

制御部10は、アドレスの姿勢、バックスイングの姿勢、トップの姿勢において検出された頭部の旋回角度および移動量をリファレンスと比較し、そのずれに応じた量のうなりをガイド音に生じさせる。うなりは、2つの音声の減算波形であり、2つの音声の周波数差に相当する周波数を有する。具体的には、ガイド音に対して、うなりに相当する低周波信号波形で振幅変調(AM)すればよい。ずれが大きいほどうなりの回数を多くし、ずれが少なくなるにつれてうなりの回数を少なくすればよい。たとえば、以下の式を用いてうなり回数(うなり周波数)を決定することもできる。
うなり回数= 係数×(1−(解析値/リファレンス値))×ガイド音声周波数
The control unit 10 compares the turning angle and movement amount of the head detected in the address posture, the back swing posture, and the top posture with the reference, and causes the guide sound to produce an amount of beat corresponding to the deviation. The beat is a subtracted waveform of two sounds, and has a frequency corresponding to the frequency difference between the two sounds. Specifically, amplitude modulation (AM) may be performed on the guide sound with a low-frequency signal waveform corresponding to beat. The number of beats may be increased as the deviation is larger, and the number of beats may be reduced as the deviation is reduced. For example, the number of beats (beat frequency) can be determined using the following equation.
Number of beats = coefficient x (1- (analysis value / reference value)) x guide audio frequency

また、振幅変調の深さを調整してもよい。すなわち、ずれが大きいほどうなりを大きく(変調を深く)し、ずれが少なくなるにつれてうなりを小さく(変調を小さく)してもよい。リファレンスに対する頭部の旋回角度および移動量のずれがガイド音声のうなりの回数に反映されるため、ユーザPはガイド音声を聴きながらうなりが無くなるようにスイングの姿勢を修正すればよい。うなりの回数は通常の楽器のチューニングのように10Hz前後になるよう、係数が調整されている。また、所定回数のうなりが生じるように、周波数を制御したガイド1音とガイド2音を生成し、同時に鳴らすようにしてもよい。   Further, the depth of amplitude modulation may be adjusted. That is, the larger the deviation, the larger the beat (modulation deeper), and the smaller the deviation, the smaller the beat (modulation smaller). Since the deviation of the turning angle and the amount of movement of the head with respect to the reference is reflected in the number of times the guide voice beats, the user P may correct the swing posture so as to eliminate the beat while listening to the guide voice. The coefficient is adjusted so that the number of beats is around 10 Hz as in the case of normal instrument tuning. Further, a guide 1 sound and a guide 2 sound whose frequencies are controlled may be generated so that a predetermined number of beats occur, and played simultaneously.

上記のように、うなりの大小は、うなり周波数の高低およびうなりの深さ(変調度)の大小の両方または一方を含む。この実施形態では、うなり回数とうなりの深さをそれぞれ前後移動量のずれおよび旋回角度のずれに対応させている。うなりは、ガイド音を振幅変調して生じさせてもよいが、一方の耳に基本のガイド音(440ヘルツ)を放音し、他方の耳にスイング軌道のずれに合わせて周波数を上下させたスイング解析音(440±bヘルツ)の音を放音し、ユーザPの聴覚においてうなりを生じさせるようにしてもよい。   As described above, the size of the beat includes the height of the beat frequency and / or the depth of the beat (degree of modulation). In this embodiment, the number of beats and the depth of beat are made to correspond to the deviation of the amount of forward and backward movement and the deviation of the turning angle, respectively. The beat may be generated by amplitude-modulating the guide sound, but the basic guide sound (440 Hz) is emitted to one ear and the frequency is raised or lowered to the other ear according to the deviation of the swing trajectory. The sound of the swing analysis sound (440 ± b hertz) may be emitted to cause a beat in the user P's hearing.

以上は、頭部の旋回角度と移動量のリファレンスとのずれをガイド音のうなりでユーザPに知らせる例について説明したが、うなりに代えて、または、うなりに加えて、音量バランスや定位を用いて上記ずれをユーザPに知らせてもよい。以下その例を説明する。   In the above, the example in which the user P is informed of the deviation between the turning angle of the head and the reference of the movement amount by the beat of the guide sound has been described. Thus, the user P may be notified of the deviation. Examples thereof will be described below.

制御部10は、解析された頭部の前後位置をリファレンスと比較し、ずれている場合には左右の音量バランスを変化させてユーザPにずれを知らせる。すなわち、頭部がリファレンスよりも後ろにずれている場合には、左の音を大きくして左方向の注意を喚起する。頭部がリファレンスよりも前にずれている場合には、右の音を大きくして右方向の注意を喚起する。これにより、ユーザPに頭部の位置がずれていることを知らせるとともに、戻すべき方向へ注意を喚起するため、ユーザPは反射的に頭部位置を修正することが可能になる。なお、音の種類によっては小さくなったほうが注意を喚起できる可能性があるため、その場合には頭部のずれ方向と音量バランスの大小の方向を上記と逆にしてもよい。   The control unit 10 compares the analyzed front and back position of the head with the reference, and if it is shifted, changes the left and right volume balance to notify the user P of the shift. That is, when the head is shifted behind the reference, the left sound is increased to alert the left direction. If the head is displaced before the reference, the right sound is increased to alert the right. This informs the user P that the position of the head is displaced and alerts the user in the direction to return, so that the user P can reflexively correct the head position. Note that, depending on the type of sound, there is a possibility that attention can be drawn when the volume is reduced. In this case, the direction of head displacement and the direction of volume balance may be reversed.

制御部10は、解析された頭部の旋回をリファレンスと比較し、ずれている場合にはガイド音の定位を変化させる。ガイド音は、通常は頭頂または顔の前面に定位されている。ユーザPの頭部が、リファレンスよりも右に旋回している場合には、ガイド音を左後ろに定位させる。これにより、左後ろに関心が生じ、余分な右旋回を止める(元に戻す)ことができる。逆に、頭部がリファレンスよりも左に旋回している場合には、ガイド音を右後ろに定位させる。これにより、右後ろにユーザPの関心が生じ、余分な左旋回を止めることができる。   The control unit 10 compares the analyzed turning of the head with the reference, and changes the localization of the guide sound when it is deviated. The guide sound is usually localized at the top of the head or the face. When the user P's head is turning to the right of the reference, the guide sound is localized to the left rear. As a result, interest is generated in the left rear, and an extra right turn can be stopped (returned to the original). Conversely, when the head is turning to the left of the reference, the guide sound is localized to the right rear. As a result, interest of the user P is generated at the right rear, and an extra left turn can be stopped.

以上のモーションセンサの検出値(動作)の解析およびガイド音の態様制御処理は、短時間(たとえば10ミリ秒)間隔で実行され、音源11が生成するガイド音の態様がリアルタイムに制御される。ユーザPはゴルフクラブCをスイングしながら、種々の態様に制御されたガイド音を聴くことでアドレスの位置や、バックスイングの姿勢、スイング中の姿勢などを修正することができる。   The above-described analysis of the detection value (motion) of the motion sensor and guide sound mode control processing are executed at short time intervals (for example, 10 milliseconds), and the mode of the guide sound generated by the sound source 11 is controlled in real time. While swinging the golf club C, the user P can correct the address position, the posture of the back swing, the posture during the swing, and the like by listening to the guide sound controlled in various modes.

図6(A)は、制御部10のスイングガイド処理のフローチャートである。制御部10は、この処理を10ミリ秒ごとに繰り返して実行する。制御部10は、左右耳センサ15L,Rの検出値を取得し(S20)、検出値に基づいて頭部の前後の動きおよび左右の旋回を解析する(S21)。そして制御部10は、頭部の左右の移動をリファレンスと比較し、そのずれに応じてガイド音のうなり回数および左右の音量バランスを決定する(S23)。制御部10は、頭部の旋回角度をリファレンスと比較し、そのずれに基づいてガイド音のうなり深さおよび定位位置を決定する(S14)。そして、S13、S14、S23およびS24で決定された態様でガイド音を生成するように音源11に指示する。   FIG. 6A is a flowchart of the swing guide process of the control unit 10. The control unit 10 repeats this process every 10 milliseconds. The control unit 10 acquires the detection values of the left and right ear sensors 15L and 15R (S20), and analyzes the back and forth movement of the head and the left and right turns based on the detection values (S21). Then, the control unit 10 compares the left / right movement of the head with the reference, and determines the number of beats of the guide sound and the left / right volume balance according to the deviation (S23). The control unit 10 compares the turning angle of the head with the reference, and determines the beat depth and localization position of the guide sound based on the deviation (S14). Then, the sound source 11 is instructed to generate the guide sound in the manner determined in S13, S14, S23, and S24.

図6(B)は、リファレンスの更新手順の一例を示すフローチャートである。この例では、過去のスイングの記録をリファレンスとして登録する手順を示している。メモリ12は複数回のスイング解析データを記憶する領域を有しており、ユーザPのスイング毎に、モーションセンサ15L,Rの検出値を解析し(S30)、そのスイングの解析データを記憶する(S31)。なお、S30のスイングは既に登録されているリファレンスを用いた練習スイングであってよい。1回または複数回スイングしたのち、良いスイングがあったと判断したユーザPは、音声教習装置1に対して所定のリファレンス更新操作を行う。リファレンス更新操作が行われると(S32でYES)、制御部10は、処理をS33の履歴選択処理に進める。S33では、制御部10はユーザPによる履歴の選択を受け付ける。メモリ12が過去複数回分の解析データを記憶可能な場合、ユーザPはそのなかからよかったと思われるものを選択する。そして、制御部10は選択された解析データをリファレンス記憶エリアに転記して(S34)、スイングによるモーションセンサの検出値を受け付ける通常処理にもどる。   FIG. 6B is a flowchart illustrating an example of a reference update procedure. In this example, a procedure for registering a record of a past swing as a reference is shown. The memory 12 has an area for storing a plurality of times of swing analysis data, analyzes the detection values of the motion sensors 15L and R for each swing of the user P (S30), and stores the analysis data of the swing (S30). S31). The swing at S30 may be a practice swing using a reference that has already been registered. After swinging once or a plurality of times, the user P who has determined that there is a good swing performs a predetermined reference update operation on the speech training apparatus 1. When the reference update operation is performed (YES in S32), the control unit 10 advances the process to the history selection process in S33. In S33, the control unit 10 accepts a history selection by the user P. When the memory 12 can store analysis data for a plurality of past times, the user P selects the one that seems to be good. Then, the control unit 10 transfers the selected analysis data to the reference storage area (S34), and returns to the normal processing for receiving the detected value of the motion sensor by the swing.

なお、メモリ12が過去1回分の解析データを記憶し、リファレンス更新操作が行われると、制御部10は記憶していた解析データを自動的にリファレンスとして登録するようにしてもよい。また、メモリ12に複数回の解析データを記憶し、その平均値をリファレンスとしてもよい。   Note that when the memory 12 stores analysis data for the past one time and a reference update operation is performed, the control unit 10 may automatically register the stored analysis data as a reference. Further, the analysis data of a plurality of times may be stored in the memory 12, and the average value may be used as a reference.

また、解析の対象は、アドレスの位置、バックスイングの姿勢、スイング軌道、スイング速度、頭部の左右移動および頭部の旋回に限定されない。これらの一部、または、ユーザPの動作に係る他の要素を解析してもよい。   Further, the analysis target is not limited to the address position, the back swing posture, the swing trajectory, the swing speed, the left and right movement of the head, and the turning of the head. Some of these or other elements related to the operation of the user P may be analyzed.

また、解析結果とリファレンスとのずれをリアルタイムに告知するためのガイド音の変化態様も上記に限定されない。また、ガイド音に代えて、または、ガイド音とともに、ガイド文言を生成且つ放音してもよい。ガイド文言は、たとえば「視線はボールのまま!」や「上体を突っ込まない!」などがある。   Moreover, the change mode of the guide sound for notifying the deviation between the analysis result and the reference in real time is not limited to the above. Further, instead of the guide sound or together with the guide sound, the guide wording may be generated and emitted. Guide words include, for example, “Gaze remains in the ball!” And “Do not thrust the upper body!”.

上記の実施形態は、ゴルフクラブCのスイングを解析且つ指導する例について説明したが、本発明はゴルフスイング以外にも適用可能である。たとえば、野球のバットスイング、テニスのラケットのスイング、また、解析対象はスイングに限定されず、舞踊等、お手本の姿勢・動作と解析対象の姿勢・動作が比較できるものなら何でもよい。また、放音部の伝達媒体は空気の振動に限定されず、人間の聴覚器官に振動を伝えるものであれば何でも良い。   Although the above embodiment has been described with respect to an example in which the swing of the golf club C is analyzed and instructed, the present invention can be applied to other than the golf swing. For example, a baseball bat swing, a tennis racket swing, and the analysis target are not limited to swings, and anything that can compare the posture / motion of the model and the posture / motion of the analysis target, such as dance. Further, the transmission medium of the sound emitting unit is not limited to air vibration, and any medium that transmits vibration to the human auditory organ may be used.

1 音声教習装置
2(2L、2R) 装着部
15L,15R モーションセンサ

1 Voice learning device 2 (2L, 2R) Mounting part 15L, 15R Motion sensor

Claims (5)

ユーザの外耳道付近に装着される装着部であって、前記ユーザにガイド音声を放音する放音部、および、前記ユーザの姿勢または動作を検出するセンサを有するものと、
前記検出されたユーザの姿勢または動作に基づいてリアルタイムに決定された前記ガイド音声を生成するガイド音生成部と、
を備えた音声教習装置。
A mounting unit mounted near the user's external auditory canal, including a sound emitting unit that emits a guide voice to the user, and a sensor that detects the posture or motion of the user;
A guide sound generator that generates the guide sound determined in real time based on the detected posture or motion of the user;
Voice learning device with
前記ガイド音生成部は、前記検出されたユーザの姿勢または動作に基づいて、前記ガイド音のうなり、音量、左右バランスおよび定位のうち少なくとも一つを制御する請求項1に記載の音声教習装置。   The audio learning device according to claim 1, wherein the guide sound generation unit controls at least one of beat, volume, left / right balance, and localization of the guide sound based on the detected posture or action of the user. 前記ガイド音生成部は、ガイド音声としてパルス音を生成し、前記検出されたユーザの姿勢または動作に基づいて前記パルス音の間隔および/または音量を制御する請求項1に記載の音声教習装置。   The speech learning apparatus according to claim 1, wherein the guide sound generation unit generates a pulse sound as a guide sound, and controls an interval and / or a volume of the pulse sound based on the detected posture or motion of the user. 前記ユーザの姿勢または動作のリファレンスを記憶するリファレンスメモリをさらに備え、
前記ガイド音生成部は、前記検出されたユーザの姿勢または動作を前記リファレンスと比較し、比較結果に基づいて前記ガイド音声の態様をリアルタイムに制御する請求項1乃至3のいずれかに記載の音声教習装置。
A reference memory for storing a reference of the posture or movement of the user;
The voice according to any one of claims 1 to 3, wherein the guide sound generation unit compares the detected posture or motion of the user with the reference, and controls a mode of the guide voice in real time based on a comparison result. Teaching device.
楽音を発生する楽音発生部と、
前記ガイド音生成部によって生成されたガイド音声、および、前記楽音発生部によって発生された楽音を、ミキシングして前記放音部に向けて出力するミキサと、
をさらに備えた請求項1乃至4のいずれかに記載の音声教習装置。

A musical sound generator for generating musical sounds;
A mixer that mixes the guide sound generated by the guide sound generation unit and the musical sound generated by the musical sound generation unit and outputs the mixed sound to the sound emission unit;
The speech learning apparatus according to claim 1, further comprising:

JP2016109687A 2016-06-01 2016-06-01 Voice instruction device Pending JP2017213240A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016109687A JP2017213240A (en) 2016-06-01 2016-06-01 Voice instruction device
PCT/JP2017/020514 WO2017209260A1 (en) 2016-06-01 2017-06-01 Audio training device and audio training method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016109687A JP2017213240A (en) 2016-06-01 2016-06-01 Voice instruction device

Publications (1)

Publication Number Publication Date
JP2017213240A true JP2017213240A (en) 2017-12-07

Family

ID=60477614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016109687A Pending JP2017213240A (en) 2016-06-01 2016-06-01 Voice instruction device

Country Status (2)

Country Link
JP (1) JP2017213240A (en)
WO (1) WO2017209260A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023523012A (en) * 2020-04-22 2023-06-01 スペッドテック リミテッド Multi-sensory based performance enhancement system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7011416B2 (en) * 2017-07-25 2022-01-26 株式会社クオンタム Detection device, detection system, processing device and detection program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2601568B2 (en) * 1991-04-08 1997-04-16 株式会社クボタ Hitting motion practice machine
JP2926452B2 (en) * 1991-10-28 1999-07-28 株式会社スギノマシン Golf swing analyzer
JP2009125507A (en) * 2007-11-27 2009-06-11 Panasonic Electric Works Co Ltd Golf improvement support device
JP5338104B2 (en) * 2008-03-27 2013-11-13 ヤマハ株式会社 Exercise support apparatus and program
CA2673149A1 (en) * 2009-07-20 2011-01-20 National Research Council Of Canada Audio feedback for motor control training
JP6340646B2 (en) * 2014-02-13 2018-06-13 株式会社ユピテル Sway detection device, sway detection system, and sway detection program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023523012A (en) * 2020-04-22 2023-06-01 スペッドテック リミテッド Multi-sensory based performance enhancement system

Also Published As

Publication number Publication date
WO2017209260A1 (en) 2017-12-07

Similar Documents

Publication Publication Date Title
JP6322830B2 (en) Information processing apparatus, information processing program, information processing system, and information processing method
JP4327578B2 (en) Program, information storage medium, and game system
JP4626087B2 (en) Musical sound control system and musical sound control device
JP3867515B2 (en) Musical sound control system and musical sound control device
US10878718B2 (en) System and method for synchronizing audio, movement, and patterns
KR101415944B1 (en) Virtual golf simulation device and method for providing stereophonic sound for whether condition
JP4206332B2 (en) Input device, game system, program, and information storage medium
JP2017184174A (en) Simulation system and program
JP7476930B2 (en) Vibration Sensor
US20200111461A1 (en) Emulation of at least one sound of a drum-type percussion instrument
WO2017209260A1 (en) Audio training device and audio training method
US6224386B1 (en) Sound field simulation method and sound field simulation apparatus
US8656307B2 (en) Information storage medium, computer terminal, and change method
CN100448312C (en) Apparatus and method for controlling music playing in mobile communication terminal
JP4731168B2 (en) Program, information storage medium, and game system
JP2006255072A (en) Program, information storage medium, and game system
JP2017136308A (en) Vocal training device
KR20200026023A (en) Punching bag hitting information providing apparatus
JP4420713B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2023001105A (en) Audio cancellation system and method
JP2005087716A (en) Program, information storage medium, and game system
JP2018064216A (en) Force sense data development apparatus, electronic apparatus, force sense data development method and control program
KR101875140B1 (en) A system of decrease for impact sound by golf ball
KR20210003372A (en) Apparatus and method for providing guide information and hit determination information for punching bag hitting
JP2005168763A (en) Program, information storage medium, and game system